* カーネル'''k'''-means法 (kernel '''k'''-means method) [#d493adb2]

//ここには %項目の説明を書いてください.よろしければ署名しておいてください.

通常のk-means法の目的関数は次式
\[\mathrm{Err}(\{X_i\})=\sum_{c=1}^k\;\sum_{\mathbf{x}\in X_c}\;{||\mathbf{x} - \bar{\mathbf{x}}_c||}^2\]
ただし,データ集合 \(X\) は,ベクトルで表現されたデータ \(\mathbf{x}\) の集合.
クラスタ \(X_i\) は,データ集合の網羅的で互いに素な部分集合.
\(\bar{x}_i\) は \(X_i\) 中の重心(セントロイドともいう).
\(||\cdot||\) はユークリッドノルム.

ここで,\(\mathbf{x}\) を特徴空間に写して \(\phi(\mathbf{x})\) と置き換える.また,内積 \(\phi(\mathbf{x}_i)\cdot\phi(\mathbf{x}_j)\) を カーネル \(k(\mathbf{x}_i,\mathbf{x}_j)\) と置き換えると,上記の目的関数はカーネルだけで書ける.
\[\sum_{c=1}^k\;\sum_{\mathbf{x}_i\in X_c}\;\Bigl[k(\mathbf{x}_i,\mathbf{x}_i)-\frac{2}{n_c}\sum_{\mathbf{x}_j\in X_c} k(\mathbf{x}_i,\mathbf{x}_j)+\frac{1}{n_c^2}\sum_{\mathbf{x}_j,\mathbf{x}_k\in X_c} k(\mathbf{x}_j,\mathbf{x}_k)\Bigr]\]
ただし,\(n_c=|X_i|\).

こうして,カーネルトリックが適用でき,超球形以外のクラスタも抽出できるようになる.

> -- しましま

**関連項目 [#s20a39a7]

//英語や同義語のあとに,#brで区切って関連する項目をリストしてください.
-[[kernel k-means method]]
#br
-[[クラスタリング]]
-[[k-means法]]
-[[カーネル]]
-[[スペクトラルクラスタリング]]
#br
-[[検索:カーネルk-means法 カーネルk-平均法]]

**リンク集 [#hca2ef97]

//関連するWWW資源があればリンクしてください.

**関連文献 [#g73d45fc]

//この%項目%に関連する書籍や論文を紹介してください.

-M. Girolami, "Mercer Kernel-Based Clustering in Feature Space", IEEE Trans. on Neural Networks, vol.13, no.3, pp.780-784 (2002)~
[[GoogleScholarAll:Mercer Kernel-Based Clustering in Feature Space]]
-I.S.Dhillon, Y.Guan, and B. Kulis, "Kernel k-means, Spectral Clustering and Normalized Cuts", KDD2004, pp.551-556 (2004)~
重み付カーネルk-means法とnormalized cutのスペクトラルクラスタリングが等価であることを示した~
[[GoogleScholarAll:Kernel k-means, Spectral Clustering and Normalized Cuts]]

トップ   編集 差分 履歴 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS