* MetaCost [#a115b746]

//ここには %項目の説明を書いてください.よろしければ署名しておいてください.

コスト考慮型学習を,普通の分類器で実行する汎用手法の一つ.訓練事例のクラスを,期待コスト最小化した場合に適切なクラスに書き換え,その書き換えた訓練事例集合を使って普通に分類器を作ることでコスト考慮型の分類器を作る.


MetaCostアルゴリズム:記号は[[コスト考慮型学習]]を参照
+ バギングの手続きで弱学習器を作る
-- 元の訓練事例から復元抽出で作った訓練事例集合を,\(m\)個作る
-- それぞれの事例集合から弱分類器を作る
+ 事例 \(\mathbf{x}\) がクラス \(j\) になる条件付き確率質量関数の推定値 \(\hat{\Pr}[j|\mathbf{x}]\) を求める
-- 全ての事例 \(\mathbf{x}\) とクラス \(j\) について,次の量を \(\hat{\Pr}[j|\mathbf{x}]\) とする
--- 弱学習器がクラス \(j\) の確率を出力できるなら,\(m\) 個の弱学習器の平均
--- そうでなければ,\(m\) 個の弱学習器の中での予測クラスがクラス \(j\) に一致する割合
+ 事例 \(\mathbf{x}\) をクラス \(i\) に分類するときの期待コスト \(L(\mathbf{x},i)\)を最小にするクラス(\(i_\min (\mathbf{x}) = \underset{i}{\arg \min} \, L(\mathbf{x},i)\))を求め、訓練事例 \(\mathbf{x}\) のクラスをこれへ書き換える
\[L(\mathbf{x},i) \triangleq \sum_j \hat{\Pr}[j|\mathbf{x}] C(i|j)\]
+ このクラスを書き換えた訓練事例集合を使って分類器を学習すると,期待コストを最小化する分類器が得られる.

// 編集により[]内を削除してみました:「期待コスト[が最小]を最小にするクラスに...」


> -- しましま

** 関連項目 [#zfa7cfaf]

//英語や同義語のあとに,#brで区切って関連する項目をリストしてください.
-[[コスト考慮型学習]]
-[[バギング]]
#br
-[[検索:MetaCost]]

** リンク集 [#md54d877]

//関連するWWW資源があればリンクしてください.
//-[[]]

*** Freeware [#ca25eb9a]

-[[MetaCost>http://weka.wikispaces.com/MetaCost]]:[[Weka]]での実装
-[[RapidMiner]]:手法として実装
-[[TDMR: Tuned Data Mining in R>http://cran.r-project.org/web/packages/TDMR/]]:[[R]] のパッケージ

** 関連文献 [#ba4a21da]

//この%項目%に関連する書籍や論文を紹介してください.

-基本文献~
Pedro Domingos "MetaCost: A General Method for Making Classifiers Cost-Sensitive" KDD1999~
[[GoogleScholarAll:MetaCost: A General Method for Making Classifiers Cost-Sensitive]]
-文献2~
鈴木 英之進 "正確な学習よりも得する学習" vol.45, no.4-5 (2004)~
[[GoogleScholarAll:正確な学習よりも得する学習]]

トップ   編集 差分 履歴 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS