特徴選択/情報ゲイン
をテンプレートにして作成
[
トップ
] [
新規
|
一覧
|
検索
|
最終更新
|
ヘルプ
|
ログイン
]
開始行:
* 特徴選択/情報ゲイン (feature selection/information gain...
決定木アルゴリズム [[ID3]] で利用される情報ゲイン (inform...
フィルター法による特徴選択で使われる,代表的な特徴の良さ...
情報ゲインは,クラスの変数を \(C\),特徴の集合を \(X_A\) ...
\[\mathrm{Gain}(X_A)=H(C) - H(C|X_A)\]
ただし,\(H(\cdot)\) はエントロピー関数.
特徴集合 \(X_A\) に含まれる特徴が \(X_1,\ldots,X_k\) であ...
\(H(C|X_A)\)は,\(\mathcal{D}(X_1)\times\cdots\times\math...
backward stepwise selection の場合は,\(X_A\) が全特徴の...
forward stepwise selection の場合は,逆に特徴が何もない状...
どちらの場合も,情報ゲインの改善がなくなったときに停止す...
この情報ゲインには劣モジュラ性があるため,こうした欲張り...
> -- しましま
**関連項目 [#k39bc246]
-[[特徴選択]]
-[[劣モジュラ]]
-[[ID3]]
-[[エントロピー]]
-[[条件付エントロピー]]
**リンク集 [#r210817c]
//関連するWWW資源があればリンクしてください.
- [[Beyond Convexity: Submodularity in Machine Learning>h...
情報ゲインを使った特徴選択と劣モジュラ性の関連について.
**関連文献 [#w63402bf]
-[[Book/データマイニングの基礎]] 4.2.b節
終了行:
* 特徴選択/情報ゲイン (feature selection/information gain...
決定木アルゴリズム [[ID3]] で利用される情報ゲイン (inform...
フィルター法による特徴選択で使われる,代表的な特徴の良さ...
情報ゲインは,クラスの変数を \(C\),特徴の集合を \(X_A\) ...
\[\mathrm{Gain}(X_A)=H(C) - H(C|X_A)\]
ただし,\(H(\cdot)\) はエントロピー関数.
特徴集合 \(X_A\) に含まれる特徴が \(X_1,\ldots,X_k\) であ...
\(H(C|X_A)\)は,\(\mathcal{D}(X_1)\times\cdots\times\math...
backward stepwise selection の場合は,\(X_A\) が全特徴の...
forward stepwise selection の場合は,逆に特徴が何もない状...
どちらの場合も,情報ゲインの改善がなくなったときに停止す...
この情報ゲインには劣モジュラ性があるため,こうした欲張り...
> -- しましま
**関連項目 [#k39bc246]
-[[特徴選択]]
-[[劣モジュラ]]
-[[ID3]]
-[[エントロピー]]
-[[条件付エントロピー]]
**リンク集 [#r210817c]
//関連するWWW資源があればリンクしてください.
- [[Beyond Convexity: Submodularity in Machine Learning>h...
情報ゲインを使った特徴選択と劣モジュラ性の関連について.
**関連文献 [#w63402bf]
-[[Book/データマイニングの基礎]] 4.2.b節
ページ名: