Loading web-font TeX/Math/Italic

これらのキーワードがハイライトされています:EMアルゴリズム EM

ブースティング (boosting) / AdaBoost

バギングとならぶ代表的なアンサンブル学習の手法で,クラス分類問題を扱う. 弱学習器は,各事例を重み付けして学習できるものでなくてはならない.


アルゴリズム AdaBoost

  1. 現在の誤分類率分布 D_t(\mathbf{x}_i) の重み付けを用いて,弱学習器に分類器 C_t(x) を生成させる.
  2. 誤分類率分布 D_t(\mathbf{x}_i) で重み付けした,データ集合 \{\mathbf{x}_i\} に対する誤分類率を \epsilon_t とする. \beta_t=\epsilon_t/(1-\epsilon_t)
  3. 誤分類分布を更新:事例 \mathbf{x}_i\in\{\mathbf{x}_i\}C_tが誤分類したならば,D_{t+1}(\mathbf{x}_i)=\beta_t D_t(\mathbf{x}_i),そうでなければ,D_{t+1}(\mathbf{x}_i)=D_t(\mathbf{x}_i). 最後に D_{t+1}(\mathbf{x}_i) を正規化.

-- しましま

関連項目

リンク集

Freeware

関連文献


トップ   編集 凍結 差分 履歴 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS
Last-modified: 2010-02-11 (木) 16:12:26 (5511d)