Migratory-Logit

転移する元データはラベルあり,転移先の目標データはラベルありとなしのデータがあり,ラベルなし目標データのラベルを予測するトランスダクティブ学習の設定.予測にはロジスティック回帰を使った Migratory-Logit法の提案.

目標データ \((y_i^{(T)},\mathbf{x}_i^{(T)})\) に対する尤度を,シグモイド関数を \(\sigma\),重みを \(\mathbf{w}\),次式で定義: \[\sigma(y_i^{(T)} \mathbf{w}^\top \mathbf{x}_i^{(T)})\]

一方で,元データ \((y_i^{(S)},\mathbf{x}_i^{(S)})\) に対する尤度を,補助変数 \(\mu_i\) を導入して,次式で定義 \[\sigma(y_i^{(S)} \mathbf{w}^\top \mathbf{x}_i^{(S)} + y_i^{(S)} \mu_i)\]

これらの各データに対する尤度の対数を,元・目標の両方のラベルありデータについてとった尤度を次の制約の下で最大化する. \[[1/N^{(S)}]\sum_i^{N^{(S)}}y_i^{(S)}\mu_i\le C,\;C\ge 0,\; y_i^{(S)}\mu_i\ge 0\] ただし,\(N^{(S)}\) は元データの数.

尤度を下げるような元データ,すなわち,\(y_i^{(S)} \mathbf{w}^\top \mathbf{x}_i^{(S)}\) が小さなデータは,目標データと不一致だと考えられる. こうしたデータに対しては \(y_i^{(S)}\mu_i\gt 0\) となり,これらの「悪い」データの影響が打ち消される.悪いデータから順に打ち消されるが,その総量は \(C N^{(S)}\) によって制御される.すなわち,\(C\) は,無視すべき役に立たない元データの割合となっている.

-- しましま

関連項目

リンク集

関連文献


トップ   編集 凍結 差分 履歴 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS
Last-modified: 2010-02-11 (木) 16:11:12