* Migratory-Logit [#a1a094ee]

//ここには %項目の説明を書いてください.よろしければ署名しておいてください.

転移する元データはラベルあり,転移先の目標データはラベルありとなしのデータがあり,ラベルなし目標データのラベルを予測するトランスダクティブ学習の設定.予測にはロジスティック回帰を使った Migratory-Logit法の提案.

目標データ \((y_i^{(T)},\mathbf{x}_i^{(T)})\) に対する尤度を,シグモイド関数を \(\sigma\),重みを \(\mathbf{w}\),次式で定義:
\[\sigma(y_i^{(T)} \mathbf{w}^\top \mathbf{x}_i^{(T)})\]

一方で,元データ \((y_i^{(S)},\mathbf{x}_i^{(S)})\) に対する尤度を,補助変数 \(\mu_i\) を導入して,次式で定義
\[\sigma(y_i^{(S)} \mathbf{w}^\top \mathbf{x}_i^{(S)} + y_i^{(S)} \mu_i)\]

これらの各データに対する尤度の対数を,元・目標の両方のラベルありデータについてとった尤度を次の制約の下で最大化する.
\[[1/N^{(S)}]\sum_i^{N^{(S)}}y_i^{(S)}\mu_i\le C,\;C\ge 0,\; y_i^{(S)}\mu_i\ge 0\]
ただし,\(N^{(S)}\) は元データの数.

尤度を下げるような元データ,すなわち,\(y_i^{(S)} \mathbf{w}^\top \mathbf{x}_i^{(S)}\) が小さなデータは,目標データと不一致だと考えられる.
こうしたデータに対しては \(y_i^{(S)}\mu_i\gt 0\) となり,これらの「悪い」データの影響が打ち消される.悪いデータから順に打ち消されるが,その総量は \(C N^{(S)}\) によって制御される.すなわち,\(C\) は,無視すべき役に立たない元データの割合となっている.

> -- しましま

** 関連項目 [#oec99861]

//英語や同義語のあとに,#brで区切って関連する項目をリストしてください.
-[[転移学習]]
-[[ロジスティック回帰]]
#br
-[[検索:Migratory-Logit M-Logit]]

** リンク集 [#jcdc98ae]

//関連するWWW資源があればリンクしてください.

** 関連文献 [#o893eb5d]

//この%項目%に関連する書籍や論文を紹介してください.

-基本文献~
X.Liao, Y.Xue, and L.Carin, "Logistic Regression with an Auxiliary Data Streams", ICML2005~
-[[GoogleScholarAll:Logistic Regression with an Auxiliary Data Streams]]

トップ   編集 差分 履歴 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS