転移する元データはラベルあり,転移先の目標データはラベルありとなしのデータがあり,ラベルなし目標データのラベルを予測するトランスダクティブ学習の設定.予測にはロジスティック回帰を使った Migratory-Logit法の提案.
目標データ \((y_i^{(T)},\mathbf{x}_i^{(T)})\) に対する尤度を,シグモイド関数を \(\sigma\),重みを \(\mathbf{w}\),次式で定義: \[\sigma(y_i^{(T)} \mathbf{w}^\top \mathbf{x}_i^{(T)})\]
一方で,元データ \((y_i^{(S)},\mathbf{x}_i^{(S)})\) に対する尤度を,補助変数 \(\mu_i\) を導入して,次式で定義 \[\sigma(y_i^{(S)} \mathbf{w}^\top \mathbf{x}_i^{(S)} + y_i^{(S)} \mu_i)\]
これらの各データに対する尤度の対数を,元・目標の両方のラベルありデータについてとった尤度を次の制約の下で最大化する. \[[1/N^{(S)}]\sum_i^{N^{(S)}}y_i^{(S)}\mu_i\le C,\;C\ge 0,\; y_i^{(S)}\mu_i\ge 0\] ただし,\(N^{(S)}\) は元データの数.
尤度を下げるような元データ,すなわち,\(y_i^{(S)} \mathbf{w}^\top \mathbf{x}_i^{(S)}\) が小さなデータは,目標データと不一致だと考えられる. こうしたデータに対しては \(y_i^{(S)}\mu_i\gt 0\) となり,これらの「悪い」データの影響が打ち消される.悪いデータから順に打ち消されるが,その総量は \(C N^{(S)}\) によって制御される.すなわち,\(C\) は,無視すべき役に立たない元データの割合となっている.
-- しましま