@InProceedings{ec:034, author = "H. Daum{\'e} {III}", title = "Frustratingly Easy Domain Adaptation", booktitle = "proc. of the 45th Annual Meeting of the Association of Computational Linguistics", year = 2007, pages = "256-263" }
数ある転移学習の手法の中でも非常に簡潔な手法.
目標ドメインの事例 \((\mathbf{x}_T,y_T)\) は,次のように特徴ベクトルを横に繋いで拡張したベクトルを作る \[(\langle\mathbf{x}_T,\mathbf{x}_T,\mathbf{0}\rangle, y_T)\] ただし,\(\mathbf{0}\) は,\(\mathbf{x}_T\) と同じ長さの 0 ベクトル. 一方の元ドメインの事例 \((\mathbf{x}_S,y_S)\) は,次のように拡張した特徴ベクトルを作る \[(\langle\mathbf{x}_S,\mathbf{0},\mathbf{x}_S\rangle, y_S)\]
この方法では,元の特徴ベクトルの3倍の長さの特徴ベクトルを作ることになる.最初のブロックからは,元と目標ドメインに共通するパターンがあれば最初のブロックの特徴を重視する分類器が学習される.目標,または元ドメインだけにあるパターンがあれば,それぞれ2番目と3番目の特徴を重視するような分類器が学習されることになる.
-- しましま