* マージン (margin) [#z4d63a57]

//ここには %項目の説明を書いてください.よろしければ署名しておいてください.

正例と負例を[[識別]]するとき,正例と負例が超平面で線形分離可能とする.
この超平面から最も近い正例や負例をサポートベクトルと呼び,超平面とサポートベクトルの間の距離をマージンという.
[[SVM]]はこのマージンの幅を最大化にするように,この超平面を定める.

識別超平面の両側の最近の正例や負例までの領域をマージンということもある.
実データに[[SVM]]を適用する場合は,マージンをある程度超えて存在する事例を許すソフトマージンが一般に利用される.

>-- しましま

**関連項目 [#d7ece6ab]

//英語や同義語のあとに,#brで区切って関連する項目をリストしてください.

-[[margin]]
#br
-[[SVM]]
-[[線形分離可能]]
-[[構造的損失最小化]]
#br
-[[検索:マージン margin]]

**リンク集 [#r5eeece3]

//関連するWWW資源があればリンクしてください.
-[[Wikipedia:Margin_(machine_learning)]]

**関連文献 [#c39cdca4]

//この%項目%に関連する書籍や論文を紹介してください.

-[[Book/The Elements of Statistical Learning]] 12.2章
-[[Book/Pattern Recognition and Machine Learning]] 7.1章
-[[Book/パターン認識と学習の統計学(統計科学のフロンティア6)]] 第II部 3.1章
-[[Book/データマイニングの基礎]] 3.3.1節
-[[Book/サポートベクターマシン(知の科学)]] 6.3節

トップ   編集 差分 履歴 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS