Loading [MathJax]/extensions/TeX/boldsymbol.js
サポートベクトル回帰
をテンプレートにして作成
[
トップ
] [
新規
|
一覧
|
検索
|
最終更新
|
ヘルプ
|
ログイン
]
開始行:
* サポートベクトル回帰 (support vector regression) [#o07c...
//ここには %項目の説明を書いてください.よろしければ署名...
次の回帰直線と
\[f(\mathbf{x})=\mathbf{x}^\top\mathbf{w}+b\]
回帰直線とサンプルの残差を \(r\) として,次の ''ε許容誤差...
\[\xi(r)=\left\{\begin{array}{ll}0,&\mathrm{if}\;|r|\lt\e...
このとき,サンプル\((\mathbf{x}_1,y_1),\ldots,(\mathbf{x}...
\[\min_{\mathbf{w},b}\sum_{i=1}^N\xi(y_i-f(\mathbf{x}_i))...
ただし,\(\lambda\)は正則化パラメータ.
この双対問題は次の二次計画問題に書き換えられる.
\[\displaystyle\min_{\alpha_i,\alpha_i^\ast}\;\epsilon\su...
CENTER:制約:
\(0\le\alpha_i,\alpha_i^\ast\le 1/\lambda\) と
\(\sum_{i=1}^N(\alpha_i-\alpha_i^\ast)=0\)
これがサポートベクトル回帰と呼ばれる.誤差関数にはε許容誤...
> -- しましま
** 関連項目 [#ub2f0ca0]
//英語や同義語のあとに,#brで区切って関連する項目をリスト...
-[[support vector regression]]
#br
-[[ε許容誤差]]
-[[ε-insensitive error]]
#br
-[[SVM]]
-[[カーネル]]
-[[回帰分析]]
-[[非線形回帰]]
-[[ロバスト推定]]
-[[Huber関数]]
-[[損失関数]]
#br
-[[検索:サポートベクトル回帰 SVR]]
** リンク集 [#wfcfabcd]
//関連するWWW資源があればリンクしてください.
-[[Support Vector Machines for Regression>http://www.svms...
** 関連文献 [#ue688f05]
//この%項目%に関連する書籍や論文を紹介してください.
-A.J.Smola and B.Schölkopf "A Tutorial on Support Vector ...
[[Tutorials on Kernel Methods@kernel-machines.org>http://...
[[GoogleScholarAll:A Tutorial on Support Vector Regressio...
-[[Book/学習システムの理論と実現]] 3.8.1節
-[[Book/パターン認識と学習の統計学(統計科学のフロンティア...
-[[Book/Data Mining - Practical Machine Learning Tools an...
-[[Book/Neural Networks for Pattern Recognition]] 7.1.4節
-[[Book/The Elements of Statistical Learning]] 12.3.5, 12...
-[[Book/サポートベクターマシン(知の科学)]] 5章
終了行:
* サポートベクトル回帰 (support vector regression) [#o07c...
//ここには %項目の説明を書いてください.よろしければ署名...
次の回帰直線と
\[f(\mathbf{x})=\mathbf{x}^\top\mathbf{w}+b\]
回帰直線とサンプルの残差を \(r\) として,次の ''ε許容誤差...
\[\xi(r)=\left\{\begin{array}{ll}0,&\mathrm{if}\;|r|\lt\e...
このとき,サンプル\((\mathbf{x}_1,y_1),\ldots,(\mathbf{x}...
\[\min_{\mathbf{w},b}\sum_{i=1}^N\xi(y_i-f(\mathbf{x}_i))...
ただし,\(\lambda\)は正則化パラメータ.
この双対問題は次の二次計画問題に書き換えられる.
\[\displaystyle\min_{\alpha_i,\alpha_i^\ast}\;\epsilon\su...
CENTER:制約:
\(0\le\alpha_i,\alpha_i^\ast\le 1/\lambda\) と
\(\sum_{i=1}^N(\alpha_i-\alpha_i^\ast)=0\)
これがサポートベクトル回帰と呼ばれる.誤差関数にはε許容誤...
> -- しましま
** 関連項目 [#ub2f0ca0]
//英語や同義語のあとに,#brで区切って関連する項目をリスト...
-[[support vector regression]]
#br
-[[ε許容誤差]]
-[[ε-insensitive error]]
#br
-[[SVM]]
-[[カーネル]]
-[[回帰分析]]
-[[非線形回帰]]
-[[ロバスト推定]]
-[[Huber関数]]
-[[損失関数]]
#br
-[[検索:サポートベクトル回帰 SVR]]
** リンク集 [#wfcfabcd]
//関連するWWW資源があればリンクしてください.
-[[Support Vector Machines for Regression>http://www.svms...
** 関連文献 [#ue688f05]
//この%項目%に関連する書籍や論文を紹介してください.
-A.J.Smola and B.Schölkopf "A Tutorial on Support Vector ...
[[Tutorials on Kernel Methods@kernel-machines.org>http://...
[[GoogleScholarAll:A Tutorial on Support Vector Regressio...
-[[Book/学習システムの理論と実現]] 3.8.1節
-[[Book/パターン認識と学習の統計学(統計科学のフロンティア...
-[[Book/Data Mining - Practical Machine Learning Tools an...
-[[Book/Neural Networks for Pattern Recognition]] 7.1.4節
-[[Book/The Elements of Statistical Learning]] 12.3.5, 12...
-[[Book/サポートベクターマシン(知の科学)]] 5章
ページ名: