損失関数
Top
/ 損失関数
[
トップ
] [
編集
|
凍結
|
差分
|
バックアップ
|
添付
|
リロード
] [
新規
|
一覧
|
単語検索
|
最終更新
|
ヘルプ
|
ログイン
]
朱鷺の杜Wiki
機械学習
学会・研究会
書籍・資料
論文英語
フリーウェア
python
numpy
テストデータ
日本語版PRML本
カーネル多変量解析
人気ページ
今日の人気ページ
ページ一覧
↑
参加しよう
Wiki超入門
練習用ページ
数式の表示
こびとさん
編集用ID:
ibis
パスワード
: 「VC次元」のVのフルスペルで最初だけ大文字
最新の30件
2021-04-12
python
2021-04-07
PRML/errata2
2021-03-07
MenuBar
Book
2021-02-15
python/numpy
2020-12-22
特異値分解
2020-12-20
IBIS
2020-12-18
complement naive Bayes
2020-11-27
しましま/IBIS2020
2020-11-05
K-NEL
2020-10-17
Paper/bias-on-the-web
2020-07-16
F値
2020-06-30
DataSet
2020-06-24
PRML/errata1
バイアス-バリアンス
2020-06-10
Paper
2020-03-15
PRML
PRML/link
2020-01-13
Wiki超入門
2019-11-22
しましま/IBIS2019
2019-10-29
コスト考慮型学習
2019-07-10
人工知能学会全国大会
2019-06-30
MCMC
2019-06-07
しましま/人工知能学会全国大会2019
2019-04-07
English
2019-03-11
経験ベイズ
2019-03-08
しましま/IBISML036
Meeting
2018-11-07
しましま/IBIS2018
2018-08-24
IRLS法
↑
カウンタ
累計: 45164
今日: 2
昨日: 10
損失関数
(
loss function
)
†
入出力をまとめたデータを \(z\):
クラス分類
ならクラスと特徴ベクトルの対であり,回帰なら
独立変数
と
従属変数
の対.
\(f\):データを処理する関数
\(L(z;f)\):
損失関数
(
loss function
)
は推定の悪さを定義した関数
回帰の場合は,データは \(z=(x,y)\) で,\(L(z,f)=(y-f(x))^2\) のような
二乗損失 (squared loss)
が利用される
クラス分類
の場合は,データは \(z=(x,c)\) で,クラス \(c\) と関数の出力クラス \(f(x)\) が一致すれば 0,そうでなければ 1 をとる
0/1損失 (0/1 loss)
が利用される
\(f(\cdot;\theta)\) が
パラメトリック
な
確率分布
だったとき,対数損失は\(-\log f(\cdot;\theta)\).この
損失関数
を使った期待損失の最小化は,真の分布と予測した分布の
Kullback-Leiblerダイバージェンス
の最小化になっている.
その他:
SVM
で用いられる
ヒンジ損失関数
,
サポートベクトル回帰
の
ε許容誤差関数
,ロバスト統計で用いられる
Huber関数
,
ブースティング
の指数
損失関数
などが代表的.
--
しましま
↑
関連項目
†
loss function
ヒンジ損失関数
ε許容誤差
Huber関数
リグレット
?
汎化誤差
標本誤差
経験損失最小化
検索:損失関数
↑
リンク集
†
Wikipedia:Loss_function
↑
関連文献
†
Book/わかりやすいパターン認識
8.2節
Book/パターン認識と学習の統計学(統計科学のフロンティア6)
I部 3.2節
Book/Pattern Recognition and Machine Learning
1.5.2節
Book/The Elements of Statistical Learning
7.2節,10.6節
Last-modified: 2010-02-11 (木) 16:12:47 (4080d)
Link:
しましま/IBIS2018
(889d)
機械学習
(1000d)
標本誤差
(1000d)
K-NEL/errata
(1247d)
しましま/IBIS2015
(1943d)
しましま/IBISML020
(2231d)
確率分布
(2468d)
汎化誤差
(2621d)
PRML/course
(2717d)
しましま/IBIS2012
(3078d)
SVM
(3210d)
しましま/IBISML004
(3668d)
しましま/IBIS2010
(3812d)
しましま/IBISML002
(3872d)
K-NEL/eindex
(3906d)
関数
(4080d)
経験損失最小化
(4080d)
独立変数
(4080d)
従属変数
(4080d)
三角不等式
(4080d)
マルチタスク学習
(4080d)
ブースティング
(4080d)
ヒンジ関数
(4080d)
バックプロパゲーション
(4080d)
パラメトリック
(4080d)
サポートベクトル回帰
(4080d)
クラス分類
(4080d)
しましま/IBIS2007
(4080d)
しましま/DMSS2009
(4080d)
しましま
(4080d)
loss function
(4080d)
Widrow-Hoffの学習規則
(4080d)
PRML/content
(4080d)
Kullback-Leiblerダイバージェンス
(4080d)
Huber関数
(4080d)
Book/パターン認識と学習の統計学(統計科学のフロンティア6)
(4080d)
Book/The Elements of Statistical Learning
(4080d)
Book/Pattern Recognition and Machine Learning
(4080d)
Book/わかりやすいパターン認識
(4080d)
Book/Principles of Data Mining
(4080d)