情報量
をテンプレートにして作成
[
トップ
] [
新規
|
一覧
|
検索
|
最終更新
|
ヘルプ
|
ログイン
]
開始行:
* 情報量 (information) [#k143270d]
//ここには %項目の説明を書いてください.よろしければ署名...
-情報論的学習理論では情報量は基本的な概念であるが,情報量...
-単に情報量と言えば確率変数のエントロピーのことを指す. ...
エントロピーにもいろいろあるが通常Bolzmann-Shannonエント...
-エントロピーは平均符号長とほぼ同義である. なぜならエン...
-確率推論など情報処理の問題では,観測される変数と推論した...
-一方,統計的推定では,推定した分布が真の分布に対してどれ...
-情報幾何でFisher情報行列を計量にしているのも直感的にはそ...
-局所的にはFisher情報行列で分布と分布の距離を測ればよいが...
\[\int p(x) f(p(x)/q(x)) dx\]
の形に限定されることが知られている(\(f(r)=\log r\) ならK...
-αダイバージェンスは微小なところではFisher情報行列を計量...
-二つの確率変数の分布 p(x, y) があったとき,それぞれの周...
> --あかほ
**関連項目 [#e1aa23ba]
//英語や同義語のあとに,#brで区切って関連する項目をリスト...
-[[information]]
#br
-[[情報理論]]
-[[エントロピー]]
-[[相互情報量]]
-[[Kullback-Leiblerダイバージェンス]]
-[[Fisher情報行列]]
#br
-[[検索:情報量]]
**リンク集 [#d07c5f75]
//関連するWWW資源があればリンクしてください.
-[[Scholarpedia:Entropy#Shannon_entropy]]
-[[Wikipedia:Information]]
**関連文献 [#h9d59c42]
//この%項目%に関連する書籍や論文を紹介してください.
-[[Book/Information Theory, Inference, and Learning Algor...
-[[Book/Pattern Recognition and Machine Learning]] 1.6節
終了行:
* 情報量 (information) [#k143270d]
//ここには %項目の説明を書いてください.よろしければ署名...
-情報論的学習理論では情報量は基本的な概念であるが,情報量...
-単に情報量と言えば確率変数のエントロピーのことを指す. ...
エントロピーにもいろいろあるが通常Bolzmann-Shannonエント...
-エントロピーは平均符号長とほぼ同義である. なぜならエン...
-確率推論など情報処理の問題では,観測される変数と推論した...
-一方,統計的推定では,推定した分布が真の分布に対してどれ...
-情報幾何でFisher情報行列を計量にしているのも直感的にはそ...
-局所的にはFisher情報行列で分布と分布の距離を測ればよいが...
\[\int p(x) f(p(x)/q(x)) dx\]
の形に限定されることが知られている(\(f(r)=\log r\) ならK...
-αダイバージェンスは微小なところではFisher情報行列を計量...
-二つの確率変数の分布 p(x, y) があったとき,それぞれの周...
> --あかほ
**関連項目 [#e1aa23ba]
//英語や同義語のあとに,#brで区切って関連する項目をリスト...
-[[information]]
#br
-[[情報理論]]
-[[エントロピー]]
-[[相互情報量]]
-[[Kullback-Leiblerダイバージェンス]]
-[[Fisher情報行列]]
#br
-[[検索:情報量]]
**リンク集 [#d07c5f75]
//関連するWWW資源があればリンクしてください.
-[[Scholarpedia:Entropy#Shannon_entropy]]
-[[Wikipedia:Information]]
**関連文献 [#h9d59c42]
//この%項目%に関連する書籍や論文を紹介してください.
-[[Book/Information Theory, Inference, and Learning Algor...
-[[Book/Pattern Recognition and Machine Learning]] 1.6節
ページ名: