情報量
Top
/
情報量
[
トップ
] [
編集
|
凍結
|
差分
|
履歴
|
添付
|
リロード
] [
新規
|
一覧
|
検索
|
最終更新
|
ヘルプ
|
ログイン
]
情報量
(
information
)
†
情報論的学習理論では
情報量
は基本的な概念であるが,
情報量
と名のつく量はいろいろあってその関係も複雑なので整理しておく必要がある.
単に
情報量
と言えば
確率変数
の
エントロピー
のことを指す. 物理的には
エントロピー
は乱雑さの度合いをあらわしているが,情報としてみれば情報のあいまいさの度合いをあらわしている.
エントロピー
にもいろいろあるが通常Bolzmann-
Shannonエントロピー
\(H(x)=-\int p(x)\log p(x)dx\) を指す.
エントロピー
は平均符号長とほぼ同義である. なぜなら
エントロピー
にいくらでも近い平均符号長をもつ符号の存在が知られているからである.
確率推論など情報処理の問題では,観測される変数と推論したい変数など,二つの変数の間の関係に興味がある. そのような場合には
相互情報量
が重要な量となる. これは,一方が観測されたときに他方に関してもつ
情報量
をあらわす(さらに
相互情報量
は3個以上の
確率変数
の間でも定義されている).
一方,統計的推定では,推定した分布が真の分布に対してどれだけの
情報量
を持っているかに関心がある. 不偏推定量が真の分布の周りに漸近的に
正規分布
をしていると仮定すると(特異でない場合),その分散の下限は
Fisher情報行列
の
逆行列
をサンプル数で割ったものになる(
Cramer-Raoの不等式
). 従って,
Fisher情報行列
(の
固有値
)が大きな値を取れば分散は小さくなり,それだけ真の分布に対する情報を与えていることになる. ちなみに
Fisher情報行列
はスカラー量ではないが,
多変量正規分布
の
エントロピー
は -log(分散の
行列式
)(の定数倍プラス定数)だから,
エントロピー
として意味があるのは
Fisher情報行列
の
行列式
の対数のマイナスである.
情報幾何
で
Fisher情報行列
を計量にしているのも直感的にはそれが一つの理由である. 計量は分布の長さを測るものさしだから,この場合の
情報量
は分布と分布との距離をはかるものさしになっている.
局所的には
Fisher情報行列
で分布と分布の距離を測ればよいが,遠く離れた場合には(
情報幾何
の観点からは)
ダイバージェンス
と呼ばれる尺度で測るのが自然である.
Kullback-Leiblerダイバージェンス
などが
情報量
と呼ばれるのはこのゆえんである(また別名
相対エントロピー
とも呼ばれている). α分布族の各αに対して
αダイバージェンス
が定義されるが,α=1,-1のときが
Kullback-Leiblerダイバージェンス
,α=0のときが
Hellinger距離
(角谷
情報量
)となっている. このような分布間距離を表す
情報量
は,加法性などの公理を課すと, \[\int p(x) f(p(x)/q(x)) dx\] の形に限定されることが知られている(\(f(r)=\log r\) なら
Kullback-Leiblerダイバージェンス
,\(f(r)=1-1/\sqrt{r}\)なら
Hellinger距離
).
αダイバージェンス
は微小なところでは
Fisher情報行列
を計量として測った距離に一致する.
二つの
確率変数
の分布 p(x, y) があったとき,それぞれの
周辺分布
p(x), p(y) に対し, \(KL(p(x,y)||p(x)p(y))\) が x と y の間の
相互情報量
になる.
--
あかほ
↑
関連項目
†
information
情報理論
エントロピー
相互情報量
Kullback-Leiblerダイバージェンス
Fisher情報行列
検索:情報量
↑
リンク集
†
Scholarpedia:Entropy
Wikipedia:Information
↑
関連文献
†
Book/Information Theory, Inference, and Learning Algorithms
1〜3章
Book/Pattern Recognition and Machine Learning
1.6節
朱鷺の杜Wiki
機械学習
学会・研究会
書籍・資料
論文英語
フリーウェア
python
numpy
テストデータ
日本語版PRML本
カーネル多変量解析
人気ページ
今日の人気ページ
ページ一覧
↑
参加しよう
Wiki超入門
練習用ページ
数式の表示
こびとさん
編集用ID:
ibis
パスワード
: 「VC次元」のVのフルスペルで最初だけ大文字
最新の30件
2024-05-31
人工知能学会全国大会
しましま/人工知能学会全国大会2024
2024-04-13
python
2024-04-09
K-NEL
K-NEL/errata
2023-11-22
PRML/errata2
2023-11-21
PRML/errata1
2023-11-01
しましま/IBIS2023
2023-10-29
IBIS
2023-06-11
しましま/人工知能学会全国大会2023
2023-03-28
Book
2022-11-27
朱鷺の社
2022-11-24
しましま/IBIS2022
2022-07-08
AutoTicketLinkName
2022-06-17
しましま/人工知能学会全国大会2022
2021-11-13
しましま/IBIS2021
2021-10-29
回帰分析
2021-06-11
しましま/人工知能学会全国大会2021
2021-03-07
MenuBar
2021-02-15
python/numpy
2020-12-22
特異値分解
2020-12-18
complement naive Bayes
2020-11-27
しましま/IBIS2020
2020-10-17
Paper/bias-on-the-web
2020-07-16
F値
2020-06-30
DataSet
2020-06-24
バイアス-バリアンス
2020-06-10
Paper
2020-03-15
PRML
PRML/link
↑
カウンタ
累計: 22184
今日: 2
昨日: 0
Last-modified: 2010-02-11 (木) 16:12:47
Link:
しましま/IBIS2019
しましま/IBISML036
Article
しましま/IBISML032
しましま/人工知能学会全国大会2017
AIC
しましま/IBISML012
劣モジュラ
しましま/人工知能学会全国大会2011
Shannonエントロピー
しましま/IBISML002
情報幾何
あかほ
しましま/人工知能学会全国大会2010
ランダムフォレスト
逆行列
行列式
確率変数
相対エントロピー
相互情報量
正規分布
条件付エントロピー
情報理論
多変量正規分布
固有値
周辺分布
同時エントロピー
主成分分析
ダイバージェンス
エントロピー
しましま/IBIS2009
しましま/IBIS2005
しましま/IBIS2007
しましま/DMSM003
しましま/DMSS2008
お知らせ・雑談/2006
αダイバージェンス
information
VFDT
Kullback-Leiblerダイバージェンス
Hellinger距離
Fisher情報量
Fisher情報行列
Cramer-Raoの不等式
Book/Pattern Recognition and Machine Learning
Book/Information Theory, Inference, and Learning Algorithms