* 相互情報量 (mutual information) [#f4cb2598]

//ここには %項目の説明を書いてください.よろしければ署名しておいてください.

\(x\) と \(y\) の分布が分かっていて最適な符号化をした場合に,\(y\) が分かったときに \(x\) 平均符号長の減少量.
\[I(x;y)=H(x)-H(x|y)=\sum_x\sum_y \Pr(x,y)\log\frac{\Pr(x,y)}{\Pr(x)\Pr(y)}\]

> -- しましま

**関連項目 [#c0d85d51]

//英語や同義語のあとに,#brで区切って関連する項目をリストしてください.

-[[mutual information]]
#br
-[[情報量]]
-[[エントロピー]]
-[[同時エントロピー]]
-[[条件付エントロピー]]
#br
-[[検索:相互情報量]]

**リンク集 [#a5ccbb16]

//関連するWWW資源があればリンクしてください.

-[[Scholarpedia:Mutual_information]]
-[[Wikipedia:Mutual_information]]
-[[PlanetMath:MutualInformation]]
-[[MathWorld:MutualInformation]]

**関連文献 [#neae1596]

//この%項目%に関連する書籍や論文を紹介してください.

トップ   編集 差分 履歴 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS