* 同時エントロピー (joint entropy) [#f4cb2598]

//ここには %項目の説明を書いてください.よろしければ署名しておいてください.

\(x\) と \(y\) の分布が分かって最適な符号化をした場合に,x と y の両方を符号化したときの平均符号長.
\[H(x,y)=-\sum_x \sum_y \Pr(x,y)\log\Pr(x,y)\]
三つ以上の変数についても同様に定義される.結合エントロピーともいう.

> -- しましま

**関連項目 [#c0d85d51]

//英語や同義語のあとに,#brで区切って関連する項目をリストしてください.

-[[joint entropy]]
#br
-[[情報量]]
-[[エントロピー]]
-[[条件付エントロピー]]
-[[相互情報量]]
#br
-[[検索:同時エントロピー 結合エントロピー]]

**リンク集 [#a5ccbb16]

//関連するWWW資源があればリンクしてください.
-[[PlanetMath:ShannonsTheoremEntropy]]
-[[Wikipedia:Joint_entropy]]
-[[MathWorld:Entropy]]

**関連文献 [#neae1596]

//この%項目%に関連する書籍や論文を紹介してください.

トップ   編集 差分 履歴 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS