パターン認識と機械学習 - ベイズ理論による統計的予測:コース

必要な事前知識

  • 微積分:多変量の微分や積分は必要です.ラグランジュの未定乗数法や簡単な変分も必要ですがこれらは付録に簡単な解説があります.複素数の微積分については不要です.
  • 線形代数:3×3以上の固有値逆行列行列に対する微積分は必要ですが,これらについては付録に簡単にまとめられています.\(l^2\)空間やヒルベルト空間,複素数については不要です.
  • 確率:基礎については1章で述べられていますが,確率の扱いや考えに慣れていると便利です.確率測度など公理にまで踏み込んだ知識や,統計の検定などの知識は不要です.

本書に関連する分野

以下の分野でデータからの予測や分析が必要とされる分野

  • 対象分野:本書と直接的な関連がある分野には次のようなものがあります.
    機械学習パターン認識統計データマイニング
  • 応用分野機械学習パターン認識,統計的予測技術が応用されている分野には次のようなものがあります.
    自然言語処理,バイオインフォマティクス,製薬・医療,金融・マーケティング,信号処理,製造管理,流通・小売,気象・宇宙開発,環境,故障診断,セキュリティ,社会インフラ管理

内容のレベル

本書の各節を3段階にレベル分けしました. ここでのレベルは,内容が「容易〜難解」ということではなく,「他の多くの事柄の基になるような基本的な内容」〜「特殊な状況の下でも適用できるようにする工夫」ということです. ですので,基礎レベルでも複雑な計算を伴う場合もありますし,内容は簡単だが,補足的なので発展レベルとしている章もあります. また,機械学習手法を適用するときに,基礎レベルの手法であっさり解けることもあるし,簡単に解けそうでも条件によっては発展レベルの手法が必要なこともあります.

[bigsmile]:基礎学部3,4回生レベル.基本的な理論や手法.
この分野を初めて学ぶ人は,このレベルの章だけ先に読んで,先に全容を把握してもよいと思います.
[smile]:中間修士レベル.やや発展的な内容.
ベイズ理論の基礎からやや発展的な内容を含みます.また,やや特殊な条件で有用な手法も含みます.
[worried]:発展博士,研究者,技術者レベル.発展的な内容
補足的な内容や,特殊な状況で必要になる手法,高度な手法です.

上巻

第1章:序 論

[bigsmile] 1序 論
[bigsmile] 1.1例:多項式曲線フィッティング
[bigsmile] 1.2確率論
[bigsmile] 1.2.1確率密度
[bigsmile] 1.2.2期待値と分散
[bigsmile] 1.2.3ベイズ確率
[bigsmile] 1.2.4ガウス分布
[bigsmile] 1.2.5曲線フィッティング再訪
[smile] 1.2.6ベイズ曲線フィッティング
[bigsmile] 1.3モデル選択
[bigsmile] 1.4次元の呪い
[bigsmile] 1.5決定理論
[bigsmile] 1.5.1誤識別率の最小化
[bigsmile] 1.5.2期待損失の最小化
[worried] 1.5.3棄却オプション
[smile] 1.5.4推論と決定
[bigsmile] 1.5.5回帰のための損失関数
[bigsmile] 1.6情報理論
[bigsmile] 1.6.1相対エントロピー相互情報量

第2章:確率分布

[bigsmile] 2確率分布
[bigsmile] 2.1二値変数
[bigsmile] 2.1.1ベータ分布
[bigsmile] 2.2多値変数
[bigsmile] 2.2.1ディリクレ分布
[bigsmile] 2.3ガウス分布
[bigsmile] 2.3.1条件付きガウス分布
[bigsmile] 2.3.2周辺ガウス分布
[bigsmile] 2.3.3ガウス変数に対するベイズの定理
[bigsmile] 2.3.4ガウス分布最尤推定
[smile] 2.3.5逐次推定
[smile] 2.3.6ガウス分布に対するベイズ推論
[smile] 2.3.7スチューデントのt分布
[worried] 2.3.8周期変数
[bigsmile] 2.3.9混合ガウス分布
[bigsmile] 2.4指数型分布族
[bigsmile] 2.4.1最尤推定と十分統計量
[smile] 2.4.2共役事前分布
[smile] 2.4.3無情報事前分布
[bigsmile] 2.5ノンパラメトリック
[bigsmile] 2.5.1カーネル密度推定
[bigsmile] 2.5.2最近傍法

第3章:線形回帰モデル

[bigsmile] 3線形回帰モデル
[bigsmile] 3.1線形基底関数モデル
[bigsmile] 3.1.1最尤推定最小二乗法
[worried] 3.1.2最小二乗法の幾何学
[smile] 3.1.3逐次学習
[smile] 3.1.4正則化最小二乗法
[worried] 3.1.5出力変数が多次元の場合
[bigsmile] 3.2バイアス-バリアンス分解
[smile] 3.3ベイズ線形回帰
[smile] 3.3.1パラメータの分布
[smile] 3.3.2予測分布
[smile] 3.3.3等価カーネル
[worried] 3.4ベイズモデル比較
[worried] 3.5エビデンス近似
[worried] 3.5.1エビデンス関数の評価
[worried] 3.5.2エビデンス関数の最大化
[worried] 3.5.3有効パラメータ数
[smile] 3.6固定された基底関数の限界

第4章:線形識別モデル

[bigsmile] 4線形識別モデル
[bigsmile] 4.1識別関数(判別関数)
[bigsmile] 4.1.12クラス
[bigsmile] 4.1.2多クラス
[bigsmile] 4.1.3分類における最小二乗
[bigsmile] 4.1.4フィッシャーの線形判別
[bigsmile] 4.1.5最小二乗との関連
[bigsmile] 4.1.6多クラスにおけるフィッシャーの判別
[bigsmile] 4.1.7パーセプトロンアルゴリズム
[bigsmile] 4.2確率的生成モデル
[bigsmile] 4.2.1連続値入力
[bigsmile] 4.2.2最尤解
[bigsmile] 4.2.3離散特徴
[bigsmile] 4.2.4指数型分布族
[bigsmile] 4.3確率的識別モデル
[bigsmile] 4.3.1固定基底関数
[bigsmile] 4.3.2ロジスティック回帰
[bigsmile] 4.3.3反復再重み付け最小二乗
[bigsmile] 4.3.4多クラスロジスティック回帰
[worried] 4.3.5プロビット回帰
[worried] 4.3.6正準連結関数
[smile] 4.4ラプラス近似
[smile] 4.4.1モデルの比較とBIC
[smile] 4.5ベイズロジスティック回帰
[smile] 4.5.1ラプラス近似
[smile] 4.5.2予測分布

第5章:ニューラルネットワーク

[bigsmile] 5ニューラルネットワーク
[bigsmile] 5.1フィードフォワードネットワーク関数
[bigsmile] 5.1.1重み空間対称性
[bigsmile] 5.2ネットワーク訓練
[bigsmile] 5.2.1パラメータ最適化
[bigsmile] 5.2.2局所二次近似
[bigsmile] 5.2.3勾配情報の利用
[bigsmile] 5.2.4勾配降下最適化
[bigsmile] 5.3誤差逆伝播
[bigsmile] 5.3.1誤差関数微分の評価
[bigsmile] 5.3.2単純な例
[bigsmile] 5.3.3逆伝播の効率
[worried] 5.3.4ヤコビ行列
[worried] 5.4ヘッセ行列
[worried] 5.4.1対角近似
[worried] 5.4.2外積による近似
[worried] 5.4.3ヘッセ行列逆行列
[worried] 5.4.4有限幅の差分による近似
[worried] 5.4.5ヘッセ行列の厳密な評価
[worried] 5.4.6ヘッセ行列の積の高速な計算
[smile] 5.5ニューラルネットワーク正則化
[smile] 5.5.1無矛盾なガウス事前分布
[smile] 5.5.2早期終了
[worried] 5.5.3不変性
[worried] 5.5.4接線伝播法
[worried] 5.5.5変換されたデータを用いた訓練
[worried] 5.5.6たたみ込みニューラルネットワーク
[worried] 5.5.7ソフト重み共有
[worried] 5.6混合密度ネットワーク
[worried] 5.7ベイズニューラルネットワーク
[worried] 5.7.1パラメータの事後分布
[worried] 5.7.2超パラメータ最適化
[worried] 5.7.3クラス分類のためのベイズニューラルネットワーク

付録

[bigsmile] 付録Aデータ集合
[bigsmile] 付録B確率分布の一覧
[bigsmile] 付録C行列の性質
[smile] 付録D変分法
[bigsmile] 付録Eラグランジュ乗数

下巻

第6章:カーネル

[bigsmile] 6カーネル
[bigsmile] 6.1双対表現
[bigsmile] 6.2カーネル関数の構成
[bigsmile] 6.3RBFネットワーク
[bigsmile] 6.3.1Nadaraya-Watsonモデル
[worried] 6.4ガウス過程
[worried] 6.4.1線形回帰再訪
[worried] 6.4.2ガウス過程による回帰
[worried] 6.4.3超パラメータの学習
[worried] 6.4.4関連度自動決定
[worried] 6.4.5ガウス過程による分類
[worried] 6.4.6ラプラス近似
[worried] 6.4.7ニューラルネットワークとの関係

第7章:疎な解を持つカーネルマシン

[bigsmile] 7疎な解を持つカーネルマシン
[bigsmile] 7.1最大マージン分類器
[bigsmile] 7.1.1重なりのあるクラス分布
[smile] 7.1.2ロジスティック回帰との関係
[smile] 7.1.3多クラスSVM
[smile] 7.1.4回帰のためのSVM
[smile] 7.1.5計算論的学習理論
[worried] 7.2関連ベクトルマシン
[worried] 7.2.1回帰問題に対するRVM
[worried] 7.2.2疎性の解析
[worried] 7.2.3分類問題に対するRVM

第8章:グラフィカルモデル

[smile] 8グラフィカルモデル
[smile] 8.1ベイジアンネットワーク
[smile] 8.1.1例:多項式曲線フィッティング
[smile] 8.1.2生成モデル
[smile] 8.1.3離散変数
[smile] 8.1.4線形ガウスモデル
[smile] 8.2条件付き独立
[smile] 8.2.13つのグラフの例
[smile] 8.2.2有向分離(D分離)
[smile] 8.3マルコフ確率場
[smile] 8.3.1条件付き独立
[smile] 8.3.2分解特性
[smile] 8.3.3例:画像のノイズ除去
[smile] 8.3.4有向グラフとの関係
[smile] 8.4グラフィカルモデルにおける推論
[smile] 8.4.1連鎖における推論
[smile] 8.4.2
[smile] 8.4.3因子グラフ
[smile] 8.4.4積和アルゴリズム
[smile] 8.4.5max-sumアルゴリズム
[worried] 8.4.6一般のグラフにおける厳密推論
[worried] 8.4.7ループあり確率伝播
[worried] 8.4.8グラフ構造の学習

第9章:混合モデルとEM

[bigsmile] 9混合モデルとEM
[bigsmile] 9.1K-meansクラスタリング
[bigsmile] 9.1.1画像分割と画像圧縮
[bigsmile] 9.2混合ガウス分布
[bigsmile] 9.2.1最尤推定
[bigsmile] 9.2.2混合ガウス分布EMアルゴリズム
[bigsmile] 9.3EMアルゴリズムのもう一つの解釈
[bigsmile] 9.3.1混合ガウス分布再訪
[bigsmile] 9.3.2K-meansとの関連
[worried] 9.3.3混合ベルヌーイ分布
[worried] 9.3.4ベイズ線形回帰に関するEMアルゴリズム
[smile] 9.4一般のEMアルゴリズム

第10章:近似推論法

[smile] 10近似推論法
[smile] 10.1変分推論
[smile] 10.1.1分布の分解
[smile] 10.1.2分解による近似のもつ性質
[smile] 10.1.3例:一変数ガウス分布
[smile] 10.1.4モデル比較
[smile] 10.2例:変分混合ガウス分布
[smile] 10.2.1変分事後分布
[smile] 10.2.2変分下界
[smile] 10.2.3予測分布
[worried] 10.2.4混合要素数の決定
[worried] 10.2.5導出された分解
[worried] 10.3変分線形回帰
[worried] 10.3.1変分分布
[worried] 10.3.2予測分布
[worried] 10.3.3変分下界
[worried] 10.4指数型分布族
[worried] 10.4.1変分メッセージパッシング
[worried] 10.5局所的変分推論法
[worried] 10.6変分ロジスティック回帰
[worried] 10.6.1変分事後分布
[worried] 10.6.2変分パラメータの最適化
[worried] 10.6.3超パラメータの推論
[worried] 10.7EP法
[worried] 10.7.1例:雑音データ問題
[worried] 10.7.2グラフィカルモデルとEP法

第11章:サンプリング法

[smile] 11サンプリング法
[smile] 11.1基本的なサンプリングアルゴリズム
[smile] 11.1.1標準的な分布
[smile] 11.1.2棄却サンプリング
[worried] 11.1.3適応的棄却サンプリング
[worried] 11.1.4重点サンプリング
[worried] 11.1.5SIR
[worried] 11.1.6サンプリングとEMアルゴリズム
[smile] 11.2マルコフ連鎖モンテカルロ
[smile] 11.2.1マルコフ連鎖
[smile] 11.2.2Metropolis-Hastingsアルゴリズム
[smile] 11.3ギブスサンプリング
[worried] 11.4スライスサンプリング
[worried] 11.5ハイブリッドモンテカルロアルゴリズム
[worried] 11.5.1力学系
[worried] 11.5.2ハイブリッドモンテカルロアルゴリズム
[worried] 11.6分配関数の推定

第12章:連続潜在変数

[bigsmile] 12連続潜在変数
[bigsmile] 12.1主成分分析
[bigsmile] 12.1.1分散最大化による定式化
[bigsmile] 12.1.2誤差最小化による定式化
[bigsmile] 12.1.3主成分分析の応用
[bigsmile] 12.1.4高次元データに対する主成分分析
[worried] 12.2確率的主成分分析
[worried] 12.2.1最尤法による主成分分析
[worried] 12.2.2EMアルゴリズムによる主成分分析
[worried] 12.2.3ベイズ的主成分分析
[worried] 12.2.4因子分析
[smile] 12.3カーネル主成分分析
[worried] 12.4非線形潜在変数モデル
[worried] 12.4.1独立成分分析
[worried] 12.4.2自己連想ニューラルネットワーク
[worried] 12.4.3非線形多様体のモデル

第13章:系列データ

[smile] 13系列データ
[smile] 13.1マルコフモデル
[smile] 13.2隠れマルコフモデル
[smile] 13.2.1HMMの最尤推定
[smile] 13.2.2フォワード-バックワードアルゴリズム
[worried] 13.2.3HMMの積和アルゴリズム
[worried] 13.2.4スケーリング係数
[smile] 13.2.5Viterbiアルゴリズム
[worried] 13.2.6隠れマルコフモデルの拡張
[smile] 13.3線形動的システム
[smile] 13.3.1LDSにおける推論
[smile] 13.3.2LDSの学習
[worried] 13.3.3LDSの拡張
[worried] 13.3.4粒子フィルタ

第14章:モデルの結合

[smile] 14モデルの結合
[smile] 14.1ベイズモデル平均化
[smile] 14.2コミッティ
[smile] 14.3ブースティング
[smile] 14.3.1指数誤差の最小化
[smile] 14.3.2ブースティングのための誤差関数
[bigsmile] 14.4木構造モデル
[worried] 14.5条件付き混合モデル
[worried] 14.5.1線形回帰モデルの混合
[worried] 14.5.2ロジスティックモデルの混合
[worried] 14.5.3混合エキスパートモデル

トップ   編集 凍結解除 差分 バックアップ 添付 複製 名前変更 リロード   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS
Last-modified: 2013-11-05 (火) 07:17:01 (1125d)