* Markov決定過程 (Markov decision process; MDP) [#o501f410]
//ここには %項目の説明を書いてください.よろしければ署名しておいてください.
Markov過程では状態のみに依存して次の状態への遷移確率分布が定まるが,Markov決定過程では状態に加えて,そこで行った行動(action)にも依存して遷移確率分布が決まる.
> -- しましま
**関連項目 [#jca7b203]
//英語や同義語のあとに,#brで区切って関連する項目をリストしてください.
-[[Markov decision process]]
-[[MDP]]
#br
-[[強化学習]]
-[[Markovモデル]]
-[[隠れMarkovモデル]]
-[[部分観測Markov決定過程]]
#br
-[[検索:Markov決定過程 マルコフ決定過程]]
**リンク集 [#ed87918a]
//関連するWWW資源があればリンクしてください.
-[[Wikipedia:Markov_decision_process]]
**関連文献 [#s6ae6fa2]
//この%項目%に関連する書籍や論文を紹介してください.