Markov決定過程 (Markov decision process; MDP)

Markov過程では状態のみに依存して次の状態への遷移確率分布が定まるが,Markov決定過程では状態に加えて,そこで行った行動(action)にも依存して遷移確率分布が決まる.

-- しましま

関連項目

リンク集

関連文献


トップ   編集 凍結 差分 履歴 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS
Last-modified: 2010-02-11 (木) 16:11:12