フィードフォワードニューラルネット(主に多層パーセプトロン)において用いられる教師あり学習の手法。出力の誤差を、入力が伝播するのと逆方向に伝播させ学習することでローカルミニマムを得る。誤差逆伝播法。
-- あかほ
フィードフォワードニューラルネットで,損失関数 \(\text{E}(\mathbf{w})\) の勾配を求める方法. 勾配が計算できればあとは,\(\mathbf{w}'=\mathbf{w} - \eta \nabla\text{E}(\mathbf{w})\) を繰り返し適用する最急降下法で局所最適解が得られる.
以下,多層パーセプトロンのページの表記を用い,2層の多層パーセプトロンに 損失関数が次の2乗誤差である場合について記す. \[\text{E}(\mathbf{w})=\sum_n\frac{1}{2}\sum_k\Bigl(y_k(n)-y^\ast_k(n)\Bigr)^2\] \(y_k^\ast(n)\) は,n番目の訓練事例の入力 \(x_i(n)\) に対する訓練出力の値で,\(y_k(n)\) は,\(x_i(n)\) に対するネットワークの出力.
このとき誤差逆伝播アルゴリズムは以下のとおり.ただし,簡単のため入力 \(x_i(n)\) に関するものだけを示し,\((n)\) は省略して示す.以下のアルゴリズムで求めた勾配を,全ての訓練事例について和をとれば,訓練集合全体に対する勾配が計算できる.
-- しましま