タグ

2023年3月9日のブックマーク (1件)

  • バックプロパゲーション(誤差逆伝搬法)

    Deep Learningを勉強すると、とにかく分からないバックプロパゲーション。 やっていることは、入力の値に重みやバイアスを掛けて構築されるニューラルネットワークの出力値が目標値に近づくように重みやバイアスを調整するいわゆる学習の工程ですが、行列の計算式や∑がつらつら出てくるので、ぜんぜん理解できない。。 しかし、下図のよく出てくるニューラルネットワークの図を見ていると、yの値は入力値xの値と未知数のw、bの値からなっており、出力値と目標値の差の二乗の合計の値が最小になるようにw,bの値を求めてやればいい。 この出力値と目標値の差の二乗の合計の値が最小になるにっていう響き、何か聞いたことがあるぞ!  そう最小二乗法!!! 最小二乗法では二乗誤差の合計が最小となるように、二乗誤差の合計の式に関して 未知数の偏微分 = 0 として、未知数を求めますが、同じようなノリで、二乗誤差の合計の式に

    バックプロパゲーション(誤差逆伝搬法)