次は Back-Propagation です。同じくGPTさんに活躍してもらいました。計算もずいぶん正解するようになりました。
誤差逆伝播法は損失関数 E の出力から各層のパラメータ(重みおよびバイアス)への偏微分(勾配)を効率よく求めるためのアルゴリズムで、DNNの基礎となっています。順伝播によりネットワークの出力が計算された後、損失 Eに連鎖律(チェーンルール)を適用しながら逆方向に伝播させて各パラメータの更新に必要な勾配を求め、出力誤差を減少させる方向にパラメータを修正しながら学習を進めます。
自動微分はフレームワークに実装されている勾配を求めるためのアルゴリズム。手計算では煩雑になりますが、フレームワークを利用することでシームレスかつ正確に扱えるようになります。
1. ネットワークの構成と順伝播
まず、シンプルな2層(隠れ層と出力層)の全結合ニューラルネットワークを考える。
-
隠れ層: 入力 x に対し、
z(1)=W(1)x+b(1),a(1)=f(z(1))
ここで、f は隠れ層の活性化関数(例:シグモイドやReLU)。
-
出力層: 隠れ層の出力 a(1) を受け、
z(2)=W(2)a(1)+b(2),a(2)=g(z(2))
ここで、g は出力層の活性化関数(例:シグモイド)。
損失関数 E(例:平均二乗誤差やクロスエントロピー誤差)によって、予測値 a(2) と正解 y との誤差が評価される。
2. 誤差逆伝播法の基本概念
誤差逆伝播法では、連鎖律(チェーンルール)を用いて、損失関数 E の内部変数に対する偏微分を段階的に求める。
すなわち、任意の中間変数 a と z について、以下の通り表せる。
∂E∂z=∂E∂a⋅∂a∂z
局所誤差を表すデルタ δ=∂E∂z は、各層における勾配計算の基礎となる重要な指標である。これは、出力 a の微小な変化 ∂a∂zが損失 E にどのような影響を与えるか∂E∂a を明らかにしており、パラメータの更新方向および大きさを決定するのに欠かせない情報となっている。この考え方により、各層ごとのパラメータ更新に必要な勾配を効率的に計算できる点が、誤差逆伝播法の大きな利点である。
3. 出力層の誤差項δ
出力層では、出力 a(2)=g(z(2)) と正解との差が損失関数 E で評価される。
たとえば、シグモイド関数の場合は、
g(z)=11+e−z,g′(z)=g(z)(1−g(z))
連鎖律を用いると、出力層でのデルタは次のように定義される:
δ(2)=∂E∂z(2)=∂E∂a(2)⊙g′(z(2))
ここで⊙はアダマール積を意味しする。
この形式は、誤差の各成分が出力 a に対する感度と、活性化関数 g の変化率 g′(z) とで表現されており、局所的な誤差伝播に必要な情報となる。
4. 出力層の重み W(2) に関する偏微分
出力層においては、線形結合の定義より
z(2)=W(2)a(1)+b(2)
となる。各出力ユニット i の入力は、
z(2)i=∑jW(2)ija(1)j+b(2)i
連鎖律により、各重み W(2)ij に対する偏微分は、
∂E∂W(2)ij=∂E∂z(2)i⋅∂z(2)i∂W(2)ij=δ(2)ia(1)j
すなわち、行列表現では
∂E∂W(2)=δ(2)(a(1))⊤
5. 隠れ層への逆伝播の導出
出力層で計算されたデルタ δ(2) は、隠れ層に伝播される。ここでは、隠れ層の各ユニット j におけるデルタ δ(1)jとする。
まず、出力層の線形結合は次のように定義される:
z(2)i=∑jW(2)ija(1)j+b(2)i
そのため、隠れ層ユニット j の出力 a(1)j が出力層の z(2)i に与える影響は
∂z(2)i∂a(1)j=W(2)ijとなる。
さらに、隠れ層では a(1)=f(z(1)) としており、活性化関数 f の微分は f′(z(1)j) となる。
連鎖律を適用すると、隠れ層ユニット j における損失の微分は以下のように表される:
∂E∂z(1)j=∑i∂E∂z(2)i∂z(2)i∂a(1)j∂a(1)j∂z(1)j=(∑iW(2)ijδ(2)i)⋅f′(z(1)j)
ここで、隠れ層のデルタ δ(1)j を定義すると、
δ(1)j=∂E∂z(1)j=(∑iW(2)ijδ(2)i)⋅f′(z(1)j)
行列表現では、全隠れ層のデルタは次のようになる:
δ(1)=(W(2))⊤δ(2)⊙f′(z(1))
この導出から、デルタは「損失 E の出力 a に対する偏微分」と「活性化関数の微分 ∂a∂z」の積として定義できるため、各層の誤差伝播に必須の情報となる。
さらに、このデルタ情報を利用して、各パラメータの更新(モデルの改善)が効率的に行われる。
6. 計算例とモデル改善の流れ
以下に、1入力・1隠れ・1出力の場合の計算例を示す。ここではシグモイド関数を活性化関数とし、損失関数を平均二乗誤差
E=12(a(2)−y)2
とする。
[ステップ1] 順伝播
入力: x=1
重み・バイアス:
入力~隠れ層: W(1)=0.5,b(1)=0
隠れ層~出力層: W(2)=0.8,b(2)=0
隠れ層:
線形結合:
z(1)=0.5×1+0=0.5
シグモイド関数:
a(1)=σ(0.5)≈0.6225
出力層:
線形結合:
z(2)=0.8×0.6225+0≈0.498
出力(シグモイド関数):
a(2)=σ(0.498)≈0.622
真の正解 y=1 として、損失は
E=0.5×(0.622–1)2≈0.0714
[ステップ2] 出力層での逆伝播
損失の出力 a(2) に対する偏微分:
∂E∂a(2)=a(2)−y≈0.622−1=−0.378
シグモイドの微分:
g′(z(2))=a(2)(1−a(2))≈0.622×0.378≈0.235
よって、出力層のデルタ:
δ(2)=(−0.378)×0.235≈−0.0888
これを用いて、出力層の重み勾配は:
∂E∂W(2)=δ(2)×a(1)≈−0.0888×0.6225≈−0.0553
[ステップ3] 隠れ層での逆伝播とモデル改善
次に、出力層から隠れ層へデルタを伝播させる。
δ(1)=(W(2))T×δ(2)⊙f′(z(1))
数値例では、W(2)=0.8 のため、
(W(2))T×δ(2)=0.8×(−0.0888)≈−0.07104
隠れ層のシグモイド微分:
f′(z(1))=a(1)(1−a(1))≈0.6225×0.3775≈0.235
よって、隠れ層のデルタ:
δ(1)≈−0.07104×0.235≈−0.01669
隠れ層の重み勾配(入力 x=1 を用いる):
∂E∂W(1)=δ(1)×x≈−0.01669×1=−0.01669
ここで得られた各層の勾配(出力層: -0.0553、隠れ層: -0.01669)から、パラメータ更新(例えば、確率的勾配降下法)を行う。
例えば学習率 η を 0.1 とすると、重みの更新は以下のようになる:
W(2)new=W(2)−η×∂E∂W(2),W(1)new=W(1)−η×∂E∂W(1)
W(2)new=0.8−0.1×(−0.0553)≈0.80553,W(1)new=0.5−0.1×(−0.01669)≈0.50167
この重みWの更新により、モデルは出力誤差を減少させる方向へ学習が進む。
すなわち、デルタが求めた各層での「局所的な誤差指標」を基にして、ネットワーク全体の性能が改善されることになる。
7. 自動微分
自動微分(Automatic Differentiation, AD)は、ニューラルネットワークやその他の複雑な計算グラフにおいて、各中間変数の勾配(微分値)を自動的に計算する技術である。これにより、手動での連鎖律(チェーンルール)の適用から解放され、正確かつ効率的な勾配計算が実現される。
自動微分の利点
-
正確性:
数値微分の近似誤差や記号微分の複雑な手作業を避け、連鎖律を忠実に適用して正確な勾配計算を行う。
-
効率性:
膨大なパラメータや複雑な計算グラフを持つモデルでも高速に勾配を計算できるため、大規模なニューラルネットワークの学習に最適。
自動微分の実装例:PyTorch
現代のディープラーニングライブラリ(例:PyTorch、TensorFlowなど)は自動微分機能を内蔵している。以下に、PyTorchを使った簡単な全結合ネットワークの例を示す。
- import torch
-
- # 計算グラフの構築
- W1 = torch.tensor([[0.5]], requires_grad=True)
- b1 = torch.tensor([0.0], requires_grad=True)
- W2 = torch.tensor([[0.8]], requires_grad=True)
- b2 = torch.tensor([0.0], requires_grad=True)
-
- # 順伝播
- x = torch.tensor([1.0])
- z1 = W1 @ x + b1 # 隠れ層の線形結合
- a1 = torch.sigmoid(z1) # 活性化関数(シグモイド)
- z2 = W2 @ a1 + b2 # 出力層の線形結合
- a2 = torch.sigmoid(z2) # 最終出力
-
- # 逆伝播
- y = torch.tensor([1.0])
- loss = 0.5 * (a2 - y) ** 2
- loss.backward() # 逆伝播により、自動的に勾配計算が実行される
-
参考文献
- Rumelhart, Hinton, and Williams, "Learning representations by back-propagating errors" (1986)
- Goodfellow, Bengio, and Courville, "Deep Learning" (MIT Press, 2016)