最適化手法とバッチサイズ
-
RMSProp
勾配(微分値)に合わせて学習率を調整する。モメンタム SGD と違い微分値に補正をかけず学習率だけを補正する。 -
Adam
Momentum + RMSProp。
RMSProp の学習率の抑制(短期的調整)とモメンタムのスムージングされた勾配変化(長期的調整)のいいとこ取り。 RMSPropはその時の勾配値によって更新量を増減させる。その勾配値を移動平均に置き換えることで勾配の変化を二十で抑える。
移動平均の値は学習の後半ほど強く補正されるのでMomemtumの補正も強くなる。逆に言えば学習初期は両方の効果が少ないので勾配変化量が大きくなり効率的に学習されていく。
モメンタムと移動平均
移動平均
移動平均を求めると勾配変化が激しいグラフをスムーズにしたグラフが求まる。
SGDのギザギザ部分を緩やかなカーブにでき、勾配の変化しすぎを抑 える。
現在までの累積和と現在の値、の和でも求まる。
Momentum
その時の勾配ではなく移動平均した勾配を引いているだけ。
二人合わせてAdam
バッチサイズが与える影響
- 1つのサンプルデータに対する反応度
- 1epochの計算速度
- メモリ使用量
1. 1つのサンプルデータに対する反応度
サンプリング数が増加するとサンプル分散が分布の分散に収束する、逆に言うとサンプリング数が少ない時はサンプリング結果によって損失が大きく異なる。
ここで、ミニバッチの単位で重みが更新される。平均をミニバッチ毎にとって、そのミニバッチごとにパラメーターを更新する。
ということは、ミニバッチの単位が小さければ小さいほど、1つ1つのデータに敏感に反応する。逆にミニバッチの単位が大きければ大きいほど、平均化されるので、1つ1つのデータよりもミニバッチ全体の特徴を捉えるということなる。
ミニバッチのサイズが小さいほど、1つ1つのデータに敏感に反応することから、学習が安定しなくなるが、学習率などのパラメーターをいじることである程度対処できる。
2. 更新値の安定性
1epoch毎のパラメーターの更新の回数というのが、ミニバッチのサイズが小さいほど多くなるので、更新値がギザギザになる。 移動平均などをとることで対処可能。
3.メモリ使用量
サンプリング数が多いとそれだけ多くの変数を保持 しなければならない。CUDAエラーとかよくなるよね。