ラビットチャレンジレポート 深層学習DAY2 その2
Section2 学習率最適化手法について
学習率とは
学習を通して教師データとの誤差を最小にするネットワークを作成するために取られる手法を勾配降下法という。勾配降下法では、パラメータ更新する際の変化を規定する係数εを学習率という。
·
- 学習率の値が大きい場合
最適値にいつまでもたどりつかない
- 学習率の値が小さい場合
収束まで時間がかかる。
局所極小解に収束する場合がある。
学習率の決め方
- 初期の学習率設定指針
- 初期の学習率を大きく設定し、徐々に小さくしていく。
- パラメータごとに学習率を可変させる
学習率最適化手法を利用する
学習率最適化手法:モメンタム
誤差をパラメータで微分したものと学習率の席を減算した後、現在の重みに前回の重みを減算した値と慣性の積を加算する。誤差関数の勾配のほかに、重みの一回当たりの変化(≒速度)の要素を加えるので、モメンタム(慣性)と呼ばれる。
慣性:μ
- モメンタムの特徴
- 局所最適解にならず、大域的最適解にたどり着きやすい
- 谷間についてから最も低い位置(最適値)に行くまでの時間が早い
- 傾きが急だと慣性が大きすぎて最適解を通り過ぎてしまったり、中々収束しないという課題がある。
学習率最適化手法:Adagrad
Adagradは、学習率を学習の進み方に応じて再定義する手法である。具体的には、誤差関数の微分の2乗を加算するパラメータhを導入し、これを用いて学習率を調整する。
- Adagradの特徴
- 勾配の緩やかな斜面に対して最適値に近づける
- 学習率が徐々に小さくなるので鞍点問題を引き起こすことがある。
学習率最適化手法:RMSProp
自己減衰係数αを導入して、Adagradの鞍点問題を起こしやすいという欠点を改良したもの。
- RMSPropの特徴
- 局所最適解にならず、大域的最適解にたどり着きやすい
- ハイパーパラメータの調整が必要な場面が少ない
- 確認テスト
モメンタム・AdaGrad・RMSPropの特徴をそれぞれ簡潔に説明せよ
[解答]
- モメンタム:勾配降下法に慣性項Vtを導入して大域的最適解にたどり着きやすくしたもの
- AdaGrad:勾配降下法の学習率が∇Eに応じて変化するよう調整したもので、緩やかな勾配に強い。一方で、鞍点問題を起こしやすいという課題がある。
- RMSProp:Adagradの鞍点問題を引き起こしやすいという欠点を改良したもの。
学習率最適化手法:Adam
モメンタムとRMSPropの長所を取り入れたアルゴリズムである。比較的スムーズに裁定買いにたどり着くことが出来る。
実装演習
SGD、モメンタム、Adagrad、RMSProp、Adamの学習推移を比較し、Optimizerの違いが学習にどのような影響があるかを確認する。
- SDG
import numpy as np from collections import OrderedDict from common import layers from data.mnist import load_mnist import matplotlib.pyplot as plt from multi_layer_net import MultiLayerNet # データの読み込み (x_train, d_train), (x_test, d_test) = load_mnist(normalize=True, one_hot_label=True) print("データ読み込み完了") # batch_normalizationの設定 ======================= # use_batchnorm = True use_batchnorm = False # ==================================================== network = MultiLayerNet(input_size=784, hidden_size_list=[40, 20], output_size=10, activation='sigmoid', weight_init_std=0.01, use_batchnorm=use_batchnorm) iters_num = 1000 train_size = x_train.shape[0] batch_size = 100 learning_rate = 0.01 train_loss_list = [] accuracies_train = [] accuracies_test = [] plot_interval=10 for i in range(iters_num): batch_mask = np.random.choice(train_size, batch_size) x_batch = x_train[batch_mask] d_batch = d_train[batch_mask] # 勾配 grad = network.gradient(x_batch, d_batch) for key in ('W1', 'W2', 'W3', 'b1', 'b2', 'b3'): network.params[key] -= learning_rate * grad[key] loss = network.loss(x_batch, d_batch) train_loss_list.append(loss) if (i + 1) % plot_interval == 0: accr_test = network.accuracy(x_test, d_test) accuracies_test.append(accr_test) accr_train = network.accuracy(x_batch, d_batch) accuracies_train.append(accr_train) print('Generation: ' + str(i+1) + '. 正答率(トレーニング) = ' + str(accr_train)) print(' : ' + str(i+1) + '. 正答率(テスト) = ' + str(accr_test)) lists = range(0, iters_num, plot_interval) plt.plot(lists, accuracies_train, label="training set") plt.plot(lists, accuracies_test, label="test set") plt.legend(loc="lower right") plt.title("accuracy") plt.xlabel("count") plt.ylabel("accuracy") plt.ylim(0, 1.0) # グラフの表示 plt.show()
結果の図示
Accuracyが向上せず、学習が進んでいない。
- モメンタム
# データの読み込み (x_train, d_train), (x_test, d_test) = load_mnist(normalize=True, one_hot_label=True) print("データ読み込み完了") # batch_normalizationの設定 ======================= # use_batchnorm = True use_batchnorm = False # ==================================================== network = MultiLayerNet(input_size=784, hidden_size_list=[40, 20], output_size=10, activation='sigmoid', weight_init_std=0.01, use_batchnorm=use_batchnorm) iters_num = 1000 train_size = x_train.shape[0] batch_size = 100 learning_rate = 0.3 # 慣性 momentum = 0.9 train_loss_list = [] accuracies_train = [] accuracies_test = [] plot_interval=10 for i in range(iters_num): batch_mask = np.random.choice(train_size, batch_size) x_batch = x_train[batch_mask] d_batch = d_train[batch_mask] # 勾配 grad = network.gradient(x_batch, d_batch) if i == 0: v = {} for key in ('W1', 'W2', 'W3', 'b1', 'b2', 'b3'): if i == 0: v[key] = np.zeros_like(network.params[key]) v[key] = momentum * v[key] - learning_rate * grad[key] network.params[key] += v[key] loss = network.loss(x_batch, d_batch) train_loss_list.append(loss) if (i + 1) % plot_interval == 0: accr_test = network.accuracy(x_test, d_test) accuracies_test.append(accr_test) accr_train = network.accuracy(x_batch, d_batch) accuracies_train.append(accr_train) print('Generation: ' + str(i+1) + '. 正答率(トレーニング) = ' + str(accr_train)) print(' : ' + str(i+1) + '. 正答率(テスト) = ' + str(accr_test)) lists = range(0, iters_num, plot_interval) plt.plot(lists, accuracies_train, label="training set") plt.plot(lists, accuracies_test, label="test set") plt.legend(loc="lower right") plt.title("accuracy") plt.xlabel("count") plt.ylabel("accuracy") plt.ylim(0, 1.0) # グラフの表示 plt.show()
結果の図示
学習が進み、600回程度でほぼ収束していることがわかる。
- Adagrad
# データの読み込み (x_train, d_train), (x_test, d_test) = load_mnist(normalize=True, one_hot_label=True) print("データ読み込み完了") # batch_normalizationの設定 ======================= # use_batchnorm = True use_batchnorm = False # ==================================================== network = MultiLayerNet(input_size=784, hidden_size_list=[40, 20], output_size=10, activation='sigmoid', weight_init_std=0.01, use_batchnorm=use_batchnorm) iters_num = 1000 train_size = x_train.shape[0] batch_size = 100 learning_rate = 0.1 train_loss_list = [] accuracies_train = [] accuracies_test = [] plot_interval=10 for i in range(iters_num): batch_mask = np.random.choice(train_size, batch_size) x_batch = x_train[batch_mask] d_batch = d_train[batch_mask] # 勾配 grad = network.gradient(x_batch, d_batch) if i == 0: h = {} for key in ('W1', 'W2', 'W3', 'b1', 'b2', 'b3'): if i == 0: h[key] = np.full_like(network.params[key], 1e-4) else: h[key] += np.square(grad[key]) network.params[key] -= learning_rate * grad[key] / (np.sqrt(h[key])) loss = network.loss(x_batch, d_batch) train_loss_list.append(loss) if (i + 1) % plot_interval == 0: accr_test = network.accuracy(x_test, d_test) accuracies_test.append(accr_test) accr_train = network.accuracy(x_batch, d_batch) accuracies_train.append(accr_train) print('Generation: ' + str(i+1) + '. 正答率(トレーニング) = ' + str(accr_train)) print(' : ' + str(i+1) + '. 正答率(テスト) = ' + str(accr_test)) lists = range(0, iters_num, plot_interval) plt.plot(lists, accuracies_train, label="training set") plt.plot(lists, accuracies_test, label="test set") plt.legend(loc="lower right") plt.title("accuracy") plt.xlabel("count") plt.ylabel("accuracy") plt.ylim(0, 1.0) # グラフの表示 plt.show()
結果の図示
最終的に学習は収束しているが、モメンタムより学習に時間がかかっている。
- RMSProp
# データの読み込み (x_train, d_train), (x_test, d_test) = load_mnist(normalize=True, one_hot_label=True) print("データ読み込み完了") # batch_normalizationの設定 ======================= # use_batchnorm = True use_batchnorm = False # ==================================================== network = MultiLayerNet(input_size=784, hidden_size_list=[40, 20], output_size=10, activation='sigmoid', weight_init_std=0.01, use_batchnorm=use_batchnorm) iters_num = 1000 train_size = x_train.shape[0] batch_size = 100 learning_rate = 0.01 decay_rate = 0.99 train_loss_list = [] accuracies_train = [] accuracies_test = [] plot_interval=10 for i in range(iters_num): batch_mask = np.random.choice(train_size, batch_size) x_batch = x_train[batch_mask] d_batch = d_train[batch_mask] # 勾配 grad = network.gradient(x_batch, d_batch) if i == 0: h = {} for key in ('W1', 'W2', 'W3', 'b1', 'b2', 'b3'): if i == 0: h[key] = np.zeros_like(network.params[key]) h[key] *= decay_rate h[key] += (1 - decay_rate) * np.square(grad[key]) network.params[key] -= learning_rate * grad[key] / (np.sqrt(h[key]) + 1e-7) loss = network.loss(x_batch, d_batch) train_loss_list.append(loss) if (i + 1) % plot_interval == 0: accr_test = network.accuracy(x_test, d_test) accuracies_test.append(accr_test) accr_train = network.accuracy(x_batch, d_batch) accuracies_train.append(accr_train) print('Generation: ' + str(i+1) + '. 正答率(トレーニング) = ' + str(accr_train)) print(' : ' + str(i+1) + '. 正答率(テスト) = ' + str(accr_test)) lists = range(0, iters_num, plot_interval) plt.plot(lists, accuracies_train, label="training set") plt.plot(lists, accuracies_test, label="test set") plt.legend(loc="lower right") plt.title("accuracy") plt.xlabel("count") plt.ylabel("accuracy") plt.ylim(0, 1.0) # グラフの表示 plt.show()
結果の図示
収束は、Adagradより早い
- Adam
# データの読み込み (x_train, d_train), (x_test, d_test) = load_mnist(normalize=True, one_hot_label=True) print("データ読み込み完了") # batch_normalizationの設定 ======================= # use_batchnorm = True use_batchnorm = False # ==================================================== network = MultiLayerNet(input_size=784, hidden_size_list=[40, 20], output_size=10, activation='sigmoid', weight_init_std=0.01, use_batchnorm=use_batchnorm) iters_num = 1000 train_size = x_train.shape[0] batch_size = 100 learning_rate = 0.01 beta1 = 0.9 beta2 = 0.999 train_loss_list = [] accuracies_train = [] accuracies_test = [] plot_interval=10 for i in range(iters_num): batch_mask = np.random.choice(train_size, batch_size) x_batch = x_train[batch_mask] d_batch = d_train[batch_mask] # 勾配 grad = network.gradient(x_batch, d_batch) if i == 0: m = {} v = {} learning_rate_t = learning_rate * np.sqrt(1.0 - beta2 ** (i + 1)) / (1.0 - beta1 ** (i + 1)) for key in ('W1', 'W2', 'W3', 'b1', 'b2', 'b3'): if i == 0: m[key] = np.zeros_like(network.params[key]) v[key] = np.zeros_like(network.params[key]) m[key] += (1 - beta1) * (grad[key] - m[key]) v[key] += (1 - beta2) * (grad[key] ** 2 - v[key]) network.params[key] -= learning_rate_t * m[key] / (np.sqrt(v[key]) + 1e-7) loss = network.loss(x_batch, d_batch) train_loss_list.append(loss) if (i + 1) % plot_interval == 0: accr_test = network.accuracy(x_test, d_test) accuracies_test.append(accr_test) accr_train = network.accuracy(x_batch, d_batch) accuracies_train.append(accr_train) print('Generation: ' + str(i+1) + '. 正答率(トレーニング) = ' + str(accr_train)) print(' : ' + str(i+1) + '. 正答率(テスト) = ' + str(accr_test)) lists = range(0, iters_num, plot_interval) plt.plot(lists, accuracies_train, label="training set") plt.plot(lists, accuracies_test, label="test set") plt.legend(loc="lower right") plt.title("accuracy") plt.xlabel("count") plt.ylabel("accuracy") plt.ylim(0, 1.0) # グラフの表示 plt.show()
結果の図示
RMSPropと同程度に学習の収束が早く、かつ他のOptimizerより滑らかに精度が向上していることが確認できる。
Section3 過学習
過学習とは
訓練誤差は非常に小さくなるが、テスト誤差はそれほど下がらず、両者で学習曲線が乖離すること。
原因としては、一般にニューラルネットワークのパラメータは非常に多く、自由度が高いため、特定の訓練データに特化して学習が進みやすいことにある。
過学習を抑制する手法として正則化がある。
正則化
正則化とは、ネットワークの自由度(総数、ノード数、パラメータ数etc)を制約することである。
- 確認テスト
機械学習で使われる線形モデル(線形回帰、主成分分析..)の正則化は、モデルの重みを制限することで可能となる。
前述の線形モデルの正則化手法の中にリッジ回帰という手法があり、その特徴として正しいものを選択しなさい
(a)ハイパーパラメータを大きな値に設定するとすべての重みが限りなく0に近づく
(b)ハイパーパラメータ0に設定すると、非線形回帰となる
(c)バイアス項についても、正則化される
(d)リッジ回帰の場合、隠れ層に対して正則化項を加えることになる
[解答]
(a)
正則化項の影響が大きくなりすぎるため。
ハイパーパラメータは、適切な値を選ぶ必要がある。
Weight decay(荷重減衰)
過学習の原因として、重みが大きな値をとることがあげられる。大きい値をとる重みとは学習において重要な値とみなされる。
過学習が起こりそうな重みの大きさ以下で重みをコントロールし、かつ重みの大きさにばらつきを出せば過学習が起こりにくいと考えられる。そこで対策として、誤差に対して正則化項を加算して重みを抑制する手法が考案された。
L1,L2正則化
誤差関数に、pノルムを正則化項として加算する。
p=1の場合、L1正則化と呼ぶ。
p=2の場合、L2正則化と呼ぶ。
L1ノルムは、要素間のマンハッタン距離を計算することに相当する。L2ノルムは、要素間のユークリッド距離を計算することに相当する。
- L1正則化の特徴
微分不能な点があるため、微分を用いた最適化手法が使用出来ないが、最適点である重みをゼロにするスパース化が出来るため、計算効率を高くすることが出来る。
- L2正則化の特徴
スパース化は難しいが、全点微分可能なため、微分を用いた最適化手法を使用できる。
- 確認テスト
下図について、L1正則化を表しているグラフはどちらか答えよ。
[解答]
右のLasso回帰を表すグラフである。
- 例題チャレンジ1
[解答]
(4)
Ridge正則項を加えた誤差関数は下記のように表せる。
両辺をで微分すると、
と置けば、後半の項はrate*paramと表せる。
- 例題チャレンジ2
[解答]
(3)
Lasso正則項を加えた誤差関数は下記のように表せる。
で両辺を微分した場合、正則化項はλ*(の符号に応じて1,0,-1)となる。
よって、sign(param)である。
ドロップアウト
ドロップアウトとは、ランダムにノードを削除して学習させる手法。ノード数を減少させることで過学習を防ぐ。
メリットとしては、データ量を変化させずに異なるモデルを学習させると解釈できることである。
実装演習
まず、対策なしの過学習の状態を確認する。その後、L2正則化、L1正則化、ドロップアウトの効果をそれぞれ確認し、最後にL1正則化とドロップアウトを複合した場合の効果を確認する。
対策なしで訓練データとテストデータの精度の差異を確認する。
import numpy as np from collections import OrderedDict from common import layers from data.mnist import load_mnist import matplotlib.pyplot as plt from multi_layer_net import MultiLayerNet from common import optimizer (x_train, d_train), (x_test, d_test) = load_mnist(normalize=True) print("データ読み込み完了") # 過学習を再現するために、学習データを削減 x_train = x_train[:300] d_train = d_train[:300] network = MultiLayerNet(input_size=784, hidden_size_list=[100, 100, 100, 100, 100, 100], output_size=10) optimizer = optimizer.SGD(learning_rate=0.01) iters_num = 1000 train_size = x_train.shape[0] batch_size = 100 train_loss_list = [] accuracies_train = [] accuracies_test = [] plot_interval=10 for i in range(iters_num): batch_mask = np.random.choice(train_size, batch_size) x_batch = x_train[batch_mask] d_batch = d_train[batch_mask] grad = network.gradient(x_batch, d_batch) optimizer.update(network.params, grad) loss = network.loss(x_batch, d_batch) train_loss_list.append(loss) if (i+1) % plot_interval == 0: accr_train = network.accuracy(x_train, d_train) accr_test = network.accuracy(x_test, d_test) accuracies_train.append(accr_train) accuracies_test.append(accr_test) print('Generation: ' + str(i+1) + '. 正答率(トレーニング) = ' + str(accr_train)) print(' : ' + str(i+1) + '. 正答率(テスト) = ' + str(accr_test)) lists = range(0, iters_num, plot_interval) plt.plot(lists, accuracies_train, label="training set") plt.plot(lists, accuracies_test, label="test set") plt.legend(loc="lower right") plt.title("accuracy") plt.xlabel("count") plt.ylabel("accuracy") plt.ylim(0, 1.0) # グラフの表示 plt.show()
結果の表示
訓練データに対しては、accuracy=1.0と非常に精度高く予測で来ているが、テストデータに対しては、0.77程度と訓練データに対して精度が低く、過学習が起きていることが確認できる。
次にL2正則化を導入する。
from common import optimizer (x_train, d_train), (x_test, d_test) = load_mnist(normalize=True) print("データ読み込み完了") # 過学習を再現するために、学習データを削減 x_train = x_train[:300] d_train = d_train[:300] network = MultiLayerNet(input_size=784, hidden_size_list=[100, 100, 100, 100, 100, 100], output_size=10) iters_num = 1000 train_size = x_train.shape[0] batch_size = 100 learning_rate=0.01 train_loss_list = [] accuracies_train = [] accuracies_test = [] plot_interval=10 hidden_layer_num = network.hidden_layer_num # 正則化強度設定 ====================================== weight_decay_lambda = 0.1 # ================================================= for i in range(iters_num): batch_mask = np.random.choice(train_size, batch_size) x_batch = x_train[batch_mask] d_batch = d_train[batch_mask] grad = network.gradient(x_batch, d_batch) weight_decay = 0 for idx in range(1, hidden_layer_num+1): grad['W' + str(idx)] = network.layers['Affine' + str(idx)].dW + weight_decay_lambda * network.params['W' + str(idx)] grad['b' + str(idx)] = network.layers['Affine' + str(idx)].db network.params['W' + str(idx)] -= learning_rate * grad['W' + str(idx)] network.params['b' + str(idx)] -= learning_rate * grad['b' + str(idx)] weight_decay += 0.5 * weight_decay_lambda * np.sqrt(np.sum(network.params['W' + str(idx)] ** 2)) loss = network.loss(x_batch, d_batch) + weight_decay train_loss_list.append(loss) if (i+1) % plot_interval == 0: accr_train = network.accuracy(x_train, d_train) accr_test = network.accuracy(x_test, d_test) accuracies_train.append(accr_train) accuracies_test.append(accr_test) print('Generation: ' + str(i+1) + '. 正答率(トレーニング) = ' + str(accr_train)) print(' : ' + str(i+1) + '. 正答率(テスト) = ' + str(accr_test)) lists = range(0, iters_num, plot_interval) plt.plot(lists, accuracies_train, label="training set") plt.plot(lists, accuracies_test, label="test set") plt.legend(loc="lower right") plt.title("accuracy") plt.xlabel("count") plt.ylabel("accuracy") plt.ylim(0, 1.0) # グラフの表示 plt.show()
訓練データのaccuracyは少し下がっている(0.94程度)がテストデータに対しては0.74程度と対策なしに比較して精度の差が若干小さくなっている。
L1正則化を導入する。
(x_train, d_train), (x_test, d_test) = load_mnist(normalize=True) print("データ読み込み完了") # 過学習を再現するために、学習データを削減 x_train = x_train[:300] d_train = d_train[:300] network = MultiLayerNet(input_size=784, hidden_size_list=[100, 100, 100, 100, 100, 100], output_size=10) iters_num = 1000 train_size = x_train.shape[0] batch_size = 100 learning_rate=0.1 train_loss_list = [] accuracies_train = [] accuracies_test = [] plot_interval=10 hidden_layer_num = network.hidden_layer_num # 正則化強度設定 ====================================== weight_decay_lambda = 0.005 # ================================================= for i in range(iters_num): batch_mask = np.random.choice(train_size, batch_size) x_batch = x_train[batch_mask] d_batch = d_train[batch_mask] grad = network.gradient(x_batch, d_batch) weight_decay = 0 for idx in range(1, hidden_layer_num+1): grad['W' + str(idx)] = network.layers['Affine' + str(idx)].dW + weight_decay_lambda * np.sign(network.params['W' + str(idx)]) grad['b' + str(idx)] = network.layers['Affine' + str(idx)].db network.params['W' + str(idx)] -= learning_rate * grad['W' + str(idx)] network.params['b' + str(idx)] -= learning_rate * grad['b' + str(idx)] weight_decay += weight_decay_lambda * np.sum(np.abs(network.params['W' + str(idx)])) loss = network.loss(x_batch, d_batch) + weight_decay train_loss_list.append(loss) if (i+1) % plot_interval == 0: accr_train = network.accuracy(x_train, d_train) accr_test = network.accuracy(x_test, d_test) accuracies_train.append(accr_train) accuracies_test.append(accr_test) print('Generation: ' + str(i+1) + '. 正答率(トレーニング) = ' + str(accr_train)) print(' : ' + str(i+1) + '. 正答率(テスト) = ' + str(accr_test)) lists = range(0, iters_num, plot_interval) plt.plot(lists, accuracies_train, label="training set") plt.plot(lists, accuracies_test, label="test set") plt.legend(loc="lower right") plt.title("accuracy") plt.xlabel("count") plt.ylabel("accuracy") plt.ylim(0, 1.0) # グラフの表示 plt.show()
一部の重みが0になっているため、学習の進み方が特徴的になっている。
ドロップアウトを導入する。
class Dropout: def __init__(self, dropout_ratio=0.5): self.dropout_ratio = dropout_ratio self.mask = None def forward(self, x, train_flg=True): if train_flg: self.mask = np.random.rand(*x.shape) > self.dropout_ratio return x * self.mask else: return x * (1.0 - self.dropout_ratio) def backward(self, dout): return dout * self.mask from common import optimizer (x_train, d_train), (x_test, d_test) = load_mnist(normalize=True) print("データ読み込み完了") # 過学習を再現するために、学習データを削減 x_train = x_train[:300] d_train = d_train[:300] # ドロップアウト設定 ====================================== use_dropout = True dropout_ratio = 0.15 # ==================================================== network = MultiLayerNet(input_size=784, hidden_size_list=[100, 100, 100, 100, 100, 100], output_size=10, weight_decay_lambda=weight_decay_lambda, use_dropout = use_dropout, dropout_ratio = dropout_ratio) optimizer = optimizer.SGD(learning_rate=0.01) # optimizer = optimizer.Momentum(learning_rate=0.01, momentum=0.9) # optimizer = optimizer.AdaGrad(learning_rate=0.01) # optimizer = optimizer.Adam() iters_num = 1000 train_size = x_train.shape[0] batch_size = 100 train_loss_list = [] accuracies_train = [] accuracies_test = [] plot_interval=10 for i in range(iters_num): batch_mask = np.random.choice(train_size, batch_size) x_batch = x_train[batch_mask] d_batch = d_train[batch_mask] grad = network.gradient(x_batch, d_batch) optimizer.update(network.params, grad) loss = network.loss(x_batch, d_batch) train_loss_list.append(loss) if (i+1) % plot_interval == 0: accr_train = network.accuracy(x_train, d_train) accr_test = network.accuracy(x_test, d_test) accuracies_train.append(accr_train) accuracies_test.append(accr_test) print('Generation: ' + str(i+1) + '. 正答率(トレーニング) = ' + str(accr_train)) print(' : ' + str(i+1) + '. 正答率(テスト) = ' + str(accr_test)) lists = range(0, iters_num, plot_interval) plt.plot(lists, accuracies_train, label="training set") plt.plot(lists, accuracies_test, label="test set") plt.legend(loc="lower right") plt.title("accuracy") plt.xlabel("count") plt.ylabel("accuracy") plt.ylim(0, 1.0) # グラフの表示 plt.show()
ドロップアウトをしたことで、学習の進み方は遅くなっている。
from common import optimizer (x_train, d_train), (x_test, d_test) = load_mnist(normalize=True) print("データ読み込み完了") # 過学習を再現するために、学習データを削減 x_train = x_train[:300] d_train = d_train[:300] # ドロップアウト設定 ====================================== use_dropout = True dropout_ratio = 0.08 # ==================================================== network = MultiLayerNet(input_size=784, hidden_size_list=[100, 100, 100, 100, 100, 100], output_size=10, use_dropout = use_dropout, dropout_ratio = dropout_ratio) iters_num = 1000 train_size = x_train.shape[0] batch_size = 100 learning_rate=0.01 train_loss_list = [] accuracies_train = [] accuracies_test = [] hidden_layer_num = network.hidden_layer_num plot_interval=10 # 正則化強度設定 ====================================== weight_decay_lambda=0.004 # ================================================= for i in range(iters_num): batch_mask = np.random.choice(train_size, batch_size) x_batch = x_train[batch_mask] d_batch = d_train[batch_mask] grad = network.gradient(x_batch, d_batch) weight_decay = 0 for idx in range(1, hidden_layer_num+1): grad['W' + str(idx)] = network.layers['Affine' + str(idx)].dW + weight_decay_lambda * np.sign(network.params['W' + str(idx)]) grad['b' + str(idx)] = network.layers['Affine' + str(idx)].db network.params['W' + str(idx)] -= learning_rate * grad['W' + str(idx)] network.params['b' + str(idx)] -= learning_rate * grad['b' + str(idx)] weight_decay += weight_decay_lambda * np.sum(np.abs(network.params['W' + str(idx)])) loss = network.loss(x_batch, d_batch) + weight_decay train_loss_list.append(loss) if (i+1) % plot_interval == 0: accr_train = network.accuracy(x_train, d_train) accr_test = network.accuracy(x_test, d_test) accuracies_train.append(accr_train) accuracies_test.append(accr_test) print('Generation: ' + str(i+1) + '. 正答率(トレーニング) = ' + str(accr_train)) print(' : ' + str(i+1) + '. 正答率(テスト) = ' + str(accr_test)) lists = range(0, iters_num, plot_interval) plt.plot(lists, accuracies_train, label="training set") plt.plot(lists, accuracies_test, label="test set") plt.legend(loc="lower right") plt.title("accuracy") plt.xlabel("count") plt.ylabel("accuracy") plt.ylim(0, 1.0) # グラフの表示 plt.show()
ドロップアウト単体に対して学習の進み方は早くなり、テストデータに対しても精度の飽和が見られず、過学習しにくいことが確認できる。