Python

Keras で MNIST データの学習を試してみよう

投稿者 : OSCA

Keras で MNIST データの学習を試してみよう

人工知能・機械学習を学習する際に、チュートリアルとして頻繁に利用されるデータに MNIST のデータがあります。 手書きの数字を白黒画像にしたデータで、「手書きの数字を認識できる人工知能を作る」というチュートリアルに良く利用されます。 ここでは人工知能ライブラリ Keras で MNIST データを学習させ、手書き数字を認識できる人工知能を作ります。

どのような人工知能を作るのか?

まずは、どのような人工知能を作ろうとしているのかを整理してみましょう。

実現したいこと (作成する人工知能の能力)

今回利用する MNIST のデータは、(1)次のような手書きの 0 〜 9 の数字が書かれた画像データ と、(2)その画像に書かれた実際の数字データ のペアです。

MNISTデータ

ここで作成する人工知能とは、1つの数字が書かれた1つの画像データを人工知能に入力した際に、その画像になんの数字が書かれているのかを分類できる人工知能です。

入力データ

前述の通り、入力データは1つの数字が書かれた画像データです。 MNISTの画像1つは 28×28 ピクセル(=784ピクセル)の大きさです。 1ピクセルごとに「白」〜「黒」までの色情報が記録されています。 1つの画像の全てのピクセルの情報を人工知能の入力としますので、入力の数は784個になります。

出力データ

画像データを入力された人工知能は、どの数字の画像なのかを考えたあとに、「0」〜「9」までの数字毎にその確率を出力します。 例えば次の表のようなイメージです。 次の表の例だと「3」の確率が一番高いので、人工知能が「3」だと判断したことになります。 このように数字ごとに確率を出力するので、出力の数は10個になります。

数字 確率
0 0.014
1 0.001
2 0.013
3 0.719
4 0.034
5 0.016
6 0.023
7 0.065
8 0.086
9 0.029

ソースコード全行

まずは、ソースコード全行を掲載します。 その後、ソースコードの部分部分について詳しく解説します。

利用するライブラリのインポート

まずは、今回のプログラムで利用するライブラリを読み込みます。 すべて Keras のライブラリです。

import keras
from keras.datasets import mnist
from keras.models import Sequential
from keras.layers import Dense, Dropout, InputLayer
from keras.optimizers import RMSprop

import matplotlib.pyplot as plt
Using TensorFlow backend.

MNISTデータの準備

人工知能に学習させる MNIST データを準備します。 MNIST データは、学習用のデータを 60,000 個、検証用のデータを 10,000 個提供してくれています。

MNISTデータの読込み

まずは MNIST データをプログラムから読込みます。 Keras がチュートリアル用に読込み関数を用意してくれているので、 mnist.load_data() 関数を呼び出すだけです。 この関数はコンピュータ内に MNIST データがない場合はインターネットからダウンロードすることもやってくれるので、あらかじめ手元に MNIST データを用意するようなことは必要ありません。 MNIST データを読み込んだあとに、データが格納されたそれぞれの配列の形(shape)を出力してみると次のようになります。

(x_train, y_train), (x_test, y_test) = mnist.load_data()
print("x_train.shape(学習用の画像データ) : ", x_train.shape)
print("y_train_shape(学習用の正解データ) : ", y_train.shape)
print("x_test.shape(検証用の画像データ) : ", x_test.shape)
print("y_test.shape(検証用の正解データ) : ", y_test.shape)
x_train.shape(学習用の画像データ) :  (60000, 28, 28)
y_train_shape(学習用の正解データ) :  (60000,)
x_test.shape(検証用の画像データ) :  (10000, 28, 28)
y_test.shape(検証用の正解データ) :  (10000,)

入力データの加工

この時点では 60,000 個の画像が、それぞれ 28×28 の二次元で表現されています。 前述の通り、入力となる画像の情報は784個になるようにしたいので、1次元になるように変形させます。

x_train  = x_train.reshape(60000, 784)
x_test   = x_test.reshape(10000, 784)
print("x_train.shape(学習用の画像データ) : ", x_train.shape)
print("y_train_shape(学習用の正解データ) : ", y_train.shape)
print("x_test.shape(検証用の画像データ) : ", x_test.shape)
print("y_test.shape(検証用の正解データ) : ", y_test.shape)
x_train.shape(学習用の画像データ) :  (60000, 784)
y_train_shape(学習用の正解データ) :  (60000,)
x_test.shape(検証用の画像データ) :  (10000, 784)
y_test.shape(検証用の正解データ) :  (10000,)

また、MNIST のピクセルの情報は、0〜255 の数値で提供されており、0 が白、255に近くにつれて黒になるような数字になっています。 数値計算の都合上、入力を 0〜1の範囲の数値にした方が良いため、データ型を float に変換したのち、255 で割ります。

# データを float 型に変換
x_train = x_train.astype('float32')
x_test  = x_test.astype('float32')

# 0〜255 までの範囲のデータを 0〜1 までの範囲に変更
x_train /= 255
x_test  /= 255

正解データの加工

次に正解データを加工します。 MNIST の正解データは、対となる画像に何の数字が書かれているかを表す「0」〜「9」の数字を提供してくれています。 しかし、ここで作成する人工知能は前述の通り出力が10個の確率になりますので、今のままでは比較が難しいです。 そこで「0」〜「9」までの数字の形を変換します。 どのように変換するのかといえば、例えば「4」という数字であれば [0,0,0,0,1,0,0,0,0,0] というような、「4」を表す値だけが「1」となるような1次元配列にするのです。

y_train = keras.utils.to_categorical(y_train, 10)
y_test  = keras.utils.to_categorical(y_test, 10)

データ加工後の最終状態

ここまでで、MNIST のデータを今回作成する人工知能が学習をしやすい形に変換してきました。 最終的には次のようになりました。

  • 学習用の画像データ : 画像1つ分の情報を人工知能に与えられるように、長さが784の1次元配列に整形した。 それが 60,000個の画像分ある。
  • 学習用の正解データ : 人工知能の出力は「0」〜「9」の数字毎に確率が算出されるため、それに合わせて「0」〜「9」の数字を長さ10の一次元配列に整形した。 それが画像データと対になるように 60,000個ある。
  • 検証用の画像データ : 学習用の画像データと同じように整形。 10,000個の画像分のデータがある。
  • 検証用の正解データ : 学習用の正解データと同じように整形。 検証用の画像データと対になるように 10,000個ある。
print("x_train.shape(学習用の画像データ) : ", x_train.shape)
print("y_train_shape(学習用の正解データ) : ", y_train.shape)
print("x_test.shape(検証用の画像データ) : ", x_test.shape)
print("y_test.shape(検証用の正解データ) : ", y_test.shape)
x_train.shape(学習用の画像データ) :  (60000, 784)
y_train_shape(学習用の正解データ) :  (60000, 10)
x_test.shape(検証用の画像データ) :  (10000, 784)
y_test.shape(検証用の正解データ) :  (10000, 10)

モデルの構築

さて、ここからがやっと人工知能をつくるパートです。 まずは人工知能のモデルを作成します。 作りたいモデルの仕様は次のようなものです。

  1. 入力の数は784個である。 これは画像1つが784ピクセルの大きさであるため。
  2. 出力の数は10個である。 与えた画像が、数字「0」〜「9」のどれにあたるかを、それぞれの数字毎に確率を算出させるため。

ここでは、次のようにモデルを構築します。

# Dense : 第1引数で出力の次元数を指定します。入力の次元数はinput_shapeで指定します(指定しない場合は出力と同じ)
model = Sequential()
model.add(InputLayer(input_shape=(784,)))
model.add(Dense(10, activation='softmax'))

# モデルをコンパイルする
model.compile(loss='categorical_crossentropy', optimizer='rmsprop', metrics=['accuracy'])

学習

 モデルを作り終えたら、ついに本題の「学習」になります。 学習のフェーズで重要なのは、学習回数です。 簡単に例えるなら「1冊の学習ドリルを何回学習したか」みたいな感じです。 人工知能も同じ問題を何度も反復することで賢くなります。 学習用データを何度もモデルに入力することが大切です。

epochs = 20
batch_size = 128
history = model.fit(x_train, y_train, batch_size=batch_size, epochs=epochs, verbose=1, validation_data=(x_test, y_test))
Train on 60000 samples, validate on 10000 samples
Epoch 1/20
60000/60000 [==============================] - 1s - loss: 0.6130 - acc: 0.8482 - val_loss: 0.3389 - val_acc: 0.9100
Epoch 2/20
60000/60000 [==============================] - 1s - loss: 0.3306 - acc: 0.9084 - val_loss: 0.2999 - val_acc: 0.9154
Epoch 3/20
60000/60000 [==============================] - 1s - loss: 0.3016 - acc: 0.9159 - val_loss: 0.2843 - val_acc: 0.9218
Epoch 4/20
60000/60000 [==============================] - 1s - loss: 0.2886 - acc: 0.9196 - val_loss: 0.2788 - val_acc: 0.9229
Epoch 5/20
60000/60000 [==============================] - 1s - loss: 0.2804 - acc: 0.9223 - val_loss: 0.2759 - val_acc: 0.9235
Epoch 6/20
60000/60000 [==============================] - 1s - loss: 0.2748 - acc: 0.9238 - val_loss: 0.2708 - val_acc: 0.9252
Epoch 7/20
60000/60000 [==============================] - 1s - loss: 0.2707 - acc: 0.9252 - val_loss: 0.2702 - val_acc: 0.9253
Epoch 8/20
60000/60000 [==============================] - 1s - loss: 0.2674 - acc: 0.9262 - val_loss: 0.2715 - val_acc: 0.9259
Epoch 9/20
60000/60000 [==============================] - 1s - loss: 0.2649 - acc: 0.9270 - val_loss: 0.2683 - val_acc: 0.9268
Epoch 10/20
60000/60000 [==============================] - 1s - loss: 0.2625 - acc: 0.9277 - val_loss: 0.2686 - val_acc: 0.9272
Epoch 11/20
60000/60000 [==============================] - 1s - loss: 0.2610 - acc: 0.9283 - val_loss: 0.2684 - val_acc: 0.9262
Epoch 12/20
60000/60000 [==============================] - 1s - loss: 0.2595 - acc: 0.9291 - val_loss: 0.2683 - val_acc: 0.9269
Epoch 13/20
60000/60000 [==============================] - 1s - loss: 0.2580 - acc: 0.9300 - val_loss: 0.2680 - val_acc: 0.9267
Epoch 14/20
60000/60000 [==============================] - 1s - loss: 0.2570 - acc: 0.9299 - val_loss: 0.2710 - val_acc: 0.9262
Epoch 15/20
60000/60000 [==============================] - 1s - loss: 0.2557 - acc: 0.9302 - val_loss: 0.2670 - val_acc: 0.9280
Epoch 16/20
60000/60000 [==============================] - 1s - loss: 0.2549 - acc: 0.9315 - val_loss: 0.2686 - val_acc: 0.9277
Epoch 17/20
60000/60000 [==============================] - 1s - loss: 0.2540 - acc: 0.9312 - val_loss: 0.2699 - val_acc: 0.9286
Epoch 18/20
60000/60000 [==============================] - 1s - loss: 0.2534 - acc: 0.9314 - val_loss: 0.2680 - val_acc: 0.9291
Epoch 19/20
60000/60000 [==============================] - 1s - loss: 0.2530 - acc: 0.9319 - val_loss: 0.2683 - val_acc: 0.9276
Epoch 20/20
60000/60000 [==============================] - 1s - loss: 0.2520 - acc: 0.9318 - val_loss: 0.2703 - val_acc: 0.9273

評価

 それでは最後に、出来上がった人工知能モデルが、どれだけ優秀なのかを評価しましょう。 出来上がった人工知能モデルに検証用データ (x_test と y_test )を与えて、正解率を求めて評価します。

score = model.evaluate(x_test, y_test, verbose=1)
print()
print('Test loss:', score[0])
print('Test accuracy:', score[1])
 8320/10000 [=======================>......] - ETA: 0s
Test loss: 0.270300399379
Test accuracy: 0.9273

accuracy とは日本語で「正確さ」という意味で、今回の場合であれば「画像を認識できる確率」を表しています。

学習経過の可視化

 ここまでで、人工知能のモデルの作成と評価は完了です。 結果として、0.92 と言うスコアを持つ賢さの人工知能を作り出すことができました。 さて、気になるのは「成果のある学習が行えたのか? 学習して賢くなったのか?」ということではないでしょうか。 学習を繰り返すたびに賢くなっていることが、視覚的にわかるととても安心できます。

 上で実行した model.fit() の戻り値 history から、学習経過を可視化することができます。 history には学習状況が格納されており、次のようなものを含んでいます。

 loss : loss は日本語で損失と訳されます。 ここでの loss は、学習用データで学習を終えた際の「損失」の値です。 値の意味としては、小さい数字ほど正しい結果を出せるように学習できたことを表し、逆に値が大きい場合は正しい結果を出せていないことを表します。

  val_loss : val_loss は、検証用データを与えて試した際に、どれだけ正しい結果を出せたのかということを表します。 値が小さいほど正しい結果を出せ、値が大きいほど正しい結果をだせていないことを表します。

 総じて、loss は学習状況を示す指標となる数字だと覚えておけばよいでしょう。

項目 概要
loss 学習用データを与えた際の損失値。 簡単にいうと、この値が小さければ小さいほど賢くなったことを表し、逆に値が大きければ学習が不十分だということを表します。
val_loss 検証データを与えた際の損失値。 意味は loss 同様。

 この loss と val_loss の値を二次元グラフにして表示してみます。 縦軸には loss の値を、横軸には学習回数(ここでは20回学習させている)を割り当てて、学習ごとの loss と val_loss をグラフにしてみます。

loss     = history.history['loss']
val_loss = history.history['val_loss']

nb_epoch = len(loss)
plt.plot(range(nb_epoch), loss,     marker='.', label='loss')
plt.plot(range(nb_epoch), val_loss, marker='.', label='val_loss')
plt.legend(loc='best', fontsize=10)
plt.grid()
plt.xlabel('epoch')
plt.ylabel('loss')
plt.show()

 生成されたグラフからは、次のようなことがわかります。

  • loss が徐々に下がっており、学習用データによる学習は順調に行われたようにみえる。
  • 実際の検証においては、最初の数回の検証においては val_loss が徐々にさがっており、学習が効果があったことがわかる。しかし、5回目くらい以降の検証では val_loss が横ばいとなっている。

 このことから、じつは5回目くらい以上の学習は、あまり効果がなかったかもしれません。 学校のテストに例えると「試験勉強はたくさんやって知識が増えたが、実際の試験では勉強した分だけの点数を取れなかった」ということかもしれません。 もし、もっと高いスコアを目指したいのであれば、今回の学習方法よりも良い学習方法を取り入れないといけないのかもしれません。 本稿で作成したモデルは、とても初歩的でシンプルなモデルでした。 人工知能に関する学習をすすめ、もっと良いモデルを作れれば、もっと賢い・ハイスコアを出せるかもしれません。

まとめ

 今回は、人工知能ライブラリ Keras を利用した MNIST データの学習について解説しました。 ここで解説したモデルは、とても初歩的でシンプルなモデルです。 ぜひ様々なモデルの作り方を知って、人工知能の知識を深めていってください。

著者 : OSCA

OSCA

Java, PHP 系のWEBエンジニア。 WEBエンジニア向けコミュニティ「WEBエンジニア勉強会」を主催。
個人として何か一つでも世の中の多くの人に使ってもらえるものを作ろうと日々奮闘中。
@engineer_osca