日本免费高清视频-国产福利视频导航-黄色在线播放国产-天天操天天操天天操天天操|www.shdianci.com

學(xué)無先后,達(dá)者為師

網(wǎng)站首頁(yè) 編程語言 正文

Tensorflow2.1?MNIST圖像分類實(shí)現(xiàn)思路分析_python

作者:我是王大你是誰 ? 更新時(shí)間: 2022-12-15 編程語言

前言

之前工作中主要使用的是 Tensorflow 1.15 版本,但是漸漸跟不上工作中的項(xiàng)目需求了,而且因?yàn)?2.x 版本和 1.x 版本差異較大,所以要專門花時(shí)間學(xué)習(xí)一下 2.x 版本,本文作為學(xué)習(xí) Tensorflow 2.x 版本的開篇,主要介紹了使用 cpu 版本的 Tensorflow 2.1 搭建深度學(xué)習(xí)模型,完成對(duì)于 MNIST 數(shù)據(jù)的圖片分類的任務(wù)。

主要思路和實(shí)現(xiàn)

(1) 加載數(shù)據(jù),處理數(shù)據(jù)

這里是要導(dǎo)入 tensorflow 的包,前提是你要提前安裝 tensorflow ,我這里為了方便直接使用的是 cpu 版本的 tensorflow==2.1.0 ,如果是為了學(xué)習(xí)的話,cpu 版本的也夠用了,畢竟數(shù)據(jù)量和模型都不大。

import tensorflow as tf

這里是為了加載 mnist 數(shù)據(jù)集,mnist 數(shù)據(jù)集里面就是 0-9 這 10 個(gè)數(shù)字的圖片集,我們要使用深度學(xué)習(xí)實(shí)現(xiàn)一個(gè)模型完成對(duì) mnist 數(shù)據(jù)集進(jìn)行分類的任務(wù),這個(gè)項(xiàng)目相當(dāng)于 java 中 hello world 。

mnist = tf.keras.datasets.mnist

這里的 (x_train, y_train) 表示的是訓(xùn)練集的圖片和標(biāo)簽,(x_test, y_test) 表示的是測(cè)試集的圖片和標(biāo)簽。

(x_train, y_train), (x_test, y_test) = mnist.load_data()

每張圖片是 28*28 個(gè)像素點(diǎn)(數(shù)字)組成的,而每個(gè)像素點(diǎn)(數(shù)字)都是 0-255 中的某個(gè)數(shù)字,我們對(duì)其都除 255 ,這樣就是相當(dāng)于對(duì)這些圖片的像素點(diǎn)值做歸一化,這樣有利于模型加速收斂,在本項(xiàng)目中執(zhí)行本操作比不執(zhí)行本操作最后的準(zhǔn)確率高很多,在文末會(huì)展示注釋本行情況下,模型評(píng)估的指標(biāo)結(jié)果,大家可以自行對(duì)比差異。

x_train, x_test = x_train / 255.0, x_test / 255.0

(2) 使用 keras 搭建深度學(xué)習(xí)模型

這里主要是要構(gòu)建機(jī)器學(xué)習(xí)模型,模型分為以下幾層:

  • 第一層要接收?qǐng)D片的輸入,每張圖片是 28*28 個(gè)像素點(diǎn)組成的,所以 input_shape=(28, 28)
  • 第二層是一個(gè)輸出 128 維度的全連接操作
  • 第三層是要對(duì)第二層的輸出隨機(jī)丟棄 20% 的 Dropout 操作,這樣有利于模型的泛化

第四層是一個(gè)輸出 10 維度的全連接操作,也就是預(yù)測(cè)該圖片分別屬于這十種類型的概率

 model = tf.keras.models.Sequential([
   tf.keras.layers.Flatten(input_shape=(28, 28)),
   tf.keras.layers.Dense(128, activation='relu'),
   tf.keras.layers.Dropout(0.2),
   tf.keras.layers.Dense(10)
 ])

(3) 定義損失函數(shù)

這里主要是定義損失函數(shù),這里的損失函數(shù)使用到了 SparseCategoricalCrossentropy ,主要是為了計(jì)算標(biāo)簽和預(yù)測(cè)結(jié)果之間的交叉熵?fù)p失。

loss_fn = tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True)

(4) 配置編譯模型

這里主要是配置和編譯模型,優(yōu)化器使用了 adam ,要優(yōu)化的評(píng)價(jià)指標(biāo)選用了準(zhǔn)確率 accuracy ,當(dāng)然了還可以選擇其他的優(yōu)化器和評(píng)價(jià)指標(biāo)。

model.compile(optimizer='adam', loss=loss_fn, metrics=['accuracy'])

(5) 使用訓(xùn)練數(shù)據(jù)訓(xùn)練模型

這里主要使用訓(xùn)練數(shù)據(jù)的圖片和標(biāo)簽來訓(xùn)練模型,將整個(gè)訓(xùn)練樣本集訓(xùn)練 5 次。

model.fit(x_train, y_train, epochs=5) 

訓(xùn)練過程結(jié)果輸出如下:

Train on 60000 samples
Epoch 1/5
60000/60000 [==============================] - 3s 43us/sample - loss: 0.2949 - accuracy: 0.9144
Epoch 2/5
60000/60000 [==============================] - 2s 40us/sample - loss: 0.1434 - accuracy: 0.9574
Epoch 3/5
60000/60000 [==============================] - 2s 36us/sample - loss: 0.1060 - accuracy: 0.9676
Epoch 4/5
60000/60000 [==============================] - 2s 31us/sample - loss: 0.0891 - accuracy: 0.9721
Epoch 5/5
60000/60000 [==============================] - 2s 29us/sample - loss: 0.0740 - accuracy: 0.9771
10000/10000 - 0s - loss: 0.0744 - accuracy: 0.9777

(6) 使用測(cè)試數(shù)據(jù)評(píng)估模型

這里主要是使用測(cè)試數(shù)據(jù)中的圖片和標(biāo)簽來評(píng)估模型,verbose 可以選為 0、1、2 ,區(qū)別主要是結(jié)果輸出的形式不一樣,嫌麻煩可以不設(shè)置

model.evaluate(x_test,  y_test, verbose=2)

評(píng)估的損失值和準(zhǔn)確率如下:

[0.07444974237508141, 0.9777]

(7) 展示不使用歸一化的操作的訓(xùn)練和評(píng)估結(jié)果

在不使用歸一化操作的情況下,訓(xùn)練過程輸出如下:

Train on 60000 samples
Epoch 1/5
60000/60000 [==============================] - 3s 42us/sample - loss: 2.4383 - accuracy: 0.7449
Epoch 2/5
60000/60000 [==============================] - 2s 40us/sample - loss: 0.5852 - accuracy: 0.8432
Epoch 3/5
60000/60000 [==============================] - 2s 36us/sample - loss: 0.4770 - accuracy: 0.8724
Epoch 4/5
60000/60000 [==============================] - 2s 34us/sample - loss: 0.4069 - accuracy: 0.8950
Epoch 5/5
60000/60000 [==============================] - 2s 32us/sample - loss: 0.3897 - accuracy: 0.8996
10000/10000 - 0s - loss: 0.2898 - accuracy: 0.9285

評(píng)估結(jié)果輸入如下:

[0.2897613683119416, 0.9285]

所以我們通過和上面的進(jìn)行對(duì)比發(fā)現(xiàn),不進(jìn)行歸一化操作,在訓(xùn)練過程中收斂較慢,在相同 epoch 的訓(xùn)練之后,評(píng)估的準(zhǔn)確率和損失值都不理想,損失值比第(6)步操作的損失值大,準(zhǔn)確率比第(6)步操作低 5% 左右。

原文鏈接:https://juejin.cn/post/7164678763903451172

欄目分類
最近更新