在之前神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)基礎(chǔ)上,來(lái)試著解決實(shí)際問(wèn)題让腹。
進(jìn)行手寫數(shù)字圖像的分類肾砂。假設(shè)學(xué)習(xí)已經(jīng)全部結(jié)束列赎,我們使用學(xué)習(xí)到的參數(shù),先實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的“推理處理”镐确。這個(gè)推理處理也稱為神經(jīng)網(wǎng)絡(luò)的前向傳播包吝。
一,MNIST數(shù)據(jù)集
MNIST是機(jī)器學(xué)習(xí)領(lǐng)域最有名的數(shù)據(jù)集之一源葫,這里我們也使用它诗越。
一般使用方法是,先用訓(xùn)練圖像進(jìn)行學(xué)習(xí)息堂,再用學(xué)習(xí)到的模型度量能在多大程度上對(duì)測(cè)試圖像進(jìn)行正確的分類嚷狞。
圖像數(shù)據(jù)是28像素 × 28像素的灰度圖像(1通道)块促,各個(gè)像素的取值在0到255之間。
借用一個(gè)案例中提供的下載腳本床未,能將數(shù)據(jù)集轉(zhuǎn)換成Numpy數(shù)組竭翠。
import sys, os
sys.path.append(os.pardir) # 為了導(dǎo)入父目錄中的文件而進(jìn)行的設(shè)定
from dataset.mnist import load_mnist
# 第一次調(diào)用會(huì)花費(fèi)幾分鐘 ……
(x_train, t_train), (x_test, t_test) = load_mnist(flatten=True, normalize=False)
# 輸出各個(gè)數(shù)據(jù)的形狀
print(x_train.shape) # (60000, 784)
print(t_train.shape) # (60000,)
print(x_test.shape) # (10000, 784)
print(t_test.shape) # (10000,)
load_mnist函數(shù)以“(訓(xùn)練圖像 ,訓(xùn)練標(biāo)簽 ),(測(cè)試圖像薇搁,測(cè)試標(biāo)簽 )”的形式返回讀入的MNIST數(shù)據(jù)
二斋扰,神經(jīng)網(wǎng)絡(luò)的推理處理
我們來(lái)確定一些這個(gè)神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)的輸入層有784個(gè)神經(jīng)元(來(lái)源于圖像大小的28 × 28 = 784)啃洋,輸出層有10個(gè)神經(jīng)元(數(shù)字0到9传货,共10類別)。此外這個(gè)神經(jīng)網(wǎng)絡(luò)有2個(gè)隱藏層宏娄,第1個(gè)隱藏層有50個(gè)神經(jīng)元损离,第2個(gè)隱藏層有100個(gè)神經(jīng)元。
另外绝编,假設(shè)已經(jīng)經(jīng)過(guò)訓(xùn)練得到了參數(shù)僻澎,保存在sample_weight.pkl文件中。
代碼如下:
import sys, os
sys.path.append(os.pardir) # 為了導(dǎo)入父目錄中的文件而進(jìn)行的設(shè)定
from dataset.mnist import load_mnist
import numpy as np
import pickle #訓(xùn)練得到的參數(shù)
from common.functions import sigmoid, softmax
#定義獲取數(shù)據(jù)的函數(shù)
def get_data():
(x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, flatten=True, one_hot_label=False)
return x_test, t_test
#讀入保存的學(xué)習(xí)到的權(quán)重參數(shù)
def init_network():
with open("sample_weight.pkl", 'rb') as f:
network = pickle.load(f)
return network
#定義推理過(guò)程函數(shù)
def predict(network, x):
w1, w2, w3 = network['W1'], network['W2'], network['W3']
b1, b2, b3 = network['b1'], network['b2'], network['b3']
a1 = np.dot(x, w1) + b1
z1 = sigmoid(a1)
a2 = np.dot(z1, w2) + b2
z2 = sigmoid(a2)
a3 = np.dot(z2, w3) + b3
y = softmax(a3)
return y
## 具體實(shí)現(xiàn)##
##1十饥,獲取數(shù)據(jù)
x, t = get_data()
##2窟勃,讀入權(quán)重參數(shù)
network = init_network()
##3,設(shè)定關(guān)鍵參數(shù)
accuracy_cnt = 0
##4逗堵,預(yù)測(cè)秉氧、比較、計(jì)算預(yù)測(cè)正確數(shù)
for i in range(len(x)):
y = predict(network, x[i])
p = np.argmax(y) # 獲取概率最高的元素的索引
if p == t[i]:
accuracy_cnt += 1
##5蜒秤,輸出精確率
print("Accuracy:" + str(float(accuracy_cnt) / len(x)))
輸出結(jié)果為汁咏,Accuracy:0.9352,表示有93.52 %的數(shù)據(jù)被正確分類作媚。
在這個(gè)例子中攘滩,把load_mnist函數(shù)的參數(shù)normalize設(shè)置成了True,這個(gè)的意思是纸泡,將圖像的各個(gè)像素值除以255漂问,使得數(shù)據(jù)的值在0.0~1.0的范圍內(nèi),這種處理叫正規(guī)化女揭。另外蚤假,對(duì)神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù)進(jìn)行某種既定的轉(zhuǎn)換稱為預(yù)處理。
三吧兔,批處理
將上述例子中的各層的形狀寫出來(lái)研究一下過(guò)程中數(shù)組形狀的變化磷仰,如下:
可以看出來(lái),輸出的是一個(gè)784元素的一維數(shù)組境蔼,最后輸出的是10個(gè)元素的一維數(shù)組灶平,這也是輸入一張圖像數(shù)據(jù)時(shí)的處理流程
那假如我們將X的形狀改為100×784伺通,也就是說(shuō),一次性傳入傳入100張圖像民逼,用圖來(lái)表示的話,如下所示
可以發(fā)現(xiàn)輸出的形狀變成了100×10涮帘,代表著100張圖像的結(jié)果一次性輸出拼苍。這種打包式的輸入數(shù)據(jù)稱為批
改一下之前的代碼,實(shí)現(xiàn)如下:
##3调缨,設(shè)定關(guān)鍵參數(shù)
batch_size = 100 # 批數(shù)量
accuracy_cnt = 0
##4疮鲫,預(yù)測(cè)、比較弦叶、計(jì)算預(yù)測(cè)正確數(shù)
for i in range(0, len(x), batch_size): #取100個(gè)樣本
x_batch = x[i:i+batch_size] #將取出的樣本組成數(shù)組
y_batch = predict(network, x_batch) #得到預(yù)測(cè)出來(lái)的結(jié)果數(shù)組
p = np.argmax(y_batch, axis=1) #取出1軸上各個(gè)結(jié)果最大值元素的索引
accuracy_cnt += np.sum(p == t[i:i+batch_size]) #計(jì)算預(yù)測(cè)結(jié)果=標(biāo)簽的數(shù)量
##5俊犯,輸出精確率
print("Accuracy:" + str(float(accuracy_cnt) / len(x)))