輸出層的神經(jīng)元數(shù)量需要根據(jù)待解決的問(wèn)題來(lái)決定霜浴。對(duì)于分類問(wèn)題银伟,輸
出層的神經(jīng)元數(shù)量一般設(shè)定為類別的數(shù)量安疗;對(duì)于回歸問(wèn)題一般設(shè)為1.
前向傳播##
**導(dǎo)入數(shù)據(jù)集乳蛾,此案例是在本機(jī)下載了本書的代碼之后運(yùn)行的暗赶,下載地址http://www.ituring.com.cn/book/1921
import sys, os
sys.path.append(os.pardir) # 為了導(dǎo)入父目錄中的文件而進(jìn)行的設(shè)定
from dataset.mnist import load_mnist
(x_train, t_train), (x_test, t_test) = load_mnist(flatten=True,
normalize=False)
print(x_train.shape)
print(t_train.shape)
print(x_test.shape)
print(t_test.shape)
load_mnist(normalize=True,flatten=True, one_hot_label=False) 這 樣鄙币,設(shè) 置 3 個(gè) 參 數(shù)。
第 1 個(gè) 參 數(shù)normalize 設(shè)置是否將輸入圖像正規(guī)化為0.0~1.0的值蹂随。如果將該參數(shù)設(shè)置
為 False 十嘿,則輸入圖像的像素會(huì)保持原來(lái)的0~255。
第2個(gè)參數(shù) flatten 設(shè)置是否展開(kāi)輸入圖像(變成一維數(shù)組)岳锁。如果將該參數(shù)設(shè)置為 False 绩衷,則輸入圖像為1 × 28 × 28的三維數(shù)組;若設(shè)置為 True 激率,則輸入圖像會(huì)保存為由784個(gè)
元素構(gòu)成的一維數(shù)組咳燕。
第3個(gè)參數(shù) one_hot_label 設(shè)置是否將標(biāo)簽保存為one-hot表示(one-hot representation)。one-hot表示是僅正確解標(biāo)簽為1乒躺,其余皆為0的數(shù)組招盲,就像 [0,0,1,0,0,0,0,0,0,0] 這樣。當(dāng) one_hot_label 為 False 時(shí)嘉冒,只是像 7 曹货、 2 這樣簡(jiǎn)單保存正確解標(biāo)簽;當(dāng) one_hot_label 為 True 時(shí)讳推,標(biāo)簽則保存為one-hot表示.
python有pickle這個(gè)便利的功能控乾。這個(gè)功能可以將程序運(yùn)行中的對(duì)象保存為文件。如果加載保存過(guò)的pickle文件娜遵,可以立刻復(fù)原之前程序運(yùn)行中的對(duì)象蜕衡。用于讀入MNIST數(shù)據(jù)集的 load_mnist() 函數(shù)內(nèi)部也使用了pickle功能(在第2次及以后讀入時(shí))。利用pickle功能设拟,可以高效地完成MNIST數(shù)據(jù)的準(zhǔn)備工作
顯示mnist圖像
import sys, os
sys.path.append(os.pardir)
import numpy as np
from dataset.mnist import load_mnist
from PIL import Image
def img_show(img):
pil_img = Image.fromarray(np.uint8(img))
pil_img.show()
(x_train, t_train), (x_test, t_test) = load_mnist(flatten=True,
normalize=False)
img = x_train[0]
label = t_train[0]
print(label) # 5
print(img.shape) # (784,)
img = img.reshape(28, 28) # 把圖像的形狀變成原來(lái)的尺寸
print(img.shape) # (28, 28)
img_show(img)
神經(jīng)網(wǎng)絡(luò)處理
#獲取數(shù)據(jù)集
def get_data():
(x_train, t_train), (x_test, t_test) = \
load_mnist(normalize=True, flatten=True, one_hot_label=False)
return x_test, t_test
#init_network() 會(huì)讀入保存在pickle文件 sample_weight.pkl 中的學(xué)習(xí)到的權(quán)重參數(shù)
def init_network():
with open("sample_weight.pkl", 'rb') as f:
network = pickle.load(f)
return network
def predict(network, x):
W1, W2, W3 = network['W1'], network['W2'], network['W3']
b1, b2, b3 = network['b1'], network['b2'], network['b3']
a1 = np.dot(x, W1) + b1
z1 = sigmoid(a1)
a2 = np.dot(z1, W2) + b2
z2 = sigmoid(a2)
a3 = np.dot(z2, W3) + b3
y = softmax(a3)
return y
實(shí)驗(yàn)
x, t = get_data()
network = init_network()
accuracy_cnt = 0
for i in range(len(x)):
y = predict(network, x[i]) # predict() 函數(shù)以NumPy數(shù)組的形式輸出各個(gè)標(biāo)簽對(duì)應(yīng)的概率慨仿。
p= np.argmax(y) # 獲取概率最高的元素的索引
if p == t[i]:
accuracy_cnt += 1 #準(zhǔn)確率
print("Accuracy:" + str(float(accuracy_cnt) / len(x)))
批處理
x, t = get_data()
network = init_network()
batch_size = 100 #每批的數(shù)量
accuracy_cnt = 0
for i in range(0, len(x), batch_size): #起始,結(jié)束纳胧,步長(zhǎng)
x_batch = x[i:i+batch_size]
y_batch = predict(network, x_batch)
p = np.argmax(y_batch, axis=1) #在第一維尋找最大元素的索引
accuracy_cnt += np.sum(p == t[i:i+batch_size])
print("Accuracy:" + str(float(accuracy_cnt) / len(x)))