沒吃過豬肉,但得看過豬跑锅纺。雖然我們暫時(shí)對深度學(xué)習(xí)及神經(jīng)網(wǎng)路的基本原理知之甚少掷空,但獲得深刻理性認(rèn)識必須建立在足夠的感性認(rèn)知之上,就像掌握游泳技巧的前提是把自己泡到水里囤锉。因此我們在研究分析神經(jīng)網(wǎng)絡(luò)的技術(shù)原理時(shí)坦弟,先用代碼構(gòu)建一個(gè)實(shí)用的智能系統(tǒng),通過運(yùn)行后看結(jié)果的方式官地,我們就能快速建立起對深度學(xué)習(xí)相關(guān)技術(shù)的感知酿傍,這為我們后續(xù)建立扎實(shí)的理論體系奠定堅(jiān)實(shí)的基礎(chǔ)。
神經(jīng)網(wǎng)絡(luò)系統(tǒng)的開發(fā)一般都使用python語言驱入,我們也不例外赤炒,我們的手寫數(shù)字識別系統(tǒng)將使用python來開發(fā)氯析,首先要做的是在機(jī)器上安裝開發(fā)環(huán)境,也就是Anacoda莺褒。安裝好了后掩缓,我們需要繼續(xù)安裝開發(fā)神經(jīng)網(wǎng)絡(luò)最常用的開發(fā)框架,這里我們選擇Keras遵岩,打開控制臺你辣,輸入下面命令行:
install -c conda-forge keras
這樣我們就能自動(dòng)在Anacoda開發(fā)環(huán)境里嵌入Keras框架,上面命令運(yùn)行后如圖所示:
我們需要注意的是尘执,要選擇Linux系列系統(tǒng)來進(jìn)行開發(fā)舍哄,Kares框架對windows的支持不是很好。完成上面開發(fā)環(huán)境的設(shè)置后誊锭,我們盡可以著手代碼的編寫蠢熄。
首先我們先引入用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)集,代碼如下:
from keras.datasets import mnist
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()
print(train_images.shape)
這段代碼將訓(xùn)練數(shù)據(jù)和檢測數(shù)據(jù)加載到內(nèi)存中炉旷,train_images是用于訓(xùn)練系統(tǒng)的手寫數(shù)字圖片,train_labels是用于標(biāo)志圖片的信息叉讥,test_images是用于檢測系統(tǒng)訓(xùn)練效果的圖片窘行,test_labels是test_images圖片對應(yīng)的數(shù)字標(biāo)簽。代碼運(yùn)行后图仓,情況如下:
第一行打印結(jié)果表明罐盔,train_images是一個(gè)含有60000個(gè)元素的數(shù)組,數(shù)組中的元素是一個(gè)二維數(shù)組救崔,二維數(shù)組的行和列都是28.也就是說惶看,一個(gè)首先數(shù)字圖片的像素大小是28*28。我們打印出來的train_lables數(shù)組表明六孵,第一張手寫數(shù)字圖片的內(nèi)容是數(shù)字5纬黎,第二種圖片是數(shù)字0,以此類推劫窒。
print(test_images.shape)的結(jié)果表示本今,用于檢驗(yàn)系統(tǒng)效果的圖片有10000張,print(test_labels)輸出結(jié)果表明主巍,用于檢測的第一張圖片內(nèi)容是數(shù)字7冠息,第二張是數(shù)字2,依次類推孕索。
接下來我們把用于測試的第一張圖片打印出來看看逛艰,代碼如下:
digit = test_images[0]
import matplotlib.pyplot as plt
plt.imshow(digit, cmap=plt.cm.binary)
plt.show()
上面代碼執(zhí)行后的結(jié)果為:
通過我們?nèi)搜圩R別可以看出,圖片里面黑色圖案表示的確實(shí)是一個(gè)數(shù)字7搞旭,我們需要做的就是讓計(jì)算機(jī)也能把它識別出來散怖。接下來我們要使用Keras迅速搭建一個(gè)有效識別圖案的神經(jīng)網(wǎng)絡(luò)菇绵,代碼如下:
from keras import models
from keras import layers
network = models.Sequential()
network.add(layers.Dense(512, activation='relu', input_shape=(28*28,)))
network.add(layers.Dense(10, activation='softmax'))
我們先將代碼相關(guān)組件從keras框架里引入,代碼里的layers表示的就是神經(jīng)網(wǎng)絡(luò)中的一個(gè)數(shù)據(jù)處理層杭抠。models.Sequential() 表示我們要把每一個(gè)數(shù)據(jù)處理層串聯(lián)起來脸甘,就好像用一根線把一排珠子串起來一樣。神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)處理層之間的組合方式有多種偏灿,串聯(lián)是其中一種丹诀,也是最常用的一種。
layers.Dense(...)就是構(gòu)造一個(gè)數(shù)據(jù)處理層翁垂。input_shape(28*28,)表示當(dāng)前處理層接收的數(shù)據(jù)格式必須是長和寬都是28的二維數(shù)組铆遭,后面的“,“表示數(shù)組里面的每一個(gè)元素到底包含多少個(gè)數(shù)字都沒有關(guān)系,例如:
[
[1,2], [3,4],
[5,6], [7,8]
]
表示的就是一個(gè)2*2的二維數(shù)組沿猜,只不過數(shù)組的每個(gè)元素是一個(gè)含有兩個(gè)數(shù)組的一維數(shù)組枚荣。代碼構(gòu)造了兩個(gè)數(shù)據(jù)處理層,接下來我們需要把數(shù)據(jù)處理層連接起來啼肩,并設(shè)置網(wǎng)絡(luò)的其他部分橄妆,回想上一節(jié)我們提到的神經(jīng)網(wǎng)絡(luò)模型:
前面代碼完成了上圖中,上半部分含有四個(gè)矩形的部分祈坠,接著我們要完成下半部分害碾,代碼如下:
network.compile(optimizer='rmsprop', loss='categorical_crossentropy',
metrics=['accuracy'])
代碼中的輸入?yún)?shù)optimizer, loss都對應(yīng)著上圖中相關(guān)組件,metrics的含義我們以后再深究赦拘。上面代碼完成后慌随,整個(gè)神經(jīng)網(wǎng)絡(luò)就建立好了,接下來我們需要把數(shù)據(jù)喂給它躺同,以便對它進(jìn)行訓(xùn)練阁猜,在輸入數(shù)據(jù)前,我們需要把數(shù)據(jù)做一個(gè)處理蹋艺,相關(guān)代碼如下:
train_images = train_images.reshape((60000, 28*28))
train_images = train_images.astype('float32') / 255
test_images = test_images.reshape((10000, 28*28))
test_images = test_images.astype('float32') / 25
其中reshape(60000, 28*28) 的意思是剃袍,train_images數(shù)組原來含有60000個(gè)元素,每個(gè)元素是一個(gè)28行车海,28列的二維數(shù)組笛园,現(xiàn)在把每個(gè)二維數(shù)組轉(zhuǎn)變?yōu)橐粋€(gè)含有28*28個(gè)元素的一維數(shù)組。由于數(shù)字圖案是一個(gè)灰度圖侍芝,圖片中每個(gè)像素點(diǎn)值的大小范圍在0到255之間研铆,代碼train_images.astype("float32")/255 把每個(gè)像素點(diǎn)的值從范圍0-255轉(zhuǎn)變?yōu)榉秶?-1之間的浮點(diǎn)值。
接著我們把圖片對應(yīng)的標(biāo)記也做一個(gè)更該州叠,目前所有圖片的數(shù)字圖案對應(yīng)的是0到9棵红,例如test_images[0]對應(yīng)的是數(shù)字7的手寫圖案,那么其對應(yīng)的標(biāo)記test_labels[0]的值就是7咧栗,我們需要把數(shù)值7變成一個(gè)含有10個(gè)元素的數(shù)組逆甜,然后在低7個(gè)元素設(shè)置為1虱肄,其他元素設(shè)置為0,例如test_lables[0] 的值由7轉(zhuǎn)變?yōu)閿?shù)組[0,0,0,0,0,0,0,1,0,0,], 實(shí)現(xiàn)這個(gè)功能的代碼如下:
from keras.utils import to_categorical
print("before change:" ,test_labels[0])
train_labels = to_categorical(train_labels)
test_labels = to_categorical(test_labels)
print("after change: ", test_labels[0])
上面代碼執(zhí)行后效果如下:
數(shù)據(jù)格式處理完畢后交煞,我們就把數(shù)據(jù)輸入網(wǎng)絡(luò)進(jìn)行訓(xùn)練咏窿,這里我們只需要一行代碼:
network.fit(train_images, train_labels, epochs=5, batch_size = 128)
上面代碼參數(shù)需要解析一下,train_images是用于訓(xùn)練的手寫數(shù)字圖片素征,train_labels對應(yīng)的是圖片的標(biāo)記集嵌,batch_size 的意思是,每次網(wǎng)絡(luò)從輸入的圖片數(shù)組中隨機(jī)選取128個(gè)作為一組進(jìn)行計(jì)算御毅,每次計(jì)算的循環(huán)是五次根欧,這些概念我們后面講解原理時(shí),會(huì)詳細(xì)解釋端蛆。這句代碼運(yùn)行結(jié)果如下:
網(wǎng)絡(luò)經(jīng)過訓(xùn)練后凤粗,我們就可以把測試數(shù)據(jù)輸入,檢驗(yàn)網(wǎng)絡(luò)學(xué)習(xí)后的圖片識別效果了今豆,代碼如下:
test_loss, test_acc = network.evaluate(test_images, test_labels, verbose=1)
print(test_loss)
print('test_acc', test_acc)
代碼運(yùn)行的結(jié)果如下:
運(yùn)行結(jié)果的意思是嫌拣,用訓(xùn)練后的神經(jīng)網(wǎng)絡(luò)判斷test_images中的一萬張手寫數(shù)字圖案,網(wǎng)絡(luò)能夠正確識別的比率是0.9128,也就是說網(wǎng)絡(luò)對給定測試圖案識別的正確率是91.28%,這個(gè)比率不算太高呆躲,里面有若干原因亭罪,一是神經(jīng)網(wǎng)絡(luò)需要運(yùn)行在GPU上,而我的個(gè)人電腦只有CPU沒有GPU,由于硬件的原因影響了識別效果歼秽,而是網(wǎng)絡(luò)訓(xùn)練的強(qiáng)度不夠大,后面我們講解原理時(shí)情组,會(huì)體驗(yàn)到網(wǎng)絡(luò)是如何改進(jìn)自己的識別效率的燥筷。
最后,我們輸入一張手寫數(shù)字圖片到網(wǎng)絡(luò)中院崇,看看它的識別效果肆氓,代碼如下:
from keras.datasets import mnist
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()
digit = test_images[1]
plt.imshow(digit, cmap=plt.cm.binary)
plt.show()
test_images = test_images.reshape((10000, 28*28))
res = network.predict(test_images)
for i in range(res[1].shape[0]):
if (res[1][i] == 1):
print("the number for the picture is : ", i)
break
我們把數(shù)據(jù)重新加載以便,調(diào)用神經(jīng)網(wǎng)絡(luò)對象的predict接口底瓣,將要檢測的圖片數(shù)據(jù)傳入谢揪,接口執(zhí)行后,會(huì)把網(wǎng)絡(luò)的識別結(jié)果返回捐凭,上面代碼完成后拨扶,運(yùn)行效果如下:
我們將識別的第二張圖片顯示出來,通過肉眼判斷它應(yīng)該是數(shù)字2茁肠,神經(jīng)網(wǎng)絡(luò)識別后給出的結(jié)果也是數(shù)字2患民,可見網(wǎng)絡(luò)經(jīng)過訓(xùn)練后,具備了足夠強(qiáng)的圖像識別能力垦梆。在沒有深度學(xué)習(xí)算法前匹颤,實(shí)現(xiàn)這種功能的算法叫OCR,也就是光字符識別仅孩,算法的實(shí)現(xiàn)異常復(fù)雜,而且效果也是很好印蓖,而有了深度學(xué)習(xí)后辽慕,不到百行代碼就能更好的完成相應(yīng)功能,這就是深度學(xué)習(xí)的強(qiáng)大威力赦肃。
更詳細(xì)的講解和代碼調(diào)試演示過程溅蛉,請點(diǎn)擊鏈接
如果你點(diǎn)擊鏈接后,沒有發(fā)現(xiàn)名為《人工智能實(shí)戰(zhàn):使用深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)構(gòu)建圖像識別與語義分析系統(tǒng)》的課程,那表明視頻還在制作和審批中摆尝,敬請期待温艇!
更多技術(shù)信息,包括操作系統(tǒng)堕汞,編譯器勺爱,面試算法,機(jī)器學(xué)習(xí)讯检,人工智能琐鲁,請關(guān)照我的公眾號: