文章代碼來源:《deep learning on keras》,非常好的一本書碑宴,大家如果英語好软啼,推薦直接閱讀該書,如果時間不夠延柠,可以看看此系列文章祸挪,文章為我自己翻譯的內(nèi)容加上自己的一些思考,水平有限贞间,多有不足贿条,請多指正,翻譯版權(quán)所有增热,若有轉(zhuǎn)載整以,請先聯(lián)系本人。
個人方向為數(shù)值計算峻仇,日后會向深度學(xué)習(xí)和計算問題的融合方面靠近公黑,若有相近專業(yè)人士,歡迎聯(lián)系摄咆。
系列文章:
一帆调、搭建屬于你的第一個神經(jīng)網(wǎng)絡(luò)
二、訓(xùn)練完的網(wǎng)絡(luò)去哪里找
三豆同、【keras實戰(zhàn)】波士頓房價預(yù)測
四番刊、keras的function API
五、keras callbacks使用
六影锈、機(jī)器學(xué)習(xí)基礎(chǔ)Ⅰ:機(jī)器學(xué)習(xí)的四個標(biāo)簽
七芹务、機(jī)器學(xué)習(xí)基礎(chǔ)Ⅱ:評估機(jī)器學(xué)習(xí)模型
八蝉绷、機(jī)器學(xué)習(xí)基礎(chǔ)Ⅲ:數(shù)據(jù)預(yù)處理、特征工程和特征學(xué)習(xí)
九枣抱、機(jī)器學(xué)習(xí)基礎(chǔ)Ⅳ:過擬合和欠擬合
十熔吗、機(jī)器學(xué)習(xí)基礎(chǔ)Ⅴ:機(jī)器學(xué)習(xí)的一般流程十一、計算機(jī)視覺中的深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)介紹
十二佳晶、計算機(jī)視覺中的深度學(xué)習(xí):從零開始訓(xùn)練卷積網(wǎng)絡(luò)
十三桅狠、計算機(jī)視覺中的深度學(xué)習(xí):使用預(yù)訓(xùn)練網(wǎng)絡(luò)
十四、計算機(jī)視覺中的神經(jīng)網(wǎng)絡(luò):可視化卷積網(wǎng)絡(luò)所學(xué)到的東西
之前沒有系統(tǒng)學(xué)習(xí)keras轿秧,每次等到程序跑完了中跌,我都會在消息記錄窗口選定后往上狂拖選定,復(fù)制菇篡,然后建立txt粘貼漩符,再寫一個re來正則匹配所需數(shù)據(jù)的程序,還覺得自己很機(jī)智驱还,看了keras的具體功能以后嗜暴,簡直無地自容。
我們在model.fit()訓(xùn)練完以后议蟆,其實返回了一個obj闷沥,叫做history,保存了訓(xùn)練過程中的所有數(shù)據(jù)咐容,接下來通過代碼來講解狐赡。
>>> history_dict = history.history
>>> history_dict.keys()
[u'acc', u'loss', u'valacc', u'valloss']
首先將對象里面的history字典存入history_dict,然后查看字典里面的鍵疟丙。
接下來試著使用matplotlib來作出之前訓(xùn)練完的數(shù)據(jù)的一些圖像颖侄。
import matplotlib.pyplot as plt
acc = history.history['acc']
val_acc = history.history['val_acc']
loss = history.history['loss']
val_loss = history.history['val_loss']
epochs = range(1, len(acc) + 1)
# "bo" is for "blue dot"
plt.plot(epochs, loss, 'bo', label='Training loss')
# b is for "solid blue line"
plt.plot(epochs, val_loss, 'b', label='Validation loss')
plt.title('Training and validation loss')
plt.xlabel('Epochs')
plt.ylabel('Loss')
plt.legend()
plt.show()
前面幾句很容易理解,從history分別將acc享郊,val_acc,loss,val_loss提取出來览祖,加了val前綴的是每個epoche所得到的模型丟測試集得到的結(jié)果。
plt.clf() # clear figure
acc_values = history_dict['acc']
val_acc_values = history_dict['val_acc']
plt.plot(epochs, acc, 'bo', label='Training acc')
plt.plot(epochs, val_acc, 'b', label='Validation acc')
plt.title('Training and validation accuracy')
plt.xlabel('Epochs')
plt.ylabel('Loss')
plt.legend()
plt.show()
也不難理解炊琉,此時作出的是損失隨訓(xùn)練epoches的變化
用已經(jīng)訓(xùn)練好的模型來預(yù)測新的數(shù)據(jù)
>>> model.predict(x_test)
[ 0.98006207]
[ 0.99758697]
[ 0.99975556]
...,
[ 0.82167041]
[ 0.02885115]
[ 0.65371346]]
返回的值是模型認(rèn)為這次預(yù)測的把握有多大展蒂。