摘要:本文含大量代碼还棱,如需原文請(qǐng)從文末來源鏈接獲取载慈。 自己搭建神經(jīng)網(wǎng)絡(luò)太復(fù)雜? 使用Synaptic.js(https://synaptic.juancazala.com/#/ )創(chuàng)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)珍手。 利用這款工具娃肿,我們可以在瀏覽器中用Node.js進(jìn)行深度學(xué)習(xí)。
本文含大量代碼珠十,如需原文請(qǐng)從文末來源鏈接獲取。
自己搭建神經(jīng)網(wǎng)絡(luò)太復(fù)雜凭豪?
使用Synaptic.js(https://synaptic.juancazala.com/#/)創(chuàng)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)焙蹭。
利用這款工具,我們可以在瀏覽器中用Node.js進(jìn)行深度學(xué)習(xí)嫂伞。
今天我們要講的例子是一個(gè)非常簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)孔厉,我們將用它來學(xué)習(xí)邏輯異或方程(XOR equation)。
同時(shí)帖努,我也在Scrimba上創(chuàng)建了一個(gè)交互式屏幕錄像撰豺。你也可以通過觀看視頻來學(xué)習(xí)本教程。(https://scrimba.com/casts/cast-1980)
在開始編程之前拼余,讓我們先快速瀏覽神經(jīng)網(wǎng)絡(luò)的一些基本概念污桦。
神經(jīng)網(wǎng)絡(luò)的第一個(gè)模塊,是神經(jīng)元匙监。
神經(jīng)元類似一個(gè)函數(shù)凡橱,你輸入一些值,它就會(huì)輸出返回值亭姥。
神經(jīng)元有各種不同的類型稼钩。我們的神經(jīng)網(wǎng)絡(luò)將用到sigmoid神經(jīng)元(https://en.wikipedia.org/wiki/Sigmoid_function),它能將任何輸入的給定值壓縮至0到1之間达罗。
下圖中的圓圈就代表一個(gè)sigmoid神經(jīng)元坝撑。它的輸入值是5,輸出值是1。箭頭則代表的是神經(jīng)元的突觸巡李,用來連接神經(jīng)網(wǎng)絡(luò)中其它層的神經(jīng)元抚笔。
為什么會(huì)有一個(gè)紅色的數(shù)字5呢?它是連接到神經(jīng)元的三個(gè)突觸(左邊3個(gè)箭頭)的值之和击儡。
在最左邊塔沃,我們看到有兩個(gè)值與所謂的偏差值進(jìn)行了加法運(yùn)算。數(shù)值1和0是綠色的阳谍,而偏差值-2是棕色的蛀柴。
首先,兩個(gè)輸入值與他們的權(quán)重分別相乘矫夯,權(quán)重就是藍(lán)色數(shù)字7和3鸽疾。
然后,我們把上述運(yùn)算結(jié)果和偏差值加起來训貌,所得的結(jié)果是5制肮,對(duì)應(yīng)紅色數(shù)字。這個(gè)紅色數(shù)字就是我們?nèi)斯ど窠?jīng)元的輸入值递沪。
由于我們的神經(jīng)元是sigmoid神經(jīng)元豺鼻,它會(huì)將任何值壓縮到0到1的區(qū)間范圍內(nèi),所以輸出值被壓縮到1款慨。
如果將這些神經(jīng)元的網(wǎng)絡(luò)連接起來儒飒,就形成了一個(gè)神經(jīng)網(wǎng)絡(luò)。通過神經(jīng)元間的突觸連接檩奠,從輸入到輸出進(jìn)行正向傳播桩了。如下圖所示:
神經(jīng)網(wǎng)絡(luò)的目標(biāo)是訓(xùn)練其泛化能力,例如識(shí)別手寫的數(shù)字或者垃圾郵件埠戳。做到好的泛化重要的是通過神經(jīng)網(wǎng)絡(luò)找到合適的權(quán)重和偏差值井誉,如上述例子中的藍(lán)色和棕色數(shù)字。
當(dāng)訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)整胃,我們只需要加載大量示例數(shù)據(jù)颗圣,如手寫的數(shù)字,然后讓神經(jīng)網(wǎng)絡(luò)來預(yù)測(cè)正確的數(shù)字屁使。
在每次預(yù)測(cè)后欠啤,你需要計(jì)算預(yù)測(cè)的偏差程度,然后調(diào)整權(quán)重和偏差值使得神經(jīng)網(wǎng)絡(luò)在下一次運(yùn)算中可以預(yù)測(cè)的更加準(zhǔn)確屋灌,這種學(xué)習(xí)過程被稱為反向傳播洁段。如此重復(fù)上千次,你的神經(jīng)網(wǎng)絡(luò)很快會(huì)精于泛化共郭。
本教程不包括反向傳播的工作原理介紹祠丝,但是我找到了3個(gè)好的教程幫助大家理解:
分步介紹反向傳播案例-作者:Matt Mazur
(https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/)
神經(jīng)網(wǎng)路駭客指南-作者:Andrej Karpathy
(http://karpathy.github.io/neuralnets/)
神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)-作者:Michael Nielsen
(http://neuralnetworksanddeeplearning.com/chap1.html)
現(xiàn)在疾呻,你應(yīng)該已經(jīng)對(duì)神經(jīng)網(wǎng)絡(luò)有了基礎(chǔ)概念,那就讓我們進(jìn)入代碼部分吧写半。
1.創(chuàng)建神經(jīng)網(wǎng)絡(luò)層
在synaptic中我們使用new layer()函數(shù)來創(chuàng)建岸蜗。函數(shù)中傳遞的數(shù)字表示的是每一層會(huì)有多少個(gè)神經(jīng)元。
接下來我們將這些層進(jìn)行連接并實(shí)例化一個(gè)神經(jīng)網(wǎng)絡(luò)叠蝇,代碼如下璃岳,
這是一個(gè)2-3-1結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),可視化表示如下:
2.訓(xùn)練神經(jīng)網(wǎng)絡(luò)
我們共進(jìn)行了20,000次的訓(xùn)練悔捶,每一次都進(jìn)行四次正向傳播和反向傳播運(yùn)算铃慷,分別傳遞四個(gè)可能的輸入到神經(jīng)網(wǎng)絡(luò):[0,0] [0,1] [1,0] [1,1]。
我們從myNetwork.activate([0,0])激活函數(shù)開始蜕该,[0,0]是神經(jīng)網(wǎng)絡(luò)的輸入值犁柜,這個(gè)過程是正向傳播,也被稱為激活網(wǎng)絡(luò)堂淡。在每一次正向傳播后我們需要做一次反向傳播馋缅,從而更新神經(jīng)網(wǎng)絡(luò)的權(quán)重和偏差值。
learningRate是一個(gè)常數(shù)绢淀,用來告訴神經(jīng)網(wǎng)絡(luò)每次應(yīng)該對(duì)權(quán)重值進(jìn)行多大程度的調(diào)整萤悴。第二個(gè)參數(shù)0表示的是當(dāng)輸入為[0,0]時(shí),正確的輸出參數(shù)是0.
然后皆的,神經(jīng)網(wǎng)絡(luò)將預(yù)測(cè)值和真實(shí)值進(jìn)行對(duì)比覆履,來判斷預(yù)測(cè)是否正確。
它將比較的結(jié)果作為調(diào)整權(quán)重和偏差值的基礎(chǔ)祭务,以便下次的預(yù)測(cè)可以更加準(zhǔn)確。
在執(zhí)行這個(gè)過程20,000次后怪嫌,我們可以通過傳遞四個(gè)可能的值輸入到激活網(wǎng)絡(luò)义锥,從而判斷目前神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)情況:
如果我們將這些值四舍五入到最近的整數(shù),就將得到異或方程的正確結(jié)果岩灭。萬歲拌倍!