神經(jīng)網(wǎng)絡(luò)

感知機(jī)到神經(jīng)網(wǎng)絡(luò)

感知機(jī)(理論上)可以處理很復(fù)雜的問(wèn)題,但是感知機(jī)權(quán)重設(shè)置的工作依然是由人工進(jìn)行的,這個(gè)特性限制了感知機(jī)處理問(wèn)題的復(fù)雜度.
而神經(jīng)網(wǎng)絡(luò)一個(gè)重要性質(zhì)就是他可以自動(dòng)從數(shù)據(jù)中學(xué)習(xí)到合適的權(quán)重參數(shù).
習(xí)慣上"多層感知機(jī)"指的就是神經(jīng)網(wǎng)絡(luò).
一個(gè)2層神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)可以用下圖表示:


神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)

"2層"表示擁有權(quán)重的層數(shù)為2
中間層由被稱(chēng)為隱藏層,神經(jīng)網(wǎng)絡(luò)的連接方式和感知機(jī)一致,可以將神經(jīng)網(wǎng)絡(luò)理解成由多層感知機(jī)堆疊而成.

激活函數(shù)

感知機(jī)判別函數(shù)
y= \begin{cases} 0 &(w_1x_1+w_2x_2\le\theta) \\ 1 &(w_1x_1+w_2x_2\le\theta) \end{cases} = \begin{cases} 0 &(b+w_1x_1+w_2x_2)\le 0\\ 1 &(b+w_1x_1+w_2x_2)\gt0 \end{cases} \\其中 w_1,w_2稱(chēng)為權(quán)重,b=-\theta稱(chēng)為偏置
可以寫(xiě)成如下形式
a = b + w_1x_1+w_2x_2 \\ y = h(a) = \begin{cases} 0 &(a\le0) \\ 1 &(a\gt0) \end{cases} \\
類(lèi)似h這種將輸入信號(hào)的總和轉(zhuǎn)化為輸出信號(hào)的函數(shù)被稱(chēng)為激活函數(shù)
我們可以用下圖表示這一過(guò)程

image.png

神經(jīng)網(wǎng)絡(luò)中每一個(gè)節(jié)點(diǎn)都可以認(rèn)為是一個(gè)激活函數(shù)的計(jì)算過(guò)程.
常見(jiàn)的激活函數(shù)包括:

階躍函數(shù)

類(lèi)似感知機(jī)的激活函數(shù),以閾值為界,一旦輸入超過(guò)閾值就切換輸出
h(x) = \begin{cases} 0 &(x\le x_0) \\ 1 &(x\gt x_0) \end{cases}

sigmoid函數(shù)(較傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)激活函數(shù)):

h(x)=\frac{1}{1+exp(-x)}

ReLU函數(shù)(最近流行的神經(jīng)網(wǎng)絡(luò)激活函數(shù))

h(x) = \begin{cases} 0 &(x \le0) \\ x &(x \gt0) \end{cases}

線性激活函數(shù)

神經(jīng)網(wǎng)絡(luò)必須使用非線性的激活函數(shù),否則便失去了加深神經(jīng)網(wǎng)絡(luò)層數(shù)的意義
eg.對(duì)于一個(gè)n層網(wǎng)絡(luò),若使用h_i(x)=c_ix作為激活函數(shù),則
y=h_1(h_x(...(h_n(x)..))=c_1(c_2(...(c_n(x)..))=(c_1c_2...c_n)x等價(jià)于單層神經(jīng)網(wǎng)絡(luò)

神經(jīng)網(wǎng)絡(luò)的內(nèi)積

image.png

三層神經(jīng)網(wǎng)絡(luò)

三層神經(jīng)網(wǎng)絡(luò).png

其中,為函數(shù)
實(shí)現(xiàn)代碼如下:

import numpy as np
def init_network():
    network = {}
    network['W1'] = np.array([[0.1, 0.3, 0.5], [0.2, 0.4, 0.6]])
    network['b1'] = np.array([0.1, 0.2, 0.3])
    network['W2'] = np.array([[0.1, 0.4], [0.2, 0.5], [0.3, 0.6]])
    network['b2'] = np.array([0.1, 0.2])
    network['W3'] = np.array([[0.1, 0.3], [0.2, 0.4]])
    network['b3'] = np.array([0.1, 0.2])
    return network
def sigmoid(x):
    return 1/(1+np.exp(-x))
def forward(network,x):
    W1,W2,W3 = network['W1'],network['W2'],network['W3']
    b1,b2,b3 = network['b1'],network['b2'],network['b3']
    
    a1 = x.dot(W1) + b1
    z1 = sigmoid(a1)
    
    a2 = z1.dot(W2) + b2
    z2 = sigmoid(a2)
    
    a3 = z2.dot(W3) + b3
    y = a3
    return y
network = init_network()
x = np.array([1.,.5])
y = forward(network,x)
# y = [0.31682708, 0.69627909]

恒等函數(shù)和softmax函數(shù)

恒等函數(shù):將輸入信號(hào)原樣輸出的函數(shù),輸出層的神經(jīng)元只受單個(gè)輸入神經(jīng)元的影響

恒等函數(shù)

softmax函數(shù):,輸出層的神經(jīng)元收到輸入層的所有神經(jīng)元影響
為了防止數(shù)值溢出,我們可以對(duì)上式變形
softmax函數(shù)總是輸出0.到1.之間的實(shí)數(shù),并且softmax輸出總和總是1,我們可以吧softmax函數(shù)的輸出解釋成"概率"
softmax函數(shù)

小結(jié)

  • 神經(jīng)網(wǎng)絡(luò)中的激活函數(shù)使用平滑變化的sigmoid函數(shù)或者ReLU函數(shù)
  • 通過(guò)巧妙使用Numpy的多維數(shù)組,可以高效地實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)
  • 機(jī)器學(xué)習(xí)的問(wèn)題大體上可以分為分類(lèi)和回歸問(wèn)題
  • 關(guān)于輸出層的激活函數(shù),回歸問(wèn)題中一般用恒等函數(shù),分類(lèi)問(wèn)題一般用softmax函數(shù)
  • 分類(lèi)問(wèn)題中,輸出層的神經(jīng)元的數(shù)量設(shè)置為要分類(lèi)的類(lèi)別數(shù)
  • 輸入數(shù)據(jù)的集合稱(chēng)為批(batch),通過(guò)以批為單位的推理處理(Numpy)能夠提高運(yùn)算效率
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市滤灯,隨后出現(xiàn)的幾起案子婆殿,更是在濱河造成了極大的恐慌留量,老刑警劉巖,帶你破解...
    沈念sama閱讀 219,270評(píng)論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件浆劲,死亡現(xiàn)場(chǎng)離奇詭異拇舀,居然都是意外死亡奔缠,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,489評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門(mén)氮块,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)绍载,“玉大人,你說(shuō)我怎么就攤上這事滔蝉』骼埽” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 165,630評(píng)論 0 356
  • 文/不壞的土叔 我叫張陵蝠引,是天一觀的道長(zhǎng)阳谍。 經(jīng)常有香客問(wèn)我,道長(zhǎng)螃概,這世上最難降的妖魔是什么矫夯? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,906評(píng)論 1 295
  • 正文 為了忘掉前任,我火速辦了婚禮吊洼,結(jié)果婚禮上训貌,老公的妹妹穿的比我還像新娘。我一直安慰自己冒窍,他們只是感情好递沪,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,928評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著综液,像睡著了一般款慨。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上谬莹,一...
    開(kāi)封第一講書(shū)人閱讀 51,718評(píng)論 1 305
  • 那天檩奠,我揣著相機(jī)與錄音桩了,去河邊找鬼。 笑死笆凌,一個(gè)胖子當(dāng)著我的面吹牛圣猎,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播乞而,決...
    沈念sama閱讀 40,442評(píng)論 3 420
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼送悔,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了爪模?” 一聲冷哼從身側(cè)響起欠啤,我...
    開(kāi)封第一講書(shū)人閱讀 39,345評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎屋灌,沒(méi)想到半個(gè)月后洁段,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,802評(píng)論 1 317
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡共郭,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,984評(píng)論 3 337
  • 正文 我和宋清朗相戀三年祠丝,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片除嘹。...
    茶點(diǎn)故事閱讀 40,117評(píng)論 1 351
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡写半,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出尉咕,到底是詐尸還是另有隱情叠蝇,我是刑警寧澤,帶...
    沈念sama閱讀 35,810評(píng)論 5 346
  • 正文 年R本政府宣布年缎,位于F島的核電站悔捶,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏单芜。R本人自食惡果不足惜蜕该,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,462評(píng)論 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望缓溅。 院中可真熱鬧蛇损,春花似錦、人聲如沸坛怪。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 32,011評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)袜匿。三九已至更啄,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間居灯,已是汗流浹背祭务。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,139評(píng)論 1 272
  • 我被黑心中介騙來(lái)泰國(guó)打工内狗, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人义锥。 一個(gè)月前我還...
    沈念sama閱讀 48,377評(píng)論 3 373
  • 正文 我出身青樓柳沙,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親拌倍。 傳聞我的和親對(duì)象是個(gè)殘疾皇子赂鲤,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,060評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容