2019-02-27

ML——神經(jīng)網(wǎng)絡(luò)

神經(jīng)元模型

神經(jīng)網(wǎng)絡(luò)是由具有適應(yīng)性的簡單單元組成的廣泛并行互連的網(wǎng)絡(luò)跷跪,最基本的成分是神經(jīng)元模型痒谴,下圖便是一個“M-P神經(jīng)元模型”魏蔗。

在這個模型中舰绘,神經(jīng)元接到來自n個其他神經(jīng)元傳遞過來的輸入信號虱而,通過帶權(quán)重的連接進行傳遞筏餐,神經(jīng)元接收到的總輸入值將與神經(jīng)元的閾值θ進行比較,然后通過激活函數(shù)f處理產(chǎn)生神經(jīng)元的輸出牡拇。

理想的激活函數(shù)為(a)階躍函數(shù)魁瞪,輸出值“0”代表神經(jīng)元抑制,“1”代表神經(jīng)元興奮惠呼,但考慮到階躍函數(shù)不連續(xù)导俘、不光滑的性質(zhì),因此常用sigmoid作為激活函數(shù)剔蹋。

把多個神經(jīng)元按一定的層次結(jié)構(gòu)連接起來就得到了神經(jīng)網(wǎng)絡(luò)趟畏。

感知機和多層網(wǎng)絡(luò)

如圖,感知機有兩層神經(jīng)元滩租,輸入層接收外界輸入信號后傳遞給輸出層赋秀,輸出層是上述介紹的M-P神經(jīng)元。

感知機只有輸出層神經(jīng)元進行激活函數(shù)處理律想,學(xué)習(xí)能力非常有限猎莲。對于線性可分的問題,感知機的學(xué)習(xí)過程一定能收斂技即,但對于非線性可分問題著洼,需考慮使用多層功能神經(jīng)元,即在輸入層和輸出層之間添加隱層,隱層和輸出層神經(jīng)元都是具有激活函數(shù)的功能神經(jīng)元身笤。

上圖所示的層級結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)叫“多層前饋神經(jīng)網(wǎng)絡(luò)”:每層神經(jīng)元與下一層神經(jīng)元全互連豹悬,神經(jīng)元之間不存在同層連接,也不存在跨層連接液荸。其中瞻佛,輸入層神經(jīng)元僅接受外界輸入,不進行函數(shù)處理娇钱,隱層和輸出層包含功能神經(jīng)元伤柄。

反向傳播算法BP

反向傳播(簡稱BP)算法是求解多層網(wǎng)絡(luò)算法中的杰出代表。一般所說的“BP網(wǎng)”是指用BP算法訓(xùn)練的多層前饋神經(jīng)網(wǎng)絡(luò)文搂。

BP算法推導(dǎo)

給定訓(xùn)練集D=\left\{ (x_1,y_1),(x_2,y_2),...(x_m,y_m) \right\} ,x_i\in R^d,y_i\in R^l下圖給出了具有d個輸入神經(jīng)元适刀、l個輸出神經(jīng)元、q個隱層神經(jīng)元的多層前饋神經(jīng)網(wǎng)煤蹭,隱層第h個神經(jīng)元閾值為\gamma _h笔喉,輸出層第j個神經(jīng)元閾值為\theta _j,輸入層第i個神經(jīng)元與隱層第h個神經(jīng)元間的連接權(quán)為v_{ih}硝皂,隱層第h個神經(jīng)元與輸出層第j個神經(jīng)元間的連接權(quán)為w_{hj}然遏,隱層第h個神經(jīng)元輸出為b_h,且隱層和輸出層都使用sigmoid函數(shù)吧彪。

對訓(xùn)練例(x_k,y_k),設(shè)神經(jīng)網(wǎng)絡(luò)輸出為\hat{y} _k=(\hat{y}_{1}^k, \hat{y}_{2}^k,...\hat{y}_{l}^k)丢早,即?

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??\hat{y} _{j}^k =f(\beta _j-\theta _j)

則網(wǎng)絡(luò)在(x_k,y_k)上的均方誤差為E_k=\frac{1}{2} \sum_{j=1}^l(\hat{y}_{j}^k-y_{j}^k   )^2

BP算法在迭代的每一輪采用廣義感知機學(xué)習(xí)規(guī)則姨裸,基于梯度下降法,以目標的負梯度方向?qū)?shù)進行調(diào)整怨酝。

\nu =\nu +\Delta \nu \\\Delta \nu =-\eta \frac{\partial E_k}{\partial\nu }

以隱層到輸出層的連接權(quán)w_{hj}為例:?\Delta w_{hj}=-\eta \frac{\partial E_k }{\partial w_{hj}}

復(fù)合函數(shù)求導(dǎo)得:? ? ? ? ? ? ? ? ? ? ? ?? \frac{\partial E_k }{\partial w_{hj}} = \frac{\partial E_k }{\partial \hat{y}_{j}^k  } \cdot  \frac{\partial \hat{y}_{j}^k }{\partial \beta _j} \cdot  \frac{\partial \beta _j }{\partial w_{hj}}

BP算法流程

BP算法先將輸入示例提供給輸入層神經(jīng)元傀缩,然后逐層將信號前傳,直到產(chǎn)生輸出層的結(jié)果农猬,然后計算輸出層誤差赡艰,再將誤差逆向傳播至隱層神經(jīng)元,最后根據(jù)隱層神經(jīng)元的誤差對連接權(quán)閾值進行調(diào)整斤葱,如此循環(huán)迭代慷垮,直到達到某些條件為止。流程圖如下:

BP算法的目標是要最小化訓(xùn)練集D上的累積誤差揍堕。上述“標準BP算法”每次更新只針對單個樣例料身,需進行多次迭代已達到累積誤差極小點,由于其強大的表示能力衩茸,BP常會發(fā)生過擬合芹血,因此訓(xùn)練誤差持續(xù)降低,但測試誤差逐漸升高。常用“early stopping”或“regularization”方法解決幔烛。

early stopping:將數(shù)據(jù)集分為訓(xùn)練集和驗證集啃擦。訓(xùn)練集用于計算梯度、更新連接權(quán)和閾值饿悬;驗證集用于估計誤差令蛉。若訓(xùn)練集誤差降低但驗證集誤差升高則停止訓(xùn)練,同時返回具有最小驗證集誤差的連接權(quán)和閾值乡恕。

regularization:在誤差目標函數(shù)中增加一個用于描述網(wǎng)絡(luò)復(fù)雜度的部分言询,eg連接權(quán)與閾值的平方和,其中\lambda \in (0,1)傲宜,常用交叉驗證法來估計运杭。

全局最小與局部最小

神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程可看做一個參數(shù)尋優(yōu)過程,例如BP算法就是通過梯度下降尋找使累積誤差E最小的權(quán)值和閾值函卒。常說的最優(yōu)有“局部極小”和“全局最小

局部極小解:參數(shù)空間中某個點辆憔,其領(lǐng)域點的誤差函數(shù)值均不小于該店的函數(shù)值;

全局最小解:參數(shù)空間中某個點报嵌,所有其他點的誤差函數(shù)值均不小于該店的函數(shù)值虱咧;

基于梯度的搜索是使用最為廣泛的參數(shù)尋優(yōu)方法,但當(dāng)誤差函數(shù)具有多個局部極小锚国,則不能保證此法找到的解是全局最小腕巡,因此常用以下一些啟發(fā)式算法:

1)以多組不同參數(shù)值初始化多個神經(jīng)網(wǎng)絡(luò),按標準方法訓(xùn)練后血筑,取其中誤差最小的解作為最終參數(shù)绘沉;

2)使用“模擬退火”:每一部都以一定的概率接受比當(dāng)前解更差的結(jié)果,但也可能會跳出全局最胁蜃堋车伞;

3)使用隨機梯度下降,在計算梯度時加入隨機因素喻喳,使得在局部最小時另玖,梯度仍可能不為0 ,能繼續(xù)搜索表伦。

其他常見網(wǎng)絡(luò)

徑向基(RBF)網(wǎng)絡(luò):單隱層前饋神經(jīng)網(wǎng)絡(luò)谦去,示意圖如下:

訓(xùn)練RBF網(wǎng)絡(luò):1)利用隨機采樣、聚類等方法確定神經(jīng)元中心ci蹦哼;2)利用BP算法確定參數(shù)w和β哪轿。

Elman網(wǎng)絡(luò):遞歸神經(jīng)網(wǎng)絡(luò),隱層神經(jīng)元的輸出被反饋回來與下一時刻t+1輸入層神經(jīng)元的信號一起翔怎,作為隱層神經(jīng)元在下一時刻的輸入窃诉,實現(xiàn)時間序列建模的目的杨耙。

Boltzmann機:基于能量的模型,能量最小化時達到理想狀態(tài)飘痛。標準的Boltzmann機是全連接的珊膜,但計算復(fù)雜度高。Restricted?Boltzmann機則進行了改進宣脉,層內(nèi)無連接车柠,層間有連接,一般用對比散度來進行訓(xùn)練塑猖。

深度學(xué)習(xí)

理論上竹祷,參數(shù)越多模型越復(fù)雜,容量越大羊苟,深度學(xué)習(xí)模型就是復(fù)雜且容量大的模型塑陵,它通常有八九層甚至更多隱層。為提高容量蜡励,一般會采用增加隱含層數(shù)目增加隱含層神經(jīng)元數(shù)目的方法令花。

訓(xùn)練:

無監(jiān)督逐層訓(xùn)練:每次訓(xùn)練一層隱結(jié)點,把上一層隱結(jié)點的輸出作為輸入凉倚,本層隱結(jié)點的輸出作為下一層隱結(jié)點的輸入兼都,稱為“預(yù)訓(xùn)練”,預(yù)訓(xùn)練完成后進行“微調(diào)”稽寒。預(yù)訓(xùn)練+微調(diào)可看成將大量參數(shù)分組扮碧,找出每組局部較好設(shè)置,基于其聯(lián)合進行全局尋優(yōu)杏糙。

權(quán)共享:令同一層神經(jīng)元使用完全相同的連接權(quán)慎王。

周志華《機器學(xué)習(xí)》

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市搔啊,隨后出現(xiàn)的幾起案子黄娘,更是在濱河造成了極大的恐慌舶斧,老刑警劉巖,帶你破解...
    沈念sama閱讀 218,525評論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件调窍,死亡現(xiàn)場離奇詭異嗜愈,居然都是意外死亡旧蛾,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,203評論 3 395
  • 文/潘曉璐 我一進店門蠕嫁,熙熙樓的掌柜王于貴愁眉苦臉地迎上來锨天,“玉大人,你說我怎么就攤上這事剃毒〔“溃” “怎么了搂赋?”我有些...
    開封第一講書人閱讀 164,862評論 0 354
  • 文/不壞的土叔 我叫張陵,是天一觀的道長益缠。 經(jīng)常有香客問我脑奠,道長,這世上最難降的妖魔是什么幅慌? 我笑而不...
    開封第一講書人閱讀 58,728評論 1 294
  • 正文 為了忘掉前任宋欺,我火速辦了婚禮,結(jié)果婚禮上胰伍,老公的妹妹穿的比我還像新娘齿诞。我一直安慰自己,他們只是感情好骂租,可當(dāng)我...
    茶點故事閱讀 67,743評論 6 392
  • 文/花漫 我一把揭開白布祷杈。 她就那樣靜靜地躺著,像睡著了一般菩咨。 火紅的嫁衣襯著肌膚如雪吠式。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,590評論 1 305
  • 那天抽米,我揣著相機與錄音特占,去河邊找鬼。 笑死云茸,一個胖子當(dāng)著我的面吹牛是目,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播标捺,決...
    沈念sama閱讀 40,330評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼懊纳,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了亡容?” 一聲冷哼從身側(cè)響起嗤疯,我...
    開封第一講書人閱讀 39,244評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎闺兢,沒想到半個月后茂缚,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,693評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡屋谭,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,885評論 3 336
  • 正文 我和宋清朗相戀三年脚囊,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片桐磁。...
    茶點故事閱讀 40,001評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡悔耘,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出我擂,到底是詐尸還是另有隱情衬以,我是刑警寧澤缓艳,帶...
    沈念sama閱讀 35,723評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站泄鹏,受9級特大地震影響郎任,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜备籽,卻給世界環(huán)境...
    茶點故事閱讀 41,343評論 3 330
  • 文/蒙蒙 一舶治、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧车猬,春花似錦霉猛、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,919評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至伏嗜,卻和暖如春坛悉,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背承绸。 一陣腳步聲響...
    開封第一講書人閱讀 33,042評論 1 270
  • 我被黑心中介騙來泰國打工裸影, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人军熏。 一個月前我還...
    沈念sama閱讀 48,191評論 3 370
  • 正文 我出身青樓轩猩,卻偏偏與公主長得像,于是被迫代替她去往敵國和親荡澎。 傳聞我的和親對象是個殘疾皇子均践,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 44,955評論 2 355

推薦閱讀更多精彩內(nèi)容