AI學(xué)習(xí)筆記——神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)

在之前的文章里面,我介紹了機器學(xué)習(xí)的很多經(jīng)典算法礁叔,其中有一個叫做『神經(jīng)網(wǎng)絡(luò)』的算法目前最受追捧乏矾,因為擊敗李世石的阿爾法狗所用到的算法實際上就是基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法茵臭。由于其算法結(jié)構(gòu)類似于人腦神經(jīng)結(jié)構(gòu),所以人們對他給予了厚望胧砰,希望通過神經(jīng)網(wǎng)絡(luò)算法實現(xiàn)真正的AI鳍鸵。

神經(jīng)網(wǎng)絡(luò)(Neural Network(NN))

一個典型的神經(jīng)網(wǎng)絡(luò)如下圖

image.png

其最基本的神經(jīng)元是由一個線性函數(shù)和一個非線性的激活函數(shù)組成:


image.png

這個線性函數(shù)與之前線性回歸是一樣的,而激活函數(shù)可以理解為將輸出的結(jié)果進(jìn)行調(diào)控尉间,比如使其保證在0和1之間偿乖。

與線性回歸一樣,神經(jīng)網(wǎng)絡(luò)實際上就是要訓(xùn)練找到合適的w 和 b哲嘲。與線性回歸一樣贪薪,使用梯度下降(Grident Dscent)法,即可得到最優(yōu) 的w和b眠副。

非線性的激活函數(shù)有很多類画切,如圖:


image.png

Sigmoid 是早期比較流行的,不過現(xiàn)在用的最多的是ReLu,為什么簡單的Relu能夠比看起來更加合理的Sigmoid 更加有效囱怕,并不是這篇筆記要探討的話題霍弹。至于為什么要用激活函數(shù)毫别,我想也很好理解,如果整個神經(jīng)網(wǎng)絡(luò)全是線性的話庞萍,那么無論這個網(wǎng)絡(luò)有多復(fù)雜拧烦,最終都只是一個線性的,然而我們這個世界上的事物用線性模型就都能解釋嗎钝计,顯然不行恋博。

深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network (DNN))

深度神經(jīng)網(wǎng)絡(luò)實際上就是將神經(jīng)網(wǎng)絡(luò)進(jìn)行疊加,而中間層叫做隱藏層(Hiden layer), 隱藏層能夠分辨出淺層神經(jīng)網(wǎng)絡(luò)無法分辨的細(xì)節(jié)私恬。


image.png

前向傳播和反向傳播(Forward and Backward propagation)

前向傳播其實很簡單债沮,就是如何堆砌這個神經(jīng)網(wǎng)絡(luò),多少個Feature 輸入本鸣,多少層神經(jīng)網(wǎng)絡(luò)疫衩,每層多少個神經(jīng)元,每一層用什么激活函數(shù)荣德。

最困難的是反向傳播闷煤,類似于線性回歸一樣,我們的目的是要用合適的參數(shù)(W和b)使這個網(wǎng)絡(luò)涮瞻,或者說整個模型預(yù)測的值最接近真實的數(shù)值鲤拿,換句話說就是預(yù)測值與真實值的差距最小。這個求這個差值的函數(shù)我們叫代價函數(shù)(Cost Function), 而反向傳播就是通過預(yù)測結(jié)果署咽,向前倒推每一層W和b的導(dǎo)數(shù)近顷。通過這個導(dǎo)數(shù)我們就可以用梯度下降的方法訓(xùn)練出代價函數(shù)最小的W和b值。

反向傳播涉及到了微分宁否,和偏微分(偏導(dǎo))遞歸等數(shù)學(xué)原理窒升,雖然也不難,但是也并不在本文的討論范圍之內(nèi)慕匠。不過好消息是在現(xiàn)在流行的深度學(xué)習(xí)工具中饱须,比如在Tensorflow中, 我們只需要關(guān)心如何搭建這個網(wǎng)絡(luò)(前向傳播),工具會自動通過反向傳播計算最優(yōu)解台谊,所以這部分我想留在后續(xù)Tensorflow 的文章中詳細(xì)講解冤寿。

其實聽起來高大上的NN和DNN是不是很簡單。

相關(guān)文章
AI 學(xué)習(xí)筆記之——監(jiān)督學(xué)習(xí)一樸素貝葉斯(Supervised Learning)


首發(fā)steemit

歡迎掃描二維碼關(guān)注我的微信公眾號“tensorflow機器學(xué)習(xí)”青伤,一起學(xué)習(xí)督怜,共同進(jìn)步


image
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市狠角,隨后出現(xiàn)的幾起案子号杠,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 221,548評論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件姨蟋,死亡現(xiàn)場離奇詭異屉凯,居然都是意外死亡,警方通過查閱死者的電腦和手機眼溶,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,497評論 3 399
  • 文/潘曉璐 我一進(jìn)店門悠砚,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人堂飞,你說我怎么就攤上這事灌旧。” “怎么了绰筛?”我有些...
    開封第一講書人閱讀 167,990評論 0 360
  • 文/不壞的土叔 我叫張陵枢泰,是天一觀的道長。 經(jīng)常有香客問我铝噩,道長衡蚂,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 59,618評論 1 296
  • 正文 為了忘掉前任骏庸,我火速辦了婚禮毛甲,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘具被。我一直安慰自己玻募,他們只是感情好,可當(dāng)我...
    茶點故事閱讀 68,618評論 6 397
  • 文/花漫 我一把揭開白布硬猫。 她就那樣靜靜地躺著补箍,像睡著了一般改执。 火紅的嫁衣襯著肌膚如雪啸蜜。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 52,246評論 1 308
  • 那天辈挂,我揣著相機與錄音衬横,去河邊找鬼。 笑死终蒂,一個胖子當(dāng)著我的面吹牛蜂林,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播拇泣,決...
    沈念sama閱讀 40,819評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼噪叙,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了霉翔?” 一聲冷哼從身側(cè)響起睁蕾,我...
    開封第一講書人閱讀 39,725評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后子眶,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體瀑凝,經(jīng)...
    沈念sama閱讀 46,268評論 1 320
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 38,356評論 3 340
  • 正文 我和宋清朗相戀三年臭杰,在試婚紗的時候發(fā)現(xiàn)自己被綠了粤咪。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,488評論 1 352
  • 序言:一個原本活蹦亂跳的男人離奇死亡渴杆,死狀恐怖寥枝,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情将塑,我是刑警寧澤脉顿,帶...
    沈念sama閱讀 36,181評論 5 350
  • 正文 年R本政府宣布,位于F島的核電站点寥,受9級特大地震影響艾疟,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜敢辩,卻給世界環(huán)境...
    茶點故事閱讀 41,862評論 3 333
  • 文/蒙蒙 一蔽莱、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧戚长,春花似錦盗冷、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,331評論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至迫肖,卻和暖如春锅劝,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背蟆湖。 一陣腳步聲響...
    開封第一講書人閱讀 33,445評論 1 272
  • 我被黑心中介騙來泰國打工故爵, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人隅津。 一個月前我還...
    沈念sama閱讀 48,897評論 3 376
  • 正文 我出身青樓诬垂,卻偏偏與公主長得像,于是被迫代替她去往敵國和親伦仍。 傳聞我的和親對象是個殘疾皇子结窘,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 45,500評論 2 359

推薦閱讀更多精彩內(nèi)容