理解深度學(xué)習(xí)



轉(zhuǎn)載:http://www.cnblogs.com/hellochennan/p/5352129.html




1钠乏、現(xiàn)狀:

? ? ? ? 深度學(xué)習(xí)現(xiàn)在非常熱测暗,各種會(huì)議都要和這個(gè)沾點(diǎn)邊。百度大腦,谷歌大腦計(jì)劃搞的都是這個(gè)侨核。在一些領(lǐng)域取得了非常不錯(cuò)的效果圣絮,如圖片識(shí)別祈惶,語(yǔ)音識(shí)別,在安全領(lǐng)域甚至還有識(shí)別加密的協(xié)議等扮匠。如圖片捧请,語(yǔ)音領(lǐng)域?qū)嶒?yàn)室準(zhǔn)確率都超過了90%。

2棒搜、深度學(xué)習(xí)的本質(zhì)

? ? ? ? 一個(gè)典型的機(jī)器學(xué)習(xí)樣例如上疹蛉,從開始的通過傳感器(例如CMOS)來(lái)獲得數(shù)據(jù)。然后經(jīng)過預(yù)處理力麸、特征提取可款、特征選擇,再到推理克蚂、預(yù)測(cè)或者識(shí)別闺鲸。最后一個(gè)部分,也就是機(jī)器學(xué)習(xí)的部分埃叭,絕大部分的工作是在這方面做的摸恍,也存在很多的paper和研究。

? ? ? ? 而中間的三部分游盲,概括起來(lái)就是特征表達(dá)误墓。良好的特征表達(dá)蛮粮,對(duì)最終算法的準(zhǔn)確性起了非常關(guān)鍵的作用,而且系統(tǒng)主要的計(jì)算和測(cè)試工作都耗在這一大部分谜慌。但然想,這塊實(shí)際中一般都是人工完成的⌒婪叮靠人工提取特征变泄。

然而,手工地選取特征是一件非常費(fèi)力恼琼、啟發(fā)式(需要專業(yè)知識(shí))的方法妨蛹,能不能選取好很大程度上靠經(jīng)驗(yàn)和運(yùn)氣,而且它的調(diào)節(jié)需要大量的時(shí)間晴竞。既然手工選取特征不太好蛙卤,那么能不能自動(dòng)地學(xué)習(xí)一些特征呢?答案是能噩死!Deep Learning就是用來(lái)干這個(gè)事情的颤难,看它的一個(gè)別UnsupervisedFeature Learning,就可以顧名思義了已维,Unsupervised的意思就是不要人參與特征的選取過程行嗤。

? ? ? ? 深度學(xué)習(xí)的實(shí)質(zhì),是通過構(gòu)建具有很多隱層的機(jī)器學(xué)習(xí)模型和海量的訓(xùn)練數(shù)據(jù)垛耳,來(lái)學(xué)習(xí)更有用的特征栅屏,從而最終提升分類或預(yù)測(cè)的準(zhǔn)確性。因此堂鲜,“深度模型”是手段栈雳,“特征學(xué)習(xí)”是目的。區(qū)別于傳統(tǒng)的淺層學(xué)習(xí)泡嘴,深度學(xué)習(xí)的不同在于:1)強(qiáng)調(diào)了模型結(jié)構(gòu)的深度甫恩,通常有5層、6層酌予,甚至10多層的隱層節(jié)點(diǎn)磺箕;2)明確突出了特征學(xué)習(xí)的重要性,也就是說抛虫,通過逐層特征變換松靡,將樣本在原空間的特征表示變換到一個(gè)新特征空間,從而使分類或預(yù)測(cè)更加容易建椰。與人工規(guī)則構(gòu)造特征的方法相比雕欺,利用大數(shù)據(jù)來(lái)學(xué)習(xí)特征,更能夠刻畫數(shù)據(jù)的豐富內(nèi)在信息。

3屠列、深度學(xué)習(xí)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的關(guān)系

? ? ? ? Deep learning本身算是machine learning的一個(gè)分支啦逆,簡(jiǎn)單可以理解為neural network的發(fā)展。大約二三十年前笛洛,neural network曾經(jīng)是ML領(lǐng)域特別火熱的一個(gè)方向夏志,但是后來(lái)確慢慢淡出了,原因包括以下幾個(gè)方面:

? ? ? ? 1)比較容易過擬合苛让,參數(shù)比較難tune沟蔑,而且需要不少trick;

? ? ? ? 2)訓(xùn)練速度比較慢狱杰,在層次比較少(小于等于3)的情況下效果并不比其它方法更優(yōu)瘦材;

? ? ? ? 所以中間有大約20多年的時(shí)間,神經(jīng)網(wǎng)絡(luò)被關(guān)注很少仿畸,這段時(shí)間基本上是SVM和boosting算法的天下食棕。但是,一個(gè)癡心的老先生Hinton颁湖,他堅(jiān)持了下來(lái)宣蠕,并最終(和其它人一起B(yǎng)engio例隆、Yann.lecun等)提成了一個(gè)實(shí)際可行的deep learning框架甥捺。

? ? ? ? Deep learning與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)之間有相同的地方也有很多不同。

? ? ? ? 二者的相同在于deep learning采用了神經(jīng)網(wǎng)絡(luò)相似的分層結(jié)構(gòu)镀层,系統(tǒng)由包括輸入層镰禾、隱層(多層)、輸出層組成的多層網(wǎng)絡(luò)唱逢,只有相鄰層節(jié)點(diǎn)之間有連接吴侦,同一層以及跨層節(jié)點(diǎn)之間相互無(wú)連接,每一層可以看作是一個(gè)logistic regression模型坞古;這種分層結(jié)構(gòu)备韧,是比較接近人類大腦的結(jié)構(gòu)的。

? 而為了克服神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的問題痪枫,DL采用了與神經(jīng)網(wǎng)絡(luò)很不同的訓(xùn)練機(jī)制织堂。傳統(tǒng)神經(jīng)網(wǎng)絡(luò)中,采用的是back propagation的方式進(jìn)行奶陈,簡(jiǎn)單來(lái)講就是采用迭代的算法來(lái)訓(xùn)練整個(gè)網(wǎng)絡(luò)易阳,隨機(jī)設(shè)定初值,計(jì)算當(dāng)前網(wǎng)絡(luò)的輸出吃粒,然后根據(jù)當(dāng)前輸出和label之間的差去改變前面各層的參數(shù)潦俺,直到收斂(整體是一個(gè)梯度下降法)。而deep learning整體上是一個(gè)layer-wise的訓(xùn)練機(jī)制。這樣做的原因是因?yàn)槭率荆绻捎胋ack propagation的機(jī)制早像,對(duì)于一個(gè)deep network(7層以上),殘差傳播到最前面的層已經(jīng)變得太小肖爵,出現(xiàn)所謂的gradient diffusion(梯度擴(kuò)散)扎酷。

5、總結(jié)

? ? ? ? 深度學(xué)習(xí)是關(guān)于自動(dòng)學(xué)習(xí)要建模的數(shù)據(jù)的潛在(隱含)分布的多層(復(fù)雜)表達(dá)的算法遏匆。換句話來(lái)說法挨,深度學(xué)習(xí)算法自動(dòng)的提取分類需要的低層次或者高層次特征。高層次特征幅聘,一是指該特征可以分級(jí)(層次)地依賴其他特征凡纳,例如:對(duì)于機(jī)器視覺,深度學(xué)習(xí)算法從原始圖像去學(xué)習(xí)得到它的一個(gè)低層次表達(dá)帝蒿,例如邊緣檢測(cè)器荐糜,小波濾波器等,然后在這些低層次表達(dá)的基礎(chǔ)上再建立表達(dá)葛超,例如這些低層次表達(dá)的線性或者非線性組合暴氏,然后重復(fù)這個(gè)過程,最后得到一個(gè)高層次的表達(dá)绣张。

? ? ? ? Deep learning能夠得到更好地表示數(shù)據(jù)的feature答渔,同時(shí)由于模型的層次、參數(shù)很多侥涵,capacity足夠沼撕,因此,模型有能力表示大規(guī)模數(shù)據(jù)芜飘,所以對(duì)于圖像务豺、語(yǔ)音這種特征不明顯(需要手工設(shè)計(jì)且很多沒有直觀物理含義)的問題,能夠在大規(guī)模訓(xùn)練數(shù)據(jù)上取得更好的效果嗦明。此外笼沥,從模式識(shí)別特征和分類器的角度,deep learning框架將feature和分類器結(jié)合到一個(gè)框架中娶牌,用數(shù)據(jù)去學(xué)習(xí)feature奔浅,在使用中減少了手工設(shè)計(jì)feature的巨大工作量(這是目前工業(yè)界工程師付出努力最多的方面),因此裙戏,不僅僅效果可以更好乘凸,而且,使用起來(lái)也有很多方便之處累榜,因此营勤,是十分值得關(guān)注的一套框架灵嫌,每個(gè)做ML的人都應(yīng)該關(guān)注了解一下。

當(dāng)然葛作,deep learning本身也不是完美的寿羞,也不是解決世間任何ML問題的利器,不應(yīng)該被放大到一個(gè)無(wú)所不能的程度赂蠢。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末绪穆,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子虱岂,更是在濱河造成了極大的恐慌玖院,老刑警劉巖,帶你破解...
    沈念sama閱讀 219,188評(píng)論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件第岖,死亡現(xiàn)場(chǎng)離奇詭異难菌,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)蔑滓,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,464評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門郊酒,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人键袱,你說我怎么就攤上這事燎窘。” “怎么了蹄咖?”我有些...
    開封第一講書人閱讀 165,562評(píng)論 0 356
  • 文/不壞的土叔 我叫張陵褐健,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我比藻,道長(zhǎng)铝量,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,893評(píng)論 1 295
  • 正文 為了忘掉前任银亲,我火速辦了婚禮,結(jié)果婚禮上纽匙,老公的妹妹穿的比我還像新娘务蝠。我一直安慰自己,他們只是感情好烛缔,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,917評(píng)論 6 392
  • 文/花漫 我一把揭開白布馏段。 她就那樣靜靜地躺著,像睡著了一般践瓷。 火紅的嫁衣襯著肌膚如雪院喜。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,708評(píng)論 1 305
  • 那天晕翠,我揣著相機(jī)與錄音喷舀,去河邊找鬼砍濒。 笑死,一個(gè)胖子當(dāng)著我的面吹牛硫麻,可吹牛的內(nèi)容都是我干的爸邢。 我是一名探鬼主播,決...
    沈念sama閱讀 40,430評(píng)論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼拿愧,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼杠河!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起浇辜,我...
    開封第一講書人閱讀 39,342評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤券敌,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后柳洋,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體陪白,經(jīng)...
    沈念sama閱讀 45,801評(píng)論 1 317
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,976評(píng)論 3 337
  • 正文 我和宋清朗相戀三年膳灶,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了咱士。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,115評(píng)論 1 351
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡轧钓,死狀恐怖序厉,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情毕箍,我是刑警寧澤弛房,帶...
    沈念sama閱讀 35,804評(píng)論 5 346
  • 正文 年R本政府宣布,位于F島的核電站而柑,受9級(jí)特大地震影響文捶,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜媒咳,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,458評(píng)論 3 331
  • 文/蒙蒙 一粹排、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧涩澡,春花似錦顽耳、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,008評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至粥帚,卻和暖如春胰耗,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背芒涡。 一陣腳步聲響...
    開封第一講書人閱讀 33,135評(píng)論 1 272
  • 我被黑心中介騙來(lái)泰國(guó)打工柴灯, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留卖漫,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 48,365評(píng)論 3 373
  • 正文 我出身青樓弛槐,卻偏偏與公主長(zhǎng)得像懊亡,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子乎串,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,055評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容