《白話深度學習與Tensorflow》學習筆記(2)

1孙援、CUDA(compute unified device architecture)可用于并行計算:

GTX1060 CUDA核心數(shù):1280 顯存大刑咎埂:6G

2熊镣、隨機梯度下降:計算偏導數(shù)需要的計算量很大,而采用隨機梯度下降(即采用采樣的概念)從中提取一部分樣本來募书,這些樣本中的特征已經(jīng)可以在一定程度上代表完整訓練集的特征绪囱。 Tensorflow中可以指定一個batch的size,規(guī)定每次被隨機選擇參與歸納的樣本數(shù)。

3莹捡、梯度消失與梯度爆炸問題:

梯度消失:兩個節(jié)點相連的神經(jīng)網(wǎng)絡(luò)鬼吵,在使用鏈式法則的時候,會對導數(shù)進行連乘篮赢。即使用Sigmoid函數(shù)在自變量很大或者很小的時候齿椅,由下圖可以看出,導數(shù)接近于0荷逞,這樣在導數(shù)連乘的時候會使得w沒什么變化媒咳。



Sigmoid激活函數(shù)

而對于這種問題比較好的解決方案是改用ReLu(修正線性單元)激活函數(shù),如下圖所示:


ReLu激活函數(shù)(修正線性單元)

這樣在第一象限中導數(shù)恒為1种远,不會很容易出現(xiàn)很大很小的值涩澡,求解復合函數(shù)的導數(shù)更簡單。

4坠敷、歸一化:

一般采用線性函數(shù)歸一化(max-min)妙同、0均值標準化(z-score standardization),在深度學習中膝迎,常見的是使用batch-normalization粥帚,這樣可以讓網(wǎng)絡(luò)盡可能避免沒有數(shù)據(jù),代碼為:

h2=tf.contrib.layers.batch_norm(h1,center=True,scale=True,is_training=false,scope=’bn’).

5限次、參數(shù)初始化問題:

常見的初始化為使用以0為均值芒涡,1為方差的分布生成后除以當前層的神經(jīng)單元個數(shù)的算術(shù)平方根柴灯。或者初始為以0為均值费尽,以很小的值為標準差的正態(tài)分布的方式赠群。

中心極限定理:任何獨立隨機變量和極限分布都為正態(tài)分布。

6旱幼、正則化:

為防止出現(xiàn)過擬合問題查描,則進行正則化約束。方法是在損失函數(shù)中加入一個正則化項柏卤,以防止模型的規(guī)模過大所產(chǎn)生的過擬合冬三。


正則化公式


正則化項

這個因子的含義是把整個模型中所有的權(quán)重w的絕對值加起來,lamda是懲罰因子缘缚,表示對這一項的重視程度勾笆。

L1正則化項即采用L1范數(shù),L2正則化就是所有權(quán)重的平方之和桥滨。

C0往往是經(jīng)驗風險匠襟,即誤差所帶來的代價,其收斂中心點記為黑色圓的圓心该园,其收斂中心為精確解,而藍色的圓中心為正則化項的收斂點帅韧,即結(jié)構(gòu)風險的最小化的收斂點里初,那么引入正則化項后,黑色大圓與藍色圓相切的切點即為最后模型的收斂點忽舟。


結(jié)構(gòu)化風險與經(jīng)驗風險可視化

7双妨、其他超參數(shù):有一些值需要在算法訓練之前設(shè)定,無法通過學習獲得叮阅,這就需要經(jīng)驗獲得或者進行一定的預估刁品、嘗試。比如深度學習中的學習率浩姥,K-means算法中的簇數(shù)k.

8挑随、Dropout:方法的目的在于克制過擬合狀態(tài),由于網(wǎng)絡(luò)VC維很高勒叠,記憶能力很強兜挨,所以有些細枝末節(jié)的特征也會被網(wǎng)絡(luò)記憶,從而削弱網(wǎng)絡(luò)整體的泛化性能眯分,使得其沒有辦法在驗證集通過拌汇,僅有較好的訓練集分類性能。這時候選擇性的(隨機)臨時丟棄(關(guān)閉)一些節(jié)點弊决,可以降低VC維噪舀,減小過擬合風險。

Keep_prob=tf.placehoder(tf.float32)

H_fc1_drop=tf.nn.dropout(h_fc1,keep_prob)

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市与倡,隨后出現(xiàn)的幾起案子界逛,更是在濱河造成了極大的恐慌,老刑警劉巖蒸走,帶你破解...
    沈念sama閱讀 218,122評論 6 505
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件仇奶,死亡現(xiàn)場離奇詭異,居然都是意外死亡比驻,警方通過查閱死者的電腦和手機该溯,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,070評論 3 395
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來别惦,“玉大人狈茉,你說我怎么就攤上這事〉УВ” “怎么了氯庆?”我有些...
    開封第一講書人閱讀 164,491評論 0 354
  • 文/不壞的土叔 我叫張陵,是天一觀的道長扰付。 經(jīng)常有香客問我堤撵,道長,這世上最難降的妖魔是什么羽莺? 我笑而不...
    開封第一講書人閱讀 58,636評論 1 293
  • 正文 為了忘掉前任实昨,我火速辦了婚禮,結(jié)果婚禮上盐固,老公的妹妹穿的比我還像新娘荒给。我一直安慰自己,他們只是感情好刁卜,可當我...
    茶點故事閱讀 67,676評論 6 392
  • 文/花漫 我一把揭開白布志电。 她就那樣靜靜地躺著,像睡著了一般蛔趴。 火紅的嫁衣襯著肌膚如雪挑辆。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,541評論 1 305
  • 那天夺脾,我揣著相機與錄音之拨,去河邊找鬼。 笑死咧叭,一個胖子當著我的面吹牛蚀乔,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播菲茬,決...
    沈念sama閱讀 40,292評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼吉挣,長吁一口氣:“原來是場噩夢啊……” “哼派撕!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起睬魂,我...
    開封第一講書人閱讀 39,211評論 0 276
  • 序言:老撾萬榮一對情侶失蹤终吼,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后氯哮,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體际跪,經(jīng)...
    沈念sama閱讀 45,655評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,846評論 3 336
  • 正文 我和宋清朗相戀三年喉钢,在試婚紗的時候發(fā)現(xiàn)自己被綠了姆打。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 39,965評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡肠虽,死狀恐怖幔戏,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情税课,我是刑警寧澤闲延,帶...
    沈念sama閱讀 35,684評論 5 347
  • 正文 年R本政府宣布,位于F島的核電站韩玩,受9級特大地震影響垒玲,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜找颓,卻給世界環(huán)境...
    茶點故事閱讀 41,295評論 3 329
  • 文/蒙蒙 一侍匙、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧叮雳,春花似錦、人聲如沸妇汗。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,894評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽杨箭。三九已至寞焙,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間互婿,已是汗流浹背捣郊。 一陣腳步聲響...
    開封第一講書人閱讀 33,012評論 1 269
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留慈参,地道東北人呛牲。 一個月前我還...
    沈念sama閱讀 48,126評論 3 370
  • 正文 我出身青樓,卻偏偏與公主長得像驮配,于是被迫代替她去往敵國和親娘扩。 傳聞我的和親對象是個殘疾皇子着茸,可洞房花燭夜當晚...
    茶點故事閱讀 44,914評論 2 355

推薦閱讀更多精彩內(nèi)容