TensorFlow 實戰(zhàn)Google深度學習框架第2版-第四章深度學習

tf.clip_by_value函數(shù)可以限制log運算時不會出現(xiàn)log0這類的數(shù)出現(xiàn)


image.png

矩陣乘法tf.matmul伤提,直接使用*是元素間相乘


image.png

根據(jù)交叉熵的公式遵岩,應該將每行中的 m 個結(jié)果相加得到所有樣例的交叉熵恨旱,然后再對這 n 行取平均得到 一個 batch 的平均交叉熵店印。但因為分類問題的類別數(shù)量是不變的尚揣,所以可以直接對整個矩陣做平均而并不改變計算結(jié)果的意義咏花。
通過計算交叉熵會得到一個n*m的矩陣战得,n是一個batch的樣本數(shù)疯坤,而m是分類的類別數(shù)强品。
求平均使用 tf.reduce_mean()


image.png

tf.nn .softmax_cross_entropy_with_logits( labels=y_, logits=y)
上面的函數(shù)可以直接使用訓練出來的y和原始標簽y_計算出交叉熵寺晌,而不用自己添加softmax獲得矩陣后再更新穆咐。

梯度下降的兩個問題
1)無法全局最優(yōu)
2)計算時間太長

關(guān)于優(yōu)化學習率

眾所周知尔邓,使用梯度下降的時候名秀,需要在每次確定梯度方向后確定一個步長象踊,也就是所謂的梯度前進多少温亲,這個就是所謂的學習率。
學習率太大或者太小都不好杯矩,因為太大容易震蕩栈虚,太小迭代速度又太慢。
TensorFlow提供另一個學習率設置方法-指數(shù)衰減法史隆。
tf.train.exponential_decay函數(shù)實現(xiàn)了這個學習率魂务。
可以先使用一個較大的學習率來快速達到一個較好的解,然后隨著迭代的繼續(xù)逐步減小學習率,使得模型在訓練后期更加穩(wěn)定粘姜。
學習率的更新其實是


其中 decayed_learning_rate 為每一輪優(yōu)化時使用的學習率 鬓照, learning_rate 為事先設定的 初始學習率, decay_rate 為衰減系數(shù)相艇, decay_steps 為衰減速度颖杏。


image.png

tf.train.exponential_decay函數(shù)可以通過設置參數(shù) staircase 選擇不同的衰減方式。 staircase 的默認值為 False坛芽,這時學習率隨法代輪數(shù)變化的趨勢如 圖 4-13 中灰色曲線所示留储。當 staircase 的值被設置為 True 時, global_step I decay_steps 會被 轉(zhuǎn)化成整數(shù)咙轩。這使得學習率成為 一個階梯函數(shù)( staircase function)

關(guān)于正則化

常用的正則化化是有兩種分為L1和L2


image.png

無論是哪一種正則化方式获讳,基本的思想都是希望通過限制權(quán)重的大小,使得模型不能 任意擬合訓練數(shù)據(jù)中的隨機噪音活喊。但這兩種正則化的方法也有很大的區(qū)別丐膝。 首先, Ll正則 化會讓參數(shù)變得更稀疏钾菊,而 L2 正則化不會 帅矗。 所謂參數(shù)變得更稀疏是指會有更多的 參數(shù)變?yōu)?0,這樣可以達到類似特征選取的功能煞烫。之所以 L2 正則化不會讓參數(shù)變得稀疏的原因是當 參數(shù)很小時浑此,比如 0.001,這個參數(shù)的平方基本上就可以忽略了滞详,于是模型不會進一步將這 個參數(shù)調(diào)整為 0凛俱。其次 , LI 正則化的計算公式不可導料饥,而 L2 正則化公式可導蒲犬。因為在優(yōu) 化時需要計算損失函數(shù)的偏導數(shù),所以對含有 L2 正則化損失函數(shù)的優(yōu)化要更加簡潔 岸啡。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末原叮,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子巡蘸,更是在濱河造成了極大的恐慌篇裁,老刑警劉巖,帶你破解...
    沈念sama閱讀 218,386評論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件赡若,死亡現(xiàn)場離奇詭異达布,居然都是意外死亡,警方通過查閱死者的電腦和手機逾冬,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,142評論 3 394
  • 文/潘曉璐 我一進店門黍聂,熙熙樓的掌柜王于貴愁眉苦臉地迎上來躺苦,“玉大人,你說我怎么就攤上這事产还∑ダ澹” “怎么了?”我有些...
    開封第一講書人閱讀 164,704評論 0 353
  • 文/不壞的土叔 我叫張陵脐区,是天一觀的道長愈诚。 經(jīng)常有香客問我,道長牛隅,這世上最難降的妖魔是什么炕柔? 我笑而不...
    開封第一講書人閱讀 58,702評論 1 294
  • 正文 為了忘掉前任,我火速辦了婚禮媒佣,結(jié)果婚禮上匕累,老公的妹妹穿的比我還像新娘。我一直安慰自己默伍,他們只是感情好欢嘿,可當我...
    茶點故事閱讀 67,716評論 6 392
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著也糊,像睡著了一般炼蹦。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上狸剃,一...
    開封第一講書人閱讀 51,573評論 1 305
  • 那天框弛,我揣著相機與錄音,去河邊找鬼捕捂。 笑死,一個胖子當著我的面吹牛斗搞,可吹牛的內(nèi)容都是我干的指攒。 我是一名探鬼主播,決...
    沈念sama閱讀 40,314評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼僻焚,長吁一口氣:“原來是場噩夢啊……” “哼允悦!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起虑啤,我...
    開封第一講書人閱讀 39,230評論 0 276
  • 序言:老撾萬榮一對情侶失蹤隙弛,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后狞山,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體全闷,經(jīng)...
    沈念sama閱讀 45,680評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,873評論 3 336
  • 正文 我和宋清朗相戀三年萍启,在試婚紗的時候發(fā)現(xiàn)自己被綠了总珠。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片屏鳍。...
    茶點故事閱讀 39,991評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖局服,靈堂內(nèi)的尸體忽然破棺而出钓瞭,到底是詐尸還是另有隱情,我是刑警寧澤淫奔,帶...
    沈念sama閱讀 35,706評論 5 346
  • 正文 年R本政府宣布山涡,位于F島的核電站,受9級特大地震影響唆迁,放射性物質(zhì)發(fā)生泄漏鸭丛。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 41,329評論 3 330
  • 文/蒙蒙 一媒惕、第九天 我趴在偏房一處隱蔽的房頂上張望系吩。 院中可真熱鬧,春花似錦妒蔚、人聲如沸穿挨。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,910評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽科盛。三九已至,卻和暖如春菜皂,著一層夾襖步出監(jiān)牢的瞬間贞绵,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,038評論 1 270
  • 我被黑心中介騙來泰國打工恍飘, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留榨崩,地道東北人。 一個月前我還...
    沈念sama閱讀 48,158評論 3 370
  • 正文 我出身青樓章母,卻偏偏與公主長得像母蛛,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子乳怎,可洞房花燭夜當晚...
    茶點故事閱讀 44,941評論 2 355

推薦閱讀更多精彩內(nèi)容