神經(jīng)網(wǎng)絡(luò)優(yōu)化方法

從最優(yōu)化的角度來看痹换,主要有一階和二階兩類優(yōu)化方案固棚,那么從最簡單的開始:


  1. Gradient Descent
while True:
  weights_grad = evaluate_gradient(loss_fun, data, weights)
  weights += - step_size*weightes_grad

缺點(diǎn):

  • 計算量過大
  • 對于非凸函數(shù)不能保證全局最優(yōu)
  1. SGD(Stochastic Gradient Descent)
while True:
  data_batch = sample_training_data(data,256)
  weights_grad = evaluate_gradient(loss_fun, data_batch, weights)
  weights += - step_size * weighted_grad

注意此處代碼給出的是mini-batch 的SGD,還有一種是針對每個輸入數(shù)據(jù)的SGD(batch_size=1)仁锯,該方法在優(yōu)化過程中會有比較明顯的震蕩耀找。
缺點(diǎn):

  • 可能出現(xiàn)的高方差使得收斂速度慢,穩(wěn)定性差
  • 需要選取合適的學(xué)習(xí)率
  • 沒有解決非凸函數(shù)問題
  1. SGD+Momentum
vx = 0
while True:
  dx = compute_gradient(x)
  ### 通常rho取0.9或者0.99
  vx = rho * vx +dx
  x += - learning_rate * vx

優(yōu)點(diǎn):

  • 能夠遏制動蕩
  • 可以越過局部最小點(diǎn)和鞍點(diǎn)
    缺點(diǎn):
  • 可能因為高動量而越過最小值
  1. Nesterov
vx = 0
while True:
  dx = compute_gradient(x)
  old_v = v
  v = rho * v - learning_rate * dx
  x += - rho* old_v + (1+rho)* v

原本的數(shù)學(xué)公式應(yīng)當(dāng)寫成:



不過括號中的導(dǎo)數(shù)不便于計算,因此經(jīng)過化簡得到上述結(jié)果阻课。
其原理如下:為了改進(jìn)動量方法的越過最小點(diǎn)問題,需要提前看一點(diǎn)贾节。


  1. AdaGrad
grad_squared = 0
while True:
  dx = compute_gradient(x)
  grad_squared += dx * dx
  x -= learning_rate * dx / (np.sqrt(grad_squared) + 1e-7)
  1. RMSprop
grad_squared = 0
while True:
  dx = computer_gradient(x)
  grad_squared = decay_rate * grad_squared + (1-decay_rate) * dx *dx
  x -= learning_rate * dx / (np.sqrt(grad_squared) + 1e-7)
  1. Adam
first_moment = 0
second_moment = 0
for t in range(1, num_iterations):
  dx = compute_gradient(x)
  first_moment = beta1 * first_moment + (1-beta1) * dx
  second_moment = beta2 * second_moment + (1-beta2)*dx*dx
  # 為了修正一開始 first_mometn和 second_moment從0開始累積狞悲,有了以下兩項
  first_unbias = first_moment / (1 - beta1 ** t)
  second_unbias = second_moment / (1 - beta2 **t)
  x -= learning_rate * first_unbias / (np.sqrt(second_unbias) + 1e-7)

Reference:

  1. http://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture3.pdf
  2. http://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture7.pdf
  3. https://zhuanlan.zhihu.com/p/27449596
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末涝登,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子效诅,更是在濱河造成了極大的恐慌,老刑警劉巖趟济,帶你破解...
    沈念sama閱讀 219,539評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件乱投,死亡現(xiàn)場離奇詭異,居然都是意外死亡顷编,警方通過查閱死者的電腦和手機(jī)戚炫,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,594評論 3 396
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來媳纬,“玉大人双肤,你說我怎么就攤上這事∨セ荩” “怎么了茅糜?”我有些...
    開封第一講書人閱讀 165,871評論 0 356
  • 文/不壞的土叔 我叫張陵,是天一觀的道長素挽。 經(jīng)常有香客問我蔑赘,道長,這世上最難降的妖魔是什么预明? 我笑而不...
    開封第一講書人閱讀 58,963評論 1 295
  • 正文 為了忘掉前任缩赛,我火速辦了婚禮,結(jié)果婚禮上撰糠,老公的妹妹穿的比我還像新娘酥馍。我一直安慰自己,他們只是感情好阅酪,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,984評論 6 393
  • 文/花漫 我一把揭開白布旨袒。 她就那樣靜靜地躺著,像睡著了一般遮斥。 火紅的嫁衣襯著肌膚如雪峦失。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,763評論 1 307
  • 那天术吗,我揣著相機(jī)與錄音尉辑,去河邊找鬼。 笑死较屿,一個胖子當(dāng)著我的面吹牛隧魄,可吹牛的內(nèi)容都是我干的卓练。 我是一名探鬼主播,決...
    沈念sama閱讀 40,468評論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼购啄,長吁一口氣:“原來是場噩夢啊……” “哼襟企!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起狮含,我...
    開封第一講書人閱讀 39,357評論 0 276
  • 序言:老撾萬榮一對情侶失蹤顽悼,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后几迄,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體蔚龙,經(jīng)...
    沈念sama閱讀 45,850評論 1 317
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,002評論 3 338
  • 正文 我和宋清朗相戀三年映胁,在試婚紗的時候發(fā)現(xiàn)自己被綠了木羹。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,144評論 1 351
  • 序言:一個原本活蹦亂跳的男人離奇死亡解孙,死狀恐怖坑填,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情弛姜,我是刑警寧澤脐瑰,帶...
    沈念sama閱讀 35,823評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站娱据,受9級特大地震影響蚪黑,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜中剩,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,483評論 3 331
  • 文/蒙蒙 一忌穿、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧结啼,春花似錦掠剑、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,026評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至属铁,卻和暖如春眠寿,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背焦蘑。 一陣腳步聲響...
    開封第一講書人閱讀 33,150評論 1 272
  • 我被黑心中介騙來泰國打工盯拱, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 48,415評論 3 373
  • 正文 我出身青樓狡逢,卻偏偏與公主長得像宁舰,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子奢浑,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,092評論 2 355

推薦閱讀更多精彩內(nèi)容