Caffe的solver參數(shù)介紹

文章作者:Tyan
博客:noahsnail.com ?|? CSDN ?|? 簡(jiǎn)書(shū)

1. Parameters

solver.prototxt文件是用來(lái)告訴caffe如何訓(xùn)練網(wǎng)絡(luò)的在塔。solver.prototxt的各個(gè)參數(shù)的解釋如下:

  • base_lr
    這個(gè)參數(shù)是用來(lái)表示網(wǎng)絡(luò)的初始學(xué)習(xí)率的。這個(gè)值是一個(gè)浮點(diǎn)型實(shí)數(shù)猎贴。
  • lr_policy
    這個(gè)參數(shù)是用來(lái)表示學(xué)習(xí)率隨著時(shí)間是如何變化的宫屠。值是字符串黑低,需要加""鳍侣。學(xué)習(xí)率變化的可選參數(shù)有:
    "step"——需要設(shè)置stepsize。根據(jù)gamma參數(shù)和stepsize參數(shù)來(lái)降低學(xué)習(xí)率荸型,base_lr * gamma ^ (floor(iter / stepsize))盹靴。iter是當(dāng)前迭代次數(shù)。學(xué)習(xí)率每迭代stepsize次變化一次瑞妇。
    "multistep"——與step類(lèi)似稿静,需要設(shè)置stepvalue,學(xué)習(xí)率根據(jù)stepvalue進(jìn)行變化辕狰。
    "fixed"——學(xué)習(xí)率base_lr保持不變改备。
    "inv"——學(xué)習(xí)率變化公式為base_lr * (1 + gamma * iter) ^ (- power)
    "exp"——學(xué)習(xí)率變化公式為base_lr * gamma ^ iter}
    "poly"——學(xué)習(xí)率以多項(xiàng)式形式衰減,到最大迭代次數(shù)時(shí)降為0蔓倍。學(xué)習(xí)率變化公式為base_lr * (1 - iter/max_iter) ^ (power)悬钳。
    "sigmoid"——學(xué)習(xí)率以S型曲線(xiàn)形式衰減,學(xué)習(xí)率變化公式為base_lr * (1 / (1 + exp(-gamma * (iter - stepsize))))偶翅。
  • gamma
    這個(gè)參數(shù)表示學(xué)習(xí)率每次的變化程度默勾,值為實(shí)數(shù)。
  • stepsize
    這個(gè)參數(shù)表示什么時(shí)候應(yīng)該進(jìn)行訓(xùn)練的下一過(guò)程聚谁,值為正整數(shù)母剥。主要用在lr_policystep的情況。
  • stepvalue
    這個(gè)參數(shù)表示什么時(shí)候應(yīng)該進(jìn)行訓(xùn)練的下一過(guò)程,值為正整數(shù)环疼。主要用在lr_policymultistep的情況习霹。
  • max_iter
    這個(gè)參數(shù)表示訓(xùn)練神經(jīng)網(wǎng)絡(luò)迭代的最大次數(shù),值為正整數(shù)炫隶。
  • momentum
    這個(gè)參數(shù)表示在新的計(jì)算中要保留的前面的權(quán)重?cái)?shù)量淋叶,值為真分?jǐn)?shù),通常設(shè)為0.9伪阶。
  • weight_decay
    這個(gè)參數(shù)表示對(duì)較大權(quán)重的懲罰(正則化)因子煞檩。值為真分?jǐn)?shù)。
    This parameter indicates the factor of (regularization) penalization of large weights. This value is a often a real fraction.
  • solver_mode
    這個(gè)參數(shù)用來(lái)表示求解神經(jīng)網(wǎng)絡(luò)的模式——值為CPU or GPU望门。
  • snapshot
    這個(gè)參數(shù)用來(lái)表示每迭代多少次就應(yīng)該保存snapshot的modelsolverstate形娇,值為正整數(shù)。
  • snapshot_prefix:
    這個(gè)參數(shù)用來(lái)表示保存snapshot時(shí)modelsolverstate的前綴筹误,值為帶引號(hào)的字符串。
  • net:
    這個(gè)參數(shù)表示訓(xùn)練網(wǎng)絡(luò)所在的位置癣缅,值為帶引號(hào)的字符串厨剪。
  • test_iter
    這個(gè)參數(shù)表示
    這個(gè)參數(shù)表示每個(gè)test_interval進(jìn)行多少次test迭代,值為正整數(shù)友存。
  • test_interval
    這個(gè)參數(shù)表示什么時(shí)候進(jìn)行數(shù)據(jù)的測(cè)試祷膳,值為正整數(shù)。
  • display
    這個(gè)參數(shù)用來(lái)表示什么時(shí)候?qū)⑤敵鼋Y(jié)果打印到屏幕上屡立,值為正整數(shù)直晨,表示迭代次數(shù)。
  • type
    這個(gè)參數(shù)表示訓(xùn)練神經(jīng)網(wǎng)絡(luò)采用的反向傳播算法膨俐,值為帶引號(hào)的字符串勇皇。可選的值有:
    Stochastic Gradient Descent "SGD"——隨機(jī)梯度下降焚刺,默認(rèn)值敛摘。
    AdaDelta "AdaDelta"——一種”魯棒的學(xué)習(xí)率方法“,是基于梯度的優(yōu)化方法乳愉。
    Adaptive Gradient "AdaGrad"——自適應(yīng)梯度方法兄淫。
    Adam "Adam"——一種基于梯度的優(yōu)化方法。
    Nesterov’s Accelerated Gradient "Nesterov"——Nesterov的加速梯度法蔓姚,作為凸優(yōu)化中最理想的方法捕虽,其收斂速度非常快坡脐。
    RMSprop "RMSProp"——一種基于梯度的優(yōu)化方法泄私。

2. Demo

  • lr_policy
# lr_policy為multisetp
base_lr: 0.01
momentum: 0.9
lr_policy: "multistep"
gamma: 0.9
stepvalue: 1000
stepvalue: 2000
stepvalue: 3000
stepvalue: 4000
stepvalue: 5000

# lr_policy為step
base_lr: 0.01
momentum: 0.9
lr_policy: "step"
gamma: 0.9
stepsize: 1000
  • solver.prototxt
net: "models/bvlc_alexnet/train_val.prototxt"
# 每次測(cè)試時(shí)進(jìn)行1000次迭代
test_iter: 1000
# 每進(jìn)行1000次訓(xùn)練執(zhí)行一次測(cè)試
test_interval: 1000
base_lr: 0.01
lr_policy: "step"
gamma: 0.1
stepsize: 100000
display: 20
max_iter: 450000
momentum: 0.9
weight_decay: 0.0005
snapshot: 10000
snapshot_prefix: "models/bvlc_alexnet/caffe_alexnet_train"
solver_mode: GPU

參考資料

  1. http://www.cnblogs.com/denny402/p/5074049.html
  2. https://github.com/BVLC/caffe/wiki/Solver-Prototxt
  3. http://stackoverflow.com/questions/30033096/what-is-lr-policy-in-caffe
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子挖滤,更是在濱河造成了極大的恐慌崩溪,老刑警劉巖,帶你破解...
    沈念sama閱讀 217,542評(píng)論 6 504
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件斩松,死亡現(xiàn)場(chǎng)離奇詭異伶唯,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)惧盹,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,822評(píng)論 3 394
  • 文/潘曉璐 我一進(jìn)店門(mén)乳幸,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人钧椰,你說(shuō)我怎么就攤上這事粹断。” “怎么了嫡霞?”我有些...
    開(kāi)封第一講書(shū)人閱讀 163,912評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵瓶埋,是天一觀(guān)的道長(zhǎng)。 經(jīng)常有香客問(wèn)我诊沪,道長(zhǎng)养筒,這世上最難降的妖魔是什么? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,449評(píng)論 1 293
  • 正文 為了忘掉前任端姚,我火速辦了婚禮晕粪,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘渐裸。我一直安慰自己巫湘,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,500評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布昏鹃。 她就那樣靜靜地躺著尚氛,像睡著了一般。 火紅的嫁衣襯著肌膚如雪盆顾。 梳的紋絲不亂的頭發(fā)上怠褐,一...
    開(kāi)封第一講書(shū)人閱讀 51,370評(píng)論 1 302
  • 那天,我揣著相機(jī)與錄音您宪,去河邊找鬼奈懒。 笑死,一個(gè)胖子當(dāng)著我的面吹牛宪巨,可吹牛的內(nèi)容都是我干的磷杏。 我是一名探鬼主播,決...
    沈念sama閱讀 40,193評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼捏卓,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼极祸!你這毒婦竟也來(lái)了慈格?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 39,074評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤遥金,失蹤者是張志新(化名)和其女友劉穎浴捆,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體稿械,經(jīng)...
    沈念sama閱讀 45,505評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡选泻,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,722評(píng)論 3 335
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了美莫。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片页眯。...
    茶點(diǎn)故事閱讀 39,841評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖厢呵,靈堂內(nèi)的尸體忽然破棺而出窝撵,到底是詐尸還是另有隱情,我是刑警寧澤襟铭,帶...
    沈念sama閱讀 35,569評(píng)論 5 345
  • 正文 年R本政府宣布碌奉,位于F島的核電站,受9級(jí)特大地震影響寒砖,放射性物質(zhì)發(fā)生泄漏道批。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,168評(píng)論 3 328
  • 文/蒙蒙 一入撒、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧椭岩,春花似錦茅逮、人聲如沸。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,783評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至塌计,卻和暖如春挺身,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背锌仅。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 32,918評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工章钾, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人热芹。 一個(gè)月前我還...
    沈念sama閱讀 47,962評(píng)論 2 370
  • 正文 我出身青樓贱傀,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親伊脓。 傳聞我的和親對(duì)象是個(gè)殘疾皇子府寒,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,781評(píng)論 2 354

推薦閱讀更多精彩內(nèi)容