Caffe solver配置

solver算是caffe的核心的核心俄周,它協(xié)調(diào)著整個(gè)模型的運(yùn)作渤闷。caffe程序運(yùn)行必帶的一個(gè)參數(shù)就是solver配置文件曾沈。運(yùn)行代碼一般為

caffe train --solver=*_slover.prototxt

在Deep Learning中间景,往往loss function是非凸的痘系,沒有解析解订晌,我們需要通過優(yōu)化方法來求解虏辫。solver的主要作用就是交替調(diào)用前向(forward)算法和后向(backward)算法來更新參數(shù),從而最小化loss锈拨,實(shí)際上就是一種迭代的優(yōu)化算法砌庄。
到目前的版本,caffe提供了六種優(yōu)化算法來求解最優(yōu)參數(shù)奕枢,在solver配置文件中娄昆,通過設(shè)置type類型來選擇。
Stochastic Gradient Descent (type: "SGD"
),
AdaDelta (type: "AdaDelta"
),
Adaptive Gradient (type: "AdaGrad"
),
Adam (type: "Adam"
),
Nesterov’s Accelerated Gradient (type: "Nesterov"
) and
RMSprop (type: "RMSProp"
)

具體的每種方法的介紹詳見梯度下降算法總結(jié) , 本文著重介紹solver配置文件的編寫缝彬。
Solver的流程:

  1. 設(shè)計(jì)好需要優(yōu)化的對象萌焰,以及用于學(xué)習(xí)的訓(xùn)練網(wǎng)絡(luò)和用于評估的測試網(wǎng)絡(luò)。(通過調(diào)用另外一個(gè)配置文件prototxt來進(jìn)行)
    
  2. 通過forward和backward迭代的進(jìn)行優(yōu)化來跟新參數(shù)谷浅。
    
  3. 定期的評價(jià)測試網(wǎng)絡(luò)扒俯。 (可設(shè)定多少次訓(xùn)練后,進(jìn)行一次測試)
    
  4. 在優(yōu)化過程中顯示模型和solver的狀態(tài)
    

在每一次的迭代過程中一疯,solver做了這幾步工作:
1撼玄、調(diào)用forward算法來計(jì)算最終的輸出值,以及對應(yīng)的loss
2墩邀、調(diào)用backward算法來計(jì)算每層的梯度
3掌猛、根據(jù)選用的slover方法,利用梯度進(jìn)行參數(shù)更新
4眉睹、記錄并保存每次迭代的學(xué)習(xí)率荔茬、快照废膘,以及對應(yīng)的狀態(tài)。
接下來慕蔚,我們先來看一個(gè)實(shí)例:

net: "examples/mnist/lenet_train_test.prototxt"
test_iter: 100
test_interval: 500
base_lr: 0.01
momentum: 0.9
type: SGD
weight_decay: 0.0005
lr_policy: "inv"
gamma: 0.0001
power: 0.75
display: 100
max_iter: 20000
snapshot: 5000
snapshot_prefix: "examples/mnist/lenet"
solver_mode: CPU

接下來丐黄,我們對每一行進(jìn)行詳細(xì)解譯:

net: "examples/mnist/lenet_train_test.prototxt"

設(shè)置深度網(wǎng)絡(luò)模型。每一個(gè)模型就是一個(gè)net坊萝,需要在一個(gè)專門的配置文件中對net進(jìn)行配置孵稽,每個(gè)net由許多的layer所組成许起。每一個(gè)layer的具體配置方式可參考caffe各種層十偶。注意的是:文件的路徑要從caffe的根目錄開始,其它的所有配置都是這樣园细。
也可用train_net和test_net來對訓(xùn)練模型和測試模型分別設(shè)定惦积。例如:

train_net: "examples/hdf5_classification/logreg_auto_train.prototxt"
test_net: "examples/hdf5_classification/logreg_auto_test.prototxt"

接下來第二行:

test_iter: 100

這個(gè)要與test layer中的batch_size結(jié)合起來理解。mnist數(shù)據(jù)中測試樣本總數(shù)為10000猛频,一次性執(zhí)行全部數(shù)據(jù)效率很低(全局剃度下降)狮崩,因此我們將測試數(shù)據(jù)分成幾個(gè)批次(隨即梯度下降)來執(zhí)行,每個(gè)批次的數(shù)量就是batch_size鹿寻。假設(shè)我們設(shè)置batch_size為100睦柴,則需要迭代100次才能將10000個(gè)數(shù)據(jù)全部執(zhí)行完。因此test_iter設(shè)置為100毡熏。執(zhí)行完一次全部數(shù)據(jù)坦敌,稱之為一個(gè)epoch

test_interval: 500

測試間隔。也就是每訓(xùn)練500次痢法,才進(jìn)行一次測試狱窘。

base_lr: 0.01
lr_policy: "inv"
gamma: 0.0001
power: 0.75

這四行可以放在一起理解,用于學(xué)習(xí)率的設(shè)置财搁。只要是梯度下降法來求解優(yōu)化蘸炸,都會有一個(gè)學(xué)習(xí)率,也叫步長尖奔。base_lr用于設(shè)置基礎(chǔ)學(xué)習(xí)率搭儒,在迭代的過程中,可以對基礎(chǔ)學(xué)習(xí)率進(jìn)行調(diào)整提茁。怎么樣進(jìn)行調(diào)整淹禾,就是調(diào)整的策略,由lr_policy來設(shè)置甘凭。
lr_policy可以設(shè)置為下面這些值稀拐,相應(yīng)的學(xué)習(xí)率的計(jì)算為:

-fixed:   保持base_lr不變.
-step:    如果設(shè)置為step,則還需要設(shè)置一個(gè)stepsize, 返回 base_lr * gamma ^ (floor(iter / stepsize)),其中iter表示當(dāng)前的迭代次數(shù)
-exp:   返回base_lr * gamma ^ iter, iter為當(dāng)前迭代次數(shù)
-inv:   如果設(shè)置為inv,還需要設(shè)置一個(gè)power, 返回base_lr * (1 + gamma * iter) ^ (- power)
-multistep: 如果設(shè)置為multistep,則還需要設(shè)置一個(gè)stepvalue丹弱。這個(gè)參數(shù)和step很相似德撬,step是均勻等間隔變化铲咨,而multistep則是根據(jù) stepvalue值變化
-poly:    學(xué)習(xí)率進(jìn)行多項(xiàng)式誤差, 返回 base_lr (1 - iter/max_iter) ^ (power)
-sigmoid: 學(xué)習(xí)率進(jìn)行sigmod衰減,返回 base_lr ( 1/(1 + exp(-gamma * (iter - stepsize))))

multistep示例:

base_lr: 0.01
momentum: 0.9
weight_decay: 0.0005
# The learning rate policy
lr_policy: "multistep"
gamma: 0.9
stepvalue: 5000
stepvalue: 7000
stepvalue: 8000
stepvalue: 9000
stepvalue: 9500

接下來的參數(shù):

momentum :0.9

上一次梯度更新的權(quán)重

type: SGD

優(yōu)化算法選擇蜓洪。這一行可以省掉纤勒,因?yàn)槟J(rèn)值就是SGD÷√矗總共有六種方法可選擇摇天,在本文的開頭已介紹。

weight_decay: 0.0005

權(quán)重衰減項(xiàng)恐仑,防止過擬合的一個(gè)參數(shù)泉坐。

display: 100

每訓(xùn)練100次,在屏幕上顯示一次裳仆。如果設(shè)置為0腕让,則不顯示。

max_iter: 20000

最大迭代次數(shù)歧斟。這個(gè)數(shù)設(shè)置太小纯丸,會導(dǎo)致沒有收斂,精確度很低静袖。設(shè)置太大觉鼻,會導(dǎo)致震蕩,浪費(fèi)時(shí)間队橙。

snapshot: 5000
snapshot_prefix: "examples/mnist/lenet"

快照坠陈。將訓(xùn)練出來的model和solver狀態(tài)進(jìn)行保存,snapshot用于設(shè)置訓(xùn)練多少次后進(jìn)行保存喘帚,默認(rèn)為0畅姊,不保存。snapshot_prefix設(shè)置保存路徑吹由。
還可以設(shè)置snapshot_diff若未,是否保存梯度值,默認(rèn)為false,不保存倾鲫。
也可以設(shè)置snapshot_format粗合,保存的類型。有兩種選擇:HDF5 和BINARYPROTO 乌昔,默認(rèn)為BINARYPROTO

solver_mode: CPU

設(shè)置運(yùn)行模式隙疚。默認(rèn)為GPU,如果你沒有GPU,則需要改成CPU,否則會出錯。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末磕道,一起剝皮案震驚了整個(gè)濱河市供屉,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖伶丐,帶你破解...
    沈念sama閱讀 222,378評論 6 516
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件悼做,死亡現(xiàn)場離奇詭異,居然都是意外死亡哗魂,警方通過查閱死者的電腦和手機(jī)肛走,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,970評論 3 399
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來录别,“玉大人朽色,你說我怎么就攤上這事∽樘猓” “怎么了葫男?”我有些...
    開封第一講書人閱讀 168,983評論 0 362
  • 文/不壞的土叔 我叫張陵,是天一觀的道長往踢。 經(jīng)常有香客問我腾誉,道長,這世上最難降的妖魔是什么峻呕? 我笑而不...
    開封第一講書人閱讀 59,938評論 1 299
  • 正文 為了忘掉前任,我火速辦了婚禮趣效,結(jié)果婚禮上瘦癌,老公的妹妹穿的比我還像新娘。我一直安慰自己跷敬,他們只是感情好讯私,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,955評論 6 398
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著西傀,像睡著了一般斤寇。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上拥褂,一...
    開封第一講書人閱讀 52,549評論 1 312
  • 那天娘锁,我揣著相機(jī)與錄音,去河邊找鬼饺鹃。 笑死莫秆,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的悔详。 我是一名探鬼主播镊屎,決...
    沈念sama閱讀 41,063評論 3 422
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼茄螃!你這毒婦竟也來了缝驳?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 39,991評論 0 277
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎用狱,沒想到半個(gè)月后萎庭,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 46,522評論 1 319
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡齿拂,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,604評論 3 342
  • 正文 我和宋清朗相戀三年驳规,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片署海。...
    茶點(diǎn)故事閱讀 40,742評論 1 353
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡吗购,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出砸狞,到底是詐尸還是另有隱情捻勉,我是刑警寧澤,帶...
    沈念sama閱讀 36,413評論 5 351
  • 正文 年R本政府宣布刀森,位于F島的核電站踱启,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏研底。R本人自食惡果不足惜埠偿,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 42,094評論 3 335
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望榜晦。 院中可真熱鬧冠蒋,春花似錦、人聲如沸乾胶。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,572評論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽识窿。三九已至斩郎,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間喻频,已是汗流浹背缩宜。 一陣腳步聲響...
    開封第一講書人閱讀 33,671評論 1 274
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留半抱,地道東北人脓恕。 一個(gè)月前我還...
    沈念sama閱讀 49,159評論 3 378
  • 正文 我出身青樓,卻偏偏與公主長得像窿侈,于是被迫代替她去往敵國和親炼幔。 傳聞我的和親對象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,747評論 2 361

推薦閱讀更多精彩內(nèi)容