http://mi.eng.cam.ac.uk/projects/segnet/#demo
lr_mult:學(xué)習(xí)率的系數(shù)扫外,最終的學(xué)習(xí)率是這個(gè)數(shù)乘以solver.prototxt配置文件中的base_lr琼富。如有兩個(gè)lr_mult盗蟆,則第一個(gè)表示權(quán)值w的學(xué)習(xí)率辟癌,第二個(gè)表示偏置項(xiàng)的學(xué)習(xí)率愈腾。一般偏置項(xiàng)的學(xué)習(xí)率是權(quán)值學(xué)習(xí)率的兩倍钦无。
layers {
? name: "fc8"
? type: "InnerProduct"
? blobs_lr: 1? ? ? ? ? # learning rate multiplier for the filters
? blobs_lr: 2? ? ? ? ? # learning rate multiplier for the biases
? weight_decay: 1? ? ? # weight decay multiplier for the filters
? weight_decay: 0? ? ? # weight decay multiplier for the biases
? inner_product_param {
? ? num_output: 1000
? ? weight_filler {
? ? ? type: "gaussian"
? ? ? std: 0.01
? ? }
? ? bias_filler {
? ? ? type: "constant"
? ? ? value: 0
? ? }
? }
? bottom: "fc7"
? top: "fc8"
---------------------
作者:One__Coder
來源:CSDN
原文:https://blog.csdn.net/github_37973614/article/details/81810327
版權(quán)聲明:本文為博主原創(chuàng)文章极祸,轉(zhuǎn)載請(qǐng)附上博文鏈接否纬!