Caffe學(xué)習(xí)紀錄01

針對Training LeNet on MNIST with Caffe的Demo分析

1税迷、設(shè)置網(wǎng)絡(luò)文件的存儲位置

@CAFFE_ROOT/src/caffe/proto/caffe.proto

設(shè)置文件存儲在一個.proto文件里面,在這里面設(shè)置了我們所要的網(wǎng)絡(luò)特性和參數(shù)

2谦炬、定義自己的網(wǎng)絡(luò)

首先從整理的來看一下,在這個Demo里面我們定義了一下幾個Layer(用Type名代替)

Data:

layer {
  name: "mnist"
  type: "Data"
  transform_param {
    scale: 0.00390625
    #為什么是0.00290625呢皮迟,這個值是1/255
    #原因是普通圖片是RGB格式0~255庶喜,而Caffe里面是RBG是0~1故做此操作
  }
  data_param {
    source: "mnist_train_lmdb"
    backend: LMDB
    batch_size: 64
    #直譯是批量大小,也就是說一次讀入多少張圖片
  }
  top: "data"
  top: "label"
  #輸出到data和label
}

Convolution:(顧名思義就是卷積層揍庄,但是這個Blob是存的是“Data”Blob卷積運算后的)

layer {
  name: "conv1"
  type: "Convolution"
  param { lr_mult: 1 }
  param { lr_mult: 2 }
  #LearnRate 1是整體同步咆蒿,2是整體2倍(此處理解的還不是很清楚
  convolution_param {
    num_output: 20
    #這次卷積有多少個核函數(shù)
    kernel_size: 5
    #窗口5X5,就是這次運算取了5X5的像素點蚂子,
    #什么是窗口蜡秽,我目前對窗口理解就是在圖像中取一個小塊
    stride: 1
    #stride步長,一次滑一個像素點
    weight_filler {
      type: "xavier"
    }
    bias_filler {
      type: "constant"
      #偏移是常量
    }
  }
  bottom: "data"
  #數(shù)據(jù)來源(上一個Blob)是data
  top: "conv1"
  #輸出到conv1 Blob
}

Pooling:

layer {
  name: "pool1"
  type: "Pooling"
  pooling_param {
    kernel_size: 2
    stride: 2
    pool: MAX
    #窗口2X2缆镣,步長2
  }
  bottom: "conv1"
  top: "pool1"
  #輸出到pool1這個Blob
}

卷積層輸出的是圖像的特征圖,然后為了解決過度擬化和計算量大的問題试浙,Pooling層對卷積層的輸出進行采樣董瞻,以達到減小特征圖分辨率的目的。

InnerProduct:(Fully Connected Layer)(InnerProduct中文是內(nèi)積)

layer {
  name: "ip1"
  type: "InnerProduct"
  param { lr_mult: 1 }
  param { lr_mult: 2 }
  inner_product_param {
    num_output: 500
    weight_filler {
      type: "xavier"
    }
    bias_filler {
      type: "constant"
    }
  }
  bottom: "pool2"
  top: "ip1"
}

這個嘛田巴,這層以目前的理解有點像是ANN里面的分類的過程钠糊,之前的Conv和Pooling都是不停的提取特征值,而這里是真正分類的過程壹哺。

ReLU:(和tanh和sigmod激活不同另一種激活函數(shù))

layer {
  name: "relu1"
  type: "ReLU"
  bottom: "ip1"
  top: "ip1"
}

ReLU層是激活層的一種類型抄伍,參考的AlexNet論文,可以看出和之前的激活函數(shù)不同管宵,ReLU的激活函數(shù)模仿了自然界中局部神經(jīng)元會相互抑制的特性截珍,在計算本神經(jīng)元輸出的時候會考慮到周圍的神經(jīng)元的輸出(看一眼公式就知道了)。

LossLayer:

layer {
  name: "loss"
  type: "SoftmaxWithLoss"
  bottom: "ip2"
  bottom: "label"
}

? 這個層的目的就是對前向傳播以后的結(jié)果同預(yù)期結(jié)果做對比箩朴,看之間相差了多少岗喉,這個也是反向傳播的時候一個重要的依據(jù)。在這里它的type主要是改變損失函數(shù)炸庞,不同的損失函數(shù)有不同的效果钱床。損失函數(shù)的計算結(jié)果會直接的影響反向傳播算法中的梯度計算,所以這里算是一個調(diào)整參數(shù)的重要位置埠居。

? 在這個層中有一個不設(shè)置損失函數(shù)查牌,那就是Accuracy類型事期,這個類型就是單純的輸出測試的準確度的。

? loss層不做任何輸出纸颜,在反向傳播的開始的時候使用兽泣,原文中的最后一句話問有意思。

? “This is where all magic starts”

? 畢竟梯度計算的最開始就是這里懂衩,算出最后一層的梯度以后撞叨,之前的梯度都和下一層的的梯度相關(guān)。

3浊洞、定義Solver

Solver文件以我現(xiàn)在淺薄的理解看來是一個怎么運行網(wǎng)絡(luò)牵敷,定義怎么輸出的作用

它存放在以下位置

$CAFFE_ROOT/examples/mnist/lenet_solver.prototxt

# The train/test net protocol buffer definition
net: "examples/mnist/lenet_train_test.prototxt"
test_iter: 100
# 迭代100次,舉個例子就是網(wǎng)絡(luò)中一次讀入假設(shè)100個圖法希,100次迭代就是讀了10000個圖
test_interval: 500
# 每500次迭代用Test數(shù)據(jù)集輸出一次測試結(jié)果
base_lr: 0.01
momentum: 0.9
weight_decay: 0.0005
#lr是LearnRate的意思枷餐,weight_decay是每次修正多少weight的意思
lr_policy: "inv"
gamma: 0.0001
power: 0.75
# 這個是learning rate policy,gamma和power是inv模式需要的參數(shù)(這個大體就是一個函數(shù)

display: 100
# Display every 100 iterations
max_iter: 10000
# The maximum number of iterations

# snapshot intermediate results
snapshot: 5000
snapshot_prefix: "examples/mnist/lenet"
#prefix是前綴的意思
# solver mode: CPU or GPU
solver_mode: GPU

? 在這部分的base_lr,lr_policy都是調(diào)整學(xué)習(xí)速率用的苫亦,也是后期調(diào)整參數(shù)的重要位置毛肋。學(xué)習(xí)速率是再反向傳播算法中出現(xiàn)的当编,它是公式中用梯度進行調(diào)整的時候旋奢,梯度前面的參數(shù),類似y=kx+b钻心,前面的k唉匾。在公式中一般都記做α孕讳。base_lr為基礎(chǔ)學(xué)習(xí)速率,顧名思義就是最最開始的時候?qū)W習(xí)速率的值巍膘,而lr_policy就是調(diào)整學(xué)習(xí)速率的方法厂财,選擇不同的方法則下面要跟的參數(shù)就不一樣。剩下的部分峡懈,覺得大概就直接看就能看得懂璃饱。

4、訓(xùn)練和測試Model

去相應(yīng)的位置運行.sh文件即可肪康,Demo中的位置是

cd $CAFFE_ROOT
./examples/mnist/tran_lenet.sh

5荚恶、其他細節(jié)

在測試的時候,可以根據(jù)自己的顯卡顯存梅鹦,來調(diào)整batch_size的大小裆甩,來調(diào)整,

可以在運行了一段時間后使用以下代碼來查看

nvidia-smi

初次紀錄2017/3/16齐唆。學(xué)長講解后

記錄修正2017/6/10嗤栓。畢業(yè)晚會第二天

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子茉帅,更是在濱河造成了極大的恐慌叨叙,老刑警劉巖,帶你破解...
    沈念sama閱讀 221,576評論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件堪澎,死亡現(xiàn)場離奇詭異擂错,居然都是意外死亡,警方通過查閱死者的電腦和手機樱蛤,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,515評論 3 399
  • 文/潘曉璐 我一進店門钮呀,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人昨凡,你說我怎么就攤上這事爽醋。” “怎么了便脊?”我有些...
    開封第一講書人閱讀 168,017評論 0 360
  • 文/不壞的土叔 我叫張陵蚂四,是天一觀的道長。 經(jīng)常有香客問我哪痰,道長遂赠,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 59,626評論 1 296
  • 正文 為了忘掉前任晌杰,我火速辦了婚禮跷睦,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘肋演。我一直安慰自己送讲,他們只是感情好,可當我...
    茶點故事閱讀 68,625評論 6 397
  • 文/花漫 我一把揭開白布惋啃。 她就那樣靜靜地躺著,像睡著了一般监右。 火紅的嫁衣襯著肌膚如雪边灭。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 52,255評論 1 308
  • 那天健盒,我揣著相機與錄音绒瘦,去河邊找鬼。 笑死扣癣,一個胖子當著我的面吹牛惰帽,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播父虑,決...
    沈念sama閱讀 40,825評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼该酗,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起呜魄,我...
    開封第一講書人閱讀 39,729評論 0 276
  • 序言:老撾萬榮一對情侶失蹤悔叽,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后爵嗅,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體娇澎,經(jīng)...
    沈念sama閱讀 46,271評論 1 320
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 38,363評論 3 340
  • 正文 我和宋清朗相戀三年睹晒,在試婚紗的時候發(fā)現(xiàn)自己被綠了趟庄。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,498評論 1 352
  • 序言:一個原本活蹦亂跳的男人離奇死亡伪很,死狀恐怖戚啥,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情是掰,我是刑警寧澤虑鼎,帶...
    沈念sama閱讀 36,183評論 5 350
  • 正文 年R本政府宣布,位于F島的核電站键痛,受9級特大地震影響炫彩,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜絮短,卻給世界環(huán)境...
    茶點故事閱讀 41,867評論 3 333
  • 文/蒙蒙 一江兢、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧丁频,春花似錦杉允、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,338評論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至奖磁,卻和暖如春改基,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背咖为。 一陣腳步聲響...
    開封第一講書人閱讀 33,458評論 1 272
  • 我被黑心中介騙來泰國打工秕狰, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人躁染。 一個月前我還...
    沈念sama閱讀 48,906評論 3 376
  • 正文 我出身青樓鸣哀,卻偏偏與公主長得像,于是被迫代替她去往敵國和親吞彤。 傳聞我的和親對象是個殘疾皇子我衬,可洞房花燭夜當晚...
    茶點故事閱讀 45,507評論 2 359

推薦閱讀更多精彩內(nèi)容