經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)——AlexNet網(wǎng)絡(luò)結(jié)構(gòu)詳解(卷積神經(jīng)網(wǎng)絡(luò)入門耻矮,Keras代碼實(shí)現(xiàn))

背景簡介

在 LeNet 問世后的第4年集侯,2012年, AlexNet 在 ImageNet LSVRC-2010 數(shù)據(jù)集上對(duì)1000個(gè)類別的圖像進(jìn)行分類取得了當(dāng)時(shí)最好的效果曾撤;同時(shí)在 ILSVRC-2012 數(shù)據(jù)集上取得了當(dāng)時(shí)第一的成績。在AlexNet之后晕粪,圖像分類模型越來越復(fù)雜挤悉,網(wǎng)絡(luò)也越來越 deep。現(xiàn)在 AlexNet 仍然可以應(yīng)用到小數(shù)據(jù)集上巫湘,做一些驗(yàn)證性的實(shí)驗(yàn)装悲。

原論文

https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf
文章發(fā)在 NIPS 上。截止目前引用次數(shù)為36782尚氛!

個(gè)人 Github 實(shí)現(xiàn)

https://github.com/uestcsongtaoli/AlexNet

模型介紹

AlexNet Architecture

上圖是 Alex Krizhevsky 原論文中 AlexNet 結(jié)構(gòu)圖诀诊,做了簡單的標(biāo)注。
該模型由5個(gè)卷積層和3個(gè)全連接層構(gòu)成阅嘶,其中還有3個(gè) Pooling 層属瓣。
先定義 conv block 包括卷積、BatchNormalization 和 Activation:

def Conv_block(layer, filters, kernerl_size=(3, 3), strides=(1, 1), padding="valid", name=None):
    x = Conv2D(filters=filters, kernel_size=kernel_size, strides=strides, padding=padding, name=name)(layer)
    x = BatchNormalization()(x)
    x = Activation("relu")(x)
    return x
  1. 卷積層 Conv_1
x = Conv_block(x, filters=96, kernel_size=(11, 11), strides=(4, 4), padding="valid", name="Conv_1_96_11x11_4")
  1. 池化層 Pool_1
x = MaxPool2D(pool_size=(3, 3), strides=(2, 2), padding="valid", name="maxpool_1_3x3_2")(x)
  1. 卷積層 Conv_2
x = Conv_block(x, filters=256, kernel_size=(5, 5), strides=(1, 1), padding="same", name="Conv_2_256_5x5_1")
  1. 池化層 Pool_2
x = MaxPool2D(pool_size=(3, 3), strides=(2, 2), padding="valid", name="maxpool_2_3x3_2")(x)
  1. 卷積層 Conv_3
x = Conv_block(x, filters=384, kernel_size=(3, 3), strides=(1, 1), padding="same", name="Conv_3_384_3x3_1")
  1. 卷積層 Conv_4
x = Conv_block(x, filters=384, kernel_size=(3, 3), strides=(1, 1), padding="same", name="Conv_4_384_3x3_1")
  1. 卷積層 Conv_5
x = Conv_block(x, filters=256, kernel_size=(3, 3), strides=(1, 1), padding="same", name="Conv_5_256_3x3_1")
  1. 池化層 Pool_2
x = MaxPool2D(pool_size=(3, 3), strides=(2, 2), padding="valid", name="maxpool_3_3x3_2")(x)
  1. 全連接層 FC_1
x = Flatten()(x)
x = dense(units=4096)(x)
x = BatchNormalization()(x)
x = Activation("relu")(x)
  1. 全連接層 FC_2
x = dense(units=4096)(x)
x = BatchNormalization()(x)
x = Activation("relu")(x)
  1. 全連接層 FC_3
x = dense(units=num_classes)(x)
x = BatchNormalization()(x)
x = Activation("softmax")(x)

個(gè)人理解

  1. 這里實(shí)現(xiàn)的時(shí)候有個(gè)trick, 輸入圖片大小應(yīng)該是227讯柔,這樣通過計(jì)算卷積之后才是55x55的大小抡蛙,所以我在實(shí)現(xiàn)的時(shí)候先加了 zero_padding 具體參見我Github 的代碼。
  2. AlexNet 網(wǎng)絡(luò)參數(shù)的大約是6千萬個(gè)左右魂迄。
  3. AlexNet 之后網(wǎng)絡(luò)的激活函數(shù)基本都使用 relu, 因?yàn)?relu 收斂更快粗截,沒有梯度消失問題。
  4. 池化也大多使用最大值池化 max pooling.
  5. 增加了 Batchnormalization 技術(shù)捣炬,更快收斂熊昌、類似正則化的作用怠晴,減小過擬合。
  6. 原文中還有 Dropout 技術(shù)浴捆,來防止過擬合蒜田,多用于全連接層
  7. 優(yōu)化器是 SGD.
  8. 當(dāng)時(shí)設(shè)置的 batch_size 為 128
  9. 采用了 group convolution 技術(shù),也就是分塊卷積选泻,是一種模型并行的技術(shù)冲粤。受限于當(dāng)時(shí)的技術(shù)資源,作者將卷積部分均分成兩部分页眯。優(yōu)點(diǎn)是:1. 收斂快梯捕,每次可以接收更多圖片,2. 參數(shù)少窝撵,3. 每一個(gè) filter group 可以學(xué)習(xí)到數(shù)據(jù)不同的特征傀顾。

模型講解

  1. ImageNet Classification with Deep Convolutional Neural Networks
    http://vision.stanford.edu/teaching/cs231b_spring1415/slides/alexnet_tugce_kyunghee.pdf
  2. Understanding AlexNet
    https://www.learnopencv.com/understanding-alexnet/
  3. A Walk-through of AlexNet
    https://medium.com/@smallfishbigsea/a-walk-through-of-alexnet-6cbd137a5637
  4. AlexNet
    為什么使用ReLu
    http://cvml.ist.ac.at/courses/DLWT_W17/material/AlexNet.pdf
  5. AlexNet Implementation Using Keras
    https://engmrk.com/alexnet-implementation-using-keras/
  6. AlexNet Keras Implementation
    Github
    https://github.com/eweill/keras-deepcv/blob/master/models/classification/alexnet.py
  7. Plant Diseases Classification Using AlexNet
    Kaggle 應(yīng)用
    https://www.kaggle.com/vipoooool/plant-diseases-classification-using-alexnet
  8. Finetuning AlexNet with TensorFlow
    遷移學(xué)習(xí),fine-tune
    https://kratzert.github.io/2017/02/24/finetuning-alexnet-with-tensorflow.html
  9. AlexNet implementation + weights in TensorFlow
    模型的權(quán)重碌奉,用于遷移學(xué)習(xí)
    http://www.cs.toronto.edu/~guerzhoy/tf_alexnet/
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末短曾,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子赐劣,更是在濱河造成了極大的恐慌嫉拐,老刑警劉巖,帶你破解...
    沈念sama閱讀 219,270評(píng)論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件魁兼,死亡現(xiàn)場(chǎng)離奇詭異婉徘,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)咐汞,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,489評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門盖呼,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人化撕,你說我怎么就攤上這事几晤。” “怎么了侯谁?”我有些...
    開封第一講書人閱讀 165,630評(píng)論 0 356
  • 文/不壞的土叔 我叫張陵锌仅,是天一觀的道長章钾。 經(jīng)常有香客問我墙贱,道長,這世上最難降的妖魔是什么贱傀? 我笑而不...
    開封第一講書人閱讀 58,906評(píng)論 1 295
  • 正文 為了忘掉前任惨撇,我火速辦了婚禮,結(jié)果婚禮上府寒,老公的妹妹穿的比我還像新娘魁衙。我一直安慰自己报腔,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,928評(píng)論 6 392
  • 文/花漫 我一把揭開白布剖淀。 她就那樣靜靜地躺著纯蛾,像睡著了一般。 火紅的嫁衣襯著肌膚如雪纵隔。 梳的紋絲不亂的頭發(fā)上翻诉,一...
    開封第一講書人閱讀 51,718評(píng)論 1 305
  • 那天,我揣著相機(jī)與錄音捌刮,去河邊找鬼碰煌。 笑死,一個(gè)胖子當(dāng)著我的面吹牛绅作,可吹牛的內(nèi)容都是我干的芦圾。 我是一名探鬼主播,決...
    沈念sama閱讀 40,442評(píng)論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼俄认,長吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼个少!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起眯杏,我...
    開封第一講書人閱讀 39,345評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤稍算,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后役拴,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體糊探,經(jīng)...
    沈念sama閱讀 45,802評(píng)論 1 317
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,984評(píng)論 3 337
  • 正文 我和宋清朗相戀三年河闰,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了科平。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,117評(píng)論 1 351
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡姜性,死狀恐怖瞪慧,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情部念,我是刑警寧澤弃酌,帶...
    沈念sama閱讀 35,810評(píng)論 5 346
  • 正文 年R本政府宣布,位于F島的核電站儡炼,受9級(jí)特大地震影響妓湘,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜乌询,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,462評(píng)論 3 331
  • 文/蒙蒙 一榜贴、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧妹田,春花似錦唬党、人聲如沸鹃共。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,011評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽霜浴。三九已至,卻和暖如春蓝纲,著一層夾襖步出監(jiān)牢的瞬間坷随,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,139評(píng)論 1 272
  • 我被黑心中介騙來泰國打工驻龟, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留温眉,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 48,377評(píng)論 3 373
  • 正文 我出身青樓翁狐,卻偏偏與公主長得像类溢,于是被迫代替她去往敵國和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子露懒,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,060評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容