LeNet-5文章復現(xiàn)

LeNet-5:Gradient-Based Learning Applied to Document Recognition

1998年的LeNet-5是CNN的經(jīng)典之作歹苦,但是該模型在后來未能火起來犬缨,主要原因是當時的計算力不足和數(shù)據(jù)量的不足花颗。并且當時的SVM在可承受計算量的情況下诫给,達到,甚至超過了神經(jīng)模型柄沮。CNN雖然在當時沒能受到重視审孽,但是并沒有掩蓋CNN的強大能力。

下圖是LeNet的架構(gòu)圖:

LeNet-5架構(gòu)圖

LeNet由兩層conv躺孝,兩層pool享扔,三層fc組成。

以下是用TensorFlow和Keras混合編寫的LeNet-5模型:


import tensorflow as tf
keras = tf.keras
from tensorflow.python.keras.layers import Conv2D,MaxPool2D,Dropout,Flatten,Dense

def inference(inputs,
              num_classes=10,
              is_training=True,
              dropout_keep_prob=0.5):
  '''

  inputs: a tensor of images
  num_classes: the num of category.
  is_training: set ture when it used for training
  dropout_keep_prob: the rate of dropout during training
  '''

  x = inputs
  # conv1
  x = Conv2D(6, [5,5], 1, activation='relu', name='conv1')(x) 
  # pool1
  x = MaxPool2D([2,2], 2, name='pool1')(x)
  # conv2
  x = Conv2D(16, [5,5], 1, activation='relu', name='conv2')(x)
  # pool2
  x = MaxPool2D([2,2], 2, name='pool2')(x)
  x = Flatten(name='pool2_flatten')(x)
  if is_training:
    x = Dropout(rate=dropout_keep_prob)(x)
  # fc3
  x = Dense(120, activation='relu', name='fc3')(x)
  if is_training:
    x = Dropout(rate=dropout_keep_prob)(x)
  # fc4
  x = Dense(84, activation='relu', name='fc4')(x)
  # logits
  logits = Dense(num_classes, activation='softmax')(x)
  return logits

if __name__ == '__main__':
  x = tf.placeholder(tf.float32, [None, 784])
  images = tf.reshape(x,[-1,28,28,1])
  labels = tf.placeholder(tf.float32, [None, 10])
  dropout_keep_prob = tf.placeholder(tf.float32)
  logits = inference(inputs=images,
                    num_classes=10,
                    is_training=True,
                    dropout_keep_prob=dropout_keep_prob)

  with tf.variable_scope('costs'):
    cost = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(
        logits=logits, labels=labels), name='xent')

  with tf.variable_scope('train'):
    train_op = tf.train.AdamOptimizer().minimize(cost)

  from tensorflow.examples.tutorials.mnist import input_data
  mnist_data = input_data.read_data_sets('./mnist_data', one_hot=True)

  acc_test = tf.divide(
      tf.reduce_sum(keras.metrics.categorical_accuracy(labels,logits)),
      len(mnist_data.test.labels))

  with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    Writer = tf.summary.FileWriter('./tmp',sess.graph)

    for i in range(200):
      batch_x,batch_y = mnist_data.train.next_batch(50)
      _, c = sess.run([train_op, cost], feed_dict={
          x:batch_x, labels:batch_y, dropout_keep_prob:0.5})
      acc_test1 = sess.run(acc_test, feed_dict={
          x:mnist_data.test.images, labels:mnist_data.test.labels, dropout_keep_prob:1})
      print('step:%04d  cost:%.4f  test_acc:%.3f'%(i+1,c,acc_test1))

代碼以Keras來實現(xiàn)模型的inference過程植袍,其他部分使用Tensorflow惧眠,這樣可以大大減少構(gòu)建模型的復雜度。
LeNet-5的具體配置:

配置
conv1 5x5, 6 stride 1
pool1 2x2 maxpool, stride 2
conv2 5x5, 16 stride 1
pool2 2x2 maxpool, stride 2
flatten
dropout rate 0.5
fc3 120
dropout rate 0.5
fc4 84
softmax 10
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末于个,一起剝皮案震驚了整個濱河市氛魁,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌厅篓,老刑警劉巖秀存,帶你破解...
    沈念sama閱讀 218,204評論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異羽氮,居然都是意外死亡或链,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,091評論 3 395
  • 文/潘曉璐 我一進店門档押,熙熙樓的掌柜王于貴愁眉苦臉地迎上來株扛,“玉大人,你說我怎么就攤上這事汇荐《淳停” “怎么了?”我有些...
    開封第一講書人閱讀 164,548評論 0 354
  • 文/不壞的土叔 我叫張陵掀淘,是天一觀的道長旬蟋。 經(jīng)常有香客問我,道長革娄,這世上最難降的妖魔是什么倾贰? 我笑而不...
    開封第一講書人閱讀 58,657評論 1 293
  • 正文 為了忘掉前任,我火速辦了婚禮拦惋,結(jié)果婚禮上匆浙,老公的妹妹穿的比我還像新娘。我一直安慰自己厕妖,他們只是感情好首尼,可當我...
    茶點故事閱讀 67,689評論 6 392
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般软能。 火紅的嫁衣襯著肌膚如雪迎捺。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,554評論 1 305
  • 那天查排,我揣著相機與錄音凳枝,去河邊找鬼。 笑死跋核,一個胖子當著我的面吹牛岖瑰,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播砂代,決...
    沈念sama閱讀 40,302評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼锭环,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了泊藕?” 一聲冷哼從身側(cè)響起辅辩,我...
    開封第一講書人閱讀 39,216評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎娃圆,沒想到半個月后玫锋,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,661評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡讼呢,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,851評論 3 336
  • 正文 我和宋清朗相戀三年撩鹿,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片悦屏。...
    茶點故事閱讀 39,977評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡节沦,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出础爬,到底是詐尸還是另有隱情甫贯,我是刑警寧澤,帶...
    沈念sama閱讀 35,697評論 5 347
  • 正文 年R本政府宣布看蚜,位于F島的核電站叫搁,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏供炎。R本人自食惡果不足惜渴逻,卻給世界環(huán)境...
    茶點故事閱讀 41,306評論 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望音诫。 院中可真熱鬧惨奕,春花似錦、人聲如沸竭钝。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,898評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至聋袋,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間穴吹,已是汗流浹背幽勒。 一陣腳步聲響...
    開封第一講書人閱讀 33,019評論 1 270
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留港令,地道東北人啥容。 一個月前我還...
    沈念sama閱讀 48,138評論 3 370
  • 正文 我出身青樓,卻偏偏與公主長得像顷霹,于是被迫代替她去往敵國和親咪惠。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 44,927評論 2 355