利用keras搭建CNN完成圖片分類

一、簡介

本文旨在通過一些簡單的案例姻蚓,學(xué)習(xí)如何通過keras搭建CNN宋梧。從數(shù)據(jù)讀取,數(shù)據(jù)處理狰挡,神經(jīng)網(wǎng)絡(luò)搭建捂龄,模型訓(xùn)練等。本文也是參考其他博主的文章基礎(chǔ)上做了些小修改學(xué)習(xí)的加叁,感謝其他博主的分享倦沧。
具體的CNN的原理,以及keras的原理它匕,這里就不啰嗦了展融。最后會提供一些參考博客,供大家學(xué)習(xí)超凳。完整的代碼的github地址:traffic

二愈污、流程

1.數(shù)據(jù)處理

數(shù)據(jù)路徑
#!/usr/bin/env python
# encoding: utf-8
from keras.preprocessing.image import img_to_array#圖片轉(zhuǎn)為array
from keras.utils import to_categorical#相當(dāng)于one-hot
from imutils import paths
import cv2
import numpy as np
import random
import os

def load_data(path,norm_size,class_num):
    data = []#數(shù)據(jù)x
    label = []#標(biāo)簽y
    image_paths = sorted(list(paths.list_images(path)))#imutils模塊中paths可以讀取所有文件路徑
    random.seed(0)#保證每次數(shù)據(jù)順序一致
    random.shuffle(image_paths)#將所有的文件路徑打亂
    for each_path in image_paths:
        image = cv2.imread(each_path)#讀取文件
        image = cv2.resize(image,(norm_size,norm_size))#統(tǒng)一圖片尺寸
        image = img_to_array(image)
        data.append(image)
        maker = int(each_path.split(os.path.sep)[-2])#sep切分文件目錄,標(biāo)簽類別為文件夾名稱的變化轮傍,從0-61.如train文件下00014,label=14
        label.append(maker)
    data = np.array(data,dtype="float")/255.0#歸一化
    label = np.array(label)
    label = to_categorical(label,num_classes=class_num)#one-hot
    return data,label

上面是數(shù)據(jù)目錄首装,下面是對應(yīng)的數(shù)據(jù)處理代碼创夜。主要分為幾個部分:

  1. 利用imutils模塊的paths將train或test中的所有圖片文件的路徑找出來image_paths。
  2. 對其中每張圖片仙逻,做如下操作驰吓,利用cv2讀取圖片和修改圖片尺寸(圖片尺寸不一,要統(tǒng)一尺寸)系奉。
  3. 依次將圖片和對應(yīng)的標(biāo)簽檬贰,保存到對應(yīng)的列表中
  4. 圖片進行歸一化操作,標(biāo)簽進行one-hot

2.神經(jīng)網(wǎng)絡(luò)搭建

這里搭建的網(wǎng)絡(luò)是經(jīng)典的LeNet網(wǎng)絡(luò)缺亮,從input>conv>pool>conv>pool>Dense>Dense(softmax)翁涤。具體LeNet的學(xué)習(xí),請見參考。這里是利用keras搭建的LeNet葵礼,keras的順序模型(另外一種為函數(shù)式API)号阿。

#!/usr/bin/env python
# encoding: utf-8
import keras
from keras.layers import Conv2D, MaxPooling2D, Dropout, Dense, Flatten
from keras.models import Sequential
import keras.backend as K

class Lenet:#經(jīng)典網(wǎng)絡(luò),不懂去查

    def neural(channel,height,width,classes):
        input_shape = (channel,height,width)
        if K.image_data_format() == "channels_last":#確認(rèn)輸入維度,就是channel是在開頭鸳粉,還是結(jié)尾
            input_shape = (height,width,channel)
        model = Sequential()#順序模型(keras中包括順序模型和函數(shù)式API兩種方式)
        model.add(Conv2D(20,(5,5),padding="same",activation="relu",input_shape=input_shape,name="conv1"))
        model.add(MaxPooling2D(pool_size=(2,2),strides=(2,2),name="pool1"))
        model.add(Conv2D(50,(5,5),padding="same",activation="relu",name="conv2",))
        model.add(MaxPooling2D(pool_size=(2,2),strides=(2,2),name="pool2"))
        model.add(Flatten())
        model.add(Dense(500,activation="relu",name="fc1"))
        model.add(Dense(classes,activation="softmax",name="fc2"))
        return model

具體參數(shù)扔涧,其中卷積層卷積核一般不超過5,步長一般為1届谈。池化層一般大小和步長都為2枯夜。

3.訓(xùn)練

#!/usr/bin/env python
# encoding: utf-8
import matplotlib.pylab as plt
from keras.optimizers import Adam
from keras.preprocessing.image import ImageDataGenerator
import numpy as np
import sys
sys.path.append("../process")#添加其他文件夾
import data_input#導(dǎo)入其他模塊
from traffic_network import Lenet

def train(aug, model,train_x,train_y,test_x,test_y):

    model.compile(loss="categorical_crossentropy",
                  optimizer="Adam",metrics=["accuracy"])#配置
    #model.fit(train_x,train_y,batch_size,epochs,validation_data=(test_x,test_y))
    _history = model.fit_generator(aug.flow(train_x,train_y,batch_size=batch_size),
                        validation_data=(test_x,test_y),steps_per_epoch=len(train_x)//batch_size,
                        epochs=epochs,verbose=1)
    #擬合,具體fit_generator請查閱其他文檔,steps_per_epoch是每次迭代艰山,需要迭代多少個batch_size湖雹,validation_data為test數(shù)據(jù),直接做驗證程剥,不參與訓(xùn)練

    plt.style.use("ggplot")#matplotlib的美化樣式
    plt.figure()
    N = epochs
    plt.plot(np.arange(0,N),_history.history["loss"],label ="train_loss")#model的history有四個屬性劝枣,loss,val_loss,acc,val_acc
    plt.plot(np.arange(0,N),_history.history["val_loss"],label="val_loss")
    plt.plot(np.arange(0,N),_history.history["acc"],label="train_acc")
    plt.plot(np.arange(0,N),_history.history["val_acc"],label="val_acc")
    plt.title("loss and accuracy")
    plt.xlabel("epoch")
    plt.ylabel("loss/acc")
    plt.legend(loc="best")
    plt.savefig("../result/result.png")
    plt.show()

if __name__ =="__main__":
    channel = 3
    height = 32
    width = 32
    class_num = 62
    norm_size = 32#參數(shù)
    batch_size = 32
    epochs = 40
    model = Lenet.neural(channel=channel, height=height,
                         width=width, classes=class_num)#網(wǎng)絡(luò)
    train_x, train_y = data_input.load_data("../data/train", norm_size, class_num)
    test_x, test_y = data_input.load_data("../data/test", norm_size, class_num)#生成數(shù)據(jù)

    aug = ImageDataGenerator(rotation_range=30,width_shift_range=0.1,
                       height_shift_range=0.1,shear_range=0.2,zoom_range=0.2,
                       horizontal_flip=True,fill_mode="nearest")#數(shù)據(jù)增強,生成迭代器

    train(aug,model,train_x,train_y,test_x,test_y)#訓(xùn)練

這部分就是網(wǎng)絡(luò)的訓(xùn)練了织鲸,主要注意keras中model輸出的事history舔腾,有四個屬性可以查看。另外就是ImageDataGenerator數(shù)據(jù)增強搂擦,具體請查閱其他問下稳诚。


結(jié)果

準(zhǔn)確率在94%,跟原博客預(yù)測準(zhǔn)確率一樣瀑踢。

三扳还、參考

代碼的github地址:traffic
原博客文章:
【Keras】從兩個實際任務(wù)掌握圖像分類
先附上一些講解比較好的CNN文章:
零基礎(chǔ)入門深度學(xué)習(xí)(4) - 卷積神經(jīng)網(wǎng)絡(luò)
keras中文文檔這里面內(nèi)容非常好,關(guān)于sequence,utils,fit_generator,ImageDataGenerator等等內(nèi)容都有橱夭,推薦瀏覽氨距。
從神經(jīng)網(wǎng)絡(luò)到卷積神經(jīng)網(wǎng)絡(luò)(CNN)
在Kaggle貓狗大戰(zhàn)沖到Top2%
imutols.path.list_image

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市棘劣,隨后出現(xiàn)的幾起案子俏让,更是在濱河造成了極大的恐慌,老刑警劉巖茬暇,帶你破解...
    沈念sama閱讀 221,406評論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件首昔,死亡現(xiàn)場離奇詭異,居然都是意外死亡糙俗,警方通過查閱死者的電腦和手機勒奇,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,395評論 3 398
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來巧骚,“玉大人赊颠,你說我怎么就攤上這事格二。” “怎么了巨税?”我有些...
    開封第一講書人閱讀 167,815評論 0 360
  • 文/不壞的土叔 我叫張陵蟋定,是天一觀的道長。 經(jīng)常有香客問我草添,道長驶兜,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 59,537評論 1 296
  • 正文 為了忘掉前任远寸,我火速辦了婚禮抄淑,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘驰后。我一直安慰自己肆资,他們只是感情好,可當(dāng)我...
    茶點故事閱讀 68,536評論 6 397
  • 文/花漫 我一把揭開白布灶芝。 她就那樣靜靜地躺著郑原,像睡著了一般。 火紅的嫁衣襯著肌膚如雪夜涕。 梳的紋絲不亂的頭發(fā)上犯犁,一...
    開封第一講書人閱讀 52,184評論 1 308
  • 那天,我揣著相機與錄音女器,去河邊找鬼酸役。 笑死,一個胖子當(dāng)著我的面吹牛驾胆,可吹牛的內(nèi)容都是我干的涣澡。 我是一名探鬼主播,決...
    沈念sama閱讀 40,776評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼丧诺,長吁一口氣:“原來是場噩夢啊……” “哼入桂!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起驳阎,我...
    開封第一講書人閱讀 39,668評論 0 276
  • 序言:老撾萬榮一對情侶失蹤事格,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后搞隐,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 46,212評論 1 319
  • 正文 獨居荒郊野嶺守林人離奇死亡远搪,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 38,299評論 3 340
  • 正文 我和宋清朗相戀三年劣纲,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片谁鳍。...
    茶點故事閱讀 40,438評論 1 352
  • 序言:一個原本活蹦亂跳的男人離奇死亡癞季,死狀恐怖劫瞳,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情绷柒,我是刑警寧澤志于,帶...
    沈念sama閱讀 36,128評論 5 349
  • 正文 年R本政府宣布,位于F島的核電站废睦,受9級特大地震影響伺绽,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜嗜湃,卻給世界環(huán)境...
    茶點故事閱讀 41,807評論 3 333
  • 文/蒙蒙 一奈应、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧购披,春花似錦杖挣、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,279評論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至筐乳,卻和暖如春歌殃,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背哥童。 一陣腳步聲響...
    開封第一講書人閱讀 33,395評論 1 272
  • 我被黑心中介騙來泰國打工挺份, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人贮懈。 一個月前我還...
    沈念sama閱讀 48,827評論 3 376
  • 正文 我出身青樓匀泊,卻偏偏與公主長得像,于是被迫代替她去往敵國和親朵你。 傳聞我的和親對象是個殘疾皇子各聘,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 45,446評論 2 359

推薦閱讀更多精彩內(nèi)容

  • 筆記參考:https://zhuanlan.zhihu.com/p/22038289?refer=intellig...
    spectre_hola閱讀 4,080評論 0 26
  • 今天用同事的話術(shù),派單時間差不多兩個多小時抡医,26個躲因,還可以。只是昨晚睡覺著涼了忌傻,頭疼欲裂大脉,如果身體好點,興許也能突...
    Lulufine閱讀 128評論 0 1
  • 蝸子閱讀 262評論 0 0
  • 一個從開遠(yuǎn)坐車到昆明在輾轉(zhuǎn)回景洪秤标,五點多在昆明南站買了晚上十點的車票绝淡。晚上八點多的時候平時熙熙攘攘的候車大廳安靜...
    紅豆蓮子心閱讀 154評論 0 0