深度學(xué)習-使用tensorflow實現(xiàn)貓狗識別

最近一直在擼貓,為了貓主子的事情憂三愁四甲献,皺紋多了不少,頭發(fā)也掉了好幾根颂翼,神態(tài)也多了幾分憂郁晃洒,唯一不變的還是那份閑魚的懶散和浪蕩的心。

要說到深度學(xué)習圖像分類的經(jīng)典案例之一朦乏,那就是貓狗大戰(zhàn)了球及。貓和狗在外觀上的差別還是挺明顯的,無論是體型呻疹、四肢吃引、臉龐和毛發(fā)等等, 都是能通過肉眼很容易區(qū)分的刽锤。

那么如何讓機器來識別貓和狗呢镊尺?這就需要使用卷積神經(jīng)網(wǎng)絡(luò)來實現(xiàn)了。

網(wǎng)上已經(jīng)有不少人寫過這案例了并思,我也來嘗試下練練手庐氮。

完整代碼:https://github.com/ADlead/Dogs-Cats.git

ps:本文使用的是tensorflow1.x的版本,tf2.0版本可看下面這篇:
深度學(xué)習-python貓狗識別tensorflow2.0

一. 數(shù)據(jù)集的準備和預(yù)處理

貓狗照片的數(shù)據(jù)集直接從kaggle官網(wǎng)(https://www.kaggle.com/c/dogs-vs-cats)下載即可纺荧,下載后解壓旭愧,可以看到有訓(xùn)練集和測試集


train文件夾

test1文件夾

因為從官網(wǎng)下載的圖片中test圖片是沒有標簽的,無法用來測試模型的準確率宙暇。我便把訓(xùn)練圖像集劃分成訓(xùn)練圖像集和測試圖像集输枯,分別用于訓(xùn)練模型和測試模型。把25000張圖像劃分成20000張訓(xùn)練圖像和5000張測試圖像占贫。

深度學(xué)習的框架使用的是tensorflow桃熄,為了能讓tensorflow分批輸入數(shù)據(jù)進行訓(xùn)練,我把所有的圖像像素信息存儲成batch文件型奥。訓(xùn)練集100個batch文件瞳收,每個文件有200張圖像。測試集1個batch文件厢汹,共5000張圖像螟深。

存儲成batch的代碼如下:

import cv2 as cv
import os
import numpy as np

import random
import pickle

import time

start_time = time.time()

data_dir = './data'
batch_save_path = './batch_files'

# 創(chuàng)建batch文件存儲的文件夾
os.makedirs(batch_save_path, exist_ok=True)

# 圖片統(tǒng)一大小:100 * 100
# 訓(xùn)練集 20000:100個batch文件烫葬,每個文件200張圖片
# 驗證集 5000:一個測試文件界弧,測試時 50張 x 100 批次

# 進入圖片數(shù)據(jù)的目錄凡蜻,讀取圖片信息
all_data_files = os.listdir(os.path.join(data_dir, 'train/'))

# print(all_data_files)

# 打算數(shù)據(jù)的順序
random.shuffle(all_data_files)

all_train_files = all_data_files[:20000]
all_test_files = all_data_files[20000:]

train_data = []
train_label = []
train_filenames = []

test_data = []
test_label = []
test_filenames = []

# 訓(xùn)練集
for each in all_train_files:
    img = cv.imread(os.path.join(data_dir,'train/',each),1)
    resized_img = cv.resize(img, (100,100))

    img_data = np.array(resized_img)
    train_data.append(img_data)
    if 'cat' in each:
        train_label.append(0)
    elif 'dog' in each:
        train_label.append(1)
    else:
        raise Exception('%s is wrong train file'%(each))
    train_filenames.append(each)

# 測試集
for each in all_test_files:
    img = cv.imread(os.path.join(data_dir,'train/',each), 1)
    resized_img = cv.resize(img, (100,100))

    img_data = np.array(resized_img)
    test_data.append(img_data)
    if 'cat' in each:
        test_label.append(0)
    elif 'dog' in each:
        test_label.append(1)
    else:
        raise Exception('%s is wrong test file'%(each))
    test_filenames.append(each)

print(len(train_data), len(test_data))

# 制作100個batch文件
start = 0
end = 200
for num in range(1, 101):
    batch_data = train_data[start: end]
    batch_label = train_label[start: end]
    batch_filenames = train_filenames[start: end]
    batch_name = 'training batch {} of 15'.format(num)

    all_data = {
    'data':batch_data,
    'label':batch_label,
    'filenames':batch_filenames,
    'name':batch_name
    }

    with open(os.path.join(batch_save_path, 'train_batch_{}'.format(num)), 'wb') as f:
        pickle.dump(all_data, f)

    start += 200
    end += 200

# 制作測試文件
all_test_data = {
    'data':test_data,
    'label':test_label,
    'filenames':test_filenames,
    'name':'test batch 1 of 1'
    }

with open(os.path.join(batch_save_path, 'test_batch'), 'wb') as f:
    pickle.dump(all_test_data, f)

end_time = time.time()
print('制作結(jié)束, 用時{}秒'.format(end_time - start_time))

運行程序后,文件就處理好了


二. 神經(jīng)網(wǎng)絡(luò)的編寫

cnn卷積神經(jīng)網(wǎng)絡(luò)的編寫如下垢箕,編寫卷積層划栓、池化層和全連接層的代碼

conv1_1 = tf.layers.conv2d(x, 16, (3, 3), padding='same', activation=tf.nn.relu, name='conv1_1')
conv1_2 = tf.layers.conv2d(conv1_1, 16, (3, 3), padding='same', activation=tf.nn.relu, name='conv1_2')
pool1 = tf.layers.max_pooling2d(conv1_2, (2, 2), (2, 2), name='pool1')
conv2_1 = tf.layers.conv2d(pool1, 32, (3, 3), padding='same', activation=tf.nn.relu, name='conv2_1')
conv2_2 = tf.layers.conv2d(conv2_1, 32, (3, 3), padding='same', activation=tf.nn.relu, name='conv2_2')
pool2 = tf.layers.max_pooling2d(conv2_2, (2, 2), (2, 2), name='pool2')
conv3_1 = tf.layers.conv2d(pool2, 64, (3, 3), padding='same', activation=tf.nn.relu, name='conv3_1')
conv3_2 = tf.layers.conv2d(conv3_1, 64, (3, 3), padding='same', activation=tf.nn.relu, name='conv3_2')
pool3 = tf.layers.max_pooling2d(conv3_2, (2, 2), (2, 2), name='pool3')
conv4_1 = tf.layers.conv2d(pool3, 128, (3, 3), padding='same', activation=tf.nn.relu, name='conv4_1')
conv4_2 = tf.layers.conv2d(conv4_1, 128, (3, 3), padding='same', activation=tf.nn.relu, name='conv4_2')
pool4 = tf.layers.max_pooling2d(conv4_2, (2, 2), (2, 2), name='pool4')

flatten = tf.layers.flatten(pool4)
fc1 = tf.layers.dense(flatten, 512, tf.nn.relu)
fc1_dropout = tf.nn.dropout(fc1, keep_prob=keep_prob)
fc2 = tf.layers.dense(fc1, 256, tf.nn.relu)
fc2_dropout = tf.nn.dropout(fc2, keep_prob=keep_prob)
fc3 = tf.layers.dense(fc2, 2, None)

三. Tensorflow計算圖的構(gòu)建

然后,再搭建tensorflow的計算圖条获,定義占位符忠荞,計算損失函數(shù)、預(yù)測值和準確率等等

self.x = tf.placeholder(tf.float32, [None, IMAGE_SIZE, IMAGE_SIZE, 3], 'input_data')
self.y = tf.placeholder(tf.int64, [None], 'output_data')
self.keep_prob = tf.placeholder(tf.float32)

# 圖片輸入網(wǎng)絡(luò)中
fc = self.conv_net(self.x, self.keep_prob)
self.loss = tf.losses.sparse_softmax_cross_entropy(labels=self.y, logits=fc)
self.y_ = tf.nn.softmax(fc) # 計算每一類的概率
self.predict = tf.argmax(fc, 1)
self.acc = tf.reduce_mean(tf.cast(tf.equal(self.predict, self.y), tf.float32))
self.train_op = tf.train.AdamOptimizer(LEARNING_RATE).minimize(self.loss)
self.saver = tf.train.Saver(max_to_keep=1)

最后的saver是要將訓(xùn)練好的模型保存到本地帅掘。

四. 模型的訓(xùn)練和測試

然后編寫訓(xùn)練部分的代碼委煤,訓(xùn)練步驟為1萬步

acc_list = []
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())

    for i in range(TRAIN_STEP):
        train_data, train_label, _ = self.batch_train_data.next_batch(TRAIN_SIZE)

        eval_ops = [self.loss, self.acc, self.train_op]
        eval_ops_results = sess.run(eval_ops, feed_dict={
            self.x:train_data,
            self.y:train_label,
            self.keep_prob:0.7
        })
        loss_val, train_acc = eval_ops_results[0:2]

        acc_list.append(train_acc)
        if (i+1) % 100 == 0:
            acc_mean = np.mean(acc_list)
            print('step:{0},loss:{1:.5},acc:{2:.5},acc_mean:{3:.5}'.format(
                i+1,loss_val,train_acc,acc_mean
            ))
        if (i+1) % 1000 == 0:
            test_acc_list = []
            for j in range(TEST_STEP):
                test_data, test_label, _ = self.batch_test_data.next_batch(TRAIN_SIZE)
                acc_val = sess.run([self.acc],feed_dict={
                    self.x:test_data,
                    self.y:test_label,
                    self.keep_prob:1.0
            })
            test_acc_list.append(acc_val)
            print('[Test ] step:{0}, mean_acc:{1:.5}'.format(
                i+1, np.mean(test_acc_list)
            ))
    # 保存訓(xùn)練后的模型
    os.makedirs(SAVE_PATH, exist_ok=True)
    self.saver.save(sess, SAVE_PATH + 'my_model.ckpt')

訓(xùn)練結(jié)果如下



訓(xùn)練1萬步后模型測試的平均準確率有0.82。

五. 識別和分類

最后修档,使用自己訓(xùn)練好的模型素标,把官網(wǎng)的測試圖片(共12500張)識別后進行分類,并將分類后的圖片分別寫入到兩個文件夾中萍悴,結(jié)果如下

分類為狗的圖片

分類為貓的圖片

可以看出头遭,分類之后還有少數(shù)分類不對的結(jié)果⊙⒂眨看來模型還有待提升计维,還可以調(diào)整網(wǎng)絡(luò)參數(shù)、調(diào)整學(xué)習率和學(xué)習步數(shù)撕予、使用圖像增強等技術(shù)對模型識別準確率進行提高鲫惶。

搞了一番,手和腳也有些累了实抡。是時候擼擼貓繼續(xù)閑魚了欠母。。

-----------------------------分割線------------------------------------

另外又寫了一篇tensorflow的圖像分類筆記吆寨,歡迎觀摩:
http://www.reibang.com/p/6bf4657ccd8e

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末赏淌,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子啄清,更是在濱河造成了極大的恐慌六水,老刑警劉巖,帶你破解...
    沈念sama閱讀 217,542評論 6 504
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件辣卒,死亡現(xiàn)場離奇詭異掷贾,居然都是意外死亡,警方通過查閱死者的電腦和手機荣茫,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,822評論 3 394
  • 文/潘曉璐 我一進店門想帅,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人啡莉,你說我怎么就攤上這事港准≡饕遥” “怎么了?”我有些...
    開封第一講書人閱讀 163,912評論 0 354
  • 文/不壞的土叔 我叫張陵叉趣,是天一觀的道長。 經(jīng)常有香客問我该押,道長疗杉,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,449評論 1 293
  • 正文 為了忘掉前任蚕礼,我火速辦了婚禮烟具,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘奠蹬。我一直安慰自己朝聋,他們只是感情好,可當我...
    茶點故事閱讀 67,500評論 6 392
  • 文/花漫 我一把揭開白布囤躁。 她就那樣靜靜地躺著冀痕,像睡著了一般。 火紅的嫁衣襯著肌膚如雪狸演。 梳的紋絲不亂的頭發(fā)上言蛇,一...
    開封第一講書人閱讀 51,370評論 1 302
  • 那天,我揣著相機與錄音宵距,去河邊找鬼腊尚。 笑死,一個胖子當著我的面吹牛满哪,可吹牛的內(nèi)容都是我干的婿斥。 我是一名探鬼主播,決...
    沈念sama閱讀 40,193評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼哨鸭,長吁一口氣:“原來是場噩夢啊……” “哼民宿!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起像鸡,我...
    開封第一講書人閱讀 39,074評論 0 276
  • 序言:老撾萬榮一對情侶失蹤勘高,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后坟桅,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體华望,經(jīng)...
    沈念sama閱讀 45,505評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,722評論 3 335
  • 正文 我和宋清朗相戀三年仅乓,在試婚紗的時候發(fā)現(xiàn)自己被綠了赖舟。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 39,841評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡夸楣,死狀恐怖宾抓,靈堂內(nèi)的尸體忽然破棺而出子漩,到底是詐尸還是另有隱情,我是刑警寧澤石洗,帶...
    沈念sama閱讀 35,569評論 5 345
  • 正文 年R本政府宣布幢泼,位于F島的核電站,受9級特大地震影響讲衫,放射性物質(zhì)發(fā)生泄漏缕棵。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 41,168評論 3 328
  • 文/蒙蒙 一涉兽、第九天 我趴在偏房一處隱蔽的房頂上張望招驴。 院中可真熱鬧,春花似錦枷畏、人聲如沸别厘。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,783評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽触趴。三九已至,卻和暖如春渴肉,著一層夾襖步出監(jiān)牢的瞬間雕蔽,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,918評論 1 269
  • 我被黑心中介騙來泰國打工宾娜, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留批狐,地道東北人。 一個月前我還...
    沈念sama閱讀 47,962評論 2 370
  • 正文 我出身青樓前塔,卻偏偏與公主長得像嚣艇,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子华弓,可洞房花燭夜當晚...
    茶點故事閱讀 44,781評論 2 354

推薦閱讀更多精彩內(nèi)容