【Keras】Keras入門(mén)指南

參考資料

Keras框架介紹

在用了一段時(shí)間的Keras后感覺(jué)真的很爽,所以特意祭出此文與我們公眾號(hào)的粉絲分享再愈。
Keras是一個(gè)非常方便的深度學(xué)習(xí)框架禁添,它以TensorFlow或Theano為后端僚碎。用它可以快速地搭建深度網(wǎng)絡(luò)笔横,靈活地選取訓(xùn)練參數(shù)來(lái)進(jìn)行網(wǎng)路訓(xùn)練《允。總之就是:靈活+快速惑淳!

安裝Keras

首先你需要有一個(gè)Python開(kāi)發(fā)環(huán)境,直接點(diǎn)就用Anaconda御铃,然后在CMD命令行中安裝:

# GPU 版本
>>> pip install --upgrade tensorflow-gpu

# CPU 版本
>>> pip install --upgrade tensorflow

# Keras 安裝
>>> pip install keras -U --pre

第一個(gè)例子:回歸模型

首先我們?cè)贙eras中定義一個(gè)單層全連接網(wǎng)絡(luò)碴里,進(jìn)行線性回歸模型的訓(xùn)練:

# Regressor example
# Code: https://github.com/keloli/KerasPractise/edit/master/Regressor.py

import numpy as np
np.random.seed(1337)  
from keras.models import Sequential 
from keras.layers import Dense
import matplotlib.pyplot as plt

# 創(chuàng)建數(shù)據(jù)集
X = np.linspace(-1, 1, 200)
np.random.shuffle(X)    # 將數(shù)據(jù)集隨機(jī)化
Y = 0.5 * X + 2 + np.random.normal(0, 0.05, (200, )) # 假設(shè)我們真實(shí)模型為:Y=0.5X+2
# 繪制數(shù)據(jù)集plt.scatter(X, Y)
plt.show()

X_train, Y_train = X[:160], Y[:160]     # 把前160個(gè)數(shù)據(jù)放到訓(xùn)練集
X_test, Y_test = X[160:], Y[160:]       # 把后40個(gè)點(diǎn)放到測(cè)試集

# 定義一個(gè)model,
model = Sequential () # Keras有兩種類型的模型上真,序貫?zāi)P停⊿equential)和函數(shù)式模型
                      # 比較常用的是Sequential咬腋,它是單輸入單輸出的
model.add(Dense(output_dim=1, input_dim=1)) # 通過(guò)add()方法一層層添加模型
                                            # Dense是全連接層,第一層需要定義輸入睡互,
                                            # 第二層無(wú)需指定輸入根竿,一般第二層把第一層的輸出作為輸入

# 定義完模型就需要訓(xùn)練了,不過(guò)訓(xùn)練之前我們需要指定一些訓(xùn)練參數(shù)
# 通過(guò)compile()方法選擇損失函數(shù)和優(yōu)化器
# 這里我們用均方誤差作為損失函數(shù)就珠,隨機(jī)梯度下降作為優(yōu)化方法
model.compile(loss='mse', optimizer='sgd')

# 開(kāi)始訓(xùn)練
print('Training -----------')
for step in range(301):
    cost = model.train_on_batch(X_train, Y_train) # Keras有很多開(kāi)始訓(xùn)練的函數(shù)寇壳,這里用train_on_batch()
    if step % 100 == 0:
        print('train cost: ', cost)

# 測(cè)試訓(xùn)練好的模型
print('\nTesting ------------')
cost = model.evaluate(X_test, Y_test, batch_size=40)
print('test cost:', cost)
W, b = model.layers[0].get_weights()    # 查看訓(xùn)練出的網(wǎng)絡(luò)參數(shù)
                                        # 由于我們網(wǎng)絡(luò)只有一層,且每次訓(xùn)練的輸入只有一個(gè)妻怎,輸出只有一個(gè)
                                        # 因此第一層訓(xùn)練出Y=WX+B這個(gè)模型壳炎,其中W,b為訓(xùn)練出的參數(shù)
print('Weights=', W, '\nbiases=', b)

# plotting the prediction
Y_pred = model.predict(X_test)
plt.scatter(X_test, Y_test)
plt.plot(X_test, Y_pred)
plt.show()

訓(xùn)練結(jié)果:
最終的測(cè)試cost為:0.00313670327887,可視化結(jié)果如下圖:


回歸模型訓(xùn)練結(jié)果

第二個(gè)例子:手寫(xiě)數(shù)字識(shí)別

MNIST數(shù)據(jù)集可以說(shuō)是在業(yè)內(nèi)被搞過(guò)次數(shù)最多的數(shù)據(jù)集了蹂季,畢竟各個(gè)框架的“hello world”都用它冕广。這里我們也簡(jiǎn)單說(shuō)一下在Keras下如何訓(xùn)練這個(gè)數(shù)據(jù)集:

# _*_ coding: utf-8 _*_
# Classifier mnist

import numpy as np
np.random.seed(1337)  
from keras.datasets import mnist
from keras.utils import np_utils
from keras.models import Sequential
from keras.layers import Dense, Activation
from keras.optimizers import RMSprop

# 下載數(shù)據(jù)集
(X_train, y_train), (X_test, y_test) = mnist.load_data()

# 數(shù)據(jù)預(yù)處處理
X_train = X_train.reshape(X_train.shape[0], -1) / 255. 
X_test = X_test.reshape(X_test.shape[0], -1) / 255.  
y_train = np_utils.to_categorical(y_train, num_classes=10)
y_test = np_utils.to_categorical(y_test, num_classes=10)

# 不使用model.add(),用以下方式也可以構(gòu)建網(wǎng)絡(luò)
model = Sequential([
    Dense(400, input_dim=784),
    Activation('relu'),
    Dense(10),
    Activation('softmax'),
])

# 定義優(yōu)化器
rmsprop = RMSprop(lr=0.001, rho=0.9, epsilon=1e-08, decay=0.0)
model.compile(optimizer=rmsprop,
              loss='categorical_crossentropy',
              metrics=['accuracy']) # metrics賦值為'accuracy'偿洁,會(huì)在訓(xùn)練過(guò)程中輸出正確率

# 這次我們用fit()來(lái)訓(xùn)練網(wǎng)路
print('Training ------------')
model.fit(X_train, y_train, epochs=4, batch_size=32)

print('\nTesting ------------')
# 評(píng)價(jià)訓(xùn)練出的網(wǎng)絡(luò)
loss, accuracy = model.evaluate(X_test, y_test)

print('test loss: ', loss)
print('test accuracy: ', accuracy)
    

簡(jiǎn)單訓(xùn)練后得到:test loss: 0.0970609934615撒汉,test accuracy: 0.9743

第三個(gè)例子:加經(jīng)典網(wǎng)絡(luò)的預(yù)訓(xùn)練模型(以VGG16為例)

預(yù)訓(xùn)練模型Application
https://gist.github.com/baraldilorenzo/07d7802847aaad0a35d3
https://github.com/keras-team/keras/issues/4465
https://stackoverflow.com/questions/43386463/keras-vgg16-fine-tuning
1.當(dāng)服務(wù)器不能聯(lián)網(wǎng)時(shí),需要把模型*.h5文件下載到用戶目錄下的~/.keras/model涕滋,模型的預(yù)訓(xùn)練權(quán)重在載入模型時(shí)自動(dòng)載入

  1. 通過(guò)以下代碼加載VGG16:
# 使用VGG16模型
from keras.applications.vgg16 import VGG16
print('Start build VGG16 -------')

# 獲取vgg16的卷積部分睬辐,如果要獲取整個(gè)vgg16網(wǎng)絡(luò)需要設(shè)置:include_top=True
model_vgg16_conv = VGG16(weights='imagenet', include_top=False)
model_vgg16_conv.summary()

# 創(chuàng)建自己的輸入格式
# if K.image_data_format() == 'channels_first':
#   input_shape = (3, img_width, img_height)
# else:
#   input_shape = (img_width, img_height, 3)

input = Input(input_shape, name = 'image_input') # 注意,Keras有個(gè)層就是Input層

# 將vgg16模型原始輸入轉(zhuǎn)換成自己的輸入
output_vgg16_conv = model_vgg16_conv(input)

# output_vgg16_conv是包含了vgg16的卷積層宾肺,下面我需要做二分類任務(wù)溯饵,所以需要添加自己的全連接層
x = Flatten(name='flatten')(output_vgg16_conv)
x = Dense(4096, activation='relu', name='fc1')(x)
x = Dense(512, activation='relu', name='fc2')(x)
x = Dense(128, activation='relu', name='fc3')(x)
x = Dense(1, activation='softmax', name='predictions')(x)

# 最終創(chuàng)建出自己的vgg16模型
my_model = Model(input=input, output=x)

# 下面的模型輸出中,vgg16的層和參數(shù)不會(huì)顯示出锨用,但是這些參數(shù)在訓(xùn)練的時(shí)候會(huì)更改
print('\nThis is my vgg16 model for the task')
my_model.summary()

其他Keras使用細(xì)節(jié)

指定占用的GPU以及多GPU并行

參考:

from model import unet
G = 3 # 同時(shí)使用3個(gè)GPU
with tf.device("/cpu:0"):
        M = unet(input_rows, input_cols, 1)
model = keras.utils.training_utils.multi_gpu_model(M, gpus=G)
model.compile(optimizer=Adam(lr=1e-5), loss='binary_crossentropy', metrics = ['accuracy'])

model.fit(X_train, y_train,
              batch_size=batch_size*G, epochs=nb_epoch, verbose=0, shuffle=True,
              validation_data=(X_valid, y_valid))

model.save_weights('/path/to/save/model.h5')

查看網(wǎng)絡(luò)結(jié)構(gòu)的命令

  • 查看搭建的網(wǎng)絡(luò)
    print (model.summary())
    

效果如圖:
查看搭建的網(wǎng)絡(luò)
  • 保存網(wǎng)絡(luò)結(jié)構(gòu)圖
    # 你還可以用plot_model()來(lái)講網(wǎng)絡(luò)保存為圖片
    plot_model(my_model, to_file='my_vgg16_model.png')
    

訓(xùn)練集與測(cè)試集圖像的處理:

from keras.preprocessing.image import ImageDataGenerator
print('Lodaing data -----------')
train_datagen=ImageDataGenerator()
test_datagen=ImageDataGenerator()

寫(xiě)在最后

本文介紹了一個(gè)靈活快速的深度學(xué)習(xí)框架,并且通過(guò)三個(gè)例子講解了如何利用Keras搭建深度網(wǎng)絡(luò)進(jìn)行訓(xùn)練增拥、如何使用預(yù)訓(xùn)練模型啄巧,還介紹了在使用Keras訓(xùn)練網(wǎng)絡(luò)中的一些tricks寻歧。
最后,祝各位煉丹師玩的愉快~

PS:
歡迎follow我的GitHub:https://github.com/keloli
還有我的博客:http://www.reibang.com/u/d055ee434e59

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末秩仆,一起剝皮案震驚了整個(gè)濱河市码泛,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌澄耍,老刑警劉巖噪珊,帶你破解...
    沈念sama閱讀 218,755評(píng)論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異齐莲,居然都是意外死亡痢站,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,305評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門(mén)铅搓,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)瑟押,“玉大人,你說(shuō)我怎么就攤上這事星掰《嗤” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 165,138評(píng)論 0 355
  • 文/不壞的土叔 我叫張陵氢烘,是天一觀的道長(zhǎng)怀偷。 經(jīng)常有香客問(wèn)我,道長(zhǎng)播玖,這世上最難降的妖魔是什么椎工? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,791評(píng)論 1 295
  • 正文 為了忘掉前任,我火速辦了婚禮蜀踏,結(jié)果婚禮上维蒙,老公的妹妹穿的比我還像新娘。我一直安慰自己果覆,他們只是感情好颅痊,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,794評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著局待,像睡著了一般斑响。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上钳榨,一...
    開(kāi)封第一講書(shū)人閱讀 51,631評(píng)論 1 305
  • 那天舰罚,我揣著相機(jī)與錄音,去河邊找鬼薛耻。 笑死营罢,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的饼齿。 我是一名探鬼主播愤钾,決...
    沈念sama閱讀 40,362評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼瘟滨,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了能颁?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 39,264評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤倒淫,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體茄蚯,經(jīng)...
    沈念sama閱讀 45,724評(píng)論 1 315
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡茂浮,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,900評(píng)論 3 336
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了返干。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片兴枯。...
    茶點(diǎn)故事閱讀 40,040評(píng)論 1 350
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖矩欠,靈堂內(nèi)的尸體忽然破棺而出财剖,到底是詐尸還是另有隱情,我是刑警寧澤癌淮,帶...
    沈念sama閱讀 35,742評(píng)論 5 346
  • 正文 年R本政府宣布躺坟,位于F島的核電站,受9級(jí)特大地震影響乳蓄,放射性物質(zhì)發(fā)生泄漏咪橙。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,364評(píng)論 3 330
  • 文/蒙蒙 一虚倒、第九天 我趴在偏房一處隱蔽的房頂上張望美侦。 院中可真熱鬧,春花似錦魂奥、人聲如沸菠剩。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,944評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)赠叼。三九已至,卻和暖如春违霞,著一層夾襖步出監(jiān)牢的瞬間嘴办,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,060評(píng)論 1 270
  • 我被黑心中介騙來(lái)泰國(guó)打工买鸽, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留涧郊,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 48,247評(píng)論 3 371
  • 正文 我出身青樓眼五,卻偏偏與公主長(zhǎng)得像妆艘,于是被迫代替她去往敵國(guó)和親彤灶。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,979評(píng)論 2 355