學(xué)習(xí)機(jī)器學(xué)習(xí)的朋友蜓斧,很多人應(yīng)該已經(jīng)跟著google的幫助手冊(cè)進(jìn)行了ml模型的搭建和訓(xùn)練扣溺,keras提供的高級(jí)API都是高度封裝化的团甲,初學(xué)者使用時(shí),只是簡(jiǎn)單的調(diào)用幾個(gè)函數(shù)祥诽,就可以完成模型訓(xùn)練了譬圣。我在學(xué)習(xí)過程中,就感覺到總是隔層紗的感覺雄坪,我認(rèn)為初學(xué)時(shí)沒有必要一定要用多么復(fù)雜龐大的數(shù)據(jù)集厘熟,所以這里采用自己創(chuàng)建的極簡(jiǎn)數(shù)據(jù)集,進(jìn)行模型的搭建维哈,不斷調(diào)試和進(jìn)行各種測(cè)試绳姨,這種收獲感比直接調(diào)用現(xiàn)成數(shù)據(jù)集更強(qiáng)烈,可以作為初學(xué)者進(jìn)步的一級(jí)階梯阔挠。模型中會(huì)有很多不完善的地方飘庄,這里只是重在體驗(yàn)。
本文中將搭建兩個(gè)keras模型谒亦,分別實(shí)現(xiàn)兩個(gè)機(jī)器學(xué)習(xí)的經(jīng)典功能:回歸和分類竭宰。
首先使用簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)擬合一次函數(shù)y=2x+6
import tensorflow as tf
import numpy as np
# 原始數(shù)據(jù)
train_data = np.array([[0,6],[1,8],[2,10],[3,12]])
test_data = np.array([[10,26],[15,36]])
# 訓(xùn)練集
x_train = train_data[:,0]
y_train = train_data[:,1]
# 測(cè)試集
x_test = test_data[:,0]
y_test = test_data[:,1]
# 模型創(chuàng)建
# 由于擬合線性函數(shù),不涉及非線性份招,這里激活函數(shù)選擇linear
model = tf.keras.models.Sequential([
? ? tf.keras.layers.Dense(1,activation='linear',input_dim=1),
? ? tf.keras.layers.Dense(5,activation='linear'),
? ? tf.keras.layers.Dense(1,activation='linear')
])
# 模型編譯
model.compile(optimizer='sgd',loss='mean_squared_error',metrics=['accuracy'])
# 模型訓(xùn)練
model.fit(x_train,y_train,epochs=10)
# 這里進(jìn)行100輪訓(xùn)練切揭,給出最后3輪的結(jié)果
Epoch 98/100
4/4 [==============================] - 0s 2ms/sample - loss: 4.1438e-08 - accuracy: 0.0000e+00
Epoch 99/100
4/4 [==============================] - 0s 500us/sample - loss: 3.5921e-08 - accuracy: 0.0000e+00
Epoch 100/100
4/4 [==============================] - 0s 750us/sample - loss: 3.0997e-08 - accuracy: 0.0000e+00
# 預(yù)測(cè)
model.predict([3.5])
array([[13.000215]], dtype=float32)
# 3.5*2+6=13
model.predict([1])
array([[7.999872]], dtype=float32)
# 1*2+6=8
可以看到,訓(xùn)練結(jié)果是非常準(zhǔn)確的锁摔,當(dāng)然廓旬,數(shù)據(jù)集也是沒有誤差的,哈哈。這也正印證了那句名言:數(shù)據(jù)的高度決定模型的高度孕豹。
下面進(jìn)行二分類模型的搭建
這里輸入的數(shù)據(jù)為(x,y)數(shù)據(jù)對(duì)涩盾,預(yù)測(cè)y大于還是小于x,即y點(diǎn)在y=x直線的上方或者下方励背。
下面是代碼部分:
import tensorflow as tf
import numpy as np
# 數(shù)據(jù)格式為[x,y,label]春霍,y>x時(shí)label=1,y<x時(shí)叶眉,label=0
train_data = np.array([[1,2,1],[2,3,1],[3,5,1],[4,8,1],[5,6,1],
? ? ? ? ? ? ? ? ? ? ? [1,0.5,0],[2,1,0],[3,2,0],[4,3,0],[5,4,0]])
test_data = np.array([[1.5,2,1],[2.5,4,1],
? ? ? ? ? ? ? ? ? ? ? [3.5,3,0],[4.5,6,0]])
# 獲取訓(xùn)練集和測(cè)試集數(shù)據(jù)
x_train = train_data[:,0:2]
y_train = train_data[:,2:]
x_test = test_data[:,0:2]
y_test = test_data[:,2:]
# 模型創(chuàng)建
# 這里直接參考網(wǎng)絡(luò)上的二分類模型址儒,原理以后再深入研究
model = tf.keras.models.Sequential([
? ? tf.keras.layers.Dense(10,activation='relu',input_shape=(2,)),
? ? tf.keras.layers.Dense(10,activation='relu'),
? ? tf.keras.layers.Dense(1,activation='sigmoid')
])
# 模型編譯
model.compile(optimizer=tf.keras.optimizers.RMSprop(lr=0.001), loss=tf.keras.losses.binary_crossentropy, metrics=[tf.keras.metrics.binary_accuracy])
# 模型訓(xùn)練
model.fit(x_train,y_train,epochs=100)
# 這里進(jìn)行100輪訓(xùn)練,給出最后3輪的結(jié)果
Epoch 98/100
10/10 [==============================] - 0s 601us/sample - loss: 0.4678 - binary_accuracy: 1.0000
Epoch 99/100
10/10 [==============================] - 0s 300us/sample - loss: 0.4652 - binary_accuracy: 1.0000
Epoch 100/100
10/10 [==============================] - 0s 500us/sample - loss: 0.4626 - binary_accuracy: 1.0000
# 預(yù)測(cè)
model.predict([[1.1,3]])
array([[0.62891626]], dtype=float32)
model.predict([[11,31]])
array([[1.]], dtype=float32)
模型可以正確地對(duì)數(shù)據(jù)進(jìn)行分類衅疙。
注意predict中數(shù)據(jù)需要兩個(gè)[]括號(hào)莲趣,因?yàn)閕nput_shape=(2,*)。
完成了上面兩個(gè)模型的自主搭建饱溢,對(duì)建模過程有了更深入的了解喧伞,下一步就可以拿各種公開數(shù)據(jù)集進(jìn)行更深入的學(xué)習(xí)了。