04

1接谨、數(shù)據(jù)來源于yale大學(xué)
2摆碉、準(zhǔn)備訓(xùn)練標(biāo)簽,訓(xùn)練數(shù)據(jù)
3脓豪、搭載神經(jīng)網(wǎng)絡(luò)
4巷帝、開始檢測

一、圖片讀取

# 1 數(shù)據(jù)yale 2 準(zhǔn)備train label-》train 
# 3 cnn 4 檢測
import tensorflow as tf
import numpy as np
import scipy.io as sio

f = open('Yale_64x64.mat','rb')
mdict = sio.loadmat(f)    #加載數(shù)據(jù)扫夜,讀取是一個(gè)字典
# fea gnd
train_data = mdict['fea']    #讀取數(shù)據(jù)的鍵
train_label = mdict['gnd']  #讀取數(shù)據(jù)的值

train_data = np.random.permutation(train_data)  #對原有數(shù)據(jù)進(jìn)行無序排列
train_label = np.random.permutation(train_label)
test_data = train_data[0:64]   #隨機(jī)抽取一部分?jǐn)?shù)據(jù)作為訓(xùn)練數(shù)據(jù)
test_label = train_label[0:64]
np.random.seed(100)    #重新生產(chǎn)隨機(jī)數(shù)種子
test_data = np.random.permutation(test_data)  #進(jìn)行無序排列
np.random.seed(100)
test_label = np.random.permutation(test_label)

二楞泼、圖片處理


#讀取的數(shù)據(jù)是64*64驰徊,rgb:0-255  需要對其歸一化處理,變成灰度圖堕阔,1表示灰色通道
# train [0-9] [10*N] [15*N]  [0 0 1 0 0 0 0 0 0 0] -> 2
train_data = train_data.reshape(train_data.shape[0],64,64,1).astype(np.float32)/255
train_labels_new = np.zeros((165,15))# 165 image 15  (yale數(shù)據(jù)庫共165張圖辣垒,分別描述15人)
for i in range(0,165):  #與用[0 0 1 0 0 0 0 0 0 0] 來代表數(shù)字2類似
    j = int(train_label[i,0])-1 # 之前是1-15進(jìn)行標(biāo)志,現(xiàn)轉(zhuǎn)為 0-14印蔬,所以-1 
    train_labels_new[i,j] = 1   #識別到誰产还,就將誰設(shè)置誰的下標(biāo)為1

#下面完成測試數(shù)據(jù)的處理
test_data_input = test_data.reshape(test_data.shape[0],64,64,1).astype(np.float32)/255
test_labels_input = np.zeros((64,15))# 64 image 15  前面抽取了64張圖片作為測試圖片戚嗅,所以寫64
for i in range(0,64):  #遍歷圖片状您,識別后把相應(yīng)的下標(biāo)置1
    j = int(test_label[i,0])-1 # 1-15 0-14 
    test_labels_input[i,j] = 1

三撩幽、構(gòu)建神經(jīng)網(wǎng)絡(luò)

# cnn acc  tf.nn tf.layer
data_input = tf.placeholder(tf.float32,[None,64,64,1])
label_input = tf.placeholder(tf.float32,[None,15])
#卷積(輸入數(shù)據(jù),濾波核設(shè)置為32退唠,卷積核大小鹃锈,滑動(dòng)步長1,'SAME'邊緣停留瞧预,激活函數(shù)relu)
layer1 = tf.layers.conv2d(inputs=data_input,filters=32,kernel_size=2,strides=1,padding='SAME',activation=tf.nn.relu)
#池化屎债,數(shù)據(jù)減維,留下最大值垢油; 最大值池化(輸入數(shù)據(jù)盆驹,數(shù)據(jù)行列均減少1半,滑動(dòng)步長)
layer1_pool = tf.layers.max_pooling2d(layer1,pool_size=2,strides=2)

#輸出層滩愁,激勵(lì)層(激勵(lì)函數(shù)relu)
layer2 = tf.reshape(layer1_pool,[-1,32*32*32])  
layer2_relu = tf.layers.dense(layer2,1024,tf.nn.relu)
output = tf.layers.dense(layer2_relu,15)  #輸出躯喇,15維,因?yàn)橐还?5人

#定義損失函數(shù)硝枉,采用交叉熵和梯度下降法(下降步長0.01)并最小化損失函數(shù)
loss = tf.losses.softmax_cross_entropy(onehot_labels=label_input,logits=output)
train = tf.train.GradientDescentOptimizer(0.01).minimize(loss)
#檢測概率 axis=1:表示維度為1
accuracy = tf.metrics.accuracy(labels=tf.argmax(label_input,axis=1),predictions=tf.argmax(output,axis=1))[1]

四廉丽、完整代碼

# 1 數(shù)據(jù)yale 2 準(zhǔn)備train label-》train 
# 3 cnn 4 檢測
import tensorflow as tf
import numpy as np
import scipy.io as sio

f = open('Yale_64x64.mat','rb')
mdict = sio.loadmat(f)    #加載數(shù)據(jù),讀取是一個(gè)字典
# fea gnd
train_data = mdict['fea']    #讀取數(shù)據(jù)的鍵
train_label = mdict['gnd']  #讀取數(shù)據(jù)的值

train_data = np.random.permutation(train_data)  #對原有數(shù)據(jù)進(jìn)行無序排列
train_label = np.random.permutation(train_label)
test_data = train_data[0:64]   #隨機(jī)抽取一部分?jǐn)?shù)據(jù)作為訓(xùn)練數(shù)據(jù)
test_label = train_label[0:64]
np.random.seed(100)    #重新生產(chǎn)隨機(jī)數(shù)種子
test_data = np.random.permutation(test_data)  #進(jìn)行無序排列
np.random.seed(100)  
test_label = np.random.permutation(test_label)

#讀取的數(shù)據(jù)是64*64妻味,rgb:0-255  需要對其歸一化處理正压,變成灰度圖,1表示灰色通道
# train [0-9] [10*N] [15*N]  [0 0 1 0 0 0 0 0 0 0] -> 2
train_data = train_data.reshape(train_data.shape[0],64,64,1).astype(np.float32)/255
train_labels_new = np.zeros((165,15))# 165 image 15  (yale數(shù)據(jù)庫共165張圖责球,分別描述15人)
for i in range(0,165):  #與用[0 0 1 0 0 0 0 0 0 0] 來代表數(shù)字2類似
    j = int(train_label[i,0])-1 # 之前是1-15進(jìn)行標(biāo)志焦履,現(xiàn)轉(zhuǎn)為 0-14,所以-1 
    train_labels_new[i,j] = 1   #識別到誰棕诵,就將誰設(shè)置誰的下標(biāo)為1

#下面完成測試數(shù)據(jù)的處理
test_data_input = test_data.reshape(test_data.shape[0],64,64,1).astype(np.float32)/255
test_labels_input = np.zeros((64,15))# 64 image 15  前面抽取了64張圖片作為測試圖片裁良,所以寫64
for i in range(0,64):  #遍歷圖片,識別后把相應(yīng)的下標(biāo)置1
    j = int(test_label[i,0])-1 # 1-15 0-14 
    test_labels_input[i,j] = 1
    

# cnn acc  tf.nn tf.layer
data_input = tf.placeholder(tf.float32,[None,64,64,1])
label_input = tf.placeholder(tf.float32,[None,15])
#卷積(輸入數(shù)據(jù)校套,濾波核設(shè)置為32,卷積核大小牧抵,滑動(dòng)步長1笛匙,'SAME'邊緣停留侨把,激活函數(shù)relu)
layer1 = tf.layers.conv2d(inputs=data_input,filters=32,kernel_size=2,strides=1,padding='SAME',activation=tf.nn.relu)
#池化,數(shù)據(jù)減維妹孙,留下最大值秋柄; 最大值池化(輸入數(shù)據(jù),數(shù)據(jù)行列均減少1半蠢正,滑動(dòng)步長)
layer1_pool = tf.layers.max_pooling2d(layer1,pool_size=2,strides=2)

#輸出層骇笔,激勵(lì)層(激勵(lì)函數(shù)relu)
layer2 = tf.reshape(layer1_pool,[-1,32*32*32])  
layer2_relu = tf.layers.dense(layer2,1024,tf.nn.relu)
output = tf.layers.dense(layer2_relu,15)  #輸出,15維嚣崭,因?yàn)橐还?5人

#定義損失函數(shù)笨触,采用交叉熵和梯度下降法(下降步長0.01)并最小化損失函數(shù)
loss = tf.losses.softmax_cross_entropy(onehot_labels=label_input,logits=output)
train = tf.train.GradientDescentOptimizer(0.01).minimize(loss)
#檢測概率 axis=1:表示維度為1
accuracy = tf.metrics.accuracy(labels=tf.argmax(label_input,axis=1),predictions=tf.argmax(output,axis=1))[1]

# run acc 初始化所有變量
init = tf.group(tf.global_variables_initializer(),tf.local_variables_initializer())
with tf.Session() as sess:
    sess.run(init)
    for i in range(0,200):
        train_data_input = np.array(train_data)
        train_label_input = np.array(train_labels_new)
        sess.run([train,loss],feed_dict={data_input:train_data_input,label_input:train_label_input})
        acc = sess.run(accuracy,feed_dict={data_input:test_data_input,label_input:test_labels_input})
        print('acc:%.2f',acc)
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市雹舀,隨后出現(xiàn)的幾起案子芦劣,更是在濱河造成了極大的恐慌,老刑警劉巖说榆,帶你破解...
    沈念sama閱讀 219,188評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件虚吟,死亡現(xiàn)場離奇詭異,居然都是意外死亡签财,警方通過查閱死者的電腦和手機(jī)串慰,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,464評論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來唱蒸,“玉大人模庐,你說我怎么就攤上這事∮鸵耍” “怎么了掂碱?”我有些...
    開封第一講書人閱讀 165,562評論 0 356
  • 文/不壞的土叔 我叫張陵,是天一觀的道長慎冤。 經(jīng)常有香客問我疼燥,道長,這世上最難降的妖魔是什么蚁堤? 我笑而不...
    開封第一講書人閱讀 58,893評論 1 295
  • 正文 為了忘掉前任醉者,我火速辦了婚禮,結(jié)果婚禮上披诗,老公的妹妹穿的比我還像新娘撬即。我一直安慰自己,他們只是感情好呈队,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,917評論 6 392
  • 文/花漫 我一把揭開白布剥槐。 她就那樣靜靜地躺著,像睡著了一般宪摧。 火紅的嫁衣襯著肌膚如雪粒竖。 梳的紋絲不亂的頭發(fā)上颅崩,一...
    開封第一講書人閱讀 51,708評論 1 305
  • 那天,我揣著相機(jī)與錄音蕊苗,去河邊找鬼沿后。 笑死,一個(gè)胖子當(dāng)著我的面吹牛朽砰,可吹牛的內(nèi)容都是我干的尖滚。 我是一名探鬼主播,決...
    沈念sama閱讀 40,430評論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼瞧柔,長吁一口氣:“原來是場噩夢啊……” “哼漆弄!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起非剃,我...
    開封第一講書人閱讀 39,342評論 0 276
  • 序言:老撾萬榮一對情侶失蹤置逻,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后备绽,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體券坞,經(jīng)...
    沈念sama閱讀 45,801評論 1 317
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,976評論 3 337
  • 正文 我和宋清朗相戀三年肺素,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了恨锚。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,115評論 1 351
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡倍靡,死狀恐怖猴伶,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情塌西,我是刑警寧澤他挎,帶...
    沈念sama閱讀 35,804評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站捡需,受9級特大地震影響办桨,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜站辉,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,458評論 3 331
  • 文/蒙蒙 一呢撞、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧饰剥,春花似錦殊霞、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,008評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至古沥,卻和暖如春瘸右,著一層夾襖步出監(jiān)牢的瞬間娇跟,已是汗流浹背岩齿。 一陣腳步聲響...
    開封第一講書人閱讀 33,135評論 1 272
  • 我被黑心中介騙來泰國打工太颤, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人盹沈。 一個(gè)月前我還...
    沈念sama閱讀 48,365評論 3 373
  • 正文 我出身青樓龄章,卻偏偏與公主長得像,于是被迫代替她去往敵國和親乞封。 傳聞我的和親對象是個(gè)殘疾皇子做裙,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,055評論 2 355

推薦閱讀更多精彩內(nèi)容