1.環(huán)境:
- windows10系統(tǒng)
- python3.5
- Nvidia顯卡(cpu版本不需要)
(建議安裝anaconda集成環(huán)境峭弟,
conda create -n py35 python=3.5 anaconda
——(安裝python3.5版本潦匈,并起名為py35临扮,activate py35
激活python3.5)
CUDA:它所作用的對象是顯卡办绝,也就是GPU蠢正,有了它驯鳖,程序開發(fā)人員就能夠編碼控制和使用GPU了迈着,cuda8
CUDNN 是CUDA Deep Neural Network library 的縮寫去枷,也就是基于CUDA的神經(jīng)網(wǎng)絡(luò)軟件包盗扇〉豢希可以類比JAVA中的JDK,也可以類比開源圖像處理工具包openCV疗隶。cudnn6
2.安裝
一鍵安裝(CPU版):
pip install --upgrade --ignore-installed tensorflow
一鍵安裝(GPU版):
pip install --upgrade --ignore-installed tensorflow-gpu
經(jīng)過考慮到gpu不是很高級佑笋,所以就該為安裝cpu版本:
成功:
3.使用tensorboard
TensorFlow自帶的一個強(qiáng)大的可視化工具
3.1用法(實例)
打開python編輯器,新建文件命名:tensorboard-demo.py,輸入下列代碼:
# -*- coding: utf-8 -*-
"""
Created on Fri Jan 19 14:56:07 2018
@author: JayMo
"""
import tensorflow as tf
import numpy as np
#輸入數(shù)據(jù)
x_data = np.linspace(-1,1,300)[:, np.newaxis]
noise = np.random.normal(0,0.05, x_data.shape)
y_data = np.square(x_data)-0.5+noise
#輸入層
with tf.name_scope('input_layer'): #輸入層斑鼻。將這兩個變量放到input_layer作用域下蒋纬,tensorboard會把他們放在一個圖形里面
xs = tf.placeholder(tf.float32, [None, 1], name = 'x_input') # xs起名x_input,會在圖形上顯示
ys = tf.placeholder(tf.float32, [None, 1], name = 'y_input') # ys起名y_input坚弱,會在圖形上顯示
#隱層
with tf.name_scope('hidden_layer'): #隱層蜀备。將隱層權(quán)重、偏置荒叶、凈輸入放在一起
with tf.name_scope('weight'): #權(quán)重
W1 = tf.Variable(tf.random_normal([1,10]))
tf.summary.histogram('hidden_layer/weight', W1)
with tf.name_scope('bias'): #偏置
b1 = tf.Variable(tf.zeros([1,10])+0.1)
tf.summary.histogram('hidden_layer/bias', b1)
with tf.name_scope('Wx_plus_b'): #凈輸入
Wx_plus_b1 = tf.matmul(xs,W1) + b1
tf.summary.histogram('hidden_layer/Wx_plus_b',Wx_plus_b1)
output1 = tf.nn.relu(Wx_plus_b1)
#輸出層
with tf.name_scope('output_layer'): #輸出層碾阁。將輸出層權(quán)重、偏置些楣、凈輸入放在一起
with tf.name_scope('weight'): #權(quán)重
W2 = tf.Variable(tf.random_normal([10,1]))
tf.summary.histogram('output_layer/weight', W2)
with tf.name_scope('bias'): #偏置
b2 = tf.Variable(tf.zeros([1,1])+0.1)
tf.summary.histogram('output_layer/bias', b2)
with tf.name_scope('Wx_plus_b'): #凈輸入
Wx_plus_b2 = tf.matmul(output1,W2) + b2
tf.summary.histogram('output_layer/Wx_plus_b',Wx_plus_b2)
output2 = Wx_plus_b2
#損失
with tf.name_scope('loss'): #損失
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys-output2),reduction_indices=[1]))
tf.summary.scalar('loss',loss)
with tf.name_scope('train'): #訓(xùn)練過程
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)
#初始化
init = tf.global_variables_initializer()
sess = tf.Session()
sess.run(init)
merged = tf.summary.merge_all() #將圖形脂凶、訓(xùn)練過程等數(shù)據(jù)合并在一起
writer = tf.summary.FileWriter('logs',sess.graph) #將訓(xùn)練日志寫入到logs文件夾下
#訓(xùn)練
for i in range(1000):
sess.run(train_step,feed_dict={xs:x_data,ys:y_data})
if(i%50==0): #每50次寫一次日志
result = sess.run(merged,feed_dict={xs:x_data,ys:y_data}) #計算需要寫入的日志數(shù)據(jù)
writer.add_summary(result,i) #將日志數(shù)據(jù)寫入文件
在文件路徑打開命令行:輸入
python tensorboard-demo.py
運(yùn)行結(jié)果:
執(zhí)行上述代碼,會在“當(dāng)前路徑/logs”目錄下生成一個events.out.tfevents.{time}.{machine-name}的文件:
啟動tensorboard
在tensorboard-demo.py
文件路徑下新打開一個命令行輸入:
tensorboard --logdir=logs
在瀏覽器打開http://localhost:6006/愁茁,即可看到:
4. 基于tensorflow的MNIST手寫數(shù)字識別
這個例子要先下載數(shù)據(jù)集蚕钦,否則運(yùn)行過程可能會鏈接失敗,下載網(wǎng)址:https://github.com/zalandoresearch/fashion-mnist
需要下載四個文件:
- train-images-idx3-ubyte.gz
- train-labels-idx1-ubyte.gz
- t10k-images-idx3-ubyte.gz
- t10k-labels-idx1-ubyte.gz
下載好這四個文件后鹅很,不用解壓嘶居。我下載是保存到F:\TensorFlow\MNIST_data
目錄。
運(yùn)行的代碼鏈接:
https://github.com/tensorflow/tensorflow/tree/master/tensorflow/examples/tutorials/mnist
[圖片上傳失敗...(image-681633-1516375599278)]
提示:
請不要用中文命名目錄促煮,中文目錄中看不到任何圖形邮屁。