1 tf.truncated_normal()
tf.truncated_normal(shape, mean, stddev)
shape表示生成張量的維度题翰,mean是均值,stddev是標(biāo)準(zhǔn)差。
這個(gè)函數(shù)產(chǎn)生正態(tài)分布,均值和標(biāo)準(zhǔn)差自己設(shè)定。這是一個(gè)截?cái)嗟?truncated)產(chǎn)生正態(tài)分布的函數(shù)庭敦。
舉例,當(dāng)輸入?yún)?shù)mean = 0 薪缆, stddev =1時(shí)秧廉,
使用tf.truncated_normal的輸出是不可能出現(xiàn)[-2,2]以外的點(diǎn)的,
而如果shape夠大的話拣帽,tf.random_normal卻會(huì)產(chǎn)生2.2或者2.4之類的輸出疼电。
2 tf.Variable()
tf.Variable(initializer,name),參數(shù)initializer是初始化參數(shù),name是可自定義的變量名稱.
import tensorflow as tf
v1=tf.Variable(tf.random_normal(shape=[4,3],mean=0,stddev=1),name='v1')
v2=tf.Variable(tf.constant(2),name='v2')
v3=tf.Variable(tf.ones([4,3]),name='v3')
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
print(sess.run(v1))
print(sess.run(v2))
print(sess.run(v3))
##################################
結(jié)果為:
[[-1.2115501 1.0484737 0.55210656]
[-1.5301195 0.9060654 -2.6766613 ]
[ 0.27101386 -0.32336152 0.44544214]
[-0.0120788 -0.3409422 -0.48505628]]
2
[[1. 1. 1.]
[1. 1. 1.]
[1. 1. 1.]
[1. 1. 1.]]
3 tf中變量的定義與初始化
在TensorFlow的世界里减拭,變量的定義和初始化是分開的蔽豺,所有關(guān)于圖變量的賦值和計(jì)算都要通過tf.Session的run來進(jìn)行。想要將所有圖變量進(jìn)行集體初始化時(shí)應(yīng)該使用tf.
global_variables_initializer拧粪。
import tensorflow as tf
import numpy as np
# 生成0和1矩陣
v1 = tf.Variable(tf.zeros([3, 3, 3]), name="v1")
v2 = tf.Variable(tf.ones([10, 5]), name="v2")
# 填充單值矩陣
v3 = tf.Variable(tf.fill([2, 3], 9))
# 常量矩陣
v4_1 = tf.constant([1, 2, 3, 4, 5, 6, 7])
v4_2 = tf.constant(-1.0, shape=[2, 3])
# 生成等差數(shù)列
v6_1 = tf.linspace(10.0, 12.0, 30, name="linspace") # float32 or float64
v7_1 = tf.range(10, 20, 3) # just int32
# 生成各種隨機(jī)數(shù)據(jù)矩陣
v8_1 = tf.Variable(tf.random_uniform([2, 4], minval=0.0,
maxval=2.0, dtype=tf.float32, seed=1234, name="v8_1"))#均勻分布
v8_2 = tf.Variable(tf.random_normal([2, 3], mean=0.0,
stddev=1.0, dtype=tf.float32, seed=1234, name="v8_2"))#隨機(jī)正態(tài)分布
v8_3 = tf.Variable(tf.truncated_normal([2, 3], mean=0.0,
stddev=1.0, dtype=tf.float32, seed=1234, name="v8_3"))#截?cái)嗾龖B(tài)分布
v8_4 = tf.Variable(tf.random_uniform([2, 3], minval=0.0,
maxval=1.0, dtype=tf.float32, seed=1234, name="v8_4"))
v8_5 = tf.random_shuffle([[1, 2, 3], [4, 5, 6], [6, 6, 6]], seed=134,
name="v8_5")
# 初始化
init_op = tf.initialize_all_variables()
# 保存變量修陡,也可以指定保存的內(nèi)容
saver = tf.train.Saver()
# saver = tf.train.Saver({"my_v2": v2})
# 運(yùn)行
with tf.Session() as sess:
sess.run(init_op)
# 輸出形狀和值
print(tf.Variable.get_shape(v1))# shape
print(sess.run(v1))# vaule
# numpy保存文件
np.save("v1.npy", sess.run(v1)) # numpy save v1 as file
test_a = np.load("v1.npy")
print(test_a[1, 2])
# 一些輸出
print(sess.run(v3))
v5 = tf.zeros_like(sess.run(v1))
print(sess.run(v6_1))
print(sess.run(v7_1))
print(sess.run(v8_5))
# 保存圖的變量
save_path = saver.save(sess, "/tmp/model.ckpt")
# 加載圖的變量
# saver.restore(sess, "/tmp/model.ckpt")
print("Model saved in file: ", save_path)
4 tf.nn.conv2d
tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None),是TensorFlow里面實(shí)現(xiàn)卷積的函數(shù),參考文檔對(duì)它的介紹并不是很詳細(xì)可霎,實(shí)際上這是搭建卷積神經(jīng)網(wǎng)絡(luò)比較核心的一個(gè)方法魄鸦,非常重要:
除去name參數(shù)用以指定該操作的name,與方法有關(guān)的一共五個(gè)參數(shù):
第一個(gè)參數(shù)input:指需要做卷積的輸入圖像癣朗,它要求是一個(gè)Tensor拾因,具有[batch, in_height, in_width, in_channels]這樣的shape,具體含義是[訓(xùn)練時(shí)一個(gè)batch的圖片數(shù)量, 圖片高度, 圖片寬度, 圖像通道數(shù)],注意這是一個(gè)4維的Tensor绢记,要求類型為float32和float64其中之一
第二個(gè)參數(shù)filter:相當(dāng)于CNN中的卷積核扁达,它要求是一個(gè)Tensor,具有[filter_height, filter_width, in_channels, out_channels]這樣的shape蠢熄,具體含義是[卷積核的高度跪解,卷積核的寬度,圖像通道數(shù)签孔,卷積核個(gè)數(shù)]惠遏,要求類型與參數(shù)input相同,有一個(gè)地方需要注意骏啰,第三維in_channels,就是參數(shù)input的第四維
第三個(gè)參數(shù)strides:卷積時(shí)在圖像每一維的步長(zhǎng)抽高,這是一個(gè)一維的向量判耕,長(zhǎng)度4
第四個(gè)參數(shù)padding:string類型的量,只能是"SAME","VALID"其中之一翘骂,這個(gè)值決定了不同的卷積方式(后面會(huì)介紹)
第五個(gè)參數(shù):use_cudnn_on_gpu:bool類型壁熄,是否使用cudnn加速,默認(rèn)為true
結(jié)果返回一個(gè)Tensor碳竟,這個(gè)輸出草丧,就是我們常說的feature map,shape仍然是[batch, height, width, channels]這種形式莹桅。