????? 從前面的學(xué)習(xí)筆記中梗脾,和大家一起使用了 ?numpy ?一步一步從感知機(jī)開始到兩層網(wǎng)絡(luò)以及最后實(shí)現(xiàn)了深度神經(jīng)網(wǎng)絡(luò)的算法搭建脾歇。而后我們又討論了改善深度神經(jīng)網(wǎng)絡(luò)的基本方法,包括神經(jīng)網(wǎng)絡(luò)的正則化栓袖、參數(shù)優(yōu)化和調(diào)參等問題。這一切工作我們都是基于numpy 完成的捻浦,沒有調(diào)用任何深度學(xué)習(xí)框架隘膘。在學(xué)習(xí)深度學(xué)習(xí)的時(shí)候刀森,一開始不讓大家直接上手框架可謂良苦用心逝薪,旨在讓大家能夠跟筆者一樣隅要,一步一步通過 numpy 搭建神經(jīng)網(wǎng)絡(luò)的過程就是要讓你能夠更加深入的理解神經(jīng)網(wǎng)絡(luò)的架構(gòu)、基本原理和工作機(jī)制董济,而不是黑箱以視之步清。
????? 但學(xué)習(xí)到這個(gè)階段,你已充分理解了神經(jīng)網(wǎng)絡(luò)的工作機(jī)制虏肾,馬上就要接觸更深層次的卷積神經(jīng)網(wǎng)絡(luò)(CNN)和遞歸神經(jīng)網(wǎng)絡(luò)(RNN)廓啊,依靠純手工去搭建這些復(fù)雜的神經(jīng)網(wǎng)絡(luò)恐怕并不現(xiàn)實(shí)。這時(shí)候就該深度學(xué)習(xí)框架出場(chǎng)了询微。針對(duì)深度學(xué)習(xí)崖瞭,目前有很多優(yōu)秀的學(xué)習(xí)框架狂巢,比如說筆者馬上要講的 Tensorflow撑毛,微軟的 CNTK,伯克利視覺中心開發(fā)的 caffe唧领,以及別具一格的 PyTorch 和友好易用的 keras藻雌,本系列深度學(xué)習(xí)筆記打算從 Tensorflow 開始,對(duì)三大主流易用的深度學(xué)習(xí)框架 Tensorflow斩个、PyTorch 和 keras 進(jìn)行學(xué)習(xí)和講解胯杭。選擇這三個(gè)框架的原因在于其簡(jiǎn)單易用、方便編程和運(yùn)行速度相對(duì)較快受啥。
????? 作為谷歌的深度學(xué)習(xí)框架做个, Tensorflow ?在深度學(xué)習(xí)領(lǐng)域可謂風(fēng)頭無二鸽心。其中 Tensor 可以理解為類似于 numpy 的 N 維數(shù)組,名為張量居暖; flow 則意味著 N 維數(shù)組的流計(jì)算顽频,而 Tensor 的數(shù)據(jù)流計(jì)算形式則為一個(gè)計(jì)算圖的形式進(jìn)行計(jì)算。這里重點(diǎn)提一下太闺,如果大學(xué)本科期間的線性代數(shù)忘記了的話糯景,我勸你趕緊回去翻一翻,線性代數(shù)和矩陣論是深度學(xué)習(xí)的基礎(chǔ)省骂,希望你能熟練掌握蟀淮。
????? 先看個(gè)簡(jiǎn)單的例子。
import tensorflow as tf# Define y_hat constant. Set to 36.y_hat = tf.constant(36, name='y_hat') # Define y. Set to 39 ? ? ? ? ? y = tf.constant(39, name='y') ? ? ? ? ? ? ? ? ? ?# Create a variable for the lossloss = tf.Variable((y - y_hat)**2, name='loss') ? # When init is run later (session.run(init)), the loss variable will be initialized and ready to be computedinit = tf.global_variables_initializer() ? ? ? ?# Create a session and print the outputwith tf.Session() as session: ?
? ?# Initializes the variables ? ? ? ? ? ? ? ? ? ? ?
session.run(init) ?
? ?# Prints the loss ? ? ? ? ? ? ? ? ? ? ? ?? ? ?
print(session.run(loss))
9
????? 在上述代碼中钞澳,我們首先定義了兩個(gè)常量怠惶,然后定義了一個(gè) loss Tensor(變量),之后對(duì)變量進(jìn)行初始化轧粟,創(chuàng)建計(jì)算會(huì)話甚疟,最后執(zhí)行會(huì)話計(jì)算并打印結(jié)果。所以我們可以看到運(yùn)行 Tensorflow的基本機(jī)制:
創(chuàng)建一些尚未被執(zhí)行的張量——
定義這些張量之間的運(yùn)算操作——初始化這些張量——?jiǎng)?chuàng)建會(huì)話——執(zhí)行會(huì)話
????? 需要注意的一點(diǎn)是逃延,創(chuàng)建會(huì)話后一定要執(zhí)行這個(gè)會(huì)話览妖,且看下面示例:
a = tf.constant(2)
b = tf.constant(10)
c = tf.multiply(a,b)
print(c)
Tensor("Mul:0", shape=(), dtype=int32)
????? 在上面的示例中,我們創(chuàng)建了兩個(gè) Tensor 和 Tensor 之間的乘積運(yùn)算揽祥,但直接打印的結(jié)果卻不是我們想要看到的 20. 原因則在于這里我們沒有創(chuàng)建會(huì)話并執(zhí)行讽膏,只是打印了兩個(gè)張量運(yùn)算之后的張量。創(chuàng)建會(huì)話并執(zhí)行操作如下:
sess = tf.Session()
print(sess.run(c))
20
????? 除了直接定義變量之外拄丰,我們還可以通過創(chuàng)建占位符變量來稍后為之賦值府树,然后在運(yùn)行會(huì)話中傳入一個(gè) feed_dict ,示例如下:
x = tf.placeholder(tf.int64, name = 'x')
print(sess.run(2 * x, feed_dict = {x: 3}))
sess.close()
6
????? 相信你已經(jīng)大致明白了基于張量運(yùn)算的 Tensorflow 的底層運(yùn)行機(jī)制了料按⊙傧溃總結(jié)而言就是:創(chuàng)建張量、初始化張量载矿、創(chuàng)建會(huì)話并執(zhí)行垄潮。
????? 下面展示幾個(gè) Tensorflow 的神經(jīng)網(wǎng)絡(luò)計(jì)算的基礎(chǔ)函數(shù)示例。
線性函數(shù)
def linear_function(): ? ?
? ?"""
? ?Implements a linear function:
? ? ? ? ? ?Initializes W to be a random tensor of shape (4,3)
? ? ? ? ? ?Initializes X to be a random tensor of shape (3,1)
? ? ? ? ? ?Initializes b to be a random tensor of shape (4,1)
? ?Returns:
? ?result -- runs the session for Y = WX + b
? ?""" ? ?np.random.seed(1)
? ?X = tf.constant(np.random.randn(3,1), name='X')
? ?W = tf.constant(np.random.randn(4,3), name='W')
? ?b = tf.constant(np.random.randn(4,1), name='b')
? ?Y = tf.add(tf.matmul(W, X), b) ? ?# Create the session using tf.Session() and run it with sess.run(...) on the variable you want to calculate ? ?init = tf.global_variables_initializer()
? ?sess = tf.Session()
? ?sess.run(init)
? ?result = sess.run(Y) ? ?# close the session? ? ?sess.close() ? ?
? ?return result
計(jì)算sigmoid函數(shù)
def sigmoid(z): ? ?
? ?"""
? ?Computes the sigmoid of z
? ?Arguments:
? ?z -- input value, scalar or vector
? ?Returns:
? ?results -- the sigmoid of z
? ?""" ? ?x = tf.placeholder(tf.float32, name='x')
? ?sigmoid = tf.sigmoid(x) ? ?
? ?with tf.Session() as sess:
? ? ? ?result = sess.run(sigmoid, feed_dict={x: z}) ? ?
? ?return result
計(jì)算損失函數(shù)
def cost(logits, labels): ? ?
? ?"""
? ?Computes the cost using the sigmoid cross entropy
? ?Arguments:
? ?logits -- vector containing z, output of the last linear unit (before the final sigmoid activation)
? ?labels -- vector of labels y (1 or 0)
? ?Note: What we've been calling "z" and "y" in this class are respectively called "logits" and "labels"
? ?in the TensorFlow documentation. So logits will feed into z, and labels into y.
? ?Returns:
? ?cost -- runs the session of the cost (formula (2))
? ?""" ? ?# Create the placeholders for "logits" (z) and "labels" (y) (approx. 2 lines) ? ?z = tf.placeholder(tf.float32, name='z')
? ?y = tf.placeholder(tf.float32, name='y') ? ?# Use the loss function (approx. 1 line) ? ?cost = tf.nn.sigmoid_cross_entropy_with_logits(logits=z, labels=y) ? ?# Create a session (approx. 1 line). See method 1 above. ? ?sess = tf.Session() ? ?# Run the session (approx. 1 line). ? ?sess.run(cost, feed_dict={z: logits, y: labels}) ? ?# Close the session (approx. 1 line). See method 1 above. ? ?sess.close() ? ?
? ?return cost
one hot 編碼
def one_hot_matrix(labels, C): ?
? ?"""
? ?Creates a matrix where the i-th row corresponds to the ith class number and the jth column
? ? ? ? ? ? ? ? ? ? corresponds to the jth training example. So if example j had a label i. Then entry (i,j)
? ? ? ? ? ? ? ? ? ? will be 1.
? ?Arguments:
? ?labels -- vector containing the labels
? ?C -- number of classes, the depth of the one hot dimension
? ?Returns:
? ?one_hot -- one hot matrix
? ?""" ? ?# Create a tf.constant equal to C (depth), name it 'C'. (approx. 1 line) ? ?C = tf.constant(C) ? ?# Use tf.one_hot, be careful with the axis (approx. 1 line) ? ?one_hot_matrix = tf.one_hot(labels, C, axis=0) ? ?# Create the session (approx. 1 line) ? ?sess = tf.Session()
? ?one_hot = sess.run(one_hot_matrix) ? ?# Close the session (approx. 1 line). See method 1 above. ? ?sess.close() ? ?
? ?return one_hot
參數(shù)初始化
def ones(shape): ? ?"""
? ?Creates an array of ones of dimension shape
? ?Arguments:
? ?shape -- shape of the array you want to create
? ?Returns:
? ?ones -- array containing only ones
? ?""" ? ?# Create "ones" tensor using tf.ones(...). (approx. 1 line) ? ?ones = tf.ones(shape) ? ?# Create the session (approx. 1 line) ? ?sess = tf.Session() ? ?# Run the session to compute 'ones' (approx. 1 line) ? ?ones = sess.run(ones) ? ?# Close the session (approx. 1 line). See method 1 above. ? ?sess.close() ? ?
? ?return ones
????一頓操作之后闷盔,我們已經(jīng)將神經(jīng)網(wǎng)絡(luò)的一些基礎(chǔ)運(yùn)算利用 Tensorflow 定義好了弯洗。在下一期筆記中,我們將學(xué)習(xí)如何使用 Tensorflow 搭建神經(jīng)網(wǎng)絡(luò)逢勾。