【連載】深度學(xué)習(xí)筆記7:Tensorflow入門

????? 從前面的學(xué)習(xí)筆記中梗脾,和大家一起使用了 ?numpy ?一步一步從感知機(jī)開始到兩層網(wǎng)絡(luò)以及最后實(shí)現(xiàn)了深度神經(jīng)網(wǎng)絡(luò)的算法搭建脾歇。而后我們又討論了改善深度神經(jīng)網(wǎng)絡(luò)的基本方法,包括神經(jīng)網(wǎng)絡(luò)的正則化栓袖、參數(shù)優(yōu)化和調(diào)參等問題。這一切工作我們都是基于numpy 完成的捻浦,沒有調(diào)用任何深度學(xué)習(xí)框架隘膘。在學(xué)習(xí)深度學(xué)習(xí)的時(shí)候刀森,一開始不讓大家直接上手框架可謂良苦用心逝薪,旨在讓大家能夠跟筆者一樣隅要,一步一步通過 numpy 搭建神經(jīng)網(wǎng)絡(luò)的過程就是要讓你能夠更加深入的理解神經(jīng)網(wǎng)絡(luò)的架構(gòu)、基本原理和工作機(jī)制董济,而不是黑箱以視之步清。

????? 但學(xué)習(xí)到這個(gè)階段,你已充分理解了神經(jīng)網(wǎng)絡(luò)的工作機(jī)制虏肾,馬上就要接觸更深層次的卷積神經(jīng)網(wǎng)絡(luò)(CNN)和遞歸神經(jīng)網(wǎng)絡(luò)(RNN)廓啊,依靠純手工去搭建這些復(fù)雜的神經(jīng)網(wǎng)絡(luò)恐怕并不現(xiàn)實(shí)。這時(shí)候就該深度學(xué)習(xí)框架出場(chǎng)了询微。針對(duì)深度學(xué)習(xí)崖瞭,目前有很多優(yōu)秀的學(xué)習(xí)框架狂巢,比如說筆者馬上要講的 Tensorflow撑毛,微軟的 CNTK,伯克利視覺中心開發(fā)的 caffe唧领,以及別具一格的 PyTorch 和友好易用的 keras藻雌,本系列深度學(xué)習(xí)筆記打算從 Tensorflow 開始,對(duì)三大主流易用的深度學(xué)習(xí)框架 Tensorflow斩个、PyTorch 和 keras 進(jìn)行學(xué)習(xí)和講解胯杭。選擇這三個(gè)框架的原因在于其簡(jiǎn)單易用、方便編程和運(yùn)行速度相對(duì)較快受啥。

????? 作為谷歌的深度學(xué)習(xí)框架做个, Tensorflow ?在深度學(xué)習(xí)領(lǐng)域可謂風(fēng)頭無二鸽心。其中 Tensor 可以理解為類似于 numpy 的 N 維數(shù)組,名為張量居暖; flow 則意味著 N 維數(shù)組的流計(jì)算顽频,而 Tensor 的數(shù)據(jù)流計(jì)算形式則為一個(gè)計(jì)算圖的形式進(jìn)行計(jì)算。這里重點(diǎn)提一下太闺,如果大學(xué)本科期間的線性代數(shù)忘記了的話糯景,我勸你趕緊回去翻一翻,線性代數(shù)和矩陣論是深度學(xué)習(xí)的基礎(chǔ)省骂,希望你能熟練掌握蟀淮。

????? 先看個(gè)簡(jiǎn)單的例子。

import tensorflow as tf# Define y_hat constant. Set to 36.y_hat = tf.constant(36, name='y_hat') # Define y. Set to 39 ? ? ? ? ? y = tf.constant(39, name='y') ? ? ? ? ? ? ? ? ? ?# Create a variable for the lossloss = tf.Variable((y - y_hat)**2, name='loss') ? # When init is run later (session.run(init)), the loss variable will be initialized and ready to be computedinit = tf.global_variables_initializer() ? ? ? ?# Create a session and print the outputwith tf.Session() as session: ?

? ?# Initializes the variables ? ? ? ? ? ? ? ? ? ? ?

session.run(init) ?

? ?# Prints the loss ? ? ? ? ? ? ? ? ? ? ? ?? ? ?

print(session.run(loss))

9

????? 在上述代碼中钞澳,我們首先定義了兩個(gè)常量怠惶,然后定義了一個(gè) loss Tensor(變量),之后對(duì)變量進(jìn)行初始化轧粟,創(chuàng)建計(jì)算會(huì)話甚疟,最后執(zhí)行會(huì)話計(jì)算并打印結(jié)果。所以我們可以看到運(yùn)行 Tensorflow的基本機(jī)制:

創(chuàng)建一些尚未被執(zhí)行的張量——

定義這些張量之間的運(yùn)算操作——初始化這些張量——?jiǎng)?chuàng)建會(huì)話——執(zhí)行會(huì)話

????? 需要注意的一點(diǎn)是逃延,創(chuàng)建會(huì)話后一定要執(zhí)行這個(gè)會(huì)話览妖,且看下面示例:

a = tf.constant(2)

b = tf.constant(10)

c = tf.multiply(a,b)

print(c)

Tensor("Mul:0", shape=(), dtype=int32)

????? 在上面的示例中,我們創(chuàng)建了兩個(gè) Tensor 和 Tensor 之間的乘積運(yùn)算揽祥,但直接打印的結(jié)果卻不是我們想要看到的 20. 原因則在于這里我們沒有創(chuàng)建會(huì)話并執(zhí)行讽膏,只是打印了兩個(gè)張量運(yùn)算之后的張量。創(chuàng)建會(huì)話并執(zhí)行操作如下:

sess = tf.Session()

print(sess.run(c))

20

????? 除了直接定義變量之外拄丰,我們還可以通過創(chuàng)建占位符變量來稍后為之賦值府树,然后在運(yùn)行會(huì)話中傳入一個(gè) feed_dict ,示例如下:

x = tf.placeholder(tf.int64, name = 'x')

print(sess.run(2 * x, feed_dict = {x: 3}))

sess.close()

6

????? 相信你已經(jīng)大致明白了基于張量運(yùn)算的 Tensorflow 的底層運(yùn)行機(jī)制了料按⊙傧溃總結(jié)而言就是:創(chuàng)建張量、初始化張量载矿、創(chuàng)建會(huì)話并執(zhí)行垄潮。

????? 下面展示幾個(gè) Tensorflow 的神經(jīng)網(wǎng)絡(luò)計(jì)算的基礎(chǔ)函數(shù)示例。

線性函數(shù)

def linear_function(): ? ?

? ?"""

? ?Implements a linear function:

? ? ? ? ? ?Initializes W to be a random tensor of shape (4,3)

? ? ? ? ? ?Initializes X to be a random tensor of shape (3,1)

? ? ? ? ? ?Initializes b to be a random tensor of shape (4,1)

? ?Returns:

? ?result -- runs the session for Y = WX + b

? ?""" ? ?np.random.seed(1)

? ?X = tf.constant(np.random.randn(3,1), name='X')

? ?W = tf.constant(np.random.randn(4,3), name='W')

? ?b = tf.constant(np.random.randn(4,1), name='b')

? ?Y = tf.add(tf.matmul(W, X), b) ? ?# Create the session using tf.Session() and run it with sess.run(...) on the variable you want to calculate ? ?init = tf.global_variables_initializer()

? ?sess = tf.Session()

? ?sess.run(init)

? ?result = sess.run(Y) ? ?# close the session? ? ?sess.close() ? ?

? ?return result

計(jì)算sigmoid函數(shù)

def sigmoid(z): ? ?

? ?"""

? ?Computes the sigmoid of z

? ?Arguments:

? ?z -- input value, scalar or vector

? ?Returns:

? ?results -- the sigmoid of z

? ?""" ? ?x = tf.placeholder(tf.float32, name='x')

? ?sigmoid = tf.sigmoid(x) ? ?

? ?with tf.Session() as sess:

? ? ? ?result = sess.run(sigmoid, feed_dict={x: z}) ? ?

? ?return result

計(jì)算損失函數(shù)

def cost(logits, labels): ? ?

? ?"""

? ?Computes the cost using the sigmoid cross entropy

? ?Arguments:

? ?logits -- vector containing z, output of the last linear unit (before the final sigmoid activation)

? ?labels -- vector of labels y (1 or 0)

? ?Note: What we've been calling "z" and "y" in this class are respectively called "logits" and "labels"

? ?in the TensorFlow documentation. So logits will feed into z, and labels into y.

? ?Returns:

? ?cost -- runs the session of the cost (formula (2))

? ?""" ? ?# Create the placeholders for "logits" (z) and "labels" (y) (approx. 2 lines) ? ?z = tf.placeholder(tf.float32, name='z')

? ?y = tf.placeholder(tf.float32, name='y') ? ?# Use the loss function (approx. 1 line) ? ?cost = tf.nn.sigmoid_cross_entropy_with_logits(logits=z, labels=y) ? ?# Create a session (approx. 1 line). See method 1 above. ? ?sess = tf.Session() ? ?# Run the session (approx. 1 line). ? ?sess.run(cost, feed_dict={z: logits, y: labels}) ? ?# Close the session (approx. 1 line). See method 1 above. ? ?sess.close() ? ?

? ?return cost

one hot 編碼

def one_hot_matrix(labels, C): ?

? ?"""

? ?Creates a matrix where the i-th row corresponds to the ith class number and the jth column

? ? ? ? ? ? ? ? ? ? corresponds to the jth training example. So if example j had a label i. Then entry (i,j)

? ? ? ? ? ? ? ? ? ? will be 1.

? ?Arguments:

? ?labels -- vector containing the labels

? ?C -- number of classes, the depth of the one hot dimension

? ?Returns:

? ?one_hot -- one hot matrix

? ?""" ? ?# Create a tf.constant equal to C (depth), name it 'C'. (approx. 1 line) ? ?C = tf.constant(C) ? ?# Use tf.one_hot, be careful with the axis (approx. 1 line) ? ?one_hot_matrix = tf.one_hot(labels, C, axis=0) ? ?# Create the session (approx. 1 line) ? ?sess = tf.Session()

? ?one_hot = sess.run(one_hot_matrix) ? ?# Close the session (approx. 1 line). See method 1 above. ? ?sess.close() ? ?

? ?return one_hot

參數(shù)初始化

def ones(shape): ? ?"""

? ?Creates an array of ones of dimension shape

? ?Arguments:

? ?shape -- shape of the array you want to create

? ?Returns:

? ?ones -- array containing only ones

? ?""" ? ?# Create "ones" tensor using tf.ones(...). (approx. 1 line) ? ?ones = tf.ones(shape) ? ?# Create the session (approx. 1 line) ? ?sess = tf.Session() ? ?# Run the session to compute 'ones' (approx. 1 line) ? ?ones = sess.run(ones) ? ?# Close the session (approx. 1 line). See method 1 above. ? ?sess.close() ? ?

? ?return ones

????一頓操作之后闷盔,我們已經(jīng)將神經(jīng)網(wǎng)絡(luò)的一些基礎(chǔ)運(yùn)算利用 Tensorflow 定義好了弯洗。在下一期筆記中,我們將學(xué)習(xí)如何使用 Tensorflow 搭建神經(jīng)網(wǎng)絡(luò)逢勾。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末牡整,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子溺拱,更是在濱河造成了極大的恐慌逃贝,老刑警劉巖谣辞,帶你破解...
    沈念sama閱讀 212,332評(píng)論 6 493
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異沐扳,居然都是意外死亡潦闲,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,508評(píng)論 3 385
  • 文/潘曉璐 我一進(jìn)店門迫皱,熙熙樓的掌柜王于貴愁眉苦臉地迎上來歉闰,“玉大人,你說我怎么就攤上這事卓起『途矗” “怎么了?”我有些...
    開封第一講書人閱讀 157,812評(píng)論 0 348
  • 文/不壞的土叔 我叫張陵戏阅,是天一觀的道長(zhǎng)昼弟。 經(jīng)常有香客問我,道長(zhǎng)奕筐,這世上最難降的妖魔是什么舱痘? 我笑而不...
    開封第一講書人閱讀 56,607評(píng)論 1 284
  • 正文 為了忘掉前任,我火速辦了婚禮离赫,結(jié)果婚禮上芭逝,老公的妹妹穿的比我還像新娘。我一直安慰自己渊胸,他們只是感情好旬盯,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,728評(píng)論 6 386
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著翎猛,像睡著了一般胖翰。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上切厘,一...
    開封第一講書人閱讀 49,919評(píng)論 1 290
  • 那天萨咳,我揣著相機(jī)與錄音,去河邊找鬼疫稿。 笑死培他,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的而克。 我是一名探鬼主播靶壮,決...
    沈念sama閱讀 39,071評(píng)論 3 410
  • 文/蒼蘭香墨 我猛地睜開眼怔毛,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼员萍!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起拣度,我...
    開封第一講書人閱讀 37,802評(píng)論 0 268
  • 序言:老撾萬榮一對(duì)情侶失蹤碎绎,失蹤者是張志新(化名)和其女友劉穎螃壤,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體筋帖,經(jīng)...
    沈念sama閱讀 44,256評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡奸晴,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,576評(píng)論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了日麸。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片寄啼。...
    茶點(diǎn)故事閱讀 38,712評(píng)論 1 341
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖代箭,靈堂內(nèi)的尸體忽然破棺而出墩划,到底是詐尸還是另有隱情,我是刑警寧澤嗡综,帶...
    沈念sama閱讀 34,389評(píng)論 4 332
  • 正文 年R本政府宣布乙帮,位于F島的核電站,受9級(jí)特大地震影響极景,放射性物質(zhì)發(fā)生泄漏察净。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 40,032評(píng)論 3 316
  • 文/蒙蒙 一盼樟、第九天 我趴在偏房一處隱蔽的房頂上張望氢卡。 院中可真熱鬧,春花似錦晨缴、人聲如沸异吻。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,798評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽诀浪。三九已至,卻和暖如春延都,著一層夾襖步出監(jiān)牢的瞬間雷猪,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,026評(píng)論 1 266
  • 我被黑心中介騙來泰國打工晰房, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留求摇,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 46,473評(píng)論 2 360
  • 正文 我出身青樓殊者,卻偏偏與公主長(zhǎng)得像与境,于是被迫代替她去往敵國和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子猖吴,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,606評(píng)論 2 350

推薦閱讀更多精彩內(nèi)容