Tensorboard基本使用

Windows下tensorboard簡(jiǎn)要教程

在構(gòu)造模型的時(shí)候加入幾句話:

init = tf.global_variables_initializer()

(初始化結(jié)束以后加入這幾句話)

tf.summary.scalar("loss", correct_pred)
tf.summary.scalar("accuracy", accuracy)

(如果有兩句以上語(yǔ)句子寓,才使用下面的語(yǔ)句)

summary_op = tf.summary.merge_all()
with tf.Session() as sess:
    summary_writer = tf.summary.FileWriter("E:/gru/logs", graph_def=sess.graph_def)
    # Run the initializer
    sess.run(init)

    for step in range(1, training_steps+1):
        batch_x, batch_y = mnist.train.next_batch(batch_size)
        # Run optimization op (backprop)
        sess.run(train_op, feed_dict={X: batch_x, Y: batch_y})
        if step % display_step == 0 or step == 1:
            # Calculate batch loss and accura
    summary_str = sess.run(summary_op,feed_dict={X: batch_x, Y: batch_y})
    summary_writer.add_summary(summary_str, step)

代碼寫好后可以點(diǎn)點(diǎn)擊調(diào)試
代碼部分結(jié)束:
打開(kāi)你的cmd暗挑,請(qǐng)注意在cmd中一定可以運(yùn)行python,如果不能運(yùn)行請(qǐng)檢查環(huán)境變量是否配置成功斜友,輸入以下指令炸裆,其中l(wèi)ogdir的地址一定要和運(yùn)行的python文件中中一致


打開(kāi)瀏覽器http://127.0.0.1:6006/,就可以可視化觀察自己想觀測(cè)的圖了蝙寨,并且可以看到所寫的模型的基本結(jié)構(gòu)



image.png

這些是很久之前寫的教程晒衩,在使用tensorboard中發(fā)現(xiàn)新的問(wèn)題:

(1)由于tensorflow版本更新的問(wèn)題嗤瞎,許多東西用著用著就不能用了,比如:
tf.train.SummaryWriter改為:tf.summary.FileWriter
這里貼一個(gè)博客听系,可以對(duì)應(yīng)著修改:
https://blog.csdn.net/waterydd/article/details/70237984
(2)在cmd中使用tensorboard出現(xiàn):importerror:cannot import name 'encodings'贝奇,對(duì)tensorflow進(jìn)行升級(jí)處理,打開(kāi)cmd靠胜,輸入
pip uninstall tensorflow
pip -U install tensorflow
友情提示:換源
(3)使用tf.summary.merge_all()注意掉瞳,在不同模型中分開(kāi)merge,例如gan網(wǎng)絡(luò)
示例代碼:

from __future__ import print_function

import tensorflow as tf
from tensorflow.contrib import rnn

# Import MNIST data
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("E:/MachineLearning/", one_hot=True)

'''
To classify images using a recurrent neural network, we consider every image
row as a sequence of pixels. Because MNIST image shape is 28*28px, we will then
handle 28 sequences of 28 steps for every sample.
'''

# Training Parameters
learning_rate = 0.001
training_steps = 10000
batch_size = 128
display_step = 200

# Network Parameters
num_input = 28 # MNIST data input (img shape: 28*28)
timesteps = 28 # timesteps
num_hidden = 128 # hidden layer num of features
num_classes = 10 # MNIST total classes (0-9 digits)

# tf Graph input
X = tf.placeholder("float", [None, timesteps, num_input])
Y = tf.placeholder("float", [None, num_classes])

# Define weights
weights = { 'out': tf.Variable(tf.random_normal([num_hidden, num_classes]))
}
biases = {'out': tf.Variable(tf.random_normal([num_classes]))}


def RNN(x, weights, biases):
    x = tf.unstack(x, timesteps, 1)
    # Define a lstm cell with tensorflow
    lstm_cell = rnn.BasicLSTMCell(num_hidden, forget_bias=1.0)
    # Get lstm cell output
    outputs, states = rnn.static_rnn(lstm_cell, x, dtype=tf.float32)

    # Linear activation, using rnn inner loop last output
    return tf.matmul(outputs[-1], weights['out']) + biases['out']

logits = RNN(X, weights, biases)
prediction = tf.nn.softmax(logits)

# Define loss and optimizer
loss_op = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(
    logits=logits, labels=Y))
optimizer = tf.train.GradientDescentOptimizer(learning_rate=learning_rate)
train_op = optimizer.minimize(loss_op)

# Evaluate model (with test logits, for dropout to be disabled)
correct_pred = tf.equal(tf.argmax(prediction, 1), tf.argmax(Y, 1))
accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))

# Initialize the variables (i.e. assign their default value)
init = tf.global_variables_initializer()
tf.summary.scalar("loss", correct_pred)
tf.summary.scalar("accuracy", accuracy)
summary_op = tf.summary.merge_all()
# Start training
with tf.Session() as sess:
    summary_writer = tf.summary.FileWriter("E:/gru/logs", graph_def=sess.graph_def)
    # Run the initializer
    sess.run(init)

    for step in range(1, training_steps+1):
        batch_x, batch_y = mnist.train.next_batch(batch_size)
        # Reshape data to get 28 seq of 28 elements
        batch_x = batch_x.reshape((batch_size, timesteps, num_input))
        # Run optimization op (backprop)
        sess.run(train_op, feed_dict={X: batch_x, Y: batch_y})
        if step % display_step == 0 or step == 1:
            # Calculate batch loss and accuracy
            loss, acc = sess.run([loss_op, accuracy], feed_dict={X: batch_x, Y: batch_y})
            print("Step " + str(step) + ", Minibatch Loss= " + "{:.4f}".format(loss) + ", Training Accuracy= "+"{:.3f}".format(acc))
            summary_str = sess.run(summary_op,feed_dict={X: batch_x, Y: batch_y})
            summary_writer.add_summary(summary_str, step)
    print("Optimization Finished!")

    # Calculate accuracy for 128 mnist test images
    test_len = 128
    test_data = mnist.test.images[:test_len].reshape((-1, timesteps, num_input))
    test_label = mnist.test.labels[:test_len]
    print("Testing Accuracy:", \
        sess.run(accuracy, feed_dict={X: test_data, Y: test_label}))
    print('sink')
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末浪漠,一起剝皮案震驚了整個(gè)濱河市陕习,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌址愿,老刑警劉巖该镣,帶你破解...
    沈念sama閱讀 218,204評(píng)論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異响谓,居然都是意外死亡损合,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,091評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門娘纷,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)嫁审,“玉大人,你說(shuō)我怎么就攤上這事赖晶÷墒剩” “怎么了?”我有些...
    開(kāi)封第一講書人閱讀 164,548評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵遏插,是天一觀的道長(zhǎng)捂贿。 經(jīng)常有香客問(wèn)我,道長(zhǎng)涩堤,這世上最難降的妖魔是什么眷蜓? 我笑而不...
    開(kāi)封第一講書人閱讀 58,657評(píng)論 1 293
  • 正文 為了忘掉前任,我火速辦了婚禮胎围,結(jié)果婚禮上吁系,老公的妹妹穿的比我還像新娘。我一直安慰自己白魂,他們只是感情好汽纤,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,689評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著福荸,像睡著了一般蕴坪。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書人閱讀 51,554評(píng)論 1 305
  • 那天背传,我揣著相機(jī)與錄音呆瞻,去河邊找鬼。 笑死径玖,一個(gè)胖子當(dāng)著我的面吹牛痴脾,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播梳星,決...
    沈念sama閱讀 40,302評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼赞赖,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了冤灾?” 一聲冷哼從身側(cè)響起前域,我...
    開(kāi)封第一講書人閱讀 39,216評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎韵吨,沒(méi)想到半個(gè)月后匿垄,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,661評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡学赛,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,851評(píng)論 3 336
  • 正文 我和宋清朗相戀三年年堆,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片盏浇。...
    茶點(diǎn)故事閱讀 39,977評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖芽狗,靈堂內(nèi)的尸體忽然破棺而出绢掰,到底是詐尸還是另有隱情,我是刑警寧澤童擎,帶...
    沈念sama閱讀 35,697評(píng)論 5 347
  • 正文 年R本政府宣布滴劲,位于F島的核電站,受9級(jí)特大地震影響顾复,放射性物質(zhì)發(fā)生泄漏班挖。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,306評(píng)論 3 330
  • 文/蒙蒙 一芯砸、第九天 我趴在偏房一處隱蔽的房頂上張望萧芙。 院中可真熱鬧,春花似錦假丧、人聲如沸双揪。這莊子的主人今日做“春日...
    開(kāi)封第一講書人閱讀 31,898評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)渔期。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間疯趟,已是汗流浹背拘哨。 一陣腳步聲響...
    開(kāi)封第一講書人閱讀 33,019評(píng)論 1 270
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留信峻,地道東北人倦青。 一個(gè)月前我還...
    沈念sama閱讀 48,138評(píng)論 3 370
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像站欺,于是被迫代替她去往敵國(guó)和親姨夹。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,927評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容