Linear Regression

Code

#coding=utf-8
import tensorflow as tf
import matplotlib.pyplot as plt

#build train data
x = tf.lin_space(1.0,10.0,100)
rand_x = x
y = tf.Variable(10+10*rand_x+5*tf.random_normal(tf.shape(x)))

init = tf.global_variables_initializer()
with tf.Session() as sess:
    sess.run(init)
    x_r = sess.run(rand_x)
    y_r = sess.run(y)

plt.scatter(x_r,y_r,c='r')

#build learn model
train_x = tf.placeholder(dtype=tf.float32)
train_y = tf.placeholder(dtype=tf.float32)

W = tf.Variable(tf.random_normal([1]))
b = tf.Variable(tf.random_normal([1]))

predict_y = tf.multiply(W,train_x)+b

loss = tf.losses.softmax_cross_entropy([[0],[1]],[tf.abs(predict_y-train_y)/(2*train_y),(train_y+predict_y)/(2*train_y)])

#loss = tf.losses.absolute_difference(train_y,predict_y)

train_model = tf.train.GradientDescentOptimizer(0.8).minimize(loss)

with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    for times in range(1005):
        sess.run(train_model, feed_dict={train_x: x_r[times % 100], train_y : y_r[times % 100]})
        trained_w = sess.run(W)
        trained_b = sess.run(b)
        print(trained_w,trained_b)
        if times > 1000:
            plt.plot(x_r,trained_w*x_r+trained_b)

plt.show()

主要函數(shù)tf.losses.softmax_cross_entropy

tf.losses.softmax_cross_entropy(p,q)

Tensorflow計算步驟如下:

  • 對 q 做 softmax處理 ek/Σ(ei)
  • 求cross entropy計算公式為Σ(pilnqi) [ tf.log是以自然對數(shù)e為底求對數(shù) ]

Tensorflow softmax_cross_entropy Test

#coding=utf-8
import tensorflow as tf
import matplotlib.pyplot as plt

#build train data
x = tf.lin_space(1.0,10.0,100)
rand_x = x
y = tf.Variable(10+30*rand_x+5*tf.random_normal(tf.shape(x)))

init = tf.global_variables_initializer()
with tf.Session() as sess:
    sess.run(init)
    x_r = sess.run(rand_x)
    y_r = sess.run(y)

plt.scatter(x_r,y_r,c='r')

#build learn model
train_x = tf.placeholder(dtype=tf.float32)
train_y = tf.placeholder(dtype=tf.float32)

W = tf.Variable(tf.random_normal([1]))
b = tf.Variable(tf.random_normal([1]))

predict_y = tf.multiply(W,train_x)+b

loss = tf.losses.softmax_cross_entropy([[0],[1]],[tf.abs(predict_y-train_y)/(2*train_y),(train_y+predict_y)/(2*train_y)])

#loss = tf.losses.absolute_difference(train_y,predict_y)


train_model = tf.train.GradientDescentOptimizer(10).minimize(loss)

logits_tmp = tf.constant([0,1.0])
soft_logits = tf.nn.softmax(logits_tmp)
label_tmp = tf.constant([0.0,1.0])
cross_entropy = label_tmp*tf.log(soft_logits)
cross_entropy_sum = tf.reduce_sum(cross_entropy)

tf_exp_value = tf.exp(1.0)
tf_log_value = tf.log(tf_exp_value)
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    for times in range(1005):
        sess.run(train_model, feed_dict={train_x: x_r[times % 100], train_y : y_r[times % 100]})
        trained_w = sess.run(W)
        trained_b = sess.run(b)
        print(trained_w,trained_b)
        if times > 1000:
            plt.plot(x_r,trained_w*x_r+trained_b)

    print('softmax cross entropy',sess.run(tf.nn.softmax_cross_entropy_with_logits(labels = [0,1],logits = [0,1.0])))

    print("soft logit ",sess.run(soft_logits))
    print("cross entropy", sess.run(cross_entropy))
    print("cross entropy sum", sess.run(cross_entropy_sum))
    print("tf log value ",sess.run(tf_log_value))
    print("tf exp value", sess.run(tf_exp_value))
#plt.show()

最后編輯于
?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市鸠窗,隨后出現(xiàn)的幾起案子涩维,更是在濱河造成了極大的恐慌鲁猩,老刑警劉巖实撒,帶你破解...
    沈念sama閱讀 216,372評論 6 498
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件畴博,死亡現(xiàn)場離奇詭異临燃,居然都是意外死亡鳄虱,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,368評論 3 392
  • 文/潘曉璐 我一進店門凰浮,熙熙樓的掌柜王于貴愁眉苦臉地迎上來我抠,“玉大人,你說我怎么就攤上這事导坟。” “怎么了圈澈?”我有些...
    開封第一講書人閱讀 162,415評論 0 353
  • 文/不壞的土叔 我叫張陵惫周,是天一觀的道長。 經(jīng)常有香客問我康栈,道長递递,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,157評論 1 292
  • 正文 為了忘掉前任啥么,我火速辦了婚禮登舞,結果婚禮上,老公的妹妹穿的比我還像新娘悬荣。我一直安慰自己菠秒,他們只是感情好,可當我...
    茶點故事閱讀 67,171評論 6 388
  • 文/花漫 我一把揭開白布氯迂。 她就那樣靜靜地躺著践叠,像睡著了一般。 火紅的嫁衣襯著肌膚如雪嚼蚀。 梳的紋絲不亂的頭發(fā)上禁灼,一...
    開封第一講書人閱讀 51,125評論 1 297
  • 那天,我揣著相機與錄音轿曙,去河邊找鬼弄捕。 笑死僻孝,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的守谓。 我是一名探鬼主播穿铆,決...
    沈念sama閱讀 40,028評論 3 417
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼分飞!你這毒婦竟也來了悴务?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 38,887評論 0 274
  • 序言:老撾萬榮一對情侶失蹤譬猫,失蹤者是張志新(化名)和其女友劉穎讯檐,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體染服,經(jīng)...
    沈念sama閱讀 45,310評論 1 310
  • 正文 獨居荒郊野嶺守林人離奇死亡别洪,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,533評論 2 332
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了柳刮。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片挖垛。...
    茶點故事閱讀 39,690評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖秉颗,靈堂內(nèi)的尸體忽然破棺而出痢毒,到底是詐尸還是另有隱情,我是刑警寧澤蚕甥,帶...
    沈念sama閱讀 35,411評論 5 343
  • 正文 年R本政府宣布哪替,位于F島的核電站,受9級特大地震影響菇怀,放射性物質發(fā)生泄漏凭舶。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 41,004評論 3 325
  • 文/蒙蒙 一爱沟、第九天 我趴在偏房一處隱蔽的房頂上張望帅霜。 院中可真熱鬧,春花似錦呼伸、人聲如沸身冀。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,659評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽闽铐。三九已至,卻和暖如春奶浦,著一層夾襖步出監(jiān)牢的瞬間兄墅,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,812評論 1 268
  • 我被黑心中介騙來泰國打工澳叉, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留隙咸,地道東北人沐悦。 一個月前我還...
    沈念sama閱讀 47,693評論 2 368
  • 正文 我出身青樓,卻偏偏與公主長得像五督,于是被迫代替她去往敵國和親藏否。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 44,577評論 2 353

推薦閱讀更多精彩內(nèi)容