一元回歸模型記錄

使用Tensorflow完成

#加載包
import numpy as np
import tensorflow as tf
import matplotlib.pyplot as plt

#定義超參數(shù)尉姨,就是模型訓(xùn)練過(guò)程中的參數(shù)庵朝,包括學(xué)習(xí)率、隱層神經(jīng)元個(gè)數(shù)又厉、批數(shù)據(jù)個(gè)數(shù)
learning_rate = 0.01
max_train_steps = 1000
log_step = 5
#訓(xùn)練集
train_X = np.array([[3.3],[4.4],[5.5],[6.71],[6.93],[4.168],[9.779],[6.182],[7.59],[2.167], [7.042],[10.791],[5.313],[7.997],[5.654],[9.27],[3.1]], dtype=np.float32)
train_Y = np.array([[1.7],[2.76],[2.09],[3.19],[1.694],[1.573],[3.366],[2.596],[2.53],  [1.221],[2.827],[3.465],[1.65],[2.904],[2.42],[2.94],[1.3]], dtype=np.float32)
total_samples = train_X.shape[0]
#構(gòu)建模型
#輸入數(shù)據(jù)
X = tf.placeholder(tf.float32, [None, 1])
#模型參數(shù)
W = tf.Variable(tf.random_normal([1,1]), name="weight")
b = tf.Variable(tf.zeros([1]), name="bias")
#推理值
Y = tf.matmul(X, W) + b
#實(shí)際值
Y_ = tf.placeholder(tf.float32, [None, 1])
#均方差損失
loss = tf.reduce_sum(tf.pow(Y-Y_, 2)) / (total_samples)
#隨機(jī)梯度下降
optimizer = tf.train.GradientDescentOptimizer(learning_rate)
#最小化損失值
train_op = optimizer.minimize(loss)
with tf.Session() as sess:
    #初始化全局變量
    sess.run(tf.global_variables_initializer())
    print("Start training:")
    #分布訓(xùn)練
    for step in range(max_train_steps):
        sess.run(train_op, feed_dict={X: train_X, Y_:train_Y})
        #打印日志 每log_step步打印損失九府、權(quán)值和偏置
        if step % log_step == 0:
            c = sess.run(loss, feed_dict={X: train_X, Y_:train_Y})
            print("Step%d:%d, loss==%.4f, W==%.4f, b==%.4f"%(step, max_train_steps, c, sess.run(W), sess.run(b)))
    #結(jié)果的損失
    final_loss = sess.run(loss, feed_dict={X: train_X, Y_:train_Y})
    print("Step:%d, loss==%.4f, W==%.4f, b==%.4f"%(max_train_steps, final_loss, sess.run(W), sess.run(b)))
    #結(jié)果模型輸出
    weight, bias = sess.run([W, b])
    print("Linear Regression Model: Y==%.4f*X+%.4f"%(weight, bias))
    
Start training:
Step0:1000, loss==1.1118, W==0.1942, b==0.1869
Step5:1000, loss==0.1962, W==0.3341, b==0.2140
Step10:1000, loss==0.1952, W==0.3331, b==0.2210
Step15:1000, loss==0.1942, W==0.3321, b==0.2280
Step20:1000, loss==0.1932, W==0.3312, b==0.2349
Step25:1000, loss==0.1923, W==0.3302, b==0.2417
Step30:1000, loss==0.1914, W==0.3293, b==0.2484
Step35:1000, loss==0.1905, W==0.3283, b==0.2551
......
Step965:1000, loss==0.1543, W==0.2596, b==0.7421
Step970:1000, loss==0.1542, W==0.2595, b==0.7428
Step975:1000, loss==0.1542, W==0.2594, b==0.7435
Step980:1000, loss==0.1542, W==0.2593, b==0.7441
Step985:1000, loss==0.1542, W==0.2593, b==0.7448
Step990:1000, loss==0.1542, W==0.2592, b==0.7454
Step995:1000, loss==0.1542, W==0.2591, b==0.7461
Step:1000, loss==0.1542, W==0.2590, b==0.7466
Linear Regression Model: Y==0.2590*X+0.7466
#可視化
%matplotlib inline
plt.plot(train_X, train_Y, 'ro', label='Training data')
plt.plot(train_X, weight * train_X + bias, label='Fitted line')
#添加圖例
plt.legend()
#顯示圖像
plt.show()
output_5_0.png
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市覆致,隨后出現(xiàn)的幾起案子侄旬,更是在濱河造成了極大的恐慌,老刑警劉巖煌妈,帶你破解...
    沈念sama閱讀 218,546評(píng)論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件儡羔,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡璧诵,警方通過(guò)查閱死者的電腦和手機(jī)笔链,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,224評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)腮猖,“玉大人鉴扫,你說(shuō)我怎么就攤上這事〕喝保” “怎么了坪创?”我有些...
    開封第一講書人閱讀 164,911評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)姐赡。 經(jīng)常有香客問(wèn)我莱预,道長(zhǎng),這世上最難降的妖魔是什么项滑? 我笑而不...
    開封第一講書人閱讀 58,737評(píng)論 1 294
  • 正文 為了忘掉前任依沮,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘危喉。我一直安慰自己宋渔,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,753評(píng)論 6 392
  • 文/花漫 我一把揭開白布辜限。 她就那樣靜靜地躺著皇拣,像睡著了一般。 火紅的嫁衣襯著肌膚如雪薄嫡。 梳的紋絲不亂的頭發(fā)上氧急,一...
    開封第一講書人閱讀 51,598評(píng)論 1 305
  • 那天,我揣著相機(jī)與錄音毫深,去河邊找鬼吩坝。 笑死,一個(gè)胖子當(dāng)著我的面吹牛哑蔫,可吹牛的內(nèi)容都是我干的钉寝。 我是一名探鬼主播,決...
    沈念sama閱讀 40,338評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼鸳址,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼瘩蚪!你這毒婦竟也來(lái)了泉懦?” 一聲冷哼從身側(cè)響起稿黍,我...
    開封第一講書人閱讀 39,249評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎崩哩,沒想到半個(gè)月后巡球,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,696評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡邓嘹,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,888評(píng)論 3 336
  • 正文 我和宋清朗相戀三年酣栈,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片汹押。...
    茶點(diǎn)故事閱讀 40,013評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡矿筝,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出棚贾,到底是詐尸還是另有隱情窖维,我是刑警寧澤,帶...
    沈念sama閱讀 35,731評(píng)論 5 346
  • 正文 年R本政府宣布妙痹,位于F島的核電站铸史,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏怯伊。R本人自食惡果不足惜琳轿,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,348評(píng)論 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧崭篡,春花似錦挪哄、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,929評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至塘偎,卻和暖如春疗涉,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背吟秩。 一陣腳步聲響...
    開封第一講書人閱讀 33,048評(píng)論 1 270
  • 我被黑心中介騙來(lái)泰國(guó)打工咱扣, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人涵防。 一個(gè)月前我還...
    沈念sama閱讀 48,203評(píng)論 3 370
  • 正文 我出身青樓闹伪,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親壮池。 傳聞我的和親對(duì)象是個(gè)殘疾皇子偏瓤,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,960評(píng)論 2 355