線性回歸

線性回歸

主要內(nèi)容包括:

  1. 線性回歸的基本要素
  2. 線性回歸模型從零開始的實現(xiàn)
  3. 線性回歸模型使用pytorch的簡潔實現(xiàn)

線性回歸的基本要素

模型

為了簡單起見惹骂,這里我們假設價格只取決于房屋狀況的兩個因素雹嗦,即面積(平方米)和房齡(年)。接下來我們希望探索價格與這兩個因素的具體關系佃声。線性回歸假設輸出與各個輸入之間是線性關系:

\mathrm{price} = w_{\mathrm{area}} \cdot \mathrm{area} + w_{\mathrm{age}} \cdot \mathrm{age} + b

數(shù)據(jù)集

我們通常收集一系列的真實數(shù)據(jù),例如多棟房屋的真實售出價格和它們對應的面積和房齡。我們希望在這個數(shù)據(jù)上面尋找模型參數(shù)來使模型的預測價格與真實價格的誤差最小疤苹。在機器學習術(shù)語里,該數(shù)據(jù)集被稱為訓練數(shù)據(jù)集(training data set)或訓練集(training set)敛腌,一棟房屋被稱為一個樣本(sample)卧土,其真實售出價格叫作標簽(label),用來預測標簽的兩個因素叫作特征(feature)像樊。特征用來表征樣本的特點尤莺。

損失函數(shù)

在模型訓練中,我們需要衡量價格預測值與真實值之間的誤差凶硅。通常我們會選取一個非負數(shù)作為誤差缝裁,且數(shù)值越小表示誤差越小。一個常用的選擇是平方函數(shù)足绅。 它在評估索引為 i 的樣本誤差的表達式為

l^{(i)}(\mathbf{w}, b) = \frac{1}{2} \left(\hat{y}^{(i)} - y^{(i)}\right)^2,

L(\mathbf{w}, b) =\frac{1}{n}\sum_{i=1}^n l^{(i)}(\mathbf{w}, b) =\frac{1}{n} \sum_{i=1}^n \frac{1}{2}\left(\mathbf{w}^\top \mathbf{x}^{(i)} + b - y^{(i)}\right)^2.

優(yōu)化函數(shù) - 隨機梯度下降

當模型和損失函數(shù)形式較為簡單時捷绑,上面的誤差最小化問題的解可以直接用公式表達出來。這類解叫作解析解(analytical solution)氢妈。本節(jié)使用的線性回歸和平方誤差剛好屬于這個范疇粹污。然而,大多數(shù)深度學習模型并沒有解析解首量,只能通過優(yōu)化算法有限次迭代模型參數(shù)來盡可能降低損失函數(shù)的值壮吩。這類解叫作數(shù)值解(numerical solution)。

在求數(shù)值解的優(yōu)化算法中加缘,小批量隨機梯度下降(mini-batch stochastic gradient descent)在深度學習中被廣泛使用鸭叙。它的算法很簡單:先選取一組模型參數(shù)的初始值,如隨機選燃鸷辍沈贝;接下來對參數(shù)進行多次迭代,使每次迭代都可能降低損失函數(shù)的值勋乾。在每次迭代中宋下,先隨機均勻采樣一個由固定數(shù)目訓練數(shù)據(jù)樣本所組成的小批量(mini-batch)\mathcal{B},然后求小批量中數(shù)據(jù)樣本的平均損失有關模型參數(shù)的導數(shù)(梯度)辑莫,最后用此結(jié)果與預先設定的一個正數(shù)的乘積作為模型參數(shù)在本次迭代的減小量学歧。

(\mathbf{w},b) \leftarrow (\mathbf{w},b) - \frac{\eta}{|\mathcal{B}|} \sum_{i \in \mathcal{B}} \partial_{(\mathbf{w},b)} l^{(i)}(\mathbf{w},b)

學習率: \eta代表在每次優(yōu)化中,能夠?qū)W習的步長的大小
批量大小: \mathcal{B}是小批量計算中的批量大小batch size

總結(jié)一下各吨,優(yōu)化函數(shù)的有以下兩個步驟:

  • (i)初始化模型參數(shù)枝笨,一般來說使用隨機初始化;
  • (ii)我們在數(shù)據(jù)上迭代多次,通過在負梯度方向移動參數(shù)來更新每個參數(shù)伺帘。

矢量計算

在模型訓練或預測時昭躺,我們常常會同時處理多個數(shù)據(jù)樣本并用到矢量計算。在介紹線性回歸的矢量計算表達式之前伪嫁,讓我們先考慮對兩個向量相加的兩種方法领炫。

  1. 向量相加的一種方法是,將這兩個向量按元素逐一做標量加法张咳。
  2. 向量相加的另一種方法是帝洪,將這兩個向量直接做矢量加法。
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末脚猾,一起剝皮案震驚了整個濱河市葱峡,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌龙助,老刑警劉巖砰奕,帶你破解...
    沈念sama閱讀 212,542評論 6 493
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異提鸟,居然都是意外死亡军援,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,596評論 3 385
  • 文/潘曉璐 我一進店門称勋,熙熙樓的掌柜王于貴愁眉苦臉地迎上來胸哥,“玉大人,你說我怎么就攤上這事赡鲜】昭幔” “怎么了?”我有些...
    開封第一講書人閱讀 158,021評論 0 348
  • 文/不壞的土叔 我叫張陵银酬,是天一觀的道長嘲更。 經(jīng)常有香客問我,道長揩瞪,這世上最難降的妖魔是什么哮内? 我笑而不...
    開封第一講書人閱讀 56,682評論 1 284
  • 正文 為了忘掉前任,我火速辦了婚禮壮韭,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘纹因。我一直安慰自己喷屋,他們只是感情好,可當我...
    茶點故事閱讀 65,792評論 6 386
  • 文/花漫 我一把揭開白布瞭恰。 她就那樣靜靜地躺著屯曹,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上恶耽,一...
    開封第一講書人閱讀 49,985評論 1 291
  • 那天密任,我揣著相機與錄音,去河邊找鬼偷俭。 笑死浪讳,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的涌萤。 我是一名探鬼主播淹遵,決...
    沈念sama閱讀 39,107評論 3 410
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼负溪!你這毒婦竟也來了透揣?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,845評論 0 268
  • 序言:老撾萬榮一對情侶失蹤川抡,失蹤者是張志新(化名)和其女友劉穎辐真,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體崖堤,經(jīng)...
    沈念sama閱讀 44,299評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡侍咱,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,612評論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了倘感。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片放坏。...
    茶點故事閱讀 38,747評論 1 341
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖老玛,靈堂內(nèi)的尸體忽然破棺而出淤年,到底是詐尸還是另有隱情,我是刑警寧澤蜡豹,帶...
    沈念sama閱讀 34,441評論 4 333
  • 正文 年R本政府宣布麸粮,位于F島的核電站,受9級特大地震影響镜廉,放射性物質(zhì)發(fā)生泄漏弄诲。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 40,072評論 3 317
  • 文/蒙蒙 一娇唯、第九天 我趴在偏房一處隱蔽的房頂上張望齐遵。 院中可真熱鬧,春花似錦塔插、人聲如沸梗摇。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,828評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽伶授。三九已至断序,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間糜烹,已是汗流浹背违诗。 一陣腳步聲響...
    開封第一講書人閱讀 32,069評論 1 267
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留疮蹦,地道東北人诸迟。 一個月前我還...
    沈念sama閱讀 46,545評論 2 362
  • 正文 我出身青樓,卻偏偏與公主長得像挚币,于是被迫代替她去往敵國和親亮蒋。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 43,658評論 2 350

推薦閱讀更多精彩內(nèi)容