李宏毅ML01—Regression

Regression(回歸)

回歸可以用來做什么换淆?

  • 股票預(yù)測:Input 股票歷史數(shù)據(jù),Output 明日股票數(shù)據(jù)
  • 自動駕駛:Input 周圍障礙物情況形真,Output 方向盤角度
  • 推薦系統(tǒng):Input 使用者A莉兰,商品B秦效,Output 購買商品的可能性

數(shù)學(xué)前提

  • 中心極限定理:當(dāng)樣本數(shù)量很大的時候,樣本往往趨于正態(tài)分布
  • 正態(tài)分布:呈樣本數(shù)量中間高恢氯、兩頭低的分布
  • 最大似然估計:概率的反向带斑。“概率”是已知參數(shù)求概率勋拟,比如知道硬幣正反的參數(shù)都是0.5勋磕,來求得硬幣正面的概率是多少。最大似然估計是通過場景呈現(xiàn)的結(jié)果敢靡,來反求得這個對象的幾個參數(shù)是多少挂滓。

用Regression來預(yù)測Pokemon進(jìn)化后的CP值

Step1: Model

  • Input 10只Pokemon的相關(guān)數(shù)值(當(dāng)前CP值,體重啸胧,種類等)赶站,Ouput它進(jìn)化后的Pokemon的CP值
  • y=b+\sum w_i x_i

Step2: Goodness of Function

  • 需要有一個function來評估之前的functions的好壞,把這個function叫做 Loss Function L (損失函數(shù))
  • L(f)=L(w,b)=\sum\limits_{n=1}^{10}(y^n-(b+w\times x^n_{cp}))^2
  • 數(shù)值越大表示function越不好(上標(biāo)n代表是第幾只pokemon纺念,下標(biāo)cp代表pokemon的cp參數(shù))
  • 所以每一次迭代都朝著損失函數(shù)減小的方向前進(jìn)贝椿,直到找到了當(dāng)前參數(shù)的損失函數(shù)極小值,那么損失函數(shù)的極小值就是最小值嗎陷谱?有沒有可能只找到了局部最優(yōu)解烙博,而不是全局最優(yōu)解。即烟逊,是否只找到了損失函數(shù)曲線上的極小值點渣窜,而非最小值點?
  • convex function(凸函數(shù)):若一個函數(shù)最多只存在一個極小值點焙格,則該函數(shù)是convex function
  • 在Linear Regression問題中图毕,損失函數(shù)就是一個凸函數(shù),所以眷唉,在當(dāng)前的參數(shù)下予颤,一定能找到全局最優(yōu)解。

Step3: Best Functon

  • 基本步驟

    • 基本思路: f^*=arg\min\limits_f L(f)
    • w^*,b^*=arg\min\limits_{w,b} L(w,b)
    • w^*,b^*=arg\min\limits_{w,b} \sum\limits_{n=1}^{10}(y^n-(b+w\times x^n_{cp}))^2
    • 找到使得損失函數(shù)最小的w和b冬阳,如何找到呢蛤虐,運用 Gradient Descent,梯度下降
    • 梯度下降肝陪,對參數(shù)w求導(dǎo)驳庭,求出來損失函數(shù)的斜率,再乘上參數(shù)n,把值加在參數(shù)w上饲常,得到w^0
    • w^1=w^0-\eta\frac{dL}{dw}|_{w=w^0}
    • w^2=w^1-\eta\frac{dL}{dw}|_{w=w^1}
    • ...
    • 不斷優(yōu)化迭代蹲堂,直到w^nw^{n+1}的差值小于某一特定數(shù),或者迭代多少次以上
  • 求導(dǎo)

    • \frac{{\partial}L}{{\partial}w} = \sum\limits_{n=1}^{10}2\times(y^n-(b+w\times x^n_{cp}))\times(-x^n_{cp})
    • \frac{{\partial}L}{{\partial}b} = \sum\limits_{n=1}^{10}2\times(y^n-(b+w\times x^n_{cp}))\times(-1)
  • 梯度下降代碼:

epsilon = 0.00001
def GradientDescend(diff,w,y,x_cp):
    while(diff>=epsilon):
        w_next = 0
        for y_n,x in y,x_cp: 
            w_next += w - n * ( 2 * (y_n - (b + w * x))) * -1 * x
        diff = w - w_next
        w = w_next
    return w
  • 但是也要注意模型的選擇贝淤,過于貼合當(dāng)前實驗值的曲線柒竞,有可能會造成overfitting(過擬合)因為當(dāng)前曲線也由其他因素(測量誤差,噪音播聪,和其他參數(shù))影響朽基。過于用現(xiàn)有的參數(shù)去模擬其他的參數(shù),會使得模型變得復(fù)雜并且不具備健壯的泛化能力离陶。

Step2 Optimised: Regularization(正則化)

  • 優(yōu)化損失函數(shù)稼虎,期待一個參數(shù)值更加小的function,更加平滑的曲線(不要過于平滑)
實驗誤差和測試誤差
  • L(w,b)=\sum\limits_{n=1}^{10}(y^n-(b+w\times x^n_{cp}))^2+\lambda\sum(w_i)^2
  • \lambda越大招刨,實驗的誤差會越大 霎俩,但是對于測試的誤差可能會變小。
  • 損失函數(shù)后面會添加一個額外項计济,這可以看作是損失函數(shù)的“懲罰項”茸苇,是用來解決模型過擬合問題的。通常有L2-Norm, L1-Norm,L0-Norm(L2范式或者L2正則化)
    • L2-Norm
      • L=L_0+\frac{\lambda}{2n}\sum\limits_ww^2,L_{0為常規(guī)損失函數(shù)}
    • L1-Norm
      • L=L_0+\frac{\lambda}{n}\sum\limits_w|w|,L_{0為常規(guī)損失函數(shù)}
      • L1-Norm和L2-Norm咋一看看起來好像差不多沦寂,都是讓參數(shù)變小学密,但其實有一定區(qū)別,兩者求導(dǎo)后传藏,L1-Norm會出現(xiàn)sgn(w)腻暮,L1-Norm會讓參數(shù)變稀疏,也就是會讓一些參數(shù)變?yōu)?.

      通過和L2規(guī)范化的權(quán)重更新規(guī)則對比毯侦,可以看出在 L1 規(guī)范化中哭靖,權(quán)重通過一個常量向 0 進(jìn)行縮小。在 L2 規(guī)范化中侈离,權(quán)重通過一個和 w 成比例的量進(jìn)行縮小的试幽。所以,當(dāng)一個特定的權(quán)重絕對值 |w| 很大時卦碾,L1 規(guī)范化的權(quán)重縮小得遠(yuǎn)比 L2 規(guī)范化要小得多铺坞。相反,當(dāng)一個特定的權(quán)重絕對值 |w| 很小時洲胖,L1 規(guī)范化的權(quán)重縮小得要比 L2 規(guī)范化大得多济榨。最終的結(jié)果就是:L1 規(guī)范化傾向于聚集網(wǎng)絡(luò)的權(quán)重在相對少量的高重要度連接上,而其他權(quán)重就會被驅(qū)使向 0 接近绿映。
      深度學(xué)習(xí)中的正則化技術(shù)—知乎專欄

    • L0-Norm
      • L=L_0+\frac{\lambda}{n}\sum\limits_ww^0,L_{0為常規(guī)損失函數(shù)}
      • 由于L0-Norm主要用來衡量參數(shù)中的非零參數(shù)個數(shù)擒滑,對模型的正則化效果并不好腐晾,所以通常用L1-Norm來正則化
    • 為什么只對w/Θ做限制,不對b做限制丐一?
      • 因為限制是為了使得曲線的彎曲程度更加合理藻糖,b是截距,不會對彎曲程度造成影響库车。
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末颖御,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子凝颇,更是在濱河造成了極大的恐慌,老刑警劉巖疹鳄,帶你破解...
    沈念sama閱讀 211,290評論 6 491
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件拧略,死亡現(xiàn)場離奇詭異,居然都是意外死亡瘪弓,警方通過查閱死者的電腦和手機(jī)垫蛆,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,107評論 2 385
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來腺怯,“玉大人袱饭,你說我怎么就攤上這事∏赫迹” “怎么了虑乖?”我有些...
    開封第一講書人閱讀 156,872評論 0 347
  • 文/不壞的土叔 我叫張陵,是天一觀的道長晾虑。 經(jīng)常有香客問我疹味,道長,這世上最難降的妖魔是什么帜篇? 我笑而不...
    開封第一講書人閱讀 56,415評論 1 283
  • 正文 為了忘掉前任糙捺,我火速辦了婚禮,結(jié)果婚禮上笙隙,老公的妹妹穿的比我還像新娘洪灯。我一直安慰自己,他們只是感情好竟痰,可當(dāng)我...
    茶點故事閱讀 65,453評論 6 385
  • 文/花漫 我一把揭開白布签钩。 她就那樣靜靜地躺著,像睡著了一般凯亮。 火紅的嫁衣襯著肌膚如雪边臼。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,784評論 1 290
  • 那天假消,我揣著相機(jī)與錄音柠并,去河邊找鬼。 笑死,一個胖子當(dāng)著我的面吹牛臼予,可吹牛的內(nèi)容都是我干的鸣戴。 我是一名探鬼主播,決...
    沈念sama閱讀 38,927評論 3 406
  • 文/蒼蘭香墨 我猛地睜開眼粘拾,長吁一口氣:“原來是場噩夢啊……” “哼窄锅!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起缰雇,我...
    開封第一講書人閱讀 37,691評論 0 266
  • 序言:老撾萬榮一對情侶失蹤入偷,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后械哟,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體疏之,經(jīng)...
    沈念sama閱讀 44,137評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,472評論 2 326
  • 正文 我和宋清朗相戀三年暇咆,在試婚紗的時候發(fā)現(xiàn)自己被綠了锋爪。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 38,622評論 1 340
  • 序言:一個原本活蹦亂跳的男人離奇死亡爸业,死狀恐怖其骄,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情扯旷,我是刑警寧澤拯爽,帶...
    沈念sama閱讀 34,289評論 4 329
  • 正文 年R本政府宣布,位于F島的核電站薄霜,受9級特大地震影響某抓,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜惰瓜,卻給世界環(huán)境...
    茶點故事閱讀 39,887評論 3 312
  • 文/蒙蒙 一否副、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧崎坊,春花似錦备禀、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,741評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至男翰,卻和暖如春另患,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背蛾绎。 一陣腳步聲響...
    開封第一講書人閱讀 31,977評論 1 265
  • 我被黑心中介騙來泰國打工昆箕, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留鸦列,地道東北人。 一個月前我還...
    沈念sama閱讀 46,316評論 2 360
  • 正文 我出身青樓鹏倘,卻偏偏與公主長得像薯嗤,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子纤泵,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 43,490評論 2 348

推薦閱讀更多精彩內(nèi)容