Task01&Task02. 動手學深度學習——從線性回歸出發(fā)

最近正在參加一個公益AI課程要拂,學習深度學習抠璃,打卡監(jiān)督自己。由于剛開始學習pytorch和深度學習脱惰,進度比較慢搏嗡,沒有時間仔細寫筆記,因此先簡單列出提綱拉一,以后再進行補充彻况。本文目錄如下:

Task01

  • 1.線性回歸
  • 2.logistic回歸
  • 3.softmax分類模型
  • 4.多層感知機

Task02

  • 1.文本預(yù)處理
    1. 語言模型
    1. 循環(huán)神經(jīng)網(wǎng)絡(luò)基礎(chǔ)

1. 線性回歸

1.1 線性回歸的形式

y=W^TX+b

1.2 平方損失函數(shù)

如何衡量線性回歸模型擬合得怎么樣?一個直觀的想法就是預(yù)測值和真實值的相差越小越好舅踪,但是由于正負會相互抵消纽甘,因此不直接進行求和,而是取平方和抽碌。
\sum_{i=1}^{n}(\hat{y_i}-y_i)^2

1.3 如何估計系數(shù)悍赢?

模型中的待估系數(shù)包括Wb,應(yīng)該如何估計這兩個系數(shù)呢货徙?
我們的目標是最小化損失函數(shù)左权,也就是
argmin\sum_{i=1}^{n}(\hat{y_i}-y_i)^2
那么就有兩種思路,一種是求解析解痴颊,另一種是求數(shù)值解赏迟。

  • 解析解即最小化一階導(dǎo)數(shù),解出Wb的表達式蠢棱。
  • 很多情況下锌杀,最小化損失函數(shù)無法得到解析解甩栈,因此就需要求數(shù)值解,這里可以用梯度下降的方法求數(shù)值解糕再。

1.4 補充知識點:梯度下降法

2. logistic回歸

2.1 sigmoid函數(shù)

線性回歸可以對y的值是連續(xù)值時建模量没,但我們想象一下,當我們的y值的值域是{0突想,1}時殴蹄,用線性回歸模型顯然不合適,因為等式右邊的范圍時負無窮到正無窮猾担。

但是袭灯,如果我們依然想利用線性回歸模型怎么辦呢?有一個方法就是想辦法將負無窮到正無窮映射到0到1區(qū)間稽荧。那么怎么映射呢圾叼?——sigmoid函數(shù)就是一個方法捺癞。
\text{sigmoid}(x) = \frac{1}{1 + \exp(-x)}.

2.2 logistic回歸的損失函數(shù)——交叉熵損失函數(shù)

對于樣本i,我們構(gòu)造向量\boldsymbol{y}^{(i)}\in \mathbb{R}^{q} 惕鼓,使其第y^{(i)}(樣本i類別的離散數(shù)值)個元素為1唐础,其余為0。這樣我們的訓練目標可以設(shè)為使預(yù)測概率分布\boldsymbol{\hat y}^{(i)}盡可能接近真實的標簽概率分布\boldsymbol{y}^{(i)}呀邢。

  • 平方損失估計

\begin{aligned}Loss = |\boldsymbol{\hat y}^{(i)}-\boldsymbol{y}^{(i)}|^2/2\end{aligned}

然而价淌,想要預(yù)測分類結(jié)果正確瞒津,我們其實并不需要預(yù)測概率完全等于標簽概率。例如巷蚪,在圖像分類的例子里,如果y^{(i)}=3啦膜,那么我們只需要\hat{y}^{(i)}_3比其他兩個預(yù)測值\hat{y}^{(i)}_1\hat{y}^{(i)}_2大就行了。即使\hat{y}^{(i)}_3值為0.6功戚,不管其他兩個預(yù)測值為多少,類別預(yù)測均正確届宠。而平方損失則過于嚴格乘粒,例如\hat y^{(i)}_1=\hat y^{(i)}_2=0.2\hat y^{(i)}_1=0, \hat y^{(i)}_2=0.4的損失要小很多,雖然兩者都有同樣正確的分類預(yù)測結(jié)果轧铁。

改善上述問題的一個方法是使用更適合衡量兩個概率分布差異的測量函數(shù)旦棉。其中,交叉熵(cross entropy)是一個常用的衡量方法:

H\left(\boldsymbol y^{(i)}, \boldsymbol {\hat y}^{(i)}\right ) = -\sum_{j=1}^q y_j^{(i)} \log \hat y_j^{(i)},

其中帶下標的y_j^{(i)}是向量\boldsymbol y^{(i)}中非0即1的元素救斑,需要注意將它與樣本i類別的離散數(shù)值真屯,即不帶下標的y^{(i)}區(qū)分。在上式中运沦,我們知道向量\boldsymbol y^{(i)}中只有第y^{(i)}個元素y^{(i)}{y^{(i)}}為1配深,其余全為0,于是H(\boldsymbol y^{(i)}, \boldsymbol {\hat y}^{(i)}) = -\log \hat y{y^{(i)}}^{(i)}烈掠。也就是說澜共,交叉熵只關(guān)心對正確類別的預(yù)測概率,因為只要其值足夠大母谎,就可以確保分類結(jié)果正確京革。當然幸斥,遇到一個樣本有多個標簽時咬扇,例如圖像里含有不止一個物體時,我們并不能做這一步簡化经窖。但即便對于這種情況梭灿,交叉熵同樣只關(guān)心對圖像中出現(xiàn)的物體類別的預(yù)測概率。

假設(shè)訓練數(shù)據(jù)集的樣本數(shù)為n配乱,交叉熵損失函數(shù)定義為
\ell(\boldsymbol{\Theta}) = \frac{1}{n} \sum_{i=1}^n H\left(\boldsymbol y^{(i)}, \boldsymbol {\hat y}^{(i)}\right ),

其中\boldsymbol{\Theta}代表模型參數(shù)皮迟。同樣地,如果每個樣本只有一個標簽忿檩,那么交叉熵損失可以簡寫成\ell(\boldsymbol{\Theta}) = -(1/n) \sum_{i=1}^n \log \hat y_{y^{(i)}}^{(i)}烦粒。從另一個角度來看代赁,我們知道最小化\ell(\boldsymbol{\Theta})等價于最大化\exp(-n\ell(\boldsymbol{\Theta}))=\prod_{i=1}^n \hat y_{y^{(i)}}^{(i)},即最小化交叉熵損失函數(shù)等價于最大化訓練數(shù)據(jù)集所有標簽類別的聯(lián)合預(yù)測概率徒役。

2.3 估計系數(shù)

這里依然使用梯度下降法

2.4 反向傳播

3. 多層感知機

3.1 softmax

logistic回歸能解決二分類問題窖壕,但是當y的取值是多個的情況下,就需要用到softmax進行分類瞻讽。
softmax運算符(softmax operator)解決了以上兩個問題。它通過下式將輸出值變換成值為正且和為1的概率分布:

\hat{y}_1, \hat{y}_2, \hat{y}_3 = \text{softmax}(o_1, o_2, o_3)

其中

\hat{y}1 = \frac{ \exp(o_1)}{\sum_{i=1}^3 \exp(o_i)},\quad \hat{y}2 = \frac{ \exp(o_2)}{\sum_{i=1}^3 \exp(o_i)},\quad \hat{y}3 = \frac{ \exp(o_3)}{\sum_{i=1}^3 \exp(o_i)}.

容易看出\hat{y}_1 + \hat{y}_2 + \hat{y}_3 = 10 \leq \hat{y}_1, \hat{y}_2, \hat{y}_3 \leq 1晌砾,因此\hat{y}_1, \hat{y}_2, \hat{y}_3是一個合法的概率分布养匈。這時候,如果\hat{y}_2=0.8呕乎,不管\hat{y}_1\hat{y}_3的值是多少,我們都知道圖像類別為貓的概率是80%帝璧。此外,我們注意到

\underset{i}{\arg\max} o_i = \underset{i}{\arg\max} \hat{y}_i

因此softmax運算不改變預(yù)測類別輸出聋溜。

4.多層感知機

其實logistic函數(shù)就是一個一層的神經(jīng)網(wǎng)絡(luò)模型撮躁,但如果想要使網(wǎng)絡(luò)更加復(fù)雜,就可以在其中增加隱藏層把曼。

4.1 不同的激活函數(shù)

  • sigmoid
  • tanh
  • ReLu

4.2 反向傳播

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末嗤军,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子叙赚,更是在濱河造成了極大的恐慌僚饭,老刑警劉巖,帶你破解...
    沈念sama閱讀 210,978評論 6 490
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件苇瓣,死亡現(xiàn)場離奇詭異偿乖,居然都是意外死亡,警方通過查閱死者的電腦和手機媳禁,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 89,954評論 2 384
  • 文/潘曉璐 我一進店門画切,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人丧枪,你說我怎么就攤上這事∨》常” “怎么了?”我有些...
    開封第一講書人閱讀 156,623評論 0 345
  • 文/不壞的土叔 我叫張陵齐佳,是天一觀的道長债沮。 經(jīng)常有香客問我炼吴,道長硅蹦,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 56,324評論 1 282
  • 正文 為了忘掉前任童芹,我火速辦了婚禮假褪,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘生音。我一直安慰自己窒升,他們只是感情好,可當我...
    茶點故事閱讀 65,390評論 5 384
  • 文/花漫 我一把揭開白布瑟由。 她就那樣靜靜地躺著冤寿,像睡著了一般。 火紅的嫁衣襯著肌膚如雪督怜。 梳的紋絲不亂的頭發(fā)上狠角,一...
    開封第一講書人閱讀 49,741評論 1 289
  • 那天,我揣著相機與錄音姨蟋,去河邊找鬼。 笑死眼溶,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的灌旧。 我是一名探鬼主播,決...
    沈念sama閱讀 38,892評論 3 405
  • 文/蒼蘭香墨 我猛地睜開眼枢泰,長吁一口氣:“原來是場噩夢啊……” “哼衡蚂!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起讳窟,我...
    開封第一講書人閱讀 37,655評論 0 266
  • 序言:老撾萬榮一對情侶失蹤敞恋,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后补箍,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 44,104評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡坑雅,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,451評論 2 325
  • 正文 我和宋清朗相戀三年裹粤,在試婚紗的時候發(fā)現(xiàn)自己被綠了蜂林。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 38,569評論 1 340
  • 序言:一個原本活蹦亂跳的男人離奇死亡矮锈,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出苞笨,到底是詐尸還是另有隱情,我是刑警寧澤瀑凝,帶...
    沈念sama閱讀 34,254評論 4 328
  • 正文 年R本政府宣布,位于F島的核電站芝加,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏藏杖。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 39,834評論 3 312
  • 文/蒙蒙 一蝌麸、第九天 我趴在偏房一處隱蔽的房頂上張望艾疟。 院中可真熱鬧,春花似錦蔽莱、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,725評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至锅劝,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間故爵,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 31,950評論 1 264
  • 我被黑心中介騙來泰國打工劲室, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人痹籍。 一個月前我還...
    沈念sama閱讀 46,260評論 2 360
  • 正文 我出身青樓晦鞋,卻偏偏與公主長得像悠垛,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子确买,可洞房花燭夜當晚...
    茶點故事閱讀 43,446評論 2 348