吳恩達(dá)機(jī)器學(xué)習(xí)筆記(1)

一.初識(shí)機(jī)器學(xué)習(xí)

1.監(jiān)督學(xué)習(xí)

在監(jiān)督學(xué)習(xí)中笋敞,訓(xùn)練數(shù)據(jù)既有特征又有標(biāo)簽观挎,通過(guò)訓(xùn)練,讓機(jī)器可以自己找到特征和標(biāo)簽之間的聯(lián)系役衡,在面對(duì)只有特征沒(méi)有標(biāo)簽的數(shù)據(jù)時(shí)茵休,可以判斷出標(biāo)簽。監(jiān)督學(xué)習(xí)可以分為回歸問(wèn)題和分類問(wèn)題手蝎¢泡海回歸問(wèn)題是利用訓(xùn)練出的模型,預(yù)測(cè)連續(xù)的數(shù)值輸出棵介;分類問(wèn)題是預(yù)測(cè)離散值的輸出钉鸯。

2.無(wú)監(jiān)督學(xué)習(xí)

無(wú)監(jiān)督學(xué)習(xí)是給算法大量的數(shù)據(jù),要求它找出數(shù)據(jù)的類型結(jié)構(gòu)邮辽。無(wú)監(jiān)督學(xué)習(xí)的數(shù)據(jù)沒(méi)有標(biāo)簽唠雕,或是所有數(shù)據(jù)都是同一種標(biāo)簽。聚類算法就屬于無(wú)監(jiān)督學(xué)習(xí)吨述。

二.單變量線性回歸

1.模型描述

線性回歸就是用直線模型來(lái)擬合數(shù)據(jù)岩睁,它解決的是最小化問(wèn)題,要求預(yù)測(cè)值與準(zhǔn)確值之間的差異最小揣云。
\begin{cases} 假設(shè)函數(shù)(hypothesis):h_\theta (x)=\theta_0+\theta_1 x \\ 參數(shù)(parameters):\theta_0,\theta_1\\ 損失函數(shù)(cost function):J(\theta_0,\theta_1)=\frac{1}{2m}\sum_{i=1}^{m}{(h_\theta(x^{(i)})-y^{(i)})^2}\\ 目標(biāo)(goal):min_{\theta_0,\theta_1} J(\theta_0,\theta_1) \end{cases}

2.梯度下降法
(1)梯度下降法思路

給定\theta_0\theta_1的初始值(通常取0)笙僚;不斷更新\theta_0\theta_1,使得J(\theta_0,\theta_1)變小灵再,直到找到最小值肋层。

(2)梯度下降法的參數(shù)更新公式:

\theta_j:=\theta_j-\alpha\frac{\partial}{\partial\theta_j}J(\theta_0,\theta_1)
其中亿笤,\alpha是學(xué)習(xí)率,即控制梯度下降邁出的步長(zhǎng)栋猖;\frac{\partial}{\partial\theta_j}J(\theta_0,\theta_1)是導(dǎo)數(shù)項(xiàng)净薛,即梯度下降的方向。要注意蒲拉,在更新時(shí)必須要同時(shí)更新\theta_0\theta_1肃拜。
梯度下降時(shí),不用刻意減小\alpha雌团,因?yàn)殡S著離最小值越來(lái)越近燃领,導(dǎo)數(shù)項(xiàng)(斜率)會(huì)越來(lái)越小,所以下降幅度會(huì)自動(dòng)變小锦援。

3.線性回歸中的梯度下降
(1)線性回歸中的更新公式

\frac{\partial}{\partial\theta_j}J(\theta_0,\theta_1)=\frac{\partial}{\partial\theta_j}\frac{1}{2m}\sum_{i=1}^{m}{(h_\theta(x^{(i)})-y^{(i)})^2}=\frac{\partial}{\partial\theta_j}\frac{1}{2m}\sum_{i=1}^{m}{(\theta_0+\theta_1x^{(i)}-y^{(i)})^2}
\frac{\partial}{\partial\theta_0}J(\theta_0,\theta_1)=\frac{1}{m}\sum_{i=1}^{m}{(h_\theta(x^{(i)})-y^{(i)})},\frac{\partial}{\partial\theta_1}J(\theta_0,\theta_1)=\frac{1}{m}\sum_{i=1}^{m}{(h_\theta(x^{(i)})-y^{(i)})x^{(i)}}.
所以 \theta_0:=\theta_0-\alpha\frac{1}{m}\sum_{i=1}^{m}{(h_\theta(x^{(i)})-y^{(i)})},\theta_1:=\theta_1-\alpha\frac{1}{m}\sum_{i=1}^{m}{(h_\theta(x^{(i)})-y^{(i)})x^{(i)}}
重復(fù)上述更新猛蔽,直至收斂。需要強(qiáng)調(diào)的是灵寺,梯度下降法容易陷入局部最優(yōu)的問(wèn)題曼库,但如果目標(biāo)函數(shù)為凸函數(shù),則梯度下降法只有全局最優(yōu)解略板,沒(méi)有局部最優(yōu)解毁枯,線性回歸的損失函數(shù)就是凸函數(shù)。

三.多變量線性回歸

1.模型描述

多變量線性回歸模型和單變量線性回歸模型類似叮称,單變量線性回歸模型每個(gè)訓(xùn)練樣本有一個(gè)特征种玛,而多變量線性回歸模型每個(gè)訓(xùn)練樣本有多個(gè)特征。
\begin{cases} 假設(shè)函數(shù)(hypothesis):h_\theta (x)=\theta_0x_0+\theta_1 x_1+...+\theta_nx_n (x_0=1)\\ 參數(shù)(parameters):\theta_0,\theta_1,...,\theta_n\\ 損失函數(shù)(cost function):J(\theta_0,\theta_1,...,\theta_n)=\frac{1}{2m}\sum_{i=1}^{m}{(h_\theta(x^{(i)})-y^{(i)})^2}\\ 目標(biāo)(goal):min_{\theta_0,\theta_1,...,\theta_n} J(\theta_0,\theta_1,...,\theta_n) \end{cases}
需要注意的是:線性回歸中的“線性”的含義是指預(yù)測(cè)值h_\theta(x)與未知的回歸系數(shù)\theta_0,\theta_1,...,\theta_n是線性的瓤檐,并不是指跟特征x是線性的蒂誉。所以可以根據(jù)解決問(wèn)題的不同,選擇合適的特征去擬合數(shù)據(jù)(比如將已知的特征相乘等)距帅。

2.多變量線性回歸的梯度下降法
(1)更新公式

\theta_j:=\theta_j-\alpha\frac{1}{m}\sum_{i=1}^{m}{(h_\theta(x^{(i)})-y^{(i)})x_j^{(i)}}(j=0,1,...,n)
重復(fù)上式右锨,直至收斂。

(2)多元梯度下降法演練

特征縮放:在梯度下降中碌秸,如果每個(gè)特征值的范圍相差太大绍移,則損失函數(shù)的等高線呈橢圓狀,會(huì)導(dǎo)致梯度下降來(lái)回震蕩(下降方向與等高線切線垂直)讥电,需要很長(zhǎng)時(shí)間才會(huì)收斂蹂窖;所以如果能確保每個(gè)特征值都在相近的范圍內(nèi),這樣梯度下降就可以更快地收斂恩敌。
特征縮放的方法主要有:每個(gè)特征值都除以它的最大值瞬测;或均值歸一化\frac{x-\mu}{max-min}等;具體方法視情況而定。
學(xué)習(xí)率的選擇:一般可以用損失函數(shù)的值和迭代次數(shù)的函數(shù)來(lái)判斷梯度下降是否收斂月趟。如圖:

如果函數(shù)如上述三種情況所示灯蝴,則都說(shuō)明學(xué)習(xí)率過(guò)大,應(yīng)該減小學(xué)習(xí)率孝宗。只有當(dāng)函數(shù)圖像如下圖所示時(shí)穷躁,才說(shuō)明梯度下降法是收斂的:

總之,只要學(xué)習(xí)率足夠小因妇,則每次迭代后的損失函數(shù)都會(huì)下降问潭,但如果學(xué)習(xí)率過(guò)小,則梯度下降法可能收斂速度過(guò)慢婚被。

3.正規(guī)方程法

正規(guī)方程法是通過(guò)求解該方程:\frac{\partial}{\partial\theta_j}J(\theta_0,\theta_1,...,\theta_n)=0來(lái)尋找使得損失函數(shù)最小的 \theta狡忙。

假設(shè)有m個(gè)訓(xùn)練樣本:(x^{(1)},y^{(1)}),(x^{(2)},y^{(2)}),...,(x^{(m)},y^{(m)}),和n個(gè)特征變量址芯。
x^{(i)} = \left[ \begin{matrix} x_0^{(i)}\\ x_1^{(i)}\\ ...\\ x_n^{(i)}\\ \end{matrix} \right],設(shè)計(jì)矩陣X = \left[ \begin{matrix} x^{(1)T}\\ x^{(2)T}\\ ...\\ x^{(m)T}\\ \end{matrix} \right] _{m*(n+1)},y = \left[ \begin{matrix} y^{(1)}\\ y^{(2)}\\ ...\\ y^{(m)}\\ \end{matrix} \right]

\theta=(X^TX)^{-1}X^Ty灾茁。具體數(shù)學(xué)推導(dǎo)可參考鏈接

4.梯度下降法與正規(guī)方程法比較

梯度下降法缺點(diǎn):(1)需要選擇合適的學(xué)習(xí)率是复;(2)需要多次迭代删顶,計(jì)算較慢竖螃。(這些缺點(diǎn)正規(guī)方程法都可避免)
梯度下降法優(yōu)點(diǎn):特征變量很多時(shí)淑廊,也能運(yùn)行的相當(dāng)好。(但特征變量過(guò)多的話特咆,正規(guī)方程法計(jì)算逆的速度會(huì)很慢)
所以季惩,當(dāng)n較小時(shí),選正規(guī)方程法腻格;當(dāng)n>10000時(shí)画拾,更傾向于梯度下降法。

5.正規(guī)方程在矩陣不可逆情況下的解決方法

若矩陣不可逆菜职,首先看是否有多余特征青抛,比如x_1x_2線性相關(guān),則可刪除其中一個(gè)酬核;如果沒(méi)有多余的特征蜜另,則檢查是否有過(guò)多的特征,如果特征過(guò)多嫡意,則考慮刪除一些影響很小的特征或考慮正則化举瑰。

四.總結(jié)

這兩周學(xué)習(xí)了吳恩達(dá)的機(jī)器學(xué)習(xí)視頻,主要是線性回歸的部分蔬螟,內(nèi)容都還是比較基礎(chǔ)的此迅,之前也都學(xué)習(xí)過(guò),但之前的學(xué)習(xí)主要是從統(tǒng)計(jì)角度的理解,從機(jī)器學(xué)習(xí)的角度重新學(xué)習(xí)后耸序,也有一些新的收獲忍些。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市佑吝,隨后出現(xiàn)的幾起案子坐昙,更是在濱河造成了極大的恐慌,老刑警劉巖芋忿,帶你破解...
    沈念sama閱讀 221,820評(píng)論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件炸客,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡戈钢,警方通過(guò)查閱死者的電腦和手機(jī)痹仙,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,648評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)殉了,“玉大人开仰,你說(shuō)我怎么就攤上這事⌒酵” “怎么了众弓?”我有些...
    開(kāi)封第一講書(shū)人閱讀 168,324評(píng)論 0 360
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)隔箍。 經(jīng)常有香客問(wèn)我谓娃,道長(zhǎng),這世上最難降的妖魔是什么蜒滩? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 59,714評(píng)論 1 297
  • 正文 為了忘掉前任滨达,我火速辦了婚禮,結(jié)果婚禮上俯艰,老公的妹妹穿的比我還像新娘捡遍。我一直安慰自己,他們只是感情好竹握,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,724評(píng)論 6 397
  • 文/花漫 我一把揭開(kāi)白布画株。 她就那樣靜靜地躺著,像睡著了一般啦辐。 火紅的嫁衣襯著肌膚如雪谓传。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書(shū)人閱讀 52,328評(píng)論 1 310
  • 那天昧甘,我揣著相機(jī)與錄音良拼,去河邊找鬼。 笑死充边,一個(gè)胖子當(dāng)著我的面吹牛庸推,可吹牛的內(nèi)容都是我干的常侦。 我是一名探鬼主播,決...
    沈念sama閱讀 40,897評(píng)論 3 421
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼贬媒,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼聋亡!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起际乘,我...
    開(kāi)封第一講書(shū)人閱讀 39,804評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤坡倔,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后脖含,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體罪塔,經(jīng)...
    沈念sama閱讀 46,345評(píng)論 1 318
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,431評(píng)論 3 340
  • 正文 我和宋清朗相戀三年养葵,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了征堪。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,561評(píng)論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡关拒,死狀恐怖佃蚜,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情着绊,我是刑警寧澤谐算,帶...
    沈念sama閱讀 36,238評(píng)論 5 350
  • 正文 年R本政府宣布,位于F島的核電站归露,受9級(jí)特大地震影響洲脂,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜靶擦,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,928評(píng)論 3 334
  • 文/蒙蒙 一腮考、第九天 我趴在偏房一處隱蔽的房頂上張望雇毫。 院中可真熱鬧玄捕,春花似錦、人聲如沸棚放。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 32,417評(píng)論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)飘蚯。三九已至馍迄,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間局骤,已是汗流浹背攀圈。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,528評(píng)論 1 272
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留峦甩,地道東北人赘来。 一個(gè)月前我還...
    沈念sama閱讀 48,983評(píng)論 3 376
  • 正文 我出身青樓现喳,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親犬辰。 傳聞我的和親對(duì)象是個(gè)殘疾皇子嗦篱,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,573評(píng)論 2 359

推薦閱讀更多精彩內(nèi)容