本文集是本人在coursera上學(xué)習(xí)吳恩達(dá)-機(jī)器學(xué)習(xí)的筆記青团。相關(guān)說明會(huì)在這一頁上更新逞度。 課程主頁https://www.coursera.org...
一志衍、引子 對(duì)于非線性的分類問題,當(dāng)自變量較多的時(shí)候桦锄,用之前的回歸的方法就會(huì)非常復(fù)雜,因?yàn)樵谖覀円獢M合的函數(shù)項(xiàng)的可能性會(huì)爆炸。例如濒生,如果我們有10...
過擬合 特征多了,模型對(duì)當(dāng)前的樣本高度擬合幔欧,但一旦換一組樣本罪治,會(huì)出現(xiàn)極大的偏差丽声。我們?nèi)绾谓鉀Q過擬合的問題呢? 減少特征(人為選擇或者利用算法模型...
多分類的例子: 郵件標(biāo)簽:工作觉义、家庭雁社、興趣愛好... 身體狀況:健康、亞健康晒骇、患病... ...用圖表示:二元分類多分類我們已經(jīng)知道了對(duì)于二元分...
一霉撵、代價(jià)函數(shù) 我們希望獲得凸(convex)函數(shù),這樣的函數(shù)有更好的收斂性洪囤。因此我們不能直接使用之前線性回歸用的代價(jià)函數(shù)徒坡。 當(dāng)y=1時(shí),有:h→...
假設(shè)函數(shù)的表達(dá)式 邏輯回歸模型 我們希望 0≤h≤1瘤缩,可以設(shè)h=g(θ.T x)令g(z)=1/(1+e^(-z))這個(gè)函數(shù)g叫做sigmoid...
〇喇完、數(shù)學(xué)表示 n: 特征量的維度 下圖表示第i個(gè)樣本的特征向量的第j個(gè)特征分量 h(x)=θ0x0+θ1x1+θ2x2+θ3x3+...+θnx...
梯度下降在整個(gè)機(jī)器學(xué)習(xí)中都很重要 〇、問題回顧 找到θ0剥啤、θ1锦溪,最小化代價(jià)函數(shù)J(θ0,θ1) outline 初始化θ0,θ1 調(diào)整θ0府怯、θ1...
一海洼、監(jiān)督學(xué)習(xí)的模型 m:訓(xùn)練樣本數(shù)目 x:輸入變量/特征量 y:輸出變量/目標(biāo)變量 (x(i),y(i)):第i個(gè)訓(xùn)練樣本 x(i):第i個(gè)訓(xùn)練...