
本文集是本人在coursera上學習吳恩達-機器學習的筆記独撇。相關(guān)說明會在這一頁上更新气筋。 課程主頁https://www.coursera.org...
一夸政、引子 對于非線性的分類問題待诅,當自變量較多的時候膊爪,用之前的回歸的方法就會非常復雜懊蒸,因為在我們要擬合的函數(shù)項的可能性會爆炸测秸。例如兴使,如果我們有10...
過擬合 特征多了系宜,模型對當前的樣本高度擬合,但一旦換一組樣本发魄,會出現(xiàn)極大的偏差盹牧。我們?nèi)绾谓鉀Q過擬合的問題呢? 減少特征(人為選擇或者利用算法模型...
多分類的例子: 郵件標簽:工作励幼、家庭汰寓、興趣愛好... 身體狀況:健康、亞健康苹粟、患病... ...用圖表示:二元分類多分類我們已經(jīng)知道了對于二元分...
一有滑、代價函數(shù) 我們希望獲得凸(convex)函數(shù),這樣的函數(shù)有更好的收斂性六水。因此我們不能直接使用之前線性回歸用的代價函數(shù)俺孙。 當y=1時,有:h→...
假設(shè)函數(shù)的表達式 邏輯回歸模型 我們希望 0≤h≤1掷贾,可以設(shè)h=g(θ.T x)令g(z)=1/(1+e^(-z))這個函數(shù)g叫做sigmoid...
〇、數(shù)學表示 n: 特征量的維度 下圖表示第i個樣本的特征向量的第j個特征分量 h(x)=θ0x0+θ1x1+θ2x2+θ3x3+...+θnx...
梯度下降在整個機器學習中都很重要 〇荣茫、問題回顧 找到θ0想帅、θ1,最小化代價函數(shù)J(θ0,θ1) outline 初始化θ0啡莉,θ1 調(diào)整θ0港准、θ1...
一、監(jiān)督學習的模型 m:訓練樣本數(shù)目 x:輸入變量/特征量 y:輸出變量/目標變量 (x(i),y(i)):第i個訓練樣本 x(i):第i個訓練...