機器學習學習筆記(六)梯度下降法

基礎(chǔ)

(1)梯度下降法本身不是一個機器學習算法

(2)梯度下降法是一種基于搜索的最優(yōu)化方法

(3)梯度下降法的作用:最小化一個損失函數(shù)

(4)梯度上升法:最大化一個效用函數(shù)

學習率eta如果太小,減慢收斂學習速度鸳碧;太大的話订框,會導致不收斂。


梯度下降
eta

并不是所有函數(shù)都有唯一的極致點奉件。

解決方案:多次運行星瘾,隨機化初始點

梯度下降法的初始點也是一個超參數(shù)坐桩。

原理


封裝:

def gradient_descent(initial_theta,eta,epsilon=1e-8):

??? theta=initial_theta

???theta_history.append(initial_theta)

??? while True:

??????? gradient=dJ(theta)

??????? last_theta=theta

???????theta=theta-eta*gradient

???????theta_history.append(theta)

???? ???if(abs(J(theta)-J(last_theta ))

??????????? break

def plot_theta_history():

???plt.plot(plot_x,J(plot_x))

???plt.plot(np.array(theta_history),J(np.array(theta_history)),color="red",marker="+")

??? plt.show

調(diào)用:

eta=0.01

theta_history=[]

gradient_descent(0.,eta)

plot_theta_history()

結(jié)果:

eta過長的:

避免死循環(huán)的產(chǎn)生:設(shè)置n_iters最多次數(shù)

普遍說,eta默認設(shè)置0.01是普遍的方法及塘,通過繪制的方法可以查看eta是否設(shè)置過大莽使。

多元線性回歸中的梯度下降法



封裝:

(1) def J

def J(theta,X_b,y):

??? try:

??????? returnnp.sum((y-X_b.dot(theta))**2)/len(X_b)

??? except:

??????? returnfloat('inf')

(2) def dJ

def dJ(theta,X_b,y):

???res=np.empty(len(theta))

???res[0]=np.sum(X_b.dot(theta)-y)

??? for i inrange(1,len(theta)):

??????? res[i]=(X_b.dot(theta)-y).dot(X_b[:,i])

return res*2/len(X_b)

(3) gradient_descent梯度下降

defgradient_descent(X_b,y,initial_theta,eta,n_iters=1e4,epsilon=1e-8):

??? theta=initial_theta

??? i_iter=0

??? whilei_iter

???????gradient=dJ(theta,X_b,y)

??????? last_theta=theta

???????theta=theta-eta*gradient

??????? if(abs(J(theta,X_b,y)-J(last_theta,X_b,y))

??????????? break

??????? i_iter+=1

??? return theta

使用梯度下降法前,最好對數(shù)據(jù)進行歸一化

fromsklearn.preprocessing import StandardScaler

批量梯度下降法BatchGradientDescent


實現(xiàn):

def dJ_sgd(theta,X_b_i,y_i):

??? returnX_b_i.T.dot(X_b_i.dot(theta)-y_i)*2

def sgd(X_b,y,initial_theta,n_iters):

??? t0=5

??? t1=50

??? def learning_rate(t):

??????? return t0/(t+t1)

??? theta=initial_theta

??? for cur_iter inranage(n_iters):

???????rand_i=np.random.randint(0,len(X_b))

???????gradient=dJ_sgd(theta,X_b[rand_i],y[rand_i])

???????theta=theta-learning_rate(cur_iter)*gradient

??? return theta

調(diào)用:

X_b=np.hstack([np.ones((len(X),1)),X])

initial_theta=np.zeros(X_b.shape[1])

theta=sgd(X_b,y,initial_theta,n_iters=len(X_b)//3)

關(guān)于梯度的調(diào)試

def dJ_debug(theta,X_b,y,epsilon=0.01):

???res=np.empty(len(theta))

??? for i inrange(len(theta)):

???????theta_1=theta.copy()

?? ?????theta_1[i]+=epsilon

???????theta_2=theta.copy()

???????theta_2[i]-=epsilon

???????res[i]=(J(theta_1,X_b,y)-J(theta_2,X_b,y))/(2*epsilon)

??? return res

總結(jié)

批量梯度下降法:BatchGradientDescent

優(yōu)點:穩(wěn)定磷蛹,一定能向損失函數(shù)最快的方向前進

缺點:求解的速度比較慢

隨機梯度下降法:StochasticGradientDescent

優(yōu)點:求解的速度比較快

缺點:不穩(wěn)定吮旅,損失函數(shù)方向不確定,甚至有可能向反方向前進

小批量梯度下降法:Mini-BatchGradient Descent

每次看k個樣本,兼顧上兩者的優(yōu)點庇勃。

?

隨機:

優(yōu)點:跳出局部最優(yōu)解檬嘀;更快的運行速度

機器學習領(lǐng)域中很多算法都會使用隨機的特點:例如:隨機搜索,隨機森林责嚷。

梯度上升法:求最大值鸳兽,最大化一個效用函數(shù)

更多:

?機器學習學習筆記(七)PCA

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市罕拂,隨后出現(xiàn)的幾起案子揍异,更是在濱河造成了極大的恐慌,老刑警劉巖爆班,帶你破解...
    沈念sama閱讀 221,198評論 6 514
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件衷掷,死亡現(xiàn)場離奇詭異,居然都是意外死亡柿菩,警方通過查閱死者的電腦和手機戚嗅,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,334評論 3 398
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來枢舶,“玉大人懦胞,你說我怎么就攤上這事×剐梗” “怎么了躏尉?”我有些...
    開封第一講書人閱讀 167,643評論 0 360
  • 文/不壞的土叔 我叫張陵,是天一觀的道長后众。 經(jīng)常有香客問我胀糜,道長,這世上最難降的妖魔是什么蒂誉? 我笑而不...
    開封第一講書人閱讀 59,495評論 1 296
  • 正文 為了忘掉前任僚纷,我火速辦了婚禮,結(jié)果婚禮上拗盒,老公的妹妹穿的比我還像新娘。我一直安慰自己锥债,他們只是感情好陡蝇,可當我...
    茶點故事閱讀 68,502評論 6 397
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著哮肚,像睡著了一般登夫。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上恼策,一...
    開封第一講書人閱讀 52,156評論 1 308
  • 那天,我揣著相機與錄音,去河邊找鬼分唾。 笑死,一個胖子當著我的面吹牛绽乔,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播碳褒,決...
    沈念sama閱讀 40,743評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼沙峻!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起摔寨,我...
    開封第一講書人閱讀 39,659評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎祷肯,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體佑笋,經(jīng)...
    沈念sama閱讀 46,200評論 1 319
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 38,282評論 3 340
  • 正文 我和宋清朗相戀三年蒋纬,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片蜀备。...
    茶點故事閱讀 40,424評論 1 352
  • 序言:一個原本活蹦亂跳的男人離奇死亡关摇,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出碾阁,到底是詐尸還是另有隱情输虱,我是刑警寧澤,帶...
    沈念sama閱讀 36,107評論 5 349
  • 正文 年R本政府宣布脂凶,位于F島的核電站宪睹,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏蚕钦。R本人自食惡果不足惜亭病,卻給世界環(huán)境...
    茶點故事閱讀 41,789評論 3 333
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望嘶居。 院中可真熱鬧罪帖,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,264評論 0 23
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至葬项,卻和暖如春泞当,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背民珍。 一陣腳步聲響...
    開封第一講書人閱讀 33,390評論 1 271
  • 我被黑心中介騙來泰國打工襟士, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人嚷量。 一個月前我還...
    沈念sama閱讀 48,798評論 3 376
  • 正文 我出身青樓陋桂,卻偏偏與公主長得像,于是被迫代替她去往敵國和親蝶溶。 傳聞我的和親對象是個殘疾皇子嗜历,可洞房花燭夜當晚...
    茶點故事閱讀 45,435評論 2 359

推薦閱讀更多精彩內(nèi)容