深度學習講稿(27)

5.5 瀑布下降法

我們在沒有講述瀑布下降法(即完全梯度下降法)之前就比較了這個方法和隨機梯度下降法的優(yōu)劣涡贱。很多人會覺得丈二金剛摸不著頭腦攀隔。但是這其實是很必要的氧急。因為其實本質上算法是很嚴謹細致的東西,其中精妙之處往往隱藏很深巩螃,所以就需要細細體會才能理解其中的思想次企。我們先講其優(yōu)劣和應用,再來看算法本身,就會站在上帝視角來看待算法的全貌婚肆。否則一旦落入算法代碼的汪洋大海,就變成盲人摸象坐慰,只能看到算法的某一個角较性。弱水三千,只取一瓢结胀。至少你要知道三千弱水的不同赞咙,然后才能選最喜歡的那一瓢。

下面我們進入瀑布下降法的代碼環(huán)節(jié)把跨。

數據處理部分就不再詳述了人弓,這一步和之前的隨機梯度下降法是一樣的。我們需要用到矩陣按列求平均值的函數着逐,下面就是這個函數的代碼:

def matrix_column_avg(mat):
    row,column = mat.shape
    result = np.zeros(column)
    for col in range(column):
        for item in range(row):
            result[col] += mat[item,col]
    result /= row
    return result 

它輸入一個矩陣崔赌,輸出一行的向量意蛀,向量中的每一個元素都是輸入矩陣的列平均值。另外健芭,我們將每一次的全部數據的梯度下降都打包成一個函數县钥,讓它對所有的數據點做一次梯度下降。輸出是梯度下降的引擎慈迈,梯度下降乘子(它是一個對角矩陣)以及對應于每條數據的誤差列表若贮。代碼如下:

def excute_grad_desc(data,real_value,weights):
    weight_matrix = np.empty((len(raw_data),len(weights)))
    error_list = []
    for item_index in range(len(data)): 
        # 每個數據條都做一次梯度下降
        # 從第一條數據條開始循環(huán)
        inputs = data[item_index]
        outputs = real_value[item_index]
        engine = rand_grad(inputs,outputs,weights)
        gdm = list(engine.grad_descent_multiplier())
        if min(np.abs(gdm)) > max(np.abs(weights)):
            gdm /= 10*min(np.abs(gdm))/max(np.abs(weights))
        # 下降因子相對于權重過大,此時應將它縮小痒留,否則極易引起誤差發(fā)散谴麦。
        factor = np.diag(gdm)
        error_list.append(engine.error_function())
    return engine, factor, error_list

最后是執(zhí)行整體梯度下降,用單步梯度下降操作之后得到的值計算出平均權重伸头,然后用平均權重當作新的起點進行下一步的梯度下降匾效。這樣就可以用一個循環(huán)來執(zhí)行,即:

for t in range(100): # 梯度下降的下降次數
    engine, factor, error_list = excute_grad_desc(raw_data,sell_price,weights)
    weights -= np.matmul(learning_rate,factor)
    weight_matrix[item_index] = weights
    # 求平均值恤磷,并把它看作是新的權重
    weights = matrix_column_avg(weight_matrix)

print("最終的權重:", weights)
# 驗證權重的有效性, 再執(zhí)行一次
engine, factor, error_list = excute_grad_desc(raw_data,sell_price,weights)
print("誤差列表:", error_list)

最終我們會看到如下的結果:

最終的權重: [1.46239029 0.51211936 1.39663107 1.10692271]
誤差列表: [8.17836538021409e-05, 0.0044868083148646085, 0.0037373692234452895, 0.007409998180022533, 0.0014975302720826947, 0.0076731972041592005]
?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
  • 序言:七十年代末面哼,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子扫步,更是在濱河造成了極大的恐慌魔策,老刑警劉巖,帶你破解...
    沈念sama閱讀 222,252評論 6 516
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件河胎,死亡現(xiàn)場離奇詭異闯袒,居然都是意外死亡,警方通過查閱死者的電腦和手機仿粹,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,886評論 3 399
  • 文/潘曉璐 我一進店門搁吓,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人吭历,你說我怎么就攤上這事堕仔。” “怎么了晌区?”我有些...
    開封第一講書人閱讀 168,814評論 0 361
  • 文/不壞的土叔 我叫張陵摩骨,是天一觀的道長。 經常有香客問我朗若,道長恼五,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 59,869評論 1 299
  • 正文 為了忘掉前任哭懈,我火速辦了婚禮灾馒,結果婚禮上,老公的妹妹穿的比我還像新娘遣总。我一直安慰自己睬罗,他們只是感情好轨功,可當我...
    茶點故事閱讀 68,888評論 6 398
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著容达,像睡著了一般古涧。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上花盐,一...
    開封第一講書人閱讀 52,475評論 1 312
  • 那天羡滑,我揣著相機與錄音,去河邊找鬼算芯。 笑死柒昏,一個胖子當著我的面吹牛,可吹牛的內容都是我干的也祠。 我是一名探鬼主播昙楚,決...
    沈念sama閱讀 41,010評論 3 422
  • 文/蒼蘭香墨 我猛地睜開眼近速,長吁一口氣:“原來是場噩夢啊……” “哼诈嘿!你這毒婦竟也來了?” 一聲冷哼從身側響起削葱,我...
    開封第一講書人閱讀 39,924評論 0 277
  • 序言:老撾萬榮一對情侶失蹤奖亚,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后析砸,有當地人在樹林里發(fā)現(xiàn)了一具尸體昔字,經...
    沈念sama閱讀 46,469評論 1 319
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 38,552評論 3 342
  • 正文 我和宋清朗相戀三年首繁,在試婚紗的時候發(fā)現(xiàn)自己被綠了作郭。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,680評論 1 353
  • 序言:一個原本活蹦亂跳的男人離奇死亡弦疮,死狀恐怖夹攒,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情胁塞,我是刑警寧澤咏尝,帶...
    沈念sama閱讀 36,362評論 5 351
  • 正文 年R本政府宣布,位于F島的核電站啸罢,受9級特大地震影響编检,放射性物質發(fā)生泄漏。R本人自食惡果不足惜扰才,卻給世界環(huán)境...
    茶點故事閱讀 42,037評論 3 335
  • 文/蒙蒙 一允懂、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧衩匣,春花似錦蕾总、人聲如沸酣倾。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,519評論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽躁锡。三九已至,卻和暖如春置侍,著一層夾襖步出監(jiān)牢的瞬間映之,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,621評論 1 274
  • 我被黑心中介騙來泰國打工蜡坊, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留杠输,地道東北人。 一個月前我還...
    沈念sama閱讀 49,099評論 3 378
  • 正文 我出身青樓秕衙,卻偏偏與公主長得像蠢甲,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子据忘,可洞房花燭夜當晚...
    茶點故事閱讀 45,691評論 2 361

推薦閱讀更多精彩內容

  • 5.4 隨機和完全的比較 在之前的小節(jié)中(參見5.2節(jié))鹦牛,我們已經知道完全梯度下降法的算法邏輯是對所有數據條都計算...
    山岳之心閱讀 209評論 0 1
  • 5.3 隨機梯度下降法 我們首先來看隨機梯度下降法的運算順序。前面我們已經講了這種算法的學習邏輯勇吊。它對整個數據集要...
    山岳之心閱讀 212評論 0 1
  • 5.2 三種梯度下降 在上節(jié)中曼追,我們使用了梯度下降實現(xiàn)了多元線性回歸。如果你仔細看過上面的算法汉规。你就知道礼殊,這個算法...
    山岳之心閱讀 439評論 0 5
  • 前幾天看到一份深度學習面試題,抽空做個解答针史,溫故而知新晶伦。解答多來自網絡,后文附上了鏈接啄枕。 深度學習 模型評估方法 ...
    Cat丹閱讀 3,645評論 0 3
  • 這兩篇論文提供了一種簡單的方式婚陪,通過使用一種巧妙的集成方法提升神經網絡的性能。 Garipov 等人提出的 “Lo...
    Lornatang閱讀 1,293評論 0 1