神經(jīng)網(wǎng)絡入門2

神經(jīng)網(wǎng)絡過擬合的處理方法

獲取更多的訓練數(shù)據(jù)

調(diào)節(jié)模型允許存儲的信息量

模型越小宝冕,越不容易過擬合。因為當模型容量很大的時候邓萨,網(wǎng)絡會學習到一種類似全映射的方式地梨。好比如反正能記住,所有的圖片對應的答案都記下來缔恳。這會導致泛化能力變差宝剖。如果你去約束他的記憶容量,然后通過訓練避免網(wǎng)絡模型去提取壓縮有效的內(nèi)在映射關(guān)系歉甚。這樣會幫助提升泛化能力万细。

添加權(quán)重正則化

這里的前提是這樣一個經(jīng)驗, 模型的參數(shù)值分布的熵越小的模型越不容易過擬合纸泄, 這個前提就當經(jīng)驗好了赖钞,為啥不知道。所以我們希望訓練出來的參數(shù)逼近正態(tài)分布聘裁,均值為0雪营。 對于大的參數(shù)進行懲罰,讓網(wǎng)絡訓練通過懲罰反饋衡便,不斷的把參數(shù)中的大值打壓下去献起。
要實現(xiàn)這個目的,方法是镣陕,在計算傳遞損失的時候征唬,添加懲罰值。

from keras import regularizers
model = models.Sequential()
model.add(layers.Dense(16, kernel_regularizer=regularizers.l2(0.001), activation='relu', input_shape=(10000,)))
...

上面代碼中regularizers.l2(0.001)表示在損失反向傳遞的時候茁彭,在計算損失的時候,要加上權(quán)重矩陣引起的懲罰扶歪,該層權(quán)重矩陣每個系數(shù)的平方*0.001作為懲罰值添加到損失中理肺。這個損失只有在訓練的時候添加摄闸,在測試的時候是不懲罰的。

dropout正則化

對某一層使用dropout妹萨,就是在訓練過程中隨機把該層的輸出舍棄一些年枕。(設置為0)同時因為測試時沒有單元被舍棄,所以需要該層的輸出值按dropout比例縮小(這個純粹就講不出啥道理了)
通常測試中為了讓測試時輸出不變乎完,訓練時dropout往往這樣實現(xiàn)

layer_output *= np.random.randint(0,high=2,size=layer_output.shape)
layer_output /= 0.5  #注意因為隨機丟掉了一半熏兄,這里參數(shù)要擴大一倍(感覺是經(jīng)驗做法)

在keras可以通過dropout層向網(wǎng)絡中引入正則化。dropout將被應用與前面一層的輸出

model.add(layers.Dropout(0.5))

機器學習模型建立的通用流程

1 定義問題,收集數(shù)據(jù)集

要明確并整理你要用機器學習解決的問題. 他的輸入是什么,輸出是什么. 要收集足夠的數(shù)據(jù)集. 并且這些數(shù)據(jù)集包含足夠的學習信息(輸入到輸出的各種映射關(guān)系都涵蓋).

2 選擇衡量成功的指標

這個涉及的是如何計算損失树姨。對于平衡分類問題(每個類別的可能性相同)摩桶,精度和接收者操作特征曲線下面積是常用指標,對于類別不平衡的問題帽揪,可以使用準確率硝清, 這里精度和準確率的區(qū)別是啥?转晰?芦拿?

3確定評估方法

根據(jù)數(shù)據(jù)集的大小可以選擇

  • 留出驗證集
  • K折交叉驗證
  • 重復的K折交叉驗證

3準備數(shù)據(jù)

比如將數(shù)據(jù)格式化為張量(因為神經(jīng)網(wǎng)絡的輸入必須是張量)
比如把張量的取值縮放到較小的值范圍
比如當不同的特征具有不同的取值范圍的時候,進行數(shù)據(jù)標準化
你可能需要做特征工程查邢,尤其是對于小數(shù)據(jù)問題 (這句話不理解)

4開發(fā)基礎網(wǎng)絡

5開始進行過擬合

6約束過擬合

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末蔗崎,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子扰藕,更是在濱河造成了極大的恐慌缓苛,老刑警劉巖,帶你破解...
    沈念sama閱讀 212,454評論 6 493
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件实胸,死亡現(xiàn)場離奇詭異他嫡,居然都是意外死亡,警方通過查閱死者的電腦和手機庐完,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,553評論 3 385
  • 文/潘曉璐 我一進店門钢属,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人门躯,你說我怎么就攤上這事淆党。” “怎么了讶凉?”我有些...
    開封第一講書人閱讀 157,921評論 0 348
  • 文/不壞的土叔 我叫張陵染乌,是天一觀的道長。 經(jīng)常有香客問我懂讯,道長荷憋,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 56,648評論 1 284
  • 正文 為了忘掉前任褐望,我火速辦了婚禮勒庄,結(jié)果婚禮上串前,老公的妹妹穿的比我還像新娘。我一直安慰自己实蔽,他們只是感情好荡碾,可當我...
    茶點故事閱讀 65,770評論 6 386
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著局装,像睡著了一般坛吁。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上铐尚,一...
    開封第一講書人閱讀 49,950評論 1 291
  • 那天拨脉,我揣著相機與錄音,去河邊找鬼塑径。 笑死女坑,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的统舀。 我是一名探鬼主播匆骗,決...
    沈念sama閱讀 39,090評論 3 410
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼誉简!你這毒婦竟也來了碉就?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,817評論 0 268
  • 序言:老撾萬榮一對情侶失蹤闷串,失蹤者是張志新(化名)和其女友劉穎瓮钥,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體烹吵,經(jīng)...
    沈念sama閱讀 44,275評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡碉熄,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,592評論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了肋拔。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片锈津。...
    茶點故事閱讀 38,724評論 1 341
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖凉蜂,靈堂內(nèi)的尸體忽然破棺而出琼梆,到底是詐尸還是另有隱情,我是刑警寧澤窿吩,帶...
    沈念sama閱讀 34,409評論 4 333
  • 正文 年R本政府宣布茎杂,位于F島的核電站,受9級特大地震影響纫雁,放射性物質(zhì)發(fā)生泄漏煌往。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 40,052評論 3 316
  • 文/蒙蒙 一轧邪、第九天 我趴在偏房一處隱蔽的房頂上張望刽脖。 院中可真熱鬧悼粮,春花似錦、人聲如沸曾棕。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,815評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽翘地。三九已至,卻和暖如春癌幕,著一層夾襖步出監(jiān)牢的瞬間衙耕,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,043評論 1 266
  • 我被黑心中介騙來泰國打工勺远, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留橙喘,地道東北人。 一個月前我還...
    沈念sama閱讀 46,503評論 2 361
  • 正文 我出身青樓胶逢,卻偏偏與公主長得像厅瞎,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子初坠,可洞房花燭夜當晚...
    茶點故事閱讀 43,627評論 2 350

推薦閱讀更多精彩內(nèi)容