評(píng)價(jià)神經(jīng)網(wǎng)絡(luò):
現(xiàn)有問題:學(xué)得慢扔茅、學(xué)得不是真正規(guī)律(有干擾)
訓(xùn)練數(shù)據(jù)70%掌挚;測(cè)試數(shù)據(jù)30%
誤差曲線嫌术,(分類)精確度曲線+(回歸問題)R2分?jǐn)?shù)+f1分熟(不均衡數(shù)據(jù))等
過擬合-->L1、L2的正規(guī)化氮块;dropout
確定訓(xùn)練參數(shù)是更有效的:通過交叉驗(yàn)證吼野,可用于nn校哎,ml,橫軸是要測(cè)試的參數(shù)(例如網(wǎng)絡(luò)層數(shù))瞳步,縱軸是誤差\精確度---》可找到合適的層數(shù)
為啥要把特征數(shù)據(jù)來歸一化\標(biāo)準(zhǔn)化贬蛙?這樣不同緯度對(duì)應(yīng)的參數(shù)不會(huì)差得那么大,能加快學(xué)習(xí)速度谚攒,學(xué)得不扭曲: minimax normalization(按比例縮到0_1或-1_1) ? ? ? ? ?std normalization(均值0, 方差std為1)
什么叫好特征?以分類器為例氛堕;選特征要選:不重復(fù)的馏臭、表征簡(jiǎn)單直接的、有意義的
為啥要激勵(lì)函數(shù)Active Function讼稚?解決不能線性方程解決的問題括儒,relu、sigmoid锐想、tanh帮寻;都必須可微,因?yàn)橐狟P赠摇;當(dāng)層數(shù)很多時(shí)固逗,選擇涉及梯度爆炸與梯度消失浅蚪;CNN relu、RNN tanh烫罩、relu
解決過擬合overfitting:增加訓(xùn)練數(shù)據(jù)惜傲、L1、L2正則化:過擬合表現(xiàn)為W變化大贝攒,正則化可以控制盗誊。 ? ? ? ? ? ?原來cost = (Wx - realY)^2;L1正則化變成cost = (Wx - realY)^2 + abs(W)隘弊;這樣如果W變化大哈踱,cost也會(huì)變化大,通過加入絕對(duì)值梨熙,加入了懲罰值开镣;L2正則化+ W^2;--》讓學(xué)到的曲線不那么扭曲 ? ? ? ? ? ? ? ? ? ? dropout串结,隨機(jī)忽略掉一些神經(jīng)元和其連接哑子,這樣其實(shí)在訓(xùn)練不同的子圖,從而從根本上不會(huì)每次一定依賴于特定的神經(jīng)元肌割,L1卧蜓、L2只是加入
設(shè)計(jì)一個(gè)專門學(xué)會(huì)調(diào)參的網(wǎng)絡(luò)?把敞?