最近在訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)乒验,想要識(shí)別圖片中的水印撞鹉,
樣本數(shù)據(jù):Train on 6786 samples, validate on 1198 samples
模型如下:
但是train loss一直居高不下抓歼,如圖,什么原因呢?
很奇葩的圖掩浙,對(duì)不對(duì)?哈哈哈
可以看到模型容量太小的原因秸歧,什么是模型容量呢厨姚,簡(jiǎn)單的說 就是神經(jīng)網(wǎng)絡(luò)的層數(shù),neural的數(shù)目键菱。
知道原因就好辦了谬墙,提高網(wǎng)絡(luò)的容量:
最終從下圖中可以看到,網(wǎng)絡(luò)的擬合能力提升了经备!
同樣的拭抬,當(dāng)出現(xiàn)overfitting的時(shí)候怎么辦呢,通常有兩種辦法:
1:降低模型容量
2:正則化方法:weight decay, dropout, data augmentation
通常侵蒙,正則化方法比較通用