在計(jì)算機(jī)視覺(jué)領(lǐng)域袒炉,有一個(gè)方向是語(yǔ)義分割,一般是針對(duì)圖像進(jìn)行像素級(jí)分類付材。具體而言朦拖,語(yǔ)義圖像分割就是將每個(gè)像素都標(biāo)注上其對(duì)應(yīng)的類別。由于所有的像素都要考慮到厌衔,因此語(yǔ)義圖像分割任務(wù)也被視為是稠密預(yù)測(cè)的一種璧帝。
在此,要區(qū)別一下實(shí)例分割(具體可參考著名的MaskRCNN模型)富寿,實(shí)例分割常常與目標(biāo)檢測(cè)系統(tǒng)相互結(jié)合睬隶,用于檢測(cè)和分割場(chǎng)景中同一對(duì)象的多個(gè)實(shí)例。
基于深度學(xué)習(xí)的語(yǔ)義分割方法:
用卷積神經(jīng)網(wǎng)絡(luò)分類(全卷積網(wǎng)絡(luò))作喘,與普通網(wǎng)絡(luò)不同的是理疙,分類層是卷積層,普通網(wǎng)絡(luò)為全連接層泞坦。
最近的語(yǔ)義分割架構(gòu)一般都用卷積神經(jīng)網(wǎng)絡(luò)(CNN)為每個(gè)像素分配一個(gè)初始類別標(biāo)簽。卷積層可以有效地捕捉圖像中的局部特征砖顷,并以層級(jí)的方式將許多這樣的模塊嵌套在一起贰锁,這樣 CNN 就可以試著提取更大的結(jié)構(gòu)了。通過(guò)一系列卷積捕捉圖像的復(fù)雜特征滤蝠,CNN 可以將一張圖的內(nèi)容編碼為緊湊表征豌熄。
但為了將單獨(dú)的像素映射給標(biāo)簽,我們需要將標(biāo)準(zhǔn) CNN 編碼器擴(kuò)展為編碼器-解碼器架構(gòu)物咳。在這個(gè)架構(gòu)中锣险,編碼器使用卷積層和池化層將特征圖尺寸縮小,使其成為更低維的表征览闰。解碼器接收到這一表征芯肤,用通過(guò)轉(zhuǎn)置卷積執(zhí)行上采樣而「恢復(fù)」空間維度,這樣每一個(gè)轉(zhuǎn)置卷積都能擴(kuò)展特征圖尺寸压鉴。在某些情況下崖咨,編碼器的中間步驟可用于調(diào)優(yōu)解碼器。最終油吭,解碼器生成一個(gè)表示原始圖像標(biāo)簽的數(shù)組击蹲。
常見(jiàn)模型:
1.FCN系列
三種模型FCN-32S, FCN-16S, FCN-8S
主要貢獻(xiàn):
不含全連接層(fc)的全卷積(fully conv)網(wǎng)絡(luò)⊥裨祝可適應(yīng)任意尺寸輸入歌豺。
增大數(shù)據(jù)尺寸的反卷積(deconv)層。能夠輸出精細(xì)的結(jié)果心包。
結(jié)合不同深度層結(jié)果的跳級(jí)(skip)結(jié)構(gòu)类咧。同時(shí)確保魯棒性和精確性。
2.SegNet
SegNet和FCN思路十分相似,只是Encoder,Decoder(Upsampling)使用的技術(shù)不一致轮听。此外SegNet的編碼器部分使用的是VGG16的前13層卷積網(wǎng)絡(luò)骗露,每個(gè)編碼器層都對(duì)應(yīng)一個(gè)解碼器層,最終解碼器的輸出被送入soft-max分類器以獨(dú)立的為每個(gè)像素產(chǎn)生類概率血巍。
3.Unet及各種變體
在生物醫(yī)學(xué)圖像處理中萧锉,得到圖像中的每一個(gè)細(xì)胞的類別標(biāo)簽是非常關(guān)鍵的。生物醫(yī)學(xué)中最大的挑戰(zhàn)就是用于訓(xùn)練的圖像是不容易獲取的述寡,數(shù)據(jù)量也不會(huì)很大柿隙。U-Net 是非常著名的解決方案,它在全連接卷積層上構(gòu)建模型鲫凶,對(duì)其做了修改使得它能夠在少量的訓(xùn)練圖像數(shù)據(jù)上運(yùn)行禀崖,得到了更加精確的分割。
4.Deeplab系列
主要有模型Deeplabv1,Deeplabv2,Deeplabv3,Deeplabv3+螟炫。
將 CNN 編碼器-解碼器和 CRF 精煉過(guò)程相結(jié)合以產(chǎn)生目標(biāo)標(biāo)簽(作者強(qiáng)調(diào)了解碼器的上采樣)波附。空洞卷積(也稱擴(kuò)張卷積)在每一層都使用大小不同的卷積核昼钻,使每一層都能捕獲各種比例的特征掸屡。
V3+使用深度分離卷積替代了pooling,并且使用了Xception然评,Xception的核心是使用了Depthwise separable convolution仅财。Depthwise separable convolution的思想來(lái)自inception結(jié)構(gòu),是inception結(jié)構(gòu)的一種極限情況碗淌。Inception 首先給出了一種假設(shè):卷積層通道間的相關(guān)性和空間相關(guān)性是可以退耦合的盏求,將它們分開(kāi)映射,能達(dá)到更好的效果亿眠。在inception結(jié)構(gòu)中碎罚,先對(duì)輸入進(jìn)行11的卷積,之后將通道分組缕探,分別使用不同的33卷積提取特征魂莫,最后將各組結(jié)果串聯(lián)在一起作為輸出。
主要貢獻(xiàn):
- 為密集預(yù)測(cè)任務(wù)使用具有上采樣的卷積
- 在多尺度上為分割對(duì)象進(jìn)行帶洞空間金字塔池化(ASPP)
- 通過(guò)使用 DCNNs 提升了目標(biāo)邊界的定位
解決了語(yǔ)義分割的主要挑戰(zhàn)爹耗,包括:
- 由重復(fù)的最大池化和下采樣導(dǎo)致的特征分辨率降低
- 檢測(cè)多尺度目標(biāo)
- 因?yàn)橐阅繕?biāo)為中心的分類器需要對(duì)空間變換具有不變性耙考,因而降低了由 DCNN 的不變性導(dǎo)致的定位準(zhǔn)確率。
5.Unet++
UNet ++(嵌套U-Net架構(gòu))用于更精確的分割潭兽。我們引入中間層來(lái)跳過(guò)U-Net的連接倦始,這自然形成了來(lái)自不同深度的多個(gè)新的上采樣路徑,集合了各種感受域的U-Nets山卦。
6.PSPNet
金字塔場(chǎng)景解析網(wǎng)絡(luò)是建立在FCN之上的基于像素級(jí)分類網(wǎng)絡(luò)鞋邑。特性映射來(lái)自網(wǎng)絡(luò)被轉(zhuǎn)換成不同分辨率的激活,并經(jīng)過(guò)多尺度處理池層,稍后向上采樣并與原始層連接進(jìn)行分割的feature map(見(jiàn)圖)枚碗。學(xué)習(xí)的過(guò)程利用輔助分類器進(jìn)一步優(yōu)化了像ResNet這樣的深度網(wǎng)絡(luò)逾一。不同類型的池模塊側(cè)重于激活的不同區(qū)域地圖。將大小不同的內(nèi)核集中在一起激活地圖的不同區(qū)域創(chuàng)建空間池金字塔肮雨。
7.RefineNet
使用CNN最后一層的特性可以生成soft對(duì)象段的邊界遵堵。在DeepLab算法中避免了這個(gè)問(wèn)題深黑色的卷曲。RefineNet采用了另一種方法通過(guò)細(xì)化中間激活映射并分層地將其連接到結(jié)合多尺度激活怨规,同時(shí)防止銳度損失陌宿。網(wǎng)絡(luò)由獨(dú)立的RefineNet模塊組成,每個(gè)模塊對(duì)應(yīng)于ResNet波丰。每個(gè)RefineNet模塊由三個(gè)主要模塊組成壳坪,即:剩余卷積單元(RCU),多分辨率融合(MRF)和鏈?zhǔn)S喑?CRP)掰烟。RCU塊由一個(gè)自適應(yīng)塊組成卷積集爽蝴,微調(diào)預(yù)訓(xùn)練的ResNet權(quán)重對(duì)于分割問(wèn)題。MRF層融合不同的激活物使用卷積和上采樣層來(lái)創(chuàng)建更高的分辨率地圖媚赖。最后霜瘪,在CRP層池中使用多種大小的內(nèi)核用于從較大的圖像區(qū)域捕獲背景上下文。RefineNet在Person-Part數(shù)據(jù)集上進(jìn)行了測(cè)試68.6惧磺,與DeepLab-v2的64.9相比,兩者都使用了ResNet-101作為特征提取器捻撑。
8.FastFCN
此模型提出了一種被稱作聯(lián)合金字塔上采樣(Joint Pyramid Upsampling/JPU)的聯(lián)合上采樣模塊來(lái)代替消耗大量時(shí)間和內(nèi)存的帶洞卷積磨隘。它通過(guò)把抽取高分辨率圖的方法形式化,并構(gòu)建成一個(gè)上采樣問(wèn)題來(lái)取得很好的效果顾患。
此模型在 Pascal Context 數(shù)據(jù)集上實(shí)現(xiàn)了 53.13% 的 mIoU番捂,并且具有三倍的運(yùn)行速度。
該模型以全卷積網(wǎng)絡(luò)(FCN)作為主體架構(gòu)江解,同時(shí)應(yīng)用 JPU 對(duì)低分辨率的最終特征圖進(jìn)行上采樣设预,得到了高分辨率的特征圖。使用 JPU 代替帶洞卷積并不會(huì)造成任何性能損失犁河。
9.CNN+RNN方案及其他一系列模型
語(yǔ)義分割常見(jiàn)指標(biāo):
FN:False Negative,被判定為負(fù)樣本鳖枕,但事實(shí)上是正樣本。
FP:False Positive,被判定為正樣本桨螺,但事實(shí)上是負(fù)樣本宾符。
TN:True Negative,被判定為負(fù)樣本,事實(shí)上也是負(fù)樣本灭翔。
TP:True Positive,被判定為正樣本魏烫,事實(shí)上也是正樣本。
像素準(zhǔn)確率(pixel-accuracy),有的時(shí)候還有平均準(zhǔn)確率(mean-accuracy)以及加權(quán)準(zhǔn)確率哄褒。
查準(zhǔn)率(precision)稀蟋,指的是預(yù)測(cè)值為1且真實(shí)值也為1的樣本在預(yù)測(cè)值為1的所有樣本中所占的比例。以黃瓜問(wèn)題為例呐赡,算法挑出來(lái)的黃瓜中有多少比例是好黃瓜退客。
召回率(recall),也叫查全率罚舱,指的是預(yù)測(cè)值為1且真實(shí)值也為1的樣本在真實(shí)值為1的所有樣本中所占的比例井辜。所有的好西瓜中有多少比例被算法挑了出來(lái)。
F1分?jǐn)?shù)(F1-Score)管闷,又稱為平衡F分?jǐn)?shù)(BalancedScore)粥脚,它被定義為精確率和召回率的調(diào)和平均數(shù)。
IOU(Intersection over Union)交并比包个。計(jì)算真實(shí)值和預(yù)測(cè)值集合的交集與并集之比刷允。
常用MeanIOU,即每類上求IOU再平均碧囊,以及FWIOU树灶,根據(jù)每類的頻率或數(shù)量來(lái)加權(quán)。
語(yǔ)義分割的傳統(tǒng)方法:
- 直方圖閾值化方法
- 混合化特征空間聚類方法
- 基于區(qū)域的方法
- SVM等算法
- 等等
基于深度學(xué)習(xí)方法與傳統(tǒng)方法的一個(gè)重要區(qū)別:
傳統(tǒng)算法依賴于領(lǐng)域?qū)<姨崛〉奶卣鞯馁|(zhì)量糯而,而CNN通常解決自動(dòng)特性學(xué)習(xí)問(wèn)題天通。
語(yǔ)義分割的應(yīng)用:
- 醫(yī)學(xué)圖形處理,定位各種異常熄驼,如腫瘤或特定的器官像寒。
- 行人檢測(cè),交通監(jiān)控瓜贾。
- 衛(wèi)星圖像诺祸,指紋識(shí)別等取證技術(shù)。(我主要也是做遙感影像的語(yǔ)義分割)
- 自動(dòng)駕駛等等祭芦。
如果自己在做科研或解決一些問(wèn)題筷笨,可以采用以下語(yǔ)義分割技術(shù)來(lái)提升分割效果、改善效率:
1.Astrous Convolutions(擴(kuò)張卷積)
空洞卷積(dilated convolution)是針對(duì)圖像語(yǔ)義分割問(wèn)題中下采樣會(huì)降低圖像分辨率龟劲、丟失信息而提出的一種卷積思路胃夏。利用添加空洞擴(kuò)大感受野,讓原本3x3的卷積核咸灿,在相同參數(shù)量和計(jì)算量下?lián)碛?x5(dilated rate =2)或者更大的感受野构订,從而無(wú)需下采樣。擴(kuò)張卷積又名空洞卷積(atrous convolutions)避矢,向卷積層引入了一個(gè)稱為 “擴(kuò)張率(dilation rate)”的新參數(shù)悼瘾,該參數(shù)定義了卷積核處理數(shù)據(jù)時(shí)各值的間距囊榜。換句話說(shuō),相比原來(lái)的標(biāo)準(zhǔn)卷積亥宿,擴(kuò)張卷積多了一個(gè)hyper-parameter(超參數(shù))稱之為dilation rate(擴(kuò)張率)卸勺,指的是kernel各點(diǎn)之前的間隔數(shù)量,【正常的convolution 的 dilatation rate為 1】烫扼。
2.空間金字塔池化等下采樣技術(shù)曙求。
如上述模型中的ASPP模塊及JPU模塊,并且可以以此技術(shù)來(lái)相互組合達(dá)到更好的效果映企。
3.CRF(條件隨機(jī)場(chǎng))
在基于深度學(xué)習(xí)的語(yǔ)義圖像分割體系結(jié)構(gòu),CRF是一個(gè)有用的后處理模塊,但是主要缺點(diǎn)是不能將其用作端到端體系結(jié)構(gòu)的一部分悟狱。在標(biāo)準(zhǔn)CRF模型中,可以表示成對(duì)電位用加權(quán)高斯函數(shù)的和堰氓。但是由于精確的極小化是否考慮了CRF分布的平均場(chǎng)近似用一個(gè)簡(jiǎn)單的產(chǎn)品版本來(lái)表示發(fā)行版獨(dú)立的邊際分布挤渐。它的平均場(chǎng)近似原生形式不適合反向傳播。
4.Loss函數(shù)的更改
(1)二分類
大名鼎鼎的focal loss双絮,focal loss的提出是在目標(biāo)檢測(cè)領(lǐng)域浴麻,為了解決正負(fù)樣本比例嚴(yán)重失衡的問(wèn)題。是由log loss改進(jìn)而來(lái)的囤攀,公式如下:
其中g(shù)amma>0
在Focal Loss中软免,它更關(guān)心難分類樣本,不太關(guān)心易分類樣本焚挠,比如:
若 gamma = 2膏萧,
對(duì)于正類樣本來(lái)說(shuō),如果預(yù)測(cè)結(jié)果為0.97那么肯定是易分類的樣本蝌衔,所以就會(huì)很邢蚯馈;
對(duì)于正類樣本來(lái)說(shuō)胚委,如果預(yù)測(cè)結(jié)果為0.3的肯定是難分類的樣本,所以就會(huì)很大叉信;
對(duì)于負(fù)類樣本來(lái)說(shuō)亩冬,如果預(yù)測(cè)結(jié)果為0.8那么肯定是難分類的樣本,就會(huì)很大硼身;
對(duì)于負(fù)類樣本來(lái)說(shuō)硅急,如果預(yù)測(cè)結(jié)果為0.1那么肯定是易分類的樣本,就會(huì)很小佳遂。
另外营袜,F(xiàn)ocal Loss還引入了平衡因子alpha,用來(lái)平衡正負(fù)樣本本身的比例不均丑罪。
alpha取值范圍0~1荚板,當(dāng)alpha>0.5時(shí)凤壁,可以相對(duì)增加y=1所占的比例。實(shí)現(xiàn)正負(fù)樣本的平衡跪另。
雖然何凱明的試驗(yàn)中拧抖,lambda為2是最優(yōu)的,但是不代表這個(gè)參數(shù)適合其他樣本免绿,在應(yīng)用中還需要根據(jù)實(shí)際情況調(diào)整這兩個(gè)參數(shù)唧席。
(2)多分類
多分類常見(jiàn)的是交叉熵,其他的損失函數(shù)也比較多嘲驾,也可以對(duì)交叉熵加權(quán)淌哟。
如Dice:
##Keras
def dice_coef(y_true, y_pred, smooth=1):
mean_loss = 0;
for i in range(y_pred.shape(-1)):
intersection = K.sum(y_true[:,:,:,i] * y_pred[:,:,:,i], axis=[1,2,3])
union = K.sum(y_true[:,:,:,i], axis=[1,2,3]) + K.sum(y_pred[:,:,:,i], axis=[1,2,3])
mean_loss += (2. * intersection + smooth) / (union + smooth)
return K.mean(mean_loss, axis=0)
5.標(biāo)簽平滑
簡(jiǎn)單理解就是對(duì)預(yù)測(cè)結(jié)果進(jìn)行懲罰。
def label_smoothing(inputs, epsilon=0.1):
K = inputs.get_shape().as_list()[-1] # number of channels
return ((1-epsilon) * inputs) + (epsilon / K)
6.可利用的訓(xùn)練策略辽故,主要是學(xué)習(xí)率策略
每隔一段時(shí)間warm restart學(xué)習(xí)率徒仓,這樣在單位時(shí)間內(nèi)能得到多個(gè)而不是一個(gè)converged local minina,做融合的話手上的模型會(huì)多很多榕暇。
7.更高級(jí)的優(yōu)化器
LookAhead等優(yōu)化器蓬衡。
Lookahead 算法與已有的方法完全不同,它迭代地更新兩組權(quán)重彤枢。直觀來(lái)說(shuō)狰晚,Lookahead 算法通過(guò)提前觀察另一個(gè)優(yōu)化器生成的fast weights序列,來(lái)選擇搜索方向缴啡。該研究發(fā)現(xiàn)壁晒,Lookahead 算法能夠提升學(xué)習(xí)穩(wěn)定性,不僅降低了調(diào)參需要的功夫业栅,同時(shí)還能提升收斂速度與效果秒咐。
8.數(shù)據(jù)增強(qiáng)技術(shù)
無(wú)論對(duì)于什么樣的數(shù)據(jù)集,規(guī)模多大的數(shù)據(jù)集碘裕,在語(yǔ)義分割任務(wù)中携取,數(shù)據(jù)隨機(jī)縮放給模型帶來(lái)的收益永遠(yuǎn)是最大的。我們?cè)谟?xùn)練網(wǎng)絡(luò)時(shí)帮孔,如果將padding給的過(guò)大雷滋,而卷積核大小不變你會(huì)發(fā)現(xiàn)我們的卷積核能力被弱化,過(guò)大的padding增加了數(shù)據(jù)集的單一性文兢,假設(shè)你對(duì)一張大小為16x16的圖像增加了64x64的padding晤斩,甚至更大,大到我們本來(lái)的圖像在在增加padding之后顯的很渺小姆坚,那這新的圖像對(duì)于卷積核來(lái)看澳泵,基本上就是一張呼呼的圖像,如果整個(gè)數(shù)據(jù)集都是這種圖像兼呵,那對(duì)于卷積核來(lái)講兔辅,太單一了腊敲,當(dāng)然也沒(méi)有人會(huì)這樣做。數(shù)據(jù)集的多樣性幢妄,包括尺度多樣性兔仰,光照多樣性,目標(biāo)姿態(tài)多樣性蕉鸳。尺度多樣性不僅在深度學(xué)習(xí)中使用乎赴,在傳統(tǒng)計(jì)算機(jī)視覺(jué)中也是很重要的方法。
對(duì)于隨機(jī)翻轉(zhuǎn)潮尝,鏡像翻轉(zhuǎn)榕吼,色彩偏移等數(shù)據(jù)增強(qiáng)技術(shù)手段為模型所帶來(lái)的收益加一起也不一定有尺度的隨機(jī)縮放所帶來(lái)的效果好。
9.更高明的數(shù)據(jù)預(yù)處理
最常見(jiàn)的就是標(biāo)準(zhǔn)化與歸一化
數(shù)據(jù)的標(biāo)準(zhǔn)化(normalization)是將數(shù)據(jù)按比例縮放勉失,使之落入一個(gè)小的特定區(qū)間羹蚣。在某些比較和評(píng)價(jià)的指標(biāo)處理中經(jīng)常會(huì)用到,去除數(shù)據(jù)的單位限制乱凿,將其轉(zhuǎn)化為無(wú)量綱的純數(shù)值顽素,便于不同單位或量級(jí)的指標(biāo)能夠進(jìn)行比較和加權(quán)。目前數(shù)據(jù)標(biāo)準(zhǔn)化方法有多種徒蟆,歸結(jié)起來(lái)可以分為直線型方法(如極值法胁出、標(biāo)準(zhǔn)差法)、折線型方法(如三折線法)段审、曲線型方法(如半正態(tài)性分布)全蝶。不同的標(biāo)準(zhǔn)化方法,對(duì)系統(tǒng)的評(píng)價(jià)結(jié)果會(huì)產(chǎn)生不同的影響寺枉,然而不幸的是抑淫,在數(shù)據(jù)標(biāo)準(zhǔn)化方法的選擇上,還沒(méi)有通用的法則可以遵循姥闪。
數(shù)據(jù)的歸一化處理始苇,即將數(shù)據(jù)統(tǒng)一映射到[0,1]區(qū)間上。
1. 把數(shù)變?yōu)椋?筐喳,1)之間的小數(shù)
主要是為了數(shù)據(jù)處理方便提出來(lái)的埂蕊,把數(shù)據(jù)映射到0~1范圍之內(nèi)處理,更加便捷快速疏唾,應(yīng)該歸到數(shù)字信號(hào)處理范疇之內(nèi)。
2. 把有量綱表達(dá)式變?yōu)闊o(wú)量綱表達(dá)式
歸一化是一種簡(jiǎn)化計(jì)算的方式函似,即將有量綱的表達(dá)式槐脏,經(jīng)過(guò)變換,化為無(wú)量綱的表達(dá)式撇寞,成為純量顿天。
10.模型的集成
已知神經(jīng)網(wǎng)絡(luò)的集合比單個(gè)網(wǎng)絡(luò)更健壯和準(zhǔn)確堂氯。然而,為模型平均訓(xùn)練多個(gè)深度網(wǎng)絡(luò)在計(jì)算上是昂貴的牌废。前面有講咽白,通過(guò)循環(huán)調(diào)整網(wǎng)絡(luò)的學(xué)習(xí)率可使網(wǎng)絡(luò)依次收斂到不同的局部最優(yōu)解也可達(dá)到模型集成的作用,此處所講的主要是多模型集成鸟缕。
(1)直接平均法
直接平均法是最簡(jiǎn)單有效的多模型集成方法晶框,通過(guò)直接平均不同模型產(chǎn)生的類別置信度得到最后額預(yù)測(cè)結(jié)果
(2)加權(quán)平均法
加權(quán)平均法是直接平均的基礎(chǔ)上加入權(quán)重來(lái)調(diào)節(jié)不同模型輸出間的重要程度。
(3)投票法(voting)
投票法中最常用的是多數(shù)表決法懂从。表決前需先將各自模型返回的預(yù)測(cè)置信度sisi轉(zhuǎn)化為預(yù)測(cè)類別,即最高置信度對(duì)應(yīng)的類別標(biāo)記 cici ∈ {1, 2, … , C} 作為該模型的預(yù)測(cè)結(jié)果授段。多數(shù)表決法中在得到樣本 x 的最終預(yù)測(cè)時(shí),若某預(yù)測(cè)類別獲得一半以上模型投票,則該樣本預(yù)測(cè)結(jié)果為該類別; 若對(duì)該樣本無(wú)任何類別獲得一半以上投票,則拒絕作出預(yù)測(cè)。投票法中另一種常用方法是相對(duì)多數(shù)表決法 , 與多數(shù)表決法會(huì)輸出“拒絕預(yù)測(cè)”不同的是,相對(duì)多數(shù)表決法一定會(huì)返回某個(gè)類別作為預(yù)測(cè)結(jié)果, 因?yàn)橄鄬?duì)多數(shù)表決是選取投票數(shù)最高的類別作為最后預(yù)測(cè)結(jié)果番甩。
(4)堆疊法
堆疊法又稱“二次集成法”是一種高階的集成學(xué)習(xí)算法侵贵。在剛才的例子中,樣本 x 作為學(xué)習(xí)算法或網(wǎng)絡(luò)模型的輸入, sisi 作為第 i 個(gè)模型的類別置信度輸出,整個(gè)學(xué)習(xí)過(guò)程可記作一階學(xué)習(xí)過(guò)程。堆疊法則是以一階學(xué)習(xí)過(guò)程的輸出作為輸入開(kāi)展二階學(xué)習(xí)過(guò)程, 有時(shí)也稱作“元學(xué)習(xí)”缘薛。拿剛才的例子來(lái)說(shuō),對(duì)于樣本 x, 堆疊法的輸入是 N 個(gè)模型的預(yù)測(cè)置信度窍育,這些置信度可以級(jí)聯(lián)作為新的特征表示。之后基于這樣的”特征表示”訓(xùn)練學(xué)習(xí)器將其映射到樣本原本的標(biāo)記空間宴胧。此時(shí)學(xué)習(xí)器可為任何學(xué)習(xí)算法習(xí)得的模型漱抓,如支持向量機(jī),隨機(jī)森林 ,當(dāng)然也可以是神經(jīng)網(wǎng)絡(luò)模型牺汤。不過(guò)在此需要指出的是,堆疊法有較大過(guò)擬合風(fēng)險(xiǎn)辽旋。
11.Dropout等技術(shù)。
在神經(jīng)網(wǎng)絡(luò)中DropOut層的主要作用是防止權(quán)值過(guò)度擬合檐迟,增強(qiáng)學(xué)習(xí)能力补胚。DropOut層的原理是,輸入經(jīng)過(guò)DropOut層之后追迟,隨機(jī)使部分神經(jīng)元不工作(權(quán)值為0)溶其,即只激活部分神經(jīng)元,結(jié)果是這次迭代的向前和向后傳播只有部分權(quán)值得到學(xué)習(xí)敦间,即改變權(quán)值瓶逃。
因此,DropOut層服從二項(xiàng)分布廓块,結(jié)果不是0厢绝,就是1,在CNN中可以設(shè)定其為0或1的概率來(lái)到達(dá)每次只讓百分之幾的神經(jīng)元參與訓(xùn)練或者測(cè)試带猴。在Bayesian SegNet中昔汉,SegNet作者把概率設(shè)置為0.5,即每次只有一半的神經(jīng)元在工作拴清。因?yàn)槊看沃挥?xùn)練部分權(quán)值靶病,可以很清楚地知道会通,DropOut層會(huì)導(dǎo)致學(xué)習(xí)速度減慢。
提示:在做的過(guò)程中娄周,過(guò)擬合現(xiàn)象是非常常見(jiàn)的涕侈。
過(guò)擬合的根本原因是特征維度過(guò)多,模型假設(shè)過(guò)于復(fù)雜煤辨,參數(shù)過(guò)多裳涛,訓(xùn)練數(shù)據(jù)過(guò)少,噪聲過(guò)多掷酗,導(dǎo)致擬合的函數(shù)完美的預(yù)測(cè)訓(xùn)練集调违,但對(duì)新數(shù)據(jù)的測(cè)試集預(yù)測(cè)結(jié)果差。 過(guò)度的擬合了訓(xùn)練數(shù)據(jù)泻轰,而沒(méi)有考慮到泛化能力技肩。