基于深度學(xué)習(xí)的語(yǔ)義分割技術(shù)講解

在計(jì)算機(jī)視覺(jué)領(lǐng)域袒炉,有一個(gè)方向是語(yǔ)義分割,一般是針對(duì)圖像進(jìn)行像素級(jí)分類付材。具體而言朦拖,語(yǔ)義圖像分割就是將每個(gè)像素都標(biāo)注上其對(duì)應(yīng)的類別。由于所有的像素都要考慮到厌衔,因此語(yǔ)義圖像分割任務(wù)也被視為是稠密預(yù)測(cè)的一種璧帝。

在此,要區(qū)別一下實(shí)例分割(具體可參考著名的MaskRCNN模型)富寿,實(shí)例分割常常與目標(biāo)檢測(cè)系統(tǒng)相互結(jié)合睬隶,用于檢測(cè)和分割場(chǎng)景中同一對(duì)象的多個(gè)實(shí)例。

基于深度學(xué)習(xí)的語(yǔ)義分割方法:

用卷積神經(jīng)網(wǎng)絡(luò)分類(全卷積網(wǎng)絡(luò))作喘,與普通網(wǎng)絡(luò)不同的是理疙,分類層是卷積層,普通網(wǎng)絡(luò)為全連接層泞坦。

最近的語(yǔ)義分割架構(gòu)一般都用卷積神經(jīng)網(wǎng)絡(luò)(CNN)為每個(gè)像素分配一個(gè)初始類別標(biāo)簽。卷積層可以有效地捕捉圖像中的局部特征砖顷,并以層級(jí)的方式將許多這樣的模塊嵌套在一起贰锁,這樣 CNN 就可以試著提取更大的結(jié)構(gòu)了。通過(guò)一系列卷積捕捉圖像的復(fù)雜特征滤蝠,CNN 可以將一張圖的內(nèi)容編碼為緊湊表征豌熄。

但為了將單獨(dú)的像素映射給標(biāo)簽,我們需要將標(biāo)準(zhǔn) CNN 編碼器擴(kuò)展為編碼器-解碼器架構(gòu)物咳。在這個(gè)架構(gòu)中锣险,編碼器使用卷積層和池化層將特征圖尺寸縮小,使其成為更低維的表征览闰。解碼器接收到這一表征芯肤,用通過(guò)轉(zhuǎn)置卷積執(zhí)行上采樣而「恢復(fù)」空間維度,這樣每一個(gè)轉(zhuǎn)置卷積都能擴(kuò)展特征圖尺寸压鉴。在某些情況下崖咨,編碼器的中間步驟可用于調(diào)優(yōu)解碼器。最終油吭,解碼器生成一個(gè)表示原始圖像標(biāo)簽的數(shù)組击蹲。

常見(jiàn)模型:

1.FCN系列

三種模型FCN-32S, FCN-16S, FCN-8S

主要貢獻(xiàn):

不含全連接層(fc)的全卷積(fully conv)網(wǎng)絡(luò)⊥裨祝可適應(yīng)任意尺寸輸入歌豺。
增大數(shù)據(jù)尺寸的反卷積(deconv)層。能夠輸出精細(xì)的結(jié)果心包。
結(jié)合不同深度層結(jié)果的跳級(jí)(skip)結(jié)構(gòu)类咧。同時(shí)確保魯棒性和精確性。

2.SegNet

SegNet和FCN思路十分相似,只是Encoder,Decoder(Upsampling)使用的技術(shù)不一致轮听。此外SegNet的編碼器部分使用的是VGG16的前13層卷積網(wǎng)絡(luò)骗露,每個(gè)編碼器層都對(duì)應(yīng)一個(gè)解碼器層,最終解碼器的輸出被送入soft-max分類器以獨(dú)立的為每個(gè)像素產(chǎn)生類概率血巍。

image

3.Unet及各種變體

在生物醫(yī)學(xué)圖像處理中萧锉,得到圖像中的每一個(gè)細(xì)胞的類別標(biāo)簽是非常關(guān)鍵的。生物醫(yī)學(xué)中最大的挑戰(zhàn)就是用于訓(xùn)練的圖像是不容易獲取的述寡,數(shù)據(jù)量也不會(huì)很大柿隙。U-Net 是非常著名的解決方案,它在全連接卷積層上構(gòu)建模型鲫凶,對(duì)其做了修改使得它能夠在少量的訓(xùn)練圖像數(shù)據(jù)上運(yùn)行禀崖,得到了更加精確的分割。

image

4.Deeplab系列

主要有模型Deeplabv1,Deeplabv2,Deeplabv3,Deeplabv3+螟炫。

將 CNN 編碼器-解碼器和 CRF 精煉過(guò)程相結(jié)合以產(chǎn)生目標(biāo)標(biāo)簽(作者強(qiáng)調(diào)了解碼器的上采樣)波附。空洞卷積(也稱擴(kuò)張卷積)在每一層都使用大小不同的卷積核昼钻,使每一層都能捕獲各種比例的特征掸屡。

V3+使用深度分離卷積替代了pooling,并且使用了Xception然评,Xception的核心是使用了Depthwise separable convolution仅财。Depthwise separable convolution的思想來(lái)自inception結(jié)構(gòu),是inception結(jié)構(gòu)的一種極限情況碗淌。Inception 首先給出了一種假設(shè):卷積層通道間的相關(guān)性和空間相關(guān)性是可以退耦合的盏求,將它們分開(kāi)映射,能達(dá)到更好的效果亿眠。在inception結(jié)構(gòu)中碎罚,先對(duì)輸入進(jìn)行11的卷積,之后將通道分組缕探,分別使用不同的33卷積提取特征魂莫,最后將各組結(jié)果串聯(lián)在一起作為輸出。

image

主要貢獻(xiàn):

  • 為密集預(yù)測(cè)任務(wù)使用具有上采樣的卷積
  • 在多尺度上為分割對(duì)象進(jìn)行帶洞空間金字塔池化(ASPP)
  • 通過(guò)使用 DCNNs 提升了目標(biāo)邊界的定位

解決了語(yǔ)義分割的主要挑戰(zhàn)爹耗,包括:

  • 由重復(fù)的最大池化和下采樣導(dǎo)致的特征分辨率降低
  • 檢測(cè)多尺度目標(biāo)
  • 因?yàn)橐阅繕?biāo)為中心的分類器需要對(duì)空間變換具有不變性耙考,因而降低了由 DCNN 的不變性導(dǎo)致的定位準(zhǔn)確率。

5.Unet++

UNet ++(嵌套U-Net架構(gòu))用于更精確的分割潭兽。我們引入中間層來(lái)跳過(guò)U-Net的連接倦始,這自然形成了來(lái)自不同深度的多個(gè)新的上采樣路徑,集合了各種感受域的U-Nets山卦。

image

6.PSPNet

金字塔場(chǎng)景解析網(wǎng)絡(luò)是建立在FCN之上的基于像素級(jí)分類網(wǎng)絡(luò)鞋邑。特性映射來(lái)自網(wǎng)絡(luò)被轉(zhuǎn)換成不同分辨率的激活,并經(jīng)過(guò)多尺度處理池層,稍后向上采樣并與原始層連接進(jìn)行分割的feature map(見(jiàn)圖)枚碗。學(xué)習(xí)的過(guò)程利用輔助分類器進(jìn)一步優(yōu)化了像ResNet這樣的深度網(wǎng)絡(luò)逾一。不同類型的池模塊側(cè)重于激活的不同區(qū)域地圖。將大小不同的內(nèi)核集中在一起激活地圖的不同區(qū)域創(chuàng)建空間池金字塔肮雨。

image

7.RefineNet

使用CNN最后一層的特性可以生成soft對(duì)象段的邊界遵堵。在DeepLab算法中避免了這個(gè)問(wèn)題深黑色的卷曲。RefineNet采用了另一種方法通過(guò)細(xì)化中間激活映射并分層地將其連接到結(jié)合多尺度激活怨规,同時(shí)防止銳度損失陌宿。網(wǎng)絡(luò)由獨(dú)立的RefineNet模塊組成,每個(gè)模塊對(duì)應(yīng)于ResNet波丰。每個(gè)RefineNet模塊由三個(gè)主要模塊組成壳坪,即:剩余卷積單元(RCU),多分辨率融合(MRF)和鏈?zhǔn)S喑?CRP)掰烟。RCU塊由一個(gè)自適應(yīng)塊組成卷積集爽蝴,微調(diào)預(yù)訓(xùn)練的ResNet權(quán)重對(duì)于分割問(wèn)題。MRF層融合不同的激活物使用卷積和上采樣層來(lái)創(chuàng)建更高的分辨率地圖媚赖。最后霜瘪,在CRP層池中使用多種大小的內(nèi)核用于從較大的圖像區(qū)域捕獲背景上下文。RefineNet在Person-Part數(shù)據(jù)集上進(jìn)行了測(cè)試68.6惧磺,與DeepLab-v2的64.9相比,兩者都使用了ResNet-101作為特征提取器捻撑。

image

8.FastFCN

此模型提出了一種被稱作聯(lián)合金字塔上采樣(Joint Pyramid Upsampling/JPU)的聯(lián)合上采樣模塊來(lái)代替消耗大量時(shí)間和內(nèi)存的帶洞卷積磨隘。它通過(guò)把抽取高分辨率圖的方法形式化,并構(gòu)建成一個(gè)上采樣問(wèn)題來(lái)取得很好的效果顾患。

此模型在 Pascal Context 數(shù)據(jù)集上實(shí)現(xiàn)了 53.13% 的 mIoU番捂,并且具有三倍的運(yùn)行速度。

該模型以全卷積網(wǎng)絡(luò)(FCN)作為主體架構(gòu)江解,同時(shí)應(yīng)用 JPU 對(duì)低分辨率的最終特征圖進(jìn)行上采樣设预,得到了高分辨率的特征圖。使用 JPU 代替帶洞卷積并不會(huì)造成任何性能損失犁河。

image
image

9.CNN+RNN方案及其他一系列模型

語(yǔ)義分割常見(jiàn)指標(biāo):

FN:False Negative,被判定為負(fù)樣本鳖枕,但事實(shí)上是正樣本。
FP:False Positive,被判定為正樣本桨螺,但事實(shí)上是負(fù)樣本宾符。
TN:True Negative,被判定為負(fù)樣本,事實(shí)上也是負(fù)樣本灭翔。
TP:True Positive,被判定為正樣本魏烫,事實(shí)上也是正樣本。

像素準(zhǔn)確率(pixel-accuracy),有的時(shí)候還有平均準(zhǔn)確率(mean-accuracy)以及加權(quán)準(zhǔn)確率哄褒。

查準(zhǔn)率(precision)稀蟋,指的是預(yù)測(cè)值為1且真實(shí)值也為1的樣本在預(yù)測(cè)值為1的所有樣本中所占的比例。以黃瓜問(wèn)題為例呐赡,算法挑出來(lái)的黃瓜中有多少比例是好黃瓜退客。

image

召回率(recall),也叫查全率罚舱,指的是預(yù)測(cè)值為1真實(shí)值也為1的樣本在真實(shí)值為1的所有樣本中所占的比例井辜。所有的好西瓜中有多少比例被算法挑了出來(lái)。

image

F1分?jǐn)?shù)(F1-Score)管闷,又稱為平衡F分?jǐn)?shù)(BalancedScore)粥脚,它被定義為精確率和召回率的調(diào)和平均數(shù)。

image

IOU(Intersection over Union)交并比包个。計(jì)算真實(shí)值和預(yù)測(cè)值集合的交集與并集之比刷允。

image

常用MeanIOU,即每類上求IOU再平均碧囊,以及FWIOU树灶,根據(jù)每類的頻率或數(shù)量來(lái)加權(quán)。

語(yǔ)義分割的傳統(tǒng)方法:

  1. 直方圖閾值化方法
  2. 混合化特征空間聚類方法
  3. 基于區(qū)域的方法
  4. SVM等算法
  5. 等等

基于深度學(xué)習(xí)方法與傳統(tǒng)方法的一個(gè)重要區(qū)別:

傳統(tǒng)算法依賴于領(lǐng)域?qū)<姨崛〉奶卣鞯馁|(zhì)量糯而,而CNN通常解決自動(dòng)特性學(xué)習(xí)問(wèn)題天通。

語(yǔ)義分割的應(yīng)用:

  1. 醫(yī)學(xué)圖形處理,定位各種異常熄驼,如腫瘤或特定的器官像寒。
  2. 行人檢測(cè),交通監(jiān)控瓜贾。
  3. 衛(wèi)星圖像诺祸,指紋識(shí)別等取證技術(shù)。(我主要也是做遙感影像的語(yǔ)義分割)
  4. 自動(dòng)駕駛等等祭芦。

如果自己在做科研或解決一些問(wèn)題筷笨,可以采用以下語(yǔ)義分割技術(shù)來(lái)提升分割效果、改善效率:

1.Astrous Convolutions(擴(kuò)張卷積)

空洞卷積(dilated convolution)是針對(duì)圖像語(yǔ)義分割問(wèn)題中下采樣會(huì)降低圖像分辨率龟劲、丟失信息而提出的一種卷積思路胃夏。利用添加空洞擴(kuò)大感受野,讓原本3x3的卷積核咸灿,在相同參數(shù)量和計(jì)算量下?lián)碛?x5(dilated rate =2)或者更大的感受野构订,從而無(wú)需下采樣。擴(kuò)張卷積又名空洞卷積(atrous convolutions)避矢,向卷積層引入了一個(gè)稱為 “擴(kuò)張率(dilation rate)”的新參數(shù)悼瘾,該參數(shù)定義了卷積核處理數(shù)據(jù)時(shí)各值的間距囊榜。換句話說(shuō),相比原來(lái)的標(biāo)準(zhǔn)卷積亥宿,擴(kuò)張卷積多了一個(gè)hyper-parameter(超參數(shù))稱之為dilation rate(擴(kuò)張率)卸勺,指的是kernel各點(diǎn)之前的間隔數(shù)量,【正常的convolution 的 dilatation rate為 1】烫扼。

2.空間金字塔池化等下采樣技術(shù)曙求。

如上述模型中的ASPP模塊及JPU模塊,并且可以以此技術(shù)來(lái)相互組合達(dá)到更好的效果映企。

3.CRF(條件隨機(jī)場(chǎng))

在基于深度學(xué)習(xí)的語(yǔ)義圖像分割體系結(jié)構(gòu),CRF是一個(gè)有用的后處理模塊,但是主要缺點(diǎn)是不能將其用作端到端體系結(jié)構(gòu)的一部分悟狱。在標(biāo)準(zhǔn)CRF模型中,可以表示成對(duì)電位用加權(quán)高斯函數(shù)的和堰氓。但是由于精確的極小化是否考慮了CRF分布的平均場(chǎng)近似用一個(gè)簡(jiǎn)單的產(chǎn)品版本來(lái)表示發(fā)行版獨(dú)立的邊際分布挤渐。它的平均場(chǎng)近似原生形式不適合反向傳播。

4.Loss函數(shù)的更改

(1)二分類

大名鼎鼎的focal loss双絮,focal loss的提出是在目標(biāo)檢測(cè)領(lǐng)域浴麻,為了解決正負(fù)樣本比例嚴(yán)重失衡的問(wèn)題。是由log loss改進(jìn)而來(lái)的囤攀,公式如下:

image

其中g(shù)amma>0

在Focal Loss中软免,它更關(guān)心難分類樣本,不太關(guān)心易分類樣本焚挠,比如:

若 gamma = 2膏萧,

對(duì)于正類樣本來(lái)說(shuō),如果預(yù)測(cè)結(jié)果為0.97那么肯定是易分類的樣本蝌衔,所以就會(huì)很邢蚯馈;

對(duì)于正類樣本來(lái)說(shuō)胚委,如果預(yù)測(cè)結(jié)果為0.3的肯定是難分類的樣本,所以就會(huì)很大叉信;

對(duì)于負(fù)類樣本來(lái)說(shuō)亩冬,如果預(yù)測(cè)結(jié)果為0.8那么肯定是難分類的樣本,就會(huì)很大硼身;

對(duì)于負(fù)類樣本來(lái)說(shuō)硅急,如果預(yù)測(cè)結(jié)果為0.1那么肯定是易分類的樣本,就會(huì)很小佳遂。

另外营袜,F(xiàn)ocal Loss還引入了平衡因子alpha,用來(lái)平衡正負(fù)樣本本身的比例不均丑罪。

alpha取值范圍0~1荚板,當(dāng)alpha>0.5時(shí)凤壁,可以相對(duì)增加y=1所占的比例。實(shí)現(xiàn)正負(fù)樣本的平衡跪另。

雖然何凱明的試驗(yàn)中拧抖,lambda為2是最優(yōu)的,但是不代表這個(gè)參數(shù)適合其他樣本免绿,在應(yīng)用中還需要根據(jù)實(shí)際情況調(diào)整這兩個(gè)參數(shù)唧席。

(2)多分類

多分類常見(jiàn)的是交叉熵,其他的損失函數(shù)也比較多嘲驾,也可以對(duì)交叉熵加權(quán)淌哟。

如Dice:

##Keras
def dice_coef(y_true, y_pred, smooth=1):
    mean_loss = 0;
    for i in range(y_pred.shape(-1)):
        intersection = K.sum(y_true[:,:,:,i] * y_pred[:,:,:,i], axis=[1,2,3])
        union = K.sum(y_true[:,:,:,i], axis=[1,2,3]) + K.sum(y_pred[:,:,:,i], axis=[1,2,3])
    mean_loss += (2. * intersection + smooth) / (union + smooth)
    return K.mean(mean_loss, axis=0)

5.標(biāo)簽平滑

簡(jiǎn)單理解就是對(duì)預(yù)測(cè)結(jié)果進(jìn)行懲罰。

def label_smoothing(inputs, epsilon=0.1):
    K = inputs.get_shape().as_list()[-1]    # number of channels
    return ((1-epsilon) * inputs) + (epsilon / K)

6.可利用的訓(xùn)練策略辽故,主要是學(xué)習(xí)率策略

每隔一段時(shí)間warm restart學(xué)習(xí)率徒仓,這樣在單位時(shí)間內(nèi)能得到多個(gè)而不是一個(gè)converged local minina,做融合的話手上的模型會(huì)多很多榕暇。

image

7.更高級(jí)的優(yōu)化器

LookAhead等優(yōu)化器蓬衡。

Lookahead 算法與已有的方法完全不同,它迭代地更新兩組權(quán)重彤枢。直觀來(lái)說(shuō)狰晚,Lookahead 算法通過(guò)提前觀察另一個(gè)優(yōu)化器生成的fast weights序列,來(lái)選擇搜索方向缴啡。該研究發(fā)現(xiàn)壁晒,Lookahead 算法能夠提升學(xué)習(xí)穩(wěn)定性,不僅降低了調(diào)參需要的功夫业栅,同時(shí)還能提升收斂速度與效果秒咐。

image

8.數(shù)據(jù)增強(qiáng)技術(shù)

無(wú)論對(duì)于什么樣的數(shù)據(jù)集,規(guī)模多大的數(shù)據(jù)集碘裕,在語(yǔ)義分割任務(wù)中携取,數(shù)據(jù)隨機(jī)縮放給模型帶來(lái)的收益永遠(yuǎn)是最大的。我們?cè)谟?xùn)練網(wǎng)絡(luò)時(shí)帮孔,如果將padding給的過(guò)大雷滋,而卷積核大小不變你會(huì)發(fā)現(xiàn)我們的卷積核能力被弱化,過(guò)大的padding增加了數(shù)據(jù)集的單一性文兢,假設(shè)你對(duì)一張大小為16x16的圖像增加了64x64的padding晤斩,甚至更大,大到我們本來(lái)的圖像在在增加padding之后顯的很渺小姆坚,那這新的圖像對(duì)于卷積核來(lái)看澳泵,基本上就是一張呼呼的圖像,如果整個(gè)數(shù)據(jù)集都是這種圖像兼呵,那對(duì)于卷積核來(lái)講兔辅,太單一了腊敲,當(dāng)然也沒(méi)有人會(huì)這樣做。數(shù)據(jù)集的多樣性幢妄,包括尺度多樣性兔仰,光照多樣性,目標(biāo)姿態(tài)多樣性蕉鸳。尺度多樣性不僅在深度學(xué)習(xí)中使用乎赴,在傳統(tǒng)計(jì)算機(jī)視覺(jué)中也是很重要的方法。

對(duì)于隨機(jī)翻轉(zhuǎn)潮尝,鏡像翻轉(zhuǎn)榕吼,色彩偏移等數(shù)據(jù)增強(qiáng)技術(shù)手段為模型所帶來(lái)的收益加一起也不一定有尺度的隨機(jī)縮放所帶來(lái)的效果好。

9.更高明的數(shù)據(jù)預(yù)處理

最常見(jiàn)的就是標(biāo)準(zhǔn)化與歸一化

數(shù)據(jù)的標(biāo)準(zhǔn)化(normalization)是將數(shù)據(jù)按比例縮放勉失,使之落入一個(gè)小的特定區(qū)間羹蚣。在某些比較和評(píng)價(jià)的指標(biāo)處理中經(jīng)常會(huì)用到,去除數(shù)據(jù)的單位限制乱凿,將其轉(zhuǎn)化為無(wú)量綱的純數(shù)值顽素,便于不同單位或量級(jí)的指標(biāo)能夠進(jìn)行比較和加權(quán)。目前數(shù)據(jù)標(biāo)準(zhǔn)化方法有多種徒蟆,歸結(jié)起來(lái)可以分為直線型方法(如極值法胁出、標(biāo)準(zhǔn)差法)、折線型方法(如三折線法)段审、曲線型方法(如半正態(tài)性分布)全蝶。不同的標(biāo)準(zhǔn)化方法,對(duì)系統(tǒng)的評(píng)價(jià)結(jié)果會(huì)產(chǎn)生不同的影響寺枉,然而不幸的是抑淫,在數(shù)據(jù)標(biāo)準(zhǔn)化方法的選擇上,還沒(méi)有通用的法則可以遵循姥闪。

數(shù)據(jù)的歸一化處理始苇,即將數(shù)據(jù)統(tǒng)一映射到[0,1]區(qū)間上。

1. 把數(shù)變?yōu)椋?筐喳,1)之間的小數(shù)
主要是為了數(shù)據(jù)處理方便提出來(lái)的埂蕊,把數(shù)據(jù)映射到0~1范圍之內(nèi)處理,更加便捷快速疏唾,應(yīng)該歸到數(shù)字信號(hào)處理范疇之內(nèi)。
2. 把有量綱表達(dá)式變?yōu)闊o(wú)量綱表達(dá)式
歸一化是一種簡(jiǎn)化計(jì)算的方式函似,即將有量綱的表達(dá)式槐脏,經(jīng)過(guò)變換,化為無(wú)量綱的表達(dá)式撇寞,成為純量顿天。

10.模型的集成

已知神經(jīng)網(wǎng)絡(luò)的集合比單個(gè)網(wǎng)絡(luò)更健壯和準(zhǔn)確堂氯。然而,為模型平均訓(xùn)練多個(gè)深度網(wǎng)絡(luò)在計(jì)算上是昂貴的牌废。前面有講咽白,通過(guò)循環(huán)調(diào)整網(wǎng)絡(luò)的學(xué)習(xí)率可使網(wǎng)絡(luò)依次收斂到不同的局部最優(yōu)解也可達(dá)到模型集成的作用,此處所講的主要是多模型集成鸟缕。

(1)直接平均法

直接平均法是最簡(jiǎn)單有效的多模型集成方法晶框,通過(guò)直接平均不同模型產(chǎn)生的類別置信度得到最后額預(yù)測(cè)結(jié)果

(2)加權(quán)平均法

加權(quán)平均法是直接平均的基礎(chǔ)上加入權(quán)重來(lái)調(diào)節(jié)不同模型輸出間的重要程度。

(3)投票法(voting)

投票法中最常用的是多數(shù)表決法懂从。表決前需先將各自模型返回的預(yù)測(cè)置信度sisi轉(zhuǎn)化為預(yù)測(cè)類別,即最高置信度對(duì)應(yīng)的類別標(biāo)記 cici ∈ {1, 2, … , C} 作為該模型的預(yù)測(cè)結(jié)果授段。多數(shù)表決法中在得到樣本 x 的最終預(yù)測(cè)時(shí),若某預(yù)測(cè)類別獲得一半以上模型投票,則該樣本預(yù)測(cè)結(jié)果為該類別; 若對(duì)該樣本無(wú)任何類別獲得一半以上投票,則拒絕作出預(yù)測(cè)。投票法中另一種常用方法是相對(duì)多數(shù)表決法 , 與多數(shù)表決法會(huì)輸出“拒絕預(yù)測(cè)”不同的是,相對(duì)多數(shù)表決法一定會(huì)返回某個(gè)類別作為預(yù)測(cè)結(jié)果, 因?yàn)橄鄬?duì)多數(shù)表決是選取投票數(shù)最高的類別作為最后預(yù)測(cè)結(jié)果番甩。

(4)堆疊法

堆疊法又稱“二次集成法”是一種高階的集成學(xué)習(xí)算法侵贵。在剛才的例子中,樣本 x 作為學(xué)習(xí)算法或網(wǎng)絡(luò)模型的輸入, sisi 作為第 i 個(gè)模型的類別置信度輸出,整個(gè)學(xué)習(xí)過(guò)程可記作一階學(xué)習(xí)過(guò)程。堆疊法則是以一階學(xué)習(xí)過(guò)程的輸出作為輸入開(kāi)展二階學(xué)習(xí)過(guò)程, 有時(shí)也稱作“元學(xué)習(xí)”缘薛。拿剛才的例子來(lái)說(shuō),對(duì)于樣本 x, 堆疊法的輸入是 N 個(gè)模型的預(yù)測(cè)置信度窍育,這些置信度可以級(jí)聯(lián)作為新的特征表示。之后基于這樣的”特征表示”訓(xùn)練學(xué)習(xí)器將其映射到樣本原本的標(biāo)記空間宴胧。此時(shí)學(xué)習(xí)器可為任何學(xué)習(xí)算法習(xí)得的模型漱抓,如支持向量機(jī),隨機(jī)森林 ,當(dāng)然也可以是神經(jīng)網(wǎng)絡(luò)模型牺汤。不過(guò)在此需要指出的是,堆疊法有較大過(guò)擬合風(fēng)險(xiǎn)辽旋。

11.Dropout等技術(shù)。

在神經(jīng)網(wǎng)絡(luò)中DropOut層的主要作用是防止權(quán)值過(guò)度擬合檐迟,增強(qiáng)學(xué)習(xí)能力补胚。DropOut層的原理是,輸入經(jīng)過(guò)DropOut層之后追迟,隨機(jī)使部分神經(jīng)元不工作(權(quán)值為0)溶其,即只激活部分神經(jīng)元,結(jié)果是這次迭代的向前和向后傳播只有部分權(quán)值得到學(xué)習(xí)敦间,即改變權(quán)值瓶逃。

因此,DropOut層服從二項(xiàng)分布廓块,結(jié)果不是0厢绝,就是1,在CNN中可以設(shè)定其為0或1的概率來(lái)到達(dá)每次只讓百分之幾的神經(jīng)元參與訓(xùn)練或者測(cè)試带猴。在Bayesian SegNet中昔汉,SegNet作者把概率設(shè)置為0.5,即每次只有一半的神經(jīng)元在工作拴清。因?yàn)槊看沃挥?xùn)練部分權(quán)值靶病,可以很清楚地知道会通,DropOut層會(huì)導(dǎo)致學(xué)習(xí)速度減慢。

提示:在做的過(guò)程中娄周,過(guò)擬合現(xiàn)象是非常常見(jiàn)的涕侈。

過(guò)擬合的根本原因是特征維度過(guò)多,模型假設(shè)過(guò)于復(fù)雜煤辨,參數(shù)過(guò)多裳涛,訓(xùn)練數(shù)據(jù)過(guò)少,噪聲過(guò)多掷酗,導(dǎo)致擬合的函數(shù)完美的預(yù)測(cè)訓(xùn)練集调违,但對(duì)新數(shù)據(jù)的測(cè)試集預(yù)測(cè)結(jié)果差。 過(guò)度的擬合了訓(xùn)練數(shù)據(jù)泻轰,而沒(méi)有考慮到泛化能力技肩。

提示:如果覺(jué)得本文對(duì)你有用的話,請(qǐng)點(diǎn)個(gè)喜歡哦浮声!

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末虚婿,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子泳挥,更是在濱河造成了極大的恐慌然痊,老刑警劉巖,帶你破解...
    沈念sama閱讀 222,000評(píng)論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件屉符,死亡現(xiàn)場(chǎng)離奇詭異剧浸,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)矗钟,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,745評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門唆香,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人吨艇,你說(shuō)我怎么就攤上這事躬它。” “怎么了东涡?”我有些...
    開(kāi)封第一講書(shū)人閱讀 168,561評(píng)論 0 360
  • 文/不壞的土叔 我叫張陵冯吓,是天一觀的道長(zhǎng)。 經(jīng)常有香客問(wèn)我疮跑,道長(zhǎng)组贺,這世上最難降的妖魔是什么? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 59,782評(píng)論 1 298
  • 正文 為了忘掉前任祖娘,我火速辦了婚禮锣披,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己雹仿,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,798評(píng)論 6 397
  • 文/花漫 我一把揭開(kāi)白布整以。 她就那樣靜靜地躺著胧辽,像睡著了一般。 火紅的嫁衣襯著肌膚如雪公黑。 梳的紋絲不亂的頭發(fā)上邑商,一...
    開(kāi)封第一講書(shū)人閱讀 52,394評(píng)論 1 310
  • 那天,我揣著相機(jī)與錄音凡蚜,去河邊找鬼人断。 笑死,一個(gè)胖子當(dāng)著我的面吹牛朝蜘,可吹牛的內(nèi)容都是我干的恶迈。 我是一名探鬼主播,決...
    沈念sama閱讀 40,952評(píng)論 3 421
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼谱醇,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼暇仲!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起副渴,我...
    開(kāi)封第一講書(shū)人閱讀 39,852評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤奈附,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后煮剧,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體斥滤,經(jīng)...
    沈念sama閱讀 46,409評(píng)論 1 318
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,483評(píng)論 3 341
  • 正文 我和宋清朗相戀三年勉盅,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了佑颇。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,615評(píng)論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡菇篡,死狀恐怖漩符,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情驱还,我是刑警寧澤嗜暴,帶...
    沈念sama閱讀 36,303評(píng)論 5 350
  • 正文 年R本政府宣布,位于F島的核電站议蟆,受9級(jí)特大地震影響闷沥,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜咐容,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,979評(píng)論 3 334
  • 文/蒙蒙 一舆逃、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦路狮、人聲如沸虫啥。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 32,470評(píng)論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)涂籽。三九已至,卻和暖如春砸抛,著一層夾襖步出監(jiān)牢的瞬間评雌,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,571評(píng)論 1 272
  • 我被黑心中介騙來(lái)泰國(guó)打工直焙, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留景东,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 49,041評(píng)論 3 377
  • 正文 我出身青樓奔誓,卻偏偏與公主長(zhǎng)得像斤吐,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子丝里,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,630評(píng)論 2 359

推薦閱讀更多精彩內(nèi)容