前文:推薦一個(gè)很好的github倉(cāng)庫(kù)腕铸,里面幾乎有所有圖像分割loss的實(shí)現(xiàn)造寝,且目前仍在更新:
https://github.com/JunMa11/SegLoss
一荐吉、Distributation-based loss?
1钠龙、Binary Cross-Etropy(二進(jìn)制交叉熵?fù)p失函數(shù))
交叉熵定義為對(duì)給定隨機(jī)變量或事件集的兩個(gè)概率分布之間的差異的度量惑淳。它被廣泛用于分類(lèi)任務(wù)沛膳,并且由于分割是像素級(jí)分類(lèi),因此小郭很好汛聚。在多分類(lèi)任務(wù)中,經(jīng)常采用softmax激活函數(shù)+交叉熵?fù)p失函數(shù)短荐,因此交叉熵描述了兩個(gè)概率分布的差異倚舀,然而神經(jīng)網(wǎng)絡(luò)輸出的向量,并不是概率分布的形式忍宋。所以需要將softmax激活函數(shù)將一個(gè)向量進(jìn)行“歸一化”成概率分布的習(xí)慣是痕貌,再采用交叉熵?fù)p失函數(shù)計(jì)算loss。
2糠排、WCE Loss
帶權(quán)重的交叉熵loss — Weighted cross-entropy (WCE)
R為標(biāo)準(zhǔn)的分割圖舵稠,其中rn?為label 分割圖中的某一個(gè)像素的GT。P為預(yù)測(cè)的概率圖,pnp_npn?為像素的預(yù)測(cè)概率值哺徊,背景像素圖的概率值就為1-P室琢。
只有兩個(gè)類(lèi)別的帶權(quán)重的交叉熵為:
w為權(quán)重。
這種損失函數(shù)的缺點(diǎn)是需要認(rèn)為的調(diào)整困難樣本的權(quán)重落追,增加調(diào)參難度盈滴。
3、Focal loss
focal loss的提出是在目標(biāo)檢測(cè)領(lǐng)域轿钠,為了解決正負(fù)樣本比例嚴(yán)重失衡的問(wèn)題巢钓。是由log loss改進(jìn)而來(lái)的,為了于log loss進(jìn)行對(duì)比疗垛,公式如下:
4症汹、Distance penalized CE loss
5、Log loss
(不同于交叉熵贷腕,具體區(qū)別可見(jiàn)夕小瑤文章)對(duì)于二分類(lèi)而言背镇,對(duì)數(shù)損失函數(shù)如下公式所示:
log loss
其中,yi為輸入實(shí)例xi的真實(shí)類(lèi)別,?pi為預(yù)測(cè)輸入實(shí)例?xi屬于類(lèi)別 1 的概率. 對(duì)所有樣本的對(duì)數(shù)損失表示對(duì)每個(gè)樣本的對(duì)數(shù)損失的平均值, 對(duì)于完美的分類(lèi)器, 對(duì)數(shù)損失為 0花履。
此loss function每一次梯度的回傳對(duì)每一個(gè)類(lèi)別具有相同的關(guān)注度芽世!所以極易受到類(lèi)別不平衡的影響,在圖像分割領(lǐng)域尤其如此诡壁。
例如目標(biāo)在整幅圖像當(dāng)中占比也就僅僅千分之一济瓢,那么在一副圖像中,正樣本(像素點(diǎn))與父樣本的比例約為1~1000妹卿,如果訓(xùn)練圖像中還包含大量的背景圖旺矾,即圖像當(dāng)中不包含任何的疾病像素,那么不平衡的比例將擴(kuò)大到>10000夺克,那么訓(xùn)練的后果將會(huì)是箕宙,網(wǎng)絡(luò)傾向于什么也不預(yù)測(cè)!生成的mask幾乎沒(méi)有病灶像素區(qū)域铺纽!
此處的案例可以參考airbus-ship-detection
二柬帕、基于區(qū)域的loss
1、Dice loss
dice loss 的提出是在U-net中狡门,其中的一段原因描述是在感興趣的解剖結(jié)構(gòu)僅占據(jù)掃描的非常小的區(qū)域陷寝,從而使學(xué)習(xí)過(guò)程陷入損失函數(shù)的局部最小值。所以要加大前景區(qū)域的權(quán)重其馏。
Dice 可以理解為是兩個(gè)輪廓區(qū)域的相似程度凤跑,用A、B表示兩個(gè)輪廓區(qū)域所包含的點(diǎn)集叛复,定義為:
也可表示為
實(shí)際實(shí)現(xiàn)時(shí)可照以下公式實(shí)現(xiàn):
2仔引、IOU loss
3扔仓、Tversky loss
公式如下
α=β=0.5時(shí),Tversky Loss是DICE loss(分子分母同乘2) 咖耘。?α=β=1時(shí)翘簇,Tversky Loss是IOU loss。
同時(shí)我們也應(yīng)注意到 鲤看,如果設(shè)A是預(yù)測(cè)區(qū)域缘揪,B是真實(shí)區(qū)域,|A-B|代表著假陽(yáng)义桂,|B-A|代表著假陰找筝。在這種情況下,我們改變?chǔ)梁挺碌娜≈稻湍軌蚋淖兾覀儍?yōu)化時(shí)是希望假陽(yáng)少一點(diǎn)還是假陰少一點(diǎn)慷吊。
4袖裕、Generalized Dice loss
在計(jì)算DICE loss時(shí),針對(duì)每一類(lèi)都有一個(gè)dice loss溉瓶,這樣就會(huì)考慮各個(gè)類(lèi)急鳄。這個(gè)loss可以解決訓(xùn)練數(shù)據(jù)集不均衡的問(wèn)題。
5堰酿、sensitivity-specificity loss
6疾宏、Penalty loss
7、Lovász-Softmax loss
三触创、基于邊界的Loss
1坎藐、Boundary loss
2、Hausdorff distance(HD) loss
(1)HD介紹:
在談?wù)摼嚯x時(shí)哼绑,我們通常指的是最短的距離:例如岩馍,如果說(shuō)一個(gè)點(diǎn)X在多邊形P的距離D處,我們通常假設(shè)D是從X到P的最近點(diǎn)的距離抖韩。
相同的邏輯也適用于多邊形:如果兩個(gè)多邊形A和B彼此相距一定距離蛀恩,我們通常將距離理解為A的任意點(diǎn)與B的任意點(diǎn)之間的最短距離。通常茂浮,這稱(chēng)為minimin?function双谆。該距離A和B之間的D由下式給出
(2)HD loss
由CNN的輸出預(yù)測(cè)HD,并將預(yù)測(cè)出來(lái)的HD當(dāng)作loss來(lái)優(yōu)化