隨手記錄一些深度學(xué)習(xí)方法在目標(biāo)檢測(cè)與跟蹤領(lǐng)域上面的應(yīng)用
Densenet
優(yōu)點(diǎn):
1. 減輕了梯度消失現(xiàn)象竟宋;
2. 加強(qiáng)了feature的傳遞干签;
3. 更有效地利用了feature;
4. 一定程度上減少了參數(shù)量昌跌。
DSOS(Deeply Supervised Object Detector)
Fine Tune和直接訓(xùn)練檢測(cè)模型的差異可以減小
YOLO
YOLOv1
輸入尺寸固定帕棉,占比較小的目標(biāo)檢測(cè)效果不好
YOLOv2
改進(jìn)
1. Batch Normalization的使用亩歹,取消了dropout‘
2. 高分辨率的引入;
3. Anchor Boxes——K-means方法新荤;
4. 使用了細(xì)粒度特征——將淺層疊加到深層我注;
5. Muti-Scale Training.
網(wǎng)絡(luò)結(jié)構(gòu)
1. 主要使用3x3卷積并在pooling后channel加倍;
2. Global Average Pooling代替全連接做分類迟隅;
3. 1x1卷積壓縮特征表示但骨。
YOLOv3
1. 小目標(biāo)效果不錯(cuò)(我實(shí)際驗(yàn)證后覺得小目標(biāo)也不好),但隨著IOU增大智袭,性能下降(確實(shí))奔缠;
2. 位置精確性差,召回率低吼野;
3. 多尺度
Inception
Inception v1
Inception Module結(jié)構(gòu)是1x1校哎,3x3,5x5的卷積和3x3pooling的組合瞳步;
Inception v2
1. 加入BN層闷哆,增加模型魯棒性,加快學(xué)習(xí)速度单起,更快收斂抱怔;
2. 用兩個(gè)3x3代替一個(gè)5x5;
Inception v3
1. 卷積分解:
2. 加速嘀倒,更深
Inception v4
1. 增加殘差連接屈留;
2. 加速收斂局冰,精度更高。
Xception(Inception v3基礎(chǔ)之上)
1. 通道式分離卷積
2. 沒有ReLU
MobileNet
1. 壓縮模型灌危;
2. 將標(biāo)準(zhǔn)卷積拆分:
ShuffleNet
在MobileNet基礎(chǔ)上康二,對(duì)1x1進(jìn)行shuffle和group操作
MobileNet v2
1. 殘差結(jié)構(gòu):在3x3前進(jìn)行1x1升維,經(jīng)過ReLU勇蝙;1x1之后不進(jìn)行ReLU沫勿;
2. No ReLU:ReLU將負(fù)值映射為0,高度非線性味混。