分類+定位
置信度是分類任務(wù) 交叉熵
定位是回歸任務(wù) 均方差(很少用)交集和并集的比例
越接近1越好 0.5為可接受值 小于0.5的就不要了
多個特征值預(yù)測出多個框
分類任務(wù) 交叉熵
三部分合并在一起構(gòu)成損失函數(shù)
然后梯度下降 求極小值
fpn特征金字塔
感受野
上采樣: 卷積 反卷積 最臨近插值法 雙線性插值法
concat: 深度方向組合 變多通道
R-CNN:第一代模型
SS:選擇性搜索 時間大概是2s
使用的alexnet 然后svm二分類
正樣本 / 負(fù)樣本
ROL 感興趣區(qū)域
非端到端(端對端)的模型
是否端對端 魔性評測優(yōu)劣的標(biāo)準(zhǔn)
20個類別抽兆,計算每個類別的
TP真正例
Fp 假正例
FN 假反例
mAP:平均ap值(重點(diǎn))面試會問
RPN (區(qū)域提議網(wǎng)絡(luò)) 預(yù)測rp區(qū)域
只需要10毫秒
faster R-cnn是完整的端到端
錨點(diǎn)的尺度相當(dāng)于寬高 設(shè)置三個 比例設(shè)置三個 生成3 * 3 的9張圖
框偏移之間的誤差
Ground Truth是什么狸驳?谭跨?
ROI pooling 原理是什么?清笨?
yolo是比較深的神經(jīng)網(wǎng)絡(luò)
v1:
24層
簡化版9層
v2:
SSD 多規(guī)格檢測
DarkNet19
以不同的尺寸運(yùn)行:輸入大小可以不一樣 最后沒有全連接了或者使用ROL POOLING
v3:
多尺度檢測
引入殘差塊 能做的更深
在每個卷積層后加Batch Normalization(BN)層 默認(rèn)規(guī)則
通過使用BN層使得
mAP提高了2%
fine-tuning(微調(diào))
均值移除??
Convolutional With Anchor Boxes 不用拉伸成一維 輸入尺寸可以不同 還會有錨點(diǎn)框 類似于RPN
resn殘差組