Selective Search for Object Recognition
本文相關(guān)
-
Paper Summary
:https://github.com/FDU-VTS/CVPaper -
Code
:https://github.com/FDU-VTS/CVCode
原文鏈接
概要
- 本文主要介紹了
Selective Search
算法蘸劈,該算法被廣泛應(yīng)用于物體檢測算法中遵绰。
算法流程解讀
-
整體流程
Algorithm 1: Hierarchical Grouping algorithm Input: (color)image Output: Set of object location hypotheses Obtain initial tegions R = {r1,...,rn} using[1] Initialise similarity set S = 0 foreach Neighbouring region pair(ri, rj) do Calculate similarity s(ri,rj) S = S∪s(ri,rj) while S != ? do Get highest similarity s(ri,rj) = max(S) Merge corresponding regions rt = ri ∪ rj Remove similarities regarding ri:S = S\s(ri,r*) Remove similarities regarding rj:S = S\s(r*,rj) Calculate similarity set St between rt and its neighbours S = S ∪ St R = R ∪ rt Extract object location boxes L from all regions in R
首先
input:
一張W*H*3
的圖片output:
一組由邊界組成的集合獲取初始化圖像分割使用
Efficient Graph-Based Image Segmentation
S表示的是所有區(qū)域之間的相似度,不斷合并其中相似度最高的區(qū)域
相似度計算
- colour(ri,rj)
- 相似度計算公式:
- 解釋: C1和C2之間的相似度即為忍些,計算C1和C2的HOG,計算兩個HOG的重疊面積即為相似度狭归,計算之前先用L1_norm進行正則化
- 合并公式:
- 解釋: 新生成的區(qū)域為對原有兩個區(qū)域進行歸一化
- texture(ri,rj)
- 使用
SIFT
算法進行梯度提取總和
- 使用
- size(ri,rj)
- 公式:
- 解釋: ri和rj為選取的兩個區(qū)域,im為整張圖片,意思為優(yōu)先合并小區(qū)域
- fill(ri,rj)
- 公式:
- 解釋: 重疊面積占比越多越大
結(jié)果計算
- 計算四個相似度之和枫夺,按照整體流程描述的合并思路進行合并