在【SLAM-Vins_Fusion】總覽中講出
main函數中
d.開啟了一個新線程sync_process锯岖。
線程的作用:如果圖像buffer里面有數據的話,讀入數據并且添加到estimator中纫谅。
過程為:
void sync_process()
image0 = getImageFromMsg(img0_buf.front());
estimator.inputImage(time, image0, image1);
中有-->featureFrame = featureTracker.trackImage(t, _img);
featureBuf.push(make_pair(t, featureFrame));
featureBuf 為estimator的一個public數據成員 塔次,
queue<pair<double, map<int, vector<pair<int, Eigen::Matrix<double, 7, 1> > > > > > featureBuf;
(需要注意,VINS-Mono里面feature_tracker和estimator是完全分開的有缆,而這里feature_tracker包含在estimator里象踊,唯一的差別在于減少了前端跟蹤和后端之間的rostopic的發(fā)布和訂閱)
而在
main---> setParameter()--->processMeasurement() 中 讀取featureBuf舌仍;
feature = featureBuf.front();
//然后有
processIMU(accVector[i].first, dt, accVector[i].second, gyrVector[i].second);
processImage(feature.second, feature.first);
featureFrame = featureTracker.trackImage(t, _img);
前面講了featureTracker的調用步驟,接下來開始進入featureTracker函數內部通危。
featureTracker文件夾下有個feature_tracker.h文件,其中定義了一個FeatureTracker類灌曙。
發(fā)現通篇僅有一個成員函數FeatureTracker::trackImage()中調用了cv::goodFeaturesToTracke()函數來檢測特征點菊碟,因此在刺,從該函數開始分析:
輸入參數:_cur_time逆害,_img,_img1
返回參數:map<int, vector<pair<int, Eigen::Matrix<double, 7, 1>>>> (乍看起來可復雜蚣驼,細細分析之)首先是一個map魄幕,鍵值對中的值是一個vector,其中每個元素是一個pair颖杏。
原文鏈接:https://blog.csdn.net/CSDN_XCS/article/details/90340274
類中主要函數為trackImage()
TicToc是一個類纯陨,感覺和計時有關,使用std::chrono實現(The elements in this header deal with time.)暫時不展開留储。
predict_pts翼抠,cur_pts:類數據成員,vector<cv::Point2f> predict_pts获讳,cur_pts;
hadPrediction:數據成員阴颖,bool hasPrediction;,初始值為什么丐膝?(254行賦值為hasPrediction = false;)
如果值為true量愧,則調用openCV的函數進行光流跟蹤:
調用了cv::goodFeaturesToTracke()函數來檢測特征點
函數詳細內容可以查看:calcOpticalFlowPyrLK官方介紹
或查看博客:https://blog.csdn.net/CSDN_XCS/article/details/90340274
可知
代碼中調用的時候,傳入參數表示的含義:
cv::calcOpticalFlowPyrLK(prev_img, cur_img, prev_pts, cur_pts, status, err, cv::Size(21, 21), 1,
cv::TermCriteria(cv::TermCriteria::COUNT+cv::TermCriteria::EPS, 30, 0.01), cv::OPTFLOW_USE_INITIAL_FLOW);
/*
prev_img, cur_img:上一幀圖片帅矗,當前幀圖片偎肃;
prev_pts, cur_pts:特征點在上一幀中的位置(等待找到對應的流),特整點在當前幀中的 位置(用以保存該算法計算結果)损晤;
status:vector<uchar> status;
err:vector<float> err;
cv::Size(21, 21):在每層金字塔中搜索窗的大腥砉住(21×21;
1: 對應兩層尤勋;
cv::TermCriteria(cv::TermCriteria::COUNT+cv::TermCriteria::EPS, 30, 0.01):終止條件——迭代次數 和 精度喘落;
cv::OPTFLOW_USE_INITIAL_FLOW:保持和原來一樣多特征點數。
*/
然后統(tǒng)計跟蹤成功的點數最冰,(即status為1的個數)
如果跟蹤成功的點數少于10瘦棋,那么再執(zhí)行一次,這次修改傳入參數中金字塔的層數為4層
if (succ_num < 10)
cv::calcOpticalFlowPyrLK(prev_img, cur_img, prev_pts, cur_pts, status, err, cv::Size(21, 21), 3);
假設跟蹤成功的點的數目足夠多了暖哨,進行下一步處理操作:
當FLOW_BACK為true時赌朋,再調用cv::calcOpticalFlowPyrLK()進行一次反向的光流跟蹤(傳入參數時將兩幅圖像、特征點做對應調換)
cv::calcOpticalFlowPyrLK(prev_img, cur_img, prev_pts, cur_pts, status, err, cv::Size(21, 21), 3);
FLOW_BACK 默認為1
定義在catkin_ws/src/VINS-Fusion/config/euroc/euroc_stereo_imu_config.yaml
符合以下要求的才認為是跟蹤成功的點:
status[i] && reverse_status[i] && distance(prev_pts[i], reverse_pts[i]) <= 0.5
將跟蹤失敗的點刪除(即當status[i]值為0,刪除各vector中下標i對應的元素):
reduceVector(prev_pts, status);
reduceVector(cur_pts, status);
reduceVector(ids, status);
reduceVector(track_cnt, status);
ids, track_cnt:FeatureTracker類的數據成員vector<int> ids;和vector<int> track_cnt;
這里 track_cnt 代表了什么意義沛慢?表示了這個點跟蹤的次數赡若。
調用undistortedPts成員函數,該函數比較簡單团甲,主要想實現的功能是
將像素坐標系下的坐標逾冬,轉換為歸一化相機坐標系下的坐標?即cur_un_pts為歸一化相機坐標系下的坐標
cur_un_pts = undistortedPts(cur_pts, m_camera[0]);
接下來躺苦,計算pts_velocity身腻,其為當前幀相對于前一幀 特征點沿x,y方向的像素移動速度。
cur_un_pts_map中存放ids[i]和cur_un_pts[i]構成的鍵值對匹厘。
在prev_un_pts_map非空的情況下嘀趟,對每一個cur_un_pts_map中的鍵值對都去尋找是否在prev_un_pts_map中存在,若存在像素移動速度不難計算愈诚;若不存在則為0她按;
如果prev_un_pts_map是空的情況下,置零炕柔。
pts_velocity = ptsVelocity(ids, cur_un_pts, cur_un_pts_map, prev_un_pts_map);
左右圖像的匹配上尤溜,方法也是光流跟蹤,由左圖跟蹤到右圖汗唱,得到右圖的匹配點宫莱,在反過來光流,剔除掉偏差大的點哩罪,但是這里并沒有像orb-slam那樣直接就三角化出深度授霸,而是把點保存下來,放到后面計算际插。
cv::calcOpticalFlowPyrLK(cur_img, rightImg, cur_pts, cur_right_pts, status, err, cv::Size(21, 21), 3);
// reverse check cur right ---- cur left
if(FLOW_BACK)
{
cv::calcOpticalFlowPyrLK(rightImg, cur_img, cur_right_pts, reverseLeftPts, statusRightLeft, err, cv::Size(21, 21), 3);
for(size_t i = 0; i < status.size(); i++)
{
if(status[i] && statusRightLeft[i] && inBorder(cur_right_pts[i]) && distance(cur_pts[i], reverseLeftPts[i]) <= 0.5)
status[i] = 1;
else
status[i] = 0;
}
}
總結
最終返回的 featureFrame
返回值map<int, vector<pair<int, Eigen::Matrix<double, 7, 1>>>> featureFrame
其中Eigen::Matrix<double, 7, 1> xyz_uv_velocity;
包含跟蹤點歸一化相機坐標系下的坐標3碘耳,像素平面上的坐標2,像素移動速度2框弛。
看一下流程過程