直接法是用于視覺里程計(jì)估計(jì)相機(jī)位姿的一種重要方法径玖。相比于其他依賴幾何特征做相機(jī)位姿估計(jì)的方法瘪贱,直接法具有無需計(jì)算特征點(diǎn)扬卷、不會(huì)丟失圖像信息的特點(diǎn)牙言,并且在缺乏幾何特征的場(chǎng)景,比如白墻或者走廊等依然可以有效的工作怪得。
下面我們就對(duì)直接法做詳細(xì)的說明:
直接法最直觀簡(jiǎn)單的應(yīng)用在于RGB-D相機(jī)咱枉,這種相機(jī)可以得到同一時(shí)刻RGB圖像和深度圖像,根據(jù)深度圖像可以得到每一個(gè)像素點(diǎn)在三維空間中的坐標(biāo)徒恋,所有的這些三維點(diǎn)就形成的被拍攝場(chǎng)景中物體的surface蚕断,同時(shí)也知道每一個(gè)surface點(diǎn)對(duì)應(yīng)的顏色信息。相機(jī)在運(yùn)動(dòng)過程中會(huì)產(chǎn)生一系列連續(xù)的RGB-D數(shù)據(jù)因谎,給定了前后兩幀RGB-D數(shù)據(jù)基括,也就是連續(xù)兩幀的surface和RGB信息,我們就可以找到一個(gè)變形(warp)财岔,使得后一幀的輸入圖像與前一幀的模板圖像相配準(zhǔn)(alignment)风皿。這個(gè)warp代表了我們要尋找的相機(jī)位姿的變換。
1匠璧、必備知識(shí)點(diǎn)
1-1 圖像配準(zhǔn)
關(guān)于圖像配準(zhǔn)的方法桐款,請(qǐng)參考博文對(duì)三種圖像配準(zhǔn)方法的說明,其中詳細(xì)說明了三種圖像配準(zhǔn)方法的思想和算法流程夷恍,由于inverse compositional方法效率最高魔眨,不需要迭代地計(jì)算Hessian矩陣,這里酿雪,我們?cè)诮榻B相機(jī)位姿估計(jì)時(shí)仍然選擇應(yīng)用最廣泛的inverse compositional method來介紹遏暴。如果要更加詳細(xì)的了解有關(guān)圖像配準(zhǔn)方面的知識(shí),可以閱讀參考文獻(xiàn)[1]指黎。
1-2相機(jī)模型朋凉、剛體運(yùn)動(dòng)模型和李代數(shù)
這部分內(nèi)容可以參考博文相機(jī)模型、剛體運(yùn)動(dòng)模型與李代數(shù)醋安。這篇博文對(duì)上述幾個(gè)方面進(jìn)行了簡(jiǎn)要的介紹杂彭。如果要對(duì)這部分內(nèi)容做更深入的了解墓毒,可以閱讀參考文獻(xiàn)[2]。
2亲怠、inverse compositional estimation of camera pose
我們依舊參考圖像配準(zhǔn)中inverse compositional 方法所计,算法迭代更新方式如圖1所示。
泰勒展開線性化如圖2所示:
算法流程圖如圖3所示:
下面我對(duì)上述公式中出現(xiàn)的符號(hào)做相應(yīng)的解釋:
▽T指的是模板圖像T在x方向和y方向上的梯度圖团秽,如圖4所示:
變換矩陣W對(duì)未知參數(shù)的導(dǎo)數(shù)即J草編矩陣可以用鏈?zhǔn)角髮?dǎo)法則來計(jì)算主胧,即如圖5所示。
[1]Baker S, Matthews I. Lucas-kanade 20 years on: A unifying framework[J]. International journal of computer vision, 2004, 56(3): 221-255.
[2]Ma Y, Soatto S, Kosecka J, et al. An invitation to 3-d vision: from images to geometric models[M]. Springer Science & Business Media, 2012.