個人為了看的方便沒有廣告糊余,轉(zhuǎn)載自泡泡機器人:
https://www.sohu.com/a/161346283_715754#comment_area? 侵刪
作者:
Raúl Mur-Artal*, J. M. M. Montiel, Member, IEEE, and Juan D. Tardós, Member, IEEE
翻譯:Taylor Guo
原文部分重譯與審核:趙搏欣
編輯:楊雨生
歡迎個人轉(zhuǎn)發(fā)朋友圈;其他機構(gòu)或自媒體如需轉(zhuǎn)載,后臺留言申請授權(quán)
V.跟蹤
在這一部分芍躏,我們將詳細(xì)介紹跟蹤線程在相機每幀圖像上執(zhí)行的步驟。在幾個步驟中都提到的相機位姿優(yōu)化插佛,包括運動BA秤朗,將在附錄部分進行闡述土陪。
A昼汗、ORB特征提取
我們在8層圖像金字塔上提取FAST角點,金字塔圖像尺度因子為1.2鬼雀。如果圖像分辨率從512*384到752*480顷窒,我們發(fā)現(xiàn)提取1000個角點比較合適,如果分辨率提高源哩,如KITTI數(shù)據(jù)集[40]鞋吉,則提取2000個角點。為了確保特征點均勻分布励烦,我們將每層圖像分成網(wǎng)格谓着,每格提取至少5個角點。然后檢測每格角點坛掠,如果角點數(shù)量不夠赊锚,就調(diào)整閾值。如果某些單元格內(nèi)檢測不出角點屉栓,則其對應(yīng)提取的角點數(shù)量也相應(yīng)減少舷蒲。最后,根據(jù)保留的FAST的角點計算方向和ORB特征描述子友多。ORB特征描述子將用于算法后續(xù)所有的特征匹配牲平,而不是像PTAM算法中那樣根據(jù)圖像區(qū)塊的相關(guān)性進行搜索。
B域滥、通過前一圖像幀估計相機的初始位姿
如果上一幀圖像跟蹤成功纵柿,我們就用運動速率恒定模型來預(yù)測當(dāng)前相機的位置(即認(rèn)為攝像頭處于勻速運動),然后搜索上一幀圖像中的特征點在地圖中的對應(yīng)云點與當(dāng)前幀圖像的匹配點启绰,最后利用搜索到的匹配點對當(dāng)前相機的位姿進一步優(yōu)化昂儒。但是,如果沒有找到足夠的匹配點(比如委可,運動模型失效荆忍,非勻速運動),我們就加大搜索范圍,搜索地圖云點附近的點在當(dāng)前幀圖像中是否有匹配點刹枉,然后通過尋找到的對應(yīng)匹配點對來優(yōu)化當(dāng)前時刻的相機位姿。
C屈呕、通過全局重定位來初始化位姿
如果擴大了搜索范圍還是跟蹤不到特征點微宝,(那么運動模型已經(jīng)失效),則計算當(dāng)前幀圖像的詞袋(BoW)向量,并利用BoW詞典選取若干關(guān)鍵幀作為備選匹配幀(這樣可以加快匹配速度)虎眨;然后蟋软,在每個備選關(guān)鍵幀中計算與地圖云點相對應(yīng)的ORB特征,就如第三部分E節(jié)所描述的嗽桩。接著岳守,對每個備選關(guān)鍵幀輪流執(zhí)行PnP算法[41]計算當(dāng)前幀的位姿(RANSAC迭代求解)。如果我們找到一個姿態(tài)能涵蓋足夠多的有效點碌冶,則搜索該關(guān)鍵幀對應(yīng)的更多匹配云點湿痢。最后,基于找到的所有匹配點對相機位置進一步優(yōu)化扑庞,如果有效數(shù)據(jù)足夠多譬重,則跟蹤程序?qū)⒊掷m(xù)執(zhí)行。
D罐氨、跟蹤局部地圖
一旦我們獲得了初始相機位姿和一組初始特征匹配點臀规,我們就可以將更多的地圖云點投影到圖像上以尋找更多的匹配點。為了降低大地圖的復(fù)雜性栅隐,我們只映射局部地圖塔嬉。該局部地圖包含一組關(guān)鍵幀K1,它們和當(dāng)前關(guān)鍵幀有共同的地圖云點租悄,還包括與關(guān)鍵幀K1在covisibility graph中相鄰的一組關(guān)鍵幀K2谨究。這個局部地圖中有一個參考關(guān)鍵幀Kref∈K1,它與當(dāng)前幀具有最多共同的地圖云點∏【兀現(xiàn)在對K1, K2中可見的每個地圖云點记盒,在當(dāng)前幀中進行如下搜索:
計算地圖云點在當(dāng)前幀圖像中的投影點x。如果投影位置超出圖像邊緣外傅,就將對應(yīng)的地圖云點刪除纪吮。
計算當(dāng)前視圖射線v和地圖云點平均視圖方向n的夾角。如果n<cos(60o)萎胰,就刪除對應(yīng)云點碾盟。
計算地圖云點到相機中心的距離d。如果它不在地圖云點的尺度不變區(qū)間內(nèi)技竟,即d?[dmin,dmax]冰肴,就刪除該云點。
計算每幀圖像的尺度比d/dmin。
對比地圖云點的特征描述子D和當(dāng)前幀中還未匹配的ORB特征熙尉,在預(yù)測的尺度層和靠近x的云點作最優(yōu)匹配联逻。
相機位姿最后通過當(dāng)前幀中獲得所有的地圖云點進行優(yōu)化。(這個環(huán)節(jié)的目的是在當(dāng)前幀和局部地圖之間找到更多的匹配點對检痰,來優(yōu)化當(dāng)前幀的位姿)包归。
E、新關(guān)鍵幀的判斷標(biāo)準(zhǔn)
最后一步是決定當(dāng)前幀是否可以作為關(guān)鍵幀铅歼。由于局部地圖構(gòu)建的過程中有一個機制去篩選冗余的關(guān)鍵幀公壤,所以我們需要盡快地插入新的關(guān)鍵幀以保證跟蹤線程對相機的運動更具魯棒性,尤其是對旋轉(zhuǎn)運動椎椰。我們根據(jù)以下要求插入新的關(guān)鍵幀:
距離上一次全局重定位后需要超過20幀圖像厦幅。
局部地圖構(gòu)建處于空閑狀態(tài),或距上一個關(guān)鍵幀插入后慨飘,已經(jīng)有超過20幀圖像确憨。
當(dāng)前幀跟蹤少于50個地圖云點。
當(dāng)前幀跟蹤少于參考關(guān)鍵幀K_ref云點的90%套媚。
與PTAM中用關(guān)鍵幀之間的距離作為判斷標(biāo)準(zhǔn)不同缚态,我們加入一個最小的視圖變換,如條件4堤瘤。條件1
確保一個好的重定位玫芦,條件3保證好的跟蹤。如果局部地圖構(gòu)建處于忙狀態(tài)(條件2的后半部分)的時候插入關(guān)鍵幀本辐,就會發(fā)信號去暫停局部BA桥帆,這樣就可以盡可能快地去處理新的關(guān)鍵幀。
VI. 局部地圖構(gòu)建
這章我們將描述根據(jù)每個新的關(guān)鍵幀Ki構(gòu)建局部地圖的步驟慎皱。
A老虫、關(guān)鍵幀插入
首先更新covisibility graph,具體包括:添加一個關(guān)鍵幀節(jié)點Ki茫多,檢查與Ki有共同云點的其他關(guān)鍵幀祈匙,用邊線連接。然后天揖,更新生成樹上與Ki有最多共享點的其他關(guān)鍵幀的鏈接夺欲。計算表示該關(guān)鍵幀的詞袋,并利用三角法生成新的地圖云點今膊。
B些阅、地圖點云篩選
三角化的云點為了已知保留在地圖中,必須在其創(chuàng)建后的頭三個關(guān)鍵幀中通過一個嚴(yán)格的測試斑唬,該測試確保留下的云點都是能被跟蹤的市埋,不是由于錯誤的數(shù)據(jù)而被三角化的黎泣。一個云點必須滿足如下條件:
跟蹤線程必須在超過25%的圖像中找到該特征點。
如果創(chuàng)建地圖云點經(jīng)過了多個關(guān)鍵幀缤谎,那么它必須至少是能夠被其他3個關(guān)鍵幀觀測到抒倚。
一旦一個地圖云點通過測試,它只能在被少于3個關(guān)鍵幀觀測到的情況下移除坷澡。這樣的情況在關(guān)鍵幀被刪除以及局部BA排除異值點的情況下發(fā)生衡便。這個策略使得我們的地圖包含很少的無效數(shù)據(jù)。
C洋访、新地圖點云創(chuàng)建
新的地圖云點的創(chuàng)建是通過對covisibility
graph中連接的關(guān)鍵幀Kc中的ORB特征點進行三角化實現(xiàn)的。對Ki中每個未匹配的ORB特征谴餐,我們在其他關(guān)鍵幀的未匹配云點中進行查找姻政,看是否有匹配上的特征點。這個匹配過程在第三部分第E節(jié)中有詳細(xì)闡述岂嗓,然后將那些不滿足對級約束的匹配點刪除汁展。ORB特征點對三角化后,需要對其在攝像頭坐標(biāo)系中的深度信息厌殉,視差食绿,重投影誤差和尺度一致性進行審查,通過后則將其作為新點插入地圖公罕。起初器紧,一個地圖云點通過2個關(guān)鍵幀觀測,但它在其他關(guān)鍵幀中也有對應(yīng)匹配點楼眷,所以它可以映射到其他相連的關(guān)鍵幀中铲汪,搜索算法的細(xì)則在本文第5部分D節(jié)中有講述。
D罐柳、局部BA
局部BA主要對當(dāng)前處理的關(guān)鍵幀Ki,以及在covisibility
graph中與Ki連接的其他關(guān)鍵幀Kc掌腰,以及這些關(guān)鍵幀觀測到的地圖云點進行優(yōu)化所有其他能夠觀測到這些云點的關(guān)鍵幀但沒有連接Ki的會被保留在優(yōu)化線程中,但保持不變张吉。優(yōu)化期間以及優(yōu)化后齿梁,所有被標(biāo)記為無效的觀測數(shù)據(jù)都會被丟棄,附錄有詳細(xì)的優(yōu)化細(xì)節(jié)肮蛹。
E勺择、局部關(guān)鍵幀篩選
為了使重構(gòu)保持簡潔,局部地圖構(gòu)建盡量檢測冗余的關(guān)鍵幀蔗崎,刪除它們酵幕。這樣對BA過程會有很大幫助,因為隨著關(guān)鍵幀數(shù)量的增加缓苛,BA優(yōu)化的復(fù)雜度也隨之增加芳撒。當(dāng)算法在同一場景下運行時邓深,關(guān)鍵幀的數(shù)量則會控制在一個有限的情況下,只有當(dāng)場景內(nèi)容改變了笔刹,關(guān)鍵幀的數(shù)量才會增加芥备,這樣一來,就增加了系統(tǒng)的可持續(xù)操作性舌菜。如果關(guān)鍵幀Kc中90%的點都可以被其他至少三個關(guān)鍵幀同時觀測到萌壳,那認(rèn)為Kc的存在是冗余的,我們則將其刪除日月。尺度條件保證了地圖點以最準(zhǔn)確的方式保持它們對應(yīng)的關(guān)鍵幀(這句翻譯沒理解透:The
scale condition ensures that map points maintain keyframes from which
they are measured with most
accuracy.)這個策略受Tan等人的工作[24]的啟發(fā)袱瓮,在這項工作中,作者在經(jīng)過一系列變化檢測后即將關(guān)鍵幀刪除爱咬。
VII. 閉環(huán)檢測
閉環(huán)檢測線程抽取Ki——最后一幀局部地圖關(guān)鍵幀尺借,用于檢測和閉合回環(huán)。具體步驟如下:
A精拟、候選關(guān)鍵幀
我們先計算Ki的詞袋向量和它在covisibility
graph中相鄰圖像(θmin=30)的相似度燎斩,保留最低分值Smin。然后蜂绎,我們檢索圖像識別數(shù)據(jù)庫栅表,丟掉那些分值低于Smin的關(guān)鍵幀。這和DBoW2中均值化分值的操作類似师枣,可以獲得好的魯棒性怪瓶,DBoW2中計算的是前一幀圖像,而我們是使用的covisibility信息坛吁。另外劳殖,所有連接到Ki的關(guān)鍵幀都會從結(jié)果中刪除。為了獲得候選回環(huán)拨脉,我們必須檢測3個一致的候選回環(huán)(covisibility
graph中相連的關(guān)鍵幀)哆姻。如果對Ki來說環(huán)境樣子都差不多,就可能有幾個候選回環(huán)玫膀。
B矛缨、計算相似變換
單目SLAM系統(tǒng)有7個自由度,3個平移帖旨,3個旋轉(zhuǎn)箕昭,1個尺度因子 [6]。因此解阅,閉合回環(huán)落竹,我們需要計算從當(dāng)前關(guān)鍵幀Ki到回環(huán)關(guān)鍵幀Kl的相似變換,以獲得回環(huán)的累積誤差货抄。計算相似變換也可以作為回環(huán)的幾何驗證述召。
我們先計算ORB特征關(guān)聯(lián)的當(dāng)前關(guān)鍵幀的地圖云點和回環(huán)候選關(guān)鍵幀的對應(yīng)關(guān)系朱转,具體步驟如第3部分E節(jié)所示。此時积暖,對每個候選回環(huán)藤为,我們有了一個3D到3D的對應(yīng)關(guān)系。我們對每個候選回環(huán)執(zhí)行RANSAC迭代夺刑,通過Horn方法(如論文[42])找到相似變換缅疟。如果我們用足夠的有效數(shù)據(jù)找到相似變換Sil,我們就可以優(yōu)化它遍愿,并搜索更多的對應(yīng)關(guān)系存淫。如果Sil有足夠的有效數(shù)據(jù),我們再優(yōu)化它沼填,直到Kl回環(huán)被接受纫雁。
C、回環(huán)融合
回環(huán)矯正的第一步是融合重復(fù)的地圖云點倾哺,在covisibility
graph中插入與回環(huán)相關(guān)的的新邊緣。先通過相似變換Sil矯正當(dāng)前關(guān)鍵幀位姿Tiw刽脖,這種矯正方法應(yīng)用于所有與Ki相鄰的關(guān)鍵幀羞海,這樣回環(huán)兩端就可以對齊。然后曲管,回環(huán)關(guān)鍵幀及其近鄰能觀測到的所有地圖云點都映射到Ki及其近鄰中却邓,并在映射的區(qū)域附近小范圍內(nèi)搜索它的對應(yīng)匹配點,如第5部分D節(jié)所述院水。所有匹配的地圖云點和計算Sil過程中的有效數(shù)據(jù)進行融合腊徙。融合過程中所有的關(guān)鍵幀將會更新它們在covisibility
graph中的邊緣,創(chuàng)建的新邊緣將用于回環(huán)檢測檬某。
D撬腾、Essential Graph優(yōu)化
為了有效地閉合回環(huán),我們通過Essential Graph優(yōu)化位姿圖恢恼,如第三部分D節(jié)所示民傻,這樣可以將回環(huán)閉合的誤差分散到圖像中去。優(yōu)化程序通過相似變換校正尺度偏移场斑,如論文[6]漓踢。誤差和成本計算如附錄所示。優(yōu)化過后漏隐,每一個地圖云點都根據(jù)關(guān)鍵幀的校正進行變換喧半。
VIII. 實驗
我們采用NewCollege[39]的大場景機器人圖像序列對本文提出的系統(tǒng)進行了較全面的實驗評估,首先采用TUM的室內(nèi)16個手持RGB-D數(shù)據(jù)集[38]對系統(tǒng)的總體性能進行了評估青责,包括算法的定位精度挺据,重定位和程序運行能力取具;然后,用KITTI的10個汽車戶外圖像數(shù)據(jù)集[40]吴菠,評估算法在實時大場景下的操作及其定位精度和位姿圖的優(yōu)化效率者填。
算法運行在Intel Core i7-4700MQ (4核@2.40GHz)和8GB
RAM的實驗平臺上,運算速率可達到實時做葵,且以幀率對圖像進行準(zhǔn)確處理占哟。ORB-SLAM有3個主線程,它們和其他ROS線程并行運行酿矢,由于引入了ROS操作系統(tǒng)榨乎,因此算法結(jié)果具有一定的隨機性,針對這個原因瘫筐,我們在一些實驗中公布了算法運行的中間結(jié)果蜜暑。
A、基于Newcollege數(shù)據(jù)集測試系統(tǒng)性能
NewCollege數(shù)據(jù)集[39]包含了一個2.2公里的校園的機器人圖像序列策肝。它是由雙目相機拍攝肛捍,幀率為20fps,分辨率512x38之众。圖像序列中包含幾個回環(huán)和快速的旋轉(zhuǎn)拙毫,這對單目視覺定位非常具有挑戰(zhàn)性。據(jù)我們所知棺禾,目前沒有單目系統(tǒng)可以處理整個圖像序列缀蹄。例如論文[7],盡管其算法可以實現(xiàn)回環(huán)檢測膘婶,也可以應(yīng)用于大場景環(huán)境缺前,但只有小部分序列圖像能夠顯示單目結(jié)果。
如圖4顯示的是我們的算法檢測到的閉合回路悬襟,從圖中可以看出衅码,我們選擇的有效數(shù)據(jù)點都支持相似性變換。圖5則對比了回環(huán)閉合前后的環(huán)境地圖重構(gòu)狀況脊岳。其中肆良,紅色標(biāo)注的是局部地圖,回環(huán)檢測后可以看到其兩端擴展到連接整個運行軌跡逸绎。圖6是以實時幀率速度運行整個圖像序列后的全局地圖惹恃,從圖中可以看出,后邊的大回環(huán)并沒有完全閉合棺牧,它從另外一個方向穿過巫糙,位置識別程序沒能發(fā)現(xiàn)閉合回路。
我們統(tǒng)計了ORB_SLAM算法每個線程所用的時間颊乘。表1顯示了算法跟蹤和局部構(gòu)圖的時間参淹∽沓可以看出,跟蹤的幀率大概在25-30Hz浙值,這是跟蹤局部地圖所需的最多時間恳不。如果需要的話,這個時間還可以更快开呐,只要減少局部地圖中所包含的關(guān)鍵幀數(shù)量即可烟勋。局部地圖構(gòu)建線程中需時最高的是局部BA優(yōu)化。局部BA的時間根據(jù)機器人探索環(huán)境的狀態(tài)變動筐付,即在未探索環(huán)境下所需時間多卵惦,在已經(jīng)探索過的環(huán)境下運行所需時間少,因為在未知環(huán)境中如果跟蹤線程插入一個新的關(guān)鍵幀瓦戚,BA優(yōu)化會被中斷沮尿,如第5部分E節(jié)所示。如果不需要插入新的關(guān)鍵幀较解,局部BA優(yōu)化則會執(zhí)行大量已經(jīng)設(shè)置的迭代程序畜疾。
表2顯示了6個閉合回路的結(jié)果∮∠危可以看到回環(huán)檢測是如何亞線性地隨關(guān)鍵幀數(shù)量的增多而增加庸疾。這主要是由于高效的數(shù)據(jù)庫檢索,表2中只比較了具有相同圖像單詞的圖像子集当编,由此可見用于位置識別詞袋模型的潛力。我們的Essential
Graoh中包含的邊緣是關(guān)鍵幀數(shù)量的5倍徒溪,它是一個稀疏圖忿偷。
B、基于TUM RGB-D標(biāo)準(zhǔn)庫的定位精度
TUM RGB-D數(shù)據(jù)集[38]是一個用于估計攝像頭定位精度的優(yōu)秀數(shù)據(jù)庫臊泌,它提供了許多圖像序列鲤桥,還包括外部運動捕捉系統(tǒng)提供的對應(yīng)軌跡真值。我們?nèi)サ裟切┎贿m合純單目SLAM系統(tǒng)的圖像序列渠概,這些序列包含強烈的旋轉(zhuǎn)茶凳,沒有紋理或沒有運動。
為了驗證算法性能播揪,我們選擇了最近提出的直接法半稠密LSD-SLAM(論文[10])和經(jīng)典算法PTAM(論文[4])作為對比贮喧。除此之外,我們還比較了由RGBD-SLAM(論文[43])算法生成的軌跡猪狈。為了在相同的基準(zhǔn)下比較ORB-SLAM箱沦,LSD-SLAM和PTAM,我們用相似變換對齊關(guān)鍵幀軌跡雇庙,在尺度未知的情況下谓形,檢測軌跡的絕對誤差(論文[38])灶伊。對RGBD-SLAM算法,我們通過相機坐標(biāo)變換來對齊軌跡寒跳,也采用同樣的方法檢測尺度是否重構(gòu)良好聘萨。LSD-SLAM從隨機深度值開始初始化,然后隨機值逐漸收斂童太,因此與基準(zhǔn)對比的時候米辐,我們會丟掉前10個關(guān)鍵幀。對于PTAM算法康愤,我們從一個好的初始化中儡循,手動選擇兩個關(guān)鍵幀。表3
是對我們選擇的16個圖像序列運行5次的中間結(jié)果征冷。
從表中可以看出择膝,ORB-SLAM可以處理所有的圖像序列,除了fr3 nostructure texture far (fr3 nstr
tex
far)以外检激。這是一個平面的場景肴捉,相機的軌跡在這種情況下有兩種可能,正如論文[27]中的描述的叔收。我們的初始化方法檢測到這種模棱兩可的情況齿穗,為了保證算法的安全運行選擇不進行初始化。PTAM初始化有時會選擇對的方案饺律,有些可能會選擇錯的方案窃页,且導(dǎo)致的錯誤可能不能接受。我們沒有注意到LSD-SLAM的2種不同的重構(gòu)方案复濒,但在這個圖像序列出現(xiàn)的錯誤非常多脖卖。針對其他的圖像序列,PTAM和LSD-SLAM算法的魯棒性都比我們的方法差巧颈,且分別有八組序列和三組序列中地圖點容易跟蹤丟失畦木。
關(guān)于精度問題,沒有回環(huán)檢測期間砸泛,ORB-SLAM和PTAM算法的定位精度相當(dāng)十籍,但回環(huán)檢測成功后,ORB-SLAM算法將達到更高的定位精度唇礁,正如在圖像序列fr3
nostructure texture near withloop (fr3 nstr tex
near)中表現(xiàn)的勾栗。非常意外的一個結(jié)果是PTAM和ORB-SLAM都非常明顯地表現(xiàn)出精度高于LSD-SLAM和RGBD-SLAM。一個可能的原因是它們將地圖的優(yōu)化過程簡化為一個單純的姿態(tài)圖優(yōu)化過程盏筐,這樣就造成了傳感器測量信息的丟失械姻,但在我們的算法中,采用BA優(yōu)化,同時通過傳感器測量優(yōu)化相機的姿態(tài)和地圖的云點位置楷拳,這是解決運動到結(jié)構(gòu)[2]的經(jīng)典標(biāo)準(zhǔn)算法绣夺。。我們將在第9部分B節(jié)進一步討論了這個結(jié)果欢揖。另一個有趣的結(jié)果是在圖像序列fr2
desk with person 和 fr3 walking xyz中陶耍,LSD-SLAM對動態(tài)物體的魯棒性相比ORB-SLAM差一些。
我們注意到RGBD-SLAM在圖像序列fr2上尺度上有一個偏差她混,用7自由度對齊軌跡則誤差明顯減少烈钞。最后我們注意到Engle等人在論文[10]中提出在f2_xyz上PTAM的精度比LSD-SLAM算法低,RMSE是24.28cm坤按。然而呜魄,論文沒有給出足夠的細(xì)節(jié)說明如何獲得這些結(jié)果的吗讶,因此我們沒有辦法復(fù)現(xiàn)它。
C、基于TUM RGB-D標(biāo)準(zhǔn)數(shù)據(jù)庫的重定位
我們在TUM
RGB-D數(shù)據(jù)集上進行了兩組重定位實驗戚啥。在第一個實驗中枉层,我們選擇fr2_xyz圖像序列速缆,通過前30秒構(gòu)建了一個地圖懂扼,然后對后來的每一幀圖像都進行全局重定位,并評估重構(gòu)出來的相機位姿精度嘹锁。我們對PTAM算法進行了相同的實驗葫录。如圖7所示是創(chuàng)建初始地圖的關(guān)鍵幀,重定位的圖像幀位姿和這些幀對應(yīng)的真值领猾。從圖中可以看出PTAM算法只能夠?qū)χ囟ㄎ魂P(guān)鍵幀附近的圖像幀米同,這是因為其算法中重定位方法并不具備不變形導(dǎo)致的。表4顯示了PTAM算法和ORB_SLAM算法相對地面真值的誤差摔竿。從表中數(shù)據(jù)可以看出面粮,ORB-SLAM比PTAM可以更精準(zhǔn)地多定位2倍的圖像幀。在第2個實驗中拯坟,我們采用fr3_sitting_xyz圖像序列來初始化地圖,然后用fr3_walking_xyz圖像序列重定位所有的圖像幀韭山。這是一個頗具挑戰(zhàn)性的實驗郁季,由于圖像中有人移動,會造成圖像局部區(qū)域的遮擋钱磅。在該試驗中梦裂,PTAM并沒有實現(xiàn)重定位,而ORB-SLAM重定位了78%的圖像幀盖淡,如表4所示年柠。圖8顯示了ORB-SLAM重定位的一些實驗圖例。
D褪迟、基于TUM RGB-D標(biāo)準(zhǔn)數(shù)據(jù)集測試算法的運行生命
之前的重定位實驗表明我們的系統(tǒng)可以從非常不同的視角定位地圖冗恨,在中等動態(tài)環(huán)境中的魯棒性也較好答憔。這個特性和關(guān)鍵幀篩選程序使得算法在不同的視角和局部動態(tài)環(huán)境中能夠一直運行到圖像結(jié)束。
在全靜態(tài)場景情況下掀抹,即使相機從不同視角觀測場景虐拓,ORB-SLAM也可以使關(guān)鍵幀數(shù)量保持在一個有限的水平內(nèi)。我們在一個自定義的圖像序列中驗證了這一點傲武,手持相機在93秒以內(nèi)都拍攝同一張桌子蓉驹,但視角一直變換,形成一個軌跡揪利。我們對比了我們地圖的關(guān)鍵幀數(shù)量和PTAM生成的關(guān)鍵幀态兴,如圖9所示∨蔽唬可以看到PTAM一直都在插入關(guān)鍵幀瞻润,而ORB-SLAM會刪除冗余的關(guān)鍵幀,將其總數(shù)保持在一個穩(wěn)定的范圍內(nèi)献汗。
當(dāng)然敢订,在整個程序運行過程中,靜態(tài)環(huán)境下的正常操作是任何SLAM系統(tǒng)的一個基本要求罢吃,更引人關(guān)注的是動態(tài)環(huán)境下的狀況楚午。我們在幾個fr3的圖像序列中分析了ORB-SLAM系統(tǒng)的狀況,圖像序列有:sitting
xyz, sitting halfsphere, sitting rpy, walking xyz, walking halfspehere
和walking
rpy尿招。所有的視頻中矾柜,相機都對著桌子,但運動軌跡不同就谜,拍攝場景中有人在移動怪蔑,椅子也被移動了。如圖10(a)所示是ORB_SLAM算法生成的地圖中所有關(guān)鍵幀的總數(shù)量丧荐,圖10(b)顯示從圖像幀中創(chuàng)建或刪除關(guān)鍵幀缆瓣,從中可以看出從關(guān)鍵幀到地圖構(gòu)建需要多久時間『缤常可以看到前2個圖像序列中新看到(增加)場景時地圖的大小一直在增加弓坞。圖10(b)是前2個視頻中創(chuàng)建的關(guān)鍵幀。在視頻sitting_rpy和walking_xyz中车荔,地圖沒有增加渡冻,地圖是通過已有場景創(chuàng)建。相反忧便,在最后兩個視頻中族吻,有更多的關(guān)鍵幀插入但沒有在場景中表示出來,可能由于場景的動態(tài)變化。圖10(C)是關(guān)鍵幀的柱狀圖超歌,它們是從視頻中挑選出來的砍艾。大部分的關(guān)鍵幀被篩選程序刪除了,只有一小部分留下來了握础。ORB-SLAM有大量關(guān)鍵幀的生成策略辐董,在未知環(huán)境下非常有用;后面系統(tǒng)會生成一個小的子集來代表這些關(guān)鍵幀禀综。
在整個實驗中简烘,我們系統(tǒng)的地圖根據(jù)場景上內(nèi)容來增加,而不是根據(jù)時間定枷,它可以存儲場景的動態(tài)變化孤澎,對場景的理解非常有用。
E欠窒、基于KITTI數(shù)據(jù)集測試算法在大場景大回環(huán)下的性能對比
KITTI數(shù)據(jù)集中里程計的數(shù)據(jù)包括11個視頻覆旭,它的獲取是在一個住宅區(qū)駕駛汽車,基準(zhǔn)精度非常高岖妄,有一個GPS和一個Velodyne
Laser
Scanner型将。這個數(shù)據(jù)集對單目系統(tǒng)非常有挑戰(zhàn)性,因為視頻中有快速旋轉(zhuǎn)荐虐,區(qū)域內(nèi)有大量樹葉七兜,這使數(shù)據(jù)關(guān)聯(lián)變得更困難,而且車速相對較快福扬,視頻記錄的頻率為10fps腕铸。除了視頻01外,ORB-SLAM可以處理其他所有的視頻铛碑,01是高速路上的視頻狠裹,可追蹤的物體非常少。視頻00,02,05,06,07,09汽烦,有閉環(huán)回路涛菠,系統(tǒng)可以檢測到,并使它閉合撇吞。其中視頻09的閉環(huán)只能在視頻的最后幾個圖像幀里檢測到俗冻,并不是每次都能成功檢測到(結(jié)果顯示的是針對其被檢測到的運行情況)。
對于軌跡與基準(zhǔn)的定性比較如圖11和12所示梢夯。在TUM
RGB-D數(shù)據(jù)集中言疗,我們可以通過相似變換對齊軌跡的關(guān)鍵幀和基準(zhǔn)晴圾。圖11是定性比較的結(jié)果颂砸,圖12是論文[25]中的最新單目SLAM在視頻00,05,06,07和08上執(zhí)行的結(jié)果。除了08有一些偏移以外,ORB-SLAM在這些視頻上的軌跡都很精準(zhǔn)人乓。
表5顯示了每個視頻的關(guān)鍵幀軌跡中間的RMSE誤差勤篮。我們基于地圖尺寸提供了軌跡的誤差。結(jié)果表明我們的軌跡誤差是地圖尺寸的1%左右色罚。大致范圍低的是視頻03的0.3%高的是視頻08的5%碰缔。視頻08中沒有閉環(huán),漂移也沒辦法糾正戳护,因為閉環(huán)控制需要獲得更精確的重構(gòu)金抡。
在本次實驗中,我們還確認(rèn)了到底全局BA的20層迭代最終能優(yōu)化多少地圖重構(gòu)腌且,相關(guān)細(xì)節(jié)如附錄所示梗肝。我們還注意到全局BA優(yōu)化可以稍微增加閉環(huán)軌跡的精度,但這對開環(huán)軌跡有負(fù)面影響铺董,這意味著我們的系統(tǒng)已經(jīng)非常精確了巫击。在有些應(yīng)用中,如果需要非常精確的結(jié)果我們的算法會提供一組匹配精续,需要定義一個比較強的相機網(wǎng)絡(luò)坝锰,一個初始估計,這樣全局BA優(yōu)化迭代次數(shù)就會變少重付。
最后講一下我們算法的閉環(huán)檢測和用于essential
graph邊緣的θmin的效率顷级。我們選擇視頻09(一段非常長的圖像序列,在最后有一個閉環(huán))堪夭,然后評估不同的閉環(huán)檢測算法愕把。表6是關(guān)鍵幀軌跡RMSE和不同情況下沒有閉環(huán)檢測優(yōu)化所用的時間,表中的相關(guān)內(nèi)容包括:如果直接采用全局BA優(yōu)化(20層或100層迭代)的情況森爽,如果只用位姿圖優(yōu)化(10層迭代不同數(shù)量的邊緣)的情況恨豁,如果先用位姿圖優(yōu)化再執(zhí)行全局BA優(yōu)化的情況。結(jié)果表明爬迟,在閉環(huán)檢測之前橘蜜,算法的RMSE誤差較大,以至于BA優(yōu)化沒辦法收斂付呕,即便是迭代100次之后后誤差仍舊非常大计福。另一方面,essential
graph優(yōu)化收斂速度很快徽职,而且結(jié)果也更精確象颖。θmin對精度影響并不大,減少邊緣的數(shù)量會明顯降低精度姆钉。位姿圖優(yōu)化后再執(zhí)行一個BA優(yōu)化則可以增加精度说订,但時間也增加了抄瓦。
IX. 結(jié)論和討論
A、結(jié)論
本文中陶冷,我們提出了一個新的單目SLAM系統(tǒng)钙姊,并詳細(xì)介紹了其組成模塊,最后基于公共數(shù)據(jù)庫對其性能進行了全方位的測試埂伦。通過實驗得知煞额,我們的系統(tǒng)可以處理室內(nèi)與室外的圖像序列,能夠用于汽車沾谜、機器人和手持設(shè)備上膊毁。其定位精度在室內(nèi)小場景中約為1厘米,室外大場景的應(yīng)用是幾米(前提是我們與真實軌跡尺度對齊的情況下)基跑。
由Klein和Murray[4]提出的PTAM算法被認(rèn)為是目前最精準(zhǔn)的單目實時SLAM方法媚媒。PTAM后端是BA優(yōu)化,這是眾所周知的離線SFM(從運動到結(jié)構(gòu))問題[2]的經(jīng)典解法涩僻。PTAM算法和Mouragnon[3]早期作品的主要貢獻是將BA算法引入到機器人SLAM框架下缭召,并具有良好的實時性。而本文的主要貢獻是將PTAM算法的適用性進一步擴展逆日,使其可以應(yīng)用于原來不可應(yīng)用的場景下嵌巷。為了實現(xiàn)這一目標(biāo),我們整合了前面幾年的優(yōu)秀作品室抽,引入新的想法和算法搪哪,從頭設(shè)計了一種新的單目SALM系統(tǒng)所用到的技術(shù)包括Gálvez-López和Tardós提出的論文[5]中的閉環(huán)檢測,Strasdat等人在論文[6],[7]中提出的的閉環(huán)檢測程序和covisibility
graph坪圾,Kuemmerle等人在論文[37]中提出的g2o優(yōu)化框架以及Rubble等人提出的ORB特征[9]晓折。到目前為止就我們所知,本文提出的ORB_SLAM方法的定位精度最高兽泄,也是最可靠最完整的單目SLAM系統(tǒng)漓概。我們提出的新的生成和刪除關(guān)鍵幀策略,允許每個幾幀就創(chuàng)建一個關(guān)鍵幀病梢,然后當(dāng)關(guān)鍵幀冗余時則刪除胃珍。這樣的構(gòu)圖方式很靈活,在外界條件很差的情況下可以保證系統(tǒng)正常運行蜓陌,比如相機作純旋轉(zhuǎn)運動或快速移動時觅彰。當(dāng)算法在相同場景下運行時,地圖在只有拍攝到新內(nèi)容的情況下才會增長钮热,可以從我們的長期構(gòu)圖結(jié)果中看到這個特性填抬。
最后,我們還展示了ORB特征具有很好的識別能力隧期,可識別劇烈視角變換情況下的場景信息飒责。此外蛀骇,它們能夠被非常快速的提取和匹配(不需要多線程或GPU加速)读拆,這就使得跟蹤和地圖構(gòu)建更加實時精確。
B鸵闪、離散/特征SLAM方法與稠密/直接SLAM方法對比
最近檐晕,DTAM[44]和LSD-SLAM[10]提出了一種實時單目SALM算法,算法直接利用圖像像素的亮度信息進行攝像頭的定位與優(yōu)化蚌讼,并重構(gòu)稠密或半稠密的環(huán)境地圖辟灰。這類方法即為直接法,直接方法不需要特征提取篡石,可以避免人工匹配芥喇。他們對圖像模糊,弱紋理環(huán)境和像論文[45]這樣的高頻紋理環(huán)境的魯棒性更好凰萨。與由稀疏點構(gòu)建的地圖相比继控,比如ORB-SLAM或PTAM算法,稠密/直接法SLAM對相機定位之外的其他應(yīng)用任務(wù)可能更有用途胖眷。
部分重譯:
然而武通,直接方法有他們自己的局限。首先珊搀,這些方法假設(shè)真實場景中的物體的像是由該物體本身的表面反射模型產(chǎn)生的冶忱,因此,算法采用的光度一致性尋找匹配點的思路就限制了匹配點之間的基線距離境析,通常都比特征匹配點的基線要窄囚枪。這對重構(gòu)的精度影響很大,因為重構(gòu)需要較寬的基線來減少深度的不確定性劳淆。如果直接建模不準(zhǔn)確链沼,則可能會受到快門,自動增益和自動曝光的影響(如TUM
RGB-D
的對比測試)沛鸵。最后忆植,由于直接方法計算要求較高,因此為了滿足計算速度谒臼,DTAM算法采用地圖增量式擴張的方法朝刊,而LSD-SLAM則丟掉傳感器測量信息,將地圖優(yōu)化降低為對位姿圖的優(yōu)化蜈缤。
相反拾氓,基于特征的方法可以在更寬的基線上匹配特征,主要得益于特征匹配算法較好地視圖不變特性底哥。BA優(yōu)化和相機位姿優(yōu)化咙鞍,地圖云點通過傳感器測量進行融合房官。在運動結(jié)構(gòu)估計中,論文[46]已經(jīng)指出了基于特征的方法相比直接方法的優(yōu)勢续滋。在我們的實驗第8部分B節(jié)中也直接提供了證據(jù)翰守,,表明基于特征的定位精度更高疲酌。未來單目SLAM應(yīng)該會整合兩種最好的方法蜡峰。
C、后續(xù)
我們系統(tǒng)的精度可以通過結(jié)合無限遠(yuǎn)點跟蹤來進一步增強朗恳。這些在視圖中看不到的平行線交點湿颅,并沒有包含在本文算法構(gòu)建的地圖中,但對相機的旋轉(zhuǎn)非常有用[21]粥诫。
另外一種方法是將稀疏地圖更新到一個更加稠密的地圖油航。由于我們關(guān)鍵幀的選擇機制,關(guān)鍵幀組成了一個緊湊的地圖怀浆,地圖具有非常高精度的位姿信息和豐富的covisibility信息谊囚。所以,ORB-SLAM稀疏地圖是一個非常優(yōu)秀的初始估計框架执赡,比稠密地圖更好秒啦。這個方向的首次嘗試在論文[47]中有詳細(xì)描述。
附錄:非線性優(yōu)化
捆集調(diào)整(BA)
地圖云點3D位置 Xw,j∈R3搀玖,關(guān)鍵幀位姿Tiw∈SE(3)
W表示世界坐標(biāo)余境,通過匹配的關(guān)鍵點Xi,j∈R2減少重投影誤差。
地圖云點j在關(guān)鍵幀i中的誤差是:
其中πi是影射函數(shù):
其中灌诅,Riw∈SO(3)芳来,tiw∈R3,分別表示Tiw的旋轉(zhuǎn)和平移部分
(fi,u , fi,v)猜拾,(ci,u , ci,v)分別是相機i的焦點距離和主點即舌。
代價函數(shù):
ρh是Huber魯棒代價函數(shù),Ωi,j=δi,j2I2x2是協(xié)方差矩陣挎袜,與檢測關(guān)鍵點的尺度有關(guān)顽聂。在全局捆集調(diào)整中(在初始化地圖中),我們優(yōu)化了所有云點和關(guān)鍵幀盯仪。
參考文獻
[1] B. Triggs, P. F. McLauchlan, R. I. Hartley, and A. W.
Fitzgibbon,“Bundle adjustment a modern synthesis,” in Vision algorithms:
theoryand practice, 2000, pp. 298–372.
[2] R. Hartley and A. Zisserman, Multiple View Geometry in ComputerVision, 2nd ed. Cambridge University Press, 2004.
[3] E. Mouragnon, M. Lhuillier, M. Dhome, F. Dekeyser, and P. Sayd,
“Realtime localization and 3d reconstruction,” in Computer Vision and
PatternRecognition, 2006 IEEE Computer Society Conference on, vol. 1,
2006,pp. 363–370.
[4] G. Klein and D. Murray, “Parallel tracking and mapping for small
ARworkspaces,” in IEEE and ACM International Symposium on Mixed
andAugmented Reality (ISMAR), Nara, Japan, November 2007, pp. 225–234.
[5] D. G′alvez-L′opez and J. D. Tard′os, “Bags of binary words for
fastplace recognition in image sequences,” IEEE Transactions on
Robotics,vol. 28, no. 5, pp. 1188–1197, 2012.
[6] H. Strasdat, J. M. M. Montiel, and A. J. Davison, “Scale
drift-awarelarge scale monocular SLAM.” in Robotics: Science and Systems
(RSS),Zaragoza, Spain, June 2010.
[7] H. Strasdat, A. J. Davison, J. M. M. Montiel, and K.
Konolige,“Double window optimisation for constant time visual SLAM,” in
IEEEInternational Conference on Computer Vision (ICCV), Barcelona,
Spain,November 2011, pp. 2352–2359.
[8] C. Mei, G. Sibley, and P. Newman, “Closing loops without places,”
inIEEE/RSJ International Conference on Intelligent Robots and
Systems(IROS), Taipei, Taiwan, October 2010, pp. 3738–3744.
[9] E. Rublee, V. Rabaud, K. Konolige, and G. Bradski, “ORB: an
efficientalternative to SIFT or SURF,” in IEEE International Conference
onComputer Vision (ICCV), Barcelona, Spain, November 2011, pp.
2564–2571.
[10] J. Engel, T. Sch¨ops, and D. Cremers, “LSD-SLAM: Large-scale
directmonocular SLAM,” in European Conference on Computer Vision(ECCV),
Zurich, Switzerland, September 2014, pp. 834–849.
[11] R. Mur-Artal and J. D. Tard′os, “Fast relocalisation and loop
closing inkeyframe-based SLAM,” in IEEE International Conference on
Roboticsand Automation (ICRA), Hong Kong, China, June 2014, pp. 846–853.
[12] ——, “ORB-SLAM: Tracking and mapping recognizable features,”
inMVIGRO Workshop at Robotics Science and Systems (RSS), Berkeley,USA,
July 2014.
[13] B. Williams, M. Cummins, J. Neira, P. Newman, I. Reid, and J.
D.Tard′os, “A comparison of loop closing techniques in monocular
SLAM,”Robotics and Autonomous Systems, vol. 57, no. 12, pp. 1188–1197,
2009.
[14] D. Nister and H. Stewenius, “Scalable recognition with a
vocabularytree,” in IEEE Computer Society Conference on Computer Vision
andPattern Recognition (CVPR), vol. 2, New York City, USA, June 2006,pp.
2161–2168.
[15] M. Cummins and P. Newman, “Appearance-only SLAM at large
scalewith FAB-MAP 2.0,” The International Journal of Robotics
Research,vol. 30, no. 9, pp. 1100–1123, 2011.
[16] M. Calonder, V. Lepetit, C. Strecha, and P. Fua, “BRIEF:
BinaryRobust Independent Elementary Features,” in European Conference
onComputer Vision (ECCV), Hersonissos, Greece, September 2010,
pp.778–792.
[17] E. Rosten and T. Drummond, “Machine learning for high-speed
cornerdetection,” in European Conference on Computer Vision (ECCV),
Graz,Austria, May 2006, pp. 430–443.
[18] H. Bay, T. Tuytelaars, and L. Van Gool, “SURF: Speeded Up
RobustFeatures,” in European Conference on Computer Vision (ECCV),
Graz,Austria, May 2006, pp. 404–417.
[19] D. G. Lowe, “Distinctive image features from scale-invariant
keypoints,”International Journal of Computer Vision, vol. 60, no. 2, pp.
91–110,2004.
[20] A. J. Davison, I. D. Reid, N. D. Molton, and O. Stasse,
“MonoSLAM:Real-time single camera SLAM,” IEEE Transactions on Pattern
Analysisand Machine Intelligence, vol. 29, no. 6, pp. 1052–1067, 2007.
[21] J. Civera, A. J. Davison, and J. M. M. Montiel, “Inverse
depthparametrization for monocular SLAM,” IEEE Transactions on
Robotics,vol. 24, no. 5, pp. 932–945, 2008.
[22] C. Forster, M. Pizzoli, and D. Scaramuzza, “SVO: Fast
semi-directmonocular visual odometry,” in Proc. IEEE Intl. Conf. on
Robotics andAutomation, Hong Kong, China, June 2014, pp. 15–22.
[23] O. D. Faugeras and F. Lustman, “Motion and structure from
motionin a piecewise planar environment,” International Journal of
PatternRecognition and Artificial Intelligence, vol. 2, no. 03, pp.
485–508, 1988.
[24] W. Tan, H. Liu, Z. Dong, G. Zhang, and H. Bao, “Robust
monocularSLAM in dynamic environments,” in IEEE International Symposium
onMixed and Augmented Reality (ISMAR), Adelaide, Australia, October2013,
pp. 209–218.
[25] H. Lim, J. Lim, and H. J. Kim, “Real-time 6-DOF monocular
visualSLAM in a large-scale environment,” in IEEE International
Conferenceon Robotics and Automation (ICRA), Hong Kong, China, June
2014, pp.1532–1539.
[26] D. Nist′er, “An efficient solution to the five-point relative
pose problem,”IEEE Transactions on Pattern Analysis and Machine
Intelligence,vol. 26, no. 6, pp. 756–770, 2004.
[27] H. Longuet-Higgins, “The reconstruction of a plane surface from
twoperspective projections,” Proceedings of the Royal Society of
London.Series B. Biological Sciences, vol. 227, no. 1249, pp. 399–410,
1986.
[28] P. H. Torr, A. W. Fitzgibbon, and A. Zisserman, “The problem
ofdegeneracy in structure and motion recovery from uncalibrated
imagesequences,” International Journal of Computer Vision, vol. 32, no.
1,pp. 27–44, 1999.
[29] A. Chiuso, P. Favaro, H. Jin, and S. Soatto, “Structure from
motioncausally integrated over time,” IEEE Transactions on Pattern
Analysisand Machine Intelligence, vol. 24, no. 4, pp. 523–535, 2002.
[30] E. Eade and T. Drummond, “Scalable monocular SLAM,” in IEEE
ComputerSociety Conference on Computer Vision and Pattern
Recognition(CVPR), vol. 1, New York City, USA, June 2006, pp. 469–476.
[31] H. Strasdat, J. M. M. Montiel, and A. J. Davison, “Visual SLAM:
Whyfilter?” Image and Vision Computing, vol. 30, no. 2, pp. 65–77, 2012.
[32] G. Klein and D. Murray, “Improving the agility of
keyframe-basedslam,” in European Conference on Computer Vision (ECCV),
Marseille,France, October 2008, pp. 802–815.
[33] K. Pirker, M. Ruther, and H. Bischof, “CD SLAM-continuous
localizationand mapping in a dynamic world,” in IEEE/RSJ
InternationalConference on Intelligent Robots and Systems (IROS), San
Francisco,USA, September 2011, pp. 3990–3997.
[34] S. Song, M. Chandraker, and C. C. Guest, “Parallel, real-time
monocularvisual odometry,” in IEEE International Conference on Robotics
andAutomation (ICRA), 2013, pp. 4698–4705.
[35] P. F. Alcantarilla, J. Nuevo, and A. Bartoli, “Fast explicit
diffusion foraccelerated features in nonlinear scale spaces,” in British
Machine VisionConference (BMVC), Bristol, UK, 2013.
[36] X. Yang and K.-T. Cheng, “LDB: An ultra-fast feature for
scalableaugmented reality on mobile devices,” in IEEE International
Symposiumon Mixed and Augmented Reality (ISMAR), 2012, pp. 49–57.
[37] R. Kuemmerle, G. Grisetti, H. Strasdat, K. Konolige, and W.
Burgard,“g2o: A general framework for graph optimization,” in IEEE
InternationalConference on Robotics and Automation (ICRA), Shanghai,
China,May 2011, pp. 3607–3613.
[38] J. Sturm, N. Engelhard, F. Endres, W. Burgard, and D. Cremers,
“Abenchmark for the evaluation of RGB-D SLAM systems,” in
IEEE/RSJInternational Conference on Intelligent Robots and Systems
(IROS),Vilamoura, Portugal, October 2012, pp. 573–580.
[39] M. Smith, I. Baldwin, W. Churchill, R. Paul, and P. Newman, “The
newcollege vision and laser data set,” The International Journal of
RoboticsResearch, vol. 28, no. 5, pp. 595–599, 2009.[40] A. Geiger, P.
Lenz, C. Stiller, and R. Urtasun, “Vision meets robotics:The KITTI
dataset,” The International Journal of Robotics Research,vol. 32, no.
11, pp. 1231–1237, 2013.
[41] V. Lepetit, F. Moreno-Noguer, and P. Fua, “EPnP: An accurate
O(n)solution to the PnP problem,” International Journal of Computer
Vision,vol. 81, no. 2, pp. 155–166, 2009.
[42] B. K. P. Horn, “Closed-form solution of absolute orientation
using unitquaternions,” Journal of the Optical Society of America A,
vol. 4, no. 4,pp. 629–642, 1987.
[43] F. Endres, J. Hess, J. Sturm, D. Cremers, and W. Burgard, “3-d
mappingwith an rgb-d camera,” IEEE Transactions on Robotics, vol. 30,
no. 1,pp. 177–187, 2014.
[44] R. A. Newcombe, S. J. Lovegrove, and A. J. Davison, “DTAM:
Densetracking and mapping in real-time,” in IEEE International
Conference onComputer Vision (ICCV), Barcelona, Spain, November 2011,
pp. 2320–2327.
[45] S. Lovegrove, A. J. Davison, and J. Ibanez-Guzm′an, “Accurate
visualodometry from a rear parking camera,” in IEEE Intelligent
VehiclesSymposium (IV), 2011, pp. 788–793.
[46] P. H. Torr and A. Zisserman, “Feature based methods for
structureand motion estimation,” in Vision Algorithms: Theory and
Practice.Springer, 2000, pp. 278–294.
[47] R. Mur-Artal and J. D. Tardos, “Probabilistic semi-dense mapping
fromhighly accurate feature-based monocular SLAM,” in Robotics:
Scienceand Systems (RSS), Rome, Italy, July 2015.
[48] H. Strasdat, “Local Accuracy and Global Consistency for
EfficientVisual SLAM,” Ph.D. dissertation, Imperial College, London,
October2012.