摘要
回環(huán)是基于激光的同時(shí)定位和建圖研究中的一個(gè)眾所周知的問題畸裳,特別是對于大規(guī)模環(huán)境中的應(yīng)用词爬。 無論使用基于粒子濾波器還是基于圖形的SLAM方法昼窗,估計(jì)的位姿和建圖中的累積誤差都使得回環(huán)檢測變得困難西乖。 相機(jī)具有信息豐富的優(yōu)點(diǎn)允跑,但是距離短,計(jì)算負(fù)擔(dān)相對較高兰绣。 在本文中世分,我們提出了一種新方法來解決大規(guī)模激光SLAM中的回環(huán)問題,其中激光和相機(jī)傳感器集成在一起缀辩。 應(yīng)用ORB特征和詞袋來獲得快速且魯棒的回環(huán)檢測性能臭埋。 然后使用公認(rèn)的LRGC SLAM框架和SPA優(yōu)化算法來實(shí)現(xiàn)SLAM。 最后臀玄,在不同的大規(guī)模環(huán)境中進(jìn)行了幾次實(shí)驗(yàn)瓢阴,以驗(yàn)證所提出方法的有效性。
1.簡介
基于激光的同時(shí)定位和建圖(SLAM)(例如[1] - [3])是機(jī)器人感知研究中最受歡迎的主題之一健无,因?yàn)榧す饩哂懈呔热倏郑L距離和避障能力的優(yōu)點(diǎn)。 在許多實(shí)際應(yīng)用中累贤,機(jī)器人需要同時(shí)定位姿勢并構(gòu)建未探測環(huán)境的地圖叠穆。 如圖1所示,應(yīng)用包括服務(wù)機(jī)器人臼膏,工業(yè)無人地面車輛和無人駕駛飛行器等硼被。在過去的幾十年中,已經(jīng)開發(fā)了許多方法來實(shí)現(xiàn)基于激光的SLAM讶请,如EKF-SLAM [1]祷嘶,GMapping [ 2]和基于圖的SLAM [4]。 這些方法在小規(guī)模環(huán)境中是有效的夺溢。 然而论巍,它們在大規(guī)模環(huán)境中遭受回環(huán)檢測問題,特別是在具有對稱性或幾何簡單性的環(huán)境中风响。(激光在對稱性或幾何簡單環(huán)境有問題)
Tardós等人[5] 檢測聲納傳感器的線或角特征嘉汰,然后利用擴(kuò)展卡爾曼濾波器估計(jì)聲納特征的位置以及機(jī)器人姿態(tài)。 然而状勤,由于數(shù)據(jù)關(guān)聯(lián)不穩(wěn)定和計(jì)算負(fù)擔(dān)高鞋怀,基于EKF的方法難以用于大規(guī)模激光SLAM双泪。
Montemerlo等人[6] 利用rao-blackwellized粒子濾波器提出了FastSLAM 1.0來處理數(shù)據(jù)關(guān)聯(lián)和計(jì)算負(fù)擔(dān)的問題。 和蒙特梅羅等人[7] 通過在提案分布中集成運(yùn)動(dòng)預(yù)測和測量不確定性分布密似,進(jìn)一步開發(fā)了FastSLAM2.0焙矛。 這種新方法可以大大提高FastSLAM1.0的準(zhǔn)確性和魯棒性。 可以進(jìn)一步集成掃描匹配技術(shù)和自適應(yīng)重采樣技術(shù)残腌,以提高FastSLAM的魯棒性村斟。
Lu和Milios [8]提出了一種基于圖形的方法,通過使用基于ICP(迭代最近點(diǎn))的掃描匹配來構(gòu)建掃描之間的圖形邊緣抛猫。 迭代線性化進(jìn)一步用于優(yōu)化圖蟆盹。 最初的基于圖形的方法耗時(shí),因此難以實(shí)時(shí)應(yīng)用闺金。 Dellaert等人[3] 利用基于圖形的方法的內(nèi)部稀疏性來加速計(jì)算逾滥,并利用束調(diào)整算法[9]開發(fā)了一種名為SAM的新方法。Konolige等人[4] 使用另一種稱為稀疏位姿調(diào)整(Sparse Pose Adjustment败匹,SPA)的調(diào)整方法寨昙,并提出了一種“continuable LM”方法。 該方法類似于SAM哎壳,但在重新線性化和矩陣構(gòu)造方面具有更高的效率毅待。 SPA考慮姿勢約束中的協(xié)方差信息,從而產(chǎn)生更準(zhǔn)確的解決方案归榕。 此外,LM方法的快速收斂有利于SPA的低計(jì)算成本吱涉。
基于具有束調(diào)整算法(bundle adjustment algorithm)的激光SLAM可以在小規(guī)模環(huán)境中表現(xiàn)出良好的性能刹泄。 然而,由于累積的估計(jì)誤差和來自激光測距儀的信息限制測量怎爵,在大規(guī)模環(huán)境中尤其是在具有相似幾何結(jié)構(gòu)的環(huán)境中檢測軌跡環(huán)是困難的特石。 在本文中,我們的目標(biāo)是通過集成單目系統(tǒng)來開發(fā)一種解決上述問題的新方法鳖链。
基于攝像頭的方法屬于SLAM研究的另一個(gè)重要分支姆蘸。 在文獻(xiàn)中已經(jīng)提出了許多帶有照相機(jī)的SLAM方法。 Davison等人[10]在標(biāo)準(zhǔn)EKF框架下實(shí)現(xiàn)了實(shí)時(shí)單目SLAM芙委。 Civera等[11]在基于EKF的MonoSLAM框架中采用了1點(diǎn)RANSAC方法逞敷,可以成功區(qū)分內(nèi)點(diǎn)和異常值。 Endres等人[12]提出了一種名為RGBD-SLAM的新型視覺SLAM算法灌侣,其中來自Kinect的3D點(diǎn)云被記錄以計(jì)算兩個(gè)相機(jī)姿勢之間的變換推捐。 Klein和Murray [13]提出了一種新的實(shí)時(shí)SLAM框架,稱為并行跟蹤和映射(PTAM)侧啼,基于bundle adjustment牛柒。 基于PTAM堪簿,Mur-Artal等[14] 利用ORB方法[15]檢測跟蹤和建圖的特征,并使用詞袋模型進(jìn)行位置識(shí)別皮壁。 ORB功能的使用有助于PTAM算法更快地執(zhí)行椭更,而無需GPU或多線程技術(shù)。
通常蛾魄,基于相機(jī)的SLAM可以實(shí)現(xiàn)3D定位和建圖甜孤,但是魯棒性低,尤其是當(dāng)操作環(huán)境缺乏可檢測特征時(shí)畏腕。 然而缴川,由于從相機(jī)可提取的豐富信息,視覺SLAM通常在數(shù)據(jù)關(guān)聯(lián)和回環(huán)檢測中比基于激光的方法執(zhí)行得更好描馅。 受到工作[16]的啟發(fā)把夸,我們將灰度相機(jī)與激光傳感器集成在一起,以提供強(qiáng)大的回環(huán)檢測實(shí)現(xiàn)铭污。 此外恋日,在所提出的方法中使用ORB特征檢測和詞袋技術(shù)來保證魯棒性和實(shí)時(shí)計(jì)算性能。
2. 方法框架
在本文中嘹狞,我們將視覺和激光信息集成在一起岂膳,并提出一種新穎有效的SLAM方法,可以解決基于激光的SLAM中的回環(huán)檢測問題磅网。 圖2說明了所提方法的主要框架谈截。 該框架導(dǎo)入了公認(rèn)的SLAM框架,旨在繼承高魯棒性和低計(jì)算負(fù)擔(dān)涧偷。 主要思想是通過位姿圖表示機(jī)器人的歷史姿勢簸喂,其中每個(gè)圖形節(jié)點(diǎn)涉及位姿估計(jì)和該位姿的傳感器測量。 兩個(gè)節(jié)點(diǎn)之間的邊緣編碼為由連接的測量的空間約束燎潮。
如圖2所示喻鳄,我們的方法框架中有兩個(gè)主要過程,即數(shù)據(jù)關(guān)聯(lián)(前端)和地圖校正(后端)确封。 數(shù)據(jù)關(guān)聯(lián)通過匹配傳感器測量來識(shí)別圖邊緣(graph edges)除呵,因?yàn)榄h(huán)境中存在潛在的模糊或?qū)ΨQ性,這是一個(gè)困難的過程爪喘。 地圖校正通過優(yōu)化關(guān)于位姿約束的一些目標(biāo)函數(shù)來校正所有位姿節(jié)點(diǎn)和地圖; 它尋求節(jié)點(diǎn)的配置颜曾,以最大化在約束中編碼的測量的可能性。前端包括幀到幀對齊(frame-to-frame alignment)和回環(huán)檢測腥放。 幀到幀的對齊建立了觀察到的數(shù)據(jù)幀之間的對應(yīng)關(guān)系埂淮。 回環(huán)檢測是檢測機(jī)器人當(dāng)前是否在已經(jīng)訪問過的地方附近册烈,實(shí)際上是一種地點(diǎn)識(shí)別茬末。 回環(huán)檢測在SLAM中起著非常重要的作用,因?yàn)檎_的回環(huán)檢測可以解決累積到當(dāng)前時(shí)間的大型里程表誤差吕粹。 相反,不正確的回環(huán)會(huì)對后續(xù)的圖優(yōu)化產(chǎn)生干擾岗仑,甚至可能破壞整個(gè)地圖匹耕。 由于激光器的傳感器測量信息受到限制,因此傳統(tǒng)的激光方法需要很長時(shí)間來收集足夠的傳感器數(shù)據(jù)以進(jìn)行有效的回環(huán)檢測和閉合荠雕,因此誤報(bào)率和負(fù)誤差都可能在激光專用SLAM中頻繁發(fā)生稳其。
為了解決上述問題,我們嘗試通過在機(jī)器人上安裝灰度相機(jī)來導(dǎo)入視覺信息炸卑。受ORB-SLAM [14]工作的啟發(fā)既鞠,提出的方法采用了兩種關(guān)鍵技術(shù),包括ORB方法[15]和詞袋模型盖文,如圖3所示嘱蛋。ORB特征,面向多尺度FAST每個(gè)具有256位描述符關(guān)聯(lián)的角點(diǎn)五续,計(jì)算和匹配都非橙髅簦快。并且它們對視點(diǎn)高度不變疙驾,這使得它們對于不同視覺幀之間的特征匹配具有魯棒性凶伙。這些詞袋用于加速特征匹配,并在大規(guī)模環(huán)境中實(shí)現(xiàn)實(shí)時(shí)地點(diǎn)識(shí)別它碎。然而函荣,在許多情況下,ORB特征跟蹤可能失敗链韭,例如偏竟,機(jī)器人移動(dòng)得太快,存在遮擋或抖動(dòng)移動(dòng)敞峭,或者可檢測的特征太少。為了解決這個(gè)問題蝉仇,提出了一種全局重定位方案旋讹,如圖3所示。在所提出的方法中轿衔,通過可視方法的每個(gè)回環(huán)檢測將觸發(fā)基于激光的部分掃描匹配和地圖校正過程沉迹,這將在第3節(jié)中討論。3.雷達(dá)-相機(jī)SLAM
為了實(shí)現(xiàn)視覺輔助激光SLAM害驹,我們應(yīng)用了 Local Registration and Global Correlation(LRGC)方法[17]鞭呕,這是一個(gè)公認(rèn)的SLAM框架。 在我們提出的方法中宛官,需要考慮掃描匹配葫松,基于視覺的回環(huán)檢測和地圖關(guān)聯(lián)(map correlation)的三種關(guān)鍵技術(shù)瓦糕。
A. 掃描匹配
掃描匹配是通過平移和旋轉(zhuǎn)范圍掃描(從諸如激光測距儀的范圍測量設(shè)備獲得)以使得與先驗(yàn)圖最大重疊的過程。它返回在現(xiàn)有地圖或先前獲得的本地地圖中放置掃描的位置的位姿概率分布腋么;姿勢概率通常限于高斯分布咕娄。有效的掃描匹配有助于在位姿圖中提供準(zhǔn)確的預(yù)優(yōu)化邊緣(edges),這可以極大地有益于回環(huán)檢測和圖優(yōu)化珊擂,尤其是在大規(guī)模環(huán)境中圣勒。文獻(xiàn)[17,18]中提出了許多掃描匹配方法。在本文中摧扇,利用[17]中的方法圣贸,可以獲得高性能的匹配結(jié)果。該方法將掃描點(diǎn)與先驗(yàn)圖中的線段匹配扛稽,并且不依賴于多邊形結(jié)構(gòu)來匹配一對掃描吁峻。在這種掃描匹配方法下,隨后越來越多地獲得位姿之間的拓?fù)潢P(guān)系庇绽。
觸發(fā)回環(huán)檢測意味著機(jī)器人回到先前訪問過的地方锡搜。 然后使用部分地圖匹配來獲得當(dāng)前姿勢與先前位姿之間的空間關(guān)系。 在這里瞧掺,我們提出了一種基于相關(guān)匹配和貝葉斯規(guī)則的方法來計(jì)算位姿l的機(jī)器人的后驗(yàn)概率p(l | r耕餐,m)。 給定當(dāng)前map patch r和地圖m辟狈。 根據(jù)貝葉斯規(guī)則肠缔,我們有:部分掃描匹配被識(shí)別為global registration,并且應(yīng)該由回環(huán)檢測觸發(fā)哼转。 一旦基于匹配的拓?fù)溥B接被添加到位姿圖中明未,就很難在激光SLAM中移除,因?yàn)樗凶藙荻急桓虏⑶覜]有保留歷史壹蔓。 僅激光SLAM的性能差可能會(huì)造成許多錯(cuò)誤連接趟妥,從而導(dǎo)致SLAM過程失敗。 幸運(yùn)的是佣蓉,視覺回環(huán)檢測方案可以提供魯棒的位置識(shí)別披摄,從而有助于獲得更好的全局global registration。
4. 基于視覺的回環(huán)檢測
從相機(jī)圖像提取的視覺信息用于幫助回環(huán)檢測和global registration勇凭。 如圖3所示疚膊,本文使用ORB方法從圖像中提取特征。 首先在8個(gè)比例級(jí)別提取FAST角虾标,比例因子為1.2寓盗,并且應(yīng)在每個(gè)比例級(jí)網(wǎng)格中提取每個(gè)單元至少5個(gè)角點(diǎn)以確保均勻分布。 如果找不到足夠的角,則角數(shù)閾值需要適應(yīng)傀蚌。 最終在保留的FAST角上計(jì)算方向和ORB描述符基显。 圖4說明了ORB功能示例。在大規(guī)模環(huán)境中存在數(shù)千個(gè)位姿節(jié)點(diǎn)喳张,因此不可能通過匹配256位ORB描述符來實(shí)現(xiàn)實(shí)時(shí)global registration续镇。 這里使用了詞袋,以加速ORB功能之間的匹配销部。 該方法將描述符空間離散化為視覺詞匯表摸航,其使用從大量圖像集中提取的ORB創(chuàng)建離線描述符。 最后通過為已經(jīng)看到詞匯表中的每個(gè)視覺單詞存儲(chǔ)倒排索引來構(gòu)建數(shù)據(jù)庫舅桩。 方法DBoW2 [19]甚至通過將時(shí)間上接近的圖像的分?jǐn)?shù)相加來考慮圖像重疊酱虎。 數(shù)據(jù)庫查詢返回所有幀匹配,其分?jǐn)?shù)高于最佳分?jǐn)?shù)的75%擂涛。
關(guān)鍵幀的選擇對于實(shí)現(xiàn)特征有效匹配的是有用的读串,因?yàn)槎虝r(shí)間內(nèi)的連續(xù)幀幾乎相同。 在本文中撒妈,滑動(dòng)時(shí)間窗口內(nèi)的局部地圖用于查找關(guān)鍵幀以降低大型地圖的復(fù)雜性恢暖。 假設(shè)本地地圖具有一組與當(dāng)前幀共享ORB特征的關(guān)鍵幀Ks,以及與當(dāng)前幀共享大多數(shù)特征的參考關(guān)鍵幀Kref狰右。 有關(guān)Ks和Kref的選擇杰捂,請參閱[14]。新的關(guān)鍵幀應(yīng)滿足以下四個(gè)條件棋蚌。 首先嫁佳,最后一次全局重定位必須超過20幀; 這確保了良好的重新定位。 其次谷暮,從最后一個(gè)關(guān)鍵幀插入開始已超過20幀蒿往。 第三,當(dāng)前幀跟蹤至少50個(gè)點(diǎn); 這確保了良好的跟蹤湿弦。 最后瓤漏,當(dāng)前幀跟蹤的點(diǎn)數(shù)比Kref少90%。 這些條件可以在魯棒性和關(guān)鍵幀數(shù)之間保持良好的平衡颊埃。
如果環(huán)境完美且沒有ORB跟蹤失敗赌蔑,則使用最新檢測到的關(guān)鍵幀來匹配地圖數(shù)據(jù)庫中的要素以回環(huán)檢測。如果存在幾個(gè)與當(dāng)前位置具有相似外觀的地方竟秫,則可能存在若干回環(huán)候選,并且利用連續(xù)匹配結(jié)果和里程計(jì)信息來消除歧義跷乐。計(jì)算當(dāng)前關(guān)鍵幀和回環(huán)候選關(guān)鍵幀之間的ORB特征的對應(yīng)關(guān)系;如果有足夠的內(nèi)點(diǎn)肥败,則檢測到回環(huán)。由于圖像模糊,遮擋或相機(jī)抖動(dòng)馒稍,或缺乏可檢測的功能皿哨,ORB功能的跟蹤有時(shí)可能會(huì)失敗。如果發(fā)生跟蹤丟失纽谒,則從當(dāng)前幀中提取的ORB特征將被轉(zhuǎn)換為一包單詞证膨,用于全局重定位。新轉(zhuǎn)換的單詞包與從識(shí)別數(shù)據(jù)庫查詢的每個(gè)關(guān)鍵幀匹配鼓黔。然后使用RANSAC迭代和PnP算法[20]來找到最可能的機(jī)器人位姿央勒。最后,將執(zhí)行與現(xiàn)有關(guān)鍵幀的更多匹配的引導(dǎo)搜索以獲得更準(zhǔn)確的位姿估計(jì)澳化。
我們添加視覺信息以幫助的回環(huán)檢測崔步。 根據(jù)我們的實(shí)驗(yàn),我們發(fā)現(xiàn)視覺檢測可以比基于激光的方法更精確缎谷。 因此井濒,我們僅將基于視覺的方案應(yīng)用于回環(huán)檢測,其觸發(fā)部分地圖匹配以關(guān)閉回環(huán)并校正地圖列林。
C. 地圖校正
一旦檢測到回環(huán)并將其添加到位姿圖中瑞你,則執(zhí)行圖優(yōu)化以校正姿勢節(jié)點(diǎn)以及構(gòu)建的地圖。 基于Levenberg-Marquardt(LM)的SPA方法由于其對稀疏姿態(tài)圖優(yōu)化的效率而應(yīng)用于圖優(yōu)化算法[21,22]希痴。 沿著其軌跡的第i個(gè)全局機(jī)器人位姿表示為:與所有約束相關(guān)聯(lián)的目標(biāo)函數(shù)表示為
在位姿圖中的位姿數(shù)n = | c | 润梯,在大規(guī)模環(huán)境中可以是10k甚至更多过牙,因此(7)中的處理矩陣H非常昂貴。 然而纺铭,他非常稀疏并且可以通過特殊修改快速處理寇钉,因?yàn)榧s束的數(shù)量隨著位姿的數(shù)量線性增長。 Cholesky分解求解器可用于以稀疏方式求解(7)舶赔。
5.實(shí)驗(yàn)結(jié)果
在實(shí)際室內(nèi)環(huán)境中進(jìn)行了幾次實(shí)驗(yàn)以說明所提出方法的有效性扫倡。 還提供了與經(jīng)典的基于激光的SLAM算法[4]在性能上的比較。 我們的實(shí)驗(yàn)平臺(tái)是通過在Turtlebot2.0上配備激光(Hokuyo UTM-30lx)和灰度相機(jī)(PointGreyFMVU-03MTM-CS)來設(shè)置的竟纳。 用記錄在HITSZ的學(xué)術(shù)建筑-D和圖書館撵溃,地圖尺寸分別為26m×47m和30m×100m的兩個(gè)ROSbag用于驗(yàn)證和比較。 數(shù)據(jù)集和算法最終在具有Intel Corei3(3.30GHZ)CPU和4GB內(nèi)存的計(jì)算機(jī)上運(yùn)行锥累。 請注意缘挑,算法是實(shí)時(shí)運(yùn)行的。
參考文獻(xiàn)
[1] Bar-Shalom Y., Li X.R., and Kirubarajan. T. “Estimation with Applications to Tracking and Navigation,” Williey Inter Science, July, 2001.
[2] Grisetti G., Stachniss C., and Burgard W.. “Improved techniques for grid mapping with rao-blackwellized particle filters.”IEEE Transactions on Robotics, 23(1), 2007:34-46.
[3] Dellaert F., and Kaess M. “Square root SAM: simultaneous localization and mapping via square root information smoothing.”International Journal of Robotics Research, 25(12), 2006:1181-1203.
[4] Konolige K. “Efficient Sparse Pose Adjustment for 2D mapping,” In proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems, 2010:22-29.
[5] Tardós J.D., Neira J., Newman P.M., and Leonard J.J.. “Robust mapping and localization in indoor environments using sonar data,” Int. J. Robotics Research, 21(4), 2002:311-330.
[6] Montemerlo M., Thrun S., Koller D., and Wegbreit B.. “FastSLAM: a factored solution to the simultaneous localization and mapping problem.”In proceedings of the AAAI National Conference on Artificial Intelligence, 2003:593-598.
[7] Montemerlo M., Thrun S., Koller D., and Wegbreit B. “ FastSLAM 2.0: an improved particle filtering algorithm for simultaneous localization and mapping that provably converges,” In proceedings of international joint conference on Artificial intelligence, 18, 2003:1151-1156.
[8] Lu F., and Milios E. “Globally consistent range scan alignment for environment mapping,” Autonomous Robots, 4(4), 1997:333-349.
[9] Triggs B., Mclauchlan P.F., Hartley R.I., and Fitzgibbon A.W. “Bundle adjustment: A modern synthesis,” In proceedings of the International Workshop on Vision Algorithms: Theory and Practice Springer-Verlag, 1999:298-372.
[10] Davison A.J., Reid I.D., Molton N.D., and Stasse O. “MonoSLAM: Real-Time Single Camera SLAM,”IEEE Transactions on Pattern Analysis & Machine Intelligence, 29(6), 2007:1052-1067.
[11] Civera J., Grasa O.G., Davison A.J., and Montiel J.M.M . “1-Point RANSAC for extended Kalman filtering: Application to real-time structure from motion and visual odometry,” Journal of Field Robotics,27(5), 2010:609-631.
[12] Endres F., et al. “An evaluation of the RGB-D SLAM system,” in proceeding of IEEE International Conference on Robotics and Automation, 2012:1691-1696.
[13] Klein G., and Murray D. “Parallel Tracking and Mapping for Small AR Workspaces,” IEEE & Acm International Symposium on Mixed & Augmented Reality IEEE Computer Society, 2007:1-10.
[14] Mur-ArtalR., MontielJ.M.M., TardosJ.D.“ORB-SLAM: a versatile and accurate monocular SLAM system,” IEEE Transactions on Robotics, 2015.
[15] Rublee E., Rabaud V., Konolige K., and Bradski G. “ORB: An efficient alternative to SIFT or SURF,” In proceeding of IEEE int. conf. on computer vision, 2011:2564-2571.
[16] Newman P., Cole D., and Ho K.. “Outdoor SLAM using visual appearance and laser ranging,” In proceeding of IEEE int. conf. on robotics and automation, 2006:1180-1187.
[17] Gutmann J.S., and KonoligeK. “Incremental mapping of large cyclic environments. ”Computational Intelligence in Robotics and Automation,1999:318-325.
[18] Lu F., and MiliosE. “Robot pose estimation in unknown environments by matching 2D range scans.”Journal of Intelligent & Robotic Systems,18(3), 1997:249-275.
[19] Galvez-Lopez D., and Tardós J.D. “Bags of Binary Words for Fast Place Recognition in Image Sequences.”IEEE Transactions on Robotics, 28(5), 2012:1188-1197.
[20] Lepetit V., Moreno-Noguer F., and Fua P. “EPnP: An Accurate O(n) Solution to the PnP Problem.” International Journal of Computer Vision, 81(2),2009:155-166.
[21] Liu M. and Siegwart R., “Topological mapping and scene recognition with lightweight color descriptors for an omnidirectional camera,” IEEE Transactions on Robotics, 30(2), 2014: 310-324.
[22] Chen H., Wang C., Li X.J., and Sun D.. “Transportation of multiple biological cells through saturation-controlled optical tweezers in Crowded Microenvironments,” IEEE/ASME Transactions on Mechatronics, 21(2), 2016: 888-899.
[23] Chen H., and Sun D., “Moving groups of microparticles into array with a robot-tweezers manipulation system,” IEEE Transactions on Robotics, 28(5), 2012: 1069-1080.