獲得準(zhǔn)確的三維人體模型通常是虛擬試衣的第一步望迎,隨后還需要合身且具有真實(shí)感的三維服裝模擬障癌。其中涉及的是人體與服裝之間的交互技術(shù)以及服裝建模技術(shù)(暫不考慮真實(shí)感渲染)。如圖1所示辩尊。
本次將關(guān)注一個(gè)虛擬試衣領(lǐng)域的熱點(diǎn)問題,即如何高效復(fù)用現(xiàn)有的三維服裝進(jìn)行自動(dòng)化服裝生成康辑、編輯或者是將其試穿到不同的三維人體身上進(jìn)行服裝的個(gè)性化定制摄欲。將現(xiàn)有工作分為基于幾何優(yōu)化的方法與基于數(shù)據(jù)驅(qū)動(dòng)的方法,并分別進(jìn)行介紹疮薇。
基于幾何優(yōu)化的方法
?研究者常常利用基于幾何優(yōu)化方法來完成服裝編輯變形胸墙。Umetani等人[81]提出了一個(gè)交互式服裝建模系統(tǒng),用戶可以在服裝二維裁片和三維成衣上進(jìn)行雙向交互式編輯按咒。通過簡(jiǎn)單拖拽編輯后的服裝迟隅,可在虛擬人體模特上展示編輯后服裝的試穿效果,如圖2所示励七。
Bartle等人[82]也提出了一個(gè)交互式服裝建模系統(tǒng)智袭,設(shè)計(jì)師根據(jù)直觀的視覺感知直接在三維空間中編輯或組裝服裝模型,而編輯后的三維服裝可自動(dòng)產(chǎn)生二維裁片模式掠抬,可用于后續(xù)設(shè)計(jì)吼野、生產(chǎn)、放碼等用途两波,如圖3所示瞳步。
還有一些研究者利用幾何優(yōu)化方法完成服裝在不同人體之間的個(gè)性化試穿闷哆,常用于服裝的個(gè)性化定制。Brouet等人[83]提出了一套自動(dòng)化的服裝遷移方法单起,該方法能夠在保留服裝款式的同時(shí)抱怔,完成服裝在不同體型人體之間的試穿。該方法首先將服裝裁片分級(jí)(Pattern-grading)中用到的一些準(zhǔn)則重新形式化為一系列的幾何約束嘀倒,包括服裝形狀屈留、款式、比例協(xié)調(diào)性以及合身程度括儒。然后通過調(diào)整虛擬服裝的尺寸外加適當(dāng)?shù)淖冃蝸硗瓿煞b向目標(biāo)人體的遷移試穿绕沈。該方法保證遷移后的服裝款式不發(fā)生改變。由于遷移過程在三維空間下進(jìn)行帮寻,服裝模型最終需要轉(zhuǎn)化成二維裁片用于生產(chǎn)乍狐。如圖4所示。
?Meng等人[86]提出先前的服裝自動(dòng)縮放方法會(huì)使服裝表面沿著人體的表面發(fā)生扭曲固逗,但這種扭曲在非緊身服裝下會(huì)變成嚴(yán)重的失真變形浅蚪。為解決該問題,他們提出了一種在自動(dòng)縮放服裝尺寸以適應(yīng)不同體型人體的過程中烫罩,約束布料形狀的方法惜傲。該方法的主要局限在于需要為不同體型的人體網(wǎng)格預(yù)先設(shè)置嚴(yán)格的對(duì)應(yīng)關(guān)系。而且贝攒,上述兩個(gè)工作僅能在姿態(tài)相似的不同人體之間完成服裝試穿盗誊。
另外一些研究者則將人體姿態(tài)引入到個(gè)性化試穿中。Li等人[84]提出了一種針對(duì)不同姿態(tài)人體的服裝遷移方法隘弊,該方法首先為人體與服裝設(shè)置蒙皮關(guān)系哈踱,并通過將一個(gè)人體往另一個(gè)人體變形的方式實(shí)現(xiàn)服裝重定向。如圖5所示梨熙。但是該方法并不完全自動(dòng)开镣,在構(gòu)造服裝與人體蒙皮時(shí)通常需要人工操作。另一方面咽扇,該方法的服裝遷移過程容易造成服裝的嚴(yán)重自碰撞邪财。
Lee等人[85]提出了一套自動(dòng)將服裝從參考人體遷移到其它不同姿態(tài)人體的框架。如圖6所示质欲。但是該方法在服裝遷移中树埠,難以保證服裝的尺寸大小不發(fā)生改變。本文注意到在一些場(chǎng)景下把敞,保證服裝在遷移過程中的尺寸不變是必要的弥奸,因?yàn)檫@是評(píng)估當(dāng)前尺寸服裝是否合適當(dāng)前身材人體的基礎(chǔ),可用于尺碼推薦奋早、舒適度分析盛霎。然而現(xiàn)有的工作大多忽略了服裝尺寸不變赠橙。
基于數(shù)據(jù)驅(qū)動(dòng)的方法
基于幾何優(yōu)化的方法需要考慮人體與服裝之間的復(fù)雜幾何關(guān)系。雖然這類方法的服裝模擬精度高愤炸、穩(wěn)定性好期揪,但是涉及到大量的數(shù)值計(jì)算,難以適用于實(shí)時(shí)應(yīng)用规个。近年來凤薛,一些研究者嘗試?yán)脭?shù)據(jù)驅(qū)動(dòng)方法建模服裝與人體形變之間的映射關(guān)系。具體來說诞仓,他們根據(jù)大量人體/服裝的物理仿真數(shù)據(jù)缤苫,利用某種統(tǒng)計(jì)學(xué)習(xí)模型,學(xué)習(xí)服裝與人體之間的變形映射關(guān)系墅拭,預(yù)測(cè)服裝模型在新的姿勢(shì)活玲、體型下的真實(shí)感模擬結(jié)果。一些研究者使用簡(jiǎn)單的數(shù)據(jù)驅(qū)動(dòng)模型來近似服裝的形變空間[87,88]谍婉。
Aguilar等人[87]利用PCA對(duì)大量人體/布料仿真數(shù)據(jù)進(jìn)行降維處理舒憾,構(gòu)造低維線性子空間對(duì)服裝與人體的進(jìn)行低維表示。該低維空間包含服裝與人體變形范圍穗熬。隨后他們通過學(xué)習(xí)到的一個(gè)條件動(dòng)力學(xué)模型镀迂,根據(jù)當(dāng)前人體低維狀態(tài)與歷史服裝狀態(tài)來估計(jì)當(dāng)前服裝低維狀態(tài),然后根據(jù)低維狀態(tài)恢復(fù)出三維服裝唤蔗,如圖7所示探遵。
另外一些研究者將服裝模擬解耦成服裝的全局形態(tài)變形與服裝褶皺的局部細(xì)節(jié)變形。Wang等人[89]提出了一種基于示例的褶皺合成方法妓柜。該方法的思路是在基于物理模擬的粗分辨率服裝上增加合成的褶皺細(xì)節(jié)别凤。他們?cè)陉P(guān)節(jié)索引的褶皺數(shù)據(jù)庫(kù)中,通過關(guān)節(jié)角插值合成新的褶皺领虹。如圖8所示。該方法在緊身服裝的模擬效果令人印象深刻求豫,但是并不適用于寬松衣服的模擬塌衰。
Zurdo等人[90]采用與[89]類似的樣例褶皺合成。但是與[89]不同的是蝠嘉,他們的褶皺合成并不依賴于角色姿態(tài)最疆,而是學(xué)習(xí)了一個(gè)相對(duì)于布料低分辨率狀態(tài)的形變映射關(guān)系,因此可適用于寬松衣服的試穿模擬蚤告,如圖9所示努酸。
Chen等人[91]提出利用一個(gè)二維幾何圖像(geometryimage)作為三維布料網(wǎng)格的中間表征。他們首先將低分辨率的三維布料網(wǎng)格表示成二維幾何圖像杜恰,利用基于深度學(xué)習(xí)的圖像超分辨率方法直接合成高分辨率布料的幾何圖像获诈,最后將其轉(zhuǎn)化為三維布料網(wǎng)格仍源。但是上述基于數(shù)據(jù)驅(qū)動(dòng)的工作中,服裝模型僅響應(yīng)三維人體姿態(tài)變化舔涎。
DRAPE[92]提出了一種同時(shí)響應(yīng)人體體型與姿勢(shì)變化的服裝變形方法笼踩。他們從大量身著服裝的人體運(yùn)動(dòng)數(shù)據(jù)中,學(xué)習(xí)了服裝參數(shù)相對(duì)于人體體型形狀與人體網(wǎng)格部件旋轉(zhuǎn)之間的變形映射關(guān)系亡嫌,同時(shí)學(xué)習(xí)姿態(tài)相關(guān)的服裝褶皺生成模型嚎于,實(shí)現(xiàn)了多種不同姿態(tài)和體型人體之間的服裝遷移。但是由于他們僅用一個(gè)線性模型近似褶皺生成挟冠,導(dǎo)致其服裝褶皺的真實(shí)感不強(qiáng)于购。如圖10所示。
近年來知染,一些研究者開始利用深度學(xué)習(xí)方法建模服裝與人體之間的映射關(guān)系肋僧。Santesteban等人[93]將著裝模擬解耦為兩部分,由人體體型控制的全局?jǐn)M合以及由體型和姿態(tài)控制的褶皺生成持舆。作者利用一個(gè)多層感知機(jī)回歸服裝相對(duì)于人體體型變化的形變映射色瘩,同時(shí)利用RNN(Recurrent Neural Network,遞歸神經(jīng)網(wǎng)絡(luò))學(xué)習(xí)了一個(gè)基于人體運(yùn)動(dòng)與體型的褶皺生成模型逸寓。如圖11所示居兆。
GarNet[95]設(shè)計(jì)了一個(gè)雙流網(wǎng)絡(luò)結(jié)構(gòu)用于分別提取人體特征與服裝特征,并在網(wǎng)絡(luò)頂部對(duì)兩個(gè)特征進(jìn)行融合竹伸,從而建立人體/服裝交互的模型泥栖。其中,人體流采用PointNet[96]作為基礎(chǔ)勋篓,以三維人體點(diǎn)云作為輸入提取人體全局特征和匹配特征吧享,服裝流則以服裝模板和人體流提取出的人體全局特征作為輸入,提取服裝特征譬嚣,最后通過一個(gè)全連接網(wǎng)絡(luò)回歸相對(duì)于服裝模板的變形钢颂。ClothCap[94]從帶紋理的人體三維點(diǎn)云運(yùn)動(dòng)數(shù)據(jù)中分離出服裝參數(shù)化模型與SMPL人體參數(shù)化模型,優(yōu)化求解服裝相對(duì)于人體的偏移變化并將其用于新的人體拜银。如圖12所示殊鞭。
參考文獻(xiàn)?
接上篇參考文獻(xiàn)
[81] UMETANI N, KAUFMAN D M, IGARASHI T, etal. Sensitive couture for interactive garment modeling and editing.[J]. ACMTrans. Graph., 2011, 30(4):90.
[82] BARTLE A, SHEFFER A, KIM V G, et al.Physics-driven pattern adjustment for direct 3d garment editing.[J]. ACM Trans.Graph., 2016, 35(4):50-1.
[83] BROUET R, SHEFFER A, BOISSIEUX L, etal. Design preserving garment transfer[J]. ACM Transactions on Graphics, 2012,31(4):Article-No.
[84] LI J, YE J, WANG Y, et al. Fitting 3dgarment models onto individual human models[J]. Computers and Graphics, 2010,34(6):742-755.
[85] LEE Y, MA J, CHOI S. Automaticpose-independent 3d garment fitting[J]. Computers and Graphics, 2013,37(7):911-922.
[86] MENG Y, WANG C C, JIN X. Flexibleshape control for automatic resizing of apparel products[J]. Computer-AidedDesign, 2012, 44(1):68-76.
[87] DEAGUIAR E, SIGAL L, TREUILLE A, etal. Stable spaces for real-time clothing[J]. ACM Transactions on Graphics(TOG), 2010, 29(4):1-9.
[88] KIM D, KOH W, NARAIN R, et al.Near-exhaustive precomputation of secondary cloth effects[J]. ACM Transactionson Graphics (TOG), 2013, 32(4):1-8.
[89] WANG H, HECHT F, RAMAMOORTHI R, et al.Example-based wrinkle synthesis for clothing animation[M]//ACM SIGGRAPH 2010papers. 2010: 1-8.
[90] ZURDO J S, BRITO J P, OTADUY M A.Animating wrinkles by example on non-skinned cloth[J]. IEEE Transactions onVisualization and Computer Graphics, 2012, 19(1):149-158.
[91] CHEN L, YE J, JIANG L, et al.Synthesizing cloth wrinkles by cnn-based geometry image superresolution[J].Computer Animation and Virtual Worlds, 2018, 29(3-4):e1810.
[92] GUAN P, REISS L, HIRSHBERG D A, et al.Drape: Dressing any person[J]. ACM Transactions on Graphics (TOG), 2012,31(4):1-10.
[93] SANTESTEBAN I, OTADUY M A, CASAS D.Learning-based animation of clothing for virtual try-on[C]//Computer GraphicsForum: volume 38. Wiley Online Library, 2019: 355366.
[94] PONS-MOLL G, PUJADES S, HU S, et al.Clothcap: Seamless 4d clothing capture and retargeting[J]. ACM Transactions onGraphics (TOG), 2017, 36(4):1-15.
[95] GUNDOGDUE, CONSTANTINV, SEIFODDINIA,et al. Garnet: Atwo-stream network for fast and accurate 3d clothdraping[C]//Proceedings of the IEEE/CVF International Conference on ComputerVision. 2019: 8739-8748.
[96] QI C R, SU H, MO K, et al. Pointnet:Deep learning on point sets for 3d classification andsegmentation[C]//Proceedings of the IEEE conference on computer vision andpattern recognition. 2017: 652-660.