http://mp.weixin.qq.com/s?plg_nld=1&plg_uin=1&mid=2651909907&idx=1&plg_nld=1&scene=23&plg_auth=1&__biz=MjM5MjEwNDE2MA%3D%3D&plg_dev=1&srcid=0717luMqXCJq6gzugqSZum28&plg_usr=1&plg_vkey=1&sn=17bf51f02bc31246046f1e4e054ae325#rd
1碍讯、微透鏡陣列顯示技術(shù)
通過對微透鏡陣列結(jié)構(gòu)進(jìn)行深入研究,揭示了微透鏡陣列對微圖形的放大原理.并在此基礎(chǔ)上,找到了微透鏡陣列結(jié)構(gòu)參數(shù)悬蔽、微圖形結(jié)構(gòu)參數(shù)與微圖形陣列移動速度、移動方向以及放大倍率之間的關(guān)系,利用微透鏡陣列實現(xiàn)了對微圖形放大捉兴、動態(tài)蝎困、立體的顯示。
2倍啥、近眼光場顯示器
由NVIDIA研發(fā)的新型頭戴顯示設(shè)備名為“近眼光場顯示器”(Near-EyeLightFieldDisplays)禾乘,其內(nèi)部使用了一些索尼3D頭戴OLED顯示器HMZ-T1的組件,外圍結(jié)構(gòu)部分則是使用3D打印技術(shù)進(jìn)行制造虽缕。
近眼光場顯示器采用焦距為3.3mm的微鏡頭陣列來取代以往同類產(chǎn)品中所使用的光學(xué)透鏡組始藕,這樣的設(shè)計成功將整個顯示模塊的厚度由40mm減少到了10mm,更加便于佩戴。同時配合使用NVIDIA最新的GPU芯片進(jìn)行實時光源光線追蹤運(yùn)算伍派,將影像分解成為數(shù)十組不同的視角陣列江耀,然后再通過微透鏡陣列重新將畫面還原顯示在用戶的眼前,從而使觀賞者能夠如同身處真實世界中一樣诉植,通過眼睛來從不同角度自然觀察立體影像祥国。
由于近眼光場顯示器能夠通過微透鏡陣列重新還原畫面中環(huán)境,因此只需要在GPU的運(yùn)算過程中加入視力矯正參數(shù)晾腔,便可以抵消近視或遠(yuǎn)視等視力缺陷對觀看效果的影響舌稀,這意味著“眼鏡族”們也可以在裸眼狀態(tài)下利用這款產(chǎn)品享受到真實清晰的3D畫面。
3灼擂、視場角
在光學(xué)儀器中扩借,以光學(xué)儀器的鏡頭為頂點,以被測目標(biāo)的物像可通過鏡頭的最大范圍的兩條邊緣構(gòu)成的夾角缤至,稱為視場角潮罪。視場角的大小決定了光學(xué)儀器的視野范圍,視場角越大领斥,視野就越大嫉到,光學(xué)倍率就越小。通俗地說月洛,目標(biāo)物體超過這個角就不會被收在鏡頭里何恶。在顯示系統(tǒng)中,視場角就是顯示器邊緣與觀察點(眼睛)連線的夾角嚼黔。
4细层、裸眼3D
裸眼3D,就是利用人兩眼具有視差的特性唬涧,在不需要任何輔助設(shè)備(如3D眼鏡疫赎、頭盔等)的情況下,即可獲得具有空間碎节、深度的逼真立體影像捧搞。從技術(shù)上來看,裸眼式3D可分為光屏障式柱狀透鏡技術(shù)和指向光源三種狮荔。裸眼式3D技術(shù)最大的優(yōu)勢便是擺脫了眼鏡的束縛胎撇,但是分辨率、可視角度和可視距離等方面還存在很多不足殖氏。
5晚树、HMD
頭戴式可視設(shè)備(HeadMountDisplay)頭戴虛擬顯示器的一種,又稱眼鏡式顯示器雅采、隨身影院爵憎。是一種通俗的叫法慨亲,因為眼鏡式顯示器外形像眼鏡,同時專為大屏幕顯示音視頻播放器的視頻圖像的纲堵,所以形象的稱呼其為視頻眼鏡(videoglasses)。視頻眼鏡最初是軍事上需求和應(yīng)用于軍事上的闰渔。目前的視頻眼鏡猶如當(dāng)初大哥大手機(jī)所處的階段和地位席函,未來在3C融合大發(fā)展的情況下其將獲得非常迅猛的發(fā)展。
6冈涧、HMZ
截止2015年4月24日索尼宣布停產(chǎn)HMZ系列產(chǎn)品時茂附,該系列一共推出過三代產(chǎn)品,2011年的HMZ-T1督弓、2012年的HMZ-T2以及2013年的HMZ-T3/T3W营曼。HMZ-T1顯示分辨率只有720p,耳機(jī)則是虛擬的5.1聲道愚隧,還要拖一塊大大的集線盒蒂阱。首先它采用的是兩塊0.7英寸720pOLED屏幕,佩戴HMZ-T1后這兩塊0.7英寸屏幕的顯示效果就像在20米的距離觀看750英寸的巨屏一樣狂塘。2012年10月录煤,索尼發(fā)布了HMZ-T1的小改版本也就是HMZ-T2。相比HMZ-T1降低了30%的重量荞胡,同時取消內(nèi)置耳機(jī)設(shè)計妈踊,允許用戶使用自己喜歡的耳機(jī)搭配。屏幕雖然保持0.7英寸720pOLED的參數(shù)不變泪漂,但引入了14bitRealRGB3×3色變換矩陣引擎和全新的光學(xué)濾鏡廊营,畫質(zhì)上其實也有增強(qiáng)。2013年的HMZ-T3/T3W升級幅度不小萝勤,首次實現(xiàn)了無線信號傳輸露筒,允許你戴著無線版本的HMZ-T3W進(jìn)行有限的小范圍移動,不再受線纜的束縛敌卓。
7邀窃、光線跟蹤算法
為了生成在三維計算機(jī)圖形環(huán)境中的可見圖像,光線跟蹤是一個比光線投射或者掃描線渲染更加逼真的實現(xiàn)方法假哎。這種方法通過逆向跟蹤與假象的照相機(jī)鏡頭相交的光路進(jìn)行工作瞬捕,由于大量的類似光線橫穿場景,所以從照相機(jī)角度看到的場景可見信息以及軟件特定的光照條件舵抹,就可以構(gòu)建起來肪虎。當(dāng)光線與場景中的物體或者媒介相交的時候計算光線的反射、折射以及吸收惧蛹。光線跟蹤的場景經(jīng)常是由程序員用數(shù)學(xué)工具進(jìn)行描述扇救,也可以由視覺藝術(shù)家使用中間工具描述刑枝,也可以使用從數(shù)碼相機(jī)等不同技術(shù)方法捕捉到的圖像或者模型數(shù)據(jù)。
8迅腔、真實繪制技術(shù)
虛擬現(xiàn)實系統(tǒng)中装畅,對真實繪制技術(shù)的要求與傳統(tǒng)的真實感圖形繪制不同,傳統(tǒng)的繪制只要求圖形質(zhì)量和真實感沧烈,但是掠兄,在VR中,我們必須做到圖形顯示的更新速度不小于用戶的視覺轉(zhuǎn)變速度锌雀,否則就會出現(xiàn)畫面的遲滯現(xiàn)象蚂夕。故在VR中,實時三維繪制要求圖形實時生成腋逆,每秒鐘必須生成不低于10到20幀圖像婿牍。同時還要求其真實性,必須反映模擬物體的物理屬性惩歉。通常為了使得畫面場景更加逼真和實時性強(qiáng)等脂,通常采用紋理映射、環(huán)境映射和反走樣的方法撑蚌。
9慎菲、基于圖像的實時繪制技術(shù)
基于圖形繪制(ImageBasedRendering,IBR)不同于傳統(tǒng)的幾何繪制方法锨并,先建模型露该,在定光源的繪制。IBR直接從一系列圖形中生成未知角度的圖像第煮,畫面直接進(jìn)行變換解幼、插值和變形,從而得到不同視覺角度的場景畫面包警。
9撵摆、基于圖像的實時繪制技術(shù)
基于圖形繪制(ImageBasedRendering,IBR)不同于傳統(tǒng)的幾何繪制方法害晦,先建模型特铝,在定光源的繪制。IBR直接從一系列圖形中生成未知角度的圖像壹瘟,畫面直接進(jìn)行變換鲫剿、插值和變形,從而得到不同視覺角度的場景畫面稻轨。
10灵莲、三維虛擬聲音技術(shù)
日常生活中我們所聽到的立體聲是來自于左右聲道,聲音效果可以很明顯的是我們感到來自我們面前的平面殴俱,而非像有人在我們背后喊我們時政冻,聲音來自于聲源枚抵,且能準(zhǔn)確判斷出其方位。顯然現(xiàn)在的立體聲是不能做到的明场。而三維虛擬聲音就是要做到聽其音辨其位汽摹,即在虛擬場景中用戶可以聽聲辯位,完全符合現(xiàn)實環(huán)境中的聽力系統(tǒng)的要求苦锨,這樣的聲音系統(tǒng)就稱之為三維虛擬聲音逼泣。
11、語音識別技術(shù)
語音識別技術(shù)(AutomaticSpeechRecognition,ASR)是將語言信號轉(zhuǎn)變?yōu)榭杀挥嬎銠C(jī)識別的文字信息逆屡,使得計算機(jī)可以識別說話人的語言指令和文字內(nèi)容的技術(shù)圾旨。要想達(dá)到語音的完全識別是非常困難的踱讨,必須經(jīng)過參數(shù)提取魏蔗、參考模式建立、模式識別等若干個過程痹筛。隨著研究人員的不斷研究莺治,使用了傅里葉轉(zhuǎn)換、到頻譜參數(shù)等方法帚稠,語音識別度也越來越高谣旁。
12、語音合成技術(shù)
語音合成技術(shù)(TexttoSpeech,TTS)滋早,是指人工合成語音的技術(shù)榄审。達(dá)到計算機(jī)輸出地語音可以準(zhǔn)確、清晰杆麸、自然的表達(dá)意思搁进。一般方法有兩種:一是錄音/重放,二是文-語轉(zhuǎn)換昔头。在虛擬現(xiàn)實系統(tǒng)中,語音合成技術(shù)的運(yùn)用可以提高系統(tǒng)的沉浸感,同時彌補(bǔ)視覺信息的不足凯沪。
13崇棠、人機(jī)自然交互技術(shù)
在虛擬現(xiàn)實系統(tǒng)中,我們致力于使得用戶可以通過眼睛讹开、手勢盅视、耳朵、語言旦万、鼻子和皮膚等等感覺器官來和計算機(jī)系統(tǒng)中產(chǎn)生的虛擬環(huán)境進(jìn)行交互左冬,這種虛擬環(huán)境下的交換技術(shù)就稱之為人機(jī)自然交互技術(shù)。
14纸型、眼動跟蹤技術(shù)
眼動跟蹤技術(shù)(EyeMovement-basedInteraction)也稱之為實現(xiàn)跟蹤技術(shù)拇砰。它可以補(bǔ)充頭部跟蹤技術(shù)的不足之處梅忌,這樣即簡單有直接。
15除破、面部表情識別技術(shù)
該項技術(shù)目前的研究與人們的期望效果還相差較遠(yuǎn)牧氮,但是去研究成果去展現(xiàn)了其魅力所在。這項技術(shù)一般分為三個步驟瑰枫,首先是面部表情的跟蹤踱葛,利用攝像機(jī)記錄下用戶的表情,再通過圖像分析和識別技術(shù)達(dá)到表情的識別光坝。其次是對面部表情的編碼尸诽,研究人員利用面部動作編碼系統(tǒng)(FACS)對人的面部表情進(jìn)行解剖,并對其面部活動進(jìn)行分類和編碼盯另。最后是面部表情的識別性含,通過FACS系統(tǒng)可以構(gòu)成表情識別的系統(tǒng)流程圖。
16鸳惯、手勢識別技術(shù)
通過數(shù)據(jù)手套(Dataglove)或者深度圖像傳感器(如leapmotion商蕴、kinect等)來精確測量出手的位置和形狀,由此實現(xiàn)環(huán)境中的虛擬手對虛擬物體的操縱芝发。數(shù)據(jù)手套通過手指上的彎曲绪商、扭曲傳感器和手掌上的彎度、弧度傳感器辅鲸,確定手及關(guān)節(jié)的位置和方向格郁,而基于深度傳感器的手勢識別則通過深度傳感器獲得的深度圖像信息進(jìn)行計算,進(jìn)而獲得掌独悴、手指等部分的彎曲角度等數(shù)據(jù)例书。
17、實時碰撞檢測技術(shù)
在日常生活中人們已經(jīng)建立了一定的物理習(xí)慣绵患,如固體之間不能彼此穿透雾叭,物體高空墜落做自由落體運(yùn)動,拋出去的物體做平拋運(yùn)動等等落蝙,同時還要受到重力和空氣流速的影響等等织狐。為了在虛擬現(xiàn)實系統(tǒng)中完全的模擬現(xiàn)實環(huán)境,且防止發(fā)生穿透現(xiàn)象筏勒,就必須引入實時碰撞檢測技術(shù)移迫。Moore提出了兩個碰撞檢測算法,其一處理三角剖分的物體表面管行,另一個處理多面體環(huán)境的碰撞檢測厨埋。為了防止穿透有三個主要部分。首先捐顷,必須檢測碰撞荡陷。其次雨效,為響應(yīng)碰撞應(yīng)調(diào)節(jié)物體速度。最后废赞,如果碰撞徽龟,響應(yīng)不引起物體立刻分開,必須計算和施加接觸力唉地,直到分開据悔。
18、三維全景技術(shù)
三維全景技術(shù)(Panorama)為現(xiàn)在最為流行的視覺技術(shù)耘沼,它以圖像繪制技術(shù)為基礎(chǔ)生成具有真實感圖像的虛擬現(xiàn)實技術(shù)极颓。全景圖的生成,首先是通過照相機(jī)平移或旋轉(zhuǎn)得到的一序列圖像樣本群嗤;再利用圖像拼接技術(shù)生成具有強(qiáng)烈動感和透視效果的全景圖像菠隆;最后在利用圖像融合技術(shù)使得全景圖給用戶帶來全新的現(xiàn)實感和交互感。該項技術(shù)利用對全景圖深度信息的提取來恢復(fù)實時場景的三維信息建立模型骚烧。方法簡單浸赫,設(shè)計周期縮短闰围,使得費(fèi)用大大降低赃绊,且效果更加,故目前較為流行羡榴。