ARKit
集成iOS設(shè)備攝像頭和運動功能,在你的應(yīng)用程序或游戲中產(chǎn)生增強現(xiàn)實體驗垮衷。
Overview
增強現(xiàn)實(AR)描述了用戶體驗,從設(shè)備的攝像機中添加2D或3D元素到實時視圖中乖坠,使這些元素看起來居住在真實的世界中。arkit結(jié)合裝置的運動跟蹤刀闷,相機的場景拍攝熊泵,先進的現(xiàn)場處理,并顯示方便簡化建筑AR體驗任務(wù)甸昏。
重要
arkit需要至少A9處理器以上的iPhone顽分。
為了確保你的手機支持arkit,使用arkit的key在uirequireddevicecapabilities部分應(yīng)用程序的Info.plist施蜜。使用isSupported 來判斷設(shè)備是否支持使用
步驟
初始了解:
1.關(guān)于增強現(xiàn)實和arkit
發(fā)現(xiàn)支持概念卒蘸、特性和建立巨大AR經(jīng)驗的最佳實踐。
2.class ARSession
管理增強現(xiàn)實體驗所需設(shè)備攝像機和運動處理的共享對象。
3.class ARConfiguration
AR會話配置的抽象基類缸沃。
基于世界的AR經(jīng)驗:
1.建立你的第一次AR經(jīng)驗
創(chuàng)建一個應(yīng)用程序恰起,運行一個AR會話并使用平面檢測將3D內(nèi)容通過Scenekit。
2.在增強現(xiàn)實中處理3D交互和UI控件
在AR體驗中遵循視覺反饋趾牧、手勢交互和現(xiàn)實渲染的最佳實踐检盼。
3. class ARWorldTrackingConfiguration
一種配置,使用后置攝像頭翘单,跟蹤設(shè)備的方向和位置吨枉,并檢測真實世界的平面。
4.class AROrientationTrackingConfiguration
一種使用后置攝像頭并只跟蹤設(shè)備方向的配置哄芜。
5.class ARPlaneAnchor
關(guān)于在世界跟蹤AR會議中檢測到的真實世界平面的位置和方向的信息貌亭。
基于面部的AR經(jīng)驗
1.創(chuàng)建基于人臉的AR體驗
放置和動畫跟隨用戶面部的3D內(nèi)容,并匹配面部表情(在兼容前置攝像頭的設(shè)備上)认臊。
2. class ARFaceTrackingConfiguration
跟蹤設(shè)備正面攝像頭的運動和表情的配置圃庭。
3.class ARFaceAnchor
關(guān)于面部跟蹤AR會話中檢測到的面部的姿勢、拓撲和表情的信息
標準的View
1.class ARSCNView
顯示AR體驗美尸,增加3D相機視圖的視圖Scenekit內(nèi)容冤议。
2.class ARSKView
顯示AR體驗,增加二維SpriteKit內(nèi)容相機視圖的視圖师坎。
自定義View
1.用金屬顯示AR經(jīng)驗
通過渲染相機圖像和使用位置跟蹤信息來顯示覆蓋內(nèi)容恕酸,構(gòu)建自定義AR視圖。
現(xiàn)實世界的物體和位置
1.class ARHitTestResult
通過檢查AR會話中設(shè)備攝像機視圖中的一個點來發(fā)現(xiàn)真實世界表面的信息胯陋。
2.class ARAnchor
一個真實的位置和方向蕊温,可以用來放置物體在AR場景中。
3.protocol ARTrackable
一個真實的場景中的對象遏乔,arkit跟蹤更改位置和方向义矛。
相機和場景細節(jié)
1.class ARFrame
作為AR會話的一部分而捕獲的視頻圖像和位置跟蹤信息。
2.class ARCamera
在AR會話中捕獲的視頻幀的攝像機位置和成像特性的信息盟萨。
3.class ARLightEstimate
在AR會話中與捕獲的視頻幀相關(guān)聯(lián)的估計場景照明信息凉翻。
4.class ARDirectionalLightEstimate
在面部跟蹤AR會話中與捕獲的視頻幀相關(guān)聯(lián)的估計的環(huán)境照明信息。