애플 뉴스

Apple, Location Anchors, Depth API 및 향상된 얼굴 추적 기능을 갖춘 ARKit 4 발표

2020년 6월 22일 월요일 오후 4:00 PDT 작성: Hartley Charlton

Apple은 오늘 iOS 14 및 iPadOS 14와 함께 ARKit 4를 발표했습니다. ARKit의 새 버전에는 Location Anchors, 새로운 Depth API 및 향상된 얼굴 추적 기능이 도입되었습니다.





아크잇 4
개발자는 Location Anchors를 사용하여 실제 크기의 예술 설치 또는 탐색 방향과 같은 AR 경험을 고정된 목적지에 배치할 수 있습니다. Location Anchoring은 고해상도 데이터를 활용합니다. 애플 지도 AR 경험을 세계의 특정 지점에 배치하는 것입니다. 즉, 이제 AR 경험이 도시 전체 또는 유명한 랜드마크 옆과 같은 특정 위치에 배치될 수 있습니다. 사용자는 카메라 렌즈를 통해 실제 물체를 보는 것처럼 가상 물체 주위를 이동하고 다른 관점에서 관찰할 수 있습니다.

ARKit 4는 또한 아이패드 프로 의 LiDAR 스캐너는 고급 장면 이해 기능을 갖춘 완전히 새로운 Depth API를 사용하여 픽셀당 상세한 깊이 정보에 액세스하는 새로운 방법을 만듭니다. 이 깊이 정보를 3D 메시 데이터와 결합하면 물리적 환경 내에서 가상 개체를 즉시 배치할 수 있으므로 가상 개체 폐색이 더욱 사실적입니다. 이를 통해 보다 정확한 측정을 수행하고 환경에 효과를 적용하는 등 개발자에게 새로운 기능을 제공할 수 있습니다.



마지막으로 ARKit 4에서 얼굴 추적 기능이 확장되어 A12 Bionic 칩 이상이 탑재된 모든 장치에서 전면 카메라를 지원합니다. 이제 TrueDepth 카메라를 사용하여 최대 3개의 얼굴을 한 번에 추적하여 미모티콘 및 Snapchat과 같은 전면 카메라 경험을 강화할 수 있습니다.