来源:映维网 作者
苹果在6月的WWDC大会发布了ARKit 4,而你将能通过全新的Depth API访问iPad Pro搭载的激光雷达扫描仪(LiDAR)的详细深度信息。
激光雷达扫描仪(LiDAR)内置的高级场景理解功能允许Depth API利用关于周遭环境的每像素深度信息。当与场景几何体生成的三维网格数据相结合时,通过启用虚拟对象的即时放置并将与物理环境无缝混合,深度信息可以令虚拟对象遮挡更为逼真。这可以支持应用程序部署全新的功能,比如更精确的测量和将效果应用到用户环境中。
苹果日前发布了iOS14 Beta 6,而根据开发者的反馈,LiDAR所能实现的虚实遮挡已经达到了几乎“无法区分真假”的地步。
Twitter用户usdzshare日前上传了一段关于iOS14 Beta 6的AR遮挡效果的视频。我们可以看到,虚拟对象可以逼真地遮挡真实对象。反过来,真实对象同样能够逼真地遮挡虚拟对象。
iOS14 Beta 6的遮挡效果
iOS14 Beta 6的遮挡效果
iOS14 Beta 6的遮挡效果
另外,为了说明具体的效果提升,usdzshare同时上传了iOS 13.6+iPhone的AR遮挡效果。经过对比,我们可以看到iOS14 Beta 6在光影,以及虚实遮挡接合位置的处理有了长足的提升,而这主要是得益于LiDAR。
iOS 13.6+iPhone的遮挡效果
值得一提的是,有消息称下一代iPhoe 12 Pro有望搭载LiDAR,相信这将能大大提升AR应用的真实感和沉浸感。
原文链接:https://yivian.com/news/77432.html