我的订单|我的收藏|我的商城|帮助中心|返回首页
虚拟现实新闻>应用>技术动态>技术应用

Apple在全球开发者大会上发布了ARKit 3

文章来源:arinchina 作者:Frank 发布时间:2019年07月04日 点击数: 字号:

ARinChina 2019年6月4日)苹果迎来第30届WWDC。北京时间6月4日凌晨,一年一度的WWDC发布会(2019)在圣何塞McEnery会议中心举行。本次会议持续两个半小时,会议接近尾声时,苹果发布了AR最新动态。包括全新版本的ARKit3,以及与其配套的Realitykit、Reality Composer。苹果在现场通过《我的世界AR》对其产品进行了详细演示。 ARKit 3提供了对场景中人物的实时身体跟踪以及遮挡,使AR对象可以令人信服地放置在这些人的前面和后面。 

在2017年苹果推出的ARKit是一套用于在iOS上构建AR应用程序的工具。从一开始,ARKit就提供了计算机视觉跟踪功能,允许现代iOS设备跟踪他们在虚拟场景的位置,以及检测地面或平台,可用于将虚拟物体放入场景中。 而相比较ARKit,ARKit 3新增了对场景人物的实时身体追踪和遮挡功能。

 

 

1.动作捕捉功能

ARKit 3使用计算机视觉了解人们在场景中的位置。 系统根据真实人物位置并正确地合成虚拟对象以确定哪个物体更靠近相机来呈现物体在人的前方或后方。 对于ARKit的早期版本,无论与摄像头的相对距离如何,虚拟对象总是出现在人物前方。 而由此导致的深度线索冲突打破了增强现实的沉浸感。

类似的技术用于ARKit 3中的实时身体跟踪。通过确定人物在场景中的位置以及身体的运动方式,ARKit 3可以跟踪该人物身体的虚拟版本,虚拟版本又可以用作AR应用程序的输入。 身体跟踪可用于将人的动作转换为虚拟动画,或用于与场景中的物体交互等。

2.遮挡功能演示

根据苹果的演示,当前的身体追踪技术相对比较粗糙。当摄像头发生移动,虚拟化身的双脚都无法保持很好地静止,系统也不能精准地追踪小腿的运动。当用户挥手时,即便用户本身没有向一边倾斜,虚拟化身都会响应于动作并出现身体倾斜的情况。在演示画面中,用户将双臂置于两则,没有在躯干前面左右横移。

人体遮挡和身体追踪对于AR的未来十分重要,尤其是头戴式设备将“始终开启”,并且需要经常处理遮挡情况。对于大多数企业来说,这是一个活跃的研发领域,而苹果现在有可能是为即将发布的AR头显进行提前的打磨精制。

3.《我的世界》演示

在今天的WWDC主题演讲中,苹果还和微软合作,通过AR版《我的世界》演示了ARkit 3的最新功能。对于微软的演示,你可以利用iPhone给《Minecraft Earth》的场景添加一层增强现实动画。

ARKit 3使应用程序能够通过前置摄像头跟踪多达三个面部,并支持前后摄像头同时捕获。 Apple还推出了合作沟通功能,这使得更快地启动共享AR体验的过程成为可能。

苹果没有详细介绍ARKit 3.0 其他功能与优化:

同时支持前后摄像头

更快的参考图像加载

自动检测图像大小

视觉连贯性

更强大的3D对象检测

AR Quick Look中的视频录制

AR Quick Look中的Apple Pay

多面容追踪

协作会议

AR Quick Look中的音频支持

检测最多100张图像

HDR环境纹理

AR Quick Look中的多模型支持

AR Coaching UI

Realitykit

通过ARKit 3,Apple还推出了RealityKit,旨在让开发人员更容易在iOS上构建增强现实应用。

构建增强版应用程序需要对3D应用程序开发,工具和工作流程。 大部分iOS开发人员都不太可能具有丰富的经验。 这使得开发人员对AR这样的新事物并不熟悉,苹果显然正试图帮助开发者平稳的进行转变以进入AR领域。

根据苹果的描述,iOS开发人员无需学习Unity或虚幻引擎等游戏引擎工具,对他们而言RealityKit几乎像一个微型游戏引擎,包括“照片般逼真的渲染场景,相机效果,动画,物理等等。”

苹果使用RealityKit调整渲染虚拟对象通过iOS设备的相机尽可能令人信服地融入现实世界,方法是将效果分层到虚拟对象上,就像它们是通过相机拍摄的。

RealityKit使用逼真的基于物理的材料,环境反射,接地阴影,相机噪声,运动模糊等将虚拟内容与现实世界无缝融合,使虚拟内容几乎与现实无法区分。

RealityKit使用Swift API,还支持在iOS上创建共享AR体验,提供开箱即用的网络解决方案。

Reality Composer

与RealityKit一样,Reality Composer旨在为没有游戏引擎,工作流和资产经验的开发人员提供便利。 苹果表示Reality Composer提供了一个现有3D模型和动画库,具有拖放功能,允许创建简单的AR体验,可以使用Xcode集成到应用程序中或导出到AR Quick Look(允许内置的iOS应用程序,如 Safari,消息,邮件等,使用增强现实快速可视化3D对象)。

除了内置的对象库,Reality Composer还允许以USDZ格式导入3D文件,并提供空间音频解决方案。

 Apple软件工程高级副总裁Craig Federighi在一份声明中表示: “今天推出的新应用程序开发技术使开发人员可以更快,更轻松,更有趣地开发应用程序,这将是未来Apple平台上各类软件开发的方向趋势。”

iOS 11中的原始版本的ARKit具有突破性,将人脸检测,无标记跟踪和环境照明带入移动增强现实体验。

开发人员很快就可以展示他们可以在测试版中使用ARKit做什么,分享AR门户网站,虚拟宠物,升级的基于位置的游戏,Alexa集成的演示,比2017年9月公开发布的版本提供了更多内容。

虽然iOS 12中的ARKit 2.0带来了强大的新功能,如多人游戏体验,持续跟踪,对象识别以及对基于Web的AR体验的支持,但开发人员并未积极采用新功能。 甚至连苹果公司在其年度iPhone推出活动期间在舞台上展示的多人游戏街机应用程序还没有进入ApPSTore。

随着ARKit 3.0的发布,Apple带来了另一套新功能,为移动增强型游戏带来了沉浸式体验。

事实上,Apple现在可以匹配AR云平台制造商如Niantic和6D.ai在过去一年中进行测试的一些功能。

但是,如果没有开发商和应用发布商的采用,此次发布的应用程序将没有任何实际意义, RealityKit和RealityComposer似乎是专为解决此问题而发布的。 通过缩短学习曲线,Apple将使更多的开发人员开始创建自己的AR体验。

此外,Apple的新工具代表了对AR发展前景的竞争威胁。 RealityKit正在进入竞争者Unity和虚幻引擎原本占有的领域,而RealityComposer将来自Torch和WiARframe等的新兴工具置于岌岌可危的处境。

  • 暂无资料
  • 暂无资料
  • 暂无资料
  • 暂无资料
  • 暂无资料