我的订单|我的收藏|我的商城|帮助中心|返回首页
虚拟现实新闻>行业>新闻动态>行业动态

Meta 发布新的视觉分割与对象识别流程以协助 AR/VR 开发

文章来源:VR陀螺 作者:jack 发布时间:2023年04月07日 点击数: 字号:

当地时间4月5日,Meta在其推特表示:现已发布通用 Segment Anything 模型 (SAM) 与 Segment Anything 1-Billion 掩码数据集 (SA-1B),以支持广泛的应用程序并促进对计算机基础模型的进一步研究。

理想情况下,Meta表示“该模型将提供更多能力来增强 AR 体验,也将应用于 AI 和 VR 创作过程。预计由提示工程等技术实现的可组合系统设计将比专门为一组固定任务训练的系统能够实现更广泛的应用程序,且 SAM 可以成为 AR/VR 、内容创作以及更通用的人工智能系统等领域的强大组件 。”

AR 体验发展的一个关键要素是实体识别,有效的 AR 系统能够识别周围世界中的不同对象,以便在屏幕上提供额外的功能洞察力。 对于 Meta 而言,该模型可以帮助构建其 Project Aria 智能眼镜项目。

据 The Information 消息,去年6月 Meta 为了削减成本 ,推迟了其 AR 眼镜发布。同时,Meta 选择放弃其即将上市的第一代 AR 可穿戴设备,转而专注于其第二代 AR 设备,目前尚未确定发布日期。

  • 暂无资料
  • 暂无资料
  • 暂无资料
  • 暂无资料
  • 暂无资料