首页
学习
活动
专区
圈层
工具
发布

为Gemini AI装上“眼睛” 谷歌与XREAL联合发布Project Aura

IT时报记者 沈毅斌

AI 技术正在飞速演进,大语言模型让AI“能说会道”;多模态模型让AI“能看会画”;世界模型让AI“开始理解真实的物理空间”。然而,AI形态几乎未变,仍被困在屏幕里。如何将AI与现实世界更紧密地连接起来,让其真正走进人们的生活场景,成为国内外科技大厂探索的重要方向之一。

12月9日,在美国举行的 The Android Show上,谷歌表示,Android XR的核心目标,是构建一个开放、统一的扩展现实平台,让AI不再局限于平面屏幕,而是进入真实世界的光线、空间与行为之中。并且首次公布了Project Aura产品和Android XR系统的关键细节。

该产品被定位为迄今为止最完整、最接近 Android XR理想形态的硬件样本。作为谷歌官方认可的系统级参考硬件,Project Aura标志着Gemini AI第一次真正拥有“看见世界”的能力。

而为谷歌打造“空间之眼”的是来自中国的企业XREAL。据悉,Project Aura 的核心硬件研发几乎全部由中国团队完成,Aura将XREAL的光学、芯片、空间算法与谷歌的Android XR和Gemini AI原生融合,让AI完成“看见——理解——交互”的完整闭环。

XREAL创始人兼CEO徐驰表示,没有任何一家公司能包揽系统、AI与硬件的所有创新。下一代计算平台需要一个全球化创新联盟。而中国凭借最完整的制造链条与最快的硬件创新速度,第一次真正站在了定义未来标准的位置。

试想一下,烹饪时,悬浮于空气中的食谱,会实时跟随你的动作翻页、提示,不用再手忙脚乱;飞机上,可以拉起一块私密虚拟屏幕;躺在家里,客厅还能瞬间变成可移动、沉浸式的巨幕影院。

这背后的底层基础是XREAL自研的专为AR设计的X1S芯片,可以构建起低延迟、高精度的空间智能链路,实现人与虚拟信息的无缝交互的“空间级AI”。再上一层,Aura将多模态Gemini与眼镜的摄像头、麦克风与环境传感器融为一体,可以实时语义理解、处理场景任务与自然交互。

为了能更好让 Gemini 打开“现实世界的视野”,最新 X-Prism光学系统搭载其中,可以实现70°FOV超大实用视场,让数字内容自然叠加在环境中。

应用场景与内容的稀缺,一直是AR眼镜推广过程中需要面对的重点难题。谷歌此次打造的Project Aura将继承成熟的安卓移动生态,让开发者与内容生态进入统一轨道,也或将打破XR行业面临的碎片化问题。

根据官方信息披露,Project Aura 将在 2026 年正式面向市场。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/ObkGiJGRbJX3vgFyXmjqB9Ug0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券