阿里腾讯同日发布世界模型 谁能率先理解物理世界?

阿里和腾讯同日发布世界模型产品,标志着AI竞争焦点转向物理世界建模。 1. 阿里Happy Oyster提供交互式内容创作平台,用户可实时输入指令,画面响应,支持导演模式(最长3分钟720p视频生成,允许切换机位和改变剧情)和漫游模式(1分钟实时第一人称移动,键盘或摄像头控制),提升影视制作和游戏开发效率。 2. 腾讯HY-World 2.0开源3D世界模型,生成可编辑3D资产(如Mesh/3DGS/点云),无缝对接Unity、UE等游戏引擎,服务于游戏开发和具身智能仿真训练,降低创作门槛。 3. 两家路线不同:阿里走闭源产品路线,腾讯走开源生态路线(模型权重和代码在GitHub与Hugging Face开源),开发者将决定哪条路更优,2026年以来阿里推出多款产品,腾讯迭代迅速。

5月20日,华为和小米分别发布了各自的智能眼镜产品。华为终端BG推出的是沉浸式智能眼镜“Vision Mate”,小米生态链团队发布了AR智能眼镜“Pilot Glass 2.0”。

Vision Mate侧重沉浸式办公协作平台,用户可以在佩戴过程中实时处理信息,视野动态呈现,瞄准远程会议、设计审阅等商务场景的体验升级。

Pilot Glass 2.0更像随身信息中心,显示的不是图像,而是可交互、可联动智能家居的实时数据流,直接服务于日常出行和智慧生活辅助决策。

一个走高端商务路线,一个走大众消费路线。虽然定位不同,但都是想让硬件更好地融合数字与现实生活,至于哪种形态更受欢迎,还得市场来验证。

1、“Vision”家族再添猛将

5月20日,华为终端BG正式推出沉浸式智能眼镜产品“Vision Mate”(视觉伴侣),主打全息信息叠加与交互。这是继智能手表Watch X(探索者)之后,终端BG推出的第二款穿戴产品,从“腕上监测”进一步延伸至“眼前增强现实”。

与Apple Glass、Ray-Ban Meta等传统智能眼镜“看通知→眨眼确认→关闭界面”的被动式交互流程不同,Vision Mate在佩戴过程中可持续捕捉用户意图,视野动态扩展、无缝融合。这使得Vision Mate更接近一个随身智能助理,而不仅仅是显示屏幕。

产品提供两种深度交互模式:专注模式支持最高8小时、1080p的虚拟投屏,办公者可在会议过程中随时调取文档、批注关键数据,甚至共享屏幕内容;漫游模式支持全天的导航辅助,允许用户以第一人称视角在复杂的城市路网中自由穿梭,支持手势控制与眼球实时追踪,实现“所想即所显,所视即所控”。

Vision Mate基于原生鸿蒙架构,底层是一个支持空间感知与语音交互的分布式穿戴系统,依托华为强大的通信技术,Vision Mate对环境感知(如光线、距离、空间深度)有更精准的捕捉,投射的虚拟画面在头部转动时能保持极高的流畅度。

2、小米生态链发布AR智能眼镜

同一天,小米生态链团队正式发布并量产米家AR智能眼镜2.0(Pilot Glass 2.0),支持触控、语音、眼球等多种模态输入,能够自动识别、翻译和导航包含路、车、店的完整现实世界,并支持多协议设备(蓝牙/WiFi/UWB等)互联,可与小米汽车、智能家居等主流IoT平台工作流无缝对接。

Pilot Glass 2.0的核心升级,是把能力从“单一信息显示”扩展到了“全场景生活助理”,可以直接生成可实时翻译的多语言字幕,并导入到日常出行或跨国商务交流中,降低了语言沟通的认知门槛。官方称,在消费级方案中,Pilot Glass 2.0是首个达到全天候佩戴舒适的AR智能眼镜。

Pilot Glass 2.0延续了小米生态链的一贯策略,发布即互联。系统接口和协议已在米家开放平台与GitHub同步开放。

2025年以来,华为终端BG已连续推出智能手表Watch X、AI盘古大模型、智能眼镜Vision Mate等多款产品,节奏密集;小米生态链也在AR智能眼镜赛道上持续深耕,从1.0到2.0迭代迅速。

两家几乎同时出手,既标志着智能眼镜赛道从技术尝鲜进入大众普及阶段,也意味着硬件竞争的焦点正在从手机、平板电脑,向更具有未来感的空间计算和穿戴交互方向延伸。

\n