三大巨头的策略大风吹,AI催生XR产业新型态

吴碧娥╱北美智权报 编辑部

0
957

2026 年正式被产业界定为 XR(延展实境)发展的关键转折点,标志着技术从「娱乐试验」迈向「空间智能」(Spatial Intelligence)实践的元年。随着 AI 代理人(AI Agent)与硬件装置深度整合,XR 已经不再仅是显示工具,而是成为训练实体AI理解物理世界的核心载体。随着XR装置从高端市场向大众与企业级应用拓展,对于轻量化、高效能、低功耗的组件需求将持续增加。台湾具备成熟的半导体与精密制造供应链,可成为全球XR设备供应的关键节点。

图片来源 : shutterstock、达志影像

XR 成为AI的数字教室

XR 对 AI 的催化效应正不断放大,促使人工智能训练迈向更通用、更高效的新阶段。XR 能够提供高度互动与模拟的3D环境,支持AI机器模型在虚拟世界中学习感知与行动,从而加速空间智能的发展。虚拟机人可以在高效逼真的 3D 模拟环境中接受训练,再将学得的技能迁移到现实中,训练目标是让AI从「聊天机器人」到「实体助手」,XR 仿真为 AI 提供了安全、低成本并能融入人类环境的「练习场」,让 AI 在进入真实机器人身体前,就已经在虚拟世界完成训练。

ChatGPT等AI模型是在「文字」和「2D图片」中长大的;但如果要让AI控制机器人去拿杯子、缝补伤口,它需要学习空间感,这就是XR出场的时候了。利用XR当作AI的「数据采集器」,就能训练AI学习如何像人类一样理解并在3D空间中行动。目前运用XR训练AI主要有两种模式:

XR沉浸式遥控演示:透过虚拟现实( VR) 头戴式装置,专业人员能以第一人称视角远程操控机器人执行复杂任务。例如著名的 ALOHA 及其后续系统 AV-ALOHA,让人类示范者能动态调整机器人视角,纪录精确的动作轨迹。人类在远程做什么动作,机器人就在现场跟着做什么,当人类透过VR控制机器人完成任务时,系统会同步纪录:「人类看到了什么」加上「人类手部怎么动」。AI透过阅读这些纪录进行「模仿学习」,就像学徒看着师傅操作一遍,AI便能透过模仿学习这项技能。

多模态主视角数据采集:也就是AI的「第一人称视角纪录」。藉由 Meta Aria 等轻量化智能眼镜的普及,AI 得以收集海量的「人类视角」数据。以全球瞩目的 Ego4D 项目为例,透过收集数千小时的日常生活影片、音讯及 3D 轨迹,为 AI 累积了贴近人类视角的训练素材。让人类戴着像Meta Aria这种智能眼镜去过日常生活(煮饭、修车、走路),并在过程中采集人类眼睛看到的3D画面、人的手在3D空间中的手部轨迹,以及声音与定位。以往AI是看「别人的影片」学习(第三人称),很难理解距离感。现在AI是用「人类的双眼」看世界(第一人称),这能让AI未来更能理解人类的意图与空间逻辑。

AI与 XR深度融合也成为2026年最新趋势,NVIDIA 专注于训练 AI 的「虚拟教室」,而 Meta 则致力于开发采集数据的「轻便硬件」。NVIDIA 在CES 2026发表了GR00T N1.6,这是一个专为人型机器人设计的基础模型。开发者现在可以透过 Isaac Lab-Arena,在 XR 虚拟环境中同时训练数千只机器人,并将技能无缝迁移至实体硬件(Sim-to-Real)。Meta则在致力于淡化传统笨重的VR,转向能与AI助理完美结合的穿戴设备

三大巨头的策略大风吹

Apple:更务实的产品路线

苹果正加速转型为智能眼镜的市场策略,Apple暂缓了高端 Vision Pro 的维护及轻量版Vision Air的研发,将重心转向预计在2026年亮相的轻量化Apple Glasses。外媒称这款苹果内部代号为「Project Atlas」的产品预计将于 2026年正式发布,并于 2027年开始量产上市[1]

借镜于Meta和Ray-Ban智能眼镜的成功模式,Apple Glasses选择了更务实的产品路线,Apple放弃了内建显示器的设计,也不强调扩增实境体验,它被定位为一款以人工智能和音频为核心的可穿戴配件,更能满足大众消费市场的需求。Apple Glasses 将以「AI + Siri + 相机」为核心互动组合,可以理解为「带眼睛的 Air Pods」,除了拍照和录像,还能实现实时物体辨识、文字朗读、地标辨识等「视觉智能」功能。

为了达成Apple Glasses的轻量化要求,苹果将订制一款基于Apple Watch S 系列芯片的全新处理器,以满足性能和电池续航要求。为了平衡功耗和电池续航,此处理器主要负责驱动摄影机、处理传感器数据以及运行基础机器学习模型,更复杂的运算任务将透过无线方式传输到 iPhone 或云端进行处理,确保用户可以全天佩戴眼镜。

Meta2026 年大幅调整产品线

Meta近日撤出了对VR及其元宇宙平台Horizo​​n Worlds的投资,并裁减旗下Reality Labs约10%的员工,将预算重心由VR转向AI和联网智能眼镜等穿戴装置[2]。虽然Meta大幅度削减对虚拟现实和游戏领域的投资,但XR的前景依然乐观,Reality Labs 仍有数千人每天从事 XR 相关工作,Meta也正在加倍投入智能眼镜领域,这项转变标志着 Meta 正式告别「笨重头盔时代」,转而拥抱以 AI 为核心的空间运算新蓝图。

Meta 在 XR 与 AI 的整合上,选择了极为务实的方向,让 XR 不必一开始就追求完整沉浸,而是先成为日常生活中的延伸感知工具,轻量化装置搭配 AI 助理进行整合,以「弱 XR、强 AI」的模式为 XR 建立新的进场路径。

GoogleAndroid XR 生态系正式登场

为了打破Apple与 Meta在XR 战场上两强鼎立的局面,Android XR 生态系正式登场。由 Google、Samsung、Qualcomm 组成的共同开发的空间运算平台「Project Aura」,被视为Android 阵营的反击。Google不仅与三星合作开放生态系的Android XR,知名AR眼镜品牌XREAL也宣布成为核心硬件伙伴。

2026年将是智能眼镜大放异彩的一年,Android XR革命正蓄势待发,三星智能眼镜被誉为Google Android XR最紧密的合作伙伴,Android XR是下一代头戴式设备和眼镜开发的新操作系统。Galaxy XR是三星携手Google Gemini推出首款基于Android XR打造的XR设备,可以透过语音、手势和眼睛自然地操控接口。

继三星Galaxy XR取得成功之后,Google 携手XREAL共同发表了基于全新 Android XR 平台的「Project Aura」智能眼镜[3],Project Aura 采用的是开放的Android XR平台,具备开放生态系的优势,AI更是2026年Project Aura 的最大胜负点「环境感知」: AI不只是聊天,它能透过眼镜的镜头感知环境,告诉你沙发下掉了一支笔,或是帮你测量家具尺寸。Project Aura 的开发者版本已经小规模释出,正式市售机型预计将于2026 年下半年推出。透过 Google多模态模型 Gemini 的深度整合,Android阵营将强化在搜寻、导航与多任务生产力上的优势。

图1. Google 和XREAL共同发表的「Project Aura」智能眼镜;图片来源:XREAL官网

2026 年对 XR 产业而言,不仅是市场规模爆发的一年,更是技术、应用与生态系共同重塑的一年。随着全球 XR 装置、应用与服务进入成熟期,台湾若能在供应链制造、软件开发、生态整合与人才培育上全面发力,将有机会在全球 XR 产业链中奠定举足轻重的影响力,这不仅是技术应用的机会,也将是产业升级、经济转型的关键契机。

参考数据:

  1. 2026/1/21,中国信通院「虚拟(增强)现实研究报告(2025年)」。

备注:

[1] 参考数据:2025/12/15,9to5Mac: Summary of the latest rumors about Apple Glasses: It will be unveiled in 2026, focusing on AI and ecosystem synergy.

[2]参考数据:2026/1/24,CNBC: Meta’s Reality Labs cuts sparked fears of a ‘VR winter’.

[3]参考数据:2025/12/8,XREAL: First Look: Project Aura — The Next Step in XR for Android XR and Gemini.

作者: 吴碧娥
现任: 北美智权报主编
学历: 政治大学新闻研究所
经历: 北美智权报资深编辑
骅讯电子总经理室特助
经济日报财经组记者
东森购物总经理室经营企划


LEAVE A REPLY

Please enter your comment!
Please enter your name here