AWE 2026现场:被央视关注、破吉尼斯记录、具身智能“可视化”,这些AWE名场面怎么都是它?

2026-03-151215机器人技术及应用

走进AWE 2026的W3馆,扑面而来的是各类酷炫的机器人和现场任务展示。在“智能经济”成为本届展会核心议题的背景下,如何区分真正的技术革新与传统的自动化表演,成了观众的难题 。

在它石智航(TARS)的展台,答案变得清晰。

这里不是简单的展示,而是精心设置了多个极具沉浸感的互动区:“机器人大脑可视化体验”、“穿戴真人数据采集套件SenseHub”,以及“A/T系列机器人场景化任务互动”。这些精心设计的互动体验,就是为了让观众零距离感知其全栈具身智能的核心能力。



 

就在本次展会期间,它石智航正式发布了全球首个能干活的通用具身大模型——AWE 3.0。该模型主打“走出温室、落地干活、通用泛化”,强调在实际场景中的适应性与执行力,可实现如人类般精细流畅的操作、长程任务的稳定执行,以及跨场景的迁移与泛化。

展会现场,搭载AWE 3.0大模型的它石智航A1机器人带来了最有力的例证:以“机器人在一小时内装配亚毫米级线束最多次数”的成绩,成功打破吉尼斯世界纪录,将具身智能在精密装配领域的作业能力,量化为可感知的行业标杆。



 

上述各项成果也吸引了总台央视的组团关注与报道,CCTV-13《朝闻天下》、CCTV-4《中国新闻》、CCTV-2《天下财经》等栏目纷纷对它石智航的硬核技术点赞。它石首席科学家丁文超在采访中揭示了技术背后的核心逻辑——“数据采集的主体是人,将高质量数据通过大模型将人类的能力迁移给机器人,赋予它和人一样自主的智能”。它石通过基于Human -centric的真人数据采集范式和AWE3.0具身通用大模型,大幅提升了机器人对真实复杂世界的理解,并达到了“能干活”的能力。它石智航正通过一场“可视化”的技术叙事,让具身智能从实验室概念,逐步演变为可落地、可信赖的智能生产力。

01.

首次解密:机器人“脑中”的世界是什么样?

在它石具身通用大模型AWE3.0的互动体验区,观众可选择:酒店、洗衣房、客厅等其中一个场景,再点选任务(如整理、拿取),两侧的屏幕开始发生变化。

左屏展示的是机器人根据场景任务思考出的“平行时空”,右屏则是叠加点云、触觉参数、运动轨迹——这些便是机器人所看到和理解的世界。这一刻,观众第一次直观地看到,机器人不是在看,而是在“理解”物理世界与规律。

这正是AWE3.0的思考过程可视化。它石的工程师试图向外界传达一个核心理念:具身大脑不仅仅是机器人的控制器,更是连接数字智能与物理世界的桥梁。目前国内不缺制造“身体”的能力,极度缺乏的是赋予机器人灵魂的“大脑”——即在复杂、开放、动态的物理世界中实现自主感知、认知与决策的能力。

基于此,AWE3.0延续了全身端到端学习、动态时空推理等优势,并实现了三项硬核突破:

全视角通感决策(OSD):通过全新自研技术,机器人摆脱视角依赖。在未见过的视角下,任务成功率提升至原来的3倍,保障了复杂环境中的稳定作业。

高密度触觉感知(HTS):依托WIYH数据集超百万小时的数据规模和积累的丰富触觉数据,AWE3.0让机器人的触觉感知变得无比敏锐,能够完成毫米级的精细响应,大幅提升了在未知场景下的泛化能力。

隐空间丝滑动作(LAS):通过隐空间动作优化,任务执行抖动降低超45%,卡顿现象大幅消除。这使得机器人能够胜任精密装配、柔性制造等专业场景。

这一切突破的最终目标,是让机器人能够在真实复杂场景下实现落地干活。



 

02.

“人机合一”:SenseHub背后的数据生态

在展台的另一侧,一个穿戴略显“赛博”的设备吸引了现场目光——这便是它石的数据采集套件SenseHub。一位观众戴上数据手套和第一视角相机,仅仅是拿起一瓶水,大屏上便实时捕捉并显示出了手部的关节点位、运动轨迹乃至微小的力觉波动。

这是它石首创的以人为中心Human-centric数据采集范式的现场演绎 。

工作人员穿戴 SenseHub 手套、第一视角相机等设备,完成拿取、摆放、装配等日常操作,大屏上便会实时显示采集的动作信息、位姿信息、运动轨迹,让观众直观看到人类的每一个动作都能被精准数字化并传输给机器人。

这一体验背后,是 SenseHub 六大核心创新能力的支撑:全球首创的 Human-centric 数据采集范式,实现了感知、计算、传输的深度融合;毫米级精度的全身运动捕捉,让人类动作的每一个细节都能被精准捕捉;微秒级的多源异构数据同步,确保了视觉、触觉、动作数据的时序一致性;高速率无线数据传输,彻底解放了使用者的活动范围;一站式数据真值服务系统,实现了数据采集、标注、评估、管理的全链条服务;极致轻量化的穿戴设计,让长时间、大规模的数据采集成为可能。



 

而SenseHub 的现场演示,也让观众理解了 AWE3.0 “能干活” 的核心密码 ——真实的能力源于真实的数据。

此前,具身智能领域的一大痛点是仿真数据与现实世界存在鸿沟,机器人在仿真环境中训练的能力,难以迁移到真实场景中,而遥操作数据采集的性价比不高,机器人在现实世界完成任务的成功率及泛化能力不足,无法实现规模化。SenseHub 采用的真人数据采集范式,让机器人能够直接学习人类的真实操作,有效解决了这一痛点。其采集的多模态数据,不仅包含人类的动作轨迹,更包含了动作背后的 “手感”—— 比如拿取柔性物体时的力度、装配零件时的接触反馈,这些视触觉数据是机器人实现精细操作的核心。此外SenseHub 的模块化设计,让其能够根据不同场景自由搭配组件,实现工业、服务等多领域的数据采集,为 AWE3.0 的跨场景泛化能力提供了丰富的数据支撑。

03.

刺绣:硬核实力的两面印证

如果说可视化交互让观众理解了 AWE3.0 的 “思考逻辑”,那么 A1 机器人的现场演示,则让观众直观看到了 AWE3.0 的 “干活能力”。

在刺绣演示区,它石智航带来的A1 机器人在现场演示中,精准完成 “AWE” 字母的刺绣,这一看似简单的操作,实则考验着具身大模型的全维度能力。

 

  • 从软件算法层面,刺绣是典型的长程非结构化任务,AWE3.0 需要规划百余步动作,同时融合头部视觉与手部相机的多视角信息,实时修正绣针运动和绣布变形带来的偏移,这正是其长程任务规划能力和多视角融合精细感知能力的体现;而刺绣的操作数据,正是由 SenseHub 采集的人类真实刺绣动作,这让机器人实现了对人类精细操作的精准模仿。

 

 

  • 从硬件本体层面,A1 机器人的力控机械臂模组能够精准控制力度,避免拉坏绣布、怼坏绣针,而末端运动结算与高精度跟踪能力,则实现了人类手部 6 维末端运动向机器人关节空间运动的精准转换,让算法能力真正转化为实际操作能力。

 

除了刺绣这一“精细操作天花板”,A1 机器人在物流搬运、精细打包等场景的演示,更是展现了 AWE3.0 的跨场景泛化能力。



 

在精细打包区,A1 机器人为观众打包礼品礼盒,双手协同抓取、装盒、推送的一系列动作丝滑流畅,无卡顿、无抖动,哪怕不断被干扰、拿走物品也依然会再次识别物体新位置并完成任务,这正是AWE3.0在执行能力上的直观体现。

整体来看,这种“刚柔并济”的演示逻辑,精准地回应了当下产业对具身智能的核心焦虑:到底能不能干活?干不干得了细活?

从展位图上看,无论是A机器人的毫米级操作、搬运、精细打包,还是T系列机器人的实时模仿与舞蹈,整个展台更像是一个微缩的“物理世界训练场”。它石智航通过将抽象的模型能力拆解为可视化的数据、可体验的交互、可量化的纪录,向产业证明:真正的具身智能,不是温室里的表演,而是要在真实世界中真的干好活,干细活。

04.

结语

当我们在谈论具身智能时,我们究竟在谈论什么?是酷炫的人形外观,还是预设好的程式化舞步?它石智航在AWE 2026上的这场“演出”,更像是一次对行业的深度祛魅。它执意将抽象的算法拆解为可视化的呈现、将高质量的数据采集过程公之于众、并用冲击吉尼斯纪录这种近乎严苛的方式证明“干活”的能力。

这背后传递的信号十分明确:具身智能的竞赛,上半场拼的是“身体”的硬件整合,而下半场,决定胜负的将是“大脑”的任务能力与真实世界的数据壁垒。它石智航选择了一条更艰难但也更务实的路——不是去造一个完美的“表演者”,而是去训练一个能理解物理世界、能在复杂环境中思考并干活的智能体。