新闻中心

当前位置: 首页 > 新闻中心 > 学院新闻 > 正文

AIR科研|X-VLA重磅开源,全面刷新机器人基准性能记录

来源:       发布时间:2025-11-11


清华大学智能产业研究院(AIR)与上海人工智能实验室联合发布全新通用跨本体具身基座模型:X-VLA。X-VLA是首个实现120min无辅助自主叠衣任务的全开源模型(公开数据、代码与参数),以仅0.9B的参数量在五大权威仿真基准上全面刷新性能纪录,为具身智能领域提供了一个性能强劲、完全开源的新基线与技术范式。

近年来,多模态大模型(MLLMs)发展迅猛,从看图说话到视频理解,似乎无所不能。但你是否想过:它们真的“看懂”并“想通”了吗?这些模型在面对复杂的、多步骤的视觉推理任务时,能否像人类一样推理和决策?
清华大学智能产业研究院(AIR)执行院长刘洋教授团队,联合清华大学计算机系、复旦大学带来重磅新作——EscapeCraft:一个3D密室逃脱环境,让大模型像真人一样“动脑逃生”,用于评估多模态大模型在视觉环境中,完成复杂任务推理的能力。测评结果却意外频出:模型常常看到了门,却一直绕着墙走;捡起钥匙,却忘了怎么用;甚至有模型想去“抓”沙发,理由是“可能有暗格”……这不是个别翻车。而是系统性的“看见不代表理解”。即便是 GPT-4o 这样的明星模型,也只有少部分子任务是真的想明白了完成的,其它全是歪打正着。


项目主页https://thu-air-dream.github.io/X-VLA/

代码https://github.com/2toinf/X-VLA.git

作者Jinliang Zheng*, Jianxiong Li*, Zhihao Wang, Dongxiu Liu, Xirui Kang, Yuchun Feng, Yinan Zheng, Jiayin Zou, Yilun Chen, Jia Zeng, Ya-Qin Zhang, Jiangmiao Pang, Jingjing Liu, Tai Wang, Xianyuan Zhan

核心方法

  • 性能突破率先实现超长时序灵巧操作任务(如自主叠衣)的全流程开源,攻克长期复杂自主作业难题。

  • 极致高效仅0.9B超轻量参数,即在五大仿真基准上实现SOTA性能,达成卓越的效费比。

  • 创新技术:打破大规模异构数据训练难题,通过Soft-Prompt与定制化训练范式,构建出高效通用的跨本体基座模型。

  • 开源开放完整公开模型参数、代码与训练数据,助力具身智能社区复现与创新。

核心方法


1.高效模型设计

    • 面向本体泛化的Soft-Prompt机制:为克服不同机器人平台在自由度、相机观测视角等本体参数上的差异,本研究引入了可学习的Soft-Prompt。该机制动态地将具身本体的硬件配置信息编码为一种连续表征,使模型在预训练中能够解耦任务策略与具体执行器,从而显著增强模型对异构机器人平台的适应能力,并提升混合数据训练的稳定性与效率。

    • 基于功能分工的多模态编码策略:针对机器人任务中多源视觉输入的异质性,我们提出了分治编码方案。任务相关的主视角图像由高性能视觉-语言模型编码,以提取高层语义特征;而主要提供低层次空间反馈的辅助视角,则通过轻量化的网络进行局部特征提取。该策略在保证信息完整性的前提下,优化了计算资源的分配,提升了模型的信息处理通量。

    • 基于flow-macthing的生成式动作解码器:模型主干采用标准Transformer架构,以确保良好的扩展性与通用性。动作生成模块摒弃了传统的确定性输出策略,转而采用先进的flow-matching,以概率生成的方式建模机器人动作序列。该方法显著增强了动作轨迹的平滑性与对不确定环境的鲁棒性,为长时序任务的成功执行奠定了坚实基础。

2.大规模高质量异构数据预训练

    • 平衡化数据采样:定制数据采样策略,确保异构数据集的均衡训练,避免模型偏斜。

    • 多模态数据清洗与时空对齐流水线:我们对原始机器人操作数据实施了严格预处理,包括:将不同空间下的动作数据统一映射至标准任务空间;对高频率采集的数据进行时序层面的对齐与重采样。此流程极大提升了状态-动作序列在时间上的一致性逻辑与整体质量。

    • 以语义-动作对齐为导向的数据遴选标准:我们确立了严格的数据质量门槛,核心是筛选视觉帧清晰、语言指令描述精准且与后续动作序列高度关联的数据样本。此举从源头上确保了模型学习到的是有明确因果关系的“行为知识”,而非浅层的虚假关联。

3.定制后训练流程与技巧

    • 分层分组的自适应学习率调整:鉴于模型中不同组件(如预训练冻结的VLM、新引入的Soft-Prompt、主干Transformer等)的参数规模与收敛特性各异,我们为其施加了分组别、差异化的学习率调度策略。该设计既保护了预训练获得的基础知识,又允许关键适配层快速调整,从而在保证训练稳定性的同时,大幅优化了收敛效率。

    • 面向异构模块的渐进式 warm-up 策略:对于模型中新引入的可学习参数(如Soft-Prompt),我们在训练初始阶段采用线性递增的学习率热身机制,使其参数空间得以平稳初始化,再逐步融入全局优化过程。该策略有效避免了训练初期因梯度剧变导致的不稳定性,尤其适用于异构模块的协同训练。

实验结果


高效预训练:可扩展的架构优势

X-VLA 的预训练缩放定律(Scaling Laws)曲线呈现出优异的线性增长趋势。这表明,随着模型参数以及训练数据规模的同步扩大,其在测试集的开环测试性能呈现稳定、可预测的提升。这一现象验证了所提出的 Soft-Prompt 机制与简洁Transformer架构的强大可扩展性,为构建更大规模的具身智能基座模型奠定了坚实基础。

高效后训练:数据与算法的协同优化

得益于高质量的预训练基座,X-VLA 在后训练(微调)阶段展现出极高的数据效率与稳定性。针对不同的下游任务(如自主叠衣),只需使用中小规模的场景专属数据进行微调,模型便能快速适应并达到SOTA性能。这源于预训练阶段学习到的通用视觉-语言-动作表征,以及后训练中采用的定制化学习率策略与慢启动机制,它们共同确保了知识从通用域到特定任务的高效、稳定迁移。

  • 仿真基准测试结果

在包括LIBERO、SIMPLER等在内的权威仿真环境中,X-VLA均取得了SOTA性能,显著优于现有同类模型。

  • 实机实验测试结果

在真实的机器人平台上,X-VLA在大量常规抓取和复杂桌面操作任务中展现了强大性能,并成功完成了不限时长的自主叠衣任务,且可零样本迁移部署至全新的环境,展示了其应对复杂长程任务的卓越能力。详细任务执行效果参见本文开头视频。





下一条:祝贺!AIR荣获IROS国际机器人比赛冠军

关闭

相关新闻

最新动态

业务合作:airoffice@air.tsinghua.edu.cn
招生招聘:airhr@air.tsinghua.edu.cn
联系电话:(010)82151160  

办公地点:北京市海淀区清华科技园启迪科技大厦C座12层

官方微信

京ICP备15006448号  |   版权所有©清华大学智能产业研究院