阿里达摩院开源三大具身智能核心模型与协议,推动机器人开发全流程标准化
8月11日,在2025世界机器人大会上,阿里达摩院宣布开源其自主研发的视觉-语言-动作(VLA)模型RynnVLA-001-7B、世界理解模型RynnEC,以及机器人上下文协议RynnRCP,旨在解决具身智能领域长期存在的开发碎片化、数据与硬件适配难等问题,为机器人开发者提供从感知到执行的完整技术栈支持。
具身智能的核心挑战在于如何让模型、数据与机器人本体高效协同。达摩院创新性提出RCP(Robotics Context Protocol)协议,通过标准化接口连接传感器、模型和机械控制,实现全流程兼容适配。目前,RynnRCP已支持Pi0、GR00T N1.5等主流模型及SO-100、SO-101机械臂,并包含两大核心模块:RCP框架:统一机器人本体与传感器的通信标准,支持多传输层和模型服务接入。RobotMotion:将低频模型指令实时转化为高频控制信号,确保机械臂运动平滑且符合物理约束,同时提供仿真-真机一体化工具,降低开发门槛。
两大开源模型:让机器人“看得懂、动得巧”
1. RynnVLA-001-7B:基于视频生成与人体轨迹预训练的VLA模型,可从第一视角视频中学习人类操作技能,并迁移至机械臂控制,使动作更连贯、拟人化。
2. RynnEC:多模态世界理解模型,通过11维场景解析(如位置、功能、数量)实现精准物体定位与分割,仅需视频输入即可构建空间感知,适用于复杂室内环境。
达摩院此前开源的WorldVLA模型(融合世界模型与动作模型)已展现显著效果,抓取成功率提升4%,视频生成质量优化,进一步验证了技术路线的可行性。