阿里达摩院开源三大具身智能核心模型与协议,推动机器人开发全流程标准化

2025-08-11 17:23:40   |   棠糖   |   1749

8月11日,在2025世界机器人大会上,阿里达摩院宣布开源其自主研发的视觉-语言-动作(VLA)模型RynnVLA-001-7B、世界理解模型RynnEC,以及机器人上下文协议RynnRCP,旨在解决具身智能领域长期存在的开发碎片化、数据与硬件适配难等问题,为机器人开发者提供从感知到执行的完整技术栈支持。  

具身智能的核心挑战在于如何让模型、数据与机器人本体高效协同。达摩院创新性提出RCP(Robotics Context Protocol)协议,通过标准化接口连接传感器、模型和机械控制,实现全流程兼容适配。目前,RynnRCP已支持Pi0、GR00T N1.5等主流模型及SO-100、SO-101机械臂,并包含两大核心模块:RCP框架:统一机器人本体与传感器的通信标准,支持多传输层和模型服务接入。RobotMotion:将低频模型指令实时转化为高频控制信号,确保机械臂运动平滑且符合物理约束,同时提供仿真-真机一体化工具,降低开发门槛。  

 两大开源模型:让机器人“看得懂、动得巧”  

1. RynnVLA-001-7B:基于视频生成与人体轨迹预训练的VLA模型,可从第一视角视频中学习人类操作技能,并迁移至机械臂控制,使动作更连贯、拟人化。  

2. RynnEC:多模态世界理解模型,通过11维场景解析(如位置、功能、数量)实现精准物体定位与分割,仅需视频输入即可构建空间感知,适用于复杂室内环境。  

达摩院此前开源的WorldVLA模型(融合世界模型与动作模型)已展现显著效果,抓取成功率提升4%,视频生成质量优化,进一步验证了技术路线的可行性。

特别提醒:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字、图片等内容的真实性、完整性、及时性本站不作任何保证或承诺,请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时发送相关信息至bireading@163.com,本站将会在48小时内处理完毕。

阿里达摩院开源三大具身智能核心模型与协议,推动机器人开发全流程标准化

2025-08-11 17:23:40 浏览量: 1749 作者: 棠糖

8月11日,在2025世界机器人大会上,阿里达摩院宣布开源其自主研发的视觉-语言-动作(VLA)模型RynnVLA-001-7B、世界理解模型RynnEC,以及机器人上下文协议RynnRCP,旨在解决具身智能领域长期存在的开发碎片化、数据与硬件适配难等问题,为机器人开发者提供从感知到执行的完整技术栈支持。  

具身智能的核心挑战在于如何让模型、数据与机器人本体高效协同。达摩院创新性提出RCP(Robotics Context Protocol)协议,通过标准化接口连接传感器、模型和机械控制,实现全流程兼容适配。目前,RynnRCP已支持Pi0、GR00T N1.5等主流模型及SO-100、SO-101机械臂,并包含两大核心模块:RCP框架:统一机器人本体与传感器的通信标准,支持多传输层和模型服务接入。RobotMotion:将低频模型指令实时转化为高频控制信号,确保机械臂运动平滑且符合物理约束,同时提供仿真-真机一体化工具,降低开发门槛。  

 两大开源模型:让机器人“看得懂、动得巧”  

1. RynnVLA-001-7B:基于视频生成与人体轨迹预训练的VLA模型,可从第一视角视频中学习人类操作技能,并迁移至机械臂控制,使动作更连贯、拟人化。  

2. RynnEC:多模态世界理解模型,通过11维场景解析(如位置、功能、数量)实现精准物体定位与分割,仅需视频输入即可构建空间感知,适用于复杂室内环境。  

达摩院此前开源的WorldVLA模型(融合世界模型与动作模型)已展现显著效果,抓取成功率提升4%,视频生成质量优化,进一步验证了技术路线的可行性。

,

Copyright ©2018 铋读网 All Rights Reserved.

京ICP备18051707号

京公网安备 11011302001633号