在2025世界机器人大会上,阿里达摩院宣布开源三项自研核心技术:视觉-语言-动作模型RynnVLA-001-7B、世界理解模型RynnEC及机器人上下文协议RynnRCP,旨在解决具身智能领域的数据、模型与机器人本体适配难题。
RynnRCP协议首次将MCP理念引入具身智能,通过标准化框架RobotMotion和传感器连接模块,实现从数据采集到动作执行的全流程打通,目前已支持多款主流机器人模型与机械臂。同步开源的RynnVLA-001模型通过视频学习人类操作技能,提升机械臂动作的连贯性;RynnEC模型则赋予机器多维度场景解析能力,仅凭视频即可构建空间感知。
此前,达摩院还开源了融合世界模型与动作模型的WorldVLA,其抓取成功率和视频生成质量显著优化。这一系列开源举措或将成为推动具身智能产业化落地的关键突破。