地平线正式宣布全面开源其专为具身智能设计的HoloBrain-0基座模型及全栈Vision-Language-Action框架。此次开源旨在弥合从基础模型研究到可靠机器人真机部署之间的鸿沟。
HoloBrain-0框架的核心创新在于,其架构中显式注入了“具身先验”。该模型将多视角相机参数与机器人运动学结构等本体先验信息融入其中,从而大幅提升了三维空间理解能力,实现了统一的3D空间感知与跨本体控制。这有别于传统VLA模型仅依赖“视觉到动作”的黑盒映射方式。
该模型展现出卓越的泛化能力,能够灵活适配单机械臂、双机械臂、移动机器人乃至人类数据等多种形态,可应用于从灵巧折叠到通用抓取等多样化任务。地平线此次不仅开源了基座模型,还提供了参数规模更小的端侧友好版本以及名为RoboOrchard的完整基础设施,致力于打造“开箱即用”的开源生态以降低研发门槛。
在技术层面,HoloBrain在预训练阶段融合了多本体遥操作数据、人类视频数据及仿真数据进行联合训练,使模型能学习异构数据中的动作流形。后续在多个仿真基准测试中取得了领先成果,并在真实机器人任务中表现出良好的稳健性。其轻量化版本可高效适配特定机器人开发者套件,旨在推动具身智能模型在端侧硬件上的规模化部署。


