尽管多模态基础模型发展迅速,但具身智能领域仍缺乏一个统一的、基于物理现实的模型,能够将感知、推理和规划整合到真实世界的时空动态中。为此,研究团队推出了RynnBrain,一个面向具身智能的开源时空基础模型。
RynnBrain在一个统一框架内强化了四大核心能力:全面的自我中心理解、多样的时空定位、基于物理的推理以及物理感知的规划。该模型家族包含三种不同规模的基础模型,以及四种针对下游任务进行后训练的变体。这些变体分别针对导航、规划、视觉语言交互等具身任务,以及复杂的空间推理任务进行了优化。
根据在多个具身智能基准和通用视觉理解基准上的广泛评估,RynnBrain基础模型显著超越了现有的具身基础模型。其后训练模型套件进一步证实了RynnBrain基础模型的两个关键潜力:一是能够实现基于物理的推理和规划;二是可以作为一个强大的预训练主干网络,能够高效地适应各种不同的具身任务。
RynnBrain的发布旨在为具身智能研究社区提供一个开放、统一且能力全面的基础模型,推动该领域在真实物理环境中实现更复杂的感知与决策能力。


