印度AI实验室Sarvam发布两款MoE架构大语言模型,宣称从零构建

发布时间:2026-02-21 01:07

印度人工智能实验室Sarvam在近期的人工智能峰会上,正式发布了两款据称“从零构建”的最新一代混合专家(MoE)架构大语言模型。这两款模型计划在Hugging Face平台以开源权重的形式提供,后续还将开放API访问和仪表盘支持。

两款模型针对不同应用场景设计。其中规模较小的型号采用特定参数设计,预训练数据集规模庞大,支持较长的上下文窗口,主要面向对延迟敏感的实时应用。另一款规模更大的型号则采用更高参数设计,支持更长的上下文窗口,旨在满足更为严苛和复杂的任务需求。

Sarvam实验室特别强调其大模型在针对印度本地语言的基准测试中表现优异,声称超越了包括谷歌Gemini 2.5 Flash在内的其他模型。在更广泛的通用基准测试中,该模型也宣称在多数测试中优于特定竞争对手,并在多项测试中表现突出。此次发布标志着印度本土在AI大模型研发领域迈出了重要一步。

客服微信
客服微信