SMTL框架:以“多搜索,少思考”重塑长期智能体搜索效率与泛化性

发布时间:2026-02-27 16:32

当前,深度研究智能体主要通过增加推理深度来提升性能,但这在搜索密集型场景中导致了高昂的推理成本和延迟。同时,智能体在不同研究设置间的泛化能力仍然面临挑战。为此,研究团队提出了“多搜索,少思考”(SMTL)框架,旨在为长期视野的智能体搜索任务同时实现效率与泛化性的突破。

SMTL框架的核心创新在于,它用并行证据获取取代了传统的顺序推理模式。这一设计使得智能体能够在受限的上下文预算下进行高效的上下文管理,从而大幅降低推理步骤,提升整体搜索效率。

为了增强智能体在不同类型任务间的泛化能力,该研究进一步引入了一个统一的数据合成流程。该流程能够构建涵盖确定性问答与开放式研究场景的多样化搜索任务,并为每种任务配备相应的评估指标,为训练通用型智能体奠定了基础。

基于此框架,研究团队通过监督微调和强化学习训练了一个端到端的智能体。实验表明,该智能体在包括BrowseComp、GAIA、Xbench和DeepResearch Bench在内的多个基准测试中取得了强劲的、甚至是最先进的性能表现。与基线模型相比,SMTL在保证甚至提升准确率的同时,显著减少了平均推理步骤数,验证了其在效率与效果上的双重优势。

这项研究为构建更高效、更通用的研究型AI智能体提供了新的思路与可行的技术路径。

客服微信
客服微信