基于大语言模型(LLM)并集成了工具能力的对话代理,在固定任务导向的数据集上表现出色,但仍易受用户引发的意外错误影响。本研究聚焦于错误恢复,而非错误预防,其关键在于准确诊断错误的对话上下文并执行恰当的恢复计划。在现实约束下,由于微调模型或修改提示成本高昂、耗时巨大,我们探索代理能否从存在上下文缺陷的交互中恢复,以及如何在不改变模型参数和提示的情况下调整其行为。为此,我们提出了推理启动(ReIn),一种测试时干预方法,它将初始推理植入代理的决策过程。具体而言,一个外部启动模块识别对话上下文中的预定义错误并生成恢复计划,随后将这些计划整合到代理的内部推理过程中,以引导其采取纠正行动,整个过程无需修改其参数或系统提示。我们通过系统模拟直接阻碍用户目标完成的对话失败场景来评估ReIn,例如用户的模糊请求和不支持的请求。在多种代理模型与启动模块的组合中,ReIn显著提高了任务成功率,并能泛化到未见过的错误类型。此外,它持续优于显式的提示修改方法,突显了其作为一种高效、即时方法的实用性。对其运行机制的深入分析表明,与ReIn联合定义恢复工具,可以作为一种安全有效的策略,在不修改骨干模型或系统提示的情况下,提升对话代理的鲁棒性。


