生成式AI代理通常将“理解”等同于解决用户明确提出的查询。这一假设将交互限制在用户能够清晰表达的范围内。然而,当用户自身也未能意识到缺失、风险或值得考虑的事项时,这种假设便失效了。在此类情境下,AI的主动性不仅是效率的提升,更是一种认识论上的必需。研究者将这种状态称为“认知不完整性”:即进展依赖于与“未知的未知”互动,以建立有效的伙伴关系。现有的主动性方法仍然局限于狭隘的预测性,它们从过去的行为中推断,并假设目标已经明确定义,因而无法为用户提供有意义的支持。然而,揭示用户当前认知之外的可能性本身并非必然有益。不受约束的主动干预可能会误导注意力、使用户不堪重负,甚至带来危害。因此,主动式代理需要“行为基础”:即关于代理应在何时、以何种方式、在何种程度上进行干预的原则性约束。本文提出的核心观点是,生成式AI的主动性必须同时建立在认识论基础和行为基础之上。借鉴无知哲学和主动性行为研究,研究者认为这些理论为设计能够负责任地参与互动并培养有意义伙伴关系的AI代理提供了关键指导。该研究强调了超越单纯信息检索、迈向更具支持性和认知协作的人机交互范式的必要性。


