苹果机器学习研究团队近期发布论文《绘制计算机操作智能体用户体验设计空间》,旨在探索用户对AI智能体的真实期望与交互偏好。研究指出,尽管AI智能体开发投入巨大,但其界面形态与交互逻辑的设计规范仍有待明确。
研究分为两个阶段。第一阶段,团队深入分析了包括Claude Computer Use、OpenAI Operator在内的多款主流桌面及移动端AI智能体。通过咨询资深从业者,研究人员构建了一个涵盖“用户指令”、“活动可解释性”、“用户控制”及“心智模型”四大维度的分类体系,用以描述从用户下达命令到AI展示计划、报错及移交控制权的完整过程。
第二阶段,研究采用“绿野仙踪法”进行用户测试。团队招募了具有AI使用经验的用户,让他们通过聊天界面完成在线购物等任务。为了精准捕捉用户面对AI决策时的真实反应,实验由真人模拟AI操作,用户对此并不知情。
测试结果显示,用户对“透明度”的需求十分微妙:他们希望了解AI的动向,但不愿陷入对每个步骤的微观管理。这种需求随任务场景变化:在探索性或陌生任务中,用户希望看到更多中间步骤与解释;而在涉及支付、修改账户信息等高风险场景中,用户强烈要求拥有绝对的最终确认权。
研究最后强调,信任是人机交互的基石,但极其脆弱。当AI在遇到模糊选项时未询问便擅自做主,或在未告知的情况下偏离原计划,用户的信任感会迅速崩塌。在不确定情况下,用户不希望AI为追求自动化而随机选择,更倾向于AI暂停操作并主动寻求澄清,尤其是在可能造成实际损失时。


