OpenAI近日表示,其人工智能服务ChatGPT拒绝协助一名据称与中国执法部门相关的人员。该人员试图利用ChatGPT策划一场旨在诋毁日本首相的在线活动。
这一事件表明,ChatGPT内置的安全防护机制在应对潜在的国家支持或协调的虚假信息活动时,能够根据其使用政策进行干预和拒绝。OpenAI通过此案例展示了其模型在识别和阻止可能被用于恶意影响操作的请求方面的能力。
公司强调,其人工智能系统设计包含安全措施,以防止技术被滥用于制造或传播误导性信息。此类机制旨在评估用户请求的意图与潜在风险,并在违反政策时拒绝提供协助。此次事件具体揭示了模型在面对涉及国际关系与政治形象的复杂请求时的应对流程。
尽管未提供更多行动细节,但OpenAI借此说明了其持续致力于降低AI技术被用于操纵舆论等恶意目的的风险。这反映了人工智能行业在部署强大模型时,对安全性与责任性的普遍关注。


