根据报道,在加拿大大规模枪击案发生前数月,OpenAI内部员工曾对一名后来成为嫌疑人的平台用户活动表示过担忧。相关信息显示,员工在当时已注意到该用户的一些行为。针对此事,OpenAI方面作出了回应。公司表示,经过评估,该用户在当时使用其服务期间的活动,并未达到公司内部设定的、需要主动向执法机构报告的门槛或标准。OpenAI通常有一套既定的安全协议和内容政策,用以监控和评估平台上的潜在风险。此次事件引发了关于人工智能公司如何平衡用户隐私、平台安全责任以及与执法部门协作界限的讨论。目前,关于该嫌疑人在案发前使用AI服务的具体细节以及OpenAI内部评估的完整依据,公开信息仍有限。


