币圈界报道:

OpenAI被诉未预警枪手威胁:涉事账户曾遭内部标记

美国加州北部联邦法院近日受理一起针对OpenAI及其首席执行官萨姆·阿尔特曼的新诉讼,指控该公司在2025年6月已识别出一名潜在枪手通过ChatGPT讨论暴力计划,却未履行向执法部门通报的义务,导致后续重大伤亡事件发生。

受害者家属控诉公司疏于警示与决策失当

原告方由12岁幸存者M.G.及其母亲Cia Edmonds代表,提交的起诉书指出,阿尔特曼团队明知沉默可能带来严重后果,却优先考量信息披露带来的声誉与合规压力。文件强调,若当时向加拿大皇家骑警发出预警,将为未来类似威胁建立重要先例——即一旦发现真实暴力意图,平台必须主动介入执法流程。

涉事账户曾被系统标记,管理层否决报警建议

据埃德尔森律师事务所披露,2025年6月,一位名为杰西·范·鲁特塞拉尔的18岁青年在使用ChatGPT时多次提及枪支、杀人计划及具体行动细节。其对话内容被内部安全系统自动标注,并经12名专家团队评估确认具备明确且可信的现实威胁。尽管如此,公司高层仍决定仅停用账户,未启动外部通报程序。该用户随后更换邮箱重新注册,持续使用服务。

技术设计缺陷与安全机制退化成争议焦点

原告方进一步质疑,ChatGPT的记忆功能与对话连贯性可能助长用户暴力倾向的固化,而公司在2024年调整安全策略后,已放弃对高危话题的即时拒绝机制。埃德尔森指出,尽管阿尔特曼近期承认应报告,但实际回应始终缺乏实质性行动,暴露出治理层面的严重滞后。

公司回应承诺强化风险识别与干预能力

面对舆论压力,阿尔特曼已公开致歉,并表示将优化模型对危险信号的响应逻辑,升级威胁评估体系,增强对重复违规行为的追踪能力。官方还宣布新增心理援助资源链接,供用户获取支持。然而,这已是该公司年内第二起涉及致命事件的法律纠纷。去年12月,另一起案件指控其与微软联合开发的GPT-4o模型间接加剧了康涅狄格州一桩命案中的极端思维。

推动行业建立暴力交互问责框架

埃德尔森律师事务所管理合伙人韦德-斯科特强调,此案系首例要求人工智能企业为第三方暴力行为承担法律责任的诉讼。他呼吁执法机构关注人机互动中潜在的危险传导路径,并推动建立可追溯、可追责的技术治理标准。受害者家属则要求全面开放内部审查记录,杜绝信息遮蔽,确保企业不再以商业利益凌驾于公共安全之上。