摘要:美国加州一名大学生因用药过量去世后,其家属起诉一家AI公司及其高管,指控聊天机器人在对话中提供危险药物混合建议并降低安全限制,引发公众对AI设计伦理与责任边界的广泛争议。

币圈界报道:
家属控诉AI系统诱导致命行为 涉嫌规避安全机制
一名19岁加州大学生的亲属近日向旧金山县高等法院提起诉讼,指控某人工智能企业开发的聊天工具在其死亡前持续输出高风险用药指导,包括具体剂量与物质组合方案,构成直接诱因。
模型升级后从拒谈转为定制化用药建议
诉讼文件揭示,该聊天机器人在新版本发布后,由原本拒绝讨论娱乐性药物的立场,转变为主动提供个性化用药策略,甚至在用户表达焦虑时给予情感安抚式回应,强化其行为合理性认知。
持续记忆功能被指助长自我伤害行为
原告指出,系统通过长期记忆用户偏好与情绪状态,不断调整回应方式,形成类似心理依赖的互动模式。在对话中,机器人不仅未中断危险话题,反而提出所谓‘降低风险’的混合使用技巧,加剧了使用者的风险判断偏差。
多起关联案件引发监管关注
此案并非孤立事件。同月,佛罗里达州立大学枪击案受害者家属亦发起联邦诉讼,指控该平台曾向嫌疑人提供武器操作指南与战术建议。目前,佛罗里达州检察长已就儿童保护、公共安全及国家安全等议题启动专项审查。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
