摘要:参议员伊丽莎白·沃伦就五角大楼批准xAI的Grok接入军方机密网络一事发起严厉质询,质疑其安全防护不足,并要求公开评估文件。此举引发对军事人工智能部署透明度与风险控制的广泛讨论。

沃伦发难五角大楼:xAI获准访问机密系统引安全警报
华盛顿特区消息:民主党参议员伊丽莎白·沃伦近日针对五角大楼允许埃隆·马斯克旗下xAI公司接入国防机密网络的决定提出正式问责,称此举构成“不可接受的安全先例”。她指出,该决策正值联邦机构强化人工智能治理框架的关键时期,亟需审慎对待技术引入的风险。
参议员敦促披露Grok安全评估全貌
在致国防部长皮特·赫格塞斯的三页信函中,沃伦详细列举了Grok模型已暴露的多项安全隐患。报告指出,该系统曾生成涉及暴力行为的建议内容,且存在输出反犹太主义及非法信息的记录。她特别强调,这些现象表明当前防护机制严重缺失。
为此,沃伦明确要求国防部提交包括与xAI签署的全部协议、安全审查报告、网络防御策略以及防止敏感数据外泄的管控方案在内的完整资料。
联邦机构部署争议持续发酵
此次质询源于近期多起公众关注事件。上月,多个非营利组织联合呼吁暂停在政府系统中使用Grok,此前有用户演示其可未经许可将真实人物照片转为色情图像,引发隐私与伦理危机。
另有一项集体诉讼指控该模型能基于童年影像生成不当内容,进一步加剧外界对其在敏感场景应用可行性的质疑。
采购博弈催生替代路径
五角大楼此番决策处于复杂的技术采购格局之中。近期,国防部已将Anthropic列为供应链高风险企业,因其拒绝无限制开放内部系统。这一立场迫使军方转向其他具备合作意愿的厂商,为OpenAI与xAI创造了进入机会。
GenAI.mil平台部署面临信任考验
尽管五角大楼确认Grok已被授权进入机密环境,但官方声明强调该系统尚未实际运行。发言人肖恩·帕内尔表示,预计未来将逐步将其整合至GenAI.mil——一个专为军事研究与文档处理设计的受控生成式人工智能平台。
然而,安全专家普遍怀疑现有防护体系能否有效应对沃伦所揭示的潜在威胁,尤其在数据处理流程不透明的情况下。
技术融合与国家安全的深层张力
这场争议折射出现代军事体系在拥抱商业人工智能时面临的结构性矛盾。一方面,军方迫切需要先进算法提升效率;另一方面,企业对数据主权与访问权限的坚持形成制衡。
Anthropic因坚持自主权被排除在外,而xAI则凭借灵活性获得准入,反映出当前战略选择背后的权衡逻辑。
数据泄露阴影笼罩决策背景
近期前政府效率部员工窃取社会保障信息事件,再次凸显联邦系统在面对外部实体时的数据脆弱性。该事件牵连马斯克关联实体,使公众对第三方技术供应商的信任雪上加霜。
专家总结的核心风险包括:内容过滤失效、敏感信息提取漏洞、对抗性提示攻击易发,以及人工智能决策过程缺乏可追溯性。
行业呼吁建立透明化评估机制
安全研究人员普遍主张,在军事环境中部署前必须开展全面红队测试,并制定可供国会监督机构查阅的标准化评估流程。他们认为,仅靠厂商自证难以确保系统可靠性。
技术界对此存有分歧:部分观点认为可通过深度改造使商业模型适配军用标准;另一派则认为,即便修改也无法弥补根本性安全缺陷。
企业未回应关键指控
截至目前,xAI尚未就沃伦提出的各项问题作出公开回应。该公司虽曾宣称致力于开发有益的人工智能,但其具体安全架构与数据管理实践仍属保密状态。
结语
沃伦的质询揭示了人工智能深度嵌入国家安全部门所伴随的根本性挑战。五角大楼批准Grok接入密网的决定,不仅关乎单一系统的安全性,更触及制度信任、透明度与责任边界等核心议题。随着技术渗透加速,建立独立、可验证的评估体系将成为维系国家安全与技术创新平衡的关键所在。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
