摘要:谷歌与美国国防部达成协议,将提供其AI模型用于涉密网络,支持任务规划与武器锁定等敏感行动。协议明确禁止用于大规模监控及全自主武器,但“合法用途”边界引发争议。

币圈界报道:
谷歌获美军涉密环境AI部署权,战略级模型正式接入
谷歌已与美国国防部签署协议,允许其先进人工智能模型在涉密系统中运行。根据条款,五角大楼可在符合法律框架的前提下,将谷歌的AI工具应用于包括任务规划、目标识别在内的高敏感作战环节。
核心算力支持纳入军方技术升级体系,多厂商并行布局
该合作标志着谷歌正式跻身于为美军提供涉密级别AI服务的企业行列,与OpenAI、xAI等机构同步进入官方采购清单。此项安排是五角大楼2025年推进智能化作战能力的重要一环——当年已向Anthropic、OpenAI及谷歌等头部开发者授予单项价值达2亿美元的专项合同。
安全约束与权限归属机制确立
协议要求谷歌根据政府指令调整其AI系统的安全过滤策略。明确规定,该模型不得被用于国内大规模监控或无人工干预的自主武器系统(含目标选择)。
同时条款强调,谷歌无权干预或否决军事决策流程,最终操作权限完全由国防官员掌握。公司方面重申,始终坚守不支持国内监控与全自动杀伤系统的立场。
“合法用途”定义成焦点,供应链分歧持续发酵
尽管五角大楼公开声明反对对本国公民实施大规模监控或启用全自主武器,但仍坚持保留“任何合法政府用途”的使用弹性。这一态度引发部分技术供应商质疑,尤其是Anthropic,曾明确拒绝解除其Claude模型在特定领域的应用限制。
此举导致该企业被列为“供应链风险”,但并未削弱其技术在军方内部的渗透。有消息显示,美国国家安全局已成功获得Anthropic旗下名为“Mythos Preview”的高阶模型访问权限,该模型以卓越的网络攻防分析能力著称,正被用于探测数字基础设施漏洞。
此局面凸显出军工部门与科技企业之间关于技术边界与控制权的深层张力,核心议题聚焦于“合法用途”的解释权归属,以及在实战场景下安全防护机制的合理尺度。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
