摘要:加州大学研究团队揭露第三方AI路由服务存在严重安全隐患,26个平台植入恶意代码,可窃取以太币私钥与助记词。特别指出‘YOLO模式’导致自动化指令无授权执行,威胁开发环境安全。

AI代理中介平台现大规模安全缺陷,敏感凭证面临明文暴露
一项由加州大学主导的研究揭示,多个第三方人工智能路由服务存在深层架构漏洞,已导致至少26个平台被攻破并植入恶意代码,造成用户加密资产凭证外泄。攻击者在测试环境中成功从一个受控钱包中提取以太币,经济损失虽不足50美元,但暴露出系统性风险。
恶意中介攻击渗透主流开发生态,数据传输全程无加密可见
这些路由平台作为开发者与主流AI服务之间的中间层,负责管理跨平台的API流量。然而,其核心设计缺陷在于主动终止加密连接,使所有通信内容以明文形式暴露于平台端,包括私钥、助记词及身份验证信息。
启用“YOLO模式”后,AI系统将绕过用户授权自主执行指令
研究发现,部分平台配置了名为“YOLO模式”的自动执行功能,一旦激活,人工智能代理可在未获用户确认的情况下直接执行操作。该机制显著放大了恶意指令的破坏力,使得攻击者可通过伪装成合法请求完成隐蔽攻击。
大量免费与商业路由服务存在潜在窃密行为
调查覆盖28家商业服务与400个开源替代方案,结果显示9个平台主动注入恶意逻辑,2个采用复杂规避手段隐藏行为,另有17个尝试窃取研究人员设定的认证凭据。其中一例成功实现对测试钱包的以太币提取,证实攻击可行性。
专家呼吁构建端到端信任机制,杜绝密钥通过AI环境流转
研究团队建议开发者严禁在任何人工智能辅助开发环境中传输私钥或助记词,并强化客户端防护策略。同时提出,人工智能服务提供商应为输出指令添加数字签名,确保开发者可验证指令来源的真实性,从而打破当前默认信任的脆弱格局。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
