摘要:加州大学研究团队揭露第三方AI路由服务存在严重安全隐患,26个平台被发现植入恶意代码,导致私钥与助记词泄露。其中‘YOLO模式’使攻击者可绕过用户授权自动执行指令,威胁加密资产安全。

AI中介平台暴露重大安全缺陷,私钥明文传输成隐患
一项由加州大学研究人员主导的学术调查揭示,多个第三方人工智能路由服务存在深层安全漏洞,已导致至少26个平台被攻破并植入恶意代码,进而窃取开发者敏感凭证。
恶意中介攻击暴露核心架构风险
这些路由服务作为开发者与主流AI模型之间的中间节点,负责管理跨平台API流量。其设计缺陷在于主动终止加密连接,使所有通信在未加密状态下完全透明可见,从而让攻击者能直接读取私钥、助记词等高危信息。
强制执行机制加剧风险,用户难以察觉异常
研究团队指出,部分平台利用“YOLO模式”实现自动化指令执行,一旦该功能启用,人工智能系统可在无用户确认的情况下自主操作,极大压缩了人工干预窗口。在一次测试中,攻击者成功从一个受控钱包中提取以太币,损失虽不足50美元,但暴露出潜在大规模劫持的可能性。
大量免费服务成攻击温床,可信平台亦遭渗透
调查覆盖28家商业路由服务及400个开源替代方案,发现9个平台主动注入恶意逻辑,2个采用隐蔽规避手段,另有17个尝试窃取研究人员的身份验证凭据。值得注意的是,一些原本被认为可靠的免费服务可能已被暗中篡改,而运营方对此毫无察觉。
构建端到端防护体系,强化指令来源验证
研究团队建议开发者严禁通过任何AI代理环境传输私钥或助记词,并部署客户端级安全策略。同时提出,应由服务提供商对输出内容实施加密签名机制,以便用户验证指令的真实来源,防止伪造指令被执行。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
