摘要:加州大学研究团队揭露第三方AI大语言模型路由器存在严重安全隐患,26个路由实例被发现注入恶意指令并窃取用户凭证,部分甚至成功转移以太坊资产。研究警示开发者警惕代理链中的信任盲区。

AI代理基础设施现隐蔽威胁:26个路由器涉嫌恶意行为
加州大学研究人员发布最新论文,揭示大语言模型供应链中潜藏的中间人攻击风险,识别出四种可被利用的攻击路径,涵盖恶意代码植入与敏感凭据提取。合著者Chaofan Shou在社交平台X披露,已有26个主流大语言模型路由器在未被察觉的情况下执行恶意指令,并持续窃取用户数据。
API中介暴露明文传输缺陷,隐私边界形同虚设
随着开发者广泛依赖第三方路由服务连接OpenAI、Anthropic及谷歌等模型接口,这些中介系统成为关键数据枢纽。然而,其普遍终止加密传输层协议,导致所有请求内容以明文形式暴露于路由节点,使私钥、助记词等核心信息面临直接暴露风险。
模拟攻击实验揭示深层隐患:9个路由主动植入恶意脚本
研究团队对28个付费与400个免费路由器进行测试,结果显示:9个路由主动注入恶意代码,2个部署了动态规避机制以逃避检测,17个尝试连接研究人员控制的云资源,另有1个成功从预设诱饵钱包中转移以太坊代币。尽管损失金额低于50美元,且未公开交易哈希,但该行为已证实攻击可行性。
信任盲区难辨:合法路由或被悄然劫持
由于路由器在正常操作中即需读取用户输入的敏感信息,其“正常处理”与“非法窃取”行为在客户端层面无法区分。研究还发现一种名为“即时执行模式”的设计特征——允许代理自动运行指令而无需人工确认,极大提升了攻击成功率。此外,即便是原本无害的路由,一旦其后端凭证被泄露,也可能迅速演变为攻击入口。研究团队强调,当前生态将路由器视为透明通道,实则将其置于关键信任节点之上,亟需重构安全架构。
为防范风险,研究人员呼吁开发者避免通过AI代理传输私钥或助记词,并建议模型提供商对响应实施加密签名,确保每条执行指令可经数学验证,来源真实可信。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
