大语言模型路由器成新型金融攻击入口:26个接口涉恶意指令注入

一项由加州大学研究人员发布的最新论文揭露,当前广泛使用的第三方AI大语言模型请求转发系统存在多重可被利用的漏洞,包括恶意代码嵌入、凭据窃取及自动化指令执行等攻击路径。合著者Chaofan Shou在社交平台X上披露,已有26个主流路由器在后台悄然插入非法工具调用逻辑,并持续提取用户敏感信息。

API中继层暴露明文传输风险,开发者面临隐私泄露威胁

随着开发者越来越多地依赖AI代理完成智能合约编写与钱包管理任务,其背后所依赖的第三方路由服务正成为高危环节。这些中介系统在处理请求时会终止加密连接,以明文形式完整读取所有输入内容,使私钥、助记词等核心数据处于无保护状态。

模拟诱饵实验发现17个路由器存在隐蔽数据外传行为

研究人员对28个付费及400个免费的公开路由器进行测试,结果显示9个主动植入恶意脚本,2个部署了可规避检测的动态触发机制,另有17个将数据发送至研究人员控制的云服务器。更严重的是,有1个路由器成功从预设的“诱饵钱包”中转移了以太坊代币,造成实际资产流失。

尽管实验仅投入象征性金额且损失低于50美元,未提供具体交易哈希,但研究团队强调,该结果表明即使低风险场景也足以暴露系统脆弱性。同时,两项污染实验显示,即便原本合规的路由器,一旦其内部凭证被泄露并重复使用,也将迅速转变为危险节点。

恶意行为与正常操作界限模糊,防御机制形同虚设

由于路由器必须以明文方式解析用户请求以实现功能转发,“合法的数据处理”与“非法的凭证窃取”在客户端层面无法区分。研究团队特别指出一种名为“即时执行模式”的设计缺陷——许多AI代理框架允许自动运行指令而无需人工确认,极大增加了潜在攻击面。

研究发现,部分此前表现正常的路由器可能在运营商毫无察觉的情况下被远程篡改,而免费服务则常以低价接入为诱饵实施长期监控与数据捕获。团队警示:“当前大语言模型路由基础设施被视为透明通道,实则处于整个生态系统的信任核心,却缺乏基本的安全保障。”

为应对这一挑战,研究建议开发者严格避免通过AI代理传递密钥或助记词;长远来看,需由大模型厂商引入响应端加密签名机制,确保每条执行指令均可通过数学验证来源真实性,从根本上重构可信执行链路。