摘要:加州大学研究团队揭露第三方AI路由服务存在严重安全隐患,26个主流路由器暗中窃取用户凭证,部分已实际盗取以太币。研究指出,当前架构下明文传输与自动执行机制使攻击难以察觉,呼吁强化客户端防护与模型响应签名。

AI中间件成新风险源:26个LLM路由器被指藏匿恶意代码
美国加利福尼亚大学科研团队发布最新报告,揭示当前广泛使用的第三方大型语言模型(LLM)路由系统存在重大安全缺陷,可能引发加密钱包私钥与助记词泄露,进而导致数字资产被盗。
供应链攻击暴露关键架构弱点
研究团队在论文中详细分析了针对AI模型请求链路的多种恶意中间人攻击路径,确认包括代码注入、凭证提取在内的四种典型威胁形式。其中,合著者Chaofan Shou指出,已有26个公开运行的路由器被证实植入隐蔽工具调用模块,并持续收集用户敏感数据。
实测发现多类高危异常行为
研究人员对28个付费及400个免费路由器进行测试,结果显示9个存在恶意脚本注入;2个采用动态规避策略以逃避检测;另有17个成功获取实验团队持有的亚马逊云服务访问凭据。更严重的是,一个路由器已从其测试账户中实际提取以太币,尽管损失金额低于50美元且交易哈希未公开。
通过两次“污染实验”验证,即使看似正常的路由器,在遭遇复用已泄露凭证的脆弱中继结构时,也可能转化为攻击跳板,凸显系统性风险。
隐蔽攻击难以实时识别
最令人担忧的是,恶意活动与正常操作在客户端层面几乎无法区分。研究团队强调:“‘处理凭证’与‘窃取凭证’的行为在前端无明显差异,用户难以感知。”此外,多数AI代理框架支持无需人工确认即可执行指令的“YOLO模式”,使得原本合规的路由服务可能在运营方不知情情况下被劫持并用于非法目的。
为应对这一挑战,研究建议开发者在客户端实施更强防护机制,避免将私钥或助记词输入至任何由第三方控制的代理会话中。长远来看,应推动模型提供方对输出结果进行密码学签名,从而确保指令来源可验证、不可篡改。
该发现警示业界:随着AI辅助开发在加密领域普及,其背后基础设施的安全性正成为潜在突破口。未来对整个AI供应链的全面审计与透明化管理,或将迫在眉睫。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
