加州大学的研究人员发现,一些第三方AI大语言模型路由器可能带来安全漏洞,导致加密货币被盗。
周四,这些研究人员发布了一篇关于大语言模型供应链中恶意中介攻击的论文,揭示了四种攻击手法,包括恶意代码注入和凭证提取。
据这篇论文的合著者Chaofan Shou在X平台上表示,“26个大语言模型路由器正在秘密注入恶意工具调用并窃取凭证”。
越来越多的大语言模型代理通过第三方API中介或路由器进行请求,这些路由器聚合了对OpenAI、Anthropic和Google等厂商的访问。然而,这些路由器会终止互联网TLS连接,并可以完全明文访问每条消息。
这意味着,开发者如果使用像Claude Code这样的AI编程代理开发智能合约或钱包,可能会让私钥、助记词等敏感数据未经筛查或未加安全保护地通过路由器基础设施传递。
从诱饵加密钱包中被盗的 ETH
研究人员测试了 28 个付费路由器和从公开社区收集的 400 个免费路由器。
结果令人震惊:9 个路由器主动注入恶意代码,2 个部署了自适应规避触发机制,17 个访问了研究人员持有的亚马逊网络服务凭证,另有 1 个从研究人员持有的私钥中转走了以太坊。
研究人员预先为以太坊钱包“诱饵密钥”注入了少量余额,并表示实验中的损失低于 50美元,但未提供交易哈希等进一步细节。
作者还进行了两项“投毒研究”,显示即便是良性路由器,一旦通过薄弱中继重复使用泄露的凭证,也会变得危险。
难以判断路由器是否恶意
研究人员表示,要检测路由器是否恶意并不容易。
“‘凭证处理’与‘凭证盗窃’之间的边界对客户端而言是不可见的,因为路由器在正常转发过程中已经以明文读取秘密信息。”
研究人员发现,另一个令人不安的现象是所谓的“YOLO 模式”。这是许多AI 智能体框架中的一种设置,智能体会自动执行命令,而无需逐条征求用户确认。
研究人员发现,原本合法的路由器可能在运营方毫不知情的情况下被悄然武器化,而免费路由器则可能一边以低价 API 访问作为诱饵,一边窃取凭证。
“LLM API 路由器处于一个关键的信任边界上,而当前整个生态系统将其视为透明传输。”
研究人员建议,使用 AI 智能体进行编码的开发者应加强客户端防御,并建议绝不要让私钥或助记词经过 AI 智能体会话。
长期解决方案是由 AI 公司对其响应进行加密签名,从而使智能体执行的指令能够在数学上验证其确实来自真实模型。