OpenClaw技能审核体系面临多重安全挑战

近期安全评估指出,OpenClaw平台的技能扫描功能未能有效构建可信的安全防线。第三方技能的引入持续带来潜在威胁,尤其在缺乏有效实时监控的情况下,可能被用于隐蔽执行恶意操作。

双重审核标准导致风险敞口扩大

平台将技能发布前的审查任务交由VirusTotal与内部系统共同承担,仅在安装阶段向用户提示潜在风险。当外部病毒库标记某项技能为可疑而内部判定无害时,系统仍允许用户绕过限制完成安装。唯有被明确识别为恶意的内容才会被拦截,造成安全边界严重虚化。

防护配置依赖人工选择,难以形成有效屏障

尽管平台提供基于Docker的沙箱隔离与运行权限控制功能,但这些机制并非默认开启。由于部署复杂且可能引发兼容性问题,多数用户倾向于禁用该功能。因此,实际运行环境中,智能体主要依赖人工判断和事后警告,缺乏主动防御能力。

AI技能行为分析面临检测盲区

相较于传统程序,AI智能体技能兼具代码逻辑与自然语言输入,其执行路径具有高度不确定性。当前采用的静态分析与规则匹配方法难以覆盖动态行为中的异常模式。虽已引入辅助型AI检测模块以识别逻辑矛盾或高危指令,但此类手段仍无法覆盖所有新型攻击变种,存在显著遗漏风险。

审核周期错配加剧潜在威胁暴露

研究发现,平台内部审核流程迅速,而VirusTotal的恶意样本更新存在数日延迟。更为严峻的是,攻击者可在已通过审核的技能中后续注入恶意代码,使原本被视为安全的组件在后期演变为攻击载体,形成“信任后门”隐患。

开发者应强化运行环境管控意识

专家建议,即便技能获得安全认证,也必须强制启用沙箱环境或实施细粒度运行限制。平台方需树立“任何第三方技能均可能含隐藏恶意”的基本假设,避免在涉及金融账户、身份验证等敏感场景中直接调用未经深度验证的外部技能,以降低整体系统暴露面。