AI审计能力遭遇现实挑战:实际漏洞利用成功率归零

最新研究显示,人工智能在应对复杂的智能合约攻击时仍面临显著困难。安全专家指出,AI检测能力与实际漏洞利用执行之间存在明显差距。

测试方法的演进与局限

更新后的研究采用了更广泛的测试配置,研究人员将多种AI模型与不同操作框架相结合。这种方法旨在消除特定系统设置带来的偏差,同时也引发了对早期成果是否反映真实模型性能,抑或仅是优越测试条件的质疑。

该研究还关注到潜在的数据污染问题——过往基准测试依赖于可能已出现在训练数据集中的已知漏洞。为此,研究团队针对22起近期安全事件测试了AI系统,这些事件均发生在2026年2月之后,确保其不在现有训练数据范围内。

模式识别突出但实战能力薄弱

尽管在漏洞利用方面存在局限,AI在检测特定漏洞时仍表现出稳定性能。结果显示,对于溢出错误和操纵模式等常见问题,AI能以较高精度识别。然而面对更复杂的案例,其表现波动显著:部分漏洞完全未被检测到,另一些则仅被单一系统识别。这种不均衡分布凸显了AI在处理陌生或精细威胁时的现有局限性。

研究进一步强调,当获得人类提供的背景信息时,AI工具的反应能力会显著增强;若缺乏指导,其推理复杂攻击路径的能力仍十分有限。

最新研究表明,关于AI驱动审计的预期可能被过度夸大。虽然检测能力仍有其价值,但实际漏洞利用仍需人类参与。因此未来发展路径似乎更倾向于将AI效率与人类专业知识相结合,而非完全取代人工。