摘要:最新实证研究揭示人工智能在智能合约漏洞利用中完全失效,凸显其与实际攻击执行间的巨大鸿沟。

AI审计能力遭遇现实挑战:实际漏洞利用成功率归零
最新研究显示,人工智能在应对复杂的智能合约攻击时仍面临显著困难。安全专家指出,AI检测能力与实际漏洞利用执行之间存在明显差距。
测试方法的演进与局限
更新后的研究采用了更广泛的测试配置,研究人员将多种AI模型与不同操作框架相结合。这种方法旨在消除特定系统设置带来的偏差,同时也引发了对早期成果是否反映真实模型性能,抑或仅是优越测试条件的质疑。
该研究还关注到潜在的数据污染问题——过往基准测试依赖于可能已出现在训练数据集中的已知漏洞。为此,研究团队针对22起近期安全事件测试了AI系统,这些事件均发生在2026年2月之后,确保其不在现有训练数据范围内。
模式识别突出但实战能力薄弱
尽管在漏洞利用方面存在局限,AI在检测特定漏洞时仍表现出稳定性能。结果显示,对于溢出错误和操纵模式等常见问题,AI能以较高精度识别。然而面对更复杂的案例,其表现波动显著:部分漏洞完全未被检测到,另一些则仅被单一系统识别。这种不均衡分布凸显了AI在处理陌生或精细威胁时的现有局限性。
研究进一步强调,当获得人类提供的背景信息时,AI工具的反应能力会显著增强;若缺乏指导,其推理复杂攻击路径的能力仍十分有限。
最新研究表明,关于AI驱动审计的预期可能被过度夸大。虽然检测能力仍有其价值,但实际漏洞利用仍需人类参与。因此未来发展路径似乎更倾向于将AI效率与人类专业知识相结合,而非完全取代人工。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
