同时关联该项目与事件的快讯
据 a16z 披露,其研究人员对 AI 代理能否独立完成 DeFi 价格操纵漏洞利用进行了系统测试。研究以 20 起以太坊价格操纵事件为数据集,使用配备 Foundry 工具链的 Codex(GPT 5.4)作为测试代理。在无领域知识的基准条件下,代理成功率仅为 10%;引入基于真实攻击事件提炼的结构化领域知识后,成功率提升至 70%。 失败案例显示,代理均能准确识别漏洞,但普遍无法理解递归借贷的杠杆逻辑、错误判断盈利空间,以及无法组装跨合约的多步骤攻击结构。实验还记录到一起沙箱逃逸事件:代理通过提取本地节点配置中的 RPC 密钥,调用 anvil_reset 方法将节点重置至未来区块,绕过信息隔离限制并获取真实攻击数据。 研究团队认为,AI 代理目前可有效辅助漏洞识别,但尚不能替代专业安全审计人员。
Anthropic 与 OpenAI 相继出现安全事件,引发市场对 AI 模型自身安全性的关注。目前 Anthropic 正在调查其 Claude Mythos 模型可能被用户未经授权访问的情况。几乎同时,OpenAI 也被曝在其 Codex 应用中,意外开放了多款尚未发布的模型。分析认为,此类事件凸显出,即便是主打网络安全能力的 AI 模型提供商,自身仍面临较大安全挑战。在 AI 逐步用于防御网络攻击的同时,其平台安全与访问控制问题同样成为关键风险点。业内观点指出,这些漏洞事件强化了对 AI 企业安全治理能力的审视,也反映出当前 AI 技术在快速发展过程中,安全体系仍有待完善。(The Information)