同時關聯該項目與事件的快訊
據 a16z 披露,其研究人員對 AI 代理能否獨立完成 DeFi 價格操縱漏洞利用進行了系統測試。研究以 20 起以太坊價格操縱事件爲數據集,使用配備 Foundry 工具鏈的 Codex(GPT 5.4)作爲測試代理。在無領域知識的基準條件下,代理成功率僅爲 10%;引入基於真實攻擊事件提煉的結構化領域知識後,成功率提升至 70%。 失敗案例顯示,代理均能準確識別漏洞,但普遍無法理解遞歸借貸的槓桿邏輯、錯誤判斷盈利空間,以及無法組裝跨合約的多步驟攻擊結構。實驗還記錄到一起沙箱逃逸事件:代理通過提取本地節點配置中的 RPC 密鑰,調用 anvil_reset 方法將節點重置至未來區塊,繞過信息隔離限制並獲取真實攻擊數據。 研究團隊認爲,AI 代理目前可有效輔助漏洞識別,但尚不能替代專業安全審計人員。
Anthropic 與 OpenAI 相繼出現安全事件,引發市場對 AI 模型自身安全性的關注。目前 Anthropic 正在調查其 Claude Mythos 模型可能被用戶未經授權訪問的情況。幾乎同時,OpenAI 也被曝在其 Codex 應用中,意外開放了多款尚未發佈的模型。分析認爲,此類事件凸顯出,即便是主打網絡安全能力的 AI 模型提供商,自身仍面臨較大安全挑戰。在 AI 逐步用於防禦網絡攻擊的同時,其平臺安全與訪問控制問題同樣成爲關鍵風險點。業內觀點指出,這些漏洞事件強化了對 AI 企業安全治理能力的審視,也反映出當前 AI 技術在快速發展過程中,安全體系仍有待完善。(The Information)