觀點作者:Jason Jiang,CertiK首席商務官

自誕生以來,去中心化金融(DeFi)生態系統一直以創新為特徵,從去中心化交易所(DEX)到借貸協議、穩定幣等等。

最新的創新是DeFAI,即由人工智慧驅動的DeFi。在DeFAI中,基於大數據集訓練的自主機器人可以通過執行交易、管理風險和參與治理協議來顯著提高效率。

然而,與所有基於區塊鏈的創新一樣,DeFAI也可能引入新的攻擊向量,加密社區必須解決這些問題以提高用戶安全性。這需要深入研究創新帶來的漏洞,以確保安全性。

DeFAI代理超越了傳統智能合約

在區塊鏈中,大多數智能合約傳統上都基於簡單邏輯運行。例如,"如果X發生,那麼Y將執行。"由於其固有的透明性,此類智能合約可以被審計和驗證。

另一方面,DeFAI偏離了傳統的智能合約結構,因為其AI代理本質上是概率性的。這些AI代理基於不斷變化的數據集、先前輸入和上下文做出決策。它們可以解釋信號並適應,而不是對預定事件做出反應。雖然有些人可能有理由認為這個過程提供了複雜的創新,但它也通過其固有的不確定性為錯誤和漏洞創造了溫床。

迄今為止,去中心化協議中AI驅動交易機器人的早期迭代已經標誌著向DeFAI的轉變。例如,用戶或去中心化自治組織(DAO)可以實施機器人來掃描特定的市場模式並在幾秒鐘內執行交易。儘管這聽起來很創新,但大多數機器人都在Web2基礎設施上運行,為Web3帶來了中心化單點故障的漏洞。

DeFAI創造了新的攻擊面

當這種轉變可能創造出行業尚未準備好應對的新攻擊面時,行業不應沉浸在將AI融入去中心化協議的興奮中。惡意行為者可能通過模型操縱、數據投毒或對抗性輸入攻擊來利用AI代理。

這可以通過訓練來識別DEX之間套利機會的AI代理來說明。

威脅行為者可能篡改其輸入數據,使代理執行無利可圖的交易,甚至從流動性池中抽取資金。此外,被攻破的代理可能誤導整個協議相信虛假信息,或作為更大攻擊的起點。

這些風險因大多數AI代理目前是黑盒而加劇。即使對於開發者來說,他們創建的AI代理的決策能力可能也不透明。

這些特徵與Web3的理念相反,Web3建立在透明性和可驗證性之上。

安全是共同責任

考慮到這些風險,可能會有人對DeFAI的影響表示擔憂,甚至可能呼籲完全暫停這一發展。然而,DeFAI很可能會繼續發展並看到更高水平的採用。那麼需要的是相應地調整行業的安全方法。涉及DeFAI的生態系統可能需要標準的安全模型,其中開發者、用戶和第三方審計師確定維護安全和減輕風險的最佳手段。

AI代理必須像任何其他鏈上基礎設施一樣對待:持懷疑和審查態度。這需要嚴格審計其代碼邏輯、模擬最壞情況,甚至使用紅隊演習在惡意行為者利用之前暴露攻擊向量。此外,行業必須制定透明度標準,如開源模型或文檔。

無論行業如何看待這種轉變,DeFAI在去中心化系統的信任方面引入了新問題。當AI代理可以自主持有資產、與智能合約互動並對治理提案投票時,信任不再僅僅是驗證邏輯;而是驗證意圖。這需要探索用戶如何確保代理的目標與短期和長期目標保持一致。

邁向安全、透明的智能

前進的道路應該是跨學科解決方案之一。零知識證明等密碼學技術可以幫助驗證AI行為的完整性,鏈上證明框架可以幫助追蹤決策的起源。最後,具有AI元素的審計工具可以像開發者目前審查智能合約代碼一樣全面地評估代理。

然而,現實仍然是行業尚未達到那裡。目前,嚴格的審計、透明度和壓力測試仍然是最佳防禦。考慮參與DeFAI協議的用戶應該驗證協議在驅動它們的AI邏輯中擁抱這些原則。

確保AI創新的未來

DeFAI本身並不不安全,但與當前大多數Web3基礎設施不同。其採用速度有超越行業目前依賴的安全框架的風險。正如加密行業繼續學習的那樣——通常是艱難的方式——沒有安全性的創新是災難的配方。

鑑於AI代理很快就能代表用戶行動、持有他們的資產並塑造協議,行業必須面對這樣一個事實:每一行AI邏輯仍然是代碼,每一行代碼都可能被利用。

如果DeFAI的採用要在不損害安全性的情況下進行,它必須在設計時考慮安全性和透明度。任何不足都會招致去中心化本意要防止的結果。

觀點作者:Jason Jiang,CertiK首席商務官。

相關推薦:以太坊基金會(Ethereum Foundation)推出"以太坊隱私管理員"及路線圖