觀點作者:Avinash Lakshman,Weilliptic創始人兼首席執行官

當今的科技文化喜歡首先解決令人興奮的部分——巧妙的模型、討人喜歡的功能——並將問責制和道德規範視為未來的附加功能。但當AI的底層架構不透明時,任何事後故障排除都無法闡明和從結構上改進輸出的生成或操縱方式。

這就是為什麼我們會遇到Grok將自己稱為"假埃隆·馬斯克"以及Anthropic的Claude Opus 4在意外刪除公司代碼庫後訴諸謊言和勒索的案例。自這些頭條新聞曝光以來,評論員將責任歸咎於提示工程、內容政策和企業文化。雖然所有這些因素都發揮了作用,但根本缺陷是架構性的。

我們要求從未為審查而設計的系統表現得好像透明度是原生功能一樣。如果我們想要人們可以信任的AI,基礎設施本身必須提供證明,而不是保證。

當透明度被設計到AI的基礎層時,信任就會成為推動者而非約束。

AI道德規範不能是事後考慮

在消費者技術方面,道德問題通常被視為產品規模化後需要解決的發布後考慮因素。這種方法類似於在聘請工程師確認地基符合規範之前建造一座30層的辦公大樓。你可能會幸運一段時間,但隱藏的風險會悄悄積累,直到出現問題。

當今的中心化AI工具也不例外。當一個模型批准欺詐性信貸申請或產生醫療診斷幻覺時,利益相關者將要求並理應獲得審計追蹤。哪些數據產生了這個答案?誰微調了模型,如何微調的?哪個防護措施失效了?

當今大多數平台只能混淆和轉移責任。它們所依賴的AI解決方案從未被設計為保留此類記錄,因此不存在或無法追溯生成這些記錄。

能夠自證的AI基礎設施

好消息是,使AI值得信賴和透明的工具是存在的。在AI系統中強制執行信任的一種方法是從確定性沙盒開始。相關:密碼朋克AI:2025年無審查、無偏見、匿名AI指南

每個AI代理都在WebAssembly內運行,因此如果你明天提供相同的輸入,就會收到相同的輸出,這對於監管機構詢問為什麼做出某個決定時至關重要。

每次沙盒發生變化時,新狀態都會被加密哈希並由一小群驗證者簽名。這些簽名和哈希被記錄在區塊鏈賬本中,任何單方都無法重寫。因此,賬本成為不可變的日誌:任何有權限的人都可以重放鏈並確認每一步都完全按記錄發生。

由於代理的工作內存存儲在同一賬本上,它可以在崩潰或雲遷移後繼續存在,而無需通常的附加數據庫。訓練產物(如數據指紋、模型權重和其他參數)也以類似方式提交,因此任何給定模型版本的確切血統都是可證明的,而不是傳聞性的。然後,當代理需要調用外部系統(如支付API或醫療記錄服務)時,它會通過策略引擎,該引擎會在請求中附加加密憑證。憑據保持鎖定在保險庫中,憑證本身與允許它的策略一起記錄在鏈上。

在這種面向證明的架構下,區塊鏈賬本確保不可變性和獨立驗證,確定性沙盒消除不可重現的行為,策略引擎將代理限制在授權操作範圍內。它們共同將可追溯性和策略合規性等道德要求轉變為可驗證的保證,有助於催化更快、更安全的創新。

考慮一個數據生命週期管理代理,它對生產數據庫進行快照、加密並在鏈上存檔,並在幾個月後處理客戶的刪除權請求,同時掌握這些上下文。

每個快照哈希、存儲位置和數據刪除確認都會實時寫入賬本。IT和合規團隊可以通過檢查一個可證明的工作流程來驗證備份是否運行、數據是否保持加密以及是否完成了適當的數據刪除,而不是篩選分散的、孤立的日誌或依賴供應商儀表板。

這只是自主的、面向證明的AI基礎設施如何簡化企業流程的無數例子之一,在保護企業及其客戶的同時,開啟全新形式的成本節約和價值創造。

AI應該建立在可驗證的證據之上

最近AI的頭條失敗案例並沒有揭示任何單個模型的缺陷。相反,它們是"黑盒"系統的無意但不可避免的結果,在這種系統中,問責制從未成為核心指導原則。

一個攜帶自身證據的系統將對話從"相信我"轉變為"自己檢查"。這種轉變對監管機構、個人和專業使用AI的人以及名字最終出現在合規信函上的高管都很重要。

下一代智能軟體將以機器速度做出重大決策。

如果這些決策仍然不透明,每個新模型都是新的責任來源。

如果透明度和可審計性是原生的、硬編碼的屬性,AI自主性和問責制就可以無縫共存,而不是處於緊張狀態。

觀點作者:Avinash Lakshman,Weilliptic創始人兼首席執行官。

相關推薦:比特幣(BTC)礦企CleanSpark宣布進軍AI領域,股價飆升