民事責任法通常不是聚會上的熱門話題,但它對人工智慧等新興科技的發展方式可能產生巨大影響。

如果責任規則制定不當,可能會透過讓企業家——在這種情況下是人工智慧開發者——面臨不必要的法律風險,從而為未來的創新設置障礙。美國參議員Cynthia Lummis對此持有類似觀點,她於上週提出了2025年《負責任創新與安全專長法案》(RISE Act)。

該法案旨在保護人工智慧開發者免於在民事法庭上被起訴,以便醫生、律師、工程師和其他專業人士「在使用人工智慧之前能夠瞭解其能力與侷限」。

據Cointelegraph聯繫的來源表示,對RISE法案的初步反應大多是積極的,儘管有些人批評該法案的範圍有限,缺乏透明度標準,並質疑是否應為人工智慧開發者提供責任保護。

大多數人認為RISE法案是一個正在進行中的工作,而非最終定稿。

RISE法案是否是人工智慧開發者的「饋贈」?

根據雪城大學麥克斯韋公民與公共事務學院教授Hamid Ekbia的觀點,Lummis的法案是「適時且必要的」。(Lummis稱其為美國「首部針對專業級人工智慧的責任改革立法」。)

但Ekbia在接受Cointelegraph採訪時表示,該法案過於偏向人工智慧開發者。RISE法案要求開發者公開披露模型規格,以便專業人士在使用人工智慧工具時做出明智決定,但:

「它將大部分風險負擔壓在『有學識的專業人士』身上,僅要求開發者以技術規格——模型卡和規格說明——的形式提供『透明度』,並在其他方面為他們提供廣泛的豁免。」

不出所料,有些人很快將Lummis的法案視為對人工智慧公司的「饋贈」。自稱「左傾政治社群」的Democratic Underground在一個論壇中指出,「人工智慧公司不希望因其工具的失敗而被起訴,如果該法案通過,將實現這一目標。」

並非所有人都同意這一觀點。Shipkevich Attorneys at Law的負責人Felix Shipkevich對Cointelegraph表示:「我不會將該法案稱為對人工智慧公司的『饋贈』。」

Shipkevich解釋說,RISE法案提議的豁免條款似乎旨在保護開發者免受大型語言模型不可預測行為所導致的嚴格責任追究,尤其是在沒有疏忽或故意造成損害的情況下。從法律角度看,這是一個合理的方法。他補充道:

「如果沒有某種形式的保護,開發者可能因其無法實際控制的輸出而面臨無限的責任風險。」

該擬議立法的範圍相當狹窄,主要關注專業人士在與客戶或患者打交道時使用人工智慧工具的場景。例如,財務顧問可能使用人工智慧工具為投資者制定投資策略,或放射科醫生可能使用人工智慧軟體程式協助解讀X光片。

RISE法案並未真正涉及人工智慧開發者與最終使用者之間沒有專業中介的情況,例如聊天機器人被用作未成年人的數位伴侶。

最近在佛羅里達州就發生了一起這樣的民事責任案件,一名青少年在與人工智慧聊天機器人互動數月後自殺。死者家屬表示,該軟體的設計對未成年人來說並不合理安全。Ekbia問道:「誰應該為生命的喪失負責?」此類案件在擬議的參議院立法中未被涉及。

薩里大學法學院法律與健康科學教授Ryan Abbott對Cointelegraph表示:「需要明確統一的標準,以便使用者、開發者和所有利益相關者瞭解規則和法律義務。」

但由於人工智慧技術的複雜性、不透明性和自主性,它可能帶來新的潛在危害,這使得制定規則變得困難。Abbott認為,醫療領域在民事責任方面將尤其具有挑戰性,他同時擁有醫學和法學學位。

例如,歷史上醫生在醫療診斷中一直優於人工智慧軟體,但最近有證據表明,在某些醫療實踐領域,人類參與的「人機協作」實際上比完全讓人工智慧獨立工作「結果更差」,Abbott解釋道:「這引發了各種有趣的責任問題。」

如果醫生不再參與其中,發生嚴重醫療錯誤時,誰將支付賠償?醫療事故保險是否會承保?可能不會。

非營利研究組織AI Futures Project初步支持該法案(在法案起草時曾被諮詢)。但執行主任Daniel Kokotajlo表示,對人工智慧開發者要求的透明度披露不夠充分。

「公眾有權知道公司試圖賦予強大人工智慧系統的目標、價值觀、議程、偏見、指令等。」Kokotajlo表示,該法案未要求此類透明度,因此力度不足。

此外,「公司總是可以選擇接受責任而不是保持透明,因此每當公司想做一些公眾或監管機構不喜歡的事情時,他們可以簡單地選擇退出,」Kokotajlo說。

歐盟的「基於權利」的方法

RISE法案與2023年歐盟《人工智慧法案》(AI Act)中的責任條款相比如何?這是主要監管機構首次對人工智慧進行全面監管。

歐盟的人工智慧責任立場一直在變化。歐盟人工智慧責任指令最初於2022年提出,但據稱由於人工智慧產業的遊說,該指令於2025年2月被撤回。

儘管如此,歐盟法律通常採用基於人權的框架。正如最近《加州大學洛杉磯分校法學評論》的一篇文章所指出的,基於權利的方法「強調個人的賦權」,尤其是患者、消費者或客戶等最終使用者。

相比之下,Lummis法案採用的風險為基礎的方法則依賴於流程、文件和評估工具。例如,它更關注偏見檢測和緩解,而不是為受影響的人提供具體權利。

當Cointelegraph詢問Kokotajlo對美國的民事責任是採用「基於風險」還是「基於規則」的方法更合適時,他回答說:「我認為重點應放在基於風險上,並關注那些創建和部署技術的人。」

Shipkevich補充道,歐盟在這些問題上通常採取更積極主動的方法。「他們的法律要求人工智慧開發者提前證明他們遵守安全和透明度規則。」

需要明確的標準

Lummis法案在成為法律之前(如果能通過的話)可能需要一些修改。

Shipkevich表示:「只要將該擬議立法視為一個起點,我對RISE法案持積極態度。畢竟,為那些沒有疏忽且無法控制其模型下游使用方式的開發者提供一些保護是合理的。」他補充道:

「如果該法案能進一步包括真正的透明度要求和風險管理義務,它可能為平衡的方法奠定基礎。」

美國負責任創新組織(ARI)的政策副總裁Justin Bullock表示:「RISE法案提出了一些強有力的想法,包括聯邦透明度指導、有限範圍的安全港以及關於人工智慧專業採用者責任的明確規則,」儘管ARI尚未正式支持該立法。

但Bullock也對透明度和披露表示擔憂——即確保所需的透明度評估有效。他對Cointelegraph表示:

「在沒有強有力的第三方稽核和風險評估的情況下發布模型卡可能會帶來虛假的安全感。」

儘管如此,總體而言,Bullock表示,Lummis法案「是在聯邦人工智慧透明度要求應該是什麼樣子的討論中邁出的建設性第一步」。

假設該立法獲得通過並簽署成為法律,它將於2025年12月1日生效。

相關推薦:Blockdaemon推出機構級非託管質押和DeFi解決方案