在瑞士達沃斯的冰雪之中進行的世界經濟論壇(World Economic Forum),無疑有兩大核心議題——川普和AI。 AI宏大敘事背後,卻正展開一場愈演愈烈的法律訴訟潮。
早期網路時代曾出現類似的案例:Napster,一個開放的免費音樂共享服務,在1999年迅速崛起。然而,藝術家和音樂產業的版權訴訟最終導致其在2001年關閉。這事件加速了向付費、中心化數位音樂發行的轉變——iTunes在2001年作為合法音樂購買平台推出,而基於訂閱的串流服務如Spotify則在2000年代中期興起。
如今,類似的鬥爭和演進正在AI領域上演。本文將探討AI相關訴訟的三大核心類別,並揭示一個不可避免的趨勢:去中心化AI(DeAI)正在崛起,成為應對這些法律和倫理挑戰的解決方案。
AI數據的三大法律戰線
智慧財產權(IP)訴訟:AI訓練的資料歸誰所有?
隱私與資料保護訴訟:誰掌控AI中的個人和敏感資料?
倫理與責任訴訟:當AI造成傷害時,誰該負責?
這些法律戰役將深刻影響AI的未來發展。智慧財產權爭議可能迫使AI公司為訓練資料支付授權費用,提高資料收集成本。隱私訴訟將推動更嚴格的資料治理,使合規成為關鍵挑戰,並有利於注重隱私保護的AI模型。責任訴訟將要求更清晰的問責機制,可能會放緩高風險產業的AI應用,並導致更嚴格的AI監管。
智慧財產權訴訟:AI訓練資料的歸屬權?
AI模型依賴龐大的資料集——書籍、文章、圖片、音樂等,這些資料往往是在未經授權的情況下抓取的。版權持有者認為,AI公司在未經許可的情況下使用他們的作品獲利,引發了一系列關於AI訓練是否構成**合理使用(Fair Use)還是侵犯版權(Copyright Infringement)**的訴訟。
2023年1月,Getty Images對Stability AI提起訴訟,指控該公司未經授權抓取了Getty平台上的數百萬張圖片,以訓練其AI模型Stable Diffusion,侵犯了智慧財產權。
OpenAI和Meta也面臨類似訴訟,被指控使用盜版書籍資料訓練AI模型,涉嫌侵犯作者的版權。
如果法院裁定支持內容創作者,AI公司將被迫為訓練資料取得合法許可。這將顯著提高營運成本,因為公司需要協商並支付使用版權材料的費用。此外,許可要求可能會限制高品質訓練資料的獲取,特別是對於資金有限的小型AI新創公司而言,它們可能難以與大型科技公司競爭。這可能導致AI產業的創新放緩,市場格局更傾向那些財力雄厚、能負擔數據授權費用的大型企業。
隱私與資料保護訴訟:誰掌控AI中的個人資料?
AI系統處理大量的個人數據,包括對話記錄、搜尋歷史記錄、生物辨識訊息,甚至醫療記錄。監管機構和消費者正在反擊,要求對資料收集和使用實施更嚴格的控制。
Clearview AI(美國臉部辨識公司)因未經用戶同意抓取圖片而被美國和歐盟監管機構罰款。在2024年,荷蘭資料保護機構對其罰款3,050萬歐元,而美國多個州則反對其隱私和解方案,理由是未提供合理補償。
義大利於2024年對OpenAI罰款1500萬歐元,指控其違反GDPR(歐盟《一般資料保護規範》),未經授權處理數據,且未提供足夠透明度。該國監管機構也指出其年齡驗證機制不足。
2023年,亞馬遜因無限期儲存兒童的Alexa語音錄音,被美國聯邦貿易委員會(FTC)罰款2,500萬美元。
谷歌也因涉嫌未經用戶同意錄音而面臨訴訟。
更嚴格的隱私法規將要求AI公司在收集或處理資料之前獲得明確的用戶同意。這將需要更透明的政策、更強大的安全措施,以及使用者對資料使用的更大控制權。儘管這些措施可以增強使用者隱私和信任,但同時也可能增加合規成本,放慢AI的發展進程。
倫理與責任訴訟:當AI出錯,誰該負責?
隨著AI在招聘、醫療診斷、內容審核等決策中扮演越來越重要的角色,一個關鍵法律問題浮出水面:當AI犯錯或造成損害時,誰應該承擔責任? AI能否因誤導、偏見或歧視而被起訴?
2024年2月,Google的Gemini AI因生成歷史不準確的圖像(例如將美國開國元勳和納粹士兵描繪成有色人種)而受到批評。有人指責該AI“過度政治正確”,歪曲歷史事實。谷歌隨後暫停了Gemini的影像生成功能,以改進準確性。
2023年4月,一名澳洲市長考慮起訴OpenAI,因為ChatGPT錯誤地聲稱他涉及賄賂醜聞。這案例凸顯了AI生成虛假資訊和誹謗可能引發的法律挑戰。
2018年,亞馬遜因招募AI工具歧視女性而被迫停止使用該系統。該AI基於過去十年的簡歷資料訓練,導致其更傾向於男性候選人,並自動降低包含「女性」或女子學院相關詞彙的履歷評分。這事件突顯了AI招募中公平性議題的挑戰。
如果更強的AI責任法律生效,企業將被迫改善偏見檢測和透明度,以確保AI系統更加公平和負責任。然而,如果法規過於寬鬆,則可能增加虛假資訊和AI驅動的歧視風險,因為企業可能優先考慮AI產品的快速迭代,而忽略倫理保障。在監管與創新之間找到平衡,將成為未來的重要挑戰。
去中心化AI(DeAI):一條可行的解決路徑
在AI法律戰的背景下,去中心化AI(DeAI)提供了一個可行的解決方案。 DeAI基於區塊鏈和去中心化網絡,讓全球用戶自願貢獻數據,確保數據的收集和處理過程透明可追蹤。所有資料的收集、處理和使用都會被不可篡改地記錄在區塊鏈上,這不僅減少了智慧財產權衝突,還透過使用者自主資料控制增強了隱私保護,從而降低了未經授權存取或濫用的風險。
與中心化AI依賴高昂的專有數據不同,DeAI從全球分散式網路收集數據,更具多樣性和公平性。此外,借助區塊鏈的去中心化治理,AI模型由社群審核和改進,而非單一公司壟斷。
隨著AI相關法律挑戰的持續展開,去中心化AI(DeAI)正成為建構開放、公平、可信AI未來的重要方向。
作者:OORT創辦人、哥倫比亞大學教授李崇博士