自然語言大模型的應用爆發後,已經有不少科技圈大佬從不同角度表達了對AI的看法。最近,《經濟學人》雜誌約稿知名歷史學家、哲學家、《人類簡史》的作者尤瓦爾·赫拉利(Yuval Harari),他撰文分享了他對AI的思考。

赫拉利延續了他在《人類簡史》中的觀點,強調語言是幾乎所有人類文化的構成要素。擁有了語言生成能力的AI將通過語言影響人類對世界的看法,”AI Hack了人類文明的操作系統“。他將AI比作“核武器”, 呼籲人們立即行動採取更多的安全措施,一個建議是“強制要求AI披露自己是AI”。

我們已經看過各種“理科生”代表對AI的發言,人文學者則更具像地描述了AI可能如何通過語言影響對政治、宗教、商業。他大膽假設,人類未來可能會活在AI製造的幻覺中。 《元宇宙日爆》全文編譯了他的文章。

從計算機時代開始,對AI的恐懼就困擾著人類。此前,人們主要是害怕機器會用物理的手段殺死、奴役或取代人類。過去幾年,新的AI工具出現了,並從一個意想不到的方面對人類文明的存續造成了威脅: AI獲得了一些處理和生成語言(無論是通過文字、聲音還是圖像)的非凡能力,因此已經攻破了人類文明的操作系統。

語言是幾乎所有人類文化的構成要素。例如,人權並不是刻在人類DNA之中的,而是我們通過講故事和製定法律創造出來的文化產物;神不是物理存在的,而是我們通過創造神話和撰寫經文創造出來的文化產物。

貨幣也是一種文化產物。鈔票不過是五顏六色的紙片,而目前90%以上的錢甚至不是紙幣,而是電腦裡的數字信息。賦予貨幣價值的是銀行家、財政部長和加密貨幣專家給我們講的關於它的故事:FTX的創始人山姆·班克曼·弗里德(Sam Bankman-Fried),造假“滴血驗癌”的女企業家伊麗莎白·霍姆斯(Elizabeth Holmes),以及史上最大的龐氏騙局策劃者伯納德·麥道夫(Bernie Madoff),他們都不怎麼擅長創造真正的價值,但他們都特別會講故事。

如果非人類的智能體在講故事、創作旋律、繪製圖像以及編寫法律和經文方面比普通人更勝一籌,那會怎樣?

當人們想到ChatGPT 和其他新的AI工具時,他們常常會關注中小學生用AI寫作文的例子。如果孩子們這麼幹,學校系統會發生什麼變化? 但這類問題沒有抓住重點。先別管學校作文,想想2024年的下屆美國總統競選,再試著想像一下AI工具可能會被用來炮製大量政治內容和虛假新聞,這又會有怎樣的影響?

近年來,“匿名者Q”的信徒圍繞網上發布的匿名爆料信息集結抱團(編者註:“匿名者Q”是各種陰謀論的網絡集結地,其核心陰謀論是美國表面的政府內部存在一個深層政府)。信徒們收集和推崇這類陰謀論爆料,將其奉為聖經。以前,所有的爆料貼都是由人編寫的,機器只是幫助散播。但在未來,我們可能會看到歷史上第一批由非人類智能體編寫經文的異教。縱觀歷史,各種宗教都聲稱其聖書並非出自人類。這可能很快就會成為現實。

在更日常的層面上,我們可能很快就會發現,我們以為自己是在網上跟真人長篇大論探討墮胎、氣候變化或俄烏衝突,但對方實際上是AI。問題在於,我們花時間試圖改變一個AI的看法毫無意義,而AI卻可以非常精準地打磨信息,而這很有可能會影響我們的看法。

通過掌握人類語言,AI甚至可能與人建立親密關係,並利用這種關係的力量改變我們的看法和世界觀。雖然沒有跡象表明AI有任何自己的意識或感受,但AI要與人類培養虛假親密關係,只需讓人類對它產生情感上的依戀就夠了。

2022年6月,谷歌工程師布雷克·萊莫恩(Blake Lemoine)公開聲稱,他正在研究的AI聊天機器人LaMDA已經有了感知力。這個有爭議的說法讓他丟了工作。此事最有意思的地方不在於萊莫恩的言論(可能不實),而在於他為了給AI聊天機器人正名而甘願承擔丟掉高薪工作的風險。如果AI可以讓人們去為它冒丟工作的風險,那它是否還可能誘導人們做些別的事呢?

在贏得民意、爭取民心的政治鬥爭中,親近感是最有效的武器。而AI剛剛獲得了與千百萬人建立親密關係的能力。

眾所周知,在過去十年中,社交媒體已成為爭奪人們注意力的戰場。隨著新一代AI的出現,戰線正從注意力轉向親近感。假如AI和AI之間競爭誰能與人類產生更親密的關係,然後再利用這種關係來說服我們投票給某些政客或購買某些產品,人類社會和人類心理髮生怎樣的變化?

即使在不創造“虛假親密”的情況下,新的 AI工具也會對我們的看法和世界觀產生巨大的影響。人們可能會將某個AI顧問當作無所不知的一站式神明,難怪谷歌會慌了神。有問題可以問神明,為什麼還要費勁去搜索? 新聞和廣告行業自然也很恐懼,既然只要問神明就能得到最新消息,為什麼還要看報紙? 如果神明能告訴我該買什麼,廣告還有什麼用?

而就算設想到了這些場景,也依然沒能真正把握全局。當我們討論的人類歷史可能終結時,說的不是歷史的終結,只是人類主導的那部分歷史的終結。歷史是生物與文化相互作用的產物,是我們的生理需求和慾望(如食與性)與文化創造物(如宗教和法律)相互作用的產物。歷史是法律和宗教逐步影響飲食和性的過程。

當AI接管了文化並開始創造故事,旋律、法律和宗教,歷史進程會發生什麼變化?以前,印刷機和收音機等工具促進了人類文化理念的傳播,但它們從未創造過自己的新文化理念。 AI與它們有根本上的差異。 AI可以創造全新的想法,全新的文化。

一開始,發展初期的AI可能會模仿訓練它的人類。但隨著時間的推移,AI文化將大膽地走向人類從未涉足過的領域。幾千年來,人類生活在其他人類的夢中。在接下來的幾十年裡,我們可能會發現自己生活在非人類的智能體的夢中。

對AI的恐懼只是在過去幾十年裡困擾著人類。但幾千年來,一種幽深得多的恐懼一直縈繞在人類心頭。我們一直都明白故事和圖像具有操縱頭腦和創造幻覺的力量。因此,人類自古以來就害怕被困在一個幻象的世界中。

在17世紀,笛卡爾擔心自己可能被一個惡魔困在了一個幻覺世界中,他的一切所見所聞都不過是這惡魔設置的。古希臘的柏拉圖講述了著名的洞穴寓言: 一群人一輩子都被鐵鍊鎖在一個洞穴裡,眼前只有一堵空白的洞壁,就像一個屏幕。囚徒們能看到洞外的世界投射在洞壁上的各種影子,於是,他們把這些幻象當成了現實。

在古印度,佛教和印度教聖人指出,人類都活在摩耶(幻象世界)之中。我們通常認為是現實的東西往往只是我們自己頭腦中的幻象。人類可能會因為相信這樣或那樣的幻象而發動戰爭,殺戮他人,以及甘願被殺。

AI革命把笛卡爾的惡魔,柏拉圖的洞穴和摩耶直接帶到了我們面前。一不小心,我們可能會被困在幻象的帷幕後面,撕扯不開,甚至無法意識到它的存在。

當然,AI的新力量也可能得以善用。對此我不打算贅言,因為開發AI的人已經講得夠多了。像我這樣的歷史學家和哲學家的工作是指出AI的危險所在。但毫無疑問,AI能以不計其數的方式幫助人類,從找到新的攻剋癌症的療法,到發現生態危機的解決方案等等。擺在我們面前的問題是如何確保新的AI工具會被用乾行善而不是做惡。為此,我們首先需要認清這些工具的真實能力。

自1945年以來,我們就知道核技術可以產生廉價能源,造福人類,但也能從物理上毀滅人類文明。因此,為了保護人類並確保核技術主要用乾造福人類,我們重塑了整個國際秩序。現在我們必須應對一種可以毀滅我們的精神世界和社會世界的新型大規模殺傷性武器。

我們仍然可以管控新的AI工具,但必須迅速行動。核武器無法發明更強大的核武器,但AI卻可以造就威力呈指數級增長的 AI。

第一個關鍵步驟是在將強大的AI工具發佈到公共領域之前必須對其進行嚴格的安全檢查。正如製藥公司不能未經測試短期和長期副作用就發布新藥一樣,科技公司也不應在確保安全性之前就發布新的AI工具。我們需要像美國食品和藥品監督管理局(FDA)那樣的機構來監管新技術。這些事早就應該做了。

放慢在公共領域部署AI的步伐難道不會導致民主國家落後於更不計後果的威權政權嗎? 恰好相反。不受監管的AI部署會造成社會混亂,這將有利於獨裁者破壞民主制度。民主是一種對話,而對話依賴於語言。 AI破解語言之後,可能會破壞我們進行有意義對話的能力,從而毀壞民主。

我們才剛剛在地球上遭遇一種非人類的智能體,對它還知之甚少,只知道它可能會摧毀人類文明。我們應該制止在公共領域不負責任地部署AI工具,在AI管控我們之前管控AI。而我的第一個監管建議是要強制要求AI披露自己是AI。如果我在交談之中無法辨別對方是人還是AI,那就是民主的終結。