作者: Gil Press
編譯:Felix, PANews
2025 年7 月9 日,英偉達成為首家市值達4 兆美元的上市公司。接下來英偉達和起伏不定的AI 領域又將何去何從?
儘管預測很難,但有大量的數據可供利用。至少能幫助看清過去的預測為何沒有實現,以及是在哪些方面、以何種方式、出於什麼原因未能實現。這就是歷史。
在人工智慧( AI)80 年的發展歷程中,可以學到哪些經驗教訓?這段歷程中,資金投入時高時低,研究與開發方法千差萬別,大眾對其時而充滿好奇,時而感到焦慮,時而又滿懷興奮。
AI 的歷史始於1943 年12 月,當時神經生理學家沃倫·S·麥卡洛克和邏輯學家沃爾特·皮茨發表了一篇關於數理邏輯的論文。在《神經活動中固有觀念的邏輯演算》一文中,他們推測了理想化和簡化的神經元網絡,以及它們如何透過傳遞或不傳遞脈衝來執行簡單的邏輯運算。
當時正在開創組織化學這一領域的拉爾夫·利利(Ralph Lillie)將麥卡洛克和皮茨的工作描述為在缺乏“實驗事實”的情況下賦予“邏輯和數學模型以'現實性'”。後來,當論文的假設未能通過實證檢驗時,麻省理工學院的傑羅姆·萊特文(Jerome Lettvin)指出,雖然神經病學和神經生物學領域忽視了這篇論文,但它卻激勵了「那些注定要成為新領域(如今被稱為AI )愛好者的群體」。
事實上,麥卡洛克和皮茨的論文啟發了“聯結主義”,即當今占主導地位的AI 的特定變體,如今被稱為“深度學習”,最近又被重新命名為“ AI ”。儘管這種方法與大腦實際運作方式毫無關聯,但支撐這種AI 變體的統計分析方法——“人工神經網絡”,通常被AI 從業者和評論員描述為“模仿大腦”。權威人士、頂尖AI 從業者德米斯·哈薩比斯(Demise Hassabis)在2017 年宣稱,麥卡洛克和皮茨對大腦運作方式的虛構描述以及類似的研究「持續為當代深度學習研究奠定基礎」。
教訓一:要警惕將工程學與科學混為一談,將科學與推測混為一談,以及將科學與滿是數學符號和公式的論文混為一談。最重要的是,要抵制「我們如同神明」這種錯覺的誘惑,即認為人類與機器無異,人類能夠創造出像人類一樣的機器。
這種頑固且普遍存在的傲慢在過去80 年裡一直是科技泡沫以及AI 週期性狂熱的催化劑。
這不禁想起通用AI(AGI),即很快就會擁有類人智能甚至超級智能的機器的想法。
1957 年,AI 先驅赫伯特·西蒙宣稱:「如今世界上已有了能思考、能學習、能創造的機器。」他還預言,十年內計算機將成為國際象棋冠軍。 1970 年,另一位AI 先驅馬文·明斯基自信滿滿地表示:“在三到八年之內,我們就會擁有一台具有普通人一般智力的機器……一旦計算機掌控了局面,我們可能就再也無法奪回了。我們將仰仗它們的恩賜而生存。如果幸運的話,它們或許會決定把我們當作寵物養著。”
對通用AI 即將問世的預期意義非凡,甚至影響政府的開支和政策。 1981 年,日本為第五代電腦計畫撥款8.5 億美元,旨在開發出像人類一樣思考的機器。對此,美國國防高級研究計劃局在經歷了漫長的「 AI 寒冬」之後,於1983 年計劃重新資助AI 研究,以開發出能「像人類一樣看、聽、說和思考」的機器。
世界各地開明的政府花了大約十年時間和數十億美元,才不僅對通用AI (AGI)有了清醒的認識,也認識到傳統AI 的局限性。但到了2012 年,聯結主義終於戰勝了其他AI 流派,新一輪關於通用AI 即將來臨的預測席捲全球。 OpenAI 在2023 年宣稱,超級智慧AI ——「人類有史以來最具影響力的發明」——可能在本十年內到來,並且「可能導致人類失去權力,甚至人類滅絕」。
教訓二:警惕那些光鮮亮麗的新事物,要仔細、審慎、明智地審視它們。它們可能不會與先前關於機器何時能擁有與人類相似智慧的種種猜測有多大不同。
深度學習的“教父”之一Yann LeCun 曾表示:“要讓機器像人類和動物那樣高效學習,我們還缺少一些關鍵的東西,只是目前還不知道那是什麼。”
多年來,通用AI (AGI)一直被說成“即將實現”,這都是由於“第一步謬論”。機器翻譯先驅耶霍舒亞·巴爾-希爾勒(Yehoshua Bar-Hillel)是最早談論機器智能局限性的人之一,他指出,許多人認為,如果有人演示了一台計算機可以完成一件直到最近才有人認為它能做到的事情,即使它做得很糟糕,也只需要進一步的技術發展,它就能完美地完成任務。人們普遍認為,只要耐心等待,最終就能實現。但巴爾-希爾勒早在20 世紀50 年代中期就警告說,事實並非如此,而且現實一次又一次地被證明並非如此。
教訓三:從無法做某事到做得不好,通常比從做得不好到做得很好的距離短得多。
在1950 年代和1960 年代,由於驅動電腦的半導體處理速度提升,許多人陷入了「第一步謬論」。隨著硬體每年沿著「摩爾定律」這一可靠的上升軌跡發展,人們普遍認為機器智慧也會與硬體同步發展。
然而,除了硬體效能的不斷提升之外,AI 的發展進入了一個新階段,引入了兩個新的要素:軟體和資料收集。從1960 年代中期開始,專家系統(註:一個智慧型電腦程式系統)將新的關注點放在了獲取和編程現實世界的知識上,尤其是特定領域專家的知識,以及他們的經驗法則(啟發式方法)。專家系統越來越受歡迎,到20 世紀80 年代,據估計,《財星》500 強企業中有三分之二在日常業務活動中應用了這項技術。
然而,到了20 世紀90 年代初,這場AI 熱潮徹底破滅。眾多AI 新創企業倒閉,各大公司也紛紛凍結或取消了AI 專案。早在1983 年,專家系統先驅埃德·費根鮑姆就指出了導致它們消亡的“關鍵瓶頸”:知識獲取過程的擴展,“這是一個非常繁瑣、耗時且昂貴的過程。”
專家系統也面臨知識累積的難題。不斷添加和更新規則的需求使它們難以維護且成本高昂。它們也暴露出與人類智慧相比的思維機器的缺陷。它們很“脆弱”,在面對不尋常的輸入時會犯下荒唐的錯誤,無法將其專業知識轉移到新的領域,而且對周圍的世界缺乏理解。在最根本的層面上,它們無法像人類一樣從例子、經驗、環境中學習。
教訓四:初步的成功,即企業與政府機構的廣泛採用以及大量公共和私人投資,即便歷經十年或十五年,也未必能催生一個持久的「新產業」。泡沫往往會破掉。
在起伏、炒作和挫折中,兩種截然不同的AI 開發方法一直在爭奪學術界、公共和私人投資者以及媒體的關注。四十多年來,基於規則的符號AI 方法一直佔據主導地位。但基於實例、以統計分析為驅動的聯結主義,作為另一種主要的AI 方法,在20 世紀50 年代末和80 年代末也曾短暫地風光一時,備受追捧。
在2012 年聯結主義復興之前,AI 的研究與發展主要由學術界推動。學術界的特徵是教條盛行(所謂的「常規科學」),在符號主義AI 和聯結主義之間一直存在著非此即彼的選擇。 2019 年,傑弗裡·辛頓(Geoffrey Hinton)在圖靈獎演講中,大部分時間都在講述他和少數深度學習愛好者在主流AI 和機器學習學者手中所經歷的艱難困苦。辛頓也刻意貶低了強化學習以及他在DeepMind 的同事們的工作。
僅僅幾年後,在2023 年,DeepMind 接管了Google的AI 業務(辛頓也離開了那裡),這主要是對OpenAI 成功的回應,OpenAI 也將強化學習作為其AI 開發的一個組成部分。強化學習的兩位先驅安德魯·巴托(Andrew Barto)和理查德·薩頓(Richard Sutton)在2025 年獲得了圖靈獎。
然而,目前沒有跡象表明,無論是DeepMind 還是OpenAI,抑或是眾多致力於通用AI(AGI)的「獨角獸」企業,它們關注的焦點超出當下盛行的大語言模型這一範式。自2012 年以來, AI 的發展重心已從學術界轉向私部門;然而,整個領域仍執著於單一的研究方向。
教訓五:不要把所有的AI 「雞蛋」都放在同一個「籃子」裡。
毫無疑問,黃仁勳是一位傑出的首席執行官,英偉達也是一家傑出的公司。十多年前,當AI 的機會突然出現時,英偉達迅速抓住了這一機遇,因為其晶片(最初是為高效渲染視頻遊戲而設計的)的並行處理能力非常適合深度學習計算。黃仁勳時刻保持警惕,他告訴員工:“我們公司距離破產只有30 天。”
除了保持警覺(還記得英特爾嗎?),AI 80 年的發展歷程所帶來的經驗教訓或許也能幫助英偉達安然度過接下來的30 天或30 年的起伏。
