作者: 有新Newin

2024 年3 月1 日— 一場法律風暴正在矽谷醞釀,馬斯克將OpenAI CEO&共同創辦人Sam Altman 告上法庭。馬斯克在一份詳細的訴訟文件中指控Altman 和其他被告違反了OpenAI 的創立協議,該協議旨在開發對全人類有益的非營利AI 技術。

根據這份文件,馬斯克和其他原告指控OpenAI 的管理層在2023 年背離了其非營利的使命,轉而與微軟建立了獨家合作關係,並將先進的AI 技術GPT-4 的秘密化,以服務微軟的商業利益。這一轉變被描述為對OpenAI 非營利性質的公然背叛,違背了其創立的初衷。

馬斯克在訴訟中聲稱,當他與Altman 和Greg Brockman 共同創立OpenAI 時,是基於對AI 技術潛在風險的共同擔憂,以及對確保AI 技術發展能夠惠及全人類的承諾。然而,隨著OpenAI 在AI 領域的領先地位日益鞏固,尤其是在開發出被認為可能是早期AGI 的GPT-4 模型後,公司的方向發生了根本性轉變。

訴訟文件詳細描述了OpenAI 的成立過程,包括馬斯克在公司早期的資金投入、研究方向的建議,以及招募頂尖科學家和工程師的努力。這些努力被認為是OpenAI 能夠迅速崛起的關鍵因素。然而,現在馬斯克認為,他的這些貢獻被用於了與他的初衷相悖的目的。

以下為這份訴訟文件中的主要內容:

馬斯克對AGI 的擔憂

在2012 年,Elon Musk 遇到了DeepMind 的共同創辦人Demis Hassabis,一家以獲利為目的的AI 公司。大約在這個時候,Musk 和Hassabis 在SpaceX 位於加州霍索恩的工廠會面,並討論了面臨社會的最大威脅。在這次對話中,Hassabis 強調了AI 進步對社會可能帶來的潛在危險。

在與Hassabis 的這次交談之後,Musk 對AI 變得超聰明、超越人類智慧並威脅人類的潛力越來越感到擔憂。事實上,Musk 並不是唯一一個對DeepMind 進行的AI 研究和AI 的危險感到害怕的人。據報道,在與Hassabis 及DeepMind 的投資者會面後,一位投資者評論說,他對人類所能做的最好的事情就是當場射殺Hassabis。

Musk 開始與他的圈子內的人,如當時的Google 母公司Alphabet, Inc. 的CEO Larry Page 討論AI 和DeepMind。 Musk 經常在與Page 的對話中提起AI 的危險,但令Musk 震驚的是,Page 對此並不擔心。例如,在2013 年,Musk 與Page 激烈交流了AI 的危險。他警告說,除非採取安全措施,「 AI 系統可能會取代人類,使我們的物種變得無關緊要甚至滅絕。」Page 回應說,這只是「進化的下一個階段」,並聲稱Musk 是一種「物種主義者」——即偏愛人類物種而非智慧機器。 Musk 回應說:「是的,我支持人類。」

到2013 年末,Musk 非常擔心Google 打算收購DeepMind。當時,DeepMind 是業界中最先進的AI 公司之一。因此,Musk 深切關注DeepMind 的AI 技術將掌握在如此輕率看待其力量並可能在封閉的門後隱藏其設計和能力的人手中。

為了防止這項強大技術落入Google 手中,Musk 和PayPal 的共同創辦人Luke Nosek 試圖籌集資金購買DeepMind。這項努力最終導致了一次長達一小時的通話,Musk 和Nosek 做出了最後努力,試圖說服Hassabis 不將DeepMind 賣給Google。 Musk 告訴Hassabis:「AI 的未來不應該被Larry [Page] 控制。」

Musk 和Nosek 的努力未能成功。 2014 年1 月有報告指出DeepMind 將被Google 收購。然而,這並沒有阻止Musk 繼續確保AI 的安全開發和實踐。

Google 收購DeepMind 後,Musk 開始「主持自己的一系列晚餐討論,探討對抗Google 和促進AI 安全的方法。」Musk 也聯繫了美國總統Barack Obama 討論AI 和AI 安全問題。 2015 年,Musk 和Obama 會面,向其解釋AI 的危險並主張監管。 Musk 認為Obama 理解AI 的危險,但監管從未實現。

儘管遇到這些挫折,Musk 繼續倡導安全的AI 實踐。 2015 年,Musk 似乎找到了一個理解他對AI 的擔憂和他希望將第一個AGI 保持在像Google 這樣的私人公司之外的人:被告Sam Altman。

當時,Altman 是矽谷創業加速器Y Combinator 的總裁。在此之前,Altman 參與了各種創業企業。

Altman 似乎分享了Musk 對AI 的擔憂。在2014 年回溯的公開部落格文章中,Altman 聲稱如果製造出AGI,「將是技術上有史以來最大的發展。」Altman 指出,許多公司正在朝著實現AGI 的方向邁進,但承認「好的公司對此非常保密。」

2015 年2 月25 日,Altman 也表達了他對「超人類機器智慧」發展的擔憂,他認為這「可能是對人類持續存在的最大威脅」,並強調「作為一個被編程為生存和繁衍的人類,我覺得我們應該對抗它。」此外,Altman 批評那些認為「超人類機器智慧」危險但又將其視為「永遠不會發生或肯定非常遙遠」的人,他指責他們「思考鬆懈、危險。」

事實上,2015 年初,Altman 讚揚政府監管作為確保安全創造AI 的手段,並建議「一群非常聰明的人,擁有大量資源」的團體可能涉及「以某種方式的美國公司」,將是最有可能首先實現「超人類機器智慧」的團體。

當月晚些時候,Altman 聯繫Musk,詢問他是否有興趣起草一封緻美國政府的公開信,討論AI 問題。兩人開始準備信件,並接觸技術和AI 領域的有影響力的人士簽名。很快,整個行業的人都聽說了這封信的傳聞。

例如,2015 年4 月,Hassabis 聯繫Musk,表示他從多個來源聽說Musk 正在起草一封給總統的信,呼籲監管AI。 Musk 向Hassabis 辯護AI 監管的想法,表示:「如果做得好,這可能會在長期內加速AI 的發展。如果沒有監管監督提供的公眾安心,很可能會出現AI 造成巨大傷害之後,AI 研究被禁止的情況,因為它對公共安全構成危險。」

在Hassabis 關於公開信聯繫Musk 五天后,Hassabis 宣布了Google DeepMind AI 倫理委員會的首次會議,這是Google 和DeepMind 在兩年前Google 收購DeepMind 時承諾成立的。 Musk 被邀請成為委員會成員,並提議首次會議在加州霍索恩的SpaceX 舉行。 Musk 在第一次會議後明確感到,這個委員會不是一個認真的努力,而是試圖減緩AI 監管的幌子。

公開信後來於2015 年10 月28 日發布,由超過一萬一千人簽名,包括Musk、Stephen Hawking 和Steve Wozniak。

OpenAI 成立之初的協議

2015 年5 月25 日,Sam Altman 給Elon Musk 發送了一封電子郵件,表達了他對是否可能阻止人類開發AI 的深思。 Altman 認為答案幾乎肯定是否定的。如果AI 的發展不可避免,那麼最好讓Google以外的某個組織先實現這一目標。 Altman 有一個想法:讓Y Combinator 啟動一個AI 領域的「曼哈頓計畫」(這個名稱可能非常恰當)。他提議可以透過某種非營利組織的形式,讓科技屬於全世界,同時如果專案成功,參與其中的人可以獲得類似新創公司的報酬。顯然,他們將遵守並積極支持所有監管。 Musk 回應說,這「很值得一談」。

經過進一步的交流,2015 年6 月24 日,Altman 向Musk 發送了一份關於這個新「AI 實驗室」的詳細提案。 「其使命將是創造第一個通用AI ,並將其用於個人賦能——即,分散式的未來版本看起來是最安全的。更一般來說,安全應該是一個一流的要求。」 「技術將由基金會擁有,並用於『全世界的利益』。」他提議從一組7-10 人開始,並從那裡擴展。他也提出了一個治理結構。 Musk 回應說,「在所有方面都同意。」

此後不久,Altman 開始招募其他人幫助開發這個計畫。值得注意的是,Altman 向Gregory Brockman 尋求幫助。 2015 年11 月,Altman 透過電子郵件將Brockman 與Musk 聯繫起來。關於該項目,Brockman 告訴Musk,「我希望我們作為一個中立團體進入這個領域,尋求廣泛合作,並將對話轉向關於人類取勝而不是任何特定團體或公司取勝。(我認為這是讓我們自己成為一個領先研究機構的最佳方式。)」對於一個專注於人類而不是任何特定個人或團體的利益的中立AI 研究團隊的可能性持樂觀態度,Musk 告訴Brockman 他將承諾資金。

Musk 提出了新實驗室的名稱,反映了成立協議:「Open AI Institute”,或簡稱「OpenAI」。

以成立協議的原則為指導,Musk 與Altman 和Brockman 聯手正式啟動並推進該計畫。 Musk 在專案公開宣布之前就積極參與其中。例如,Musk 在員工薪資包方面向Brockman 提供建議,分享了他關於薪酬和保留人才的策略。

2015 年12 月8 日,OpenAI, Inc. 的成立證書在特拉華州州務卿處提交。該證書以書面形式記錄了成立協議:「本公司是一家僅為慈善和/ 或教育目的而組織的非營利公司,符合1986 年修訂的內部收入法典第501(c)(3) 節或任何未來美國內部收入法的相應條款。本公司的具體目的是為與AI 相關的技術研發和分發提供資金。所產生的技術將惠及公眾,公司將尋求在適用的情況下將技術開源以利公眾。」

OpenAI, Inc. 在2015 年12 月11 日對外公佈。在公告中,Musk 和Altman 被命名為聯合主席,Brockman 被命名為技術長。公告強調,OpenAI 旨在「惠及人類」,其研究「不受財務義務的約束」:「OpenAI 是一家非營利的AI 研究公司。我們的目標是以最有可能惠及整個人類的方式推進數位智能,不受產生財務回報需求的限制。由於我們的研究不受財務義務的約束,我們可以更好地專注於對人類的積極影響。」

馬斯克對OpenAI 的早期貢獻

Elon Musk 在OpenAI, Inc. 成功啟動中扮演了關鍵角色。在公開宣布的當天,Musk 透過電子郵件寫道,「我們最重要的考慮是招募最優秀的人才。」他承諾,幫助招募工作將是他「全天候的絕對優先事項」。他承認,「我們在人手和資源上被你們所熟知的組織以荒謬的優勢超越,但我們站在正義這一邊,這意味著很多。我喜歡這樣的賠率。」Musk 利用他的人脈、地位和影響力助力招募工作。 OpenAI, Inc. 是由Elon Musk 贊助的項目,Musk 擔任聯合主席,這一事實對OpenAI, Inc. 的招聘工作起到了關鍵作用,尤其是面對Google/DeepMind 的反招聘工作。如果沒有Musk 的參與、大量的支持努力和資源——他對成立協議的重視——OpenAI, Inc. 很可能永遠無法起步。

最重要的初期聘用之一是首席科學家的職位。 Altman、Brockman 和Musk 都希望Google 的研究科學家Ilya Sutskever 擔任這個角色。 Sutskever 在是否離開Google 加入該項目上猶豫不決,但最終是在OpenAI, Inc. 公開宣布的當天,Musk 的一通電話說服了Sutskever 承諾加入該項目,成為OpenAI, Inc. 的首席科學家。

接下來的幾個月裡,Musk 積極為OpenAI, Inc. 招募。 Google/DeepMind 對OpenAI, Inc. 的招募人員提出了越來越豐厚的反擊報價,試圖扼殺這個新興企業。在2 月底,Musk 給Brockman 和Altman 發送了電子郵件,重申「我們需要做必要的事情來獲得頂尖人才。讓我們提高報價。如果在某個時候,我們需要重新考慮現有人員的薪酬,那也沒關係。我們要么獲得世界上最好的人才,要么就會被Deepmind 打敗。不惜一切代價吸引頂尖人才對我來說都是可以的。Deepmind 給我帶來了極大的精神壓力。如果他們贏了,對於他們想要統治世界的哲學來說,這將是非常糟糕的消息。鑑於那裡的人才水平,他們顯然在取得重大進展。」

Musk 不僅僅是利用他的人脈和影響力代表OpenAI, Inc. 招聘,當他告訴Brockman 和Altman 提高報價並「做必要的事情來獲得頂尖人才」時,他就是在資助那些更高的報價。光是在2016 年,Musk 就為OpenAI, Inc. 貢獻了超過1500 萬美元,比其他捐贈者都多。他提供的資金使OpenAI, Inc. 能夠組建一個頂尖人才團隊。同樣,在2017 年,Musk 又向OpenAI, Inc. 貢獻了近2,000 萬美元,再次超過其他捐贈者。總的來說,從2016 年到2020 年9 月,Musk 為OpenAI, Inc. 貢獻了超過4,400 萬美元。

此外,透過Musk Industries LLC,Musk 為OpenAI, Inc. 的初始辦公空間在舊金山的Pioneer Building 承租,並支付每月租金費用。 Musk 定期造訪OpenAI, Inc.,並出席重要的公司里程碑活動,如2016 年第一台DGX-1 AI 超級電腦捐贈給OpenAI, Inc. 時。 Musk 會收到OpenAI, Inc. 進度的更新,並提供他的回饋和建議。

Altman 和Brockman 多次重申成立協議

在2017 年,Greg Brockman 和其他人提議將OpenAI, Inc. 從一個非營利組織轉變為一個盈利性公司。經過幾週的溝通後,Elon Musk 告訴Brockman、Ilya Sutskever 和Sam Altman,「要嘛自己去做點什麼,要嘛繼續將OpenAI 作為一個非營利組織。在你們做出留下的堅定承諾之前,我將不再為OpenAI 提供資金,否則我就是一個傻瓜,基本上是在為一家新創公司提供免費資金。討論結束。」

作為回應,Altman 告訴Musk 他「仍然對非營利結構充滿熱情!」最終,Brockman 和Sutskever 向Musk 表明,他們也決心繼續保持非盈利結構,並將在接下來的一年致力於為非營利組織籌集資金。

2018 年2 月21 日,Musk 辭去了OpenAI, Inc. 聯合主席的職務。儘管如此,Musk 依然根據成立協議,繼續向OpenAI, Inc. 提供資助。例如,在2018 年,Musk 向OpenAI, Inc. 捐贈了約350 萬美元。他也繼續從Brockman、Sutskever 和Altman 那裡接收關於OpenAI, Inc. 的更新。

2018 年4 月,Altman 向Musk 發送了一份OpenAI 憲章草案,並徵求他的回饋。草案宣稱OpenAI 的使命是確保AGI「惠及全人類」。它聲明,「我們承諾使用我們對AGI 部署的任何影響力,確保它用於全人類的利益,並避免啟用可能傷害人類或不當集中權力的AI 或AGI 的使用。我們的首要受託責任是對人類。我們預計需要動員大量資源來實現我們的使命,但將始終努力最小化可能妥協廣泛利益的利益衝突。」

2019 年3 月11 日,OpenAI, Inc. 宣布將創立一個獲利子公司:OpenAI, LP。潛在投資者在摘要條款表的頂部被告知一個“重要警告”,即盈利實體“存在是為了推進OpenAI Inc.(非營利組織)確保安全的AGI 被開發並惠及全人類的使命。普通合夥人對這項使命和OpenAI Inc. 憲章中推進的原則的義務優先於任何盈利義務。」因此,明確建議投資者“將對OpenAI LP 的任何投資視為捐贈。」

宣布後,Musk 聯繫Altman,要求他「明確我對OpenAI 盈利部門沒有任何財務利益。」然而,Musk 繼續支持OpenAI, Inc. 這個非營利組織,在2019 年再次捐贈了348 萬美元。

2020 年9 月22 日,OpenAI 宣布它已將其某些預AGI 技術獨家授權給Microsoft。與成立協議一致,OpenAI 的網站聲明AGI,「一個在大多數經濟價值工作中超越人類表現的高度自治系統」「被排除在與Microsoft 的智慧財產權許可和其他商業條款之外,這些僅適用於預AGI 技術。」然而,OpenAI 的董事會「決定我們何時達到AGI。」

OpenAI 的發展,AI 到AGI

OpenAI 在初期工作上大量借鏡了DeepMind 的做法。不同於下棋,OpenAI 在Dota 2 這個策略性視訊遊戲上進行了競爭,該遊戲比國際象棋有著更多的活動部分。 OpenAI 的團隊迅速建立了一個新模型,擊敗了世界冠軍隊伍,展示了「自我對弈的密集學習能夠在困難任務上達到超人的表現」。

同時,在Google,一個名為Transformer 的演算法解決了深度學習在理解長文本序列中遇到的許多問題。這個演算法是「大型語言模型」的一個例子,它透過在來源語言中的單字之間形成連接,並將這些連接映射到目標語言來翻譯文字。

OpenAI 的研究人員繼續這項研究,並很快產生了另一個驚人的結果:透過使用Google 的Transformer 架構的前半部分,一個深度神經網路可以在大量文字語料上進行預訓練,用於產生新文字。 2018 年1 月,OpenAI 發布了這個生成預訓練Transformer(GPT)的原始碼和訓練模型,以及一篇詳細描述模型及其能力的論文。

2019 年,OpenAI 發布了第二代模型,GPT-2。這次發布同樣附帶了一篇詳細論文,指出與之前的模型不同,這個模型無需針對特定任務進行訓練,“當一個大型語言模型在足夠大且多樣的數據集上進行訓練時,它能夠在許多領域和數據集上表現良好」。這些模型證明了它們與以往的AI 系統非常不同。與其訓練系統執行特定任務,不如簡單地「請求」它們以自然語言執行新任務。

正如成立協議所預期的那樣,OpenAI 公開發布了GPT-2 的完整版本。值得注意的是,儘管「人類發現GPT-2 的輸出令人信服」,「GPT-2 可以被微調用於濫用」,且「檢測(由GPT 生成的文本)具有挑戰性」,OpenAI 仍然決定發布。當時,OpenAI 聲明,希望這樣做「將對未來強大模型的開發者有用」。這次發布伴隨著一篇由OpenAI 科學家以及獨立的社會和技術科學家共同撰寫的詳細論文,解釋了公開發布模型而不是保持封閉所帶來的許多好處。

他們的出版物證明對未來、強大模型的開發者確實有用。完整的社區出現了,以增強和擴展OpenAI 發布的模型。這些社區擴展到了開源、草根努力和商業實體。

2020 年,OpenAI 宣布了其模型的第三版,GPT-3。它使用了「1750 億參數,是之前所有非稀疏語言模型的10 倍」。 OpenAI 再次透過發布研究論文宣布了這個模型的開發,論文描述了其完整的實現,供其他人建構。

2022 年,Google 的研究人員採用這些結果,並展示了一個名為連鎖思考提示的小改動,能讓「大型語言模型執行複雜推理」。東京大學和Google 的研究人員迅速擴展了Google 的結果,並展示了OpenAI 的GPT-3 能夠以逐步的方式推理出一個全新的問題,就像人類一樣,「只需在每個答案前面加上『讓我們一步一步地思考』」。

AI 的路徑變得可見。並且,達到這一點的時間線正在顯著壓縮。

2023 年3 月14 日,OpenAI 發布了其模型的新一代,GPT-4。這一代不僅能進行推理,在推理上也比一般人類做得更好。 GPT-4 在統一律師考試中得分位於第90 百分位,在GRE 口語評估中得分位於第99 百分位,甚至在高級侍酒師考試中得分為77%。根據OpenAI 自己的客觀衡量標準,GPT-4 已經能夠在廣泛的經濟有價值的任務上展現出優於人類的智慧。

這一發展沒有被研究社區忽視。在一篇題為「 AGI 的火花:GPT-4 的早期實驗」的詳細分析中,Microsoft 的研究人員指出,「GPT-4 能夠解決跨數學、程式設計、視覺、醫學、法律、心理學等多個領域的新穎且困難的任務,而無需任何特殊提示。而且,在所有這些任務中,GPT-4 的表現與人類水平驚人地接近,通常遠遠超過之前的模型,如基於[GPT-3.5] 的ChatGPT。」

他們將GPT-4 的表現與基於GPT-3 的系統的表現進行了比較,發現「與GPT-4 的輸出相比,沒有任何可比性」。在數學問題上,他們展示了「GPT-4 給出的解決方案是正確的,論證是合理的,而基於GPT-3 的ChatGPT 產生了錯誤的解決方案,如果是人類的話,這將反映出對函數反轉概念的理解缺失」。在另一個例子中,他們展示了「GPT-4 給出了正確的解決方案,而ChatGPT 開始無目的地重新排列術語,最終得出了一個錯誤的解決方案。」

Microsoft 自己的科學家承認GPT-4 “達到了一種通用智能的形式”,並且“鑑於GPT-4 的能力的廣度和深度,我們相信它可以合理地被視為AGI 系統的早期(儘管仍不完整)版本”。

違反OpenAI 成立協議

達到AGI 的門檻後,根據成立協議,他們本應為了人類的利益而非任何盈利公司或個人利益開發AGI,被告卻從其使命中根本性偏離,違反了成立協議。 GPT-4 是一個完全封閉的模型。 GPT-4 的內部設計仍然是秘密,沒有任何程式碼被發布。 OpenAI 沒有發布描述其內部設計的任何方面的論文;它只是發布了吹噓其性能的新聞稿。 GPT-4 的內部細節只有OpenAI 和據信是Microsoft 知道。因此,GPT-4 與「開放的AI」完全相反。它因商業專有原因而被封閉:Microsoft 透過向公眾銷售GPT-4 而獲利頗豐,如果OpenAI 如其所需那樣使技術免費向公眾開放,則不可能實現。與成立協議相反,被告選擇使用GPT-4 不是為了人類的利益,而是作為專有技術來為世界上最大的公司最大化利潤。此外,OpenAI 的整個開發現在被保密,公眾只能透過謠言和零散的通訊片段來了解下一步可能發布的內容。

路透社報導,OpenAI 正在開發一個名為Q* 的秘密演算法。儘管Q* 的具體內容尚不清楚,但據路透社報道,幾名OpenAI 員工寫了一封信,警告Q* 的潛在力量。看來Q* 現在或將來可能是OpenAI 開發的更清晰、更顯著的AGI 的一部分。作為AGI,它將明確地不在OpenAI 與Microsoft 的許可範圍內,並且必須為了廣泛的公眾利益而提供。

對於與Microsoft 的許可協議,OpenAI, Inc. 的董事會決定OpenAI 是否已達到AGI,在下面更詳細描述的一系列令人震驚的事件中,OpenAI, Inc. 的大多數董事會成員於2023 年11 月22日被迫辭職,他們的替代者據信是由Altman 和Microsoft 親自挑選的。

2023 年11 月17 日,OpenAI, Inc. 的董事會解雇了Altman。 OpenAI 在一篇部落格文章中宣布,Altman 被解僱,「他的離職是在董事會進行了深思熟慮的審查過程之後,得出結論他在與董事會的溝通中並不總是坦率,妨礙了其行使職責的能力。董事會不再對他繼續領導OpenAI 持有信心。」

Brockman 也被董事會移除,但被告知他將保留在OpenAI 的角色。

當時,董事會由Helen Toner、Adam D'Angelo、Tasha McCauley、Sutskever 博士、Brockman 和Altman 組成。 Toner 女士除了在董事會任職外,也是AI 治理中心(GovAI) 的研究員和顧問,以及喬治城大學安全與新興技術中心的策略總監。 McCauley 女士是蘭德公司的高階管理科學家,該公司是一家專門從事公共政策決策的非營利組織。她也是GovAI 的顧問。 D'Angelo——在Altman 返回後唯一留下的董事會成員——是一位技術CEO 和企業家。

選擇在OpenAI, Inc. 的董事會中納入多位具有深厚AI 政策經驗的學者和公共政策專家,他們大多數人在公司中沒有財務利益,這是有意為之。這種財務上無利害關係的董事會成員結構,他們有著強烈的公共服務記錄,確保了董事會將非營利的主要受益者——人類——置於財務成功之前。這種保障措施是為了進一步實現OpenAI, Inc. 的非營利使命和成立協議:安全地創造能惠及人類的AGI,而不是盈利公司的金錢利益。

據信,Altman 被解僱部分是因為OpenAI 在實現AGI 方面取得了突破。事實上,新聞報導表明,OpenAI 董事會成員和高階主管之間在安全問題和OpenAI 下一代Q* 可能構成的潛在威脅上存在分歧。

Altman 被解僱的消息迅速傳開。在董事會宣布Altman 被解僱後,Brockman 宣布他將與Altman 一起離開OpenAI。

當微軟CEO Satya Nadella 得知Altman 被解僱時,據報道他非常憤怒。身為OpenAI 獲利部門的49% 股東,Nadella 認為在解僱Altman 之前應該諮詢微軟。然而,當時,除了Altman,OpenAI, Inc. 的董事會與微軟沒有任何联系,也沒有對盈利部門投資者的受託責任。據信,Altman 是微軟和OpenAI, Inc. 之間的主要聯絡人。

Nadella 邀請Altman 和Brockman 領導一個新的微軟AI 研究實驗室,不受OpenAI, Inc. 人道主義使命的限制。 Nadella 明確表示,離開OpenAI 的員工將以相同的薪水歡迎加入微軟的新實驗室。

微軟確信,透過其在OpenAI 獲利部門的大量所有權,如果公司停止存在,它可以完全隔離OpenAI, Inc. 的研究。事實上,在Altman 被解僱後不久的一次採訪中,Nadella 說:「我們對自己的能力非常有信心。我們擁有所有的智慧財產權和所有的能力。如果OpenAI 明天消失了,我真的不希望我們的任何客戶感到擔心,因為我們擁有繼續創新的所有權利。不僅僅是為了提供產品,我們還可以繼續我們在合作中所做的事情。我們有人才,我們有計算能力,我們有數據,我們擁有一切。」

儘管微軟就其在沒有OpenAI 的情況下繼續運作的能力發表了聲明,微軟從未放棄確保Altman 重新成為OpenAI, Inc. 的CEO 的計劃。在Altman 被解僱的幾天后,OpenAI, Inc. 的董事會面臨來自律師和主要股東(包括微軟)的壓力,要求恢復Altman 的職位。

Toner 女士在努力恢復Altman 的過程中受到了特別的針對。在這些努力中,一名代表OpenAI 的律師告訴Toner 女士,如果因為Altman 被解僱而導致OpenAI 失敗,她和董事會可能面臨違反對投資者受託責任的指控。

然而,OpenAI, Inc. 的董事會從未對投資者承擔受託責任。實際上,所有投資獲利部門的投資者都被告知,公司對其使命的責任優先於對其投資者的責任,OpenAI, Inc. 的網站明確指出它只對人類承擔受託責任。

Toner 女士,她將律師的行為描述為一種恐嚇策略,認為Altman 繼續被移除實際上將透過提升人類的安全而非利潤來推進公司的使命。然而,這一切都沒有阻止股東和Altman 推動他的復職。

此外,微軟對OpenAI, Inc. 及其董事會擁有相當大的強制力。在Altman 被解僱的期間,Nadella 談到微軟與OpenAI 的關係時說:「我們就在那裡。我們在他們下面,在他們上面,圍繞著他們。我們進行核心優化,我們建立工具,我們建立基礎設施。所以這就是為什麼我認為很多工業分析師都在說,'哦哇,這真的是微軟和OpenAI 之間的聯合項目。'實際上,正如我所說,我們在所有這些方面都非常自給自足。」

此外,在解僱發生時,微軟只支付了它對OpenAI 承諾的100 億美元投資的一小部分,給了微軟對「獨立」非營利董事會嚴重的影響力。此外,如果微軟撤回其雲端運算系統——OpenAI 依賴的系統,該公司將無法運作。

據信,在Altman 先生返回後,他親自挑選了一個新的董事會,這個董事會缺乏與先前董事會設計時類似的技術專長或在AI 治理方面的任何實質背景。 D'Angelo 先生,一位技術CEO 和企業家,是Altman 先生返回後唯一留下的前董事會成員。新董事會包括在以利潤為中心的企業或政治方面比在AI 倫理和治理方面有更多經驗的成員。他們也被報道是「Altman 的忠實粉絲」。新董事會成員中有Bret Taylor 和Larry Summers。 Taylor 先生在矽谷並不陌生,並且深度參與了灣區各種以盈利為驅動的企業。 2024 年2 月14 日,Taylor 先生和前Google高層Clay Bavor 啟動了一家專注於為企業建立AI 聊天機器人的新創公司。 Summers 博士是一位經濟學家,據信在2023 年11 月之前沒有在基於AI 的企業中工作過的經驗。微軟也在董事會上獲得了一個觀察員席位,從中可以密切關注其表面上的非營利搖錢樹。

隨著Altman 先生的重新任命和董事會的重組,OpenAI 的公司結構——原本被設計為非營利部門、盈利部門、董事會和CEO 之間的平衡系統,以確保非營利使命得以執行——一夜之間崩潰。 OpenAI, Inc. 曾經精心打造的非營利結構被純粹以盈利為驅動的CEO 和在AGI 及AI 公共政策方面技術專長較差的董事會所取代。董事會現在為微軟保留了一個觀察員席位。透過這種重組,OpenAI, Inc. 放棄了其為了廣泛人類利益開發AGI 的非營利使命,從而使其遠離了一個巨大的盈利公司,其中巨大的權力將不當集中。

OpenAI, Inc. 董事會在AI 技術專長、中立性和對OpenAI, Inc. 非營利使命的承諾對OpenAI, Inc. 的使命尤為重要,因為正是董事會決定OpenAI 是否已達到微軟許可協議目的的AGI。這意味著董事會的任務是確定OpenAI 最強大和最先進的技術是否實際上被排除在微軟的獨家授權範圍之外。考慮到微軟對於將大門關閉以阻止公眾進入的巨大財務利益,OpenAI, Inc. 的新董事會,因其被俘獲、衝突和順從,將有充分的理由永遠不要做出OpenAI 已達到AGI 的發現。相反,OpenAI 的AGI 成就,就像《安妮》中的「明天」,總是遙遙無期,確保微軟將獲得OpenAI 最新技術的許可,而公眾則被排除在外,這與成立協議完全相反。

OpenAI 的行為可能對矽谷產生重大影響,如果被允許存在,可能代表科技新創公司的典範轉移。重要的是要反思這裡發生了什麼:一個非營利新創公司收集了數千萬美元的捐款,明確目的是為了公共利益開發AGI 技術,而就在實現該公司創建目的的里程碑之前不久,該公司變成了世界上最大的公司的閉環、獲利合作夥伴,從​​而使被告個人獲利。如果這種商業模式有效,它將徹底重新定義加州及其他地方的創投實踐方式。與其從一開始就作為一個盈利實體,聰明的投資者會建立非營利組織,使用稅前捐款來資助研究和開發,然後一旦他們的技術被開發出來並證明有效,就會產生的知識產權資產轉移到一個新的獲利企業中,以此來豐富自己和他們的獲利最大化的企業夥伴。這不應該是加州或這個國家的法律如何運作的方式,這也不應該是第一個持相反意見的法院。

為了進一步理解這為什麼重要,如果OpenAI 的新商業模式有效,對於每一美元投資者通過向非營利組織的“投資”獲得的,投資者將從州和聯邦政府那里以減少的所得稅形式獲得大約50美分回報,因此他們每1 美元投資的淨成本只有50 美分。然而,透過OpenAI 的新商業模式,他們獲得與那些以傳統方式投資於盈利公司並因此沒有立即獲得稅收減免的人相同的“盈利”上升空間,由政府和最終由公眾資助。從投資的角度來看,與採用新OpenAI 商業模式的實體競爭就像打籃球比賽,對手的籃框得分是你的兩倍。如果這個法院認可OpenAI 在這裡的行為,任何希望在矽穀保持競爭力的初創公司基本上都將被要求遵循這種OpenAI 戰略,這將成為初創公司的標準操作程序,對合法的非營利組織、政府的稅收收入和最終加州及其他地區的人民造成損害。值得注意的是,OpenAI 的獲利部門最近的估值接近800 億美元。

11 月至今:Altman 的OpenAI

公眾仍然對董事會的「審議性審查過程」揭示了什麼導致Altman 最初被解僱一事一無所知。然而,對於Musk 先生和廣大公眾來說,一件事是清楚的:OpenAI 放棄了其「不可撤銷」的非營利使命,轉而追求利潤。許多領導者和知識分子已經公開評論了OpenAI 變成“封閉的、盈利的AI”這一諷刺和悲劇。

例如,2023 年11 月29 日,MIT 的經濟學家在《洛杉磯時報》上發表了一篇意見文章,表達了對OpenAI 新的獲利驅動指令的擔憂。用他們的話來說,「顛覆和不受控制的成長已成為科技業的宗教,而Altman 一直是其最忠誠的高級牧師之一。」經濟學家強調,新董事會更有可能允許Altman 盡可能快地擴大OpenAI 的規模,不管社會成本有多嚴重。

公民權益組織Public Citizen 的主席今年稍早給加州檢察長Rob Bonta 寫了一封公開信,提出了關於OpenAI 的盈利子公司是否對非盈利機構施加了不適當的控制,或者非營利機構的目的在Altman 和微軟的領導下是否轉向了盈利的擔憂。信中建議,如果非營利機構放棄了其原始使命,它應該被解散,其資產應轉給另一個慈善企業。

WIRED 在2024 年1 月的一項調查發現,OpenAI 近期也關閉了公眾訪問以前可用的「關鍵文件」。根據OpenAI 最初的透明度承諾,OpenAI 的IRS 文件自成立以來就表明,任何公眾成員都可以查看其治理文件、財務報表和利益衝突規則的副本。然而,當WIRED 請求這些文件時,OpenAI 表示它已更改了政策。因此,儘管OpenAI 長期以來一直宣揚其對透明度的承諾,但公眾無法獲得揭示2023 年11 月事件的資訊。

存取OpenAI 的文件可以讓公眾了解它是否已改變其治理結構以取悅微軟和其他股東。至少,為了適應微軟在董事會上的席位,必須做出改變,現在Altman 正在與中東投資者進行討論,以籌集高達7 兆美元的資金,旨在開發一個全球AI 晶片製造廠網路。如果微軟的100 億美元就足以讓它獲得董事會席位,那麼可以想像這些新的潛在投資可能會為投資者帶來多大的影響力。當一個潛在的捐贈者是阿拉伯聯合大公國的國家安全顧問,而美國官員因為阿拉伯聯合大公國與中國的聯繫而感到擔憂時,這尤其令人不安。此外,Altman 被引述討論了讓阿拉伯聯合大公國成為一個「監管沙盒」,在那裡測試AI 技術的可能性。

此外,存取OpenAI 的利益衝突政策對於揭示董事會控制Altman 使用OpenAI 促進其個人經濟利益的能力至關重要,到目前為止,這似乎還未受到限制。例如,在2019 年Altman 擔任CEO 時,OpenAI 簽署了一份意向書,購買價值5,100 萬美元的晶片,這些晶片來自Altman 大量投資的一家新創公司。

雖然OpenAI, Inc. 曾是基於公開與公眾溝通的安全、負責任的AGI 開發的先驅,但現在它已經關閉了大門,將其盈利子公司的最大投資者帶到了唯一對人類負有受託責任的董事會,並繼續秘密地朝著以利潤為中心的未來前進,可能對人類產生災難性的後果。

Musk 與Altman 以及Brockman 共同創立並資助了OpenAI, Inc.,交換的是依靠成立協議以確保AGI 將惠及人類,而不是盈利公司。隨著2023 年的事件發展,他對OpenAI, Inc. 的貢獻被扭曲,以造福被告和世界上最大的公司。這是對成立協議的明顯背叛,將協議顛倒並扭曲了OpenAI, Inc. 的使命。想像捐款給一個聲稱其使命是保護亞馬遜雨林的非營利組織,但然後非營利組織創建了一個盈利的亞馬遜伐木公司,使用捐款的成果清除雨林。這就是OpenAI, Inc. 的故事。