原文作者: Ben Thompson, Stratechery
編譯:Peggy,BlockBeats
編按:4 月27 日,OpenAI 與Microsoft 剛修改合作協議,Azure 不再獨佔OpenAI 模型,OpenAI 也因此得以將產品擴展到AWS 等其他雲端平台。
註:Azure 是Microsoft 旗下的雲端運算平台,全名通常叫做Microsoft Azure。它和AWS、Google Cloud 一樣,主要為企業提供伺服器、資料庫、儲存、網路、安全性、AI 模型部署等雲端服務。
對外界而言,這似乎只是一次雲端服務分發管道的變化;但從Sam Altman 與AWS CEO Matt Garman 的討論來看,更關鍵的變化在於,AI 正在從「模型呼叫」進入「企業級工作流程」階段。
本文編譯自科技商業分析媒體Stratechery 對Sam Altman 與Matt Garman 的訪談,圍繞OpenAI 與AWS 合作推出的Bedrock Managed Agents 展開,討論了雲端運算與AI 平台轉移的相似之處、企業級agent 的部署難點、AgentCore 與託管式服務的區別,以及AWS 在AI 基礎設施競爭中的位置。
註:Stratechery 由科技分析師Ben Thompson 創辦,長期關注科技公司策略、平台經濟、雲端運算、AI 與媒體產業變化,其內容以深度分析與高階主管訪談為主,在矽谷科技與投資圈具有較高影響力,常被視為觀察大型科技公司策略動向的重要窗口
Bedrock Managed Agents 的核心,不只是讓AWS 客戶用上OpenAI 模型,而是把模型嵌入AWS 原生的身份、權限、日誌、治理、部署和安全體系中。換句話說,企業真正需要的不是更聰明的聊天窗口,而是一套能在組織內部運作、存取資料、執行任務、遵守權限邊界的「虛擬同事」系統。
這也是本次合作最值得關注的地方:AI 競爭的重心正在從「誰有最強模型」轉向「誰能把模型變成可用的企業基礎設施」。在個人開發者場景裡,Codex 可以依賴本機環境解決許多複雜問題;但在企業場景中,agent 要面對的是資料庫、SaaS、權限系統、安全邊界和合規要求。
某種意義上,這場合作也重演了雲端運算早期的邏輯。 AWS 當年降低了新創公司啟動成本,讓小團隊不必自建伺服器就能建置網路產品;如今,OpenAI 和AWS 試圖降低企業部署AI agent 的門檻,讓公司不必自己拼接模型、權限、資料和安全體系,就能把AI 放進真實業務流程。不同的是,這次採用速度更快,企業需求也更迫切。
因此,本文真正討論的不是OpenAI 模型「上架」AWS,而是AI 基礎設施進入下一階段:模型、雲端、資料與企業權限系統開始深度綁定。未來的競爭,可能不再只是API 價格、晶片性能或模型榜單,而是誰能建構出讓企業放心使用、持續擴展、真正執行工作的AI 平台。
以下為原文:
導語
早安,正如我昨天提到的,今天的Stratechery 訪談在我的發佈時間安排上算是提前了(從週四提前到週二);但在實際送達時間上又算是推遲了(從美東時間早上6 點推遲到下午1 點),因為這次主題受到embargo(報道禁令)限制。
過去幾天,這個禁令也讓我處在一個有點微妙的境地:上週五,我採訪了OpenAI CEO Sam Altman 和AWS CEO Matt Garman,主題是由OpenAI 提供支持的Bedrock Managed Agents。很自然地,我提出的一個問題是:這項合作與OpenAI 和Microsoft 之間那份讓Azure 獨家獲得OpenAI 模型存取權的協議,究竟該如何協調?
註:Bedrock Managed Agents 是AWS 推出的託管式AI agent 服務,由OpenAI 提供模型能力支援。它並非只是讓企業在AWS 上呼叫OpenAI 模型,而是將模型嵌入AWS 原生的身份認證、權限管理、日誌、安全性、治理和部署體系中,使企業能夠在自己的雲端環境內建立可執行任務、存取內部資料、遵守權限邊界的AI agent。簡單來說,可以理解為運作在AWS 企業環境中的OpenAI agent 基礎架構。
週日晚些時候,我從小道消息聽說,Microsoft 會在周一早上宣布一些事情。我當時還在想,會不會是一場先發制人的訴訟!
到了週一,Microsoft 和OpenAI 宣布雙方已經修訂協議,允許OpenAI 在其他雲端服務商上提供其產品,其中也包括AWS。
於是,就有了現在這篇訪談。
我認為,Microsoft 與OpenAI 這筆新安排對雙方都很合理。以下是Microsoft 官方文章中列出的新協議要點:
·Microsoft 仍然是OpenAI 的首要雲端合作夥伴;OpenAI 產品將優先在Azure 上發布,除非Microsoft 無法支援或選擇不支援相關必要能力。 OpenAI 現在可以透過任何雲端服務商向客戶提供其全部產品。
·Microsoft 將繼續獲得OpenAI 模型和產品相關IP 的授權,有效期至2032 年。但Microsoft 的授權現在將不再是獨家的。
·Microsoft 將不再向OpenAI 支付收入分成。
·OpenAI 向Microsoft 支付的收入分成將持續到2030 年,此安排不受OpenAI 技術進展影響,比例保持不變,但設有總額上限。
·Microsoft 作為主要股東,將持續直接參與OpenAI 的成長。
我認為,最重要的是最後一點。此前,Azure 因為是唯一能夠提供OpenAI 模式的超大規模雲端廠商,確實擁有真正的競爭優勢。但這種獨佔性也在限制OpenAI,尤其是在越來越多企業最關心的是能否在自己目前使用的雲端平台上存取模型之後,這一點變得更加明顯。我已經多次指出,這正是Anthropic 的一個重要競爭優勢。換句話說,Azure 的專屬權利實際上正在損害Microsoft 對OpenAI 的投資。考慮到Anthropic 今年的快速成長,Microsoft 必須照看好這筆投資,即使這意味著Azure 的差異化優勢會被削弱。
同時,OpenAI 顯然將AWS 視為一個巨大機會——大到它願意在未來幾年放棄與Azure 相關的部分收入。結合上一點,這也會讓Azure 管理層在失去獨家權利時更容易接受:畢竟,不再向OpenAI 支付收入分成之後,Azure 的損益表會好看得多。 OpenAI 也將Microsoft 從AGI 條款中釋放出來;如今,無論發生什麼,兩家公司之間的協議都會持續到2032 年。
現在看起來相當明確的是,OpenAI 接下來的重點將放在AWS 上。而最有力的證據,正是本次訪談的主題:由OpenAI 提供支持的Bedrock Managed Agents。要理解這個產品最簡單的方式,就是把它看成AWS 裡的Codex。 Codex 能夠運作得好,很大程度上是因為它是本地化的,這讓許多複雜問題,尤其是安全問題,可以天然地解決。但要讓agents 在一個組織內部跨部門、跨系統運作,則完全是另一回事。這個產品的目標,就是讓那些大部分資料已經放在AWS 上的組織,更容易使用這類工作流程。
圍繞著這一點,在這次訪談中,我們討論了AWS 如何開創整個雲端運算品類,以及它對新創公司的影響;也討論了AI 與那一次範式轉變之間有哪些相似之處,又有哪些不同。隨後,我們談到了Bedrock Managed Agents:它是什麼,以及它與Amazon 現有的AgentCore 產品有什麼區別。我們也聊到了Trainium,為什麼晶片對大多數AI 用戶來說並不會那麼重要,以及相較於Google 對全端整合的重視,為什麼合作是一種合理選擇。
提醒一下,所有Stratechery 內容,包括訪談,都可以透過播客收聽;點擊這封郵件頂部的鏈接,即可將Stratechery 添加到你的播客播放器。
進入訪談。
訪談內容
本訪談經過輕度編輯,以提升清晰度。
OpenAI 進入AWS,Azure 獨佔時代結束
Ben Thompson(主持人):Matt Garman、Sam Altman——Matt,歡迎來到Stratechery;Sam,歡迎回來。我先前曾在2025 年10 月、2025 年3 月和2023 年2 月採訪過Altman。
Sam Altman(OpenAI CEO): 謝謝。
Matt Garman(AWS CEO): 謝謝,謝謝邀請我。
主持人:Matt,這是你第一次來到Stratechery。遺憾的是,我想Sam 的出現會讓我們無法照慣例進行「認識嘉賓」的環節。況且,他大概也不想聽我們回憶在Kellogg 商學院的日子。不過,能在播客裡邀請到一位校友,還是很高興。
Matt Garman: 是的,我很高興來到這裡。下次我可以再來,我們可以更深入地聊一聊。
主持人:那太好了。你從實習生時期就開始參與AWS,現在又在AI 浪潮中負責整個AWS 組織。你覺得,打造AI 業務和當年打造最初的通用計算業務相比——姑且先這麼說——有哪些地方是相同的?又有哪些地方真的不一樣?
Matt Garman: 我覺得相同的地方在於,我看到了同樣的興奮感,也看到了外面的建造者們開始能夠做以前做不了的事情。當年我們剛開始做AWS 時,很酷的一點是,開發者突然能夠獲得以前只有最大型公司才能使用的基礎設施。過去,只有那些有數百萬美元預算去建造資料中心的公司,才能擁有這類能力。而現在,開發者只需要一張信用卡、幾美元,就可以啟動應用程式。這極大拓展了互聯網建設者能夠做的事情。
我們當時的想法是,人們可以去建造任何他們想建造的東西。我們不會預設他們該做什麼。我們相信,世界各地的創造力是存在的;只要把強大的工具放到他們面前,他們就會創造出有趣且驚人的東西。
我認為AI 對建設者的賦能,至少同樣具有變革性,甚至可能更強。想想現在什麼變得可能了:你不必上學十年編程,才能建立一個應用;你不需要擁有數百人的龐大團隊,也不需要幾個月、幾個月、再幾個月的時間去做東西。你可以用小團隊快速建置、快速迭代。 AI 正在解鎖世界各個領域的創新。從很多方面看,這和當年非常相似。看到它帶給客戶群的能力,真的令人非常興奮。
主持人:不過,當年AWS 出現的時候,你們是唯一的玩家,所以無論是好處還是壞處,某種意義上都自然落到了你們身上。有沒有這樣一種感覺:在AWS 時代,很多事情是關於通用計算的——讓計算變得可替代、有彈性、便宜;但在AI 領域,尤其是在訓練階段,獲勝的抽象方式似乎更像是高度垂直整合的超級集群,非常先進的網絡,以及軟體和硬體之間極其緊密的聯動。對你們來說,這算是一種意外嗎?因為這一次,你們並不是從零開始,也不是「我們是唯一在這裡的人」;你們過去對於大規模計算有一套特定理解,但至少在AI 的最初幾年裡,它似乎並沒有完全對齊。
Matt Garman: 我不確定這對我們來說有多不同。我認為真正不同的是,採用速度快得驚人。我覺得這可能會讓所有人都感到驚訝。 Sam,如果你不同意,可以補充。但人們接受這些能力的速度,以及抓住這些能力的速度,我認為超出了所有人的預期。
這和我們剛開始做雲端運算時很不一樣。當時,我們花了非常長的時間去解釋,為什麼一家賣書的公司會來提供運算能力。我們必須花很多力氣解釋什麼是雲端運算。這裡面有很多辛苦工作,現在人們常常會忘記。但在2006 年,沒有人理所當然地認為世界的運算會遷移到雲端。那時確實有大量艱難的解釋和推動工作。
主持人:那你覺得現在是否也需要做一些解釋?因為很多人最初都錨定在訓練時代,而你們會說,「我們思考的是推理時代」,那會是另一種東西。你們是不是也需要重新啟用那套解釋能力?
Matt Garman: 是需要的,但人們理解你在說什麼的速度,已經完全不一樣了。所以我認為,是的,當你要把人們從「這東西看起來挺酷,我能和一個智慧聊天機器人對話」帶到「它真的可以在你的企業裡完成工作」時,確實需要一些教育過程。但從技術演進速度來看,這個過程已經相對很快了。
主持人:我保證,我們很快就會進入今天的產品主題。不過Sam,從創業生態的角度來看,回頭去看,AWS 顯然是變革性的,它徹底改變了創業門檻。現在任何人都可以開始創業。種子輪、天使投資人也隨之出現,融資門檻被往後推了。你不需要在PPT 裡寫「我們要買伺服器」,你可以先做出一個應用,然後再去融A 輪或別的輪次。
那從你的角度來看,當年AWS 所開啟的世界,和今天AI 所開啟的世界相比,有哪些不同?又有哪些相同?
Sam Altman: 我認為,歷史上有四次大規模賦能新創公司的平台性時刻:網路、雲端、行動,以及AI。在這四個時刻裡,第一個我作為成年人所經歷的是雲。在YC 早期,很難誇大這件事對新創公司的改變有多大。
在那之前,新創公司要租託管機房空間,自己組裝伺服器,把設備放進去。這是一件極其複雜的事,而且你必須先融到很多錢。然後突然之間,雲出現了。雖然雲是在YC 創立之後才出現的,應該是第二年。
主持人:我正想問這個——歸根結底,YC 和雲端是不是比你們當時意識到的更加密不可分?
Sam Altman: 那時我們就覺得它們是高度綁在一起的。感覺YC 從一開始就在乘著雲這波浪潮前進,因為在AWS 之前也已經有一些早期雲端服務的例子。
主持人: 如果AWS 存在,那麼讓一家新創公司啟動所需的資金,確實比以前少得多。
Sam Altman: 這是一個巨大的賦能變化,也是為什麼YC 當時聽起來那麼瘋狂。人們會說,「不可能用幾萬美元投資一家新創公司,這根本不可能,光伺服器成本就超過這個數字了。」所以這徹底改變了新創公司可以用少量資本完成的事情。
通常來說,當出現一次大型的平台轉移,並且你能夠用比過去更快的周期、更少的資本做事時,新創公司就會贏。這是新創公司擊敗大公司的經典方式。在我職業生涯的早期,我親眼見證了雲端帶來的這種變化。現在看著公司基於AI 建立產品,方向上其實感覺非常相似。但正如Matt 所說,這次的速度非常瘋狂。
主持人:有沒有這樣一種情況:現有的大公司、這些產業巨頭,採用AI 的速度比當年採用雲端運算要快得多?
Sam Altman: 這種情況當然更多了。但我說的還包括新創公司收入成長的速度。最近我在YC 演講,最後我問了一下:「現在有一個好公司在YC 結束時,大家對它的收入預期是什麼?」他們說:「這個答案每個月都在變。可能同一期YC,batch 開始時和結束時,答案都會不一樣。」以前從來沒有發生過這種事。人們基於這個新平台建立規模化業務的速度,是我過去從未見過的。
主持人:Matt,在整個雲端時代,AWS 基本上是所有新創公司的首選雲,這為你們帶來了巨大優勢。那今天,什麼讓你們仍然成為首選雲?因為現在很多人是在OpenAI API 上建立產品;還是說你們其實感覺,「我們是從一個非常不同的角度進入這個市場的。我們有龐大的既有客戶基礎,他們都在要求我們提供AI 能力,但對Sam 所說的這整個創業公司群體,我們的可見度沒有那麼高」?
Matt Garman: 我認為這裡有幾個面向。第一,我們對這次合作感到非常興奮,我也認為它會對許多新創公司產生非常重要的意義。但即便在今天,如果你去和新創公司聊,大多數正在擴張的新創公司還是在AWS 上擴張,背後有許多原因。規模在那裡,可用性在那裡,安全性在那裡,可靠性在那裡,其他ISV 的合作夥伴生態在AWS 上,客戶也在AWS 上。
主持人:(笑)不管願不願意,大家都用過AWS 控制台,所以他們也習慣了。
Matt Garman: 而且我們會幫助他們。我們花了大量時間賦能新創公司,不只是給credits,還包括建議他們如何建立系統、如何思考go-to-market,以及很多類似的事情。我認為很多新創公司都非常認可這些。我們投入了大量時間和精力來確保這一點,因為我們真的認為,新創公司是AWS 的生命線。從一開始就是這樣,正如Sam 剛才所說,今天依然如此。我現在仍然每個季度都會去矽谷或其他地方,直接和新創公司見面,聽他們在做什麼,確認我們正在建立的東西是否真的能滿足他們的需求。
所以,今天爭奪新創公司注意力的競爭,確實比20 年前更多了。但這件事對我們來說仍然和過去一樣重要。我們投入大量時間,確保自己能夠滿足這些新創公司的需求。
主持人:可以這麼說嗎?那些直接基於OpenAI API 建立產品的人,而不是使用Azure 版本OpenAI 服務的人,更可能採用這樣一種技術堆疊:常規計算放在AWS 上,AI 部分使用OpenAI?
Matt Garman: 我認為這是今天很多新創公司非常常見的模式,完全是這樣。
Bedrock Managed Agents:把AI Agent 帶進企業工作流程
主持人:這就把我們帶到了今天的公告:由OpenAI 提供支援的Bedrock Managed Agents。我想我沒說錯。依照我的理解,這個產品的賣點並不只是OpenAI 模型可以在AWS 中使用——我認為這應該還不被允許——而是OpenAI 的前沿模型被封裝進了一個AWS 原生的agent runtime 中,裡麵包括身分、權限狀態、日誌、治理和部署權限。 Sam,這樣表達準確嗎?
Sam Altman: 是的,概括得很好。
主持人:謝謝。那這到底是什麼?現在請用大白話解釋一下。
Sam Altman: 我認為AI 的下一階段,將從“你給agent 一些文本,然後拿回更多文本”,甚至從“你給它一堆代碼,然後拿回更多代碼”,進入到一個新階段:這些agents 會在公司內部運行,去完成各種不同類型的工作。
「虛擬同事」是我聽過的所有描述裡最不差的一個說法,但還沒有人真正找到最準確的語言來描述它。我們正在共同打造一個新產品,幫助那些想要建立這類有狀態agents 的公司,把它們真正做出來,並且讓它們可以被使用。再強調一次,我想我們現在還不知道世界最終會如何談論這些agents、如何使用它們。但如果你看看Codex 正在發生什麼,我認為那就是一個很好的例子,讓我們看到這一切將走向哪裡。
主持人:要讓AI agent 真正跑起來,光有模型還不夠。它還需要一整套配套系統:運作環境、可呼叫的工具、任務狀態、記憶、權限管理,以及效果評估。你剛才特別提到「狀態」這個詞。那這些模型之外的基礎設施,對agent 能否真正運作到底有多關鍵?
Sam Altman: 它的重要性怎麼強調都不為過。我現在已經不再把配套系統(Harness)和模型看作兩個完全可以分開的東西。以我自己的使用體驗來說,當我在Codex 裡啟動一個任務,它為我完成了一件很驚豔的事情時,我非常清楚的一點是:我並不總是知道這其中有多少功勞應該歸於…
主持人:是模型很強,還是配套系統(Harness)很強?
Sam Altman: 對,正是如此。
主持人:那配套系統(Harness)在多大程度上是和模型一起發展的?這種整合發生在哪裡?是在post-training 裡?是在prompt 裡?到底是什麼讓這種整合奏效?
Sam Altman: 皆有。它其實不太屬於pre-training 過程的一部分。但我會說,這裡有一個更有趣的現象:過去我們已經多次看到,一些我們原本以為非常可以分開的東西,會越來越深地被烘焙進系統之中。
例如我們最初理解tool-calling 的方式。現在它已經是我們使用這些模型的關鍵部分,但最開始,我們並沒有認為它需要被深度整合進訓練過程。隨著時間推移,我們在這方面做得越來越多。
我也懷疑,模型和配套系統(Harness)會隨著時間推移而越來越融合。進一步說,我也預期pre-training 和post-training 最終也會隨著時間推移而更加融合。這句話說出來很像陳腔濫調,但我還是要說,因為我認為它非常、非常真實:我們在整個範式裡仍然處於非常早期的階段。這個行業真正成熟的程度,大概還等於Homebrew Computer Club 那個時代。
主持人:這也是為什麼我覺得這件事很有趣。我幾週前寫過,在任何價值鏈中,最終都會出現一個整合點,那個點非常關鍵,因為兩個部分必須結合在一起,才能讓事情運作起來。隨著時間推移,很多價值顯然會在那個地方沉澱。我當時的判斷是,配套系統(Harness)與模型的整合就是這個關鍵。這當然符合你的利益,但聽起來你也同意這個判斷。
Sam Altman: 這確實符合我的利益,我也確實同意。但我還會說得更寬一點:真正重要的是,你在Codex 裡輸入你想要發生的事情,然後它真的發生了。
主持人:你並不在乎實作細節。
Sam Altman: 我們在摸索這些事情的過程中,已經有太多這樣的例子:有些事情一開始必須在system prompt 層面解決,後來就不需要了。這裡的整體觀察是,隨著模型變得更聰明,你有更大的彈性,讓它們以你想要的方式行事。這聽起來像是一句顯而易見的話,但它確實是…
主持人:讓一個10 歲小孩做事,比讓一個5 歲小孩做事更容易。
Sam Altman: 當我回想GPT-3 時代,我們為了從這些模型裡榨出一點點實用性所必須做的事情,再看看現在,你根本不需要那樣做了,因為模型當然已經能理解,並且開箱即用地把事情做好。這個趨勢可能還會繼續走得更遠。
Matt Garman: 我想補充一點。我完全同意Sam 的說法。而且當你和客戶溝通時,他們其實很清楚自己到底希望這些系統做什麼。在我們這次共同合作之前,客戶某種程度上是被迫自己把這些東西拼湊起來。他們希望這些模型和agents 能夠記住某些東西,並且能夠很好地協作,並且能夠整合進他們現有的系統。而且這不只是第三方工具的問題,也包括他們自己的工具。他們希望這些agents 能了解自己的資料、自己的應用,以及自己的運作環境。而今天,至少目前來說,所有這些整合工作都需要每位客戶自己完成。
所以,我們這次共同合作的一部分,就是一起建立一個新類型的產品,把這些東西更緊密地放在一起,讓客戶更容易完成他們想做的事情。例如,身分能力已經內建進產品裡;連結資料庫並完成認證的能力,也會在你的AWS VPC,也就是Virtual Private Cloud 裡完成。如果只是OpenAI API 在一邊、AWS 在另一邊,這些事情理論上也可以做到。但透過共同建構這個東西,我們讓客戶更容易、更快地實現價值,並且在自己的企業環境中完成他們想完成的事情。
主持人:所以你的意思是,在一個通用配套系統(Harness)裡也可以建立一個可運作的agent,只是困難得多?你們是在讓它變得更容易?還是說,如果這些東西沒有綁在一起,有些事情其實根本做不了?
Sam Altman: 回到你之前的類比,在AWS 出現之前,如果你願意站在機房隔間裡,買一堆伺服器,弄清楚怎麼把它們連起來,再僱用自己的網路工程師,你確實可以做很多事情。你可以讓很多事情發生。然後突然之間,你只需要登入AWS 控制台,點擊一下「我需要另一個S3 實例」之類的東西,你就能做更多事情,因為基礎工作所需的啟動能量和工作量大幅下降了。
今天,你當然也可以用模型做很多事。但每次我看到有人使用我們的模型,或是試圖建立Matt 剛剛說的那些工作流程時,我都會很矛盾。一方面,我很高興他們覺得這些模型很令人印象深刻,覺得這是一種魔法般的技術;另一方面,我也快要抓狂,因為他們為了讓任何東西真正跑起來,經歷了太多痛苦和折磨。
這不僅對建構這些產品的開發者成立。即便只是使用ChatGPT,我看到人們從這裡複製貼上到那裡,試圖組織一套複雜的prompt,我也知道這些都會消失,而這讓我很興奮。現在一切仍然太早期,也太糟糕了。
主持人:只要你別取消它和BBEdit 的整合就好。那是我對ChatGPT app 最喜歡的功能,沒有之一。
註:BBEdit 是macOS 上一款老牌文字與程式碼編輯器。這裡主持人是在半開玩笑地說,雖然未來AI agent 會減少複製貼上和手動操作,但他仍希望ChatGPT 保留與本地編輯器聯動的功能。
Sam Altman: 好吧。
主持人:(笑)謝謝。
Sam Altman: 第一,現在這些事情實在太難做了。我們認為,如果能讓它變得容易得多,它會為開發者和企業帶來更多價值。第二,有很多事情現在根本無法可靠地運作。我認為,透過我們這次共同合作,它不僅會是一個關於易用性的故事,不只是「不用再自己搭colo」之類的問題。我們也會一起摸索出許多新的東西,讓人們能夠建構出過去即便經歷許多痛苦和折磨也無法做出來的產品和服務。
企業Agent 真正難的,是權限、資料和安全
主持人:我之後還想回到「有什麼東西可以被建構」這個點。但先快速回到Codex。 Codex 是配套系統(Harness)加模型,而且它在本地運行。為什麼現在讓agents 在本地工作會更容易?
Sam Altman: 其實我們一開始是讓它在雲端運作的。我認為最終你確實會希望它在雲端運作。
主持人:當然。我是在順著過渡到這個雲端產品的路徑來問。但你們為什麼又回到本地?
Sam Altman: 因為你的整個環境都在那裡。你的電腦已經配置好了,你的資料也在那裡,你不用去考慮太多事情。雖然這不是最終狀態,但它就是更容易跑起來。
不過,進入一個agents 真正在雲端運行的世界,顯然會很好。例如你有一個非常高強度的任務,或是你需要關掉電腦,或是別的情況,你可以把工作交給雲端繼續處理。這個方向顯然會很棒。但短期內,我們能夠提供的易用性,很明顯還是使用用戶本地環境更佔優。
主持人:我有一種理解方式:過去的安全模型更像是「城堡與護城河」模式,而現在你們正在轉向一種新的零信任安全模型,每個東西都要有合適的權限結構、認證機制,以及所有這些細節。對我來說,本地運作某種程度上像是一種自我施加的「城堡與護城河」:所有東西都在本地,我就假定它們都沒問題,也很容易處理。
而我理解這個產品的一種方式是,要讓所有這些部分在生產環境中真正運作起來,你不可能全都放在本地。你必須從一開始就在這個環境中運作。 Matt,這種說法對你來說成立嗎?
Matt Garman: 我不認為有任何運算環境真正擺脫了客戶端。本地運行確實有好處。你的大多數iPhone 應用程式之所以也有本機元件,是有原因的,不管是連線性、延遲、本機運算,還是對檔案和應用的存取。
本地客戶端確實有它的特點。正如Sam 所說,它簡單,運行得很好,但它也是受限的,有邊界。你無法擴展你的本地筆記型電腦,你有什麼就是什麼。一旦進入企業場景,例如兩個人之間共享,事情就會變得更難;要思考權限、安全邊界,也會變得更難。
所以這裡有很多部分。我不會說本地環境是一件壞事,它只是另一種東西。我認為,最終你會希望在本地和雲端之間建立橋樑。
主持人:這正是我的問題。雲端時代有container,幫助你把本地環境和生產環境拉近。但在agents 這個場景裡,聽起來如果你要處理agents,就像你剛才說的,它像一個虛擬同事,或類似的東西。如果它們有自己的身分、自己的權限以及所有這些東西,那麼即便只是建構它們,你也需要處在最終部署它們時所在的那個正確環境中。在我看來似乎是這樣。
Sam Altman: 我認為這裡還有太多東西要弄清楚。舉一個例子,如果你是一家公司的員工,當你使用某項服務時,你是否應該只有一個帳戶?那麼你的agent 是否也應該使用你的帳戶?還是說你的agent 應該使用另一個帳戶,這樣伺服器才能分辨到底是誰?
主持人:或者,如果你想要很多agents 呢?
Sam Altman: 沒錯。我懷疑我們真正需要的東西,是某種我們還沒想清楚的東西。也許當Ben 的agent 以Ben 的身份登入時,它使用Ben 的帳戶,但會標記自己是一個agent,而不是真正的Ben。我們甚至還沒有一個基礎概念來思考這件事,但我們可能很快就必須弄清楚。
而我的感覺是,還會有另外50 件類似的事情。隨著agents 加入勞動力,並以越來越高的自主性和任務複雜度行動,我們關於軟體如何運作、公司內部以及更廣泛互聯網中的訪問控制和權限如何運作的許多心智模型,都必須演進。
主持人:Matt,你如何看待agents 的安全、存取策略以及類似問題?
Matt Garman: 是的,我確實認為,當你把更多這類工作負載遷移到雲端時,作為一個中心化組織,你可以對安全相關部分施加更多控制。我們一直和客戶交流,而這確實是他們擔心的事情。他們會說:「我很喜歡這些強大模型和agents 能帶來的前景,但我如何確保自己不會因為搞砸了而製造出一個足以終結公司的事件?」
這種擔憂是真實存在的。
我認為我們可以在這方面提供幫助,因為這些問題是可以解決的。確實可以。我認為,我們可以給客戶一些信心:例如「它運行在這個VPC 裡面」,那麼你至少可以控制這個邊界,知道它能訪問什麼;或者它通過某個gateway,你可以給它分配權限,就像你在環境裡的其他部分給它分配一個角色一樣。
這些都是我們過去20 年建立的能力。我們已經圍繞著這些結構建構出非常豐富的能力,不只是讓Y Combinator 的創業公司可以使用AWS,也讓全球銀行、醫療機構、世界各地的政府機構都可以使用AWS。圍繞著AWS 建立起來的整套安全結構,我認為可以幫助我們進一步加速客戶利用這項技術,同時為他們提供快速行動所需的安全護欄。
很多時候,在一家企業裡,尤其是在風險規避傾向較強的行業裡,如果你有這些安全護欄,讓他們可以說:「只要它運行在這個沙盒裡,我就願意快速推進」,這實際上可以幫助很多客戶開始把這些技術用於更廣泛的場景。
主持人:你剛才提到的許多能力,是AWS 在過去20 年裡建立起來的,而你們現在正試圖把它們用於agents。這些能力今天已經透過AgentCore 暴露出來。那麼,由OpenAI 提供支援的Bedrock Managed Agents 和Bedrock AgentCore 之間是什麼關係呢?
註:AgentCore 可以理解為AWS 為企業開發AI agent 準備的一套「底層工具箱」或「基礎元件平台」。可以這樣理解兩者的關係,AgentCore = 底層積木;Bedrock Managed Agents = AWS 和OpenAI 拼好的成品方案
Matt Garman: 我們共同建構的很多東西,是基於AgentCore 的building blocks,把這些部分組合起來。
主持人:所以它有點像是位於AgentCore 之上的一個超集?
Matt Garman: AWS 團隊和OpenAI 團隊一起使用了AgentCore 的元件,再結合OpenAI 模型以及其他許多部分,共同建構了這個產品。
AgentCore 可以理解為我們提供的一組基礎建構模組。就像在AWS 上,如果你想自己建立agent 工作流程,你可以直接使用這些模組:例如memory 元件、安全執行環境、權限管理能力等。你可以自行配置這些能力,並組合出適合自己業務的agent 系統。現在已經有客戶在生產環境中運作這些能力,而且做出了不少很酷的應用。
主持人:但不是用OpenAI。
Matt Garman: 但不是用OpenAI。今天他們必須使用不同的模型,這是真的。其實,不對,這也不完全對。我們確實有人在用OpenAI 做這件事。
主持人:哦,只是呼叫另一個雲端上的模型,或類似方式。
Matt Garman: 他們就是直接呼叫OpenAI 模型。所以今天確實已經有人用OpenAI 來做這件事,只是不是以Bedrock 原生方式在裡面使用,但他們仍然在使用它。這是一個開放生態,你可以拉取不同的能力,去建造你想建造的任何東西。我打賭,人們還會繼續這麼做。
外面有些建造者很喜歡──借用Sam 的類比──即便今天已經沒有必要,他們還是喜歡在家裡自己組裝電腦。人們喜歡建構。我們認為,在很長一段時間裡,人們都會繼續建立自己的agents。但其中絕大多數人會希望有一種更簡單的方式,他們不想自己配置所有這些部分。這正是我們這次合作推出的東西之一。
主持人:我想把這個差異說得更清楚一點。 Bedrock Managed Agents 是一種託管式服務;但使用者也可以使用AgentCore,自己去存取不同模型,無論模型是在AWS 上,或是在別的雲端上。 Sam,這是不是就構成了它和OpenAI 在Azure 上那種形式的區別?簡單說,在Azure 上,使用者主要是直接存取OpenAI API;而在Amazon 上,這次是更完整的託管式agent 服務。這樣理解對嗎?
Sam Altman: 正確,是的。
主持人:你對此很有信心?它在各種條款和範圍上都界定正確,未來不會成為問題?
Sam Altman: 是的。我認為事情會隨著時間而演進,但作為一個起點,我對這個方式非常有信心。
主持人:這會是AWS 的獨家產品嗎?還是說你們也預計會在其他雲端上提供類似的託管式使用體驗(managed experience)?
Sam Altman: 是的,我們會和Amazon 獨家做這件事,我們對此感到很興奮。
主持人:這種獨家的成分有多少是因為,「看,我們用的是Amazon 的所有API,所以它當然只在Amazon 上」?還是說,這不是簡單的「我們用了Amazon API」,而是整個託管式使用體驗(managed experience)的理念本身,目前就會放在Amazon 上?
Sam Altman: 從精神上來說,我們希望這是兩家公司之間的共同努力。
主持人:明白了。公關稿裡提到了一點,這也回到Matt 剛才說的:你理論上可以呼叫其他API,然後自己把所有東西黏在一起。但在這個案例裡,客戶資料會留在AWS 之內。所以OpenAI 到底能看到什麼?這句話是什麼意思?
Matt Garman: 是的。整個東西基本上都會留在你的VPC 裡,所以資料會在Bedrock 環境內受到保護。
註:VPC 是Virtual Private Cloud,可以理解為企業在AWS 裡劃出來的一塊「私有雲網路空間」
主持人:明白了。這個產品會透過Bedrock 運行在OpenAI 模型上,而這些模型會跑在Trainium 上嗎?
Matt Garman: 它們會以不同方式混合運作——有一部分會在Trainium 上,有一部分會在GPU 上。
註:Trainium 是AWS 自研的AI 加速晶片,用於支援大模型訓練和推理。與英偉達GPU 類似,它屬於底層算力基礎設施。對於一般企業客戶來說,通常不需要直接接觸Trainium,而是透過Bedrock 這類託管服務間接使用底層算力
主持人:這只是時間因素造成的嗎?因為我記得你們幾個月前的公告裡提到…
Matt Garman: 一部分是時間因素,一部分是能力因素。我認為我們會在共同建構系統的過程中混合使用不同元件,為不同部分使用適當的基礎架構。但隨著時間推移,越來越多部分會運行在Trainium 上。
Sam Altman: 我們非常期待讓這些模型跑在Trainium 上。
AI 平台競爭,從模型走向基礎設施
主持人:我可以想像。 Matt,關於Trainium,我有一個快速問題,也是一個更一般性的問題。我現在是這樣理解Trainium 的,想確認一下是不是正確。 Trainium 這個名字非常不幸,因為未來它真正重要的地方其實會是推理。它最主要的呈現方式,會是透過Bedrock 這樣的託管式服務(managed services)。也就是說,客戶甚至不一定知道自己具體在使用什麼運算資源。這樣理解公平嗎?
Matt Garman: 首先,我願意為AWS 所有服務的糟糕命名承擔責任。
主持人:沒關係,我有一個靠口耳相傳的網站叫Stratechery,所以我完全理解糟糕命名這件事。
Sam Altman: 我覺得Trainium 這個字挺酷的。
Matt Garman: 它確實挺酷。
主持人:這個字是挺酷的,只是感覺它更像一顆推理晶片,而不是訓練晶片。
Matt Garman: 是的。不過,先不談命名,它對於訓練和推理都有用。說真的,這是一顆讓我們非常興奮的晶片。無論是當前世代還是後續版本,我們都認為它會成為一個巨大的業務,也會成為我們共同要做的許多事情的重要推動力。
順便說一句,我認為和GPU 一樣,你會透過抽象層來和許多這類加速晶片互動。絕大多數客戶其實也不會直接和GPU 交互,除非可能是在自己的筆記型電腦上用於圖形之類的場景。但當你和OpenAI 互動時,即便它們底層跑在GPU 上,你也不是在和GPU 對話;當你和Claude 對話時,不管它底層是GPU、Trainium 還是TPU,你也不是在和那些晶片對話,你是在和介面對話。
而外面絕大多數的推理,都是由少數幾個模型完成。所以無論是5 個、10 個、20 個還是100 個模型,都不是幾百萬人在直接面對這些晶片程式設計。未來也會如此,因為這些系統太複雜、規模太大。如果你要去訓練一個模型,沒有多少人有足夠的錢去訓練模型,也沒有多少人真正有能力管理它們。它們是非常複雜的系統,而OpenAI 團隊從大型運算集群中榨取價值的能力非常驚人。但沒有多少人擁有這樣的團隊。無論具體是什麼晶片,我認為這對所有加速晶片來說都會成立。
Sam Altman: Ben,我越來越覺得,我們作為一家公司要做的事情,就是成為一家token 工廠。但客戶真正關心的是,我們能以最低價格交付最好的intelligence unit,而且能以他們想要的數量、以他們想要的容量交付。
主持人:你認為我們會繼續堅持現在這種定價方式嗎?也就是說,以tokens 定價。從長期看,這合理嗎?
Sam Altman: 不合理。事實上,我們剛發布的5.5 模型就是一個有趣的例子。它的單token 成本比5.4 高很多,但它完成同樣答案所需的token 數量大幅減少。實際上,你並不在乎這個答案花了多少token,你只想讓這件工作完成。你想要的是一個價格,以及你能夠獲得的容量。
所以也許我剛剛說「token 工廠」是錯的。我們更像是一家智慧工廠(ntelligence factory),或是類似的東西。我們想以最低價格提供盡可能多的「智慧能力(intelligence units)」。至於是一個更大的模型跑更少的tokens,還是一個更小的模型跑很多tokens;是GPU、Trainium,還是別的東西;或者我們用其他任何創造性的方式來做,我不認為客戶會在意。
事實上,他們根本不會直接接觸這些東西。當你把東西放進Codex,或是在SRE,也就是Stateful Runtime Environment 裡建構一種新的agent 時,你根本不應該需要思考這些問題。你應該只是驚訝於自己用這麼低的成本得到了這麼多東西。
主持人:token 使用量減少,是模型本身帶來的,還是配套系統(Harness)帶來的?
Sam Altman: 主要是模型,也有一點配套系統(Harness)的功能。
主持人:明白了。 Matt,順便問一下,剛才我問了Sam 關於獨家的問題。你是否預計未來會為其他型號提供類似的managed service?
Matt Garman: 我們現在專注於和OpenAI 做這件事。我們對雙方正在共同建構的東西感到非常興奮。至於更長遠的未來,那是很長的一段時間。
主持人:「更長遠的未來是很長的一段時間」,這個回答我先讓你保留。沒關係,我必須問這個問題。
關於客戶,我還有一個問題。 Sam,結合你剛才的觀點,我也想聽聽你們兩位的看法。當客戶真正進入生產環境時,OpenAI 的責任到哪裡結束,AWS 的責任從哪裡開始?在我聽起來,如果所有資料都在AWS 上,並且資料留在那裡,而客戶是在更高層面操作,那麼這最終是AWS 的責任?從消費者角度來看,我這樣理解對嗎?
Matt Garman: 是的,我認為這是對的。當你需要聯絡某個人時,你會聯絡AWS support 來幫你。這是你AWS 環境的一部分,是你在AWS 上建構出來的。你的AWS account reps 會在那裡幫助你。當我們建構它時,也會請OpenAI 的同事參與,幫助你弄清楚如何最好地利用這個產品,或處理類似問題。在某些情況下,如果我們遇到需要他們幫忙解決的bug,我們會升級給他們。但AWS 會是你直接互動的一線支援。
主持人:Sam,你怎麼看這項業務相對於OpenAI 核心API 業務的規模?
Sam Altman: 我希望它會非常大。我們正在為此投入大量精力,也承諾購買大量算力。我相信這裡會有很多收入來支撐這一切。我越來越相信的一個框架是:當價格夠低時,對intelligence 的需求本質上是沒有上限的。
主持人:所以從這個角度來看,它的需求彈性很強?價格下降,需求上升?
Sam Altman: 當然有這一點。但換個例子,你降低水的價格,也許你會多喝一點水,也許你會從一天洗一次澡變成一天洗兩次澡,這裡面有一定彈性。但到某個程度,你會說:「你知道嗎?我的水已經夠了。」
主持人:而且如果你必須要水,無論它多貴你都會買。
Sam Altman: 對於其他公用事業也是如此。如果電更便宜,你當然會用更多電。但如果你把intelligence 想成一種公用事業,我不知道還有哪種公用事業會讓我覺得:「我只是想要更多。只要價格夠低,我就會繼續用更多。」
Matt Garman: 有趣的是,運算能力在很大程度上其實也是這樣。想想今天一個計算週期的成本,相比30 年前不知道便宜了多少個數量級,而今天售出的計算量比以往任何時候都多。
主持人:對。至少在達到極高規模、成本變得重要之前,人們通常不會真的去想計算成本。整體來說,從策略角度來看,大家只是預設自己擁有運算能力。那AI 要走到這一步,還需要多長路?也就是說,大家不再把「我在這裡花了多少錢」當作第一個反應。
Sam Altman: 我不認為這現在是第一個反應。現在有遠更多客戶問我們:「不管價格多少,你能不能給我更多?我只需要更多容量,我願意多付錢。」相比之下,和我們爭價格的人少得多。
但我確實認為,我們會繼續把價格大幅降下來,降幅會非常驚人。也許我們越這麼做,想要流入這個領域的財富就越多、越來越多、越來越多。但我有信心,我們會繼續大幅降低當下這個intelligence 水準的成本。
有一件事多少讓我有點驚訝,我不知道它會不會一直如此,但至少在今天,總市場需求中有相當大一部分集中在絕對前沿模型上。
主持人:對,這方面有很多問題。服務前沿模型非常昂貴,人們其實可以用前一個版本。但你的意思是,不管怎樣,人們就是想用最前沿的?
Sam Altman: 到目前為止,是的。
Matt Garman: 我認為這是一個很好的訊號,說明我們離真正想達到的狀態還很遠,需求還有太多沒有被滿足。我確實認為這有點像是40 年前的計算需求。當時一台電腦極為昂貴,而現在每個人手機裡的運算能力都遠遠超過當時,而且我們賣出了數十億台這樣的設備。
我認為AI 世界也會發生同樣的事情。今天,所有人都想使用前沿模型,因為你需要它才能完成大量有用的工作,而且大家對外面的能力感到非常興奮。
我認為隨著時間推移,你會擁有一組混合模型。順便說一句,一些較小模型將能夠完成某些事情,甚至是最新OpenAI 模型尚未完成的事情。但它們會隨著時間推移變得更小、更便宜、更快。同時,也會有那些超大型模型,去嘗試攻剋癌症以及其他類似問題。
但我認為我們仍然處於可能性的早期階段。當你在可能性的早期階段就看到這麼多需求和這麼快的成長時,未來會非常令人興奮。
主持人:有沒有一種比較犬儒的看法:Sam,你有一群客戶會說,「我們很想用OpenAI 模型,但我們的所有東西都在AWS 上,我們不搬。」Matt,你這邊則是,「看,我們所有東西都在AWS 上,你能不能把OpenAI 模型只是弄過來?」所以這件事只是滿足這種需求。而事實證明,因為AWS 是最大的,所以這個需求量大到天文數字。這是不是最簡單的答案?還是說這裡還有另一層,即你們確實認為能交付一種高度差異化的東西,並且它也會為你們雙方吸引新客戶?
Sam Altman: 我們當然非常高興能夠接觸到AWS 客戶,而且很多人都非常喜歡AWS。是的,這句話是真的。
Matt Garman: 這一部分肯定是真的。
主持人:(笑)對。
Matt Garman: 反過來也一樣,我們的客戶也非常興奮能夠獲得OpenAI 技術。
Sam Altman: 但我確實認為,我們可以一起建構出某種不可思議的新東西。我希望一年後,當人們回頭看這件事時,大家談論的最重要內容不會是:「哦,終於可以透過AWS 存取這些模型了。」或者類似的話。而是:「哇,我們之前沒有意識到這個新產品有多重要。」
我認為,在模型、配套系統(Harness)和能力層面,我們已經接近一種全新的運算形式。它會讓人感覺和現有這些「我需要這個模型的API」之類的思路非常不同。
Matt Garman: 我完全同意,這正是關鍵。第一部分很好,也很不錯;但第二部分,我認為才是讓我們所有人真正興奮的地方。
主持人:說到這一點,我剛才提到,我想回到這個主題。我有一個理論,不一定正確,我很好奇你們怎麼看,也就是關於「還有什麼東西需要被建構」。具體來說,最終可能會出現一個真正的middleware 或中間層。在一個組織中,會有各種不同的資料庫、SaaS 應用,以及各種資料碎片,它們橫跨不同系統。上面會有一個agent layer 或配套系統(Harness)。中間似乎還有一些東西需要建造。 OpenAI Frontier 在某種程度上觸及了這個問題。這是不是其中的一部分?還是說這是未來要建造的東西?又或者我完全想錯了,我們根本不需要這個東西?
Sam Altman: 你完全說對了,我們確實需要那裡的某些東西。最近我和客戶交流,尤其是大型企業,他們會說:「我想要某種agent runtime environment;我想要一個管理層,可以把我的數據連接到agents,同時確保我理解token 花在哪裡、沒有花在哪裡,並且有某種監督能力;我還想要某種workspace”——希望那會是Codex——“也就是給我的員工的類似東西”的東西。
人們所要求的這組東西,正在變得非常一致。但現在還需要去把整個產品真正建構出來。
主持人:聽起來幾乎需要一個雙重agent layer。一個agent layer 用來維護中間層,不斷深入各種資料來源去探索;另一個則是真正的使用者介面層,人們在那裡實際進行互動。這符合我們要走的方向嗎?還是我說偏了?
Sam Altman: 對這兩點,我都同意這是今天世界可能呈現出來的樣子。但隨著模型變得真正聰明,我不認為我們已經知道未來架構到底會是什麼樣子。
現在,在你可以稱為user agent layer 的這一層,人們確實想和多個agents 互動。我們讓你可以為這個東西建構agent,為那個東西建構agent,它們可以彼此對話,等等。然後在公司管理階層,人們會有各種控制機制,幫助AI 去探索檔案系統中的文件。
主持人:然後在某個時刻,你會意識到,自己只是沒有理由地抱著過去不放。這些事情本來就應該在模型裡完成。
Sam Altman: 這正是我想說的。在某個時刻,你可能會說:「事實上,我們已經有如此驚人的能力了,那就重新設計整個架構吧。」
Matt Garman: 是的,我同意。我認為這裡確實會出現某種不同的東西。我不確定我們現在是否已經都知道它到底是什麼,但這也是這件事的美妙之處。你讓客戶去使用、去構建,然後你可以從他們那裡學習,弄清楚如何讓這些東西對他們來說更容易、更快、更好。
主持人:Sam,這是我們第二次做這種產品發布訪談。上一次是和Kevin Scott 一起聊New Bing。當時你對自己對Google 帶來的威脅相當有信心。你覺得後來結果如何?
註:Kevin Scott 是Microsoft 首席技術長。 New Bing 是Microsoft 於2023 年2 月推出的AI 搜尋產品,由OpenAI 技術支持,試圖將傳統搜尋從「返回連結」升級為「直接產生答案與輔助完成任務」的交互方式。當時,New Bing 被視為Microsoft 借OpenAI 挑戰Google 搜尋霸權的重要嘗試。
Sam Altman: 我覺得我們做得比我預期更好。 ChatGPT 是,我認為,自Facebook 以來第一個真正大規模的新消費級產品。
主持人:這其實就是答案嗎?也就是說,你們做得比你們預期更好,但它主要體現在ChatGPT 上,而不是其他領域?
Sam Altman: 不,我認為我們在API 上也做得相當好,尤其是Codex。但那不是我當時想的東西。當時我想的是,也許這些新型語言介面會改變人們在網路上尋找資訊的方式。而且,Google 也是一家絕對非凡的公司。我認為從它所做事情的廣度和深度來看,Google 在許多方面仍然被低估了。但相對而言,我對ChatGPT 的表現感到滿意。
主持人:Matt,我也有一個類似的Google 問題想問你。 Google 這週剛在台上,Thomas Kurian(Google Cloud 的CEO)講了他們完全整合的技術棧,從模型到晶片,再到agent layer,上上下下都是一體化的。你今天是和另一家公司主管一起出現,從定義上說,Amazon 並不是完全內部整合的。
先前有很多人批評你們沒有一個前沿級edge model。但現在我們進入了推理時代,你們又習慣服務大量公司。那麼有沒有一種情況是,你們因為保持某種中立性,反而處在了一個更好的位置?這是有意為之,還是說你們意外地來到了一個很好的位置,只是之前沒意識到它會變得這麼重要?
Matt Garman: 有一點是有意的。自從我們開始做AWS 以來,我們一直把合作夥伴視為支援終端客戶的關鍵部分。從一開始,這就是我們策略中非常重要的一部分:與合作夥伴深度合作。也許和其他一些公司不同,我們認為,如果合作夥伴成功了,如果他們是在我們之上或和我們一起構建,那麼我們也就成功了,這很棒。
我們把它看作是在一起把蛋糕做大,那就是勝利。但這不一定是別人看世界的方式。有時候他們會說,「我必須擁有一切。」這也沒問題,這是一種看法。
但我認為選擇權很重要。這樣最好的產品才會勝出。順便說一句,在這樣的世界裡,你可以有第一方產品,也可以有許多第三方產品。但我們的觀點是,我們希望客戶能夠選擇最適合他們的東西。如果最適合他們的是你自己建造的東西,那很好。
對我們來說,如果最好的東西是我們的合作夥伴構建的,但它運行在我們之上,我們也把這看作勝利,因為這是對客戶最好的東西。我們長期以來一直這麼想,而這其實也是我們在AI 世界中建立Bedrock 平台的方式。我們希望支持廣泛的模型,並支持廣泛的能力。事實一直如此,從資料庫到運算平台,再到其他東西都是如此。
所以我認為,這是一項有意的策略。我也認為,這是客戶欣賞的策略,因為他們喜歡這種方式。我們也很興奮能繼續沿著這個方向深入下去。
主持人:是的,這很有趣。這裡有軟體、平台、基礎設施之間的平衡,每個人都說他們會服務所有人。但感覺上,如果回到AWS 剛開始的時候,它是從I,也就是Infrastructure 開始的。從我的角度看,這幾乎給了你們最大的彈性,讓你們可以和Sam 在中間相遇。 Sam 有很強的S,也就是Software;你們一起建置的是一個P,也就是Platform。我想可以這麼說。
Matt Garman: 沒錯。確實有些地方會變得比較難。比如我們說,「我們只有一個S3」,並沒有其他S3 產品,這一部分是真的。所以有些核心元件,就像你說的,在基礎設施層面,我們確實會非常重視自己所建造的東西。
但當你沿著技術棧往上走時,我認為能力集合會變得更廣。無論如何,我都不認為任何一家公司會擁有所有應用程式。當你沿著技術堆疊向下走,進入模型和服務層時,數量會變少;再往下到基礎設施層,數量會更少。而我們的觀點是,擁抱整個合作夥伴集合,對我們的終端客戶來說是好事。
主持人:Sam,有什麼最後想說的嗎?
Sam Altman: 我覺得Matt 說得非常好。我真的認為,現在開發者可以建構的新一代產品,蘊含著巨大的潛力。考慮到我們預期未來一年模型能力會以非常陡峭的曲線進步,我們能夠一起踏上這段旅程,並努力真正建立一個平台來賦能它,這個時機非常好。我認為人們會喜歡它。
主持人:很好。 Matt、Sam,感謝你們來到Stratechery。
Matt Garman: 太棒了。感謝邀請我們。
Sam Altman: 謝謝。


