原作者:ベン・トンプソン、 ストラテチェリー
編集:ペギー、BlockBeats
編集者注:4月27日、OpenAIとマイクロソフトは協力協定を改定し、AzureはOpenAIモデルに対する独占的な権利を失いました。これにより、OpenAIはAWSなどの他のクラウドプラットフォームにも製品を展開できるようになります。
注:Azureはマイクロソフトのクラウドコンピューティングプラットフォームで、通常はMicrosoft Azureと呼ばれています。AWSやGoogle Cloudと同様に、主に企業向けにサーバー、データベース、ストレージ、ネットワーク、セキュリティ、AIモデルの展開といったクラウドサービスを提供しています。
部外者から見れば、これは単なるクラウドサービスの配信チャネルの変更に過ぎないように見えるかもしれない。しかし、サム・アルトマンとAWSのCEOであるマット・ガーマンの議論から判断すると、より重要な変化は、AIが「モデル呼び出し」から「エンタープライズレベルのワークフロー」へと移行していることである。
この記事は、テクノロジービジネス分析メディアであるStratecheryがSam Altman氏とMatt Garman氏に行ったインタビューを翻訳したものです。OpenAIとAWSのコラボレーション製品であるBedrock Managed Agentsに焦点を当て、クラウドコンピューティングとAIプラットフォームの移行の類似点、エンタープライズレベルのエージェント導入における課題、AgentCoreとマネージドサービスの違い、そしてAIインフラストラクチャ競争におけるAWSの立ち位置について論じています。
注:Stratecheryは、テクノロジーアナリストのベン・トンプソン氏によって設立され、テクノロジー企業の戦略、プラットフォーム経済、クラウドコンピューティング、AI、メディア業界の変化に焦点を当てています。そのコンテンツは主に詳細な分析と経営幹部へのインタビューで構成されており、シリコンバレーのテクノロジーおよび投資業界で高い影響力を持ち、大手テクノロジー企業の戦略的動向を知るための重要な窓口としてしばしば認識されています。
Bedrock Managed Agentsの中核は、AWSのお客様がOpenAIモデルを利用できるようにするだけでなく、それらのモデルをAWSのネイティブなID、権限、ログ記録、ガバナンス、デプロイ、およびセキュリティシステムに組み込むことにあります。つまり、企業が本当に必要としているのは、よりスマートなチャットウィンドウではなく、組織内で活動し、データにアクセスし、タスクを実行し、権限境界を遵守できる「仮想同僚」のシステムなのです。
これは、今回のコラボレーションにおける最も注目すべき点でもあります。AI競争の焦点が「最も強力なモデルを持つのは誰か」から「モデルを実用的なエンタープライズインフラストラクチャに変換できるのは誰か」へと移行しているのです。個人開発者のシナリオでは、Codexはローカル環境を利用して多くの複雑な問題を解決できますが、エンタープライズのシナリオでは、エージェントはデータベース、SaaS、権限システム、セキュリティ境界、コンプライアンス要件などに対応しなければなりません。
ある意味、このコラボレーションはクラウドコンピューティングの初期の論理を反映している。AWSは企業のスタートアップコストを削減し、小規模チームが自社サーバーを構築することなくインターネット製品を開発できるようにした。現在、OpenAIとAWSは、AIエージェントを導入する企業にとっての参入障壁を下げ、モデル、権限、データ、セキュリティシステムを自社で構築することなく、AIを実際のビジネスプロセスに統合できるようにしようとしている。今回異なるのは、導入がより速く、企業のニーズがより緊急であるという点だ。
したがって、この記事はAWS上でOpenAIモデルを「リストアップ」することについてではなく、AIインフラストラクチャが次の段階に入りつつあること、つまりモデル、クラウド、データ、そして企業アクセス制御システムが深く統合されつつあることについて述べています。将来の競争は、API価格、チップ性能、モデルランキングといったものではなく、企業が安心して利用し、継続的に拡張し、真に実行できるAIプラットフォームを構築できるかどうかにかかってくるでしょう。
以下は原文です。
導入
おはようございます。昨日もお伝えした通り、本日のStratecheryのインタビューは、私の予定していた公開スケジュール(木曜日から火曜日)よりも早く公開されましたが、実際には、報道禁止措置(エンバーゴ)により話題が制限されていたため、配信時間が遅れました(東部標準時午前6時から午後1時)。
ここ数日、この禁止措置によって私は少々デリケートな立場に置かれています。先週の金曜日、私はOpenAIのCEOであるサム・アルトマン氏とAWSのCEOであるマット・ガーマン氏に、OpenAIを搭載したBedrock Managed Agentsについてインタビューを行いました。当然ながら、私が提起した質問の一つは、このコラボレーションは、OpenAIとマイクロソフトの間で締結された、AzureにOpenAIモデルへの独占的なアクセス権を与える契約と、どのように整合するのか、というものでした。
注:Bedrock Managed Agentsは、AWSが提供するマネージドAIエージェントサービスであり、OpenAIがサポートするモデル機能を備えています。単にAWS上でOpenAIモデルを呼び出すだけでなく、AWSのネイティブなID認証、アクセス制御、ログ記録、セキュリティ、ガバナンス、およびデプロイメントシステムにモデルを組み込みます。これにより、企業は自社のクラウド環境内で、タスクの実行、内部データへのアクセス、権限境界の遵守が可能なAIエージェントを構築できます。簡単に言えば、AWSエンタープライズ環境内で動作するOpenAIエージェントインフラストラクチャと理解できます。
日曜日の夜遅く、マイクロソフトが月曜日の朝に何らかの発表を行うという噂を耳にしました。もしかしたら、先制的な訴訟を起こすのではないかと思いました。
マイクロソフトとOpenAIは月曜日、OpenAIがAWSを含む他のクラウドサービスプロバイダー上で製品を提供できるようにするため、契約を改訂したと発表した。
こうして、このインタビューが実現した。
マイクロソフトとOpenAIのこの新たな合意は、双方にとって妥当なものだと考えます。マイクロソフトの公式記事に記載されている、この新たな合意の主なポイントは以下のとおりです。
マイクロソフトは引き続きOpenAIの主要クラウドパートナーであり、マイクロソフトが必要な機能をサポートできない、またはサポートしないことを選択しない限り、OpenAI製品は主にAzure上で提供されます。OpenAIは今後、あらゆるクラウドプロバイダーを通じて顧客に全製品を提供できるようになります。
マイクロソフトは、2032年までOpenAIのモデルおよび製品関連の知的財産権のライセンス供与を継続する。ただし、マイクロソフトのライセンスは独占的なものではなくなる。
マイクロソフトは今後、OpenAIへの収益分配金の支払いを停止する。
・OpenAIからMicrosoftへの収益分配金の支払いは2030年まで継続されます。この取り決めはOpenAIの技術進歩に関わらず変更されませんが、総額には上限が設けられています。
マイクロソフトは主要株主として、今後もOpenAIの成長に直接的に関与していく。
最後の点が最も重要だと考えます。以前は、AzureはOpenAIモデルを提供できる唯一のハイパースケールクラウドプロバイダーとして、真の競争優位性を誇っていました。しかし、この独占性はOpenAIの発展を阻害する要因にもなっています。特に、多くの企業が既存のクラウドプラットフォーム上でモデルへのアクセスを優先するようになっている現状ではなおさらです。私はこれまで何度も、これがAnthropicにとって重要な競争優位性であったことを指摘してきました。つまり、Azureの独占性は、MicrosoftのOpenAIへの投資を損なっているのです。Anthropicが今年急速に成長していることを考えると、MicrosoftはAzureの差別化を多少犠牲にしても、この投資を守らなければなりません。
同時に、OpenAIはAWSを大きなビジネスチャンスと捉えており、今後数年間はAzure関連の収益の一部を放棄することも厭わないほどだ。前述の点と合わせて考えると、これはAzure経営陣が独占権を失うことを受け入れやすくする要因にもなっている。結局のところ、OpenAIに収益の一部を支払わなければ、Azureの損益計算書ははるかに見栄えが良くなるからだ。OpenAIはまた、MicrosoftをAGI契約の条件から解放した。今後は、何が起ころうとも、両社間の契約は2032年まで有効となる。
OpenAIの次の焦点がAWSになることは、今やかなり明白だ。その最も有力な証拠が、今回のインタビューのテーマであるOpenAI搭載のBedrock Managed Agentsだ。この製品を理解する最も簡単な方法は、AWS版Codexと考えることだ。Codexがうまく機能するのは、主にローカライズされているためであり、それによって多くの複雑な問題、特にセキュリティの問題が自然に解決される。しかし、組織内の部門やシステムをまたいでエージェントが動作できるようにするのは全く別の話だ。この製品の目標は、すでにデータの大部分をAWS上に保有している組織が、このようなワークフローをより簡単に利用できるようにすることだ。
このインタビューでは、AWSがクラウドコンピューティングという分野全体をどのように開拓し、スタートアップ企業にどのような影響を与えたかについて議論しました。また、AIとこのパラダイムシフトとの類似点と相違点についても掘り下げました。次に、Bedrock Managed Agentsについて、それが何であるか、そしてAmazonの既存のAgentCore製品とどのように異なるかについて議論しました。さらに、Trainiumについて、なぜチップがほとんどのAIユーザーにとってそれほど重要ではないのか、そしてGoogleが重視するフルスタック統合と比較して、コラボレーションが論理的な選択肢である理由についても話しました。
念のためお知らせしますが、インタビューを含むStratecheryのすべてのコンテンツはポッドキャストで聴くことができます。このメールの上部にあるリンクをクリックして、Stratecheryをポッドキャストプレーヤーに追加してください。
面接にご参加ください。
インタビュー内容
このインタビューは、分かりやすさを向上させるために若干編集されています。
OpenAIがAWSに参入し、Azureの独占時代に終止符が打たれた。
ベン・トンプソン(司会):マット・ガーマンさん、サム・アルトマンさん、マットさん、Stratecheryへようこそ。サムさん、おかえりなさい。私は以前、2025年10月、2025年3月、そして2023年2月にアルトマンさんにインタビューしました。
サム・アルトマン(OpenAI CEO):ありがとうございます。
マット・ガーマン(AWS CEO):ありがとうございます。ご招待いただき、ありがとうございます。
司会:マットさん、Stratecheryへのご出演は今回が初めてですね。残念ながら、サムさんがいらっしゃるので、いつもの「ゲスト紹介」コーナーはできそうにありません。それに、サムさんは私たちがケロッグ時代の思い出話をするのを聞きたくないでしょうしね。とはいえ、卒業生がポッドキャストに出演してくれるのは素晴らしいことです。
マット・ガーマン:はい、ここに来られて嬉しいです。次回もまた来させていただき、もっと深くお話できればと思っています。
司会者:素晴らしいですね。インターンシップの頃からAWSに関わってこられ、今ではAIブームの真っ只中でAWS組織全体を率いていらっしゃいます。AIビジネスの構築と、当初の汎用コンピューティングビジネスの構築(とりあえずそう表現してみましょう)の類似点と相違点について、あなたの見解をお聞かせください。
マット・ガーマン:共通点は、私が感じているのと同じ興奮と、インターネット構築者が以前はできなかったことを始められるようになったという点にあると思います。私たちがAWSを始めた当初、素晴らしいと思ったことの一つは、開発者がこれまで大企業しか利用できなかったインフラストラクチャに突然アクセスできるようになったことです。以前は、データセンター構築に数百万ドルの予算を持つ企業だけがこれを利用できました。今では、開発者はクレジットカードとわずかなお金だけでアプリケーションを立ち上げることができます。これにより、インターネット構築者ができることが劇的に拡大しました。
私たちの考えは、人々が好きなものを何でも作れるようにすることでした。私たちは、彼らが何をすべきかをあらかじめ決めつけることはしませんでした。創造性は世界中に存在すると信じており、強力なツールを与えれば、人々は面白くて素晴らしいものを生み出すだろうと考えていました。
AIが開発者にもたらす力は、少なくともそれと同等、あるいはそれ以上に革新的なものだと私は信じています。今、何が可能になったかを考えてみてください。アプリケーションを構築するためにプログラミングを10年間学ぶ必要はありません。何百人もの大規模なチームや、何ヶ月もかけて開発する必要もありません。少人数のチームで迅速に構築し、繰り返し改良することができます。AIは世界のあらゆる分野でイノベーションを解き放っています。多くの点で、これは過去に起こったことと非常によく似ています。AIが顧客にもたらす可能性を目の当たりにするのは、本当に刺激的なことです。
司会者:しかし、AWSが登場した当時は、御社が唯一のプレーヤーでしたので、ある意味ではメリットもデメリットもすべて御社に降りかかっていたと言えるでしょう。AWSの時代は、汎用コンピューティング、つまりコンピューティングの代替性、柔軟性、低コスト化が重視された一方で、AI分野、特にトレーニング段階では、高度に垂直統合されたスーパークラスター、非常に高度なネットワーク、そしてソフトウェアとハードウェアの極めて緊密な連携といった抽象化が主流になったように感じませんか?これは御社にとって偶然だったのでしょうか?今回はゼロから始めたわけでも、「唯一の存在」だったわけでもなく、過去に大規模コンピューティングに関する独自の理解をお持ちでしたが、少なくともAIの黎明期においては、それが完全に合致していたとは言えなかったのではないでしょうか。
マット・ガーマン:私たちにとってどれほど違うのかはよく分かりません。本当に違うのは、その驚くべき普及スピードだと思います。これは誰もが驚いたことでしょう。サム、もし異論があれば遠慮なく付け加えてください。しかし、人々がこれらの機能を受け入れ、理解するスピードは、誰もが予想していたよりも速かったと思います。
これは、私たちがクラウドコンピューティングに取り組み始めた頃とは大きく異なります。当時は、なぜ書店がコンピューティング能力を提供するのかを説明するのに非常に長い時間を費やしました。クラウドコンピューティングとは何かを説明するために、多大な労力を費やさなければなりませんでした。今では忘れられがちですが、当時は大変な苦労がありました。しかし、2006年当時は、世界のコンピューティングがクラウドに移行するなどと誰も考えていませんでした。当時は、確かに多くの困難な説明と推進作業が必要だったのです。
司会者:ここで何か説明が必要だと思いますか?多くの人は当初、訓練の時代に囚われがちですが、あなたは「私たちは推論の時代について考えている」と言うかもしれません。これは全く別の話です。説明能力を再活性化する必要もあるのでしょうか?
マット・ガーマン:はい、それは必要ですが、人々があなたの言っていることを理解するスピードは今や全く違います。ですから、「これは面白そうだ、スマートなチャットボットと話せる」という段階から「これは実際にビジネスで仕事をこなせる」という段階へと人々を導くには、確かに教育プロセスが必要だと思います。しかし、技術進化のスピードという点では、このプロセスは比較的速いと言えます。
司会者:それでは早速、今日の製品に関する話題に移りましょう。サムさん、スタートアップのエコシステムという観点から振り返ってみると、AWSは明らかに革命的でした。起業の障壁を完全に変えたのです。今では誰でも起業できます。シードラウンドやエンジェル投資家が登場し、資金調達のハードルが下がりました。PowerPointのプレゼンテーションに「サーバーを購入する必要がある」と書く必要はありません。まずアプリケーションを構築し、それからシリーズAなどの資金調達ラウンドを行えばいいのです。
あなたの視点から見て、AWSによって開かれた世界と、今日のAIによって開かれた世界には、どのような違いと共通点がありますか?
サム・アルトマン:歴史上、スタートアップ企業に大きな力を与えたプラットフォーム主導の出来事は4つあると私は考えています。インターネット、クラウド、モバイル、そしてAIです。この4つのうち、私が大人になって最初に経験したのはクラウドでした。Y Combinatorの初期の頃は、クラウドがスタートアップ企業にどれほど大きな変化をもたらしたかを誇張することは難しかったほどです。
それ以前は、スタートアップ企業はホスティングスペースを借り、独自のサーバーを組み立て、機器を内部に設置する必要がありました。非常に複雑なプロセスで、まず多額の資金を調達しなければなりませんでした。そして突然、クラウドが登場しました。クラウドが登場したのは、Y Combinatorが設立された翌年頃だったと思われます。
司会者:まさに私が聞こうとしていたことです。結局のところ、YCとクラウドは、当時あなたが考えていた以上に切り離せない関係にあるのでしょうか?
サム・アルトマン:当時、私たちは両者が非常に密接に結びついていると感じていました。AWS以前にもクラウドサービスの初期の例がいくつか存在していたため、YCは最初からクラウドの波に乗っていたように感じました。
司会者:AWSが存在するなら、スタートアップを立ち上げるのに必要な金額は確かに以前よりずっと少なくて済むでしょう。
サム・アルトマン:これは画期的な変化でした。だからこそ、当時YCは突飛なアイデアに聞こえたのです。「スタートアップに数万ドルも投資するなんて不可能だ。サーバー費用だけでもその額を超える」と人々は言っていました。つまり、これはスタートアップが少額の資金で何ができるかを完全に変えたのです。
一般的に言って、スタートアップ企業は、プラットフォームが大きく変化し、以前よりも短いサイクルで少ない資本で物事を進められるようになったときに勝利を収めます。これは、スタートアップ企業が大企業に勝つための典型的な方法です。私のキャリアの初期には、クラウドの登場によってこうした変化を目の当たりにしました。現在、AIをベースにした製品を開発している企業を見ると、その方向性は非常に似ているように感じます。しかし、マットが言ったように、今回はそのスピードが尋常ではありません。
司会者:既存の大企業や業界大手が、かつてクラウドコンピューティングを導入した時よりもはるかに速いペースでAIを導入しているような状況はありますか?
サム・アルトマン:確かにこれは以前より一般的になっています。しかし、私が言及しているのは、スタートアップ企業の収益成長率のことです。先日YCで講演した際、最後に「YC終了時点で、優良企業に対する収益の期待値はどのくらいですか?」と尋ねました。すると、「その答えは毎月変わります。同じYCバッチの開始時と終了時では答えが異なるかもしれません」という答えが返ってきました。これは前例のないことです。この新しいプラットフォーム上で、人々がこれほどのスピードで大規模なビジネスを構築しているのを見たのは初めてです。
司会:マットさん、クラウド時代を通して、AWSは基本的にすべてのスタートアップにとって第一の選択肢であり、それが大きなアドバンテージとなりました。では、なぜ今でもAWSが第一の選択肢であり続けているのでしょうか?多くの企業がOpenAI API上で製品を開発しているからでしょうか?それとも、「私たちは全く異なる角度からこの市場に参入している。AI機能の提供を求める既存顧客基盤は大きいが、サムのスタートアップグループほど知名度は高くない」と感じているのでしょうか?
マット・ガーマン:これにはいくつかの側面があると思います。まず、私たちはこのコラボレーションに非常に興奮しており、多くのスタートアップにとって非常に重要なものになると信じています。しかし、今日でもスタートアップに話を聞くと、成長している企業のほとんどは依然としてAWS上で成長しており、それには多くの理由があります。拡張性、可用性、セキュリティ、信頼性が備わっていること、他のISVパートナーのエコシステムがAWS上にあり、顧客もAWSを利用していることなどが挙げられます。
司会者:(笑)好き嫌いは別として、誰もがAWSコンソールを使ったことがあるので、慣れているんです。
マット・ガーマン:そして私たちは彼らを支援しています。私たちはスタートアップ企業を支援することに多くの時間を費やしています。単にクレジットを提供するだけでなく、システムの構築方法、市場参入戦略の考え方など、さまざまなことについてアドバイスしています。多くのスタートアップ企業はそれを高く評価してくれていると思います。私たちはスタートアップ企業こそがAWSの生命線だと心から信じているので、それを実現するために多くの時間と労力を投資しています。それは創業当初から変わらず、サムが先ほど述べたように、今も変わりません。私は今でも四半期ごとにシリコンバレーなどへ出向き、スタートアップ企業と直接会って、彼らの取り組みを聞き、私たちが構築しているものが彼らのニーズに本当に合致しているかどうかを確認しています。
つまり、スタートアップ企業の注目を集めるための競争は、20年前と比べて間違いなく激化しています。しかし、私たちにとってそれはこれまでと変わらず重要な課題です。私たちは、これらのスタートアップ企業のニーズを満たすために、多大な時間を費やしています。
司会者:OpenAIサービスのAzure版を使用するのではなく、OpenAI APIを直接ベースとした製品を開発する企業は、通常のコンピューティングはAWS上で実行され、AI部分はOpenAIを使用するという技術スタックを採用する可能性が高いと言えるでしょうか?
マット・ガーマン:これは今日の多くのスタートアップにとって非常に一般的なモデルだと思います。まさにその通りです。
Bedrockマネージドエージェント:AIエージェントをエンタープライズワークフローに導入する
司会者:それでは本日の発表に移りましょう。OpenAIを搭載したBedrock Managed Agentsです。私の理解が間違っていなければ、この製品のセールスポイントは、OpenAIのモデルをAWS上で使用できること(これはまだ許可されるべきではないと思いますが)だけではなく、OpenAIの最先端モデルが、ID、権限ステータス、ログ記録、ガバナンス、デプロイメントを含むネイティブのAWSエージェントランタイムにカプセル化されている点にある、ということですよね?サム、それで合っていますか?
サム・アルトマン:ええ、良い要約ですね。
司会者:ありがとうございます。では、これは一体何なのでしょうか?分かりやすく説明していただけますか?
サム・アルトマン:AIの次の段階は、「エージェントにテキストを与えると、さらにテキストが返ってくる」とか、「大量のコードを与えると、さらにコードが返ってくる」といった段階から、これらのエージェントが企業内で稼働し、あらゆる種類の作業を行う新たな段階へと移行すると思います。
「仮想同僚」というのが、私がこれまで聞いた中で最も近い表現ですが、まだ誰もそれを最も正確に表現する言葉を見つけていません。私たちは、ステートフルエージェントを構築したい企業が実際に作成し、利用できるようにするための新しい製品を開発するために協力しています。繰り返しになりますが、世界が最終的にこれらのエージェントをどのように呼ぶのか、またどのように使用されるのかはまだわかりません。しかし、Codexで起きていることを見れば、それがこの分野の将来像を示す素晴らしい例だと思います。
司会者:AIエージェントが真に機能するためには、モデルだけでは不十分です。実行環境、呼び出し可能なツール、タスクの状態、メモリ、アクセス制御、パフォーマンス評価など、完全なサポートシステムも必要です。あなたは特に「状態」という言葉を挙げました。では、これらの外部インフラストラクチャコンポーネントは、エージェントの実際の動作にとってどれほど重要なのでしょうか?
サム・アルトマン:その重要性はいくら強調してもしすぎることはありません。私はもはやハーネスとモデルを完全に別々のものとして捉えていません。私自身の経験から言うと、Codexでタスクを開始して素晴らしい成果を上げたとき、一つだけはっきりしていることがあります。それは、どれだけの功績が…に帰属すべきか、必ずしも分からないということです。
司会者:モデル自体が強いのか、それともサポートシステム(ハーネス)が強いのか?
サム・アルトマン:ええ、まさにその通りです。
司会者:ハーネスシステムは、モデルと並行してどの程度開発されたのですか?この統合はどこで行われたのですか?トレーニング後ですか?それともプロンプトの段階ですか?具体的に何がこの統合を効果的なものにしたのですか?
サム・アルトマン:どちらもです。これは事前学習プロセスの一部ではありません。しかし、もっと興味深い点があります。過去に何度も見てきたように、当初は完全に分離可能だと思われていたものが、システムの中にどんどん深く組み込まれていくのです。
例えば、ツール呼び出しに関する当初の理解がそうです。今では、これらのモデルを使用する上で非常に重要な要素となっていますが、当初はトレーニングプロセスに深く組み込む必要はないと考えていました。しかし、時が経つにつれて、徐々にその度合いを高めていきました。
モデルとそのサポートシステム(ハーネス)は、今後ますます統合されていくと私は考えています。さらに、事前学習と事後学習も、いずれはより統合されていくでしょう。これはありきたりな表現かもしれませんが、あえて言います。なぜなら、これは非常に真実だと信じているからです。私たちはまだこのパラダイムの非常に初期段階にいるのです。業界は、おそらくホームブリュー・コンピュータ・クラブの時代と同じくらいの成熟度に過ぎないでしょう。
司会者:だからこそ、これは非常に興味深いのです。数週間前に書いたのですが、あらゆるバリューチェーンにおいて、最終的には統合のポイント、つまり重要なポイントが訪れます。なぜなら、物事が機能するためには、2つの部分が結びつく必要があるからです。時間の経過とともに、多くの価値がそのポイントで確定するのは明らかです。当時の私の見解では、ハーネスとモデルの統合こそがその重要なポイントでした。これは確かにあなたの関心事と一致していますが、あなたも私の見解に同意しているようですね。
サム・アルトマン:それは確かに私の関心事と一致しますし、私も同感です。しかし、私はさらに一歩踏み込んで言いたい。本当に重要なのは、Codexに自分が起こってほしいことを入力したら、それが実際に起こるということだ。
司会者:あなたは実装の詳細には興味がないのですね。
サム・アルトマン:こうした事例を調査する中で、私たちは数多くの例を見てきました。当初はシステムプロンプトレベルで対処する必要があったものの、後には不要になったケースです。ここでの全体的な見解は、モデルがよりスマートになるにつれて、思い通りに動作させるための柔軟性が高まるということです。当たり前のことのように聞こえるかもしれませんが、まさにその通りなのです。
司会者:10歳の子どもに何かを頼むのは、5歳の子どもに何かを頼むよりも簡単です。
サム・アルトマン:GPT-3の時代を振り返ると、あのモデルから少しでも実用性を引き出すためにどれだけの努力が必要だったか。しかし今、モデルは箱から出してすぐに理解して実行できるので、そんなことは全く必要ありません。この傾向は今後も拡大していくでしょう。
マット・ガーマン:付け加えたいことがあります。サムの意見に全く同感です。クライアントと話をすると、彼らはこれらのシステムに何を求めているのかを正確に理解しています。このコラボレーション以前は、クライアントはある程度、自分たちで物事を組み立てざるを得ませんでした。彼らは、これらのモデルやエージェントが特定の情報を記憶し、うまく連携し、既存のシステムに統合されることを望んでいました。これはサードパーティ製のツールだけの問題ではなく、クライアント自身のツールにも当てはまります。彼らは、これらのエージェントが自分たちのデータ、アプリケーション、そしてオペレーティング環境を理解することを望んでいました。そして今日、少なくとも今のところは、こうした統合作業はすべて各クライアント自身が行わなければなりません。
そこで、今回のコラボレーションの一環として、これらの要素をより密接に連携させ、お客様が望むことをより簡単に実現できるような新しいタイプの製品を開発することを目指しています。例えば、ID管理機能は既に製品に組み込まれており、データベースへの接続や認証の完了もAWS VPC(仮想プライベートクラウド)内で行われます。理論的には、これらの機能はOpenAI APIとAWSをそれぞれ単独で使用することも可能ですが、共同開発することで、お客様はより簡単かつ迅速に価値を実現し、自社のエンタープライズ環境で望むことを実現できるようになります。
司会者:つまり、汎用(ハーネス)システム内で動作するエージェントを構築することは可能だが、はるかに難しいということですか? それを容易にする方法はありますか? それとも、これらの要素をまとめておかないと、どうしても実現できないことがあるのでしょうか?
サム・アルトマン:先ほどの例えに戻りますが、AWSが存在する以前は、サーバー室の個室にこもり、サーバーを大量に購入し、それらの接続方法を考え出し、独自のネットワークエンジニアを雇えば、多くのことが可能でした。多くのことを実現できたのです。ところが、AWSコンソールにログインして「S3インスタンスをもう1つ追加する」といった操作をクリックするだけで、基本的な設定に必要なエネルギーと作業量が劇的に減少したため、さらに多くのことが可能になったのです。
今日では、モデルを使って実に多くのことが可能になります。しかし、誰かが私たちのモデルを使っていたり、マットが先ほど述べたようなワークフローを構築しようとしているのを見るたびに、私は複雑な気持ちになります。一方では、彼らがこれらのモデルをまるで魔法のような技術だと感心してくれるのは嬉しいのですが、他方では、実際に機能させるために彼らがどれほどの苦労と困難を乗り越えてきたのかを考えると、気が狂いそうになります。
これは、これらの製品を開発する開発者だけに限った話ではありません。ChatGPTを使っているだけでも、複雑なプロンプトを作成しようと、あちこちでコピー&ペーストしている人たちを見かけますが、いずれそういう状況はなくなるだろうと確信しています。それが私にとっては大きな喜びです。現状では、すべてがまだ未熟で、問題も山積みです。
ホスト:BBEditとの連携機能だけは削除しないでください。ChatGPTアプリの中で、あれは間違いなく私の一番のお気に入り機能なんです。
注:BBEditはmacOS向けの長年使われているテキストおよびコードエディタです。ホストは、AIエージェントが将来的にコピー&ペーストや手動操作を減らすだろうと半ば冗談交じりに言っていますが、ChatGPTがローカルエディタとの統合機能を維持することを依然として望んでいます。
サム・アルトマン:わかりました。
司会者:(笑)ありがとうございます。
サム・アルトマン:まず、現状ではこれらのことを実現するのはあまりにも困難です。もし私たちがそれらをより容易にできれば、開発者や企業にとってより大きな価値をもたらすことができると信じています。次に、現状では信頼性をもって機能しないものがたくさんあります。このコラボレーションを通じて、単に使いやすさの話にとどまらず、「もうコロケーションを自社で構築する必要がない」という話にとどまらず、多くの新しいことを共に探求し、これまで多大な苦労と困難を伴っても不可能だった製品やサービスを構築できるようになると考えています。
エンタープライズエージェントにとって真の課題は、権限、データ、そしてセキュリティにある。
司会者:後で「何が構築できるか」という点に戻りたいと思いますが、まずはCodexについて簡単に触れておきましょう。Codexはハーネスとモデルを組み合わせたもので、ローカルで動作します。なぜ現在ではエージェントをローカルで動作させるのが容易になっているのでしょうか?
サム・アルトマン:実は、最初はクラウド上で稼働させていました。最終的にはクラウド上で稼働させるのが理想的だと思います。
司会者:もちろんです。このクラウド製品への移行過程を追って質問しているのですが、なぜローカル環境に戻されたのですか?
サム・アルトマン:なぜなら、環境全体が既に整っているからです。コンピュータは既に設定済みで、データも既に存在しているので、あれこれ考える必要がありません。これは最終状態ではありませんが、間違いなく簡単に運用を開始できます。
しかし、エージェントが実際にクラウド上で動作する世界が実現すれば、もちろん素晴らしいでしょう。例えば、非常に負荷の高いタスクがある場合や、コンピュータをシャットダウンする必要がある場合、あるいはその他の状況において、作業をクラウドに委任することができます。この方向性は確かに素晴らしいものです。しかし、短期的には、ユーザーのローカル環境を利用する方が、私たちが提供できる使いやすさにおいて明らかに優れています。
ホスト:私にはこう理解できます。従来のセキュリティモデルは「城と堀」のような構造でしたが、今はゼロトラストのセキュリティモデルへと移行しつつあり、そこではすべてに適切な権限構造、認証メカニズム、そしてその他すべての詳細が備わっている、という考え方です。私にとって、ローカルで実行することは、いわば自ら課した「城と堀」のようなものです。すべてがローカルにあるので、すべて問題なく、扱いやすいものだと考えてしまうのです。
この製品について私が理解している点の一つは、これらの部品すべてを本番環境で実際に稼働させるには、すべてをオンプレミスに置くことはできないということです。最初からその環境で稼働させる必要があるのです。マットさん、それはあなたにも当てはまりますか?
マット・ガーマン:どのコンピューティング環境も、クライアントを完全に排除したとは言えないと思います。ローカルで実行することには確かに利点があります。接続性、レイテンシ、ローカルコンピューティング、ファイルやアプリへのアクセスなど、ほとんどのiPhoneアプリにローカルコンポーネントが含まれているのには理由があります。
ローカルクライアントには確かに限界があります。サムが指摘するように、シンプルで使いやすい反面、制約や限界もあります。ローカルのラップトップを拡張することはできません。使える範囲でしか使えないのです。2人で共有するなど、企業環境に移行すると事態はさらに複雑になり、アクセス許可やセキュリティ境界について考えることがはるかに難しくなります。
つまり、これには多くの要素が絡んでいます。ローカル環境自体が悪いとは言いませんが、それはあくまで選択肢の一つです。最終的には、ローカル環境とクラウド環境をつなぐ架け橋を構築したくなるでしょう。
司会者:まさにそれが私の疑問です。クラウド時代には、ローカル環境と本番環境をより密接に連携させるコンテナがあります。しかし、エージェントのシナリオでは、先ほどおっしゃったように、エージェントを扱う場合、それは仮想の同僚か何かのようなものに思えます。エージェントが独自のID、独自の権限などを持っている場合、エージェントを構築するだけでも、最終的にデプロイされる適切な環境にいる必要があるように思えます。
サム・アルトマン:まだ解決すべき課題がたくさんあると思います。例えば、会社の従業員がサービスを利用する場合、アカウントは1つだけで良いのでしょうか?また、代理人もそのアカウントを使うべきでしょうか?それとも、サーバーが誰のアカウントか判別できるように、代理人は別のアカウントを使うべきでしょうか?
司会者:あるいは、エージェントをたくさん雇いたい場合はどうでしょうか?
サム・アルトマン:その通りです。私たちが本当に必要としているのは、まだ解明できていない何かだと思います。例えば、ベンのエージェントがベンとしてログインする際に、ベンのアカウントを使用するものの、本人確認はエージェントとして行い、本物のベンとして認識させないようにする、といった具合です。まだ基本的な構想すらできていませんが、おそらく近いうちに解決策を見つけ出す必要があるでしょう。
私の考えでは、同様の事例は今後さらに50件ほど出てくるでしょう。エージェントが労働力に加わり、自律性と業務の複雑さを増していくにつれて、ソフトウェアの仕組みや、企業内およびインターネット全体におけるアクセス制御と権限の運用方法に関する私たちの多くのメンタルモデルは進化していく必要があります。
司会者:マットさん、エージェントのセキュリティ、アクセス ポリシー、その他同様の問題について、どうお考えですか?
マット・ガーマン:はい、集中管理型の組織として、こうしたワークロードをクラウドに移行していくことで、セキュリティ関連の側面をより詳細に制御できるようになると思います。クライアントと話し合ってきましたが、これは間違いなく彼らが懸念している点です。「強力なモデルやエージェントの可能性は素晴らしいと思うが、どうすればシステムを誤作動させて会社を破滅させるような事態を引き起こさないようにできるのだろうか?」と彼らは言います。
この懸念は現実のものだ。
これらの問題は解決可能なので、この分野では私たちが貢献できると考えています。実際、貢献できます。例えば、「このVPC内で実行されている」という安心感をお客様に提供できます。そうすれば、少なくとも境界を制御でき、アクセスできる範囲を把握できます。あるいは、ゲートウェイ経由で実行され、環境内の他の場所で役割を割り当てるのと同じように、権限を割り当てることができます。
これらは、私たちが過去20年間かけて築き上げてきた能力です。これらの構造を中心に非常に豊富な機能セットを構築し、Y Combinatorのスタートアップ企業だけでなく、世界中の銀行、医療機関、政府機関にもAWSを利用できるようにしてきました。AWSを中心に構築されたセキュリティアーキテクチャ全体は、お客様がこのテクノロジーを採用するスピードをさらに加速させると同時に、迅速な対応に必要なセキュリティ対策を提供すると確信しています。
多くの場合、企業、特にリスク回避傾向の強い業界では、こうした安全対策を設けることで、「このサンドボックス内で動作する限り、迅速に前進しても構わない」と言えるようになり、結果として多くの顧客がより幅広いシナリオでこれらの技術を使い始めるのに役立つ。
司会者:先ほどおっしゃった機能の多くは、AWSが過去20年かけて構築してきたもので、現在、それらをエージェントに活用しようとしているのですね。これらの機能は既にAgentCoreを通じて公開されています。では、OpenAIを搭載したBedrock Managed AgentsとBedrock AgentCoreの関係はどのようなものなのでしょうか?
注:AgentCoreは、企業がAIエージェントを開発するためにAWSが提供する「最下層のツールキット」または「基本コンポーネントプラットフォーム」と理解できます。両者の関係は、AgentCore=基盤となる構成要素、Bedrock Managed Agents=AWSとOpenAIが共同で構築した完成ソリューション、と理解できます。
マット・ガーマン:私たちが一緒に作り上げたものの多くは、AgentCoreの構成要素をベースに、それらのパーツを組み合わせたものでした。
司会者:つまり、AgentCoreの上に構築された上位互換のようなものですね?
マット・ガーマン:AWSチームとOpenAIチームは、AgentCoreコンポーネントをOpenAIモデルやその他の多くの要素と組み合わせて、この製品を開発しました。
AgentCoreは、当社が提供する基本的な構成要素のセットとして理解できます。AWSと同様に、独自のエージェントワークフローを構築したい場合は、メモリコンポーネント、セキュアな実行環境、権限管理機能などのモジュールを直接使用できます。これらの機能を独自に設定し、組み合わせることで、ビジネスに適したエージェントシステムを構築できます。既にこれらの機能を本番環境で運用し、多くの優れたアプリケーションを開発しているお客様もいらっしゃいます。
司会者:しかし、OpenAIではそうはいきません。
マット・ガーマン:でもOpenAIではそうではありません。今日では、彼らは異なるモデルを使用しなければならない、それは事実です。いや、実際には、それも完全に正しいとは言えません。OpenAIでこれを行っている人もいます。
司会者:ああ、それはクラウド上の別のモデルを呼び出しているだけか、あるいはそれに類する処理です。
マット・ガーマン:彼らはOpenAIのモデルを直接呼び出しているだけです。つまり、人々は間違いなく現在、OpenAIをこの目的で使用していますが、Bedrockのネイティブな方法ではありません。それでも、彼らはOpenAIを使用しています。オープンなエコシステムなので、さまざまな機能を組み合わせて、必要なものを構築できます。人々は今後もそうし続けるでしょう。
サムの例えを借りれば、たとえ今日ではもはや必要ではないとしても、自宅でコンピューターを組み立てることを楽しむビルダーがいます。人は何かを作るのが好きなのです。私たちは、人々が今後も長い間、自分でエージェントを組み立て続けると信じています。しかし、大多数の人はもっと簡単な方法を求めており、すべての部品を自分で設定したいとは思っていません。今回のコラボレーションで私たちが提供しようとしているものの1つが、まさにそれなのです。
司会者:この点についてもう少し詳しく説明させてください。Bedrock Managed Agentsはマネージドサービスですが、ユーザーはAgentCoreを使用して、モデルがAWS上にあるか他のクラウド上にあるかに関わらず、さまざまなモデルに接続することもできます。サムさん、これがOpenAIのAzureサービスとの違いなのでしょうか?簡単に言うと、Azureではユーザーは主にOpenAI APIに直接アクセスしますが、Amazonではより包括的なマネージドエージェントサービスになっているということでしょうか?この理解でよろしいでしょうか?
サム・アルトマン:その通りです。
司会者:これについて非常に自信があるのですか?すべての用語と範囲において正しく定義されており、将来的に問題になることはないということですか?
サム・アルトマン:はい。物事は時間とともに変化していくと思いますが、出発点としては、このアプローチに非常に自信を持っています。
司会者:これはAWS限定のサービスになるのでしょうか?それとも、他のクラウドでも同様のマネージドサービスを提供する予定はありますか?
サム・アルトマン:はい、これはアマゾンと独占的に提携して行う予定で、非常に楽しみにしています。
司会者:この独占性は、「AmazonのAPIをすべて利用しているのだから、当然Amazon上でしか利用できない」という考え方から来ているのでしょうか?それとも単に「AmazonのAPIを利用している」というだけでなく、マネージドエクスペリエンスという概念そのものが、現時点ではAmazon上でホストされているということなのでしょうか?
サム・アルトマン:精神的には、これは両社間の協力的な取り組みとなることを願っています。
司会者:承知しました。プレスリリースには、マットが先ほど述べたことに関連する記述がありました。理論的には、他のAPIを呼び出して、それらをすべて自分で組み合わせることができるということです。しかし、この場合、顧客データはAWS内に保持されます。では、OpenAIは具体的に何を見ることができるのでしょうか?それはどういう意味でしょうか?
マット・ガーマン:はい。基本的にすべてがVPC内に保持されるため、データはBedrock環境内で保護されます。
注:VPCはVirtual Private Cloudの略で、企業がAWS内に割り当てる「プライベートクラウドネットワーク空間」と理解できます。
司会者:承知しました。この製品はBedrockを介してOpenAIモデル上で動作し、これらのモデルはTrainium上で動作するのですね?
マット・ガーマン:それらは様々な方法で混合的に実行されます。一部はTrainium上で、一部はGPU上で実行されます。
注:Trainiumは、大規模モデルのトレーニングと推論をサポートするためにAWSが独自開発したAIアクセラレーションチップです。NVIDIA GPUと同様に、基盤となるコンピューティングインフラストラクチャの一部です。一般の企業顧客は、通常Trainiumと直接やり取りする必要はなく、Bedrockなどのマネージドサービスを通じて基盤となるコンピューティング能力を間接的に利用します。
司会者:これは単に時間的な要因によるものですか?数ヶ月前の発表で、あなたはこう言っていたのを覚えているのですが…。
マット・ガーマン:時間的な制約と、能力的な制約の両方が関係しています。システム構築にあたっては、さまざまなコンポーネントと、それぞれの部分に適したインフラストラクチャを組み合わせて使用していくことになるでしょう。しかし、時間が経つにつれて、Trainium上で動作する部分が増えていくはずです。
サム・アルトマン:これらのモデルをTrainium上で動作させるのを非常に楽しみにしています。
AIプラットフォームの競争は、モデルからインフラストラクチャへと移行しつつある。
司会者:想像できます。マットさん、Trainiumについて簡単な質問があります。これはもう少し一般的な質問でもあります。私が現在Trainiumについて理解していることは以下のとおりで、それが正しいかどうか確認したいのですが。Trainiumという名前は少々不適切です。なぜなら、将来的にその真の重要性は推論にあるからです。主な提供方法は、Bedrockのようなマネージドサービスを通じて行われます。つまり、クライアントは自分が使用しているコンピューティングリソースを正確に把握できない可能性があるということです。この理解は正しいでしょうか?
マット・ガーマン:まず第一に、AWSのすべてのサービスの命名がひどいものであることについて、私は責任を取るつもりです。
司会者:大丈夫ですよ。私も口コミで広まっている「Stratechery」というウェブサイトを運営しているので、ネーミングの失敗はよく分かります。
サム・アルトマン:僕は「トレイニウム」という言葉がすごくクールだと思う。
マット・ガーマン:本当に素晴らしいですね。
司会者:それはなかなかクールな用語ですが、トレーニングチップというよりは推論チップに近い感じがしますね。
マット・ガーマン:はい。名前のことはさておき、これは学習と推論の両方に役立ちます。正直なところ、これは私たちにとって非常に魅力的なチップです。現行世代と将来のバージョン両方において、巨大なビジネスになると確信しており、私たちが共同で取り組んでいる多くのプロジェクトの主要な推進力となるでしょう。
ところで、GPUと同様に、これらのアクセラレータチップの多くとは抽象化レイヤーを介してやり取りすることになるでしょう。ほとんどの顧客は、ノートパソコンでグラフィックス関連のシナリオにGPUを使用しない限り、GPUと直接やり取りすることはありません。しかし、OpenAIとやり取りする場合、たとえそれがGPU上で動作していても、GPUと直接やり取りしているわけではありません。Claudeとやり取りする場合も、それがGPU、Trainium、TPUのいずれに基づいているかに関わらず、それらのチップとやり取りしているのではなく、インターフェースとやり取りしているのです。
推論処理の大部分は、少数のモデルによって実行されます。つまり、5、10、20、あるいは100個のモデルであっても、何百万もの人々が直接これらのチップをプログラミングしているわけではありません。これらのシステムは複雑かつ大規模であるため、この状況は今後も続くでしょう。モデルをトレーニングしたいと思っても、それをトレーニングするのに十分な資金を持っている人は少なく、また、それらを真に管理できる能力を持っている人も多くありません。これらは非常に複雑なシステムであり、OpenAIチームが大規模なコンピューティングクラスタから価値を引き出す能力は驚異的です。しかし、そのようなチームを持つ企業は多くありません。特定のチップの種類に関わらず、これはすべてのアクセラレータチップに当てはまると私は考えています。
サム・アルトマン:ベン、私としては、会社としてやるべきことはトークン製造工場になることだとますます感じるようになってきた。しかし、顧客が本当に気にしているのは、最高のインテリジェンスユニットを最低価格で、しかも彼らが望む数量と容量で提供できるかどうかだ。
司会者:現在の価格設定方法、つまりトークンによる価格設定を継続していくと思いますか?長期的に見て、これは妥当な方法でしょうか?
サム・アルトマン:それは不合理です。実際、最近リリースした5.5モデルは興味深い例です。トークンあたりのコストは5.4よりもはるかに高いのですが、同じ回答を完了するために必要なトークン数は大幅に少なくなっています。つまり、回答に必要なトークン数は重要ではなく、作業を完了させることだけが重要なのです。必要なのは価格と、得られる処理能力です。
だから、「トークン工場」と言ったのは間違いだったのかもしれません。私たちはむしろ「インテリジェンス工場」のようなものかもしれません。できるだけ多くの「インテリジェンスユニット」を、できるだけ低価格で提供したいと考えています。トークン数が少ない大型モデルでも、トークン数が多い小型モデルでも、GPUでも、Trainiumでも、その他の技術でも、あるいは私たちがどんな独創的な方法で実現しようとも、お客様は気にしないと思います。
実際、彼らはこれらの問題を直接処理することはありません。Codexにデータを投入したり、SRE(ステートフルランタイム環境)で新しいエージェントを構築したりする際に、これらの問題について考える必要は一切ありません。これほど低コストでこれだけの機能が手に入ることに、きっと驚かれることでしょう。
司会者:トークン使用量の減少は、モデル自体によるものですか、それともサポートシステム(ハーネス)によるものですか?
サム・アルトマン:これは主にモデルですが、(ハーネスなどの)サポートシステムにおいても小さな役割を果たしています。
司会者:承知しました。ところでマットさん、先ほどサムに独占契約の件について尋ねたのですが、今後、他のモデルにも同様のマネージドサービスを提供する予定はありますか?
マット・ガーマン:今はOpenAIと協力してこれを実現することに注力しています。共に作り上げているものに非常に期待しています。長期的な展望については、まだまだ先の話です。
司会者:「長期的な未来というのは非常に長い時間です」とのことですが、その答えは今は取っておきましょう。いえ、この質問をしなければなりません。
顧客に関して、もう一つ質問があります。サムさん、先ほどお話いただいた点を踏まえて、あなたの見解も伺いたいのですが。顧客が実際に運用環境に入った時点で、OpenAIの責任範囲はどこまでで、AWSの責任範囲はどこから始まるのでしょうか?私としては、すべてのデータがAWS上にあり、そこに保持され、顧客が上位レベルで運用している場合、最終的にはAWSの責任になるのではないかと考えています。消費者の視点から見て、この理解は正しいでしょうか?
マット・ガーマン:はい、その通りだと思います。誰かに連絡する必要があるときは、AWSサポートに連絡して助けを求めます。AWS環境の一部であり、AWS上で構築するものです。AWSのアカウント担当者がサポートします。構築時には、OpenAIの同僚にも協力を仰ぎ、製品の最適な活用方法や同様の問題への対処方法を検討してもらっています。場合によっては、彼らの助けが必要なバグに遭遇した場合は、問題を彼らにエスカレーションします。しかし、AWSが直接の一次サポートとなります。
司会者:サムさん、この事業の規模は、OpenAIの中核事業であるAPI事業と比較してどうお考えですか?
サム・アルトマン:非常に大きな規模になることを期待しています。私たちはこのプロジェクトに多大な労力を注ぎ込み、膨大なコンピューティング能力の購入を約束しました。これらすべてを支えるだけの収益が見込めると信じています。私がますます確信している考え方の一つは、価格が十分に低ければ、インテリジェンスに対する需要は実質的に無限になるということです。
司会者:つまり、この観点からすると、需要の価格弾力性は非常に高いということですね?価格が下がると需要が上がるということですか?
サム・アルトマン:もちろん、そういう側面もあります。しかし、別の言い方をすれば、水の価格が下がれば、水を飲む量が増えるかもしれませんし、1日に1回しかシャワーを浴びなかった人が2回浴びるようになるかもしれません。ある程度の柔軟性はあります。しかし、いずれは「もう水は十分ある」と思うようになるでしょう。
司会者:そして、どうしても水が必要な時は、どんなに高くても買うでしょう。
サム・アルトマン:他の公共サービスについても同じことが言えます。電気料金が安ければ、当然使用量は増えます。しかし、知性を公共サービスと考えると、「もっと欲しい。料金が十分に安ければ、もっと使い続ける」と思わせるような公共サービスは他に思いつきません。
マット・ガーマン:興味深いことに、コンピューティング能力に関しても同じことが言えます。今日のコンピューティングサイクルのコストを考えてみてください。30年前と比べて桁違いに安くなっていますが、現在ではかつてないほど多くのコンピューティング能力が販売されています。
司会者:そうですね。少なくとも、極めて大規模な処理能力が実現し、コストが重要になるまでは、人々は通常、コンピューティングコストについて真剣に考えることはありません。一般的に、戦略的な観点から言えば、誰もがコンピューティング能力を持っていると当然のように考えています。では、AIがそのレベルに到達するには、どの程度まで進歩する必要があるのでしょうか?言い換えれば、人々が「ここでいくらお金を使ったか」を最初の反応としなくなるまで、AIはどの程度進化する必要があるのでしょうか?
サム・アルトマン:今のところ、それが最初の反応ではないと思います。むしろ、「価格に関係なく、もっと容量を増やしてもらえませんか?もっと容量が必要なんです。追加料金は喜んで支払います」と尋ねてくるお客様のほうが圧倒的に多いです。それに比べて、価格について私たちと議論する人ははるかに少ないです。
しかし、私は今後も価格を大幅に、実に驚くべき幅で引き下げていくと確信しています。おそらく、価格引き下げが進めば進むほど、この分野に富が流入するでしょう。しかし、現在の情報収集能力を維持すれば、今後も大幅なコスト削減を継続できると確信しています。
少し驚いたのは、少なくとも現時点では、市場全体の需要のかなりの部分が絶対フロンティアモデルに集中しているということだ。
司会者:はい、この点に関しては多くの問題があります。最先端のサービスモデルは非常に高価ですし、実際には以前のバージョンでも十分使えるのですが、それでも人々は常に最新のバージョンを使いたいと考えているということでしょうか?
サム・アルトマン:今のところは、そうです。
マット・ガーマン:これは非常に良い兆候だと思います。私たちが本当に目指す状態にはまだ程遠く、満たされていない需要がまだたくさんあることを示しています。これは40年前のコンピューティングニーズに少し似ていると思います。当時、コンピューターは非常に高価でしたが、今では誰もが持っている携帯電話は当時よりもはるかに高い処理能力を持ち、何十億台ものデバイスが販売されています。
AIの世界でも同じことが起こると私は考えています。今日、誰もが最先端のモデルを使いたがっています。なぜなら、多くの有益な仕事を成し遂げるにはそれらが必要だからです。そして、AI以外の分野における可能性についても、誰もが非常に期待を寄せています。
将来的には、ハイブリッド型のモデル群が登場するでしょう。ちなみに、より小型のモデルの中には、最新のOpenAIモデルでさえまだ実現できていないようなことさえも達成できるものもあるでしょう。そして、それらは時間とともに小型化、低コスト化、高速化していくはずです。同時に、癌をはじめとする同様の問題に取り組むための超大型モデルも登場するでしょう。
しかし、私たちはまだ可能性の初期段階にいると思います。可能性の初期段階でこれほどの需要と急速な成長が見られるということは、未来は非常に有望です。
司会者:少し皮肉な見方をすると、サムさん、あなたの顧客グループの中には「OpenAIモデルを使いたいのですが、現状のシステムはすべてAWS上にあり、移行は考えていません」と言う人がいます。一方、マットさん側では「現状のシステムはすべてAWS上にあるので、OpenAIモデルを移行してもらえませんか?」という要望があります。つまり、これは単にその需要に応えるための取り組みなのですね。そして、AWSが最大手であるため、需要は天文学的な規模になっていることが分かります。これが最も単純な答えなのでしょうか?それとも、他に何か特別なものを提供できると確信していて、それが両社にとって新たな顧客獲得につながると考えているのでしょうか?
サム・アルトマン:AWSのお客様にご利用いただけることを大変嬉しく思っていますし、多くの方がAWSを気に入ってくださっています。ええ、その通りです。
マット・ガーマン:この部分は間違いなく本当です。
司会者:(笑)そうですね。
マット・ガーマン:逆に、お客様もOpenAIの技術を利用できることを非常に喜んでいます。
サム・アルトマン:しかし、私は私たちが共に素晴らしい新しいものを作り上げることができると信じています。1年後、人々がこれを振り返ったとき、最も重要な話題が「ああ、ついにAWSを通じてこれらのモデルにアクセスできるようになった」といったことではなく、「わあ、この新製品がどれほど重要だったのか、以前は気づいていなかった」となることを願っています。
モデル、サポートシステム、そして機能という観点から見ると、私たちは全く新しい形のコンピューティングに近づいていると私は考えています。それは、既存の「このモデルにはAPIが必要だ」という考え方とは全く異なるものになるでしょう。
マット・ガーマン:全く同感です。それが鍵ですね。前半は良い、とても良いのですが、後半こそが私たち全員が本当に興奮する部分だと思います。
司会者:ところで、この話題に戻りたいと思います。私には「他に何を構築する必要があるのか」という仮説があり、それが完全に正しいとは限らないので、皆さんのご意見を伺いたいと思っています。具体的には、いずれは本格的なミドルウェア、つまり中間層が必要になるかもしれません。組織内には、さまざまなデータベース、SaaSアプリケーション、そして異なるシステムにまたがるさまざまなデータ断片が存在します。その上に、エージェント層またはサポートシステム(ハーネス)が存在するでしょう。その間に何かを構築する必要があるように思えます。OpenAI Frontierはこの問題に多少触れていました。これはその一部なのでしょうか?それとも、これは将来構築する必要があるものなのでしょうか?あるいは、私の考えは全く間違っていて、そもそもこのようなものは必要ないのでしょうか?
サム・アルトマン:おっしゃる通りです。まさにそのようなものが必要です。最近、特に大企業のお客様と話をしているのですが、彼らは「エージェント実行環境のようなものが欲しい」「トークンがどこで使われ、どこで使われていないかを把握しつつ、データをエージェントに接続できる管理レイヤーが欲しい」「従業員向けのワークスペースのようなものが欲しい」などと言っています。できればCodexのようなものがいいですね。
人々が求めているものは非常に一貫してきています。しかし、これから実際に製品全体を構築していく必要があります。
司会者:どうやら、2つのエージェント層が必要になりそうですね。1つのエージェント層は中間層を維持し、様々なデータソースを絶えず調査します。もう1つは、ユーザーが実際に操作するユーザーインターフェース層です。これは、私たちが目指している方向性と一致していますか?それとも話が逸れていますか?
サム・アルトマン:どちらの意見にも賛成です。今の世の中はまさにそんな感じかもしれません。しかし、モデルが真にインテリジェントになった時、将来のアーキテクチャが実際にどのようなものになるのか、私たちはまだ分かっていないと思います。
さて、このレイヤー、いわばユーザーエージェントレイヤーでは、人々は複数のエージェントとやり取りすることを強く望んでいます。私たちは、このタスク用のエージェント、あのタスク用のエージェントなどを構築できるようにし、それらのエージェント同士が通信できるようにしています。そして、企業の管理レベルでは、人々はAIがファイルシステム内のファイルを探索するのを支援するための様々な制御メカニズムを持っています。
司会者:そしてある時点で、自分が何の理由もなく過去に固執していることに気づくのです。これらのことは、モデルの中でやるべきだったのです。
サム・アルトマン:まさに私が言いたかったのはそれです。ある時点で、「すでにこれほど素晴らしい機能を備えているのだから、アーキテクチャ全体を再設計しよう」という意見が出てくるかもしれません。
マット・ガーマン:ええ、私も同感です。間違いなく何か新しいものが生まれると思います。それが具体的に何なのかは現時点では分かりませんが、それこそがこの分野の魅力の一つです。顧客に実際に使ってもらい、構築してもらうことで、そこから学び、より簡単で、より速く、より良いものにする方法を見つけ出すことができるのです。
司会:サムさん、今回でこのような製品発表インタビューは2回目です。前回はケビン・スコット氏に新しいBingについてお話を伺いました。当時、あなたはGoogleにとって脅威となる存在だとかなり自信を持っていましたね。結局どうなったと思いますか?
注:ケビン・スコットはマイクロソフトの最高技術責任者です。New Bingは、OpenAI技術を搭載したマイクロソフトが2023年2月に発表したAI検索製品です。従来の「リンクを返す」検索から、「直接回答を生成し、タスクの完了を支援する」インタラクティブな検索へと進化させることを目指しています。当時、New Bingは、OpenAIを用いてGoogleの検索における支配的地位に挑戦しようとするマイクロソフトの重要な試みと見なされていました。
サム・アルトマン:予想以上にうまくいったと思います。ChatGPTは、私の考えでは、Facebook以来、真に大規模な新しい消費者向け製品です。
司会者:つまり、それが答えということですね?言い換えれば、予想以上に良い結果が出たけれど、それは主にChatGPTに反映されたもので、他の分野には反映されなかったということでしょうか?
サム・アルトマン:いえ、APIに関しては、特にCodexに関しては、かなり良い仕事をしたと思っています。しかし、当時私が考えていたのはそういうことではありませんでした。新しい言語インターフェースが、人々がインターネットで情報を探す方法を変えるかもしれないと考えていたのです。そして、Googleは実に素晴らしい企業です。その事業の幅広さと奥深さを考えると、Googleは多くの点でまだ過小評価されていると思います。とはいえ、相対的に言えば、ChatGPTのパフォーマンスには満足しています。
司会:マットさん、私もGoogleに関して似たような質問があります。ちょうど今週、Google CloudのCEOであるトーマス・クリアン氏が、モデルからチップ、エージェント層に至るまで、完全に統合されたテクノロジー・スタックについて語りました。つまり、上から下まで全てが統合されているということです。今日は、Amazonという別の企業の幹部の方とご一緒ですが、Amazonは定義上、社内で完全に統合されているわけではありません。
最先端のモデルを持っていないとして、多くの方から批判を受けてきました。しかし、今は推論の時代に入り、あなたは数多くの企業にサービスを提供してきました。ある程度の公平性を保つことで、結果的に有利な立場に立ったのではないでしょうか?これは意図的なものだったのでしょうか、それとも以前はその重要性に気づいていなかっただけで、偶然にも非常に有利な立場にいたのでしょうか?
マット・ガーマン:一つ意図的なことがあります。AWSを創業して以来、私たちは常にパートナー企業をエンドユーザーをサポートする上で不可欠な存在と考えてきました。創業当初から、パートナー企業と緊密に連携することは、私たちの戦略において非常に重要な要素でした。おそらく他の企業とは異なり、私たちはパートナー企業が成功すれば、つまりパートナー企業が私たちの基盤の上に、あるいは私たちと共に事業を構築すれば、私たちも成功すると信じています。それは素晴らしいことです。
私たちは、協力してパイを大きくしていくことを勝利と捉えています。しかし、他の人々は必ずしもそう考えているわけではありません。「すべてを手に入れなければならない」と言う人もいます。それも一つの考え方ですから、それで構いません。
しかし、選択肢があることは重要だと思います。それが最高の製品が勝つ秘訣です。ちなみに、この世界では自社製品もあれば、多くのサードパーティ製品もあります。しかし、私たちの考えは、お客様が自分にとって最適なものを選べるようにすることです。もしお客様にとって最適なものが、私たちが自社で開発した製品であれば、それは素晴らしいことです。
私たちにとって、パートナー企業が最高のものを構築し、それを私たちのプラットフォーム上で運用できるのであれば、それはお客様にとって最善であるため、勝利だと考えています。私たちは常にこのように考えており、実際にAIの世界におけるBedrockプラットフォームの構築方法もこれに基づいています。私たちは幅広いモデルと幅広い機能をサポートしたいと考えています。これはデータベースからコンピューティングプラットフォーム、その他すべてに至るまで、常に変わらない私たちの信念です。
これは意図的な戦略だと考えています。また、顧客もこのアプローチを気に入っているので、この戦略を評価してくれていると思います。今後もこの方向性を探求していくことを楽しみにしています。
司会者:ええ、それはとても興味深いですね。ソフトウェア、プラットフォーム、インフラストラクチャの間にはバランスを取る必要があり、誰もが誰にでもサービスを提供すると主張しています。しかし、AWSの始まりを振り返ると、I、つまりインフラストラクチャから始まったように感じます。私の見解では、それによってほぼ最大限の柔軟性が得られ、Samと中間地点で出会うことができました。Samは強力なS、つまりソフトウェアを持っています。そして、それらを組み合わせることでP、つまりプラットフォームを構築しているのです。これは妥当な評価だと思います。
マット・ガーマン:その通りです。確かに、いくつかの分野ではより難しくなります。例えば、「S3は1つしかない」と言いますが、他のS3製品は存在しません。これは事実です。ですから、おっしゃるように、インフラストラクチャレベルのコアコンポーネントに関しては、自社で構築することに重点を置いています。
しかし、テクノロジー・スタックを上っていくにつれて、機能の範囲は広がると思います。いずれにせよ、単一の企業がすべてのアプリケーションを所有することはないでしょう。テクノロジー・スタックを下ってモデルやサービス層に進むにつれて、その数は減り、さらにインフラストラクチャ層に進むと、その数はさらに減少します。私たちは、パートナー企業のポートフォリオ全体を活用することが、エンドユーザーにとって有益であると考えています。
司会者:サムさん、最後に何か一言ありますか?
サム・アルトマン:マットの指摘は素晴らしいと思います。開発者が今すぐにでも構築できる次世代製品には、計り知れない可能性が秘められていると私は確信しています。今後1年間でモデルの性能が飛躍的に向上すると予想されることを考えると、今こそ私たちが共にこの旅に乗り出し、それを可能にするプラットフォームを真に構築していく絶好のタイミングです。きっと皆さんに気に入っていただけると思います。
司会者:素晴らしい。マット、サム、ストラテチェリーにお越しいただきありがとうございます。
マット・ガーマン:それは素晴らしいですね。お招きいただきありがとうございます。
サム・アルトマン:ありがとうございます。


