ジェンセン・ホアン氏のGTC講演(全文):演繹的推論の時代が到来し、ロブスターが新たなオペレーティングシステムとなる

  • NVIDIAのCEOジェンセン・フアンはGTC 2026で基調講演を行い、2027年までにAIコンピューティング需要が少なくとも1兆ドルに達すると予測しました。
  • 「トークン工場経済学」を提唱し、データセンターがトークン生産工場へと変わり、ワット当たりの性能がコストの鍵であると強調しました。
  • 新システムVera RubinとGroqの統合を紹介し、推論性能を350倍向上させ、高速推論需要に対応しました。
  • エージェント革命によりSaaSがエージェント・アズ・ア・サービス(AaaS)へ転換され、将来の職場ではトークン予算が報酬の一部となります。
  • その他の更新には技術ロードマップ、OpenClawオペレーティングシステム、宇宙データセンター計画、物理AIとロボット技術の進展が含まれます。
要約

出典:ウォールストリートニュース

2026年3月16日、NVIDIA GTC 2026が正式に開幕し、NVIDIAの創業者兼CEOであるジェンセン・フアン氏が基調講演を行った。

AI業界にとって「毎年恒例の巡礼」とも言えるこのカンファレンスで、ジェンセン・フアン氏は、NVIDIAが「チップ会社」から「AIインフラおよび製造会社」へと変貌を遂げた経緯を説明した。市場が抱えるパフォーマンスの持続可能性と成長可能性に関する最も差し迫った懸念に対し、フアン氏は将来の成長を牽引する根底にあるビジネスロジック、すなわち「トークンファクトリー・エコノミクス」を詳細に解説した。

業績見通しは極めて楽観的で、2027年までに少なくとも1兆ドルの需要を見込んでいる。

過去2年間で、AIコンピューティングに対する世界的な需要は爆発的に増加しました。大規模モデルが「知覚」や「生成」から「推論」や「行動(タスク実行)」へと進化するにつれ、コンピューティング能力の消費量も急増しています。市場が特に注目している受注額や収益の上限について、黄仁迅氏は非常に高い期待を表明しています。

黄仁勲氏は演説の中で率直にこう述べた。

昨年の今頃、私はブラックウェルとルービンの市場規模で、2026年までに5000億ドルの確実な需要が見込まれると述べました。そして今、まさに今、私は2027年までに少なくとも1兆ドルの需要が見込まれると確信しています。

ジェンセン・フアン氏が示した1兆ドル規模の成長見通しは、かつてNVIDIAの株価を4.3%以上押し上げた。

さらに彼はこの数字に以下を加えた。

これは妥当な見積もりでしょうか?次にその点についてお話しします。実際、供給不足に陥る可能性さえあります。実際のコンピューティング需要は、この見積もりよりもはるかに高くなるでしょう。

ジェンセン・フアン氏は、Nvidiaのシステムが世界で最も「低コストなインフラ」であることが証明されたと指摘した。Nvidiaは事実上あらゆる分野でAIモデルを実行できるため、この汎用性によって顧客が投資した1兆ドルを最大限に活用し、長期にわたって運用することが可能になる。

現在、Nvidiaの事業の60%は上位5社のハイパースケールクラウドサービスプロバイダーからのものであり、残りの40%はソブリンクラウド、エンタープライズ、産業、ロボット工学、エッジコンピューティングなど、さまざまな分野に広く分散している。

トークンファクトリーの経済性:ワットあたりの性能がビジネスの生命線を決定する

この1兆ドル規模の需要の背景にある論理を説明するため、ジェンセン・フアン氏はグローバル企業のCEOたちに全く新しいビジネス思考を提示した。彼は、将来のデータセンターはもはやファイルを保管する倉庫ではなく、トークン(AIによって生成される基本単位)を生産する「工場」になると指摘した。

黄仁勲氏は次のように強調した。

データセンターも工場も、定義上、電力に制約がある。1ギガワット(GW)の工場が2ギガワットの工場になることは決してない。これは物理法則であり、原子の法則でもある。一定の電力レベルにおいては、ワットあたりのスループットが最も高い企業が、最も低い生産コストを実現できる。

ジェンセン・フアンは、将来のAIサービスを以下のビジネス階層に分類している。

無料プラン(高スループット、低速)

中級ティア(100万トークンあたり約3ドル)

上級ティア(100万トークンあたり約6ドル)

高速レイヤー(100万トークンあたり約45ドル)

超高速レイヤー(100万トークンあたり約150ドル)

彼は、モデルが大きくなり、コンテキストが長くなるにつれて、AIはより賢くなるが、トークン生成率は低下すると指摘した。ジェンセン・フアン氏は次のように述べた。

このトークン生成工場では、処理能力とトークン生成速度が、来年の正確な収入に直接反映されます。

ジェンセン・フアン氏は、NVIDIAのアーキテクチャは、無料プランでも極めて高いスループットを実現できると同時に、最も価値の高い推論プランでは驚異的な35倍ものパフォーマンス向上を可能にすると強調した。

Vera Rubinは2年間で350倍の高速化を達成。Groqは超高速推論におけるギャップを埋める。

こうした物理的な制約の下で、NVIDIAはこれまでで最も複雑なAIコンピューティングシステムであるVera Rubinを発表した。ジェンセン・フアン氏は次のように述べている。

以前は、Hopperについて話すときはチップを手に持って見せていたのですが、それはなかなか可愛らしいものでした。しかし、Vera Rubinについて話すと、人々はシステム全体を思い浮かべます。この100%液冷式で従来のケーブルを一切使用しないシステムでは、以前は設置に2日かかっていたラックも、今ではわずか2時間でセットアップできます。

ジェンセン・フアン氏は、ヴェラ・ルービン社が徹底的なエンドツーエンドのハードウェアとソフトウェアの共同設計を通じて、同じ1GWのデータセンター内で驚異的なデータ飛躍を実現したと指摘した。

わずか2年間で、トークン生成量を2200万から7億へと350倍に増加させました。一方、ムーアの法則では、同時期に約1.5倍の増加にとどまっています。

極めて高速な推論(例えば1000トークン/秒)の条件下で発生する帯域幅のボトルネックに対処するため、NVIDIAは買収したGroq社を統合した非対称分離推論という最終ソリューションを発表しました。ジェンセン・ファン氏は次のように説明しています。

これら2つのプロセッサは、非常に異なる特徴を持っている。Groqチップは500MBのSRAMを搭載しているのに対し、Rubinチップは288GBのメモリを搭載している。

ジェンセン・フアン氏は、NVIDIAがDynamoソフトウェアシステムを通じて、膨大な計算量とメモリを必要とする「プリフィル」段階をVera Rubinに、レイテンシに敏感な「デコード」段階をGroqに委任していることを指摘した。フアン氏はまた、企業向けコンピューティング能力構成に関する提案も行った。

主に高スループットを必要とする作業の場合は、Vera Rubinを100%使用してください。高価値のプログラムレベルのトークンを生成する需要が大きい場合は、データセンターのスペースの25%をGroqに割り当ててください。

サムスンが製造するGroq LP30チップは既に量産体制に入っており、第3四半期に出荷される予定であることが明らかになった。また、最初のVera Rubinラックは既にMicrosoft Azureクラウド上で稼働している。

さらに、光インターコネクト技術に関して、ジェンセン・ファン氏は世界初の量産型コパッケージ光スイッチ(CPO)であるSpectrum Xを発表し、「銅線から光ファイバーへの変換」方式をめぐる市場の議論を沈静化させた。

銅ケーブルの生産能力、光チップの生産能力、そしてCPOの生産能力をさらに増強する必要がある。

エージェントは従来のSaaSから脱却しつつあり、「年俸+トークン」がシリコンバレーの標準となっている。

ハードウェアの障壁に加えて、黄氏はAIソフトウェアとエコシステムの革命、特にエージェントの爆発的な普及に多くの紙面を割いた。

彼はオープンソースプロジェクトのOpenClawを「人類史上最も人気のあるオープンソースプロジェクト」と評し、わずか数週間でLinuxが過去30年間で達成した成果を凌駕したと述べた。黄氏は、OpenClawは基本的にエージェントコンピュータのための「オペレーティングシステム」であると率直に述べた。

黄仁勲氏は次のように主張した。

すべてのSaaS(Software as a Service)企業は、AaaS(Agent-as-a-Service)企業へと進化していくでしょう。機密データへのアクセスやコードの実行が可能なこれらのエージェントの安全な展開を確実にするため、NVIDIAはポリシーエンジンとプライバシールーターを追加したエンタープライズグレードのNeMo Clawリファレンスデザインを発表しました。

一般の働く人々にとっても、この変革はすぐそこまで迫っている。ジェンセン・ホアンは、未来の職場における新たな形態を概説する。

将来的には、当社のすべてのエンジニアに年間トークン予算が割り当てられる予定です。彼らの基本年収は数十万ドルになるかもしれませんが、その約半分をトークンとして割り当て、10倍の効率向上を実現できるようにします。これはすでにシリコンバレーにおける新たな採用戦略となっています。つまり、「あなたのオファーにはトークンがいくつ含まれていますか?」という質問です。

スピーチの最後に、ジェンセン・フアン氏は、銅線とCPOの両方で水平スケーリングを実現する初の次世代コンピューティングアーキテクチャ「Feynman」をちらりと紹介した。さらに興味深いのは、NVIDIAが開発中の宇宙空間に設置されるデータセンターコンピュータ「Vera Rubin Space-1」だ。これは、地球外へのAIコンピューティング能力の拡張の可能性を大きく広げるものだ。

ジェンセン・フアン氏のGTC 2026でのスピーチ全文を、AIツールを用いて翻訳したものが以下に掲載します。

司会者: Nvidiaの創業者兼CEO、ジェンセン・フアン氏をステージにお迎えしましょう。

創業者兼CEO、ジェンセン・フアン氏:

GTCへようこそ。これは技術カンファレンスであることを改めてお伝えしておきます。早朝からこんなに多くの方々が列を作って入場してくださっているのを見て、そして今日こうして皆さんがここに集まってくださっているのを見て、大変嬉しく思います。

GTCでは、テクノロジー、プラットフォーム、エコシステムの3つの主要テーマに焦点を当てます。NVIDIAは現在、CUDA-Xプラットフォーム、システムプラットフォーム、そして新たに発表したAIファクトリープラットフォームという3つの主要プラットフォームを提供しています。

正式に開始する前に、プレイベントのホストを務めてくださったConvictionのサラ・グオ氏、Sequoia Capitalのアルフレッド・リン氏(Nvidia初のベンチャーキャピタリスト)、そしてNvidia初の主要機関投資家であるギャビン・ベイカー氏に感謝申し上げます。この3名はテクノロジーに関する深い洞察力をお持ちで、テクノロジーエコシステム全体に大きな影響力を持っています。もちろん、本日ご招待させていただいたすべての著名なゲストの皆様にも感謝いたします。この素晴らしいチームに感謝申し上げます。

本日ご出席いただいたすべての企業に感謝申し上げます。NVIDIAはプラットフォーム企業であり、技術、プラットフォーム、そして豊かなエコシステムを有しています。本日ご出席いただいた企業は、100兆ドル規模の業界におけるほぼすべてのプレーヤーを代表する企業であり、このイベントを後援してくださった450社に深く感謝いたします。

このカンファレンスでは、1,000の技術フォーラムと2,000人の講演者が登壇し、土地、電力、データセンターといったインフラから、チップ、プラットフォーム、モデル、そして最終的に業界全体を前進させる様々なアプリケーションに至るまで、人工知能の「5層構造」アーキテクチャのあらゆる層を網羅します。

CUDA:20年にわたる技術蓄積

すべてはここから始まった。今年はCUDA設立20周年を迎える。

私たちは20年以上にわたり、このアーキテクチャの開発に尽力してきました。CUDAは革新的な発明です。SIMT(単一命令マルチスレッド)技術により、開発者はスカラーコードでプログラムを記述し、それをマルチスレッドアプリケーションに拡張することが可能になり、従来のSIMDアーキテクチャよりもはるかに低いプログラミング難易度を実現しました。最近では、開発者がテンソルコアや、今日の人工知能の基盤となる様々な数学的構造をより容易にプログラミングできるよう、タイル機能を追加しました。現在、CUDAには数千ものツール、コンパイラ、フレームワーク、ライブラリがあり、オープンソースコミュニティには数十万もの公開プロジェクトが存在し、あらゆるテクノロジーエコシステムに深く統合されています。

この図はNVIDIAの戦略的な論理を100%示しており、私は最初からこのスライドを提示してきました。達成するのが最も難しく、かつ中核となる要素は、図の下部にある「インストール済みシステム数」です。過去20年間で、私たちは世界中で数億台のGPUとCUDAを実行するコンピューティングシステムを蓄積してきました。

当社のGPUはあらゆるクラウドプラットフォームに対応し、ほぼすべてのコンピュータメーカーと業界にサービスを提供しています。CUDAの膨大な導入実績こそが、この好循環が加速し続ける根本的な理由です。導入実績は開発者を引きつけ、開発者は新しいアルゴリズムを生み出し、画期的な成果を上げ、画期的な成果は新たな市場を創出し、新たな市場は新たなエコシステムを形成し、さらに多くの企業を惹きつけ、導入実績をさらに拡大させていきます。この好循環は絶えず加速し続けています。

NVIDIAライブラリのダウンロード数は、驚異的なスピードで、大規模かつ加速的に増加しています。この好循環によって、当社のコンピューティングプラットフォームは膨大な数のアプリケーションをサポートし、絶え間なく新たな技術革新を生み出すことが可能となっています。

さらに重要なのは、これらのインフラストラクチャの寿命を極めて長く保つことができる点です。その理由は明白です。NVIDIA CUDA上で動作するアプリケーションは非常に多様で、AIライフサイクルのあらゆる段階、様々なデータ処理プラットフォーム、そして幅広い科学計算ソルバーを網羅しています。そのため、NVIDIA GPUを一度導入すれば、その実用価値は非常に高くなります。これが、6年前に発売したAmpereアーキテクチャGPUのクラウド価格が実際に上昇している理由でもあります。

このすべての根本原因は、当社の膨大なインストールベース、強力なフライホイールアーキテクチャ、そして広範な開発者エコシステムにあります。これらの要素が連携し、継続的なソフトウェアアップデートと相まって、コンピューティングコストは着実に低下します。高速コンピューティングはアプリケーションのパフォーマンスを大幅に向上させ、当社の長期的なメンテナンスとソフトウェアの反復により、ユーザーは初期パフォーマンスの飛躍的な向上だけでなく、継続的なコンピューティングコストの削減も享受できます。当社は、世界中のすべてのGPUに対して長期的なサポートを提供することをお約束します。なぜなら、それらはアーキテクチャ的に互換性があるからです。

インストール規模が非常に大きいため、私たちはこのような取り組みを行っています。新しい最適化リリースは毎回、数百万人のユーザーに恩恵をもたらします。このダイナミックな組み合わせにより、NVIDIAアーキテクチャは継続的にその適用範囲を拡大し、成長を加速させると同時に、コンピューティングコストを削減し、最終的に新たな成長を促進することができます。CUDAはそのすべての中核を成しています。

GeForceからCUDAへ:25年間の進化

CUDAとの私たちの歩みは、実は25年前に始まったのです。

GeForce――皆さんの多くはGeForceと共に成長してきました。GeForceはNVIDIAで最も成功したマーケティングプログラムです。皆さんがまだ当社の製品を購入できなかった頃から、私たちは将来の顧客を育成してきました。皆さんの両親はNVIDIAの初期ユーザーとなり、毎年製品を購入し続け、やがて皆さんは優秀なコンピュータ科学者へと成長し、真の顧客、そして開発者となったのです。

これは、25年前にGeForceが築いた基盤です。25年前、私たちはプログラマブルシェーダーを発明しました。これは、アクセラレータをプログラマブルにするという、一見当たり前でありながらも画期的な発明であり、世界初のプログラマブルアクセラレータであるピクセルシェーダーを生み出しました。その5年後、私たちはCUDAを開発しました。これは、私たちがこれまでに行った最も重要な投資の一つです。限られたリソースの中で、私たちは利益の大部分をGeForceからあらゆるコンピュータにCUDAを拡張することに賭けました。私たちはその可能性を信じていたからこそ、これほどまでに強い決意を持っていたのです。当初は困難もありましたが、会社はこの信念を13世代、つまり20年間持ち続け、今日ではCUDAは至るところで使われています。

GeForce革命を牽引したのはピクセルシェーダーでした。そして約8年前、私たちはRTXを発表しました。これは現代のコンピュータグラフィックスにおける完全なアーキテクチャの刷新です。GeForceはCUDAを世に送り出し、アレックス・クリジェフスキー、イリヤ・サツケバー、ジェフリー・ヒントン、アンドリュー・ンといった多くの研究者が、GPUがディープラーニングを高速化するための強力なツールになり得ることを発見し、10年前にAIの爆発的な発展の火付け役となったのです。

10年前、私たちはプログラマブルシェーディングと、全く新しい2つの概念を組み合わせることを決定しました。1つは技術的に非常に困難なハードウェアレイトレーシング、もう1つは当時としては先見の明のあるアイデア、つまりAIがコンピュータグラフィックスに革命をもたらすだろうという予見です。GeForceがAIを世界にもたらしたように、今度はAIがコンピュータグラフィックスの実装方法を根本から変革するでしょう。

今日は、未来をお見せしたいと思います。これが、私たちが「ニューラルレンダリング」と呼ぶ次世代グラフィックス技術です。3Dグラフィックスと人工知能を深く融合させたものです。これがDLSS 5です。どうぞご覧ください。

ニューラルレンダリング:構造化データと生成AIの融合

息を呑むほど素晴らしいと思いませんか?コンピューターグラフィックスがまるで生きているかのようです。

私たちは何をしたのでしょうか?制御可能な3Dグラフィックス(仮想世界の真の基盤)とその構造化データを組み合わせ、さらに生成AIと確率的計算を組み込みました。一方は完全に決定論的であり、もう一方は確率的でありながら非常にリアルです。私たちはこれら2つの概念を融合させ、構造化データを通して精密な制御を実現しながら、リアルタイムでコンテンツを生成しました。最終的に、視覚的に素晴らしく、かつ完全に制御可能なコンテンツが完成しました。

構造化情報と生成型AIを統合するという概念は、今後も様々な業界で広がり続けるだろう。構造化データは、信頼できるAIの基盤となるものである。

構造化データと非構造化データのための高速化プラットフォーム

それでは、技術的なアーキテクチャ図をお見せします。

構造化データ――SQL、Spark、Pandas、Veloxといった馴染みのあるプラットフォームに加え、Snowflake、Databricks、Amazon EMR、Azure Fabric、Google BigQueryといった重要なプラットフォームも含む――はすべてデータフレームを処理します。これらのデータフレームは巨大なスプレッドシートのようなもので、ビジネス世界のあらゆる情報を保持し、エンタープライズコンピューティングの真実を表しています。

AI時代においては、AIが構造化データを活用できるようにし、その処理速度を極限まで加速させる必要がある。従来、構造化データの処理速度向上は、企業の業務効率化を目的としていた。今後は、AIが人間をはるかに凌駕する速度でこれらのデータ構造を利用し、AIエージェントが構造化データベースを幅広く活用していくことになるだろう。

非構造化データに関して言えば、ベクターデータベース、PDF、動画、音声は世界中のデータ形式の大部分を占めており、毎年生成されるデータの約90%が非構造化データです。従来、このデータはほとんど利用できませんでした。読み込んでファイルシステムに保存するだけで、それ以上のことはできなかったのです。クエリを実行することもできず、非構造化データには単純なインデックス作成方法がなかったため、データの取得も困難でした。データの意味と文脈を理解する必要があったのです。しかし今では、AIがこれを可能にします。マルチモーダルな知覚と理解技術を用いることで、AIはPDF文書を読み取り、その意味を理解し、クエリ可能なより大きな構造に埋め込むことができるのです。

Nvidiaはこの目的のために2つの基本ライブラリを作成しました。

  • cuDF: データフレームおよび構造化データの高速処理に使用されます。
  • cuVS:ベクトルストレージ、セマンティックデータ、および非構造化AIデータの処理に使用されます。

これら2つのプラットフォームは、将来的に最も重要な基盤プラットフォームの一つとなるでしょう。

本日、当社は複数の企業とのパートナーシップを発表いたします。SQL言語の発明者であるIBMは、cuDFを使用してWatsonXデータプラットフォームの高速化を図ります。Dellは当社と提携し、cuDFとcuVSを統合したDell AIデータプラットフォームを構築し、NTTデータにおける実世界のプロジェクトで大幅なパフォーマンス向上を実現しました。Google Cloudに関しては、Vertex AIだけでなくBigQueryの高速化も進めており、Snapchatと提携してコンピューティングコストを約80%削減することに成功しました。

高速コンピューティングの利点は、速度、規模、コストの3つに集約されます。これはムーアの法則の論理と一致しており、高速コンピューティングによって性能を飛躍的に向上させると同時に、アルゴリズムを継続的に最適化することで、誰もがコンピューティングコストの継続的な低下という恩恵を受けられるようになります。

NVIDIAは、RTX、cuDF、cuVSなど多数のライブラリを統合した高速コンピューティングプラットフォームを構築しました。これらのライブラリは、グローバルなクラウドサービスやOEMネットワークに統合され、世界中のユーザーに利用されています。

クラウドサービスプロバイダーとの緊密な連携

主要なクラウドサービスプロバイダーとの提携

Google Cloud:当社はVertex AIとBigQueryを高速化し、JAX/XLAとの緊密な連携を実現し、PyTorchにも優れています。NVIDIAは、PyTorchとJAX/XLAの両方で優れた性能を発揮する、世界で唯一のアクセラレーターです。Base10、CrowdStrike、Puma、Salesforceといったお客様をGoogle Cloudのエコシステムに取り込んできました。

AWS:当社は、AWSと深く統合されたEMR、SageMaker、Bedrockの開発を加速させています。今年最も楽しみにしているのは、OpenAIをAWSに導入することです。これにより、AWSのクラウドコンピューティングの利用拡大が大幅に促進され、OpenAIの地域展開とコンピューティング規模の拡大にも貢献するでしょう。

Microsoft Azure: NVIDIAの100 PFLOPSスーパーコンピュータは、当社が構築し、Azureに初めて展開したスーパーコンピュータであり、OpenAIとの協業の重要な基盤を築きました。当社はAzureクラウドサービスとAI Foundryを加速し、Azureリージョンの拡張で協力し、Bing検索で緊密に連携しています。特に、当社の**機密コンピューティング**機能(通信事業者でさえユーザーデータやモデルを閲覧できないようにする機能)により、NVIDIA GPUは機密コンピューティングをサポートする世界初のGPUの一つとなり、世界中のクラウド環境でOpenAIとAnthropicのモデルを安全に展開することが可能になりました。例えば、Synopsys社と協力して、同社のEDAおよびCADワークフロー全体を加速し、Microsoft Azureに展開しています。

オラクル:私たちはオラクルの最初のAI顧客であり、オラクルにAIクラウドの概念を最初に説明したことを誇りに思っています。それ以来、オラクルは急速に成長し、私たちはCohere、Fireworks、OpenAIなど、多くのパートナー企業をオラクルに紹介してきました。

CoreWeave:世界初のAIネイティブクラウドであり、GPUホスティングとAIクラウドサービス向けに特別に設計されており、優れた顧客基盤と力強い成長を誇っています。

Palantir + Dell:この3社は、PalantirのオントロジープラットフォームとAIプラットフォームをベースとした全く新しいAIプラットフォームを共同で開発しました。このプラットフォームは、データ処理(ベクトル化や構造化)からAI向けの完全な高速コンピューティングスタックまで、あらゆるものを網羅し、あらゆる国、あらゆるエアギャップ隔離環境で完全にローカライズされた方法でAIを展開できます。

NVIDIAは、世界のクラウドサービスプロバイダーと特別なパートナーシップを構築しました。お客様をクラウドへと導き、相互に有益なエコシステムを構築します。

垂直統合と水平的開放:Nvidiaの中核戦略

Nvidiaは、世界初の垂直統合型かつ水平開放型の企業です。

このモデルの必要性は非常に単純です。高速コンピューティングはチップの問題でもシステムの問題でもなく、完全にはアプリケーションアクセラレーションと呼ぶべきものです。CPUはコンピュータ全体の処理速度を向上させることができますが、この方法は限界に達しています。今後は、アプリケーションまたはドメイン固有のアクセラレーションのみが、パフォーマンスの飛躍的な向上とコスト削減を実現し続けることができるでしょう。

まさにこれが、NVIDIAが次々とライブラリ、ドメイン、そして業界を深く掘り下げていく必要がある理由です。当社は垂直統合型のコンピューティング企業であり、他に道はありません。アプリケーションを理解し、ドメインを理解し、アルゴリズムを深く理解し、データセンター、クラウド、オンプレミス、エッジ、さらにはロボットシステムといったあらゆるシナリオでそれらを展開できるようにしなければなりません。

同時に、NVIDIAは水平的にオープンなアプローチを維持し、あらゆるパートナーのプラットフォームに自社の技術を統合することで、世界中の人々が高速コンピューティングの恩恵を享受できるように努めています。

今年のGTCの参加者構成は、この点を完璧に示しています。金融サービス業界からの参加者が最も多く、トレーダーではなく開発者の参加を期待しています。私たちのエコシステムは、サプライチェーンの上流と下流の両方に及んでいます。創業50年、70年、150年を問わず、昨年はどの企業にとっても過去最高の業績を記録しました。私たちは、非常に重要な何かの出発点に立っているのです。

CUDA-X:様々な産業向けの高速コンピューティングエンジン

Nvidiaは様々な垂直分野で確固たる地位を築いている。

  • 自動運転:広範囲かつ広範な影響
  • 金融サービス:定量投資は、手作業による特徴量エンジニアリングからスーパーコンピューターを活用した深層学習へと移行しつつあり、まさに「変革の時」を迎えようとしている。
  • ヘルスケア分野は、AIを活用した創薬、AIによる診断、ヘルスケア顧客サービスといった分野を含め、独自の「ChatGPTのような瞬間」を迎えつつある。
  • 産業界:世界最大規模の建設ラッシュが進行中で、AI工場、半導体工場、データセンター工場が至る所に次々と建設されている。
  • エンターテインメントとゲーム:リアルタイムAIプラットフォームは、翻訳、ライブストリーミング、ゲームインタラクション、インテリジェントなショッピングエージェントをサポートします。
  • ロボット工学:10年以上の経験と、3つの主要なコンピュータアーキテクチャ(トレーニング用コンピュータ、シミュレーション用コンピュータ、搭載コンピュータ)を完備したこの展示会では、110台のロボットが展示されました。
  • 通信業界:約2兆ドル規模のこの業界では、基地局は単一の通信機能からAIインフラプラットフォームへと進化していくでしょう。そのようなプラットフォームの一つであるAerialは、NokiaやT-Mobileといった企業と緊密な連携を築いています。

これらの分野すべての中核を成すのは、NVIDIAがアルゴリズム企業としての基盤を築く上で欠かせないCUDA-Xライブラリです。これらのライブラリは当社にとって最も貴重な資産であり、コンピューティングプラットフォームが様々な業界で現実世界における価値を提供することを可能にしています。

最も重要なライブラリの1つはcuDNN(CUDAディープニューラルネットワークライブラリ)であり、これは人工知能に革命をもたらし、現代のAIにおける大きな爆発的発展を引き起こした。

(CUDA-Xデモビデオを再生中)

今ご覧いただいたものはすべてシミュレーションです。物理ベースのソルバー、AIが操作する物理モデル、そして物理的なAIロボットモデルもすべてシミュレーションでした。手描きのアニメーションや関節のリギングは一切ありません。これこそがNVIDIAの核となる能力です。アルゴリズムへの深い理解とコンピューティングプラットフォームの有機的な統合を通じて、こうした可能性を切り拓くのです。

AIネイティブ企業と新たなコンピューティング時代

今ご覧いただいたのは、ウォルマート、ロレアル、JPモルガン・チェース、ロシュ、トヨタといった、現代社会を象徴する巨大企業に加え、これまで聞いたこともないような数多くの企業、いわゆるAIネイティブ企業です。このリストは非常に長く、OpenAI、Anthropic、そして様々な業種にサービスを提供する多くの新興企業が含まれています。

この業界は過去2年間で驚異的な成長を遂げました。スタートアップへのベンチャーキャピタルの流入額は過去最高の1,500億ドルに達しました。さらに重要なのは、単一の投資規模が初めて数百万ドルから数億ドル、あるいは数十億ドルにまで拡大したことです。その理由はただ一つ、歴史上初めて、この種の企業すべてが膨大な量のコンピューティングリソースと膨大な数のトークンを必要とするようになったからです。この業界は、AnthropicやOpenAIといった組織からトークンを創出し、生成し、あるいはトークンの価値を高めています。

パソコン革命、インターネット革命、モバイルクラウド革命がそれぞれ数々の画期的な企業を生み出したように、今回のコンピューティングプラットフォームの変革もまた、将来の世界において重要な勢力となる、非常に影響力のある企業を数多く生み出すだろう。

このすべてを推進した3つの歴史的なブレークスルー

過去2年間で具体的に何が起こったのか? 3つの大きな出来事があった。

まず、ChatGPTが登場し、生成型AIの時代を切り開く(2022年末から2023年)。

それは認識や理解だけでなく、独自のコンテンツを生成することもできます。私は生成型AIとコンピュータグラフィックスの融合を実証しました。生成型AIは、検索ベースから生成ベースへと、私たちのコンピューティングの方法を根本的に変革し、コンピュータアーキテクチャ、展開方法、そして全体的な意味に大きな影響を与えます。

2番目:推論AI、O1で代表される。

推論能力によって、AIは自己反省、計画立案、問題の分解が可能になります。つまり、直接理解できない問題を、扱いやすい段階に分解できるのです。これにより、生成型AIは現実世界の情報に基づいて推論できる、信憑性の高いものとなります。これを実現するために、入力コンテキストに使用されるトークン数と推論に使用される出力トークン数が大幅に増加し、結果として計算複雑度が著しく増大します。

3つ目は、最初のインテリジェントエージェントモデルであるクロード・コードです。

ファイルの読み込み、コードの記述、コンパイル、テスト、評価、反復処理が可能です。Claude Codeはソフトウェアエンジニアリングに革命をもたらしました。NVIDIAのエンジニアは全員、Claude Code、Codex、Cursorのいずれか、または複数を使用しており、AIの支援なしにソフトウェアエンジニアが活躍できる時代はもはやありません。

これは全く新しい転換点です。もはやAIに「何を、どこで、どのように」と尋ねるのではなく、「創造し、実行し、構築する」ことを任せ、ツールを積極的に活用し、ファイルを読み込み、問題を分解し、行動を起こさせるのです。AIは知覚から生成、そして推論へと進化し、今や真に物事を成し遂げることができるようになりました。

過去2年間で、推論に必要な計算能力は約1万倍に増加した一方、利用率は約100倍にとどまっています。私は以前から、過去2年間で計算能力の需要は100万倍に増加したと考えていました。これはOpenAIやAnthropicといった関係者も共有する感覚です。より多くの計算能力を獲得できれば、より多くのトークンが生成され、収益が増加し、AIはより賢くなります。推論の転換点が到来したのです。

1兆ドル規模のAIインフラ時代

昨年の今頃、私はここで、ブラックウェルとルービンの需要と受注残高は2026年までにおよそ5000億ドルに達すると確信していると述べていました。GTCから1年経った今、私は皆さんにこうお伝えします。2027年を見据えると、その額は少なくとも1兆ドルに達すると見ています。そして、実際のコンピューティング需要はそれをはるかに上回ると確信しています。

2025年:Nvidiaの減額の年

2025年はNVIDIAにとって推論の年です。トレーニングやトレーニング後だけでなく、AIライフサイクルのあらゆる段階で卓越性を確保し、投資したインフラストラクチャがより長い有効寿命と低いユニットコストで効率的に稼働し続けることを目指します。

同時に、AnthropicとMetaは正式にNVIDIAプラットフォームに加わり、両社合わせて世界のAIコンピューティング能力需要の3分の1を占めるようになった。オープンソースモデルは最先端レベルに近づきつつあり、広く普及している。

NVIDIAは現在、言語、生物学、コンピュータグラフィックス、コンピュータビジョン、音声認識、タンパク質・化学、ロボット工学など、あらゆるAI分野のあらゆるAIモデルを、エッジ環境でもクラウド環境でも、また言語の種類を問わず実行できる世界で唯一のプラットフォームです。NVIDIAのアーキテクチャはこれらのあらゆるシナリオに対応できる汎用性を備えており、最も低コストで信頼性の高いプラットフォームとなっています。

現在、NVIDIAの事業の60%は世界トップ5のハイパースケールクラウドサービスプロバイダーからのものであり、残りの40%は地域クラウド、ソブリンクラウド、エンタープライズ、産業、ロボット工学、エッジコンピューティングなど、さまざまな分野に分散しています。AIの適用範囲の広さこそがNVIDIAの強靭さの源泉であり、これは間違いなく全く新しいコンピューティングプラットフォーム革命と言えるでしょう。

グレース・ブラックウェルとNVLink 72:大胆な建築革新

Hopperアーキテクチャがまだ全盛期だった頃、私たちはシステムを完全に再設計することを決定し、NVLinkを8ウェイからNVLink 72に拡張し、コンピューティングシステムを包括的に分解・再構築しました。NVLink 72は大きな技術的賭けであり、パートナー企業にとっても容易なことではありませんでした。関係者の皆様に心より感謝申し上げます。

同時に、私たちはNVFP4を導入しました。これは単なる通常のFP4ではなく、全く新しいタイプのテンソルコアと演算ユニットです。NVFP4は精度を損なうことなく推論を実現し、大幅な性能向上とエネルギー効率の改善をもたらすことを実証しており、学習にも同様に適しています。さらに、DynamoやTensorRT-LLMといった一連の新しいアルゴリズムが登場し、カーネル最適化専用のスーパーコンピュータ「DGX Cloud」の構築に数十億ドルを投資しました。

この結果は、当社の卓越した推論性能を証明しています。これまでで最も包括的なAI推論性能ベンチマークであるSemi Analysisのデータによると、NVIDIAはトークン/ワットとトークン/コストの両方で他社を大きくリードしています。ムーアの法則ではH200の性能向上は1.5倍と予測されていましたが、当社は35倍を達成しました。Semi Analysisのディラン・パテル氏は「ファン氏は控えめに言っている。実際は50倍だ」とまで言っています。まさにその通りです。

ここで彼の言葉を引用したい。「ジェンセンは(黄仁勲の報道は)控えめだった」。

Nvidiaのトークンあたりのコストは世界最低水準であり、現時点で他社は追随できない。その理由は、同社のエクストリーム・コデザインにある。

Fireworksを例にとると、NVIDIAがソフトウェアとアルゴリズム全体をアップデートする前は、トークン処理速度は平均で毎秒約700トークンでしたが、アップデート後は毎秒約5,000トークンにまで向上し、約7倍の改善となりました。これこそが、極めて高度な共同設計の力です。

AIファクトリー:データセンターからトークンファクトリーへ

データセンターはかつてファイルを保存する場所だったが、今やトークンを生成する工場となっている。今後、あらゆるクラウドサービスプロバイダーとAI企業は、「トークン工場の効率性」を主要な運用指標として活用するようになるだろう。

これが私の主張の核心です。

  • 縦軸:スループット – 一定の電力レベルで1秒あたりに生成されるトークンの数
  • 横軸:トークン速度 – 推論ステップごとの応答速度。速度が速いほど、使用可能なモデルが大きく、コンテキストが長く、AIの知能が高くなります。

このトークンは新しい商品であり、成熟すれば段階的な価格設定がされる予定です。

  • 無料プラン(高スループット、低速)
  • 中級ティア(100万トークンあたり約3ドル)
  • 上級ティア(100万トークンあたり約6ドル)
  • 高速レイヤー(100万トークンあたり約45ドル)
  • 超高速レイヤー(100万トークンあたり約150ドル)

Hopperと比較して、Grace Blackwellは最高価値ティアにおいて35倍のスループットを実現し、全く新しいティアを導入しています。簡略化されたモデルを使用し、4つのティア全体に処理能力の25%を割り当てることで、Grace BlackwellはHopperの5倍の収益を生み出す可能性があります。

ヴェラ・ルービン:次世代AIコンピューティングシステム

(ヴェラ・ルービン・システムを紹介するビデオを再生)

Vera Rubinは、エージェントワークロード向けに特別に設計された、エンドツーエンドで最適化された完全なシステムです。

  • 大規模言語モデル計算コア:NVLink 72 GPUクラスタ、プリフィルとキーバリューキャッシュの処理。
  • 全く新しいVera CPU:極めて高いシングルスレッド性能を実現するために設計され、LPDDR5メモリを採用し、優れたエネルギー効率を誇ります。LPDDR5を採用した世界唯一のデータセンター向けCPUであり、AIエージェントツールに最適です。
  • ストレージシステム:BlueField 4 + CX 9は、ストレージ業界から100%のグローバルな参加を得て開発された、AI時代に向けた全く新しいストレージプラットフォームです。
  • CPO Spectrum Xスイッチ:世界初の光イーサネットスイッチが、ついに本格的な量産体制に入りました。
  • Kyber Rack:144個のGPUが単一のNVLinkドメインを形成し、フロントエンドコンピューティングとバックエンドNVLinkスイッチングによってスーパーコンピュータを構築する、全く新しいラックシステム。
  • Rubin Ultra:Kyberラックと互換性があり、より大規模なNVLink相互接続をサポートする、垂直統合設計の次世代スーパーコンピューティングノード。

Vera Rubinは完全液冷式となり、設置時間を2日間から2時間に短縮しました。45℃の温水冷却を採用することで、データセンターの冷却負荷を大幅に軽減しています。サティア・ナデラCEOが、最初のVera RubinラックがMicrosoft Azure上で稼働を開始したことを確認したことを大変嬉しく思います。

Groqとの統合:推論パフォーマンスの究極の拡張

当社はGroqチームを買収し、技術ライセンスを取得しました。Groqは、静的コンパイルとコンパイラスケジューリングを採用した決定論的なデータフロープロセッサであり、大容量のSRAMを搭載し、単一推論ワークロードに最適化されており、極めて低いレイテンシと極めて高速なトークン生成速度を特長としています。

しかし、Groqのメモリ容量が限られている(オンチップSRAM 500MB)ため、大規模モデルのパラメータとKVキャッシュを独立して処理することが難しく、大規模なアプリケーションへの適用が制限される。

その解決策は、推論スケジューリングソフトウェアであるDynamoです。Dynamoを使用して、推論パイプラインを分割します。

  • 事前充填とアテンションメカニズムのデコードは、Vera Rubin上で実行されます(かなりの計算能力とKVキャッシュストレージが必要です)。
  • **フィードフォワードネットワークデコード**、つまりトークン生成部分はGroq上で実行されます(非常に高い帯域幅と低い遅延が必要です)。

両者はイーサネットを介して密接に連携しており、特別なモードによりレイテンシが約半分に削減されます。AIファクトリーオペレーティングシステムであるDynamoの統合スケジューリングにより、全体的なパフォーマンスが35倍向上し、NVLink 72ではこれまで到達できなかった新たなレベルの推論性能が実現します。

GroqとVera Rubinのおすすめ組み合わせ:

  • ワークロードが主に高スループットである場合は、Vera Rubinを100%使用してください。
  • 作業負荷の大部分がコードなどの高価値トークンの生成に関わる場合、Groqを導入することができ、推奨される比率はGroq約25% + Vera Rubin約75%です。

Groq LP30はサムスン製で、現在量産体制に入っており、第3四半期に出荷開始予定です。サムスンの全面的なご協力に感謝いたします。

推論性能における歴史的な飛躍

これまでの技術進歩を定量化すると、1ギガワットのAI工場におけるトークン生成速度は、2年以内に毎秒2200万トークンから毎秒7億トークンへと、350倍に増加する。これこそが、究極の協調設計の力である。

テクノロジーロードマップ

  • Blackwell:現在生産中。Oberon標準ラックシステム、銅線ケーブルはNVLink 72まで延長可能、オプションでNVLink 576への光ファイバー延長が可能。
  • Vera Rubin(現):Kyberラック、NVLink 144(銅線ケーブル);Oberonラック、NVLink 72 + 光ファイバー、NVLink 576に拡張;Spectrum 6、世界初のCPOスイッチ。
  • Vera Rubin Ultra(近日発売):次世代Rubin Ultra GPU、LP35チップ(NVFP4を初めて統合)により、パフォーマンスがさらに数倍向上します。
  • Feynman(次世代):NVIDIAとGroqチームが共同開発した、NVFP4を統合した全く新しいGPU、LP40チップ。全く新しいCPU、Rosa(Rosalyn)。BlueField 5。CX 10。銅線ケーブルとCPO拡張の両方をサポートするKyberラック。

ロードマップは明確です。銅ケーブルの拡張、光ファイバーの拡張(スケールアップ)、光ファイバーの拡張(スケールアウト)という3つのルートを並行して進めています。銅ケーブル、光ファイバー、CPOの生産能力を継続的に拡大していくために、すべてのパートナー企業に協力をお願いしています。

NVIDIA DSX:AIファクトリー向けデジタルツインプラットフォーム

AIファクトリーはますます複雑化しているが、それを構成する様々な技術サプライヤーは、設計段階で互いに協力したことはなく、データセンターで「会合」するにとどまっている。これは明らかに不十分である。

この目的のために、私たちはOmniverseと、それを基盤としたNVIDIA DSXプラットフォームを開発しました。これは、すべてのパートナーが仮想世界でギガワット規模のAIファクトリーを共同設計・運用するためのプラットフォームです。DSXは以下の機能を提供します。

  • ラックレベルの機械、熱、電気、およびネットワークシミュレーションシステム
  • 電力網との接続により、協調的な省エネ運転が可能になります。
  • データセンターにおけるMax-Qに基づく動的な消費電力と冷却の最適化

控えめな見積もりでも、このシステムはエネルギー効率を約2倍向上させる可能性があり、これは今回議論している規模においては非常に大きなメリットとなります。オムニバースは、デジタルアースを皮切りに、あらゆる規模のデジタルツインをサポートします。私たちは、人類史上最大のコンピュータを構築するために、世界中のパートナーと協力しています。

さらに、Nvidiaは宇宙分野にも進出しています。Thorチップは耐放射線認証を取得し、衛星に搭載されて稼働しています。当社はパートナー企業と協力して、宇宙データセンター構築のためのVera Rubin Space-1を開発しています。宇宙空間では放熱が放射のみに依存するため、熱管理は重要な課題となります。当社はこの課題に取り組むため、一流のエンジニアを結集しています。

OpenClaw:インテリジェントエージェント時代のオペレーティングシステム

ピーター・スタインバーガーはOpenClawというソフトウェアを開発した。これは人類史上最も人気のあるオープンソースプロジェクトであり、わずか数週間でLinuxの30年にわたる実績を凌駕した。

OpenClawは基本的に、以下の機能を備えたエージェントシステムです。

  • リソースの管理、ツールへのアクセス、ファイルシステム、および大規模な言語モデル。
  • スケジュールされたタスクと時間指定タスクを実行する
  • 問題を段階的に分解し、サブエージェントを呼び出してください。
  • 音声、ビデオ、テキスト、メールなど、あらゆる形式の入出力に対応しています。

オペレーティングシステムの構文を用いるならば、これはまさにオペレーティングシステム、すなわちインテリジェントエージェントコンピュータのためのオペレーティングシステムである。Windowsがパーソナルコンピュータを可能にしたように、OpenClawはパーソナルインテリジェントエージェントを可能にする。

すべての企業は、Linux戦略、HTML戦略、Kubernetes戦略が必要なのと同様に、独自のOpenClaw戦略を策定する必要がある。

企業ITの全面的な再構築

OpenClawが登場する以前、企業ITとは、データやファイルがシステムに入力され、ツールやワークフローを経て、最終的に人間が利用できるツールとなるという流れで構成されていました。ソフトウェア企業がツールを開発し、システムインテグレーター(GSI)やコンサルティング会社が企業によるツールの利用を支援していました。

OpenClaw事件後のエンタープライズIT:すべてのSaaS企業はAaaS(Agent as a Service)企業へと変貌を遂げるだろう。単にツールを提供するだけでなく、特定の分野に特化したAIエージェントを提供するようになるのだ。

しかし、ここには重要な課題があります。企業内のインテリジェントエージェントは、機密データにアクセスしたり、コードを実行したり、外部エンティティと通信したりできるのです。これは企業環境において厳密に管理されなければなりません。

この目的のために、私たちはピーターと提携し、セキュリティをエンタープライズ版に統合しました。その結果、以下のことが実現しました。

  • NeMo Claw(リファレンスデザイン):OpenClawをベースとしたエンタープライズグレードのリファレンスフレームワークで、NVIDIAのインテリジェントエージェントAIツールキット一式を統合しています。
  • Open Shield(セキュリティレイヤー):OpenClawに統合されており、ポリシーエンジン、ネットワークバリア、プライバシールーティングを提供することで、企業データのセキュリティを確保します。
  • NeMo Cloud:ダウンロードしてすぐに利用可能で、すべてのSaaS企業の戦略エンジンと互換性があります。

これは企業IT業界のルネサンスであり、元々2兆ドル規模だった業界は、ツール提供から専門的なAIエージェントサービスの提供へと移行し、数兆ドル規模へと成長しようとしている。

将来、社内のすべてのエンジニアに年間トークン予算が割り当てられるようになることは十分に予想できます。彼らの年収は数十万ドルにもなるでしょうが、私は彼らに年収の半分に相当するトークンを追加で割り当て、生産性を10倍に高めるつもりです。「入社時にどれくらいのトークンがもらえるのか」は、シリコンバレーにおける新たな採用の話題となっています。

将来、あらゆる企業はトークンの利用者(エンジニア向け)であると同時に、トークンの生産者(顧客へのサービス提供向け)にもなるでしょう。OpenClawの重要性は過小評価されるべきではありません。HTMLやLinuxと同じくらい重要な存在です。

NVIDIAオープンモデルイニシアチブ

カスタムクローに関しては、NVIDIAが独自開発した最先端のモデルをご提供いたします。

モデリングの領域には、Nemotron(大規模言語モデル)、Cosmos(世界基盤モデル)、GROOT(汎用ヒューマノイドロボットモデル)、Alpamayo(自動運転)、BioNeMo(デジタル生物学)、Physics-AI(物理学)などがある。

私たちはあらゆる分野で技術の最先端を走っており、継続的な改良に取り組んでいます。Nemotron 3に続いてNemotron 4が、Cosmos 1に続いてCosmos 2が開発され、Groqも第2世代へと改良されていく予定です。

Nemotron 3はOpenClawにおいて世界トップ3に入る優れたモデルであり、この分野の最先端を走っています。Nemotron 3 Ultraは、これまでで最も強力な基盤モデルとなり、各国が主権AIを構築する上で大きな力となるでしょう。

本日、私たちは、基盤となるAIモデルの開発を推進するために数十億ドルを投資するNemotronコンソーシアムの設立を発表します。コンソーシアムのメンバーには、BlackForest Labs、Cursor、LangChain、Mistral、Perplexity、Reflection、Sarvam(インド)、Thinking Machines(Mira Murati氏の研究室)が含まれます。エンタープライズソフトウェア企業も参加し、NeMo ClawのリファレンスデザインとNVIDIAのAIエージェントツールキットを自社製品に統合します。

物理学、人工知能、ロボット工学

デジタルAIはデジタル世界で活動し、コードを記述したりデータを分析したりする一方、物理AIは具現化された知能エージェント、つまりロボットである。

今年のGTCでは、世界中のほぼすべてのロボット研究開発企業が参加し、合計110台のロボットが展示されました。NVIDIAは、3台のコンピュータ(トレーニング用コンピュータ、シミュレーション用コンピュータ、オンボードコンピュータ)と、完全なソフトウェアスタックおよびAIモデルを提供しました。

自動運転の分野において、自動運転版「ChatGPTモーメント」が到来しました。本日、NVIDIA RoboTaxi Readyプラットフォームに新たに加わる4社、BYD、Hyundai、Nissan、Geelyを発表します。これらの企業の年間生産能力は合計1,800万台です。これにより、既に参加しているMercedes-Benz、Toyota、GMに加わり、ラインナップがさらに強化されます。また、Uberとの重要なパートナーシップを発表し、複数の都市でRoboTaxi Ready車両を展開・統合していく予定です。

産業用ロボットの分野では、ABB、Universal Robots、KUKAといった多くのロボット企業が当社と提携し、物理的なAIモデルとシミュレーションシステムを組み合わせることで、世界中の製造ラインへのロボット導入を促進しています。

通信分野では、キャタピラーとT-モバイルも含まれる。将来的には、無線基地局は単なる通信ノードではなく、NVIDIA Aerial AI RANのようなインテリジェントなエッジコンピューティングプラットフォームとなり、リアルタイムでトラフィックを検知し、ビームフォーミングを調整し、省エネルギーと効率性を実現するようになるだろう。

特集:オラフ・ロボットが初登場

(ディズニーのオラフロボットのデモビデオを再生する)

ジェンセン・ホアン:雪だるまが到着しました!ニュートンは完璧に動作しています!オムニバースも完璧に動作しています!オラフ、元気かい?

オラフ:君に会えて本当に嬉しいよ。

ジェンセン・ホアン:ええ、だって私があなたにコンピューター、つまりジェットソンをあげたんですから!

オラフ:あれは何?

黄仁勲:それはあなたのお腹の中にあります。

オラフ:それはすごいね。

ジェンセン・ホアン:君はオムニバースで歩き方を覚えたんだ。

オラフ:僕は歩くのが好きだ。トナカイに乗って美しい空を見上げるよりもずっといい。

ジェンセン・フアン:これはまさに、NVIDIA Warp上で動作するニュートンソルバーに基づいた物理シミュレーションのおかげです。このソルバーは、ディズニーとDeepMindとの共同開発によって実現したもので、現実の物理世界に適応することを可能にします。

オラフ:まさにそれを言おうとしていたんだ。

ジェンセン・ホアン:そこに君の知性が宿っているんだね。僕は雪だるまであって、雪玉じゃない。

ジェンセン・ホアン:想像できますか?未来のディズニーランド――園内をロボットのキャラクターたちが自由に歩き回っているんです。でも正直言うと、もっと背が高いと思っていました。こんなに背の低い雪だるまは見たことがありません。

オラフ:(コメントなし)

ジェンセン・ホアン:今日のスピーチを仕上げるのを手伝ってくれませんか?

オラフ:すごいね!

基調講演の概要

ジェンセン・フアン:本日は、以下の主要テーマについて議論しました。

  1. 転換点の到来:推論はAIの中核的なワークロードとなり、トークンは新たなコモディティとなり、推論性能が収益を直接左右するようになった。
  2. AIファクトリー時代:データセンターは、ファイル保管施設からトークン生産工場へと進化を遂げた。今後、あらゆる企業が「AIファクトリーの効率性」によって自社の競争力を測るようになるだろう。
  3. OpenClawのインテリジェントエージェント革命:OpenClawはインテリジェントエージェントコンピューティングの時代を切り開きました。企業ITはツール中心の時代からインテリジェントエージェント中心の時代へと移行しつつあり、あらゆる企業がOpenClaw戦略を策定する必要があります。
  4. 物理AIとロボット工学:身体に宿る知能は大規模に展開されており、自動運転、産業用ロボット、ヒューマノイドロボットが一体となって、物理AIにとって次の大きな機会を構成している。

皆さん、ありがとうございました。GTCで楽しい時間を過ごしてください!

共有先:

著者:华尔街见闻

本記事はPANews入駐コラムニストの見解であり、PANewsの立場を代表するものではなく、法的責任を負いません。

記事及び見解は投資助言を構成しません

画像出典:华尔街见闻。権利侵害がある場合は著者へ削除をご連絡ください。

PANews公式アカウントをフォローして、強気・弱気相場を一緒に乗り越えましょう
関連トピック
PANews APP
バイナンスは、プラットフォーム上で1米ドルを保有している対象ユーザー向けにエアドロッププログラムを開始する予定です。
PANews 速報