AI の次の地震: 本当の危険は SaaS キラーではなく、コンピューティング能力の革命であるのはなぜでしょうか?

  • AIアプリケーションは従来のSaaSを脅かしていますが、より深い革命は計算力にあります。
  • アルゴリズム革新:MoEアーキテクチャが計算需要を効率的に削減します。
  • ハードウェア進歩:専用推論チップが速度と効率を向上させます。
  • 組み合わせ効果:AIコストが従来GPUの10-15%に減少し、NVIDIAの支配を脅かします。
  • 展望:AI計算のパラダイムシフトが起き、NVIDIAの評価が危険にさらされます。
要約

著者:ブルース

最近、テクノロジー業界と投資業界全体が一つのことに注目しています。それは、AIアプリケーションが従来のSaaSを「殺している」ということです。@AnthropicAIのClaude Cowork氏が、AIがいかに簡単にメール作成、PowerPointプレゼンテーションの作成、Excelスプレッドシートの分析を支援できるかを実演して以来、「ソフトウェアの死」をめぐるパニックが広がり始めています。確かに恐ろしいことですが、この点ばかりに目を向けていると、真に大きな変革を見逃してしまうかもしれません。

まるで、ドローンによる空中戦を皆が見上げているかのように、足元の大陸プレート全体が静かに動いていることに誰も気づいていない。本当の嵐は地表の下、ほとんどの人が目にすることのない片隅に潜んでいる。AIの世界全体を支えるコンピューティングパワー基盤が、「静かな革命」を起こしているのだ。

この革命により、AI のシャベル販売業者である Nvidia (@nvidia) が念入りに企画した盛大なパーティーが、誰も想像しなかったほど早く終了することになるかもしれない。

二つの革命的な道が収束しつつある。

この革命は単一の出来事ではなく、一見独立しているように見える2つの技術的道筋が絡み合った結果です。まるで2つの軍隊が迫り来るように、NVIDIAのGPU支配に挟撃攻撃を仕掛けているのです。

最初の道は、アルゴリズムスリム化の革命です。

スーパーブレインが問題を考える際に、本当にすべての脳細胞を使う必要があるのか​​と疑問に思ったことはありませんか?もちろん、そんなことはありません。DeepSeekはこの点を解明し、MoE(ハイブリッドエキスパートモデル)アーキテクチャを開発しました。

数百人もの様々な分野の専門家を抱える企業を想像してみてください。しかし、問題解決のための会議を開くたびに、全員でブレインストーミングを行うのではなく、最も関連性の高い2、3人だけを招集すれば済みます。これがMoEの優れた点です。巨大なモデルであっても、各計算に少数の「専門家」グループのみを投入できるため、計算能力を大幅に節約できます。

結果はどうなるでしょうか?DeepSeek-V2モデルは名目上2360億個の「エキスパート」(パラメータ)を有しますが、動作ごとにアクティブ化する必要があるのはそのうち210億個、つまり全体の9%未満です。それでも、そのパフォーマンスは100%のフルパワーを必要とするGPT-4に匹敵します。これは何を意味するのでしょうか?AIの能力と、それが消費する計算能力が切り離されているのです!

かつては、AIの性能が高ければ高いほど、GPUの消費量も増えると考えられていました。しかし今、DeepSeekは、巧妙なアルゴリズムを用いることで、同じ効果を10分の1のコストで実現できると発表しました。これは、NVIDIA GPUの本質に大きな疑問を投げかけています。

2 番目の道はハードウェア革命です。

AIの運用は、学習と推論の2つのフェーズに分かれています。学習は学校に通うようなもので、膨大な量の読書を必要とします。強力な並列計算能力を持つGPUは、この段階で非常に役立ちます。しかし、推論では、私たちが日常的にAIを使用するのと同様に、反応速度がより重視されます。

GPUには推論処理において固有の制約があります。RAM(HBM)が外付けされているため、データ転送に遅延が生じます。これは、隣の冷蔵庫に食材を保管しているシェフのようなものです。料理をするたびに食材を取りに走らなければならず、決して高速とは言えません。CerebrasやGroqなどの企業は、異なるアプローチを採用し、チップにSRAMを直接はんだ付けした専用の推論チップを設計することで、食材をいつでも利用できる状態を維持し、「ゼロ遅延」アクセスを実現しています。

市場は既に実際の資金で投票している。OpenAIはNvidiaのGPU推論能力の不足を訴えながらも、即座にCerebrasと100億ドルの推論サービスリース契約を締結した。Nvidia自身もパニックに陥り、この新たな分野で後れを取ることを避けるため、即座に200億ドルを投じてGroqを買収した。

2つの道が交差するとき:コストの雪崩

さて、アルゴリズム的に「スリム化された」DeepSeek モデルを使用して、ハードウェアの「ゼロ遅延」Cerebras チップ上で実行すること、これら 2 つを組み合わせてみましょう。

何が起こるのですか?

コストの急激な増加。

まず、スリム化されたモデルは非常に小さく、チップの内蔵メモリに完全に収めることができます。次に、外部メモリのボトルネックがないため、AIの反応速度は驚くほど高速になります。その結果、MoEアーキテクチャにより学習コストが90%削減され、専用ハードウェアとスパースコンピューティングにより推論コストもさらに桁違いに削減されます。全体として、世界クラスのAIを所有・運用するコストは、従来のGPUソリューションのわずか10%~15%に抑えられる可能性があります。

これは改善ではなく、パラダイムシフトです。

Nvidia の王座から静かに絨毯が剥ぎ取られつつある。

これで、これが「Cowork パニック」よりも致命的である理由がおわかりになると思います。

NVIDIAの今日の1兆ドル規模の時価総額は、シンプルなストーリーに基づいています。AIは未来であり、AIの未来はGPUにかかっています。しかし今、このストーリーの基盤が揺らいでいます。

Nvidia がトレーニング市場を独占し続けたとしても、顧客が 10 分の 1 のカードだけで作業を完了できるようになれば、市場全体の規模は大幅に縮小する可能性があります。

学習市場の10倍の規模を誇る推論市場において、NVIDIAは絶対的な優位性に欠けるだけでなく、GoogleやCerebrasといった巨大企業による包囲網と抑圧に直面している。最大の顧客であるOpenAIでさえ、離反している。

ウォール街がNVIDIAの「シャベル」がもはや唯一の選択肢ではなく、最善の選択肢ですらないことに気づいたとき、「永久独占」への期待に基づいて築かれた評価はどうなるだろうか?その答えは誰もが知っていると思う。

したがって、今後 6 か月間の最大のブラック スワン イベントは、どの AI アプリケーションが他のアプリケーションに勝利したかではなく、むしろ、計算能力戦争が新しい段階に入ったことを静かに告げる、MoE アルゴリズムの効率に関する新しい論文や専用推論チップの市場シェアが大幅に増加したことを示すレポートなど、一見重要ではない技術ニュースになる可能性があります。

シャベル売りにとってシャベルが唯一の選択肢ではなくなったとき、彼の黄金時代は終わりを迎えるかもしれない。

共有先:

著者:Bing Ventures

本記事はPANews入駐コラムニストの見解であり、PANewsの立場を代表するものではなく、法的責任を負いません。

記事及び見解は投資助言を構成しません

画像出典:Bing Ventures。権利侵害がある場合は著者へ削除をご連絡ください。

PANews公式アカウントをフォローして、強気・弱気相場を一緒に乗り越えましょう