ジェンセン・フアンはダボスフォーラムでいったい何を語ったのでしょうか?
表面上はロボットを販売していたが、その実態は大胆な「自己革命」に着手していた。一言で「グラフィックカードの積み重ね」という古い時代に終止符を打った彼は、暗号資産業界に一世一代の入場券を提供したのだ。
黄氏は昨日のダボスフォーラムで、AI応用層が爆発的な成長を遂げており、コンピューティング能力の需要は「トレーニング側」から「推論側」そして「物理AI側」へと移行すると指摘した。
それは本当に興味深いですね。
AI 1.0時代の「コンピューティング能力の軍拡競争」の最大の勝者として、NVIDIAは現在、「推論」と「物理AI」への移行を積極的に発表しています。これは、GPUを積み重ねて大規模モデルをトレーニングする「力ずくで奇跡を起こす」時代は終わり、将来のAI競争は、アプリケーションシナリオの点で「アプリケーションが王様」を中心に展開されるという、非常にわかりやすいシグナルを発しています。
つまり、物理的 AI は生成的 AI の後半部分です。
LLMは過去数十年にわたり人間がインターネット上に蓄積してきたあらゆるデータを読み込んでいますが、それでも人間のようにボトルキャップを開ける方法をまだ知りません。フィジカルAIは、AIの知能を超えた「知識と行動の統一」という課題の解決を目指しています。
物理的なAIは、リモートクラウドサーバーの「長い反応時間」に頼ることができないからです。論理はシンプルです。ChatGPTのテキスト生成が1秒遅くても、ユーザーは遅延を感じる程度ですが、二足歩行ロボットがネットワーク遅延のために1秒遅くなると、階段から落ちてしまう可能性があります。
しかし、物理 AI は生成 AI の延長のように見えますが、実際にはまったく異なる 3 つの新しい課題に直面しています。
1) 空間知能:AIが3次元の世界を理解できるようにします。
フェイフェイ・リー教授はかつて、空間知能こそがAIの進化における次なる北極星だと提唱しました。ロボットが動くためには、まず周囲の環境を「理解」する必要があります。これは単に「これは椅子だ」と認識するだけでなく、「この椅子の三次元空間における位置と構造、そしてそれを動かすにはどのくらいの力が必要か」を理解することを意味します。
これには、屋内と屋外の環境の隅々までをカバーする膨大な量のリアルタイム 3D 環境データが必要です。
2) 仮想トレーニング場: シミュレーションの世界で試行錯誤しながら AI をトレーニングできるようにします。
ジェンセン・フアン氏が言及したオムニバースは、実際には一種の「仮想訓練場」です。ロボットは現実世界に出る前に、仮想環境で「1万回転倒」して歩行を学習する必要があります。このプロセスは「Sim-to-Real」と呼ばれます。もしロボットが現実世界で直接試行錯誤して失敗するとしたら、ハードウェアコストは天文学的な額に上るでしょう。
このプロセスは、物理エンジンのシミュレーションとレンダリングの計算能力のスループットに指数関数的な要求を課します。
3) 電子皮膚:「触覚データ」は活用されるのを待つデータの金鉱です。
物理的なAIが「触覚」を持つためには、温度、圧力、質感を感知する電子皮膚が必要です。この「触覚データ」は、これまで大規模に収集されたことのない全く新しい資産です。そのためには、大規模なセンサー収集が必要になるかもしれません。CESで、Ensuringは1,956個のセンサーを高密度に搭載した「量産型皮膚」を展示しました。これにより、ロボットが卵の殻をむくような驚くべき効果を実現できます。
この「触覚データ」は、これまで大規模に収集されたことのない、まったく新しい資産です。
この記事を読めば、物理AI理論の登場がウェアラブルデバイスやヒューマノイドロボットの登場に多くの可能性をもたらしたことを実感できるでしょう。しかし、これらはほんの数年前までは「大げさなおもちゃ」と批判されていたことを忘れてはなりません。
実は私が言いたいのは、物理AIの新たな領域において、暗号資産セクターにもエコシステムのギャップを埋める絶好の機会があるということです。いくつか例を挙げてみましょう。
1. AI大手はストリートビューカーを派遣して世界中の主要道路をスキャンすることはできますが、街路、住宅街、地下室の隅々までデータを収集することはできません。しかし、DePINネットワークデバイスが提供するトークンインセンティブを活用して、世界中のユーザーが個人用デバイスを使ってこれらのギャップを埋めるよう促すことで、これらのギャップを埋めることができるかもしれません。
2. 前述の通り、ロボットはクラウドコンピューティングの能力に頼ることはできませんが、特に大量のシミュレーションデータの処理においては、短期的にはエッジコンピューティングと分散レンダリング機能を大規模に活用する必要があります。分散コンピューティングネットワークを用いて、遊休状態のコンシューマーグレードのハードウェアを集約し、分散・スケジューリングすることで、その有効活用が可能になります。
3. 大規模なセンサーアプリケーションに加え、「触覚データ」は、その名の通り極めてプライベートなデータです。こうしたプライバシーに関わるデータを一般の人々にAI大手と共有してもらうにはどうすればよいでしょうか?実現可能な方法としては、データを提供する人がデータの所有権と配当を受け取れるようにすることが挙げられます。
要約すれば:
物理AIは、Huang(Huang)氏がWeb2 AIトラックの後半と呼んでいるものです。DePIN、DeAI、DeDataといったWeb3 AI + Cryptoトラックでも同じことが言えるのではないでしょうか? いかがでしょうか?
