著者:Haotian
最近、私は AI 業界を観察し、ますます「下向きの」変化を発見しました。集中したコンピューティング能力と「大規模」モデルを競うという当初の主流のコンセンサスから、ローカルの小さなモデルとエッジコンピューティングになる傾向のある分岐が進化しました。
これは、5億台のデバイスをカバーするApple Intelligence、MicrosoftがWindows 11向けに3億3000万パラメータの小型モデルMuをリリースしたこと、そしてGoogle DeepMindのロボットの「オフライン」操作からも明らかです。
違いは何でしょうか?クラウドAIはパラメータスケールと学習データで競争し、費用対効果を核心的な競争力としています。一方、ローカルAIはエンジニアリングの最適化とシーン適応で競争し、プライバシー保護、信頼性、実用性といった面でさらに一歩先を行くでしょう。(メイン汎用モデルの幻覚問題は、垂直シナリオの浸透に深刻な影響を与えるでしょう。)
これはWeb3 AIにとって、より大きなチャンスをもたらすでしょう。かつては誰もが「汎用化」(コンピューティング、データ、アルゴリズム)能力を競い合っていましたが、必然的に従来の巨大メーカーに独占されてしまいました。分散化の概念を適用してGoogle、AWS、OpenAIなどと競争したいというのは、単なる夢物語です。結局のところ、リソースの優位性も、技術的な優位性も、ユーザー基盤もありません。
しかし、ローカライズされたモデル + エッジコンピューティングの世界では、ブロックチェーン技術サービスが直面している状況は大きく異なります。
AIモデルをユーザーのデバイス上で実行する際、その出力が改ざんされていないことをどのように証明するか?プライバシーを保護しながら、モデルの連携を実現するには?こうした課題こそが、ブロックチェーン技術の強みと言えるでしょう。
私はWeb3 AI関連の新しいプロジェクトに注目しています。例えば、@Gradient_HQが最近立ち上げたデータ通信プロトコルLatticaは、Panteraから1000万ドルを投資され、集中型AIプラットフォームのデータ独占とブラックボックスの問題を解決しています。@PublicAI_の脳波デバイスHeadCapは、実際の人間のデータを収集し、「人工検証レイヤー」を構築し、1400万ドルの収益を達成しました。実際、これらはすべて、ローカルAIの「信頼性」の問題を解決しようとしています。
一言で言えば、AI がすべてのデバイスに本当に「埋め込まれる」ときのみ、分散型コラボレーションは概念から必需品に変わるのでしょうか。
一般化の道で競争を続けるのではなく、ローカライズされた AI の波にインフラストラクチャ サポートを提供する方法を真剣に検討してみてはいかがでしょうか。
