AIスーパーコンピュータが登場

半導体大手のエヌビディアは4月14日、次世代の人工知能チップ(AIチップ)とスーパーコンピュータを初めて米国内で完全に生産する計画を発表した。次世代の人工知能チップ(AIチップ)とは、NVIDIAが最近発表したBlackwellチップのことを指し、アリゾナ州で生産およびテストされる予定だ。

4月14日、半導体大手のエヌビディアは、次世代の人工知能チップ( AIチップ)とスーパーコンピュータ(スーパーコンピュータを初めて米国内で完全に生産する計画を発表した。次世代人工知能チップ( AIチップ)とは、NVIDIAが最近発表したBlackwellチップを指し、アリゾナ州で生産・テストされる予定だ。スーパーコンピューターはテキサス州で製造される予定で、今後12~15カ月以内に2つのスーパーコンピューター製造工場が量産段階に入ると報じられている。

AIチップとは何ですか?スーパーコンピュータとは何ですか?

AI チップ、または人工知能チップとは、人工知能関連のタスク (特にディープラーニングや機械学習などの計算集約型のタスク) を実行するための AI アルゴリズム専用に設計されたプロセッサ チップ (ASIC) を指します。その目標は、従来の汎用プロセッサ (CPU や GPU など) よりも効率的に AI アルゴリズムを実行することです。従来の CPU や GPU を使用して AI アルゴリズムを実行することはできますが、速度が遅く、パフォーマンスも低くなります。

タイプ

フルネーム

説明する

グラフィックプロセッサ

グラフィックス プロセッシング ユニット

AI トレーニングで最も一般的に使用され (NVIDIA のチップなど)、強力な並列コンピューティング機能を備えています。

TPU

テンソル処理ユニット

AI の推論とトレーニングのための Google のカスタム チップ。

ASIC

特定用途向け集積回路

特定の AI 機能向けにゼロから設計されたカスタム チップは非常に効率的です。

FPGA

フィールドプログラマブルゲートアレイ

柔軟性が高く、論理機能はニーズに応じて構成できます。

Nvidia が説明するように、スーパーコンピュータは、人工知能のトレーニングと推論専用の数百または数千の AI チップ (GPU など) で構成された高性能コンピューティング クラスターです。スーパーコンピュータは、大規模な人工知能モデルのトレーニングと実行用に設計されています。

Nvidia は発表の中で、これら 2 つの概念を総称して AI スーパーコンピュータと呼んでいます。

今後、AIスーパーコンピュータは人工知能時代に欠かせないインフラとなり、GPT-4、Sora、MidjourneyなどのAIモデルを支える計算力の柱となることが期待されています。

AI産業化と「インフラとしてのAI」の時代において、超高性能コンピューティングインフラは、新エネルギーやチップと同様に、各国が争う戦略的な資源となる可能性がある。

Nvidiaは発表の中で AIスーパーコンピュータを「AIファクトリー」と表現した。これは、人工知能タスクを処理するために特別に設計された、新世代のデータセンターの中核となるパワーである。 「これらは新興のAI産業のインフラを形成し、今後数十年間で(米国で)数十万人の雇用を創出し、数兆ドルの経済安全保障上の利益をもたらすことが期待されています。」

この新興 AI 産業インフラは、NVIDIA によって米国で構築されています。 AIインフラの分野では、NVIDIAの最新の発表によると、NVIDIAが他のプラットフォームと連携することで、米国で最大5,000億ドル相当の価値を生み出すのに今後4年しかかからないことが示されています。

しかし、「Web3+AI」概念の普及に伴い、AI時代のインターネットプラットフォームが、チップ大手に依存する現在の伝統的なインターネット時代のモデルを依然として踏襲するかどうかはまだ明らかではありません。分散型 AI のコンセプトは、今後の AI 時代やメタバース時代において、データの主権、データのプライバシー、セキュリティをユーザーに戻し、ユーザーが意思決定できるようにすることです。

確かなことは、Web3の推進により、現在の中央集権的なインターネット開発モデルに従うAI業界は、将来的には主流ではなくなるだろうということです。

PowerBeats は、ユーザーが制御する分散型インターネットの時代においては、AI インフラストラクチャも分散化される必要があると考えています。 NVIDIA が構築した AI インフラストラクチャは、分散型オンチェーン プロジェクトやプラットフォームを強化するための根本的な推進力として機能する可能性があります。たとえば、DeCloud (分散型クラウド コンピューティング) プラットフォームは、強力な AI インフラストラクチャに基づいて、より高いパフォーマンス、より低いレイテンシ、より安価なコンピューティング リソースを実現できます。分散型クラウド コンピューティング プラットフォーム PowerVerse は、分散型クラウド コンピューティング ノードの構築に NVIDIA チップを使用していると報告されています。

Nvidiaの発表によると、同社は工場のデジタルツインモデルの作成や自動製造ロボットの構築など、高度なAI、ロボット工学、デジタルツイン技術を活用して上記のAI工場を設計・運用するという。

私たちは、新興テクノロジーの時代におけるデジタルツインモデルの作成、ロボットのトレーニング、エージェントベースのAIタスク実行などのアプリケーションシナリオで使用されるデータのプライバシーとセキュリティを懸念しています。また、Web3の基盤となる動作ロジックに基づいたAIやメタバースの開発にも期待しています。

参照:

https://blogs.nvidia.com/blog/nvidia-manufacture-american-made-ai-supercomputers-us/

共有先:

著者:PowerBeats

本記事はPANews入駐コラムニストの見解であり、PANewsの立場を代表するものではなく、法的責任を負いません。

記事及び見解は投資助言を構成しません

画像出典:PowerBeats侵害がある場合は、著者に削除を連絡してください。

PANews公式アカウントをフォローして、一緒に強気相場と弱気相場を乗り越えましょう
おすすめ記事
1時間前
3時間前
3時間前
3時間前
4時間前
7時間前

人気記事

業界ニュース
市場ホットスポット
厳選読み物

厳選特集

App内阅读