
Nvidia、データセンター向けGrace CPU Superchipを発表
Nvidiaは新しいGrace CPU Superchipを発表しました。これはARMアーキテクチャを採用したデータセンターインフラ向けに特別に設計されたプロセッサです。このソリューションは、独自のNVLink-C2Cリンクを介して通信する2つのGraceシリコンユニットを組み合わせ、同社のGPUとの連携を優先し、複雑なAIおよび高性能コンピューティングのワークロードに対応します。🚀
144コアARM Neoverse V2アーキテクチャ
Superchipの心臓部は2つのシリコンダイで構成されており、それぞれに72コアARM Neoverse V2を統合し、合計144コアの処理能力を提供します。この大規模構成は、大量のタスクを並列実行するために設計されています。システムはLPDDR5xメモリを活用し、高い帯域幅と低消費電力で優れた効率を発揮し、現代のAIモデルが要求するデータ量をリソースを無駄にせずに処理します。⚡
設計の主な特徴:- デュアルチップ構成:2つのGrace CPUを統合し、合計144コアの高性能を実現。
- 高効率メモリ:データ集約型ワークロードで帯域幅と消費電力を最適化するLPDDR5xを使用。
- AI重視:現代のAIアルゴリズムとデータセットを扱うために基盤から最適化されたアーキテクチャ。
CPUとGPU間の統一メモリ一貫性により、プログラミングが簡素化され、加速コンピューティングおよびAIアプリケーションがより効率的に性能をスケールします。
NVLink-C2C:接続の背骨
NVLink-C2C技術はこの設計の基本要素です。2つのGraceチップ間の高速度・低遅延リンクを提供するだけでなく、HopperアーキテクチャのNVIDIA GPUと直接的で一貫した接続を確立します。このアプローチによりボトルネックが排除され、CPUとGPUが一体したユニットとして動作します。
NVLink-C2C相互接続の利点:- 高性能CPU-CPU接続:2つのGraceチップを極めて高い帯域幅で連結。
- GPUとの直接統合:Hopperグラフィックスアクセラレータとの高速一貫リンクを容易にし、加速コンピューティングに不可欠。
- 統一プログラミングモデル:異なるプロセッサ間で統一メモリ空間を提供し、開発者の複雑さを低減。
未来の要求に対応するプロセッサ
NvidiaのGrace CPU Superchipは、人工知能時代に最適化されたサーバーおよびデータセンターへの戦略的な一歩を表します。効率的な多数のARMコアを最新世代の相互接続と高性能メモリで組み合わせ、最も要求の厳しいワークロードを処理する位置にあります。日常タスクには過剰な性能ですが、大規模な処理、シミュレーション、レンダリングの新基準を極めて高い精度で定義します。🔬