KSTARとSuperX、液体冷却ソリューションとモジュール式AIサーバーを発売

2026年02月02日 公開 | スペイン語から翻訳
Servidores modulares KSTAR y SuperX con refrigeración líquida directa al chip mostrando intercambiadores de calor, racks modulares y paneles de distribución de líquido en data center moderno.

KSTARとSuperXが液体冷却と革新的なモジュール性でAIインフラを革新

共同の取り組みによりAIデータセンターの設計を革新することを約束するKSTARとSuperXは、加速コンピューティングの厳しい要件に特化して設計されたチップ直結液体冷却とモジュール式サーバーの統合ソリューションの発売を発表しました。これらのイノベーションは、サーマルスロットリングとエネルギー密度がAIインフラの大規模展開の主なボトルネックとなっている重要なタイミングで登場します。このコラボレーションは、KSTARの熱管理の専門知識とSuperXのサーバーアーキテクチャにおけるモジュールアプローチを組み合わせ、市场に独自の提案を生み出しています。❄️🖥️

現代のAIの熱的課題

最新世代のGPUが1ユニットあたり最大700Wを消費し、トレーニングクラスタがラックあたり50kWを超える電力密度を要求する中、従来の空冷は物理的限界に達しました。KSTARとSuperXはこの問題を、チップレベルからデータセンター全体まで冷却とコンピューティングを統合したシステムアプローチで解決します。

チップ直結液体冷却(DLC)

KSTARのソリューションは、熱効率の大幅な進歩を表し、冷却液を最も激しい熱源に直接届けます。

マイクロチャネル技術

コールドプレートは計算最適化されたマイクロチャネル設計を使用し、熱伝達を最大化しつつ圧力降下を最小限に抑え、GPU、CPU、HBMメモリを含む複数のコンポーネントを同一ループで冷却します。

先進的誘電体流体

システムは優れた熱特性を持つ単相および二相流体を使用し、漏洩時の短絡リスクゼロで、高温連続運転でも安定性を維持する配合です。

液体冷却DLCの特徴:
  • 空冷比50倍の熱効率
  • チップあたり1kW以上の放熱能力
  • ファン電力90%削減
  • 接合部温度30-40°C低下

SuperXのモジュール式サーバーアーキテクチャ

SuperXのモジュール式サーバーは、交換可能なビルディングブロックアプローチを導入し、特定のワークロードにインフラを適応させます。

特殊化コンピューティングモジュール

各モジュールは特定のワークロードタイプに最適化されており—大規模モデルトレーニング、高密度推論、グラフィックス処理—ニーズの変化に応じて混合・組み合わせ可能です。

超高速バックプレーン

システムはNVLink、Infinity Fabric、400G Ethernetをサポートするバックプレーンを組み込み、モジュール間の低遅延相互接続を維持しつつ、ケーブル配線を大幅に簡素化します。

私たちはAIの経済性を再定義しています。私たちのソリューションにより、データセンターはコンピューティング密度を3倍に増加させつつ、PUEを1.1未満に削減可能—従来の冷却技術では不可能です。

シームレスな統合

真のイノベーションは、両技術が完璧に統合される点にあります。

インテリジェント配管システム

液体配布システムは流量、温度、圧力をリアルタイムで監視し、各モジュールの熱負荷に応じて動的に流量を調整し、サーマルスロットリング発生前にニーズを予測します。

予測的熱管理

AIアルゴリズムがワークロードパターンと過去の熱プロファイルを分析し、冷却を事前に最適化、システム全体のエネルギー消費を削減しつつコンピューティング性能を最大化します。

運用・経済的利点

液体冷却とモジュール性の組み合わせは多角的な具体的な利点を提供します。

TCO削減

ユーザーは総所有コスト30-40%削減を期待でき、エネルギー消費低減、高密度化、物理スペース削減によるものです。

運用柔軟性

モジュールアーキテクチャは完全なインフラ交換なしの段階的アップグレードを可能にし、投資寿命を延ばしつつ技術競争力を維持します。

改善された性能指標:
  • GPU持続利用率95%(通常60-70%対比)
  • 大規模モデルトレーニング時間40%短縮
  • FLOPあたりエネルギー60%削減
  • ラック面積あたり密度3倍

アプリケーションと対象ユースケース

これらのソリューションは加速コンピューティングの最も厳しい課題に特化して設計されています。

ファウンデーションモデルのトレーニング

連続トレーニング数週間にわたり最大性能を維持するクラスタで、サーマルスロットリングによる劣化なし。自社大規模言語モデル開発組織に不可欠です。

ウェブスケール推論

超低遅延で数千推論/秒を処理する最適化システムで、リアルタイム生成AIアプリケーションやパーソナライズド推薦サービスに理想的です。

持続可能性とエネルギー効率

AIのエネルギー消費に対する厳しい監視の文脈で、これらのソリューションは大きな利点を提供します。

熱回収

システムはデータセンターの熱回収システムと統合可能で、放熱を建物暖房や他の産業プロセスに再利用します。

水使用削減

従来の蒸発冷却とは異なり、直結液体冷却は閉ループ回路で動作し、水消費を最小限に抑え、レジオネラリスクなしです。

可用性と将来ロードマップ

KSTARとSuperXは共同ソリューションの積極的な展開計画を発表しました。

段階的発売

最初の構成は2024年Q4にエンタープライズ顧客向けに利用可能で、2025年にクラウドプロバイダーと研究センターへ拡大します。

開発中のイノベーション

ロードマップにはDLC未カバー部品向け浸漬冷却統合と、従来CRAC不要のラックレベル冷却システムが含まれます。

KSTARとSuperXの共同発売はAIインフラ進化の転換点を表します。熱的課題とアーキテクチャ柔軟性を同時に解決することで、これらのソリューションは即時問題を解決するだけでなく、デジタル経済の全領域で継続するAI拡大を支える次世代データセンターへの道を切り開きます。スケールAI実装を目指す組織にとって、これらのイノベーションはインフラ制限による遅れを避け、デジタル変革をリードする差となります。🌟🔧