KSTAR와 SuperX, 액체 냉각 솔루션 및 모듈형 AI 서버 출시

2026년 02월 14일 | 스페인어에서 번역됨
Servidores modulares KSTAR y SuperX con refrigeración líquida directa al chip mostrando intercambiadores de calor, racks modulares y paneles de distribución de líquido en data center moderno.

KSTAR와 SuperX, 액체 냉각과 급진적 모듈성으로 AI 인프라 혁신

공동 움직임으로 AI 데이터 센터 설계를 변화시킬 것을 약속하며, KSTAR와 SuperX는 가속 컴퓨팅의 까다로운 요구 사항을 위해 특별히 설계된 칩 직접 액체 냉각 및 모듈형 서버 통합 솔루션 출시를 발표했습니다. 이러한 혁신은 열 스로틀링과 에너지 밀도가 AI 인프라 대규모 배포의 주요 병목 현상이 된 중요한 시점에 등장합니다. 이 협력은 KSTAR의 열 관리 전문성과 SuperX의 서버 아키텍처 모듈 접근 방식을 결합하여 시장에 독특한 제안을 창출합니다. ❄️🖥️

현대 AI의 열적 도전

최신 세대 GPU가 단위당 최대 700W를 소비하고 훈련 클러스터가 랙당 50kW를 초과하는 전력 밀도를 요구함에 따라, 전통적인 공랭식 냉각은 물리적 한계에 도달했습니다. KSTAR와 SuperX는 칩 수준에서 데이터 센터 전체까지 냉각과 컴퓨팅을 통합하는 시스템적 접근 방식으로 이 문제를 해결합니다.

칩 직접 액체 냉각 (DLC)

KSTAR의 솔루션은 가장 강렬한 열원에 냉매를 직접 전달함으로써 열 효율성에서 상당한 발전을 나타냅니다.

마이크로채널 기술

콜드 플레이트는 컴퓨테이션 최적화된 마이크로채널 설계를 사용하여 압력 강하를 최소화하면서 열 전달을 최대화하며, GPU, CPU 및 HBM 메모리를 포함한 여러 구성 요소를 동일한 루프에서 냉각할 수 있게 합니다.

첨단 유전체 유체

시스템은 누출 시 단락 위험이 없는 우수한 열적 특성을 가진 단상 및 2상 유체를 사용하며, 고온 연속 작동에서도 안정성을 유지하는 제형을 갖추고 있습니다.

액체 냉각 DLC의 특징:
  • 공기 대비 50배 우수한 열 효율
  • 칩당 1kW 이상의 소산 능력
  • 팬 에너지 90% 감소
  • 접합 온도 30-40°C 낮음

SuperX 모듈형 서버 아키텍처

SuperX의 모듈형 서버는 특정 작업 부하에 인프라를 적응시킬 수 있는 교체 가능한 빌딩 블록 접근 방식을 도입합니다.

전문화된 컴퓨팅 모듈

각 모듈은 특정 작업 부하 유형에 최적화되어 —대형 모델 훈련, 고밀도 추론 또는 그래픽 처리— 변화하는 요구에 따라 혼합 및 조합할 수 있습니다.

초고속 백플레인

시스템은 NVLink, Infinity Fabric 및 400G Ethernet을 지원하는 백플레인을 통합하여 모듈 간 저지연 상호 연결을 유지하면서 배선을 크게 단순화합니다.

우리는 AI 경제를 재정의하고 있습니다. 우리의 솔루션은 데이터 센터가 컴퓨팅 밀도를 3배 증가시키면서 PUE를 1.1 미만으로 줄일 수 있게 하며, 이는 전통적인 냉각 기술로는 불가능한 것입니다.

완벽한 통합

진정한 혁신은 두 기술이 완벽하게 통합되는 방식에 있습니다.

지능형 분배 매니폴드

액체 분배 시스템은 실시간으로 유량, 온도 및 압력을 모니터링하며, 각 모듈의 열 부하에 따라 동적으로 유량을 조정하고 열 스로틀링 발생 전에 필요를 예측합니다.

예측적 열 관리

AI 알고리즘은 작업 부하 패턴과 과거 열 프로필을 분석하여 냉각을 사전 최적화하며, 시스템의 총 에너지 소비를 줄이면서 컴퓨팅 성능을 최대화합니다.

운영 및 경제적 이점

액체 냉각과 모듈성의 조합은 다양한 차원에서 구체적인 이점을 제공합니다.

TCO 감소

사용자는 더 낮은 에너지 소비, 더 높은 밀도 및 필요한 물리적 공간 감소로 인해 소유 총 비용 30-40% 절감을 기대할 수 있습니다.

운영 유연성

모듈형 아키텍처는 전체 인프라 교체 없이 점진적 업그레이드를 가능하게 하여 투자 수명을 연장하면서 기술 경쟁력을 유지합니다.

개선된 성능 지표:
  • 지속 GPU 활용률 95% (일반 60-70% 대비)
  • 대형 모델 훈련 시간 40% 단축
  • FLOP당 에너지 60% 감소
  • 랙 footprint당 3배 높은 밀도

애플리케이션 및 타겟 사용 사례

이 솔루션은 가속 컴퓨팅의 가장 까다로운 도전을 위해 특별히 설계되었습니다.

기반 모델 훈련

지속 훈련 주간 동안 최대 성능 유지가 가능한 클러스터로, 자체 대형 언어 모델을 개발하는 조직에 필수적이며 열 스로틀링으로 인한 성능 저하가 없습니다.

웹 규모 추론

초저지연으로 초당 수천 건의 추론 제공에 최적화된 시스템으로, 실시간 생성 AI 애플리케이션 및 맞춤 추천 서비스에 이상적입니다.

지속 가능성 및 에너지 효율

AI 에너지 소비에 대한 증가하는 감시 맥락에서 이러한 솔루션은 상당한 이점을 제공합니다.

열 회수

시스템은 데이터 센터의 열 회수 시스템과 통합되도록 설계되어 소산된 열을 건물 난방이나 다른 산업 프로세스에 재사용할 수 있습니다.

물 사용 감소

전통적인 증발 냉각 시스템과 달리, 직접 액체 냉각은 폐쇄 회로에서 작동하여 최소 물 소비와 레지오넬라 위험이 없습니다.

가용성 및 미래 로드맵

KSTAR와 SuperX는 공동 솔루션에 대한 공격적인 배포 계획을 발표했습니다.

단계적 출시

첫 번째 구성은 2024년 4분기 기업 고객에게 제공되며, 2025년 동안 클라우드 제공업체 및 연구 센터로 확장됩니다.

개발 중 혁신

로드맵에는 DLC로 커버되지 않는 구성 요소를 위한 침지 냉각 통합과 전통적인 CRAC 필요를 완전히 제거하는 랙 수준 냉각 시스템이 포함됩니다.

KSTAR와 SuperX의 공동 출시는 AI 인프라 진화의 전환점을 나타냅니다. 열적 및 아키텍처 유연성 도전을 동시에 해결함으로써, 이러한 솔루션은 즉각적인 문제를 해결할 뿐만 아니라 디지털 경제의 모든 측면에서 인공 지능의 지속적 확장을 지원하기 위해 필요한 차세대 데이터 센터의 길을 열고 있습니다. 대규모 AI 구현을 추구하는 조직에게 이러한 혁신은 인프라 제한으로 인한 후퇴 대신 디지털 변혁을 주도하는 차이를 의미할 수 있습니다. 🌟🔧