
Microsoft, Azure Maia 200 AI 가속기 출시
기술 기업 Microsoft는 새로운 인공지능 가속기인 Azure Maia 200을 공개했습니다. 이 구성 요소는 서버에서 작동하도록 특별히 제작된 Maia 프로세서 제품군의 진화를 나타냅니다. 주요 임무는 이미 훈련된 AI 모델을 작동시켜 응답과 예측을 생성하는 것입니다. Microsoft는 이 하드웨어를 이러한 작업을 매우 빠른 속도와 회사에 따르면 Amazon과 Google 같은 경쟁사보다 우수한 효율성으로 처리하도록 설계했습니다. 🚀
추론을 위한 효율성과 속도 중심
Azure Maia 200은 Azure 클라우드 플랫폼 내에서 대규모 AI 모델 실행을 최적화하는 목적으로 제조되었습니다. 자체 칩을 생산함으로써 Microsoft는 하드웨어와 소프트웨어 전체 체인에 대한 더 직접적인 제어를 추구하며, 시스템이 데이터를 처리하는 방식을 더 정밀하게 조정할 수 있게 합니다. 이 방법은 대형 언어 모델부터 이미지 분석 시스템에 이르는 복잡한 모델 실행 시 대기 시간을 줄이고 에너지 사용을 개선하려 합니다. 회사는 아키텍처의 모든 세부 사항을 공개하지 않지만, 현재 모델의 방대한 매개변수 집합을 관리하기 위해 메모리 용량과 칩 간 연결 방식을 우선시하는 설계를 강조합니다.
Azure Maia 200의 주요 특징:- 높은 속도로 AI 추론 작업을 실행하도록 설계됨.
- 데이터 센터의 에너지 효율성을 개선함.
- 메모리 대역폭과 상호 연결을 우선시하는 아키텍처.
새로운 글로벌 경쟁은 미사일이 아니라 트랜지스터로 벌어지는 듯하며, 누가 고양이 사진 쿼리를 더 빨리 처리할 수 있는지 겨루는 것 같습니다.
AI 실리콘의 경쟁 환경
Maia 200의 출시는 주요 클라우드 서비스 제공업체들이 자체 전문 칩을 개발하는 기술 부문의 광범위한 추세를 보여줍니다. Amazon은 Inferentia와 Trainium 프로세서를 보유하고 있으며, Google은 Tensor Processing Units (TPU)를 운영합니다. Maia 200을 발표함으로써 Microsoft는 소프트웨어 서비스뿐만 아니라 그 아래의 성능 하드웨어에서도 경쟁하는 독특한 AI 인프라 제공 계획을 강화합니다. 회사는 Azure OpenAI Service와 같은 서비스 및 기타 생성 AI 작업을 강화하기 위해 전 세계 데이터 센터에 이러한 가속기를 구현할 계획입니다.
클라우드 맞춤 칩의 주요 플레이어:- Microsoft: 추론용 Azure Maia 200.
- Amazon Web Services: Inferentia 및 Trainium 칩.
- Google Cloud: Tensor Processing Units (TPU).
클라우드 컴퓨팅의 미래에 대한 함의
이 움직임은 AI 우위를 위한 경쟁이 이제 맞춤 실리콘에 결정적으로 의존하게 됨을 강조합니다. 소프트웨어와 하드웨어를 모두 제어함으로써 Microsoft는 고객에게 더 통합되고 효율적인 스택을 제공하려 합니다. 궁극적인 목표는 더 크고 복잡한 인공지능 모델을 더 빠르고 운영 비용을 낮추어 처리함으로써 클라우드의 새로운 성능 표준을 정의하는 것입니다. 🔌