멀티버스, 로컬 압축 AI용 API 및 앱 출시

2026년 03월 21일 | 스페인어에서 번역됨

스페인 스타트업 Multiverse Computing이 고급 AI를 민주화하기 위한 핵심 단계를 내디뎠습니다. CompactifAI 기술을 통해 자가서비스 API 포털과 데모 애플리케이션을 출시했습니다. 목표는 대형 언어 모델의 압축 버전을 제공하여 클라우드에 의존하지 않고 기업 하드웨어에서 로컬 실행을 가능하게 하는 것입니다. 이는 더 큰 제어, 프라이버시 및 컴퓨팅 비용의 급격한 감소를 약속합니다.

Un portátil empresarial muestra una interfaz de aplicación local de IA con el logotipo de Multiverse Computing.

CompactifAI: 임계 성능 손실 없는 압축 🤖

기술적 핵심은 CompactifAI로, 대형 연구소의 AI 모델 크기와 요구 사항을 급격히 줄이는 방법입니다. API 포털을 통해 HyperNova 60B와 같은 버전에 액세스할 수 있으며, 이는 원본과 유사한 성능을 유지하면서 지연을 줄입니다. 데모 앱에는 Gilda 모델이 포함되어 있으며, 충분한 자원의 장치에서 오프라인으로 작동합니다. 이러한 효율성은 보조 프로그래밍과 같은 집중적인 워크플로우에서 중요하며, 로컬 추론은 클라우드 비용과 지연을 제거하여 프로세스를 가속화하고 장치를 떠나지 않아 민감한 데이터를 보호합니다.

AI에서의 기업 주권으로 향하여 🚀

이 이니셔티브는 깊은 변화를 나타냅니다: 클라우드 중심의 중앙 집중식 AI에서 분산 및 로컬 AI로의 전환입니다. 대형 기술 기업의 인프라에 대한 의존성을 줄여 기업에 자율성과 기술 주권을 부여합니다. 강력한 모델에 대한 접근을 저렴하고 휴대 가능하게 함으로써 AI의 디지털 격차를 줄일 수 있으며, 더 많은 조직이 프라이버시와 효율성을 유지하면서 고급 솔루션을 구현할 수 있게 하여 디지털 시대의 비즈니스 모델을 재정의할 수 있습니다.

Multiverse의 CompactifAI와 같은 로컬 실행을 위한 AI 모델 압축이 인공 지능의 확장성을 기술 주권 및 데이터 프라이버시와 균형 있게 할 수 있을까요? 💡

(PD: 인터넷에서 별명을 금지하려는 것은 손가락으로 태양을 가리려는 것과 같아요... 하지만 디지털 버전으로)