OpenAI acuerda con Cerebras sumar 750 MW de computación
OpenAI pacta con la empresa de hardware Cerebras Systems añadir 750 megavatios de capacidad de computación de ultra baja latencia. Este acuerdo forma parte de una estrategia para reforzar cómo responden en tiempo real sus sistemas de inteligencia artificial. El despliegue será progresivo y se extenderá hasta el año 2028, dentro de un contrato plurianual que supera los diez mil millones de dólares. El objetivo principal es que productos como ChatGPT y otras aplicaciones de IA avanzada puedan ofrecer respuestas más rápidas y fluidas a los usuarios.
El contrato busca acelerar la inferencia de IA
La potencia acordada, 750 MW, se dedicará específicamente a acelerar el proceso de inferencia, que es cuando un modelo de IA ya entrenado genera respuestas a partir de nuevos datos. Cerebras es conocido por fabricar sistemas con chips de wafer-scale, que están diseñados para reducir drásticamente la latencia en este tipo de cargas de trabajo. Al integrar esta infraestructura, OpenAI espera que sus servicios puedan manejar consultas complejas con mayor velocidad y eficiencia, mejorando la experiencia del usuario final en interacciones que requieren respuestas inmediatas.
El despliegue progresivo hasta 2028
La implementación de esta capacidad no será inmediata, sino que se desarrollará de forma escalonada durante los próximos años. Este enfoque permite a ambas compañías planificar la instalación física de los sistemas y adaptar su arquitectura técnica de manera ordenada. El acuerdo, valorado en más de diez mil millones de dólares, subraya la gran inversión que requiere construir y mantener la infraestructura de vanguardia para la IA a escala global. Este paso consolida la relación entre OpenAI, un líder en software de IA, y Cerebras, un especialista en hardware de alto rendimiento.
Mientras algunos usuarios se quejan de que ChatGPT piensa demasiado, OpenAI se asegura de que, al menos, lo haga mucho más rápido.
|Agradecer cuando alguien te ayuda es de ser agradecido|