El reciente éxito de su modelo Gemini pone el foco en los aceleradores de hardware que Google diseña. La compañía usa sus unidades de procesamiento tensorial, o TPU, desde hace años para ejecutar sus servicios de inteligencia artificial. Estos chips especializados permiten procesar las operaciones matemáticas que los modelos de lenguaje e imagen necesitan de forma más eficiente que las unidades de procesamiento gráfico tradicionales. Ahora, un informe de los analistas de Morgan Stanley proyecta un aumento masivo en su producción.


TSMC fabricará más de tres millones de unidades

Según la firma de análisis, la empresa taiwanesa TSMC, líder mundial en fabricación de semiconductores, producirá alrededor de 3,2 millones de estos aceleradores TPU para Google durante el próximo año. Esta cifra refleja la escala de la inversión que Google realiza para sostener y expandir sus capacidades en inteligencia artificial. La producción a este volumen consolida a los TPU como un pilar fundamental de la infraestructura interna de la compañía, que compite directamente con otras soluciones como las de Nvidia.

La estrategia de hardware propio de Google

Desarrollar sus propios aceleradores le da a Google un mayor control sobre el rendimiento y el costo de operar sus modelos de IA a gran escala. Al optimizar el hardware específicamente para sus marcos de trabajo de software, como TensorFlow, la compañía busca obtener una ventaja en eficiencia. Este movimiento es parte de una tendencia más amplia en la industria tecnológica, donde las grandes empresas buscan reducir su dependencia de proveedores externos de chips para tareas críticas.

Mientras algunos equipos de desarrollo esperan meses para conseguir unidades de procesamiento gráfico, Google simplemente encarga unos millones de sus propios chips. La escasez es un problema relativo cuando se diseña el propio silicio.