Nvidia modifica c贸mo sus aceleradores ejecutan c谩lculos de doble precisi贸n

Publicado el 20/1/2026, 9:37:00 | Autor: 3dpoder

Nvidia modifica c贸mo sus aceleradores ejecutan c谩lculos de doble precisi贸n

Ilustraci贸n conceptual de un chip Nvidia con circuitos luminosos, mostrando c贸mo el software emula funciones de hardware para c谩lculos de doble precisi贸n.

Nvidia modifica c贸mo sus aceleradores ejecutan c谩lculos de doble precisi贸n

La empresa Nvidia ha girado su enfoque para manejar operaciones de coma flotante de 64 bits (FP64) en sus procesadores para supercomputaci贸n. Seg煤n informes, la compa帽铆a detuvo el desarrollo de unidades de hardware especializadas para este fin en sus nuevas generaciones. En su lugar, conf铆a en simular estas tareas mediante algoritmos dentro de sus bibliotecas CUDA. Este m茅todo le permite igualar o superar el rendimiento te贸rico en ciertos escenarios sin consumir 谩rea de silicio espec铆fica. 馃攧

Las cifras de rendimiento revelan la nueva direcci贸n

Los datos oficiales de Nvidia muestran esta evoluci贸n con claridad. Su acelerador m谩s reciente, Rubin, declara 33 teraflops en operaciones vectoriales FP64 por hardware, una cifra comparable a la del H100 de hace a帽os. Sin embargo, al activar la emulaci贸n por software, Nvidia afirma que Rubin puede lograr hasta 200 teraflops en c谩lculos matriciales FP64. Incluso la generaci贸n Blackwell, con esta t茅cnica, podr铆a alcanzar 150 teraflops, m谩s del doble que su predecesor Hopper ejecutando de forma nativa. 馃搳

Comparativa clave de rendimiento:
  • Rubin (Hardware): 33 TFLOPS en FP64 vectorial.
  • Rubin (Software): Hasta 200 TFLOPS en FP64 matricial emulado.
  • Blackwell (Software): Alrededor de 150 TFLOPS, superando ampliamente a Hopper.
En numerosas investigaciones con socios y estudios internos descubrimos que la precisi贸n que logramos al emular es, como m铆nimo, igual a la precisi贸n que obtenemos de los n煤cleos tensoriales de hardware.

La precisi贸n validada impulsa el cambio

Dan Ernst, directivo de Nvidia para supercomputaci贸n, explic贸 la raz贸n de este giro estrat茅gico. La validaci贸n interna y con partners confirm贸 que la exactitud lograda al emular FP64 es al menos equivalente a la de ejecutar en n煤cleos de hardware dedicados. Este hallazgo permite a Nvidia optimizar el dise帽o de sus chips para dominios como la inteligencia artificial, donde priman precisiones menores (FP32, FP16), sin dejar de atender las demandas del sector de c贸mputo de alto rendimiento (HPC) que a煤n necesita FP64. 鈿栵笍

Ventajas de la emulaci贸n por software:
  • Libera transistores y 谩rea en el chip para otras funciones.
  • Permite alcanzar picos de rendimiento superiores en cargas de trabajo espec铆ficas.
  • Mantiene la precisi贸n necesaria para aplicaciones cient铆ficas y de ingenier铆a.

Una nueva arquitectura definida por el software

Parece que, en la competencia por liderar la inteligencia artificial, destinar recursos de silicio a emular en vez de a ejecutar de forma nativa se ha convertido en el nuevo paradigma de eficiencia arquitect贸nica. Este es un giro donde el software no solo apoya al hardware, sino que redefine fundamentalmente lo que este necesita ser. La frontera entre ambos se desdibuja para crear soluciones m谩s vers谩tiles. 馃殌

Enlaces Relacionados