En el marco del GPU Technology Conference (GTC) 2026, NVIDIA presentó la arquitectura Blackwell Ultra, la próxima generación de sus procesadores gráficos diseñados específicamente para el entrenamiento de modelos de inteligencia artificial a gran escala. Las nuevas GPUs ofrecen un rendimiento de 20 petaFLOPS en precisión FP8 y vienen con 288GB de memoria HBM4 por chip.

Jensen Huang, CEO de NVIDIA, demostró en el keynote cómo un cluster de 1,000 GPUs Blackwell Ultra puede entrenar un modelo de lenguaje con 1 billón de parámetros en aproximadamente 3 días, una tarea que con la generación anterior (H100) requería 3 semanas.

La arquitectura introduce NVLink 6.0, que permite comunicación entre GPUs a 3.6 TB/s, eliminando prácticamente el cuello de botella de comunicación que afecta el escalado de clusters de entrenamiento. Esto es especialmente relevante para entrenar los modelos más grandes del mundo, que requieren miles de GPUs trabajando en sincronía perfecta.

En términos de eficiencia energética, NVIDIA afirma que Blackwell Ultra ofrece el doble de FLOPS por vatio respecto a la generación anterior, un avance crítico dado el consumo energético masivo de los grandes centros de datos de AI. Cada chip tiene un TDP de 1,200W, pero la relación rendimiento/consumo es significativamente mejor.

Las primeras unidades estarán disponibles para los grandes proveedores de nube (AWS, Azure, Google Cloud) en el tercer trimestre de 2026. Se espera que el precio por GPU ronde los $80,000-$100,000, consistente con el posicionamiento premium de NVIDIA en este mercado.