Con un rendimiento mejorado y una memoria avanzada de 141 GB, el chip tiene como objetivo liderar el camino en el despliegue de modelos de inteligencia artificial, desafiando incluso a su predecesor, el H100.
Nvidia ha dado a conocer su avanzada unidad de procesamiento gráfico, la H200, diseñada específicamente para el entrenamiento y despliegue de modelos de inteligencia artificial que impulsan el auge de las capacidades de inteligencia artificial generativa.
Esta nueva GPU representa una mejora significativa respecto a su predecesora, la H100, que fue utilizada notablemente por OpenAI en el entrenamiento de su modelo de lenguaje grande más avanzado, el GPT-4. Con una alta demanda por parte de grandes corporaciones, startups y entidades gubernamentales, existe una feroz competencia por el suministro limitado de estos chips.
Según estimaciones de Raymond James, los chips H100 tienen un precio entre US$25.000 y US$40.000, y se requiere un número sustancial de ellos trabajando en conjunto para crear los modelos más grandes a través de un proceso conocido como "entrenamiento".
La línea de GPU de inteligencia artificial de Nvidia ha contribuido notablemente al aumento de las acciones de la empresa, con un incremento de más del 230% en la primera parte de 2023. La compañía anticipa ingresos de aproximadamente US$16.000 millones para su tercer trimestre fiscal, reflejando un crecimiento notable del 170% respecto al año anterior.
Una mejora clave con la H200 radica en su integración de 141 GB de memoria de próxima generación "HBM3", mejorando significativamente la capacidad del chip para realizar tareas de "inferencia". La inferencia implica utilizar un modelo entrenado para generar texto, imágenes o predicciones.
Nvidia asegura que la H200 producirá resultados casi el doble de rápido que su predecesora, la H100, según pruebas realizadas con el Llama 2 LLM de Meta. Se espera que se lance en el segundo trimestre de 2024, compitiendo con la GPU MI300X de AMD y ofreciendo memoria adicional para acomodar modelos grandes en tareas de inferencia.
Crucialmente, Nvidia afirma que el H200 será compatible con el H100. Esto significa que las empresas de inteligencia artificial que actualmente utilizan el modelo anterior para el entrenamiento no necesitarán realizar cambios significativos en sus sistemas de servidor o software para hacer la transición a la nueva versión.
La H200 estará disponible en configuraciones de servidor de cuatro ocho GPU dentro de los sistemas completos HGX de Nvidia. Además, se incluirá en un chip llamado GH200, que combina la GPU H200 con un procesador basado en Arm.
A pesar de sus características de vanguardia, el H200 puede no retener el título de la GPU de inteligencia artificial más rápida de Nvidia por mucho tiempo. El cambio de Nvidia a un patrón de lanzamiento anual, anunciado a los inversores en octubre, sugiere la llegada inminente del chip B100, basado en la arquitectura Blackwell, en 2024. Esto se alinea con la tendencia de la industria, donde mejoras significativas en el rendimiento ocurren aproximadamente cada dos años con la adopción de nuevas arquitecturas de semiconductores. Tanto el H100 como el H200 están basadas en la arquitectura Hopper de Nvidia.
Comments