top of page

Los desafíos de alimentar y enfriar la IA y la computación acelerada

Con la creciente demanda de potencia y capacidad de enfriamiento para impulsar los modelos de inteligencia artificial, la infraestructura de los centros de datos se enfrenta a retos sin precedentes.



Las cargas de trabajo de IA están provocando cambios significativos en la forma en que se alimentan y enfrían los datos procesados en la computación de alto rendimiento (HPC). Anteriormente, los racks de TI que operaban cargas de trabajo de 5-10 kilovatios (kW) se consideraban de alta densidad, con aquellos que manejaban cargas superiores a 20 kW reservados para aplicaciones especializadas y de alcance limitado. Sin embargo, la IA está acelerando el uso de GPU para satisfacer las demandas computacionales de los modelos de IA, lo que lleva a una necesidad de alimentación y enfriamiento hasta cinco veces mayor en el mismo espacio que un servidor tradicional.


Mark Zuckerberg anunció planes de inversión de Meta para implementar 350,000 GPU NVIDIA H100 para fines de 2024, lo que refleja la escala masiva de estas operaciones. Los racks de 40 kW por rack se consideran ahora en el extremo inferior de lo que se necesita para las implementaciones de IA, con densidades de rack de más de 100 kW cada vez más comunes.


Este aumento en la demanda de potencia y enfriamiento requiere mejoras considerables en todo el tren de potencia, desde la red eléctrica hasta los chips en cada rack. Se está volviendo imperativo introducir tecnologías de enfriamiento líquido en el espacio del centro de datos, ya que los métodos tradicionales pueden no ser capaces de manejar el calor generado por las GPU utilizadas para los cálculos de IA. Las inversiones necesarias para actualizar la infraestructura de alimentación y enfriamiento son considerables, y abordar estos nuevos desafíos de diseño es crucial para mantener la eficiencia y la confiabilidad de los centros de datos.


La transición hacia una mayor densidad no ocurrirá de la noche a la mañana. Los diseñadores de centros de datos deben preparar la infraestructura de potencia y enfriamiento para el futuro, teniendo en cuenta el crecimiento continuo de las cargas de trabajo. La obtención de la potencia necesaria para cada rack requerirá actualizaciones en la red eléctrica y en los propios racks.


El enfriamiento líquido directo al chip y los intercambiadores de calor de puerta trasera son dos tecnologías emergentes en enfriamiento líquido que se están considerando para abordar el exceso de calor generado por la IA. Si bien estas soluciones ofrecen una capacidad de enfriamiento considerablemente mayor que el aire, aún se necesitan sistemas complementarios para manejar el calor residual de manera efectiva.


Vertiv y otras empresas están desarrollando soluciones optimizadas para satisfacer las demandas de infraestructura de IA. Estos diseños pueden soportar cargas de trabajo de hasta 100 kW por rack, lo que facilita la adaptación a las nuevas necesidades de infraestructura. La colaboración entre diseñadores de centros de datos, proveedores de servicios y usuarios finales será crucial para garantizar una transición sin problemas hacia la infraestructura del futuro.


En resumen, el auge de la inteligencia artificial está transformando rápidamente los centros de datos, generando una necesidad urgente de actualizar la infraestructura para satisfacer las crecientes demandas de potencia y enfriamiento. Si bien estos desafíos son significativos, también ofrecen oportunidades emocionantes para la innovación y el desarrollo en el campo de la infraestructura de centros de datos.


bottom of page