#Entrenamiento #datos #Schneider #NoticiasIbo
La acelerada expansión de la Inteligencia Artificial generativa está redefiniendo los requerimientos de infraestructura en los centros de datos a nivel global. Schneider Electric advierte que comprender las diferencias entre las cargas de entrenamiento e inferencia es clave para diseñar entornos capaces de responder a las nuevas exigencias de potencia, enfriamiento y operación.
“El entrenamiento y la inferencia son etapas distintas con impactos muy diferentes en la infraestructura. Entender esa diferencia permite tomar decisiones estratégicas sobre dónde y cómo invertir”, señaló José Alberto Llavot, gerente de Preventa y Desarrollador de negocios en Schneider Electric para México y Centroamérica.
El entrenamiento de modelos de IA representa la fase de mayor exigencia técnica. Requiere clústeres con unidades de procesamiento gráfico (GPU) que pueden superar los 100 kW por rack, elevando significativamente las necesidades de gestión térmica y suministro eléctrico.
Ante este panorama, tecnologías como el enfriamiento líquido directo al chip, los intercambiadores de calor en puertas traseras y arquitecturas eléctricas modulares con alta redundancia se vuelven fundamentales. Además, el crecimiento constante en el consumo energético y la potencia térmica de diseño (TDP) de los aceleradores obliga a planificar infraestructuras escalables que acompañan la evolución tecnológica.
Por su parte, la inferencia -etapa en el modelo entrenado genera resultados con datos nuevos- presenta una demanda más distribuida, aunque cada vez más compleja. Sus aplicaciones abarcan desde asistentes virtuales hasta análisis en tiempo real en sectores como salud, comercio e industria.
Si bien pueden operar en rangos inferiores a 40 kW por rack, los casos avanzados ya alcanzan entre 40 y 80 kW, especialmente cuando se requieren tiempos de respuesta ultra bajos. Dado que esta fase donde se materializa el retorno de inversión de la IA, optimizar la inferencia se convierte en prioridad estratégica.
A diferencia del entrenamiento, que suele concentrarse en grandes instalaciones hiperescalables, la inferencia se despliega en múltiples entornos: nube pública, colocation, instalaciones on-premise y Edge computing. Esta distribución incrementa la diversidad de diseños y exige soluciones flexibles.
La creciente complejidad operativa exige visibilidad en tiempo real y herramientas avanzadas de gestión. Soluciones como DCIM, EPMS y BMS permiten coordinar energía, enfriamiento y operación en entornos híbridos con cargas mixtas. Estos no solo mejora la eficiencia, sino que ayuda a anticipar riesgos y proteger la continuidad del negocio.
Una infraestructura preparada para el futuro de la IA
En los próximos años, la inferencia será más común y más exigente. Los modelos serán más complejos, crecerá el procesamiento en el borde y se expandirá la IA como servicio. El resultado será una mayor diversidad de configuraciones, desde sitios de baja carga hasta racks de alta densidad capaces de ejecutar entrenamiento e inferencia en paralelo.
“No existe una receta única, El tipo de carga y las necesidades de los aceleradores determinan la densidad y los requerimientos de infraestructura. Construir una base energética, térmica y de gestión que pueda evolucionar con ambas etapas será el diferencial competitivo en la nueva era de la IA”, concluyó Llavot.
