IA empresarial, de "comprar más GPU" a "la configuración óptima para reducir los costos de inferencia"… La solución de AMD y Red Hat recibe mucha atención

robot
Generación de resúmenes en curso

La introducción de inteligencia artificial en las empresas está atravesando un nuevo umbral. Hoy en día, el enfoque del mercado ya no se limita a si invertir en IA, sino a cómo desplegar semiconductores e infraestructura adecuados para diferentes negocios, con el fin de maximizar la rentabilidad. En particular, con el rápido aumento de tareas de “IA basada en agentes” y el incremento en los costos de razonamiento, para las grandes empresas, el tema central ya no es elegir ciegamente los dispositivos de mayor rendimiento, sino seleccionar los recursos de computación adecuados según los objetivos, es decir, hacer “elecciones”.

En este contexto de cambio, la colaboración entre AMD y Red Hat vuelve a captar la atención. John Hampton, vicepresidente de ventas de tecnología empresarial global de AMD, señaló en el “Red Hat Summit 2026” en Boston que las empresas buscan obtener una infraestructura de IA más flexible en un entorno híbrido. Mencionó que, recientemente, muchas empresas construyeron a toda prisa grandes clústeres de GPU para responder a la demanda de IA, pero en la fase operativa enfrentan costos mucho mayores de lo esperado.

Los costos de inferencia de IA aumentan rápidamente… las empresas reconsideran la estrategia de GPU única a gran escala

Según Hampton, muchas empresas, para no quedarse atrás en la competencia inicial de IA, centraron sus esfuerzos en adquirir en masa GPU de alto rendimiento. El problema es que, a medida que la escala del servicio crece, los costos generados por cada consulta de IA se acumulan continuamente, acelerando la presión presupuestaria. La industria denomina este fenómeno como “economía de tokens”, refiriéndose a que, con el aumento del uso de IA generativa, los costos de procesamiento de tokens también suben, afectando directamente la rentabilidad de las empresas.

Él afirmó: “Las empresas inicialmente compraron en masa grandes clústeres de GPU para IA, pero ahora enfrentan reacciones difíciles de soportar. Aunque el uso de IA está creciendo, la rápida expansión de los costos genera una gran preocupación.” Esto finalmente significa que el núcleo de la estrategia de IA de las empresas está cambiando de “garantizar los dispositivos de mayor rendimiento” a “optimizar el despliegue según la tarea”.

AMD y Red Hat: ofreciendo una solución de “todo el espectro” desde CPU hasta GPU

Para hacer frente a esta tendencia, AMD lanzó una cartera de productos de “todo el espectro” que incluye CPU, GPU de alto valor y aceleradores de alto rendimiento. La estrategia es combinar estos hardware con la pila de software de código abierto de Red Hat, permitiendo a las empresas operar tareas de IA de manera flexible en entornos de nube híbrida sin depender de un proveedor específico.

Tomemos como ejemplo el AMD Instinct MI350P, que se presenta como una GPU basada en interfaz PCIe, fácil de integrar en servidores existentes. Se caracteriza por su diseño de enfriamiento por aire para mejorar la rentabilidad. Red Hat AI funciona como una plataforma empresarial que soporta el despliegue y la expansión de agentes de IA en este tipo de hardware. Además, mediante el uso de CPU AMD EPYC y herramientas de virtualización de Red Hat, también se puede lograr la consolidación de servidores, ayudando a reducir el espacio y el consumo eléctrico en los centros de datos.

El núcleo está en la “arquitectura abierta”… promoviendo simultáneamente el control del presupuesto de IA y la modernización de la infraestructura

La idea central transmitida en esta ocasión es la “apertura” y la “elección”. AMD, junto con Red Hat, enfatizan que, en comparación con los ecosistemas cerrados, las empresas deben aprovechar arquitecturas abiertas para poder seleccionar los recursos más adecuados para diferentes cargas de trabajo de IA, desde CPU, GPU de bajo consumo hasta aceleradores de alto rendimiento. No todas las tareas de inferencia requieren ser desplegadas en dispositivos costosos.

Los beneficios de este enfoque no se limitan a reducir costos. Para las empresas, permite aprovechar al máximo la infraestructura existente sin ralentizar la adopción de IA, y además, los ahorros en presupuesto y energía pueden reinvertirse en nuevos proyectos de IA. Esto tiene un gran significado práctico, permitiendo la modernización de la infraestructura de IA y el control presupuestario simultáneamente.

Hampton predice que, en el futuro, los estándares de evaluación del mercado de IA probablemente no serán “qué se compró”, sino “cómo se desplegó”. A medida que la competencia en IA en las empresas entra en la fase operativa, algunos analistas consideran que el éxito futuro dependerá no solo del rendimiento, sino de la capacidad de equilibrar cuidadosamente el costo total de propiedad y los resultados reales.

Notas sobre TP AI Este artículo es un resumen realizado por el modelo de lenguaje TokenPost.ai. La información principal del texto puede estar incompleta o tener discrepancias con los hechos.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado