Inteligência Artificial empresarial, de "comprar mais GPUs" para "a configuração ótima para reduzir custos de inferência"… A solução da AMD e Red Hat tem recebido muita atenção

robot
Geração do resumo em andamento

As empresas estão entrando em uma nova fase na adoção de inteligência artificial. Hoje, o foco do mercado não é mais se investir ou não em IA, mas sim como implantar hardware e infraestrutura adequados para diferentes negócios, a fim de maximizar a relação custo-benefício. Especialmente com o rápido aumento de tarefas de “IA por agente” e o aumento dos custos de raciocínio, para grandes empresas, o tema central deixou de ser a escolha cega pelo equipamento de maior desempenho, passando a ser a seleção de recursos computacionais adequados aos objetivos, ou seja, fazer “escolhas”.

Nesse contexto de mudança, a parceria entre AMD e Red Hat voltou a chamar atenção. John Hampton, vice-presidente de vendas de tecnologia empresarial global da AMD, destacou na “Red Hat Summit 2026” em Boston que as empresas buscam obter uma infraestrutura de IA mais flexível dentro do ambiente híbrido como um todo. Ele mencionou que, recentemente, muitos clientes construíram clusters de GPU em grande escala de forma apressada para atender às demandas de IA, mas enfrentam, na fase operacional, custos muito superiores ao esperado.

Os custos de inferência de IA aumentaram drasticamente… empresas reavaliam a estratégia de GPU única de grande porte

Segundo Hampton, muitas empresas, para não ficarem para trás na competição inicial de IA, concentraram esforços na aquisição de GPUs de alto desempenho em grande quantidade. O problema é que, à medida que a escala do serviço aumenta, o custo de cada consulta de IA se acumula continuamente, acelerando a pressão orçamentária. O setor chama esse fenômeno de “economia de tokens”, referindo-se ao aumento do custo de processamento de tokens à medida que o uso de IA generativa cresce, impactando diretamente a lucratividade das empresas.

Ele afirmou: “As empresas inicialmente adquiriram grandes clusters de GPU para IA em grande quantidade, mas agora enfrentam reações difíceis de sustentar. Embora o uso de IA esteja crescendo, a rápida expansão dos custos gerou grande preocupação.” Isso, por sua vez, significa que o núcleo da estratégia de IA das empresas está mudando de “garantir o máximo desempenho” para “otimizar a implantação de acordo com a tarefa”.

AMD e Red Hat: fornecendo uma solução de “espectro completo” desde CPU até GPU

Para responder a essa tendência, a AMD lançou uma linha de produtos de “espectro completo” que inclui CPUs, GPUs de alto custo-benefício e aceleradores de alto desempenho. A estratégia é combinar esses hardwares com a pilha de software de código aberto da Red Hat, permitindo que as empresas operem tarefas de IA de forma flexível em ambientes de nuvem híbrida, sem depender de fornecedores específicos.

Como exemplo, o AMD Instinct MI350P, uma GPU baseada na interface PCIe, foi apresentada como uma solução relativamente fácil de integrar a servidores existentes. Sua característica principal é o uso de resfriamento a ar para melhorar a relação custo-benefício. A Red Hat AI atua como uma plataforma empresarial que suporta a implantação e expansão de agentes de IA nesses hardwares. Além disso, com CPUs AMD EPYC e ferramentas de virtualização da Red Hat, é possível realizar a consolidação de servidores, ajudando a reduzir o espaço e o consumo de energia dos data centers.

O foco está na “arquitetura aberta”… promovendo simultaneamente o controle de orçamento de IA e a modernização da infraestrutura

A mensagem central desta abordagem é “abertura” e “escolha”. A AMD, junto com a Red Hat, enfatiza que, em comparação com ecossistemas fechados, as empresas devem usar arquiteturas abertas para selecionar os recursos mais adequados às diferentes cargas de trabalho de IA, incluindo CPUs, GPUs de baixo consumo e aceleradores de alto desempenho. Nem todas as tarefas de inferência precisam ser executadas em equipamentos caros.

Os benefícios dessa abordagem vão além da redução de custos. Para as empresas, ela permite aproveitar ao máximo a infraestrutura existente, sem desacelerar a adoção de IA, além de possibilitar que as economias de orçamento e energia sejam reinvestidas em novos projetos de IA. Na prática, isso tem um impacto significativo, permitindo a modernização da infraestrutura de IA e o controle orçamentário ao mesmo tempo.

Hampton prevê que, no futuro, os critérios de avaliação do mercado de IA provavelmente não serão mais “o que foi comprado”, mas sim “como foi implantado”. Com a entrada das empresas na fase operacional de IA, alguns analistas acreditam que o sucesso futuro dependerá menos do desempenho bruto e mais do equilíbrio inteligente entre o custo total de propriedade e os resultados práticos.

Notas do TP AI Este artigo foi resumido com base no modelo de linguagem TokenPost.ai. As informações principais do texto podem ter sido omitidas ou apresentarem divergências em relação aos fatos.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar