Acabei de assistir à entrevista do Stratechery com Sam Altman e Matt Garman sobre o que realmente está acontecendo entre OpenAI e AWS, e honestamente, isso muda toda a nossa percepção sobre IA empresarial.



Então, a manchete que todo mundo está comentando é óbvia: o acordo de exclusividade da Microsoft com Azure com OpenAI acabou. Agora a OpenAI pode oferecer modelos através do AWS e outras nuvens. Mas aqui está o ponto — essa é quase a parte mais entediante da história.

A mudança de verdade é muito mais fundamental. Estamos passando de "empresas chamando APIs" para "empresas executando agentes de IA reais dentro de sua infraestrutura." Pense assim: ao invés de o ChatGPT ser um chatbot inteligente com quem você conversa, imagine um colega de IA que realmente trabalha dentro da sua empresa, acessa seus bancos de dados, respeita seus sistemas de permissão e realiza tarefas.

Bedrock Managed Agents é o que isso representa na prática. Não é apenas "modelos da OpenAI agora disponíveis no AWS." É os modelos da OpenAI profundamente integrados em toda a pilha nativa do AWS — gerenciamento de identidade, permissões, logs, segurança, implantação, tudo. Os modelos rodam dentro do seu VPC, seus dados nunca deixam o AWS, e o agente entende os limites da sua empresa.

Sam fez um ponto que ficou comigo: ele costumava ver o modelo e a infraestrutura de suporte como coisas separadas. Agora, ele não vê mais assim. Quando o Codex faz algo incrível, você não consegue distinguir quanto é o modelo sendo inteligente versus o sistema ao redor sendo bem projetado. Eles estão se tornando uma coisa só.

Matt Garman trouxe à tona algo igualmente importante: as empresas atualmente estão literalmente costurando suas próprias soluções. Elas querem agentes que lembrem do contexto, funcionem através de seus sistemas, entendam seus dados, respeitem sua segurança. Cada empresa está fazendo isso por conta própria. O que AWS e OpenAI estão dizendo é: nós cuidaremos dessa integração para você, para que você não precise fazer tudo isso sozinho.

A questão de permissões e segurança aqui é enorme. Antes, era como um modelo de segurança de "castelo e fosso" — tudo local, presume-se que é seguro. Agora, você precisa de uma arquitetura de confiança zero. Cada agente precisa de sua própria identidade, suas próprias permissões. Ainda estão descobrindo os modelos mentais para isso. Tipo, um agente de IA deveria usar a conta do seu funcionário, mas se identificar como um agente? Eles nem têm os conceitos básicos definidos ainda, mas sabem que isso importa.

O mais impressionante é como isso espelha o que aconteceu com a computação em nuvem há 20 anos. A AWS fez com que startups não precisassem comprar seus próprios servidores e contratar equipes de infraestrutura. Agora, OpenAI e AWS estão tentando fazer o mesmo para IA empresarial: diminuir a barreira para implantar agentes que funcionem, sem que as empresas precisem montar modelos, permissões, sistemas de dados e arquitetura de segurança por conta própria.

Sam também comentou algo interessante sobre o futuro da precificação. Hoje eles cobram por tokens, mas isso já está ficando ultrapassado. O novo modelo deles custa mais por token, mas precisa de muito menos tokens para obter a mesma resposta. O que os clientes realmente querem pagar é por "inteligência entregue", não por "tokens consumidos." É uma mudança sutil, mas que altera toda a forma de pensar sobre o negócio.

Na questão da concorrência, esse é o momento em que o jogo muda de "quem tem o melhor modelo" para "quem consegue transformar modelos em infraestrutura empresarial de verdade." O Google está indo na direção da integração vertical total. O AWS está seguindo um caminho diferente: uma camada de infraestrutura forte, parcerias com os melhores modelos, deixando as empresas escolherem o que funciona. Sam e Matt parecem genuinamente convencidos de que estão construindo algo diferenciado aqui, não apenas "finalmente podemos acessar a OpenAI pelo AWS."

Mais uma coisa: Sam mencionou que a demanda por modelos de fronteira ainda é astronômica. As pessoas ainda não estão pensando em preço. Todo mundo quer o modelo de ponta porque é o que realmente faz o trabalho acontecer. Mas, à medida que os custos caem e modelos menores melhoram, provavelmente veremos uma mistura emergir. Ainda parece cedo, porém.

Toda a conversa parece de duas empresas que realmente respeitam as forças uma da outra, construindo algo de verdade. Vale a pena ler o artigo completo do Stratechery se você quiser os detalhes técnicos, mas a ideia central é sólida: não estamos mais falando de canais de distribuição. Estamos falando de um paradigma de computação completamente diferente emergindo.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar