Javier Cuervo

OpenAI, Azure e multicloud: o que está realmente em jogo

Por Javier Cuervo

Segunda-feira, 07:12. Um alerta é disparado no seu telemóvel: OpenAI pode estar movendo parte de suas operações para fora do Microsoft Azure . Se confirmado, não será uma virada brusca, mas uma fase natural de maturidade: quando sua demanda por computação cresce mais rápido do que a oferta, você abre alternativas. Eu vejo isso com frequência: primeiro você escolhe um provedor para velocidade; Depois, diversifica-se pela resiliência, custo e poder de negociação.

Para entendê-lo, é preciso olhar para trás. A OpenAI nasceu em 2015 como uma organização sem fins lucrativos. Em 2019, ele criou a estrutura "capped-profit" (OpenAI LP) para atrair capital, mantendo o controle na entidade sem fins lucrativos. Nesse mesmo ano, a Microsoft anunciou um investimento de 1.000 milhões e colocou o Azure como o fornecedor preferido. Em 2020, a Microsoft obtém a licença exclusiva para GPT-3. Em janeiro de 2023, a Microsoft anuncia um novo investimento "plurianual e multimilionário" e que o Azure continuará a ser o provedor de nuvem exclusivo para os seus carregamentos principais. Em novembro de 2023 surge a maior crise de governação: placa remove Sam Altman , a equipe se mobiliza, a Microsoft se oferece para incorporá-lo e, alguns dias depois, Altman retorna como CEO. O conselho é recomposto com Bret Taylor (presidente), Larry Summers e Adam D'Angelo, e a Microsoft recebe um assento de observador sem direito a voto. Em março de 2024, após uma investigação externa, a OpenAI anuncia melhorias de governança, o retorno de Altman ao conselho e a adição de perfis independentes, como Nicole Seligman, Sue Desmond-Hellmann e Fidji Simo. Esse é o contexto: capital da Microsoft, exclusividade da nuvem declarada em 2023 e governança reforçada, mas com tensões entre missão, escala e mercado.

Voltemos a esta semana de novembro de 2025: segunda-feira, 10h30. Se a imprensa especializada está antecipando que OpenAI Avalia AWS para parte de sua computação, a primeira pergunta de grandes clientes é operacional: latência, disponibilidade e SLAs. Quais operações você moveria primeiro? Obviamente aqueles que permitem maior tolerância à mudança: picos de inferência, experimentação, serviços periféricos. O treinamento em larga escala geralmente vem mais tarde,... se for.

Segunda-feira, 13h10 Razões técnicas, sem mistério.

1) Capacidade: A demanda por GPUs continua a superar a oferta.

2) Custo por token: Se você puder executar parte da inferência em hardware alternativo (por exemplo, chips projetados por IA como Inferentia/Trainium na AWS) com um TCO mais baixo, seu P&L percebe.

3) Resiliência: multicloud reduz o risco de concentração.

4) Conformidade: mais locais, mais opções para requisitos regulamentares.

Segunda-feira, 17h45 Motivação estratégica: poder de negociação. Um comprador que concentra toda a sua procura num único fornecedor perde a capacidade de melhorar as suas condições. Por outro lado, diversificar oferece melhores preços, melhores reservas de capacidade e, às vezes, acesso prioritário às novas gerações de hardware. Não é "romper" com a Microsoft; é gerir a dependência.

Terça-feira, 8h20 Isso muda a governança da OpenAI? Em princípio, não. A estrutura permanece a mesma: a entidade sem fins lucrativos controla; LP levanta capital com um limite de retorno; A gestão executa. A decisão de mover operações entre nuvens é normalmente da responsabilidade da administração, não do conselho, a menos que afete os compromissos contratuais materiais. Se houver cláusulas de exclusividade ou gastos mínimos com o Azure, quaisquer alterações sustentadas e significativas abrirão uma tabela de renegociação. Mas isso é negociação comercial, não redesenho da missão.

Terça-feira, 12:05. E a relação com a Microsoft? A aliança estratégica mantém-se: integração de modelos em produtos (Copilot, M365, Bing), codesenvolvimento de infraestruturas e uma relação financeira relevante. A exploração da OpenAI pela AWS não termina aí. O ajuste é contratual-operacional: reservas de capacidade, preços diferenciados, prioridades de implantação e, talvez, novos limites sobre o que é executado onde e com que prazos.

Quarta-feira, 11:00. Técnica fina. É provável que o treinamento de novos modelos continue nas GPUs NVIDIA de última geração devido ao ecossistema e à maturidade. A inferência, por outro lado, suporta maior diversidade: otimizadores por modelo, kernels específicos, servidores modelo que abstraem hardware e caminhos para chips especializados. O resultado desejável: custo decrescente por 1.000 tokens, latência estável e mais resiliência.

Quinta-feira, 16:00. Efeito no mercado de nuvem. Se a OpenAI inovar, ela valida o compromisso da AWS com chips proprietários e reforça a tese da "verdadeira multicloud" para IA generativa em escala. A Microsoft, que já investe em supercomputação dedicada para IA no Azure, acelerará compromissos de capacidade, acordos de fornecimento e serviços de plataforma mais integrados. O Google fica em uma situação ambivalente: um grande provedor de IA e infra, mas um concorrente direto em modelos.

Sexta-feira, 9:00. O que muda para o cliente empresarial? Três coisas:

1) Os padrões de portabilidade (serviço e orquestração) são mais importantes do que nunca.

2) Contratos de nuvem com cláusulas de elasticidade real, não apenas crédito.

3) Métricas que controlam os negócios, não apenas técnicas: custo por conversa/resposta útil, latência P95, taxa de queda, disponibilidade em várias regiões.

O que espero que aconteça, se isso se confirmar:

  • Multicloud pragmática: o Azure continua a ser o parceiro principal; A AWS ganha uma parcela significativa, mas minoritária, de cargas, começando com inferência e picos.
  • Formação maioritariamente em NVIDIA a curto prazo; Mais experimentação em hardware alternativo para inferência.
  • Alteração contratual entre a Microsoft e a OpenAI: mais capacidade comprometida com o Azure em troca de preço e prioridade; limites e janelas de uso fora do Azure.
  • Não há alteração no conselho por este motivo. Sim, maior foco dos comitês de risco/segurança na dependência tecnológica e concentração de fornecedores.
  • O mais importante , o exemplo : Mais intervenientes AI-primeiro Eles adotam estratégias multicloud seletivas, priorizando custo por token, resiliência e conformidade.

O que eu faria como CEO/CIO hoje, independentemente das manchetes (e o que começaremos a fazer esta semana em Proportione):

  • Negocie reservas de capacidade plurianuais com pelo menos um fornecedor e opções credíveis com um segundo.
  • Projete a plataforma de IA (serviço, observabilidade, armazenamento de recursos, banco de dados vetorial) com abstração de hardware e nuvem desde o primeiro dia.
  • Meça o negócio, não apenas técnico: custo por resultado útil, não por GPU/hora.
  • Prepare um plano de continuidade de negócios específico de IA: degradação funcional, enfileiramento, cache e fallback entre fornecedores.
  • Rever cláusulas de exclusividade e NMF nos contratos; que a estratégia técnica não está presa ao papel.

Trata-se, essencialmente, de independência operacional sem rutura de alianças. A OpenAI tem de garantir capacidade, reduzir custos unitários e ganhar flexibilidade. A Microsoft quer maximizar a adoção em sua plataforma e proteger o relacionamento. A AWS está procurando validar sua pilha de IA em escala. Nenhum destes objetivos é incompatível. O equilíbrio é negociado em watts, tokens e SLAs, não em detentores.

— Javier Cuervo


Publicado em

em

por

Etiquetas: