Por Javier Cuervo
Segunda-feira, 07:12. Um alerta é disparado no seu telemóvel: OpenAI pode estar movendo parte de suas operações para fora do Microsoft Azure . Se confirmado, não será uma virada brusca, mas uma fase natural de maturidade: quando sua demanda por computação cresce mais rápido do que a oferta, você abre alternativas. Eu vejo isso com frequência: primeiro você escolhe um provedor para velocidade; Depois, diversifica-se pela resiliência, custo e poder de negociação.
Para entendê-lo, é preciso olhar para trás. A OpenAI nasceu em 2015 como uma organização sem fins lucrativos. Em 2019, ele criou a estrutura "capped-profit" (OpenAI LP) para atrair capital, mantendo o controle na entidade sem fins lucrativos. Nesse mesmo ano, a Microsoft anunciou um investimento de 1.000 milhões e colocou o Azure como o fornecedor preferido. Em 2020, a Microsoft obtém a licença exclusiva para GPT-3. Em janeiro de 2023, a Microsoft anuncia um novo investimento "plurianual e multimilionário" e que o Azure continuará a ser o provedor de nuvem exclusivo para os seus carregamentos principais. Em novembro de 2023 surge a maior crise de governação: placa remove Sam Altman , a equipe se mobiliza, a Microsoft se oferece para incorporá-lo e, alguns dias depois, Altman retorna como CEO. O conselho é recomposto com Bret Taylor (presidente), Larry Summers e Adam D'Angelo, e a Microsoft recebe um assento de observador sem direito a voto. Em março de 2024, após uma investigação externa, a OpenAI anuncia melhorias de governança, o retorno de Altman ao conselho e a adição de perfis independentes, como Nicole Seligman, Sue Desmond-Hellmann e Fidji Simo. Esse é o contexto: capital da Microsoft, exclusividade da nuvem declarada em 2023 e governança reforçada, mas com tensões entre missão, escala e mercado.
Voltemos a esta semana de novembro de 2025: segunda-feira, 10h30. Se a imprensa especializada está antecipando que OpenAI Avalia AWS para parte de sua computação, a primeira pergunta de grandes clientes é operacional: latência, disponibilidade e SLAs. Quais operações você moveria primeiro? Obviamente aqueles que permitem maior tolerância à mudança: picos de inferência, experimentação, serviços periféricos. O treinamento em larga escala geralmente vem mais tarde,... se for.
Segunda-feira, 13h10 Razões técnicas, sem mistério.
1) Capacidade: A demanda por GPUs continua a superar a oferta.
2) Custo por token: Se você puder executar parte da inferência em hardware alternativo (por exemplo, chips projetados por IA como Inferentia/Trainium na AWS) com um TCO mais baixo, seu P&L percebe.
3) Resiliência: multicloud reduz o risco de concentração.
4) Conformidade: mais locais, mais opções para requisitos regulamentares.
Segunda-feira, 17h45 Motivação estratégica: poder de negociação. Um comprador que concentra toda a sua procura num único fornecedor perde a capacidade de melhorar as suas condições. Por outro lado, diversificar oferece melhores preços, melhores reservas de capacidade e, às vezes, acesso prioritário às novas gerações de hardware. Não é "romper" com a Microsoft; é gerir a dependência.
Terça-feira, 8h20 Isso muda a governança da OpenAI? Em princípio, não. A estrutura permanece a mesma: a entidade sem fins lucrativos controla; LP levanta capital com um limite de retorno; A gestão executa. A decisão de mover operações entre nuvens é normalmente da responsabilidade da administração, não do conselho, a menos que afete os compromissos contratuais materiais. Se houver cláusulas de exclusividade ou gastos mínimos com o Azure, quaisquer alterações sustentadas e significativas abrirão uma tabela de renegociação. Mas isso é negociação comercial, não redesenho da missão.
Terça-feira, 12:05. E a relação com a Microsoft? A aliança estratégica mantém-se: integração de modelos em produtos (Copilot, M365, Bing), codesenvolvimento de infraestruturas e uma relação financeira relevante. A exploração da OpenAI pela AWS não termina aí. O ajuste é contratual-operacional: reservas de capacidade, preços diferenciados, prioridades de implantação e, talvez, novos limites sobre o que é executado onde e com que prazos.
Quarta-feira, 11:00. Técnica fina. É provável que o treinamento de novos modelos continue nas GPUs NVIDIA de última geração devido ao ecossistema e à maturidade. A inferência, por outro lado, suporta maior diversidade: otimizadores por modelo, kernels específicos, servidores modelo que abstraem hardware e caminhos para chips especializados. O resultado desejável: custo decrescente por 1.000 tokens, latência estável e mais resiliência.
Quinta-feira, 16:00. Efeito no mercado de nuvem. Se a OpenAI inovar, ela valida o compromisso da AWS com chips proprietários e reforça a tese da "verdadeira multicloud" para IA generativa em escala. A Microsoft, que já investe em supercomputação dedicada para IA no Azure, acelerará compromissos de capacidade, acordos de fornecimento e serviços de plataforma mais integrados. O Google fica em uma situação ambivalente: um grande provedor de IA e infra, mas um concorrente direto em modelos.
Sexta-feira, 9:00. O que muda para o cliente empresarial? Três coisas:
1) Os padrões de portabilidade (serviço e orquestração) são mais importantes do que nunca.
2) Contratos de nuvem com cláusulas de elasticidade real, não apenas crédito.
3) Métricas que controlam os negócios, não apenas técnicas: custo por conversa/resposta útil, latência P95, taxa de queda, disponibilidade em várias regiões.
O que espero que aconteça, se isso se confirmar:
- Multicloud pragmática: o Azure continua a ser o parceiro principal; A AWS ganha uma parcela significativa, mas minoritária, de cargas, começando com inferência e picos.
- Formação maioritariamente em NVIDIA a curto prazo; Mais experimentação em hardware alternativo para inferência.
- Alteração contratual entre a Microsoft e a OpenAI: mais capacidade comprometida com o Azure em troca de preço e prioridade; limites e janelas de uso fora do Azure.
- Não há alteração no conselho por este motivo. Sim, maior foco dos comitês de risco/segurança na dependência tecnológica e concentração de fornecedores.
- O mais importante , o exemplo : Mais intervenientes AI-primeiro Eles adotam estratégias multicloud seletivas, priorizando custo por token, resiliência e conformidade.
O que eu faria como CEO/CIO hoje, independentemente das manchetes (e o que começaremos a fazer esta semana em Proportione):
- Negocie reservas de capacidade plurianuais com pelo menos um fornecedor e opções credíveis com um segundo.
- Projete a plataforma de IA (serviço, observabilidade, armazenamento de recursos, banco de dados vetorial) com abstração de hardware e nuvem desde o primeiro dia.
- Meça o negócio, não apenas técnico: custo por resultado útil, não por GPU/hora.
- Prepare um plano de continuidade de negócios específico de IA: degradação funcional, enfileiramento, cache e fallback entre fornecedores.
- Rever cláusulas de exclusividade e NMF nos contratos; que a estratégia técnica não está presa ao papel.
Trata-se, essencialmente, de independência operacional sem rutura de alianças. A OpenAI tem de garantir capacidade, reduzir custos unitários e ganhar flexibilidade. A Microsoft quer maximizar a adoção em sua plataforma e proteger o relacionamento. A AWS está procurando validar sua pilha de IA em escala. Nenhum destes objetivos é incompatível. O equilíbrio é negociado em watts, tokens e SLAs, não em detentores.
— Javier Cuervo
