
Autor: Boxu Li
No final de 2025, três gigantes da IA – Anthropic, OpenAI e Google DeepMind – lançaram modelos de linguagem de última geração. O Claude Opus 4.5 da Anthropic, o ChatGPT 5.1 da OpenAI (baseado na série GPT‑5.1) e o Gemini 3 Pro da Google representam o que há de mais avançado em IA. Todos prometem avanços significativos em capacidade, desde manipular contextos extensos até resolver tarefas complexas de codificação e raciocínio. Este mergulho profundo oferece uma comparação técnica desses modelos em dimensões-chave – benchmarks de desempenho, capacidades de raciocínio, geração de código, latência de API, custo, janela de contexto de tokens, ajuste fino e personalização – para entender como eles se comparam uns aos outros.
Perfis de Modelos: Claude Opus 4.5 é o mais recente modelo principal da Anthropic (um sucessor de Claude 2 e da série Claude 4), afirmando ser 「o melhor modelo do mundo para codificação, agentes e uso de computador」[1]. O ChatGPT 5.1 da OpenAI é uma atualização da série GPT-5, oferecido em dois modos (Instantâneo e Reflexivo) para equilibrar velocidade e profundidade de raciocínio[2]. O Gemini 3 Pro do Google é a instância de nível superior da família Gemini, um modelo multimodal construído pelo Google DeepMind, considerado como 「nosso modelo mais inteligente」 com raciocínio e uso de ferramentas de ponta[3][4]. Embora as arquiteturas detalhadas sejam proprietárias, todos os três são grandes sistemas baseados em Transformer, provavelmente com trilhões de parâmetros, aprimorados com treinamento e otimização extensivos (por exemplo, aprendizado por reforço a partir de feedback humano). Abaixo, comparamos eles em detalhe.
Conhecimento e Raciocínio (MMLU, ARC, etc.): Em testes de conhecimento amplo como o MMLU (Entendimento de Linguagem de Tarefas Múltiplas em Massa), todos os três modelos operam próximo ou acima do nível de especialistas humanos. O Google relata que o Gemini 3 Pro alcançou cerca de 91,9% nos conjuntos de questões mais difíceis (GPQA Diamond) e liderou o ranking do LMArena com um Elo de 1501[5]. O GPT‑5.1 é igualmente forte no MMLU – em uma análise, o GPT‑5.1 obteve cerca de 91,0% no MMLU, aproximadamente no mesmo nível do Gemini 3 Pro[6]. A Anthropic não publicou um MMLU oficial para o Opus 4.5, mas seu antecessor (Claude Sonnet 4.5) estava na faixa de alta de 80%[7], sugerindo que o Opus 4.5 está em torno desse nível para tarefas de conhecimento acadêmico. Em exames de raciocínio extremamente desafiadores, surgem diferenças.
O Último Exame da Humanidade (um teste de raciocínio brutal) mostrou que o Gemini 3 Pro alcançou 37,5% (sem ferramentas) – significativamente mais alto que o GPT-5.1 (~26,8%) ou o modelo anterior da Anthropic (~13,7%)[8]. Da mesma forma, no desafio de raciocínio ARC-AGI, o Gemini 3 Pro alcançou 31% (e até 45% em um modo especial “Deep Think”), superando em muito o GPT-5.1 (~18%) e os modelos Claude anteriores[9]. Esses resultados indicam que o modelo do Google atualmente lidera nos benchmarks de raciocínio mais difíceis, provavelmente refletindo o treinamento avançado em planejamento e resolução de problemas do Gemini. O GPT-5.1 da OpenAI não está muito atrás em conhecimento e raciocínio, enquanto a força da Anthropic está em outra área (como veremos em codificação). No geral, em benchmarks padrão como MMLU e PiQA, todos os três estão agrupados em torno de ~90% de precisão[5], mas para testes de raciocínio de “fronteira” (matemática complexa, quebra-cabeças de lógica), o Gemini 3 Pro tem uma vantagem com seu desempenho de nível “PhD”[10].
Geração de Código e Benchmarks de Software: o Anthropic Claude Opus 4.5 foi explicitamente direcionado para tarefas de codificação e uso computacional “agente”, e atualmente reivindica a coroa nos benchmarks de código. Na avaliação interna da Anthropic no SWE-Bench (Software Engineering Bench) Verificado, o Opus 4.5 alcançou 80,9% de sucesso – a mais alta de qualquer modelo de fronteira[11]. Isso supera ligeiramente o modelo GPT-5.1-Codex-Max da OpenAI (77,9%) e o Gemini 3 Pro da Google (76,2%) no mesmo teste[11]. O gráfico abaixo, do anúncio da Anthropic, ilustra a margem pela qual o Claude 4.5 lidera em tarefas de codificação do mundo real:
Claude Opus 4.5 atinge a pontuação mais alta no SWE-Bench Verificado (problemas de codificação do mundo real), superando ligeiramente o GPT-5.1 Codex da OpenAI e o Gemini 3 Pro da Google[11].
Este resultado é notável porque a variante Codex-Max do GPT‑5.1 foi uma melhoria significativa para a codificação (a OpenAI o treinou em tarefas de engenharia de software e uso de ferramentas)[12]. No entanto, o Opus 4.5 conseguiu avançar alguns pontos percentuais. O Gemini 3 Pro da Google está logo atrás; ele “supera significativamente” seu antecessor Gemini 2.5 nesses benchmarks de agentes de codificação[13], mas atualmente fica atrás do novo Claude. Em termos práticos, todos os três modelos são assistentes de codificação altamente capazes – capazes de gerar código correto para tarefas complexas, refatorar grandes bases de código e até operar ambientes de desenvolvimento. Mas o foco da Anthropic na qualidade e eficiência do código é evidente: desenvolvedores relataram que o Claude Opus 4.5 demonstra “planejamento de tarefas de ponta e uso de ferramentas” na codificação, e resolve problemas com menos tokens[14][15]. De fato, a Anthropic afirma que o Opus 4.5 pode lidar com fluxos de trabalho de codificação multi-etapas “mais eficientemente do que qualquer modelo que testamos” e apresenta taxas de aprovação mais altas utilizando até 65% menos tokens nas mesmas tarefas[16]. Esta eficiência e habilidade de codificação tornam o Claude 4.5 extremamente forte para casos de uso em engenharia de software.
Outros Benchmarks: Cada modelo tem seus pontos fortes. O Gemini 3 se destaca em benchmarks de raciocínio multimodal em imagem+vídeo – por exemplo, MMMU-Pro (Multimodal MMLU) e Video-MMMU, onde o Gemini 3 Pro obteve 81% e 87,6% respectivamente, estabelecendo um novo estado da arte[17]. Também alcançou 72,1% no SimpleQA Verified, indicando uma melhor precisão factual em Q&A abertas[18]. O GPT‑5.1 da OpenAI, por sua vez, se destaca na qualidade de conversação e segue instruções mais de perto que seus antecessores. Embora não esteja vinculado a um único benchmark, a OpenAI observou que tanto a inteligência geral quanto o estilo de comunicação do GPT‑5.1 tiveram melhorias “significativas”[19]. Muitos observaram que o GPT‑5.1 parece “mais caloroso, mais inteligente e melhor em seguir instruções” em tarefas cotidianas[2], o que pode não aparecer em métricas de precisão pura, mas melhora a usabilidade no mundo real. O Opus 4.5 da Anthropic também foi projetado para tarefas práticas além da codificação – os testadores descobriram que ele “encontra a solução” para bugs complexos de múltiplos sistemas e “lida com ambiguidades e raciocina sobre compensações” sem precisar de orientação[20]. Em suma, os benchmarks contam apenas parte da história. Todos os três modelos desempenham em nível humano ou acima em muitos testes acadêmicos. O Gemini 3 avança na fronteira em desafios lógicos e multimodais complexos, o Claude 4.5 lidera em tarefas complexas de codificação e uso de ferramentas, e o GPT‑5.1 oferece um equilíbrio entre forte desempenho e habilidade conversacional refinada.
Um tema nesses novos modelos é a melhoria no raciocínio de longo prazo – a capacidade de enfrentar problemas complexos através de múltiplas etapas ou ao longo de durações estendidas. O GPT‑5.1 da OpenAI introduziu um modo dedicado de "Pensamento", um modelo de raciocínio avançado que é "mais persistente em tarefas complexas"[2]. O GPT‑5.1 Pensamento realmente "pensa" por mais tempo (ou seja, aloca mais computação interna ou etapas) para consultas difíceis, permitindo resolver problemas que requerem lógica em múltiplas etapas. O Google adotou uma abordagem semelhante com o Gemini 3 Deep Think, um modo opcional para o Gemini 3 Pro que "empurra os limites da inteligência ainda mais" em problemas complexos[21]. Nos testes, o Gemini 3 Deep Think superou significativamente o modo normal nos benchmarks mais difíceis (por exemplo, aumentando a pontuação do Humanity’s Last Exam de 37,5% para 41,0%, e o ARC-AGI para 45,1%)[22]. Isso indica que o modelo pode raciocinar internamente sobre tarefas muito difíceis quando lhe é dado mais "tempo de pensamento".
Claude Opus 4.5 da Anthropic enfatiza igualmente o raciocínio prolongado. Ele preserva automaticamente seus “blocos de pensamento” de turnos anteriores, mantendo uma cadeia de raciocínio ao longo de uma sessão longa[23] – modelos Claude anteriores deixariam de lado esses blocos, mas o Opus 4.5 consegue manter o raciocínio intermediário, o que é crucial para trabalhos consistentes em várias etapas. A Anthropic também adicionou um parâmetro de “esforço” ao Opus 4.5 que controla diretamente quantos tokens o modelo utiliza no raciocínio e na explicação[24]. Em Esforço Alto, o Opus produzirá análises muito detalhadas (úteis para depuração complexa ou pesquisas aprofundadas), enquanto Esforço Baixo resulta em respostas mais breves, adequadas para tarefas rápidas de alto volume[25]. Isto funciona efetivamente como um ajuste para profundidade de raciocínio versus velocidade.
Na prática, esses recursos significam que cada modelo pode lidar com tarefas de raciocínio sustentado muito melhor do que as gerações anteriores. Por exemplo, a OpenAI relatou que o GPT‑5.1-Codex-Max pode operar autonomamente por horas seguidas, melhorando iterativamente o código e corrigindo bugs sem intervenção humana[26][27]. Ele usa uma técnica chamada “compactação” para podar e condensar seu contexto enquanto trabalha, permitindo um trabalho coerente por milhões de tokens em uma única sessão[28][29]. Simon Willison, um dos primeiros testadores, observou que os modelos da Anthropic podem de forma semelhante sustentar longas sessões de codificação – ele usou o Opus 4.5 para conduzir ~30 minutos de codificação autônoma, e até mesmo o menor Claude Sonnet 4.5 foi capaz de continuar a carga de trabalho de forma eficaz[30][31]. O Gemini 3, com sua enorme janela de contexto e uso integrado de ferramentas, é projetado explicitamente para “planejar e executar tarefas complexas, de ponta a ponta” através de agentes que podem rodar em um IDE ou até mesmo em um terminal Linux[32][33]. Nos próprios produtos do Google, a IA baseada em Gemini pode analisar documentos ou vídeos longos e produzir saídas estruturadas como flashcards ou planos passo a passo[34][35].
Bottom line: All three models have made reasoning more persistent and autonomous. They can handle complex workflows that span many steps. OpenAI and Google offer toggles (Thinking mode, Deep Think) to ramp up reasoning when needed. Anthropic’s Opus runs at a high reasoning level by default, and gives developers manual control over the trade-off between thoroughness and latency[24]. This reflects a convergence in design: rather than always responding in one-shot, these models internally simulate “thinking for a longer period”[36][37] to tackle harder problems and use tools effectively, moving closer to true agent-like behavior.

Habilidades de Codificação: Conforme observado anteriormente, Claude 4.5 atualmente supera GPT‑5.1 e Gemini 3 em benchmarks de codificação medidos[11]. Mas todos os três são extremamente capazes na geração de código, muito além dos modelos de um ou dois anos atrás. Por exemplo, o GPT‑5.1-Codex-Max da OpenAI foi “treinado em tarefas de engenharia de software do mundo real”, como revisões de código, criação de pull requests e respostas a perguntas de codificação[12]. Ele pode trabalhar em vários arquivos e até lidar com ambientes Windows (algo novo, indicando treinamento em tarefas específicas do sistema operacional)[38][39]. Enquanto isso, Claude Opus 4.5 foi responsável por refatorações complexas abrangendo múltiplos codebases e agentes, de acordo com os clientes da Anthropic[40]. Desenvolvedores usando Claude em um IDE (por exemplo, Claude Code) descobriram que ele poderia coordenar mudanças em dezenas de arquivos com erros mínimos[41]. O Gemini 3 do Google também se destaca no desenvolvimento de software: é descrito como “o melhor modelo de codificação vibração e agentic que já construímos” pelo Google, e liderou um benchmark de WebDev (tarefas de desenvolvimento web) com um Elo de 1487[13]. Em um teste ao vivo Terminal-Bench (fazendo o modelo operar um terminal Linux), Gemini 3 Pro marcou 54,2%, superior ao GPT‑5.1 (~47%) ou aos modelos anteriores da Anthropic[42][43]. Isso sugere que o Gemini é especialmente forte no uso de ferramentas/comandos para realizar tarefas de codificação de forma autônoma.
Uso de Ferramentas e Agentes: Além da geração de código bruto, uma fronteira chave é o comportamento agente – fazer com que o modelo use ferramentas ou atue como um agente autônomo. As três empresas estão possibilitando isso de diferentes maneiras. A plataforma da OpenAI suporta chamadas de função e introduziu os “Agentes OpenAI” que permitem ao GPT‑5.1 invocar ferramentas (como navegadores da web, interpretadores de código, etc.) para completar tarefas. O GPT‑5.1 também pode “compactar” automaticamente sua memória de trabalho durante longas sessões de uso de ferramentas, conforme descrito, para não esgotar o contexto[28][29]. O Google construiu um ambiente inteiro orientado a agentes chamado Google Antigravity em torno do Gemini 3[32]. Neste sistema, os agentes Gemini têm acesso direto a um editor de código, terminal e navegador. Eles podem “planejar e executar autonomamente tarefas complexas de software de ponta a ponta” – escrever código, executá-lo, testá-lo e iterar, tudo dentro da plataforma de desenvolvimento[44][33]. Isso é ampliado pelas habilidades multimodais do Gemini: por exemplo, um agente Gemini pode ler uma captura de tela ou um mockup de design como entrada, e então gerar e executar código para reproduzir a interface do usuário.
Por sua vez, a Anthropic atualizou as ferramentas de 「Uso do Computador」 do Claude. O Claude Opus 4.5 agora pode solicitar uma captura de tela ampliada de alta resolução de regiões da tela para uma inspeção detalhada[45][46]. Nos apps e SDK do Claude da Anthropic, ele pode operar um computador virtual – clicando botões, rolando, digitando – e a nova função de zoom ajuda a ler textos pequenos ou elementos de interface que antes eram difíceis de ver[47][48]. Combinado com um conjunto de ferramentas disponíveis (shell bash, execução de código, navegador web, etc. na API do Claude[49][50]), o Claude 4.5 é claramente projetado para se destacar em 「agentes que usam um computador.」 Testadores iniciais relatam que o Opus 4.5 apresenta 「o melhor planejamento de tarefas de fronteira e chamada de ferramentas que já vimos,」 executando fluxos de trabalho de múltiplas etapas com menos interrupções[14][51]. Por exemplo, a Warp (uma empresa de ferramentas de desenvolvimento) viu uma melhoria de 15% no Terminal Bench com o Claude 4.5 em comparação com o Claude 4.1, citando seu raciocínio sustentado que resulta em melhor planejamento de longo prazo[52].
Em resumo, quando se trata de codificação e uso de ferramentas: - Claude Opus 4.5 está ligeiramente à frente em taxa de sucesso de codificação pura e é extremamente eficiente (resolvendo tarefas com significativamente menos tokens)[53][54]. É uma escolha de topo para refatoração em larga escala, migração de código e qualquer coisa onde o custo de tokens importa, graças a otimizações que reduzem o uso de tokens em 50–76% nos testes[55][54]. - GPT‑5.1 (Codex-Max) é um concorrente muito próximo que se integra profundamente com o fluxo de trabalho do desenvolvedor (CLI, extensões de IDE[56]). É conhecido por ser um parceiro de codificação confiável que pode funcionar por horas, e agora suporta várias janelas de contexto nativamente (o que significa que pode lidar perfeitamente com partes de um projeto em sequência)[28]. O ecossistema da OpenAI também torna a integração de ferramentas simples via chamadas de função. - Gemini 3 Pro traz a força do Google em integrar pesquisa, dados e entrada multimodal na codificação. Ele não apenas escreve código, mas pode operar software (o terminal, navegador, etc.) de forma eficaz. A vantagem do Google em multimodal significa que o Gemini pode incorporar contexto visual (mockups de design, diagramas) diretamente no processo de codificação – uma capacidade única entre esses modelos.
Todos os três estão avançando em direção a uma IA que não apenas escreve código, mas atua como um engenheiro autônomo. Isso é evidente em relatórios de agentes de IA que "aprendem com a experiência e refinam suas próprias habilidades" em um ciclo iterativo[57][58]. Um cliente descreveu agentes Claude 4.5 que se aprimoraram ao longo de 4 iterações para alcançar desempenho máximo em uma tarefa, enquanto outros modelos levaram 10 iterações e ainda não conseguiram igualar[59][60]. Esse tipo de comportamento adaptativo e uso de ferramentas está evoluindo rapidamente, e cada um desses modelos está na vanguarda.
Janelas de contexto amplas têm sido uma característica marcante do Claude da Anthropic, e o Opus 4.5 continua essa tendência com uma janela de contexto de 200.000 tokens para entrada (e até 64k tokens na saída)[61]. Isso é suficiente para inserir centenas de páginas de texto ou vários documentos longos de uma só vez. Em termos práticos, 200k tokens (~150.000 palavras) permite, por exemplo, inserir um código-fonte inteiro ou um livro no Claude para análise. A Anthropic utiliza isso para habilitar sessões de chat “infinitas” sem esbarrar em limites – de fato, o Claude 4.5 suporta conversas muito longas e pode lembrar muito mais do histórico do que a maioria dos modelos[62][63].
O Google agora superou isso com a janela de contexto de 1.048.576 tokens do Gemini 3 Pro (aproximadamente 1 milhão de tokens)[64][65]. Isso representa um salto de ordem de magnitude. O Gemini 3 pode "compreender vastos conjuntos de dados... incluindo texto, áudio, imagens, vídeo, PDFs e até repositórios de código inteiros com sua janela de contexto de 1M de tokens"[64][65]. Essencialmente, ele pode processar livros ou horas de áudio/vídeo como entrada. Na verdade, o modelo suporta entradas verdadeiramente multimodais – você pode fornecer um PDF extenso, além de várias imagens e clipes de áudio em um único prompt, desde que o total de tokens (após a codificação) esteja dentro do limite[64][66]. A documentação do Google lista que ele pode lidar com até 900 imagens em um único prompt, ou grandes vídeos (com quadros codificados como tokens)[67]. Esse contexto massivo é uma mudança de jogo para tarefas como revisar grandes bases de código, analisar longos contratos legais ou resumir horas de transcrições.
O GPT‑5.1 da OpenAI não anunciou explicitamente um contexto fixo tão grande quanto 1M, mas introduziu técnicas para ir além dos limites anteriores. O GPT‑4 ofereceu uma variante de contexto de 128k (no ChatGPT Enterprise e nos modelos GPT‑4 32k), e há indícios de que o GPT‑5 pode lidar com até 400k ou mais tokens em certas configurações[68][69]. Mais concretamente, o mecanismo de “compactação” da OpenAI no GPT‑5.1-Codex-Max permite que o modelo resuma continuamente partes mais antigas da conversa ou do histórico de tarefas, efetivamente dando-lhe memória de trabalho ilimitada em sessões longas[28][29]. Por exemplo, o GPT‑5.1 pode trabalhar por mais de 24 horas comprimindo periodicamente o contexto para liberar espaço e “repetindo esse processo até que a tarefa seja concluída.”[70][71]. Assim, enquanto a janela bruta do GPT‑5.1 pode ser da ordem de 128k tokens por prompt, seu design permite que ele ultrapasse isso encadeando contextos. A OpenAI também tem implementado recursos de cache de contexto e memória de conversação de longo prazo no ChatGPT, o que indica que o modelo pode lembrar partes anteriores de um diálogo mesmo quando elas excedem o limite nominal de tokens.
Para resumir as capacidades de contexto: - Claude Opus 4.5: ~200K janela de tokens (entrada) nativamente[61]. Isso é extremamente alto e adequado para a maioria das tarefas com documentos longos. O esquema de preços da Anthropic até leva isso em consideração: se você exceder 200k em uma única solicitação, você será cobrado a uma taxa de "1M context" mais alta[72][73] (o que implica que eles têm também um modo experimental 1M, possivelmente). - GPT‑5.1: Oficialmente até 128K nas implantações atuais para ChatGPT Pro[74], mas com compactação de contexto automática permitindo efetivamente milhões de tokens ao longo de uma sessão[28][29]. Podemos pensar nisso como suporte dinâmico de contexto longo em vez de uma janela fixa grande. - Gemini 3 Pro: Janela de 1M de tokens – a maior de qualquer modelo principal – e explicitamente projetada para contexto multimodal (texto+imagem+áudio+vídeo em um)[64][75]. Isso permite análises como "alimentar o modelo com uma palestra em vídeo inteira e vários artigos de pesquisa e fazer com que ele sintetize um resumo ou responda a perguntas", algo que seria inviável em contextos menores.
Tudo isso significa que as restrições de memória são menos um obstáculo com esses modelos do que nunca. Onde modelos anteriores tinham dificuldade em lembrar detalhes desde o início de um documento longo, esses podem armazenar grandes quantidades de informação de uma só vez. Isso beneficia especialmente tarefas como raciocínio de longo alcance (por exemplo, descobrir uma solução que requer referência a muitas partes de uma entrada) e diálogos abertos que se estendem por dezenas de turnos.
Com contextos tão extensos e raciocínios pesados, pode-se esperar que esses modelos sejam lentos, mas cada fornecedor introduziu maneiras de gerenciar a latência. A abordagem da OpenAI é a diferenciação de modelos: GPT‑5.1 Instantâneo vs GPT‑5.1 Pensante[76]. O modelo Instantâneo é otimizado para respostas rápidas e conversacionais – é aquele que “frequentemente surpreende as pessoas com sua jovialidade enquanto permanece claro e útil.”[77] É efetivamente a opção de baixa latência para conversas do dia a dia. O modelo Pensante, por outro lado, é o cavalo de batalha para consultas complexas, e, embora seja otimizado para ser mais rápido em tarefas fáceis, levará mais tempo em tarefas difíceis porque envolve um raciocínio mais profundo[78]. Este sistema de modelos de dois níveis permite que os usuários troquem velocidade por precisão sob demanda. Na prática, o GPT‑5.1 Instantâneo parece muito responsivo (semelhante ao GPT‑4 Turbo ou mais rápido), enquanto o GPT‑5.1 Pensante pode demorar visivelmente mais ao resolver um problema difícil, mas oferece respostas melhores.
A solução da Anthropic, como mencionado, é o parâmetro de esforço no Claude 4.5[24]. Por padrão, está configurado para "alto", o que significa que o modelo maximiza a minúcia (o que pode aumentar a latência). Os desenvolvedores podem ajustá-lo para médio ou baixo. Os dados da Anthropic sugerem que, com esforço médio, o Opus 4.5 pode resolver tarefas com a mesma precisão de antes, mas usando muito menos tokens, respondendo assim mais rapidamente[53][54]. Em um exemplo, o esforço médio igualou o desempenho do Claude Sonnet 4.5 no SWE-Bench enquanto usava 76% menos tokens de saída[53][54] – o que se traduz em latência e custo substancialmente menores. Portanto, se uma aplicação precisa de respostas rápidas, ajustar para esforço mais baixo gera respostas mais breves (mas ainda competentes). Com alto esforço, Claude pode demorar um pouco mais, mas produz saídas muito detalhadas. Relatos iniciais de usuários observam que os tempos de resposta do Claude são “estáveis e previsíveis” mesmo com esforço alto, embora obviamente respostas mais longas demorem mais para serem geradas[79].
O Gemini 3 Pro do Google possui um parâmetro thinking_level (com valores “baixo” ou “alto”), substituindo uma configuração anterior “thinking_budget” do Gemini 2[80]. Esse thinking_level permite ao usuário decidir se o Gemini deve fazer um raciocínio interno mínimo (para velocidade) ou máximo (para qualidade)[80]. O Google também oferece uma configuração media_resolution para entrada multimodal, onde você pode escolher processar imagens/vídeos em resolução mais baixa para resultados mais rápidos ou em alta resolução para melhor precisão visual (à custa de mais tokens e latência)[81]. Esses controles reconhecem que processar 1M de tokens ou imagens grandes é inerentemente lento – assim, os desenvolvedores podem ajustar a velocidade alterando o quanto o modelo “pensa” e a precisão da análise de mídia. Não há um benchmark público de latência lado a lado do GPT‑5.1 vs Claude vs Gemini, mas evidências anedóticas sugerem: - O GPT‑5.1 Instant é extremamente rápido para consultas normais (frequentemente finalizando em alguns segundos), e mesmo o modo Thinking recebeu otimizações de velocidade – a OpenAI observou que agora é “mais fácil de entender e mais rápido em tarefas simples” do que antes[78]. - Claude 4.5 em esforço alto é muito minucioso, o que pode significar saídas mais longas e um pouco mais de latência, mas em Médio/Baixo ele acelera consideravelmente. Um usuário do Reddit testando tarefas de codificação observou que o GPT‑5.1 e o Claude eram aproximadamente comparáveis em velocidade após as melhorias do GPT‑5.1, enquanto o GPT‑5 anterior era mais lento que o Claude em algumas tarefas longas[82][83]. - A latência do Gemini 3 Pro dependerá do contexto – alimentá-lo com centenas de imagens ou um milhão de tokens será naturalmente mais lento. No entanto, para tamanhos de prompt típicos, o Gemini é relatado como agil e a infraestrutura em nuvem do Google (TPUs) é otimizada para servir esses modelos globalmente. O Google não divulgou números explícitos de latência, mas a disponibilidade de um “Gemini 3 Flash” (uma variante rápida e de menor custo com contexto menor) sugere que o modelo Pro completo é destinado a tarefas pesadas em vez de rápidas perguntas e respostas[84].
Em resumo, todos os três modelos agora permitem um equilíbrio entre velocidade e raciocínio. Eles introduzem alavancas internas ou variantes de modelo para garantir que, se você não precisar de uma análise profunda, não ficará preso esperando. Para a maioria das aplicações gerais (prompts curtos, complexidade moderada), cada modelo pode responder quase em tempo real (alguns segundos). Para tarefas muito grandes ou complexas, você pode esperar tempos de execução de vários segundos ou até minutos, mas tem controle sobre isso por meio das configurações. Esta é uma evolução necessária à medida que as janelas de contexto e tarefas se tornam maiores – e é encorajador que, mesmo ao enfrentarem problemas mais complexos, esses modelos permaneçam utilizáveis em ambientes interativos.
A competição não é apenas sobre capacidade – o custo é um fator importante, e estamos vendo movimentos agressivos aqui. De fato, o lançamento do Opus 4.5 da Anthropic veio com um corte de preço dramático: as chamadas de API do Opus 4.5 custam $5 por milhão de tokens de entrada e $25 por milhão de tokens de saída[85][86]. Isto é ⅓ do preço do anterior Opus 4.1 (que era $15/$75 por milhão)[85]. A Anthropic reduziu deliberadamente os preços para tornar o Claude mais atraente para desenvolvedores, reconhecendo que os modelos Opus anteriores eram proibitivos em termos de custo[87][88]. Com o novo preço, usar o Claude para tarefas grandes é muito mais viável – agora é apenas ligeiramente mais caro por token do que os modelos menores da Anthropic (Claude Sonnet 4.5 custa $3/$15 por milhão)[89].
Como isso se compara? A família GPT‑5.1 da OpenAI é realmente mais barata por token. As chamadas de API do GPT‑5.1 custam cerca de $1,25 por milhão de tokens de entrada e $10 por milhão de tokens de saída para o modelo base[89]. O Gemini 3 Pro do Google está no meio: cerca de $2 por milhão de entrada e $12 por milhão de saída no nível padrão de contexto de 200k[89]. (Notavelmente, o Google planeja cobrar um prêmio se você utilizar além de 200k tokens até o contexto completo de 1M – aproximadamente $4/$18 por milhão nesse regime[90].) Esses números significam que a OpenAI atualmente oferece o menor preço por token para modelos de ponta. Por exemplo, gerar uma resposta de 1000 tokens pode custar ~$0,012 com o GPT‑5.1 vs ~$0,025 com o Claude 4.5 – cerca de metade do custo. O do Google seria ~$0,015. No entanto, o custo deve ser ponderado em relação à eficiência: se um modelo resolve uma tarefa com menos tokens ou menos tentativas, isso pode economizar dinheiro no geral. A Anthropic enfatiza que o Opus 4.5 é muito mais eficiente em termos de tokens, potencialmente reduzindo o uso (e o custo) em 50%+ em algumas tarefas, mantendo a precisão anterior[53][54]. Como apontou um usuário inicial, “O raciocínio médio do Opus 4.5 corresponde à qualidade do Sonnet 4.5, enquanto usa 76% menos tokens… ~60% de custo mais baixo.”[91]. Portanto, um desenvolvedor pode pagar um pouco mais por token pelo Claude, mas se o Claude usar muitos menos tokens para chegar à solução, a diferença total de custo diminui.
Vale também notar como a acessibilidade está sendo tratada: - Claude Opus 4.5 está disponível via API (para as categorias Pro/Max/Team do Claude) e nas principais plataformas de nuvem como AWS, Azure e Google Cloud[92]. Existe também um aplicativo consumidor Claude Pro onde o Opus pode ser usado de forma interativa. O custo que discutimos se aplica ao uso da API. - ChatGPT 5.1 é acessível para usuários finais através do ChatGPT (usuários Plus e Enterprise têm acesso ao GPT‑5.1 a partir de novembro de 2025), e via API da OpenAI para desenvolvedores. O preço da OpenAI para o uso do GPT‑5.1 no ChatGPT Plus é efetivamente uma assinatura fixa, enquanto a API é paga por uso por token (como acima). Eles também oferecem o ChatGPT Enterprise com uso gratuito até certos limites. - Gemini 3 Pro é acessível através da plataforma Vertex AI do Google (atualmente como um modelo de Pré-visualização)[93], via API do Gemini e em produtos como o aplicativo Gemini Chat e AI Studio[94][95]. O Google não listou publicamente os preços dos tokens em seu site, mas de acordo com relatórios, o preço da API está na faixa mencionada ($2/$12 por M tokens) semelhante ao preço do PaLM 2. O Google também integra o Gemini em recursos para consumidores (como Experiência de Pesquisa Generativa e ferramentas de IA do Google Workspace), onde os usuários finais não são cobrados diretamente por token.
Em resumo, a OpenAI oferece o preço bruto mais baixo para o uso de API de um modelo de ponta, enquanto a Anthropic reduziu massivamente seus preços para se manter competitiva (Opus agora custa 1/3 do seu preço antigo, embora ainda seja ~2× a taxa da OpenAI)[89]. Os preços do Google ficam entre os dois, com algum custo adicional para execuções de contexto enormes[89]. Para as empresas decidindo qual modelo usar, o custo por consulta dependerá da tarefa: um trabalho longo de codificação pode ter um custo semelhante entre os três se as alegações de eficiência do Claude forem verdadeiras, enquanto uma curta sessão de perguntas e respostas pode ser mais barata com o GPT‑5.1. É ótimo ver a concorrência reduzir os preços – tornando a IA avançada mais acessível.
Um aspecto notável é que o ajuste fino (no sentido tradicional de atualizar os pesos de um modelo com dados personalizados) não está prontamente disponível para esses modelos mais recentes - pelo menos ainda não. Nem o Claude Opus 4.5 nem o Gemini 3 Pro atualmente suportam o ajuste fino pelo usuário[96][97]. A OpenAI também não lançou o GPT-5.1 para ajuste fino (os documentos da API deles indicam "Ajuste fino: Não suportado" para os modelos da série GPT-5)[97][98]. Isso é compreensível: esses modelos são extremamente grandes e também cuidadosamente alinhados; o ajuste fino aberto poderia representar desafios de segurança e capacidade.
Em vez disso, o foco está na personalização baseada em prompts. A OpenAI, por exemplo, introduziu novas maneiras de personalizar o comportamento do ChatGPT na atualização 5.1. Eles adicionaram “presets de personalidade” e controles de tom – permitindo que os usuários escolham entre estilos predefinidos (como Desenvolvedor, Tutor, Cético, etc.) ou definam instruções personalizadas para moldar as respostas do assistente[99][100]. Isso não é ajuste fino dos pesos do modelo, mas sim um mecanismo flexível para fazer o modelo se comportar de maneiras específicas. Da mesma forma, a Anthropic fornece controles de estilo de Constitutional AI e prompts de sistema para direcionar o Claude, e com o Opus 4.5 eles observam que ele “mantém a continuidade do raciocínio” e pode seguir melhor papéis ou instruções complexas ao longo de sessões longas[23]. A API Gemini do Google permite que os desenvolvedores forneçam mensagens de sistema para definir contexto ou papel (semelhante ao prompt de sistema da OpenAI) e até mesmo incorporar armazenamento de contexto implícito e explícito para influenciar o modelo com informações de fundo relevantes[101][102]. Essencialmente, embora não se possa ajustar diretamente esses gigantes, você pode alimentá-los com seus dados em tempo de execução – por exemplo, colocando documentos na janela de contexto grande ou usando prompts aumentados por recuperação. O Vertex AI do Google oferece um RAG Engine (Geração Aumentada por Recuperação) que funciona com o Gemini para puxar documentos empresariais conforme necessário[103], alcançando muitos objetivos do ajuste fino (respondendo a perguntas específicas de domínio, etc.) sem alterar o núcleo do modelo.
Vale mencionar que a OpenAI introduziu modelos irmãos menores (como o GPT-5 Nano, etc.) e disponibilizou alguns modelos como código aberto (como openai-o3 e o4-mini)[104]. Esses modelos menores podem suportar ajustes finos e servir como versões destiladas do GPT-5 para tarefas especializadas. Mas quando se trata dos modelos principais comparados aqui, nenhum deles atualmente permite que você retreine o modelo completo em dados personalizados. Em vez disso, a estratégia é: usar engenharia de prompt, instruções de sistema, recuperação de conhecimento externo e parâmetros embutidos (como tom, nível de pensamento) para adaptar a saída do modelo às suas necessidades.
Do ponto de vista da pesquisa, isso pode mudar no futuro - métodos como LoRA (Adaptação de Baixa Ordem) ou outro ajuste fino eficiente em termos de parâmetros podem se tornar viáveis nesses grandes modelos. Mas, por enquanto, “ajuste fino” está efetivamente limitado ao próprio pipeline de treinamento do provedor. Por exemplo, a OpenAI ajustou finamente o GPT-5.1 a partir da base do GPT-5 com aprendizado por reforço adicional e ajuste de instrução (eles mencionam que o GPT-5.1 é “construído sobre uma atualização do nosso modelo de raciocínio fundamental”)[105], e a Anthropic usou técnicas como ajuste fino constitucional para alinhar Claude. Como usuário final ou desenvolvedor, você utiliza esses modelos em grande parte como estão, personalizando através da interface da API em vez de atualizações de pesos.
Embora os detalhes oficiais sejam escassos, podemos inferir algumas diferenças na filosofia de design: - Claude Opus 4.5 é presumivelmente um modelo Transformer denso, como seus predecessores. A Anthropic não divulgou a contagem de parâmetros, mas versões anteriores de Claude eram rumores de estar no mesmo nível do GPT‑4 em escala. O foco da Anthropic parece estar em dados/habilidades: eles treinaram o Claude 4.5 intensivamente em codificação, uso de ferramentas (shell, web) e diálogo, e aplicaram técnicas avançadas de alinhamento (aprendizado por reforço com feedback humano mais o método “AI Constitucional”).
O resultado é um modelo que “simplesmente entende” – anedoticamente com melhor julgamento em tarefas do mundo real[20][106]. Um aspecto arquitetônico interessante é como Claude lida com longos contextos: a Anthropic provavelmente usa estratégias de codificação posicional ou ajustes de atenção (como ALiBi ou atenção concentrada) para alcançar 200k tokens. E o fato de que traços de pensamento são preservados sugere uma arquitetura que trata sua própria cadeia de pensamento como parte do input futuro[23]. Claude 4.5 também é oferecido em hardware de nuvem com multiplicação de matrizes mais rápida e possivelmente paralelismo de modelo para lidar com o grande contexto de forma eficiente. - OpenAI GPT‑5.1 (e GPT‑5) são considerados uma combinação de um modelo base com cabeças/modos especializados.
O blog da OpenAI sugere que o GPT-5 é um “sistema unificado” composto por um modelo rápido e um “modelo de raciocínio mais profundo (GPT-5 Thinking) para questões mais difíceis” [107]. É possível que a arquitetura do GPT-5 inclua múltiplos módulos ou um estilo de Mixture-of-Experts que direciona consultas fáceis para um submodelo menor e consultas difíceis para um maior, melhorando assim a velocidade e a eficiência de custos. A menção de “duas versões atualizadas agora disponíveis no ChatGPT (Instant e Thinking)” [99] apoia isso. Nos bastidores, o GPT-5 provavelmente possui trilhões de parâmetros ou múltiplos modelos especialistas – um rumor inicial era que o GPT-4 tinha 16 especialistas de ~111B parâmetros cada (embora não confirmado). O GPT-5 pode ter ampliado os parâmetros ou um treinamento mais eficiente (a OpenAI investiu em novas técnicas de otimização e clusters maiores). Também expandiu um pouco as modalidades de entrada: o GPT-5 pode aceitar imagens como entrada (seguindo a visão do GPT-4), e possivelmente outras modalidades de forma limitada [68][108].
No entanto, a OpenAI tem sido mais conservadora com o multimodal na prática; eles separam coisas como Sora (um modelo para áudio e possivelmente outras modalidades) em vez de fundi-las completamente. Assim, o GPT‑5.1 é principalmente um modelo baseado em texto com alguma capacidade de visão. - Google Gemini 3 Pro é explicitamente multimodal desde o início[109][110]. A família Gemini (Gemini 1, 2, 3) foi projetada pelo Google DeepMind para lidar com texto, visão e mais em um modelo unificado. Provavelmente incorpora codificadores de visão e processamento de áudio dentro da arquitetura do modelo.
O relatório de pesquisa do Google ou dicas (se forem publicadas) podem detalhar que o Gemini usa uma combinação de backbones de transformadores – talvez um para linguagem, outro para visão, com um espaço de representação compartilhado. Os resultados (como o estado da arte em benchmarks multimodais[17]) sugerem uma integração muito estreita. Outro aspecto é o uso de ferramentas: o DeepMind teve trabalhos anteriores em agentes adaptativos (por exemplo, AlphaGo, robótica, etc.), e Demis Hassabis sugeriu que técnicas desses domínios influenciariam o design do Gemini. Por exemplo, o Gemini pode incorporar aprendizado por reforço ou algoritmos de planejamento para aumentar suas capacidades "agêncicas"[109][111]. O fato de poder operar um computador e resolver tarefas interativas (benchmarks como Terminal, Máquina de venda automática, etc.) sugere uma arquitetura ou rotina de treinamento que envolveu simulações agêncicas. Também vimos menção a “assinaturas de pensamento” e validação mais rigorosa para o uso de ferramentas em múltiplas etapas nos documentos do Gemini[112][113] – isso pode ser um recurso arquitetônico para manter o comportamento de chamada de ferramentas do modelo confiável (talvez um módulo separado verificando cada pensamento/ação). Finalmente, o contexto de 1M do Gemini provavelmente exigiu inovação arquitetônica – possivelmente combinando mecanismos de recuperação ou atenção em blocos para que não atenda de forma quadrática a mais de um milhão de tokens de uma vez.
Em essência, Claude, GPT-5.1 e Gemini são todos sistemas de IA massivos baseados em Transformer com várias funcionalidades adicionais. As arquiteturas exatas são proprietárias, mas cada um foi otimizado para prioridades ligeiramente diferentes: Claude para contextos muito longos e confiabilidade em codificação/agentes, GPT-5.1 para uma experiência de chat equilibrada com raciocínio adaptativo, e Gemini para compreensão multimodal ampla e tarefas complexas mediadas por ferramentas.
Estamos testemunhando uma convergência empolgante na fronteira da IA: Claude Opus 4.5, ChatGPT 5.1 e Gemini 3 Pro representam “modelos de fronteira” que estão expandindo os limites do que a IA pode fazer, cada um com um sabor único. Claude 4.5 emerge como o especialista em codificação e agentes – é o modelo que você pode chamar para refatorar todo o seu código durante a noite ou controlar uma planilha por uma hora. Está afinado para “trabalho profundo” e agora mais acessível graças a preços mais baixos[85][86]. ChatGPT 5.1 continua o legado da OpenAI de ampla capacidade com refinamento – ele se destaca em conversação e instruções, além de ser um solucionador de problemas e codificador formidável (especialmente com a variante Codex-Max)[11]. Suas melhorias em seguir a intenção do usuário e oferecer personalização tornam-no um parceiro de IA muito amigável[19]. Gemini 3 Pro, por outro lado, parece um vislumbre do futuro: é verdadeiramente multimodal e exibe habilidades de raciocínio que se aproximam do que se poderia chamar de “protótipos de AGI” (com o modo Deep Think enfrentando problemas anteriormente considerados insolúveis pela IA)[114][111]. Com um contexto de 1M e integração no ecossistema Google, o Gemini pode ser o núcleo de aplicações que misturam texto, imagens e ações de forma fluida.
Alguns pontos-chave deste cenário:
O desempenho bruto agora depende da tarefa. Não existe um modelo que seja “o melhor em tudo”; ao invés disso, observamos um padrão de alternância. O Claude 4.5 lidera em benchmarks de codificação[11], enquanto o Gemini 3 lidera em raciocínio lógico e tarefas multimodais[5][17], e o GPT-5.1 está essencialmente empatado em testes de conhecimento e oferece a experiência de conversação mais refinada. As diferenças são relativamente estreitas em muitas áreas (frequentemente apenas alguns pontos percentuais), o que é impressionante considerando o quanto esses modelos superaram benchmarks anteriores e até mesmo padrões humanos.
Contexto e persistência são tão importantes quanto a precisão bruta. A capacidade de manter longas conversas ou lidar com documentos extensos sem perder o contexto é uma grande vantagem de usabilidade. Aqui, o Google estabeleceu um novo padrão (1M tokens, entrada de vários documentos)[64], mas a Anthropic e a OpenAI têm suas soluções (200k tokens e compactação respectivamente[61][29]). Isso significa que os usuários podem esperar muito menos interrupções do tipo “desculpe, limite de contexto” e podem usar esses modelos para tarefas de sumarização ou análise de dados em grande escala.
Adaptabilidade vs. ajuste fino: Mesmo que ainda não possamos ajustar esses gigantes, os diversos controles (níveis de esforço, predefinições de personalidade, ferramentas do sistema) dão a desenvolvedores e usuários muita influência sobre os resultados sem precisar de re-treinamento[24][100]. Essa tendência pode continuar: futuros modelos podem ter controles ainda mais modulares (por exemplo, ativar um modo “estritamente factual” ou um modo “criativo” sem precisar de modelos separados). - Custo está indo na direção certa – para baixo. O fato de a Anthropic ter sentido a necessidade de reduzir os preços do Opus em 2/3, e a OpenAI e o Google estarem competindo nos preços dos tokens, mostra que a competição está beneficiando os usuários[85][89]. Executar tarefas em larga escala (milhões de tokens) ainda não é barato, mas está se tornando muito mais razoável. Agora é plausível que uma pequena startup use um modelo de ponta em um grande conjunto de dados sem uma conta astronômica, o que pode estimular mais inovação.
No final, o “melhor” modelo depende das suas necessidades. Se você precisa de compreensão multimodal ou o melhor raciocínio em problemas difíceis de lógica/matemática, o Gemini 3 Pro do Google atualmente tem uma vantagem. Se você precisa de um par programador de IA ou agente para automatizar tarefas de software, o Claude Opus 4.5 da Anthropic pode oferecer os melhores resultados (com um estilo de saída para código, talvez, mais previsível). Se você quer um IA generalista que seja versátil, confiável e econômico para uma ampla gama de tarefas, o ChatGPT 5.1 continua sendo uma escolha fantástica com o apoio do ecossistema da OpenAI.
O que está claro é que todos os três modelos estão se impulsionando – e ao campo – para frente. Como uma análise observou, avaliar novos LLMs está se tornando mais difícil porque cada nova geração está apenas um pequeno passo à frente da anterior[115][116]. Mas esses pequenos passos estão se acumulando em algo profundo: modelos de IA que se aproximam da competência em nível profissional em programação, superam especialistas humanos em certos exames[117], lidam com múltiplas modalidades de forma fluida e podem sustentar interações longas. A era das IAs de uso geral, com contexto e capacidades aparentemente infinitas, está verdadeiramente em andamento, e Claude 4.5, GPT‑5.1 e Gemini 3 Pro estão liderando o caminho.
Fontes: baseado em anúncios oficiais e documentação da Anthropic[118][11], OpenAI[2][28], e Google DeepMind[17][64], bem como resultados de benchmark e insights relatados por terceiros renomados[11][13]. As reivindicações e pontuações de cada modelo foram citadas dessas fontes para garantir precisão.
[1] [14] [15] [16] [20] [40] [51] [52] [59] [60] [62] [63] [87] [88] [92] [118] Apresentando o Claude Opus 4.5 \ Anthropic
https://www.anthropic.com/news/claude-opus-4-5
[2] [19] [76] [77] [78] [104] GPT-5.1: Um ChatGPT mais inteligente e conversacional | OpenAI
https://openai.com/index/gpt-5-1/
[3] [4] [5] [6] [7] [8] [9] [10] [13] [17] [18] [21] [22] [32] [33] [34] [35] [44] [94] [95] [109] [110] [111] [114] Gemini 3: Apresentando o mais recente modelo de IA Gemini do Google
https://blog.google/products/gemini/gemini-3/
[11] [53] [54] [55] [57] [58] [85] [86] [106] Claude Opus 4.5 da Anthropic chegou: IA mais barata, chats infinitos e habilidades de codificação que superam humanos | VentureBeat
https://venturebeat.com/ai/anthropics-claude-opus-4-5-is-here-cheaper-ai-infinite-chats-and-coding
[12] [26] [27] [28] [29] [36] [37] [38] [39] [56] [70] [71] [105] Construindo mais com GPT-5.1-Codex-Max | OpenAI
https://openai.com/index/gpt-5-1-codex-max/
[23] [24] [25] [45] [46] [47] [48] [49] [50] Novidades no Claude 4.5 - Claude Docs
https://platform.claude.com/docs/en/about-claude/models/whats-new-claude-4-5
[30] [31] [41] [61] [89] [90] [115] [116] Claude Opus 4.5, e por que avaliar novos LLMs está se tornando cada vez mais difícil
https://simonwillison.net/2025/Nov/24/claude-opus/
[42] [43] Gemini 3 Pro - Abordagem de Avaliações, Metodologia e Abordagem v2
http://deepmind.google/models/evals-methodology/gemini-3-pro
[64] [65] [66] [67] [75] [80] [81] [93] [96] [101] [102] [103] [112] [113] Gemini 3 Pro | IA Generativa no Vertex AI | Documentação do Google Cloud
https://docs.cloud.google.com/vertex-ai/generative-ai/docs/models/gemini/3-pro
[68] GPT-5 Explicado: Recursos, Desempenho, Preços e Casos de Uso em ...
https://www.leanware.co/insights/gpt-5-features-guide
[69] LLMs com as maiores janelas de contexto - Codingscape
https://codingscape.com/blog/llms-with-largest-context-windows
[72] Preços - Claude Docs
https://platform.claude.com/docs/en/about-claude/pricing
[73] Claude Opus 4.5 vs Sonnet 4.5: Revolução de Preços e Desempenho ...
[74] Limites da janela de contexto do GPT-5 no ChatGPT - 8K para usuários gratuitos,
https://x.com/rohanpaul_ai/status/1953549303638557183
[79] Claude Sonnet 4.5 vs GPT-5: desempenho, eficiência e preços ...
https://portkey.ai/blog/claude-sonnet-4-5-vs-gpt-5
[82] Testei o GPT-5.1 Codex contra o Sonnet 4.5, e é sobre ... - Reddit
https://www.reddit.com/r/ClaudeAI/comments/1oy36ag/i_tested_gpt51_codex_against_sonnet_45_and_its/
[83] GPT-5.1 Codex vs. Claude 4.5 Sonnet vs. Kimi K2 Thinking
[84] O Fim da Lei de Moore para IA? Gemini Flash Oferece um Aviso
https://news.ycombinator.com/item?id=44457371
[91] Claude Opus 4.5 é MUITO MAIS BARATO que Opus 4.1 - Reddit
https://www.reddit.com/r/singularity/comments/1p5pdjq/claude_opus_45_is_much_cheaper_than_opus_41/
[97] models/gpt-5 - Modelo - OpenAI API
https://platform.openai.com/docs/models/gpt-5
[98] O que há de novo no Azure OpenAI nos Modelos Microsoft Foundry?
https://learn.microsoft.com/en-us/azure/ai-foundry/openai/whats-new?view=foundry-classic
[99] [100] OpenAI caminha em uma corda bamba complicada com as oito novas personalidades do GPT-5.1
[107] Apresentando o GPT-5 - OpenAI
https://openai.com/index/introducing-gpt-5/
[108] GPT-5: Novos Recursos, Testes, Benchmarking e Mais - DataCamp
https://www.datacamp.com/blog/gpt-5
[117] O GPT-5 acabou de passar no exame médico mais difícil do mundo, e ... - Reddit