
Autor: Boxu Li
A startup europeia de IA, Mistral AI, lançou o Devstral 2, um modelo de linguagem de ponta focado em codificação. Lançado em dezembro de 2025, o Devstral 2 chega como um modelo de peso totalmente aberto, o que significa que seus pesos estão disponíveis publicamente sob licenças permissivas[1]. Este lançamento destaca a tentativa da Mistral de desafiar os gigantes da IA em tarefas de codificação, oferecendo aos desenvolvedores uma alternativa aberta aos modelos proprietários como o Codex da OpenAI e o Claude da Anthropic. Abaixo, exploramos a arquitetura, capacidades, usos reais do Devstral 2 e sua importância no cenário de IA global em mudança.
O Devstral 2 representa a próxima geração da família de modelos de codificação da Mistral, introduzido em duas variantes[1]:
· Devstral 2 (123B parâmetros) – um modelo Transformer denso com 123 bilhões de parâmetros e uma enorme janela de contexto de 256.000 tokens[2]. Este modelo grande é voltado para implementações de alto nível e tarefas complexas, exigindo pelo menos quatro GPUs H100 (aceleradores de IA de ponta da NVIDIA) para inferência em tempo real[3].
· Devstral Small 2 (24B parâmetros) – um modelo reduzido de 24B que mantém o comprimento de contexto de 256K, mas é leve o suficiente para rodar em hardware de consumidor ou em uma única GPU[4][5]. Esta versão “Small” torna viável a implantação local e na borda, trocando um pouco de desempenho máximo por praticidade.
Arquitetura e Recursos: Ao contrário de alguns modelos concorrentes que empregam técnicas massivas de Mixture-of-Experts (MoE), o Devstral 2 é um Transformer denso, o que significa que todos os 123 bilhões de parâmetros podem ser utilizados por inferência. Apesar de não usar MoE sharding, ele iguala ou supera o desempenho de modelos MoE muito maiores, focando no treinamento eficiente e na gestão de contexto[6]. Tanto o Devstral 2 quanto seu pequeno irmão suportam entradas multimodais – notavelmente, eles podem aceitar imagens junto com código, permitindo casos de uso de visão e código, como analisar diagramas ou capturas de tela em tarefas de software[7]. Eles também suportam recursos padrão da indústria, como preenchimento de chat, chamadas de funções e edição de código em linha (por exemplo, suporte para preenchimento no meio para inserção de código) como parte da API do Mistral[8][9].
Dados de Treinamento: Embora a Mistral não tenha detalhado publicamente toda a receita de treinamento, o Devstral 2 foi claramente otimizado para tarefas intensivas em código. É descrito como "um modelo de texto de nível empresarial que se destaca no uso de ferramentas para explorar bases de código [e] editar múltiplos arquivos," ajustado para impulsionar agentes autônomos de engenharia de software[10]. Podemos inferir que trilhões de tokens de código fonte, documentação e texto técnico foram usados no treinamento – provavelmente extraídos de repositórios de código aberto (similar a como modelos concorrentes foram treinados com uma mistura de 80–90% de código e o restante em linguagem natural[11]). O resultado é um modelo fluente em centenas de linguagens de programação e hábil em entender grandes projetos de código.
Formato de Lançamento & Licença Open-Source: Crucialmente, a Mistral continua sua filosofia de “peso aberto”[12]. Os pesos do modelo Devstral 2 são liberados abertamente para qualquer um baixar e executar. O modelo primário de 123B é fornecido sob uma licença MIT modificada, enquanto o Devstral Small de 24B usa uma licença Apache 2.0[13][1]. Ambas as licenças são altamente permissivas, permitindo uso comercial e modificação (o MIT modificado provavelmente adiciona algumas clarificações de uso). Ao abrir o código desses modelos, a Mistral visa “acelerar a inteligência distribuída” e garantir amplo acesso à IA de ponta[1]. Os desenvolvedores podem hospedar os modelos por conta própria ou usar a API da Mistral. Durante um período inicial, a API do Devstral 2 é gratuita para testes, com preços a serem definidos posteriormente em $0.40 por milhão de tokens de entrada e $2.00 por milhão de tokens de saída (e tarifas ainda mais baixas para o modelo Small)[14][15]. A disponibilidade aberta dos pesos significa que as comunidades também podem ajustar e integrar o modelo sem dependência de fornecedor.

Devstral 2 é projetado especificamente para fluxos de trabalho de desenvolvimento de codificação e "agente". Ele não apenas gera código, mas pode navegar, editar e depurar autonomamente bases de código inteiras usando ferramentas. O modelo foi criado para lidar com projetos de múltiplos arquivos: pode carregar contexto de muitos arquivos de origem, rastrear dependências de todo o projeto e até orquestrar mudanças entre arquivos em uma refatoração[16]. Por exemplo, Devstral pode localizar onde uma função é definida, propagar atualizações para todas as chamadas e corrigir bugs resultantes – comportando-se como um desenvolvedor júnior inteligente ciente de todo o repositório. Ele detecta erros na execução, refina sua saída e repete até que os testes passem[17]. Este nível de consciência contextual e refinamento iterativo está no cerne dos chamados assistentes de "codificação vibe", colocando Devstral 2 em competição com IAs de codificação especializadas como Codex da OpenAI, Code Llama da Meta e novos codificadores agentes como DeepSeek-Coder e Kimi K2.
Desempenho de Benchmark: Nos benchmarks de codificação, o Devstral 2 está entre os modelos de melhor desempenho globalmente. A Mistral relata que o Devstral 2 atinge 72,2% na suite SWE-Bench (Verificada)[2]. O SWE-Bench é um conjunto rigoroso de tarefas de programação do mundo real, onde as soluções são verificadas quanto à correção, semelhante a uma versão avançada do teste HumanEval da OpenAI. Para contexto, o Codex (2021) original da OpenAI resolveu apenas ~28,8% dos problemas mais simples do HumanEval pass@1[18] – um testemunho de quanto a IA de codificação avançou. Até mesmo o Code Llama 34B (2023) da Meta, um dos melhores modelos abertos de seu tempo, alcançou ~53,7% no HumanEval[19]. Os 72% do Devstral 2 no mais difícil SWE-Bench indicam que ele supera dramaticamente esses predecessores. Na verdade, a precisão do Devstral está se aproximando do nível dos gigantes proprietários de hoje; o mais recente Claude Sonnet 4.5 da Anthropic (um modelo especializado em codificação) e o Gemini do Google estão na faixa dos 70% a 80% em benchmarks de codificação similares[20].
Desempenho do modelo de codificação aberto vs proprietário: No teste SWE-Bench Verified, Devstral 2 (72,2%) e seu irmão de 24B (68,0%) estão entre os principais modelos de código aberto. Eles diminuem a diferença com líderes proprietários como Claude Sonnet 4.5 e GPT-5.1 Codex (os mais recentes da Anthropic e OpenAI, ~77%[20]). Impressionantemente, Devstral 2 alcança isso com uma fração dos parâmetros de alguns concorrentes. Por exemplo, o DeepSeek V3.2 da China (um modelo MoE com ~236B de parâmetros totais) supera ligeiramente Devstral em precisão (~73,1%), mas Devstral usa apenas 1/5 dos parâmetros totais[6]. Da mesma forma, Kimi K2 da Moonshot (um MoE de 1 trilhão de parâmetros da China) marcou ~71–72% ativando 32B de especialistas[21] – Devstral 2 iguala com um modelo denso de 123B, muito menor em escala. Esta eficiência é refletida no gráfico acima: Devstral 2 (barra vermelha) oferece precisão quase de ponta enquanto é 5× menor que o DeepSeek e 8× menor que o Kimi K2[6]. Em outras palavras, a Mistral provou que modelos compactos podem rivalizar com modelos muito maiores[22], o que é promissor para uma implantação econômica.
Em comparações lado a lado, o Devstral 2 já supera alguns rivais abertos em testes qualitativos. Em um desafio de codificação frente a frente facilitado por um avaliador independente, o Devstral 2 teve uma taxa de vitória de 42,8% contra apenas 28,6% de derrotas quando comparado ao DeepSeek V3.2[23] – demonstrando uma vantagem clara na qualidade de geração de código. No entanto, contra o Claude Sonnet 4.5 da Anthropic, o Devstral ainda perdeu mais do que ganhou[23], indicando que ainda existe uma diferença entre modelos abertos e os melhores modelos fechados. A Anthropic até mesmo promove o Claude Sonnet 4.5 como “o melhor modelo de codificação do mundo” com uma capacidade excepcional de construir agentes de software complexos[24]. A boa notícia para os entusiastas de código aberto é que o Devstral 2 reduz significativamente essa diferença. A Mistral observa que o Devstral atinge taxas de sucesso no uso de ferramentas comparáveis aos melhores modelos fechados – o que significa que ele pode decidir quando chamar uma API, executar um comando ou buscar documentação com a mesma destreza dos concorrentes[25]. Essa capacidade agente é crucial para automatizar tarefas de codificação além da conclusão de código estático.
Vale a pena destacar também a eficiência de custo do Devstral 2. Graças ao seu tamanho reduzido e design otimizado, a Mistral afirma que o Devstral é até 7× mais econômico do que o Claude Sonnet da Anthropic em tarefas de codificação do mundo real[26]. Aqui, eficiência refere-se ao cálculo necessário por resultado bem-sucedido – o Devstral pode alcançar resultados semelhantes com menos FLOPs ou custos de nuvem mais baixos, uma característica atraente para startups e equipes com orçamento limitado.
Devstral 2 não é apenas uma conquista de pesquisa; é projetado para ser imediatamente útil para desenvolvedores de software de todos os tipos – desde programadores independentes até grandes equipes empresariais. A Mistral emparelhou o modelo com o Mistral Vibe CLI, um novo assistente de linha de comando que transforma o Devstral em um parceiro prático de codificação[27]. Este CLI (disponível como uma extensão de IDE e ferramenta de código aberto) permite que os desenvolvedores conversem com a IA sobre seu código, peçam alterações e até executem comandos, tudo dentro do seu ambiente de programação[28][29]. Na prática, o Vibe CLI pode ler os arquivos do seu projeto, entender o status do git e manter memória persistente da sua sessão para evitar repetir contexto[30]. Por exemplo, um desenvolvedor poderia digitar: “Adicionar um módulo de autenticação de usuário” e o Vibe geraria os arquivos necessários, modificaria a configuração, executaria npm install para dependências e até realizaria testes – essencialmente automatizando tarefas de codificação em várias etapas seguindo instruções em linguagem natural. Esse tipo de assistente de desenvolvimento integrado pode reduzir pela metade os tempos de ciclo de pull-request ao lidar com tarefas de boilerplate e refatoração de forma autônoma[31].
Para desenvolvedores individuais e pequenas equipes, o Devstral 2 (via Vibe CLI ou editores como o VS Code) pode aumentar dramaticamente a produtividade. Ele fornece completações de código instantâneas e conselhos de depuração, similar ao GitHub Copilot, mas com uma maior capacidade de lidar com mudanças em todo o projeto. Ele também suporta pesquisa inteligente de código: usando um modelo de embeddings e linguagem natural, pode encontrar onde uma função é utilizada ou sugerir trechos relevantes (anteriormente, Mistral desenvolveu um modelo de pesquisa de código chamado “Codestral Embed” para esse propósito[32]). A memória conversacional persistente do modelo significa que ele pode lembrar discussões anteriores sobre um bug ou recurso durante uma sessão[30], fazendo a experiência parecer um pair-programming com um especialista que esteve sempre presente. E como o Devstral Small 2 pode rodar localmente (mesmo sem uma GPU, se necessário)[5], entusiastas e hackers independentes podem experimentar sem custos de nuvem ou acesso à internet – por exemplo, programando em um laptop durante um hackathon com um assistente de IA totalmente no dispositivo.
Para startups, adotar o Devstral 2 oferece uma maneira de construir recursos avançados de codificação de IA sem depender das APIs das Big Techs. Muitas startups estão correndo para incorporar programadores pares de IA ou automação de código em seus pipelines de devops. Com o modelo aberto do Devstral, elas podem hospedá-lo em seus próprios servidores ou usar serviços de inferência geridos pela comunidade, evitando taxas altas de API. A licença permissiva significa que podem ajustar o modelo em sua base de código proprietária e integrá-lo profundamente em seu produto (algo que não se pode fazer com modelos fechados como Codex ou Claude devido a restrições de uso). O modelo é compatível com implantação no local e ajuste personalizado desde o início[33]. Os primeiros adotantes da tecnologia de codificação da Mistral incluem empresas como Capgemini e SNCF (a ferrovia nacional francesa) que usaram a IA da Mistral para auxiliar em projetos de software[34]. Uma startup poderia usar o Devstral de forma semelhante para automatizar revisões de código, gerar boilerplate para novos microsserviços ou até mesmo construir geradores de casos de teste em linguagem natural – tudo isso mantendo o código sensível internamente.
Empresas podem se beneficiar enormemente do foco da Mistral em “fluxos de trabalho de nível de produção”. Grandes organizações frequentemente possuem sistemas legados e bases de código extensas. A janela de contexto expandida do Devstral 2 (256K tokens) significa que ele pode ingerir centenas de páginas de código ou documentação de uma só vez, tornando-o capaz de compreender toda a estrutura do repositório de código de uma empresa ou uma especificação de API grande de uma só vez. Isso é crucial para tarefas como modernização de código legado – o modelo pode sugerir refatorar um módulo de um framework desatualizado para um moderno, alterando dezenas de arquivos de forma consistente[17]. As empresas podem implantar o Devstral 2 por trás de seu firewall (a Mistral até o otimizou para os sistemas DGX da NVIDIA e os próximos sistemas NIM para facilitar a escalabilidade local[35]). Isso mitiga preocupações sobre privacidade de dados e conformidade, já que nenhum código precisa deixar a infraestrutura da empresa.
Além disso, confiabilidade e controle são essenciais para os departamentos de TI das empresas. Guillaume Lample, cofundador da Mistral, destacou que confiar em APIs de IA externas (como as da OpenAI) pode ser arriscado: "Se você é uma grande empresa, não pode se dar ao luxo de [uma API] que cai por meia hora a cada duas semanas"[36]. Ao possuir a implantação do modelo, as empresas garantem um tempo de atividade consistente e podem personalizar o desempenho conforme suas necessidades. A Mistral também oferece um console de administração para sua plataforma de codificação, fornecendo controles granulares, análise de uso e recursos de gerenciamento de equipe[37] – críticos para grandes organizações monitorarem e governarem o uso de IA. Em resumo, o Devstral 2 fortalece o conjunto de ferramentas empresariais: desde a automação da manutenção de código, até servir como um assistente de codificação conhecedor que ajuda a integrar novos desenvolvedores respondendo a perguntas sobre a base de código da empresa.
A Mistral AI, frequentemente apelidada de 「o laboratório de IA campeão da Europa」, rapidamente se tornou um jogador formidável. A recente avaliação da empresa de €11,7 bilhões (aproximadamente $13,8 bilhões) após uma importante rodada de financiamento liderada pelo gigante de semicondutores ASML [38] mostra a importância estratégica que a Europa coloca em ter sua própria liderança em IA. Ao contrário dos laboratórios americanos fortemente financiados (a OpenAI, segundo relatos, levantou $57 bilhões com uma avaliação impressionante de $500 bilhões [39]), a Mistral opera com comparativamente 「amendoins」 em financiamento [39]. Este contraste financeiro informou a estratégia da Mistral: modelos de peso aberto e eficiência ao invés de tamanho puro. Ao invés de se engajar em uma corrida de parâmetros com nomes como GPT-4 ou GPT-5, a filosofia da Mistral é que maior nem sempre é melhor – especialmente para casos de uso empresarial [40]. Como Lample explicou, muitas tarefas empresariais podem ser executadas por modelos menores e ajustados de maneira mais econômica e rápida [41]. O Devstral 2 exemplifica perfeitamente essa abordagem: é menor que os modelos de fronteira de código fechado, mas altamente otimizado para tarefas de codificação que interessam às empresas.
Ao abrir modelos de alto desempenho, a Mistral está se posicionando como a antítese ao paradigma fechado de IA dominado pelo Vale do Silício. Os modelos principais da OpenAI e da Anthropic, embora incrivelmente poderosos, são proprietários e acessados apenas via API. A Mistral rejeita explicitamente essa abordagem fechada: “Não queremos que a IA seja controlada por apenas alguns grandes laboratórios”, diz Lample[42]. Em vez disso, a Mistral quer democratizar a IA avançada liberando pesos e permitindo que qualquer pessoa execute e modifique os modelos. Essa postura rapidamente garantiu à Mistral um papel central no ecossistema de código aberto de IA. Sua suíte de modelos anterior (a família Mistral 3 lançada em 2 de dezembro de 2025) incluía um modelo multimodal MoE de 675 bilhões de parâmetros “Large 3” e nove modelos menores, todos lançados abertamente[43][44]. O Devstral 2 agora se baseia nessa fundação, visando o importante domínio da codificação. Cada lançamento consolida a reputação da Mistral como uma pioneira em IA aberta e de alta qualidade e uma fornecedora de modelos “de fronteira” que rivalizam com modelos fechados em capacidade[44].
Estratégicamente, o Devstral 2 também permite que a Mistral forme parcerias industriais e um ecossistema de desenvolvedores. Junto com o modelo, a Mistral anunciou integrações com ferramentas de agentes como Kilo Code e Cline (frameworks populares para agentes de codificação autônomos) para garantir que o Devstral seja facilmente utilizável nesses sistemas[45]. Eles também disponibilizaram a extensão Vibe CLI no Zed IDE[46], indicando uma abordagem de mercado inteligente ao encontrar os desenvolvedores onde eles já trabalham. Ao incorporar sua tecnologia nos fluxos de trabalho e fomentar contribuições da comunidade (o CLI é open-source Apache 2.0[47]), a Mistral está fortalecendo seu lugar no ecossistema. Este é um método diferente dos grandes laboratórios dos EUA - um que enfatiza a adoção e a confiança da comunidade. Isso posiciona a Mistral não apenas como um fornecedor de modelos de IA, mas como um construtor de plataforma para desenvolvimento assistido por IA, o que pode gerar efeitos de rede à medida que mais usuários e organizações adotam suas ferramentas.
O lançamento do Devstral 2 destaca uma mudança contínua para um mundo de IA multipolar, onde a liderança é distribuída entre os EUA, a China e a Europa, em vez de ser dominada por uma única região. Cada uma dessas esferas tem desenvolvido rapidamente modelos emblemáticos de IA, muitas vezes com filosofias diferentes:
· Estados Unidos – Modelos de Fronteira Fechada: Os EUA ainda lideram em capacidade de modelo de ponta, com a OpenAI e a Anthropic na vanguarda. O GPT-4 da OpenAI (e a aguardada série GPT-5) estabelecem o padrão para muitos benchmarks, mas permanecem totalmente proprietários. O Claude 4 e o Claude Sonnet da Anthropic se especializam em IA mais segura e focada em raciocínio, também de código fechado, mas cada vez mais voltada para fluxos de trabalho de codificação (por exemplo, Sonnet 4.5 com contexto de 1M-token para código)[48]. Essas empresas favorecem o acesso controlado à API e têm orçamentos massivos de computação – uma tendência que levantou preocupações no exterior sobre a dependência excessiva da IA americana. Curiosamente, mesmo nos EUA, empresas como a Meta desafiaram a tendência ao abrir o código dos modelos Llama, mas muitos dos sistemas mais avançados ainda são fechados.
· China – Aumento da Inovação Aberta: Nos últimos dois anos, os laboratórios de IA da China fizeram uma mudança estratégica para lançamentos de código aberto, em parte para ganhar adoção global e em parte para reduzir a dependência da tecnologia ocidental. Por exemplo, a Baidu recentemente lançou como código aberto um modelo multimodal (ERNIE 4.5-VL) sob a licença Apache 2.0, alegando que rivaliza com os mais recentes da Google e OpenAI em tarefas de visão-linguagem[49][50]. O modelo da Baidu usa uma arquitetura MoE para ser extremamente eficiente – ativando apenas ~3B de seus 28B parâmetros de cada vez – permitindo que rode em uma única GPU de 80GB[51][52]. Isso mostra a ênfase da China em praticidade de implantação e acesso aberto, em contraste com as empresas ocidentais que protegem seus modelos mais fortes. A Zhipu AI (uma startup chinesa de IA proeminente) segue uma abordagem semelhante de abertura: sua série DeepSeek-Coder é de código aberto e foi treinada em grandes conjuntos de dados de código bilíngue[53]. A versão mais recente do DeepSeek pode lidar com 338 linguagens de programação e 128K de contexto[54], e alega desempenho comparável ao GPT-4 Turbo em tarefas de código[11] – uma afirmação ousada apoiada por seus resultados de benchmark superando o GPT-4 em alguns desafios de codificação e matemática[55]. Além disso, o Kimi K2 da Moonshot AI, com 1 trilhão de parâmetros (MoE), é outro modelo aberto chinês projetado para geração de código e resolução de problemas agentivos[56]. Esses esforços indicam que a China está rapidamente produzindo seus próprios modelos da classe GPT-4, muitas vezes abertos ou semi-abertos, para fomentar um ecossistema local e competir globalmente, aproveitando o poder da colaboração aberta.
· União Europeia – Ofensiva de Peso Aberto do Mistral: A Europa, através do Mistral e de algumas outras iniciativas, está estabelecendo um terceiro pilar de liderança em IA. Os modelos do Mistral – desde o Grande MoE 3 até a nova série de codificação Devstral – são explicitamente posicionados como a resposta da Europa aos modelos fechados do exterior[12]. A abordagem da UE se apoia fortemente na abertura e confiança. Os formuladores de políticas europeias expressaram apoio à pesquisa em IA aberta, vendo-a como uma forma de assegurar a soberania tecnológica (para que as empresas da UE não fiquem totalmente dependentes de APIs dos EUA ou de tecnologia chinesa). O sucesso do Mistral em captar capital (com apoio de líderes da indústria europeia, como a ASML) e entregar modelos abertos de alto desempenho é uma prova de que IA de classe mundial pode ser construída fora do Vale do Silício. Também complementa as regulamentações da UE que enfatizam a transparência: modelos abertos permitem auditoria mais fácil e adaptação às normas locais. Com o Devstral 2, a Europa agora tem um modelo de código emblemático que pode competir com os melhores dos EUA (Claude, codificadores baseados em GPT) e da China (DeepSeek, Kimi). Ele incorpora uma abordagem multilateral ao progresso da IA, onde a colaboração e a inovação aberta são valorizadas ao lado do desempenho bruto.
Essa tendência multipolar em IA provavelmente beneficiará desenvolvedores e empresas globalmente. A competição força cada jogador a inovar – a OpenAI correrá para tornar o GPT-5 ainda mais poderoso, a Anthropic se concentrará em contexto e segurança enormes, os laboratórios chineses continuarão a abrir modelos com técnicas inovadoras (como visto com os eficientes modelos de visão MoE da Baidu), e a Mistral continuará avançando no estado da arte aberto enquanto permite amplo acesso. Por exemplo, após os lançamentos abertos da Mistral, vimos a Baidu adotando a licença permissiva Apache como um movimento competitivo[50], e, por outro lado, a Mistral agora está integrando técnicas avançadas como aquelas pioneiras na China (por exemplo, janelas de contexto longas, roteamento MoE em outros modelos).
Em um mundo de IA multipolar, os desenvolvedores têm mais opções. Eles podem escolher um modelo europeu de código aberto para privacidade, um modelo chinês para eficiência de custos ou uma API americana pela capacidade pura – ou combinar e misturar. Isso reduz a dominância de qualquer empresa ou país sobre a tecnologia de IA. Como a equipe da Mistral colocou, a missão é garantir que a IA não seja controlada por apenas alguns grandes laboratórios[42]. Com o lançamento do Devstral 2, essa visão dá um passo significativo adiante. A inovação em IA está se tornando um esforço global e colaborativo, muito parecido com o software de código aberto, e o "clima" é decididamente a favor da abertura e diversidade.
Mistral Devstral 2 chega em um momento crucial na IA – um momento em que a abertura e a colaboração estão provando seu valor contra incumbentes fechados. Para os desenvolvedores, isso significa um novo assistente de codificação poderoso que eles podem realmente possuir, ajustar e confiar. Para as organizações, oferece um caminho para alavancar capacidades de codificação de IA de ponta com maior controle sobre custos e dados. E para a indústria em geral, Devstral 2 é um lembrete de que o progresso da IA não está mais confinado a um monopólio do Vale do Silício. A Mistral da Europa, com sua ética de peso aberto, está surfando na onda do “vibe coding” e empurrando os limites do que modelos abertos podem fazer em produção[57][58]. À medida que a IA se torna cada vez mais multipolar, os verdadeiros vencedores serão aqueles de nós que constroem com esses modelos. Teremos um rico conjunto de modelos e agentes de IA à nossa disposição – do Devstral e além – para impulsionar a inovação no desenvolvimento de software e além. O lançamento do Devstral 2 não apenas fortalece a posição da Mistral, mas também empodera a comunidade global de desenvolvedores com IA de codificação de ponta em seus próprios termos. O próximo capítulo da IA, ao que parece, será escrito por muitas mãos, e a Mistral acaba de nos entregar uma caneta muito capaz.
Fontes: Mistral AI anúncio[1][2][23]; cobertura TechCrunch[57][4][38]; Figuras de benchmark e comparações de modelos[20][6][18][19]; Referências Anthropic e DeepSeek[59][48]; Relatório VentureBeat sobre Baidu[50][51]; Entrevista TechCrunch com Mistral[40][42].
[1] [2] [5] [6] [7] [15] [16] [17] [20] [22] [23] [25] [26] [29] [31] [33] [35] [45] [46] [47] Apresentando: Devstral 2 e Mistral Vibe CLI. | Mistral AI
https://mistral.ai/news/devstral-2-vibe-cli
[3] [4] [13] [14] [27] [28] [30] [38] [57] [58] Mistral AI surfa nas tendências de codificação de vibração com novos modelos de codificação | TechCrunch
https://techcrunch.com/2025/12/09/mistral-ai-surfs-vibe-coding-tailwinds-with-new-coding-models/
[8] [9] [10] Devstral 2 - Mistral AI | Mistral Docs
https://docs.mistral.ai/models/devstral-2-25-12
[11] [54] [55] [59] deepseek-ai/DeepSeek-Coder-V2-Instruct · Hugging Face
https://huggingface.co/deepseek-ai/DeepSeek-Coder-V2-Instruct
[12] [36] [39] [40] [41] [42] [43] [44] Mistral se aproxima dos grandes rivais de IA com novo modelo de fronteira aberto e modelos pequenos | TechCrunch
[18] HumanEval: Quando as Máquinas Aprenderam a Programar - Runloop
https://runloop.ai/blog/humaneval-when-machines-learned-to-code
[19] Code Llama: Modelos de Fundação Aberta para Código - alphaXiv
https://www.alphaxiv.org/overview/2308.12950v3
[21] [56] A Inteligência Artificial Moonshot da China Lança Modelo Kimi K2 com Trilhão de Parâmetros
https://www.hpcwire.com/2025/07/16/chinas-moonshot-ai-releases-trillion-parameter-model-kimi-k2/
[24] Apresentando Claude Sonnet 4.5 - Anthropic
https://www.anthropic.com/news/claude-sonnet-4-5
[32] [34] [37] Mistral lança um cliente de codificação vibe, Mistral Code | TechCrunch
https://techcrunch.com/2025/06/04/mistral-releases-a-vibe-coding-client-mistral-code/
[48] Novidades no Claude 4.5
https://platform.claude.com/docs/en/about-claude/models/whats-new-claude-4-5
[49] [50] [51] [52] Baidu acaba de lançar uma IA multimodal de código aberto que afirma superar o GPT-5 e o Gemini | VentureBeat
[53] [2401.14196] DeepSeek-Coder: Quando o Modelo de Linguagem Grande ...