Uma Análise da Macaron: Modelo “Pensante” Kimi K2: Avançando a IA Agente Aberta

Autor: Boxu Li

Introdução

O Kimi K2 da Moonshot AI é um modelo de linguagem grande (LLM) de código aberto revolucionário que ultrapassa os limites da IA “agêncica” – modelos que não apenas conversam, mas também pensam e agem. Revelado em meados de 2025, o Kimi K2 é um modelo de Mistura de Especialistas (MoE) com um total sem precedentes de 1 trilhão de parâmetros (32 bilhões ativos por inferência). Essa escala massiva, aliada a técnicas de treinamento inovadoras, permitiu que o Kimi K2 superasse modelos proprietários líderes, como o GPT-4.1 da OpenAI e o Claude (Opus 4) da Anthropic, em vários benchmarks complexos. Ao contrário de muitos LLMs anteriores que se concentravam em perguntas e respostas ou diálogos simples, o Kimi K2 é projetado para resolver problemas de forma autônoma – escrevendo código, utilizando ferramentas e executando planos de múltiplas etapas para concluir tarefas. Neste post, fazemos uma análise detalhada da arquitetura do modelo “pensante” atualizada do Kimi K2, suas inovações de treinamento e como ele se compara a modelos semelhantes. Também faremos conexões com conceitos discutidos no blog de tecnologia da Macaron (por exemplo, pilhas de raciocínio híbridas e estruturas de seguimento de instruções) e sugeriremos como a direção de P&D da própria Macaron – incluindo um novo modelo de texto RL+difusão – está alinhada com esses avanços.

Inovações Arquitetônicas: MoE em Escala de Trilhão com MuonClip

No núcleo do Kimi K2 está uma arquitetura de transformer Mixture-of-Experts. Em vez de uma rede densa monolítica, o MoE divide o modelo em muitos “especialistas” especializados, onde apenas um subconjunto é ativado por token. O Kimi K2 usa 384 especialistas com um roteamento top-2, o que significa que cada token passa por 8 especialistas selecionados (mais um especialista compartilhado) dos 384. Isso gera o efeito de um modelo com 1 trilhão de parâmetros, mantendo apenas 32 bilhões de parâmetros ativos por token – uma maneira eficiente de escalar. A arquitetura possui 61 camadas e uma dimensão de atenção de 7168, com uma janela de contexto inicialmente de até 128K tokens (enorme para os padrões da indústria). Notavelmente, o Kimi K2 reduziu o número de cabeças de atenção para melhorar a estabilidade em contextos longos, um ajuste prático para evitar divergência de treinamento em redes profundas.

Alcançar um modelo desse tamanho exigiu superar grandes desafios de otimização. Moonshot introduziu um novo otimizador chamado MuonClip, uma versão melhorada do otimizador de segunda ordem Muon. O MuonClip utiliza uma técnica inovadora de QK-clipping que escala dinamicamente as matrizes de projeção de consulta/chave para evitar o famoso problema de “exploding logits” em transformers. Graças a isso, Kimi K2 pôde ser pré-treinado em incríveis 15,5 trilhões de tokens sem picos de perda – um feito que seria quase impossível com a otimização convencional do AdamW. Em outras palavras, o modelo convergiu de forma estável em uma escala muito além do que os LLMs anteriores alcançaram, extraindo significativamente mais dados de treinamento para melhor conhecimento e habilidades. O uso do MuonClip e de outras técnicas de treinamento (como atualizações de alta hierarquia adaptadas à geometria de perda) deu ao K2 uma vantagem em eficiência de tokens, o que significa que ele aprendeu mais de cada token do que modelos anteriores. Esse foco na estabilidade e eficiência do treinamento ecoa alguns temas da pesquisa da Macaron – por exemplo, os Mind Labs da Macaron exploraram otimizadores de RL alternativos e estratégias de fine-tuning para domar modelos muito grandes. (Veja o Blog Tech da Macaron: “Scaling All-Sync RL with DAPO and LoRA” para saber como a Macaron conseguiu ajustar um modelo de 671 bilhões de parâmetros com 10× menos GPUs usando otimização personalizada.)

Pós-Treinamento Agente: Habilidades Sintéticas e RL Conjunto

O pré-treinamento estabeleceu uma base sólida para o Kimi K2, mas seu verdadeiro diferencial é o que veio depois do pré-treinamento. A Moonshot submeteu o K2 a um processo de pós-treinamento em várias etapas com o objetivo de incutir habilidades de raciocínio, uso de ferramentas e alinhamento. Uma etapa-chave foi um pipeline de síntese de dados agentica em larga escala. Aqui, a equipe gerou um grande número de exemplos de tarefas em múltiplas etapas: o modelo teve que autonomamente decompor problemas, chamar ferramentas, escrever e depurar código e produzir soluções corretas verificadas. Milhares de ferramentas reais e simuladas foram envolvidas, e cada tarefa vinha com um critério ou teste verificável por máquina para confirmar o sucesso. Importante, “verificadores” baseados em LLM revisaram as ações e saídas do modelo, filtrando falhas. Esta abordagem – que a equipe da Moonshot descreve como parte de uma “Economia de Verificadores” – garantiu que apenas trajetórias de raciocínio de alta qualidade se tornassem feedback de treinamento. É um pouco como ter um revisor de código automatizado ou verificador de provas matemáticas ao lado do modelo, em larga escala. Curiosamente, o próprio design do sistema do Macaron enfatiza uma ideia semelhante de raciocínio verificável: por exemplo, o pipeline de síntese de código autônomo do Macaron combina geração neural com verificações e testes simbólicos, uma abordagem híbrida que melhora a confiabilidade em relação à saída neural pura.

Após o treinamento sintético de uso de ferramentas, a Moonshot refinou ainda mais o K2 com uma etapa conjunta de aprendizado por reforço (RL). Durante o ajuste fino do RL, Kimi K2 pôde interagir com ambientes reais e simulados, recebendo recompensas por realizar tarefas. De maneira única, a Moonshot não se baseou apenas em modelos de recompensa estáticos; em vez disso, eles treinaram um modelo crítico junto ao K2 para avaliar suas respostas. Este crítico foi inicialmente treinado em tarefas objetivas (onde o sucesso é claro, como passar em testes unitários) antes de ser autorizado a avaliar aspectos subjetivos (utilidade, tom). Dessa forma, eles mitigaram o hacking de recompensas e mantiveram os incentivos do modelo alinhados com a correção verificável antes do estilo ou preferência. A fase de RL também incorporou medidas para estabilizar a geração de textos longos: K2 foi regularizado com um breve retorno ao seu objetivo de pré-treinamento (para evitar esquecer habilidades básicas), e técnicas como limitação de recompensas e decaimento de temperatura foram usadas para evitar os tipos de saídas longas e desviantes que podem afetar modelos ajustados por RL. O resultado final desse rigoroso pós-treinamento é que Kimi K2 se tornou altamente apto em raciocínio de múltiplas etapas e uso de ferramentas enquanto permanece confiável – essencialmente um “agente” que pode planejar e executar, e não apenas conversar. O regime de treinamento de Kimi K2 pode ser visto como uma incorporação de muitas melhores práticas convergentes: aprendizado supervisionado massivo, mais dados agentivos focados, além de um ajuste fino cuidadoso de RL para aprimorar a tomada de decisões do modelo.

Referências de Desempenho: Como Kimi K2 se Compara

Então, o que todas essas inovações trazem em termos de desempenho no mundo real? Por muitas medidas, o Kimi K2 estabeleceu um novo padrão elevado para modelos abertos. De acordo com o relatório técnico da Moonshot e avaliações independentes, K2-Instruct (a variante ajustada para instruções) oferece resultados de ponta entre LLMs de código aberto em tarefas complexas de codificação, raciocínio e múltiplas etapas. Na verdade, em vários benchmarks, o K2 não apenas lidera modelos abertos, mas iguala ou supera alguns modelos fechados famosos. Por exemplo, no SWE-Bench (Verificado) – um benchmark desafiador de codificação que mede se um modelo pode corrigir código com assistência de ferramentas – o Kimi K2 alcança 65,8% de precisão, superando o GPT-4.1 (54,6%) por uma ampla margem. Ele até supera o Claude 2 da Anthropic (Claude “Sonnet 4” marcou 54,2% em condições semelhantes) e chega perto do melhor desempenho “habilitado para pensar” do Claude (72,7%). Com algum cálculo adicional no momento do teste (por exemplo, várias tentativas em paralelo), o K2 pode aumentar sua pontuação nesse benchmark para 71,6%, essencialmente fechando a lacuna para o desempenho especializado do Claude.

Kimi K2 também se destaca em tarefas puras de codificação. No LiveCodeBench, um desafio de codificação de ponta a ponta, K2 alcançou 53,7% de precisão, superando o GPT-4.1 (44,7%), Claude Opus 4 (47,4%) e DeepSeek-V3 (46,9%) – um testemunho de sua habilidade em codificaçãomedium.com. Isso sugere que o treinamento do K2 em código e depuração (com todos aqueles verificadores) valeu a pena com um modelo que pode gerar código correto e executável mais frequentemente do que outros modelos. Outro resultado revelador vem do MATH-500, um benchmark de problemas matemáticos avançados: Kimi K2 atingiu 97,4% de precisão, superando o GPT-4.1 (que obteve 92,4%)medium.com. Resolver matemática com quase 97% de sucesso é notável, indicando as fortes habilidades de raciocínio do modelo em um domínio que geralmente requer pensamento lógico passo a passo. K2 tem pontuações igualmente impressionantes em tarefas como GPQA-Diamond (resolução geral de problemas) e várias competições de codificação. Sua pontuação de 27,1% no OJBench (um conjunto clássico de desafios de programação) é a mais alta entre os modelos abertos, mostrando que pode lidar com codificação algorítmica tradicional a um nívelmedium.com. E em um benchmark exigente e intensivo em conhecimento chamado Tau2, Kimi K2 alcançou 65,8%, superando com folga o GPT-4.1 (38,6%) e Claude 2 (45,2%)medium.com – aqui, a capacidade do K2 de usar ferramentas (como navegação na web ou calculadoras) provavelmente lhe deu uma vantagem significativa em responder a consultas relacionadas a telecomunicações.

Vale ressaltar que, embora o Kimi K2 se destaque nessas áreas, ele não é estritamente superior em tudo – uma visão imparcial é importante. Por exemplo, o Claude 2 ainda manteve uma pequena vantagem na versão mais difícil do benchmark de codificação SWE-Bench ao ser permitido “pensar” passo a passo (72,7% vs 65,8% do K2). E modelos como o GPT-4 ainda têm capacidades que o K2 não possui – notavelmente a compreensão multimodal (o GPT-4 pode ver imagens, enquanto o K2 não pode por enquanto) e possivelmente alguma finesse conversacional. Moonshot deliberadamente focou o K2 em tarefas textuais e agentivas, trocando coisas como transparência de raciocínio em cadeia e entradas multimodais por velocidade e especialização. A natureza open-source do Kimi K2, no entanto, dá-lhe uma vantagem única: qualquer pessoa pode usá-lo ou ajustá-lo, sem as taxas elevadas dos APIs proprietários. Moonshot oferece uma API para o K2 por uma fração do custo da OpenAI (na ordem de $2,50 por milhão de tokens vs $8 por milhão do GPT-4). Esta relação custo-benefício, combinada com desempenho de primeira linha em codificação e raciocínio, posiciona o K2 como uma alternativa open convincente aos modelos da classe GPT-4. De fato, observadores chamaram o Kimi K2 de “o lançamento de modelo de IA mais importante do ano” na arena open, marcando a resposta da China aos gigantes ocidentais de IA. Ele segue os passos de modelos como o DeepSeek da Alibaba, e em muitos aspectos ultrapassa o desempenho do DeepSeek (K2 superou a última versão do DeepSeek por ~20+ pontos em benchmarks de codificação chave). A conclusão é que Kimi K2 alcançou um novo nível de capacidade para modelos abertos, igualando ou superando os concorrentes em uma série de tarefas práticas – um avanço significativo no rápido cenário dos LLMs.

O Novo Modo de “Pensamento”: K2 com Cadeia de Pensamento

Talvez a atualização mais empolgante do Kimi K2 seja a introdução de um modelo especializado de K2 “Pensante” – essencialmente, uma versão do K2 que desacelera e raciocina em profundidade. O K2-Instruct original foi descrito como “de reflexo, sem pensar muito” – foi ajustado para fornecer respostas úteis rapidamente em uma única tentativa, o que é ótimo para latência, mas nem sempre para resolução de problemas complexos. Reconhecendo isso, a Moonshot lançou recentemente o Kimi-K2-Pensante, uma variante explicitamente projetada para raciocínio em várias etapas e uso de ferramentas em várias interações. No modo K2-Pensante, o modelo pode planejar autonomamente uma sequência de ações, envolver-se em uma cadeia de raciocínio interna mais longa e invocar ferramentas ou APIs externas para reunir informações antes de finalizar respostas. Tecnicamente, suporta até uma janela de contexto de 256K tokens (extremamente grande, para reter cálculos intermediários) e pode gerar um campo especial reasoning_content que traça seu processo de pensamento. Por exemplo, se solicitado a responder uma pergunta de pesquisa complexa, o K2-Pensante pode gerar um plano: dividir a consulta em subperguntas, fazer uma pesquisa na web (uma de suas chamadas de ferramenta), resumir os resultados, realizar cálculos e, em seguida, sintetizar uma resposta final – tudo enquanto registra essas etapas no reasoning_content. Relatórios iniciais indicam que o K2-Pensante pode autodecompor instruções, analisar dados (por exemplo, arquivos CSV ou JSON via ferramentas) e até gerar relatórios estruturados de forma autônoma. Isso efetivamente fecha a lacuna de uma limitação do K2 base: falta de suporte explícito para cadeia de raciocínio. Com o K2-Pensante, o modelo da Moonshot se aproxima de sistemas como a abordagem “Planejar e Resolver” do GPT-4 ou o raciocínio de IA Constitucional do Claude, onde o IA pode pensar em voz alta e iterar sobre problemas difíceis. É um passo significativo porque combina o poder bruto do K2 (aquela enorme base de conhecimento e habilidade de codificação) com um processo cognitivo semelhante a um agente para enfrentar tarefas que simplesmente não podem ser realizadas de uma só vez.

A introdução do K2-Thinking ressoa com ideias que exploramos no contexto do Macaron. Na arquitetura de raciocínio híbrido do Macaron, há uma ênfase em equilibrar respostas rápidas e reflexivas com raciocínios mais profundos e deliberativos dependendo da tarefa – essencialmente alternando entre a cognição “Sistema 1” e “Sistema 2”. O K2 agora incorpora esse princípio em dois modos: o modo reflexo original para respostas rápidas e o modo de pensamento para questões complexas. Além disso, o framework de seguir instruções do Macaron destacou o quão crítico é para assistentes de IA interpretar corretamente e decompor as instruções do usuário antes de agir (para segurança e precisão). O K2-Thinking claramente se alinha a isso: ao dividir explicitamente tarefas em subtarefas e chamadas de ferramentas, é menos provável que interprete mal um pedido ou pule uma etapa importante. Além disso, a capacidade do K2-Thinking de integrar APIs de ferramentas externas ecoa a filosofia do Macaron de que IAs pessoais devem se conectar com o mundo (calendários, dados da web, aplicativos) em vez de operar isoladamente. Em certo sentido, o Kimi K2 está evoluindo de um “cérebro” poderoso para algo mais parecido com um agente cognitivo completo, que é exatamente a direção que muitos na comunidade de IA (incluindo o Macaron) acreditam ser o futuro.

Comparação com Outros Modelos de Vanguarda

Com o Kimi K2 (e o novo modo de pensamento) em mãos, como a oferta da Moonshot se compara a outros modelos de ponta como OpenAI GPT-4, Anthropic Claude 2 ou o suposto Gemini do Google? Já vimos que K2 se mantém firme contra o GPT-4.1 e Claude 2 em benchmarks de codificação e raciocínio – uma conquista impressionante, dado que esses modelos tiveram a vantagem de dados fechados e maior tempo de desenvolvimento. É importante notar que o GPT-4 ainda possui pontos fortes, como entrada de visão e possivelmente um ajuste mais refinado de linguagem natural. Claude 2 (por exemplo, Claude Sonnet 4.5) é conhecido por suas respostas longas “constitucionalmente” alinhadas e longa autonomia (lidando com sessões muito longas), e de fato, Claude apresentou taxas de aprovação ligeiramente mais altas em algumas tarefas profundamente agentes quando permitido pensamento ilimitado. No entanto, o K2 reduz essa diferença com o modo de Pensamento ao adquirir capacidades semelhantes de longo prazo. Em termos de conhecimento bruto e matemática, o K2 pode até ter uma vantagem (como evidenciado por sua pontuação quase perfeita no MATH-500). O Gemini do Google, que ainda não foi lançado até o momento desta escrita, é esperado ser um modelo multimodal, altamente otimizado, possivelmente excedendo o GPT-4. O Kimi K2 ainda não possui multimodalidade (sem compreensão de imagem ou áudio), então essa é uma área em que pode ficar atrás dos modelos de próxima geração. Mas a abordagem modular de uso de ferramentas do K2 pode compensar isso, permitindo que ele se conecte a modelos de visão ou outros como ferramentas (pode-se imaginar emparelhar o K2 com uma ferramenta de legendagem de imagens para imitar o raciocínio multimodal).

Também é preciso considerar implantação e custo. Kimi K2, por ser de código aberto (com licença permissiva), pode ser auto-hospedado ou adaptado por qualquer pessoa. Seu design MoE significa que executá-lo não é barato - você precisaria de pelo menos várias GPUs A100 ou similares para servi-lo com baixa latência. A Moonshot forneceu versões quantificadas (por exemplo, um quant GGUF) que podem rodar em configurações menores para experimentação, mas para realmente aproveitá-lo em produção em escala total de 1T, é necessário hardware sério. Este é um compromisso: o GPT-4 só é acessível via API (sem auto-hospedagem), mas o trabalho pesado está oculto na nuvem; com o K2, você gerencia a infraestrutura, mas ganha controle. Para empresas preocupadas com privacidade de dados ou personalização, o K2 oferece um nível de independência que modelos fechados não oferecem. Os blogs de engenharia da Macaron frequentemente destacaram pontos semelhantes ao integrar modelos – equilibrando a capacidade bruta de um modelo com considerações práticas, como latência, custo e controle. No caso da Macaron, eles experimentaram tanto com APIs fechadas (como Claude) quanto com modelos abertos (como DeepSeek) para alimentar diferentes recursos. Uma tendência provável está surgindo: implantações híbridas, onde um modelo aberto como o K2 é usado para certas tarefas (por exemplo, codificação, onde se destaca) e um modelo especializado para outras (talvez um modelo de diálogo menor para conversas casuais ou um modelo de visão para imagens).

Conclusão e Perspectivas

Kimi K2 da Moonshot (e a atualização K2-Thinking) representa um avanço significativo nos modelos de IA – não apenas por causa de números maiores, mas porque combinam escala com verdadeiras capacidades de raciocínio em uma plataforma aberta. Tecnicamente, o K2 demonstra que arquiteturas de Mixture-of-Experts são um caminho viável para uma escala de trilhões, e que novos métodos de otimização (MuonClip) podem dominar tais modelos sem falhas catastróficas de treinamento. O desempenho de alto nível do modelo em benchmarks de codificação e raciocínio é uma evidência de que a escala massiva e o treinamento inovador se traduziram em habilidade real de resolução de problemas. Talvez o mais importante, Kimi K2 exibe um paradigma “agente”: foi explicitamente treinado para usar ferramentas, verificar seu trabalho e melhorar por meio de interação (RL). Isso é um desvio dos modelos de previsão puramente estáticos e de uma única tentativa do passado. Ele fecha algumas lacunas com a resolução de problemas semelhante à humana – por exemplo, dividindo tarefas em etapas, usando recursos externos, verificando resultados – tudo dentro de um único sistema de IA. Para a comunidade de IA de código aberto, o lançamento do K2 (com ambos os checkpoints base e instruídos disponíveis) é uma bênção, permitindo que os pesquisadores construam sobre um modelo que pode agir, não apenas conversar. Ele estabelece um novo padrão para o que um modelo aberto pode fazer, provavelmente pressionando até mesmo os líderes de modelos fechados a melhorar seu jogo ou reduzir seus preços.

Do ponto de vista do Macaron, o surgimento do Kimi K2 confirma muitas das direções que temos seguido em nossa própria P&D. Nossos debates no blog sobre raciocínio hierárquico, cadeias de ações verificáveis e instruções enriquecidas encontram um exemplo real no design do K2. É encorajador ver essas ideias serem colocadas em prática em grande escala. Claro, sempre há espaço para melhorias. O K2 ainda carece de multimodalidade e sua cadeia de pensamento (embora agora presente no modelo Thinking) é uma nova adição que certamente irá evoluir. Alinhamento e segurança continuam sendo desafios – pode-se perguntar como o modelo 1T se comporta em cenários adversos ou abertos não cobertos por seu modelo de recompensa. Estas são áreas onde a pesquisa contínua (incluindo aqui no Macaron) continuará. De fato, a equipe do Macaron está explorando uma abordagem inovadora usando aprendizado por reforço em conjunto com a geração de texto baseada em difusão – essencialmente um novo modelo de difusão de texto pós-treinamento – para alcançar um controle ainda mais fino sobre as saídas de uma IA. Embora os detalhes estejam por vir, imaginamos que isso poderia permitir que uma IA “pensasse difusamente” através de possibilidades de maneira controlável, potencialmente reduzindo problemas como alucinação enquanto preserva a criatividade. É uma dica sutil de onde o próximo salto pode ocorrer: combinando as forças dos LLMs de transformer (como o K2) com técnicas de modelo de difusão e afinação rigorosa de RL.

Em resumo, o modelo K2-Thinking do Kimi K2 inaugura uma nova era de IA aberta que pode tanto raciocinar profundamente quanto agir de forma autônoma. É um testemunho do rápido progresso em nosso campo – há apenas um ou dois anos, tal desempenho de um modelo aberto pareceria um salto quântico (sem trocadilhos). Agora está aqui, e nos desafia a todos a pensar maior. À medida que integramos esses avanços e experimentamos nossos próprios híbridos (seja por meio de pilhas de raciocínio híbrido ou híbridos de difusão-RL), a linha entre o que era de ponta e o que é acessível continua a se confundir. A perspectiva para desenvolvedores e usuários é emocionante: sistemas de IA mais poderosos, transparentes e controláveis estão no horizonte, seja da Moonshot, OpenAI ou dos laboratórios da Macaron. E isso significa uma IA que não apenas nos entende melhor, mas que também pode trabalhar ao nosso lado em tarefas complexas – verdadeiramente inaugurando a era dos agentes de IA e da inteligência colaborativa.

Boxu obteve seu diploma de bacharel na Universidade de Emory, com especialização em Economia Quantitativa. Antes de se juntar à Macaron, Boxu passou a maior parte de sua carreira no espaço de Private Equity e Venture Capital nos EUA. Ele agora é o Chefe de Gabinete e VP de Marketing na Macaron AI, gerenciando finanças, logística e operações, além de supervisionar o marketing.

Candidatar-se para se tornar Os primeiros amigos de Macaron