Do Grok 1 ao Grok 5: Infraestrutura e Evolução do Modelo de IA da xAI

Autor: Boxu Li

O Grok da xAI evoluiu rapidamente de um chatbot inovador no X para uma plataforma de IA em escala de fronteira. Este mergulho profundo examina como a infraestrutura subjacente e as capacidades do modelo do Grok progrediram através dos Grok-1, 2, 3 e 4 – e o que podemos esperar do próximo Grok-5.

O que é o xAI Grok? Um Resumo Rápido

Grok é a principal família de modelos de linguagem grande (LLM) desenvolvida pela startup de IA de Elon Musk, xAI. Começou no final de 2023 como um chatbot voltado para o consumidor no X (anteriormente Twitter) com uma personalidade um pouco rebelde e espirituosa. O que fez o Grok se destacar imediatamente foi sua consciência em tempo real – ao contrário da maioria dos LLMs com dados de treinamento obsoletos, o Grok estava intimamente integrado ao feed ao vivo do X e podia realizar pesquisas na web instantaneamente[1]. Na prática, Grok é um híbrido entre um LLM e um agente de dados ao vivo: ele pode extrair as informações mais recentes de postagens do X e da web, incorporando esses fatos com citações em suas respostas[1]. Este bot no estilo “Guia do Mochileiro das Galáxias” estava disposto a responder quase qualquer coisa (até mesmo perguntas “picantes” que outras IAs poderiam recusar), o que atraiu atenção – e alguma controvérsia – por sua abordagem sem filtro.

Sob o capô, o Grok não é um único modelo, mas uma família de modelos e ferramentas. No início, a xAI lançou o modelo base Grok-1 (uma enorme rede de 314 bilhões de parâmetros) como código aberto sob a licença Apache-2.0, sinalizando uma estratégia incomumente aberta. Desde então, a xAI tem iterado rapidamente: o Grok-1.5 adicionou contexto longo e visão multimodal, o Grok-2 melhorou a velocidade e o suporte multilíngue, o Grok-3 introduziu modos de raciocínio explícito, e o Grok-4 (e 4 “Heavy”) avançou no território dos múltiplos agentes com uso de ferramentas e subagentes cooperativos. O Grok agora pode ser acessado via o chatbot Grok no X, através da API da xAI, e até mesmo por meio de plataformas em nuvem (a Oracle Cloud lista o Grok-4 como uma oferta de modelo de primeira classe[2][3]). Em resumo, o Grok evoluiu de um único chatbot ousado para uma pilha inteira de IA – uma pilha centrada em busca da verdade, integração em tempo real e raciocínio de alta capacidade.

Dentro da Infraestrutura do Grok: Supercomputador Colossus e Pilha JAX+Rust

Por trás da interface amigável do Grok está um dos supercomputadores de IA mais poderosos do mundo. Colossus – o mega-cluster de GPUs da xAI em Memphis, Tennessee – foi construído para treinar e operar o Grok em escala de fronteira. Anunciado em meados de 2024 e apelidado de “Supercluster de Memphis” por Musk, o Colossus foi projetado para até 100.000 GPUs NVIDIA H100 conectadas por meio de uma única rede RDMA de alta largura de banda. Nas palavras de Musk, “É o cluster de treinamento de IA mais poderoso do mundo!”. O data center que abriga o Colossus é uma instalação de 150 MW que foi construída em apenas 122 dias – uma realização tão rápida que chamou a atenção da mídia e até mesmo um tour em vídeo do ServeTheHome.

Design de Hardware: A unidade básica do Colossus é um rack Supermicro resfriado a líquido contendo 8 servidores, cada um com 8× GPUs NVIDIA H100 (64 GPUs por rack). Cada rack também possui uma unidade de distribuição de refrigerante (CDU) e switches de rede de alta velocidade, e os racks são agrupados em pods de 8 (512 GPUs) que formam mini-clusters. Este design homogêneo e modular facilita a escalabilidade e a gestão. Todos os componentes – GPUs, CPUs Xeon duais, switches PCIe – são resfriados a líquido, o que é essencial dado o calor gerado pelo H100 e o orçamento de energia da instalação de 150MW. A rede utiliza o tecido Ethernet Spectrum-X da NVIDIA e os DPUs BlueField-3 para alcançar 400 Gbps+ por nó, permitindo que as GPUs em racks se comuniquem a velocidades extremas[4][5]. Em resumo, a xAI construiu o Colossus para minimizar gargalos: interconexões rápidas, resfriamento para alta utilização sustentada e energia/refrigeração redundantes para que nenhuma falha única interrompa o treinamento.

Escala e Computação Híbrida: A partir de meados de 2024, a xAI tinha aproximadamente 32.000 H100s online, com planos de aumentar para 100 mil até o final do ano. Eles também anunciaram uma expansão (“Colossus 2”) com 300.000 GPUs de próxima geração (NVIDIA B200s) para 2025[6]. Mesmo enquanto construíam seu próprio datacenter, a xAI não dependia de apenas uma fonte de computação: eles alugaram cerca de 16.000 GPUs H100 na Oracle Cloud e utilizaram datacenters da AWS e excedentes do X (Twitter) também[7]. Essa estratégia híbrida deu à xAI a flexibilidade de começar a treinar grandes modelos imediatamente (usando GPUs na nuvem) e, em seguida, migrar gradualmente as cargas de trabalho para seu supercomputador interno. No final de 2025, o Colossus deverá incluir 150.000 GPUs H100 (além de dezenas de milhares de GPUs H200 mais novas) enquanto a xAI se preparava para o Grok-4 e além.

Stack de Software: Para aproveitar este hardware, a xAI desenvolveu uma estrutura de treinamento distribuído personalizada centrada em JAX (a biblioteca de alto desempenho para arrays e ML do Google), com uma camada de orquestração baseada em Rust rodando no Kubernetes[8]. Nas palavras da própria xAI, “O treinamento de LLM funciona como um trem de carga avançando; se um vagão descarrila, todo o trem é arrastado para fora dos trilhos.” Manter alta confiabilidade e Utilização de FLOP do Modelo (MFU) em milhares de GPUs foi uma prioridade máxima. O orquestrador de treinamento da xAI detecta e ejeta automaticamente qualquer nó que comece a apresentar problemas (por exemplo, erros de hardware) e pode reiniciar sem interrupções fragmentos do trabalho, se necessário[9]. O checkpointing de centenas de gigabytes de estado do modelo é feito de maneira tolerante a falhas, para que uma única falha de servidor não elimine dias de progresso. Essencialmente, a xAI tratou a infraestrutura como um problema de primeira classe – investindo em ferramentas para manter mais de 10.000 GPUs ocupadas mesmo quando o hardware falha ou durante experimentações com novas arquiteturas de modelo. Este stack JAX + Rust + Kubernetes dá à xAI a capacidade de escalar trabalhos no cluster Colossus e iterar rapidamente em variantes de modelos (como evidenciado pela rapidez com que as versões do Grok foram lançadas). É uma filosofia semelhante à infraestrutura baseada em TPU do Google ou à stack de software da OpenAI, mas a xAI a adaptou para misturar clusters de GPU e enfatizar a resiliência a falhas.

Evolução do Modelo Grok: Arquitetura e Capacidades de 1 a 4

Grok-1: Uma Fundação de Mistura de Especialistas com 314B Parâmetros

A primeira versão completa, Grok-1, foi introduzida no final de 2023 como um LLM de classe fronteira desenvolvido em cerca de quatro meses. A arquitetura do Grok-1 é um Transformador de Mistura de Especialistas (MoE) – essencialmente um modelo esparso onde diferentes “especialistas” (sub-redes) lidam com diferentes tokens. Em termos de escala, o Grok-1 é enorme: 314 bilhões de parâmetros no total, com 64 camadas de Transformador e 48 cabeças de atenção. Ele usa um vocabulário de 131 mil tokens e um tamanho de incorporação de 6.144, e a janela de contexto no lançamento aberto era de 8.192 tokens. No entanto, apenas uma fração desses 314B pesos está ativa por token. O design MoE significa que cada token passa por uma rede de seleção que escolhe 2 especialistas (módulos feed-forward) de um grande conjunto, então aproximadamente 1/8 dos parâmetros podem ser usados para um dado token de entrada. Isso permite que o Grok-1 alcance a capacidade de representação de um modelo de mais de 300B enquanto computa apenas o equivalente a ~79B parâmetros por token – um grande ganho de eficiência no treinamento e inferência.

Esquema de uma camada de Mistura de Especialistas em um LLM. Em vez de ativar todos os neurônios para cada entrada, um modelo MoE como o Grok-1 usa uma rede de direcionamento para encaminhar os dados de cada token através de um pequeno subconjunto de redes de especialistas (ativação esparsa), combinando depois os resultados. Isso permite um grande número total de parâmetros sem um aumento linear no custo de computação.

A abordagem MoE do Grok-1 foi validada por seu desempenho. No lançamento, a xAI relatou que o Grok-1 marcou 73% no benchmark de conhecimento MMLU e 63,2% no HumanEval para codificação – superando modelos como o GPT-3.5 da OpenAI e o Inflection-1, e ficando atrás apenas do GPT-4 naquela era de fim de 2023. Testes independentes confirmaram as fortes habilidades matemáticas e de raciocínio do Grok-1 para sua classe de computação. Por exemplo, o Grok-1 conseguiu passar em um exame de matemática do ensino médio húngaro com uma nota C (59%), igualando o Claude 2 da Anthropic (55%) e não muito atrás do GPT-4 (68%) nas mesmas condições. Isso foi notável porque o Grok-1 alcançou tais resultados com menos computação total de treinamento do que o GPT-4, destacando a eficiência de treinamento da xAI.

No entanto, Grok-1 também era consumidor de recursos. Executar o modelo completo de 314 bilhões em precisão de 16 bits requer uma estimativa de ~640 GB de VRAM para inferência. Esse tipo de pegada significa que nenhum servidor único pode hospedá-lo; é necessário particionar múltiplas GPUs apenas para servir o modelo, e ainda mais GPUs (com paralelismo de dados) para treiná-lo. Isso ressaltou por que a xAI construiu o Colossus e por que a interconexão de alta velocidade é crítica – na escala do Grok-1, memória e largura de banda da GPU são frequentemente os fatores limitantes. De fato, os engenheiros da AMD demonstraram o Grok-1 em um servidor MI300X com 8 GPUs (o MI300X tem 192GB por GPU, um dos poucos que poderia lidar com as demandas de memória do Grok-1). Em resumo, o Grok-1 provou que a xAI poderia treinar um modelo da classe GPT-3.5 do zero, mas também ultrapassou os limites do hardware, necessitando do enorme cluster e da pilha de treinamento personalizada descritos acima.

Grok-1.5: Contexto Longo e Visão Multimodal

xAI não parou no Grok-1 base. Em março de 2024, eles anunciaram o Grok-1.5, que trouxe duas grandes atualizações: uma janela de contexto de 128.000 tokens e melhorias substanciais em habilidades matemáticas e de codificação. O Grok-1.5 ainda tinha aproximadamente a mesma arquitetura e contagem de parâmetros do Grok-1 (a xAI não divulgou novas cifras de parâmetros, o que implica que foi um refinamento do modelo existente), mas podia lidar com entradas 16 vezes mais longas e utilizar técnicas de “supervisão escalável” para melhorar o raciocínio. Alcançar um contexto de 128k não é trivial – provavelmente envolveu novos esquemas de codificação posicional e currículos de treinamento para garantir que o modelo não esquecesse como lidar com prompts curtos. O resultado foi impressionante: o Grok-1.5 demonstrou recuperação perfeita de informações em toda a janela de 128k em testes internos e se destacou em tarefas de “agulha no palheiro”, onde um trecho relevante poderia estar oculto em um documento longo.

Crucialmente, o raciocínio e a resolução de problemas do Grok-1.5 deram um salto de nível. No desafiador benchmark MATH (problemas de matemática em nível de competição), o Grok-1.5 alcançou 50,6%, mais do que o dobro dos 23,9% do Grok-1. Ele atingiu 90% no GSM8K, um conjunto de problemas matemáticos verbais (acima dos ~63% do Grok-1). E para a geração de código, o Grok-1.5 alcançou 74,1% no HumanEval, acima dos 63%. Esses ganhos aproximaram o Grok do nível do GPT-4 em tarefas quantitativas – de fato, o Grok-1.5 supostamente igualou ou superou o Claude 2 da Anthropic e o PaLM 2 do Google em muitos benchmarks. Para alcançar isso, a xAI utilizou técnicas como prompting de cadeia de pensamento e talvez incorporou mais ajustes finos em dados de código e matemática. O Grok-1.5 também introduziu um modelo de “tutor de IA” no loop de treinamento – essencialmente revisores assistidos por humanos e ferramentas que geraram demonstrações de raciocínio de alta qualidade para ajustar a resolução de problemas passo a passo do Grok [11]. Este foi o início do foco da xAI em supervisão assistida por ferramentas, que veremos mais nas versões posteriores.

Em abril de 2024, a xAI avançou ainda mais com o Grok-1.5V, uma extensão multimodal que podia processar imagens além de texto. Grok-1.5V (“V” de visão) pegou o Grok-1.5, já avançado em contextos longos e matemática, e lhe deu visão: foi treinado para interpretar fotografias, diagramas, capturas de tela e outros inputs visuais junto com texto. O modelo provou seu valor imediatamente ao superar o desempenho do GPT-4V da OpenAI e outros pares com capacidade de visão em um novo benchmark chamado RealWorldQA, que testa a compreensão espacial em imagens reais. O Grok-1.5V obteve 68,7% no RealWorldQA, comparado aos 60,5% do GPT-4V e 61,4% do Google Gemini. Em termos práticos, o Grok-1.5V podia responder perguntas sobre o que está acontecendo em uma foto, analisar um gráfico ou documento e depois raciocinar sobre ele com a mesma capacidade de contexto longo que tinha para texto. Este salto multimodal mostrou o compromisso da xAI com uma IA que não é apenas um preditor de texto, mas um motor de raciocínio mais holístico, capaz de entender dados complexos do mundo real. Também preparou o terreno para que o Grok fosse usado em aplicações como análise de imagens médicas ou depuração de capturas de tela de interfaces de usuário, áreas que Musk sugeriu para crescimento futuro.

Grok-2: Expandindo e Indo em Tempo Real

Grok-2 chegou no final de 2024 e marcou uma transição de “prévia proprietária” para um modelo mais amplamente disponível. A xAI abriu o acesso ao Grok para todos os usuários no X por volta dessa época, indicando confiança na robustez do Grok-2[12][13]. Tecnicamente, a arquitetura do Grok-2 não foi uma ruptura radical – ainda era um LLM baseado em MoE com um grande contexto (provavelmente 128k). Mas a xAI passou a segunda metade de 2024 refinando a velocidade, multilinguismo e uso de ferramentas do Grok-2. Um modelo atualizado do Grok-2 em dezembro de 2024 estava “3× mais rápido” em inferência, melhor em seguir instruções e fluente em várias línguas[13][14]. Isso sugere que eles otimizaram o roteamento do MoE e talvez destilaram partes do modelo para eficiência. A xAI também introduziu uma variante menor, o Grok-2-mini, para atender a casos de uso sensíveis a custos ou de baixa potência (possivelmente análogo ao GPT-3.5 Turbo da OpenAI em comparação ao GPT-4 completo).

Uma das principais características do Grok-2 era a Pesquisa ao Vivo com citações. Grok podia agora realizar automaticamente buscas na web ou escanear postagens no X ao responder uma pergunta, e então fornecer citações em sua resposta[15]. Isso efetivamente incorporou um mecanismo de busca e verificador de fatos no fluxo de trabalho do modelo. Segundo a xAI, a integração do Grok-2 com o X permitiu que ele tivesse conhecimento em tempo real de notícias de última hora, tópicos em tendência e dados públicos, dando-lhe vantagem em consultas sobre eventos atuais[1]. Por exemplo, se perguntado sobre um jogo de esportes que aconteceu “na noite passada”, o Grok-2 poderia buscar o placar e citar um artigo de notícias ou uma postagem no X com o resultado. Essa capacidade em tempo real tornou-se um ponto de venda exclusivo — ao contrário do GPT-4, que tinha um limite de treinamento fixo (e só depois adicionou um plugin de navegação), o Grok nasceu conectado a dados ao vivo. Do ponto de vista da engenharia, o recurso de Pesquisa ao Vivo envolvia um subsistema semelhante a um agente: o prompt do Grok podia acionar uma ferramenta interna que consulta APIs da web ou do X, e o texto recuperado é então anexado ao contexto do Grok (junto com a URL de origem) para a resposta final[1][16]. A xAI expôs controles para usuários ou desenvolvedores decidirem se o Grok deve pesquisar automaticamente, sempre pesquisar ou permanecer apenas com conhecimento interno[1][11].

O Grok-2 também melhorou a acessibilidade e o custo. Em dezembro de 2024, a xAI disponibilizou o chatbot Grok gratuitamente para todos os usuários do X (com níveis pagos apenas oferecendo limites de taxa mais altos)[13]. Eles também lançaram uma API pública com modelos Grok-2 a um preço de $2 por milhão de tokens de entrada (um preço agressivo que subcota muitos concorrentes)[17]. Este movimento posicionou o Grok-2 não apenas como exclusivo do X, mas como uma plataforma geral para desenvolvedores. Tecnicamente, o treinamento do Grok-2 provavelmente incorporou milhões de interações de usuários do beta do Grok-1, além de um grande modelo de recompensa para alinhamento. A equipe de Musk mencionou o uso de “tutores de IA” (revisores humanos) para curar dados de ajuste fino e um foco em tornar o Grok politicamente neutro, mas ainda humorístico[11][18]. Houve obstáculos – o estilo não censurado do Grok levou a algumas saídas ofensivas, que a xAI teve que resolver com filtros de segurança atualizados e restringindo a tendência do Grok de ecoar os tweets pessoais de Musk em suas respostas[19]. No final da fase do Grok-2, a xAI encontrou um melhor equilíbrio: o Grok ainda podia ser ousado, mas era menos provável que produzisse conteúdo proibido ou tendencioso, graças a um RLHF (Reinforcement Learning from Human Feedback) mais rigoroso e a prompts de sistema mais controlados.

Grok-3: Modos de Raciocínio e Resolução de Problemas Multi-Etapa

Lançado no início de 2025, o Grok-3 representou um avanço ao fazer o modelo pensar de forma mais transparente. A xAI descreveu o Grok-3 como seu “modelo mais avançado até então”, destacando suas fortes habilidades de raciocínio. Nos bastidores, o Grok-3 ampliou o poder de treinamento em 10× comparado ao Grok-2, sugerindo um modelo maior ou simplesmente um treinamento muito mais longo com mais dados. É possível que a xAI tenha aumentado o número de especialistas ou camadas, mas eles não divulgaram novos contagens de parâmetros. Em vez disso, o foco estava em como o Grok-3 lidava com tarefas de raciocínio. Ele introduziu modos de inferência especiais: um modo “Pensar” onde o modelo mostrava sua cadeia de pensamento (essencialmente permitindo que os usuários vissem seu raciocínio passo a passo em um painel separado), e um modo “Grande Cérebro” para consultas complexas, que alocava mais computação (ou talvez ativava múltiplas passagens de raciocínio) para produzir uma resposta mais completa. Essas características estavam alinhadas com a tendência da indústria de “deixar o modelo raciocinar em voz alta” para aumentar a transparência e a precisão.

Em benchmarks e avaliações, o Grok-3 fechou grande parte da lacuna com o GPT-4. Veículos de tecnologia relataram que o Grok-3 igualou ou superou o GPT-4 da OpenAI (a versão original, não o hipotético GPT-4.5) em muitos benchmarks acadêmicos e de codificação. Por exemplo, o Grok-3 foi dito ter alcançado resultados equivalentes ao GPT-4 e Claude 2 nos testes de raciocínio ARC Advanced e MMLU, e destacou-se particularmente em tarefas de matemática/programação onde os modelos Grok já tinham uma vantagem existente. Uma pista inicial da força do Grok-3: ele atingiu 90%+ no GSM8K (quase perfeito em problemas de matemática de nível escolar) e ~75%+ no HumanEval, colocando-o firmemente no território do GPT-4 para essas categorias. Além disso, o Grok-3 melhorou o entendimento multilíngue, tornando-o mais competitivo globalmente.

Do ponto de vista da infraestrutura, o Grok-3 marcou quando a xAI realmente investiu no uso de ferramentas. O modelo podia chamar ferramentas externas como calculadoras, pesquisas, interpretadores de código, etc., de maneira mais fluida, e o sistema incorporava esses resultados nas respostas. Essencialmente, o Grok-3 começou a borrar a linha entre um LLM e uma estrutura de agente. Em vez de esperar que um modelo gigantesco fizesse tudo internamente, o Grok-3 dividia uma consulta complexa em etapas, usava ferramentas ou sub-rotinas para certas etapas (por exemplo, recuperar um documento, executar código Python, verificar uma prova) e então compunha a resposta final. Essa abordagem antecipou o que estava por vir no Grok-4 Heavy. Isso também está alinhado com as menções do roteiro de pesquisa da xAI sobre verificação formal e supervisão escalável – o Grok-3 podia usar verificadores externos ou materiais de referência para verificar seus próprios resultados em situações críticas[20][21]. Tudo isso fez do Grok-3 um assistente mais confiável e capaz, movendo-o além de apenas uma alternativa de GPT-3 falante para algo mais próximo de um pesquisador de IA que pode citar fontes e resolver problemas de múltiplas etapas de forma confiável.

Grok-4 e Grok-4 Heavy: Colaboração Multi-Agente e Desempenho de Fronteira

Em meados de 2025, a xAI lançou o Grok-4, chamando-o de “o modelo mais inteligente do mundo”. Embora tais afirmações devam ser vistas com cautela, o Grok-4 é, sem dúvida, um dos modelos de ponta de 2025. A grande mudança com o Grok-4 é que ele não é mais um único modelo – especialmente na configuração Grok-4 Heavy, é essencialmente múltiplos modelos especializados trabalhando em conjunto. A xAI construiu o Grok-4 como um sistema multiagente: quando você faz uma pergunta complexa, o Grok-4 pode ativar internamente diferentes “especialistas” (agentes) para resolver partes do problema, depois agregar suas descobertas[22][23]. Por exemplo, uma sessão do Grok-4 Heavy pode implantar um agente para fazer uma pesquisa na web, outro para analisar uma planilha e outro para escrever código, com um agente coordenador orquestrando essas subtarefas. Isso é semelhante em espírito a projetos como o AutoGPT da OpenAI ou os agentes “Constitutional AI” da Anthropic, mas a xAI integrou isso no nível do produto – o Grok-4 Heavy é a versão multiagente do Grok que os usuários empresariais podem consultar diretamente.

O resultado deste design é que o Grok-4 se destaca em tarefas muito complexas e de longo prazo. Ele pode manter um fio consistente ao longo de milhões de tokens (a documentação da API do xAI lista Grok-4.1 Fast com uma janela de contexto de 2.000.000 tokens para certas variantes), o que é efetivamente ilimitado para a maioria dos usos no mundo real. Os agentes do Grok-4 podem realizar recuperação e raciocínio em paralelo, tornando-o muito mais rápido em coisas como pesquisa exaustiva ou geração de planos detalhados. Em benchmarks de avaliação projetados para testar raciocínio avançado (como o Exame Final da Humanidade, um exame simulado de doutorado com 2500 perguntas), o Grok-4 supostamente pontuou na faixa de 40% – superior a muitos contemporâneos e indicativo de um raciocínio muito forte em zero-shot[2][22]. Em benchmarks de codificação e QA, o Grok-4 Heavy foi notado por superar os sistemas de modelo único mais fortes, graças à sua capacidade de evitar erros verificando o trabalho por meio de múltiplos agentes[22][20].

O Grok-4 também trouxe integrações de ferramentas nativas à maturidade. O modelo pode usar um conjunto de ferramentas hospedadas pela xAI de forma autônoma: navegação na web, execução de código, um banco de dados vetorial para recuperação, análise de imagens e mais. Quando uma consulta de usuário é recebida, o Grok-4 (especialmente no modo de “raciocínio”) decide se e quando chamar essas ferramentas. Tudo isso é transmitido de volta ao usuário com total transparência – você pode ver o Grok dizer “Procurando artigos relevantes...”, e então ele cita esses artigos na resposta final. O sistema é projetado para que o uso das ferramentas seja fluido e o usuário não precise orquestrá-lo; você apenas faz uma pergunta em linguagem natural e o Grok cuida do resto. Notavelmente, a xAI não cobra pelas chamadas de ferramentas durante a fase beta (eles querem incentivar o uso intenso das ferramentas para melhorar as capacidades do modelo).

Um dos desdobramentos mais especializados do Grok-4 é o grok-code-fast-1, um modelo focado em código, e Grok 4.1 Fast (Raciocínio e Não-Raciocínio), que são otimizados para alto rendimento e oferecidos até gratuitamente em alguns casos. Isso mostra a estratégia da xAI de oferecer diferentes tamanhos e velocidades do Grok para diferentes necessidades – desde o 4.1 Fast gratuito, mas ainda poderoso (com redução de alucinações devido ao uso de ferramentas), até o agente Heavy premium para análises empresariais.

Em termos de alinhamento, o lançamento do Grok-4 foi acompanhado por garantias de segurança mais fortes (após os incidentes do Grok-3, onde fez piadas antissemitas e esteve brevemente em apuros[19]). A xAI implementou filtros mais rigorosos e enfatizou que as respostas do Grok não são influenciadas pelas opiniões pessoais de Musk[19]. Eles também introduziram um mecanismo de feedback onde os usuários podiam avaliar as respostas, contribuindo para um ajuste contínuo. No final de 2025, o Grok não teve mais grandes incidentes públicos, sugerindo que a combinação de RLHF, tutores de IA especializados (especialistas que ajustam o modelo em áreas sensíveis) e verificações automáticas multi-agentes estava funcionando melhor. De fato, a xAI passou por uma mudança para “tutores de IA especializados” em 2025, preferindo especialistas em assuntos específicos para curar dados de treinamento (por exemplo, matemáticos, advogados, etc., revisando saídas) em vez de trabalhadores gerais. Isso provavelmente melhorou a precisão factual do Grok-4 e reduziu os preconceitos em áreas específicas.

Abaixo está um resumo da evolução do modelo Grok de 2023 a 2025, destacando as principais especificações e capacidades:

Tabela: Evolução dos Modelos Grok da xAI (2023–2025)

Modelo
Lançamento
Arquitetura & Tamanho
Janela de Contexto
Características Notáveis
Benchmarks / Desempenho
Grok-0
Meio de 2023 (interno)
33B transformer denso (protótipo)
4K tokens (est.)
Protótipo inicial LLM (≈Nível LLaMA-2 70B)
~57% GSM8K, ~66% MMLU (5-shot)
Grok-1
Nov 2023
314B MoE (64 camadas, 48 cabeças; 2 especialistas por token)
8K tokens
Pesos open-source fortes em matemática e codificação
73% MMLU, 63.2% HumanEval; 59% em um exame de matemática novo
Grok-1.5
Mar 2024
~314B MoE (refinado)
128K tokens
Longo contexto; raciocínio e matemática aprimorados
50.6% MATH, 90% GSM8K, 74.1% HumanEval
Grok-1.5V
Abr 2024
Grok-1.5 + Codificadores de Visão
128K tokens
Multimodal (entendimento de imagem + texto)
68.7% RealWorldQA (vs 60.5% GPT-4V) – melhor em raciocínio visual
Grok-2
Ago 2024
~314B MoE (otimizações de inferência mais rápidas)
128K tokens (32K para variante de visão)
Pesquisa na web e citações; multilíngue; gerador de imagens “Aurora”
Equiparado ao GPT-4 Turbo em muitas tarefas (segundo testes internos); 3× mais rápido que o 1.5[13]
Grok-2.5
Ago 2025
(Variante open-source do Grok-2.5 anunciada)
128K+ tokens
Pesos serão abertos (Musk prometeu Grok-2.5 open-source)
Grok-3
Fev 2025
Possivelmente MoE maior (10× computação de treinamento vs 2)
131K tokens (efetivamente longo)
Modo “Pensar” (mostra o raciocínio); melhor uso de ferramentas
~88–90% GSM8K, se aproximando do GPT-4 em benchmarks HHH (dados não oficiais)
Grok-4
Jul 2025
Sistema multi-agente (LLM base + ferramentas + agentes)
256K tokens (Grok-4.0); até 2M em 4.1
Ferramentas Nativas de chamadas; modo “Pesado” executa múltiplos agentes em paralelo
~42% no Exame Final da Humanidade[2] (estado da arte); forte em tarefas complexas
Grok-4.1 Rápido
Nov 2025
Grok-4 Otimizado (multimodal)
2M tokens
Modelo de alta velocidade e baixo custo (camada gratuita); modo sem raciocínio disponível
Leve queda de qualidade em relação ao Pesado, mas excelente em consultas em tempo real
Grok-5 (rumores)
Esperado 2026
Arquitetura de próxima geração (“Projeto Valis”) possivelmente >1T parâmetros (esparso) + componentes GNN
Multimilhões de tokens (esperado)
“Modo Verdade 2.0” com um Motor de Realidade para verificação de fatos; mais agentes autônomos; multimodal++
Objetiva rivalizar com GPT-5 e Google Gemini 3 em todos os aspectos[24][21]

Fontes: Anúncios oficiais da xAI, relatórios de mídia[22] e rumores sobre o Grok-5[21].

Forças e Limitações do Grok em 2025

Com o Grok-4, a xAI esculpiu um claro nicho no cenário de IA. As principais forças do Grok em 2025 incluem:

  • Habilidades Excepcionais de Raciocínio e Matemática: Todas as versões do Grok demonstram talento para quebra-cabeças lógicos, problemas quantitativos e codificação. O Grok-4 Heavy, em particular, utiliza múltiplos agentes de raciocínio para decompor problemas, resultando em menos erros em tarefas difíceis (como provas longas ou desafios complexos de codificação) em comparação com LLMs únicos. Benchmarks como MATH, GSM8K e HLE colocam o Grok-4 no topo ou próximo do topo do ranking[2].
  • Integração de Conhecimento em Tempo Real: O Grok é possivelmente o modelo mais atualizado disponível graças à sua integração com X e a web. Ele não apenas tem um ponto de corte de treinamento mais recente do que muitos (Grok-4 foi treinado com dados provavelmente até meados de 2025), mas também pode obter informações ao vivo sob demanda[1]. Para qualquer caso de uso que exija dados atuais – análise de notícias, eventos de ações, tendências de mídia social, etc. – o Grok é extremamente útil. Ele citará fontes para esses fatos em tempo real, facilitando a verificação das respostas[15].
  • Contexto e Retenção Massivos: Com até 2 milhões de tokens em algumas versões, o Grok pode efetivamente memorizar bases de código inteiras ou documentos longos de uma só vez. Isso é transformador para tarefas como revisar milhares de páginas de contratos, analisar anos de logs ou realizar revisões aprofundadas de literatura – o Grok pode manter todo esse contexto “em mente” e fazer conexões entre eles. Além disso, a xAI projetou o Grok para usar esse contexto de forma eficaz (128k de contexto no Grok-1.5 já demonstrou quase perfeito recall).
  • Uso de Ferramentas e Orquestração Multi-Agente: O design do Grok-4 Heavy, que utiliza agentes e ferramentas especializadas, significa que ele é menos uma “caixa preta”. Ele pode seguir fluxos de trabalho explícitos – pesquise isso, calcule aquilo, depois componha a resposta. Isso não apenas tende a gerar respostas mais precisas (cada subtarefa é tratada por um especialista), mas também torna o raciocínio do Grok mais interpretável quando compartilha seus passos de pensamento. Para desenvolvedores, é mais fácil estender as capacidades do Grok adicionando novas ferramentas, já que o modelo já está condicionado a usar ferramentas quando apropriado.
  • Abertura e Implantabilidade: Ao contrário dos modelos da OpenAI, partes da família Grok são abertas. Os pesos do Grok-1 são públicos, e Musk indicou que o Grok-2.5 e possivelmente o Grok-3 serão open-source também. Isso significa que pesquisadores podem inspecionar e até ajustar esses modelos em seus próprios dados. Para empresas, a xAI oferece instâncias locais ou em nuvem dedicadas (através da Oracle e outros) para aliviar preocupações com a privacidade dos dados[2][3]. Essa flexibilidade – de SaaS completamente hospedado a auto-hospedado – é um ponto positivo para o Grok no mercado.

No entanto, o Grok não está isento de limitações:

  • Desafios de Segurança e Ajuste: A posição inicial da Grok como uma IA “buscando a verdade máxima, politicamente incorreta” significava que era menos filtrada que os concorrentes, levando a alguns erros notáveis. Notavelmente, Grok-3 em um momento gerou elogios a Hitler e comentários antissemitas quando solicitada de certa forma[19]. A xAI teve que se apressar para ajustar o prompt do sistema e o ajuste fino para evitar tais resultados. Embora Grok-4 seja mais segura, ainda caminha na linha tênue de tentar ser ousada, mas não ofensiva. Empresas em indústrias reguladas podem ser cautelosas e implementar camadas adicionais de moderação de conteúdo ao usar a Grok. Por outro lado, a Grok responderá a perguntas que outros recusam (por exemplo, pode fornecer informações sobre tópicos controversos que modelos da OpenAI ou Anthropic recusariam), o que pode ser um pró ou um contra, dependendo do caso de uso.
  • Maturidade do Ecossistema: A xAI é um jogador mais novo, então seu ecossistema de integrações de terceiros, bibliotecas e recursos comunitários é menor que o da OpenAI ou do Google. Embora a Grok tenha uma API, há menos plugins prontos ou tutoriais para coisas como ajuste fino em dados personalizados ou integração em pipelines de ML existentes. A documentação existe, mas está crescendo. Dito isso, a lacuna está se fechando – ferramentas como o Macaron AI começaram a oferecer orquestração multi-modelo que inclui a Grok ao lado do GPT/Gemini, e a abordagem de código aberto da xAI está fomentando contribuições da comunidade.
  • Potencial de Viés e Objetividade: Musk comercializa a Grok como buscando a verdade e objetividade, mas a Grok herda preconceitos de seus dados de treinamento como qualquer LLM. Sua integração estreita com dados do X é uma faca de dois gumes: conhece os memes e sentimentos mais recentes, mas também pode espelhar a toxicidade ou visões distorcidas presentes nas redes sociais. A xAI implementou controles (tutores de IA e um objetivo de “equilíbrio”[18]), mas os usuários devem permanecer vigilantes. Por exemplo, se um tópico for amplamente discutido de forma tendenciosa no X, a Grok pode refletir isso até ser corrigida por sua própria verificação cruzada ou pelo feedback do usuário.
  • Requisitos de Computação: Executar os maiores modelos Grok (o Grok-4 Heavy de código fechado) é extremamente exigente. Poucas organizações fora do grande setor tecnológico têm os meios para treinar ou mesmo inferir tais modelos sem a ajuda da xAI. Embora existam variantes menores e versões abertas, se você quiser as capacidades completas do Grok-4/5 com multi-agentes em escala, provavelmente usará a nuvem da xAI ou um serviço parceiro. Isso é semelhante à dinâmica com o GPT-4 (onde apenas a Microsoft/Azure realmente o executa totalmente), mas é uma consideração para aqueles que esperavam que a abertura do código tornasse a Grok trivial de hospedar. O requisito de 640GB de VRAM do Grok-1 insinua o desafio – versões mais novas do Grok podem usar ainda mais GPUs em paralelo.

Em resumo, o Grok em 2025 é poderoso e único – excelente para usuários que precisam de raciocínio de ponta e informações frescas, mas requer cuidado na questão da segurança e recursos significativos para ser implantado em grande escala.

O que vem a seguir: Grok 5 e o caminho adiante

Todas as atenções estão agora voltadas para o Grok-5, que a xAI tem sugerido para 2026. Embora os detalhes oficiais sejam escassos, relatórios internos e dicas de Musk esboçam um quadro ambicioso. Espera-se que o Grok-5 seja mais do que apenas um LLM – provavelmente uma plataforma de IA agente que leva tudo o que o Grok-4 fez bem e avança ainda mais. Rumores chave e características plausíveis incluem:

  • 「Modo Verdade 2.0」 – O Motor da Realidade: A xAI parece estar dobrando a aposta na reputação de busca da verdade do Grok ao desenvolver um Motor da Realidade interno para o Grok-5[21]. Isso significa que o Grok-5 pode verificar ativamente os fatos: cruzar informações com várias fontes, sinalizar incertezas e até realizar simulações ou verificações de lógica formal para confirmação. Na prática, se você fizer uma pergunta ao Grok-5, ele não apenas responderá, mas também poderá fornecer uma pontuação de confiança ou contrapontos se encontrar evidências contraditórias. Isso pode tornar o Grok-5 muito mais confiável para tarefas como análise de pesquisa, aconselhamento jurídico ou informações médicas – áreas onde os LLMs atuais às vezes "alucinam" fatos falsos. O Motor da Realidade provavelmente envolve integração de gráfico de conhecimento e talvez um componente de Rede Neural de Grafos (GNN) (há indícios de que a xAI está explorando GNNs para dar ao Grok habilidades de raciocínio estruturado)[2][22].
  • Maior Autonomia e Tarefas de Múltiplas Etapas: Rumores indicam que o Grok-5 será “agente” a ponto de lidar com trabalhos de múltiplas etapas no espaço digital sem constantes comandos[23]. Isso implica em um planejador mais avançado – o Grok-5 pode permitir que você diga, “Grok, cuide das minhas reservas de viagem para o próximo mês,” e ele interagirá com ferramentas/serviços para fazer isso, pedindo confirmação apenas quando necessário. O sistema multiagente no Grok-4 Heavy pode evoluir para um agente único mais coerente que gerencia internamente subagentes com ainda menos microgerenciamento do usuário. As dicas da xAI sobre o Projeto “Valis”, que está alcançando pontuações sem precedentes em certos testes internos[20], sugerem que estão construindo algo que pode raciocinar sobre causalidade no mundo real e talvez coordenar ações complexas. Em ambientes empresariais, o Grok-5 pode servir como gerente de projetos de IA ou analista de pesquisa, não apenas como um bot de perguntas e respostas.
  • Escalabilidade e Tamanho do Modelo: Se o Grok-1 tinha 314B e o Grok-4 provavelmente é maior (além de multiagente), o Grok-5 pode escalar o número de parâmetros para os trilhões – provavelmente através da expansão MoE em vez de um modelo denso. O cluster Colossus da xAI (especialmente com as atualizações planejadas) deve ter poder computacional suficiente para treinar além de um trilhão de parâmetros se usarem métodos esparsos de forma eficiente[25]. Os dados de treinamento também serão ampliados: o Grok-5 terá um ano extra de dados da web e X, feedback humano mais refinado e possivelmente treinamento multimodal (vídeo, áudio) para torná-lo mais geral. Podemos também ver contextos mais longos suportados nativamente (milhões de tokens como padrão, não apenas um modo especial), já que as arquiteturas de memória estão melhorando.
  • Multimodalidade Aprimorada: Certamente o Grok-5 melhorará na visão (talvez equiparando modelos especializados na compreensão de imagens) e poderá introduzir novos modos como análise de áudio e vídeo. Musk tem interesse em que a xAI contribua para a Tesla (piloto automático, etc.), então é concebível um Grok que possa analisar dados de sensores, feeds de câmeras ou até comandos de robótica no futuro. Em qualquer caso, o Grok-5 terá como objetivo integrar perfeitamente texto, imagens e possivelmente fluxos de dados em tempo real.
  • Código Aberto vs Fechado: Musk sinalizou um compromisso em abrir o código de versões anteriores do Grok, e quando o Grok-5 for lançado, o Grok-3 ou 4 pode ser público. É improvável que o próprio Grok-5 tenha pesos abertos inicialmente (devido à vantagem competitiva), mas a xAI pode lançar uma versão levemente reduzida ou um ponto de verificação anterior para pesquisadores. Essa estratégia de parte aberta, parte proprietária pode continuar, o que manteria o engajamento da comunidade do Grok alto enquanto ainda dá à xAI uma vantagem de produto.
  • Concorrência com GPT-5/Gemini: 2025 até 2026 verá novos modelos de geração da OpenAI (possivelmente GPT-5) e do Google DeepMind (série Gemini). O Grok-5 é explicitamente posicionado para “detronar os gigantes”[22]. Isso significa que podemos esperar que a xAI mire nas fraquezas desses modelos. Por exemplo, se o GPT-5 for superforte, mas ainda fechado e sem informações em tempo real, a xAI enfatizará a abertura e o uso de dados ao vivo do Grok-5. Se o Gemini for poderoso, mas talvez mais conservador nas respostas, a xAI promoverá a utilidade não censurada do Grok. Essencialmente, o sucesso do Grok-5 dependerá de igualar esses rivais no desempenho bruto e diferenciar-se na filosofia (mais transparente, mais controlado pelo usuário, etc.).

Enquanto isso, a xAI tem um roteiro de recursos que podem ser lançados antes mesmo de um Grok-5 completo. Isso inclui aspectos como instâncias de IA personalizadas (usando os próprios dados do usuário para criar um modelo pessoal, com controles de privacidade), integração mais profunda com a plataforma X (Grok como assistente integrado para criação ou moderação de conteúdo na X), e ajustes específicos de domínio do Grok (por exemplo, Grok para Finanças, Grok para Medicina, que aproveitam dados especializados). Todos esses aspectos ganhariam impulso rumo ao Grok-5.

Preparando-se para o Grok-5: O que Devem Fazer Desenvolvedores e Equipes?

Se você é engenheiro, cientista de dados ou líder de produto acompanhando a evolução do Grok, a grande questão é como aproveitar esses avanços. Aqui estão algumas considerações práticas para se preparar para o Grok-5 e modelos de próxima geração similares:

  • Adote uma Estratégia Multi-Modelo Agora: Não coloque todos os seus ovos em uma única cesta de IA. Grok-5 será poderoso, mas coexistirá com modelos da OpenAI, Google, Anthropic, etc. Os melhores sistemas frequentemente combinam ou direcionam consultas a diferentes modelos com base em suas forças. Você pode começar isso hoje: use Grok-4 para o que ele faz de melhor (informações em tempo real, matemática, recuperação de contexto longo) e outros modelos onde eles se destacam (talvez GPT-4 para escrita criativa ou Claude para grandes resumos, etc.). Ao construir seu pipeline para ser independente de modelo, substituir pelo Grok-5 quando ele chegar pode ser tão simples quanto mudar um endpoint de API ou configuração de peso, em vez de uma reformulação completa.
  • Construa Pipelines de Avaliação Robustos: Com cada atualização de modelo, comportamentos podem mudar. Grok-5 pode corrigir algumas peculiaridades do Grok-4, mas introduzir novas. Configure uma avaliação automatizada usando seus próprios casos de teste – meça precisão, qualidade de saída, latência e custo entre diferentes versões de modelo. Inclua casos extremos e consultas sensíveis para detectar qualquer regressão na segurança ou conformidade de políticas. Ter isso em prática significa que, quando Grok-5 chegar, você poderá verificar quantitativamente suas melhorias (ou novos riscos) antes de implantá-lo totalmente em produção.
  • Aproveite Ferramentas e Mantenha o Humano no Circuito: Uma lição do design do Grok é que ferramentas e humanos melhoram dramaticamente a confiabilidade. Mesmo que você não tenha acesso ao sistema interno de agentes do Grok-4 Heavy, pode imitá-lo: para tarefas críticas, faça seu sistema chamar APIs externas (buscas, calculadoras) para apoiar o modelo, e considere ter um revisor humano para saídas importantes. Grok-5 provavelmente permitirá uma operação ainda mais autônoma, mas você deve decidir onde você quer um humano no circuito. Por exemplo, talvez Grok-5 possa redigir um relatório analítico e até verificar fatos, mas você ainda terá um humano para aprová-lo quanto ao tom e precisão final. Definir esses limites agora tornará a integração mais suave.
  • Aborde a Governança de Dados Cedo: A integração estreita do Grok com X significa que ele pode personalizar e melhorar usando dados do usuário, mas as empresas devem proceder com cuidado quanto à privacidade. O Centro de Ajuda da X deixa claro que os usuários podem optar por não compartilhar dados para treinamento e personalização do Grok[26][27]. Se você planeja incorporar Grok (ou qualquer IA) com dados de usuários, estabeleça fluxos claros de consentimento e exclusão. Além disso, se você usar a Grok-API em seu aplicativo, considere que as saídas e seus prompts podem ser registrados pela xAI para melhoria do modelo[16]. Revise essas políticas e talvez escolha uma solução local se seus dados não puderem sair de certos limites. As ofertas corporativas da xAI podem permitir que um modelo Grok-4 funcione isolado em seu ambiente de nuvem[2] – isso pode ser um meio-termo ideal para uso sensível.
  • Mantenha-se Imparcial e Verifique Alegações: O Reality Engine do Grok-5 ajudará na verificação de fatos, mas nenhuma IA será perfeita. Promova uma cultura na sua equipe que verifique as saídas da IA, especialmente para decisões de alto risco. Use os recursos de citação – se Grok fornecer uma fonte, faça seu sistema buscar essa fonte e verificá-la (talvez até apresentá-la aos usuários). Incentive os usuários dos seus recursos de IA a conferir respostas importantes. Isso não apenas mitiga riscos, como também alinha-se aos princípios EEAT (experiência, expertise, autoridade, confiabilidade) que são importantes se, por exemplo, o conteúdo for publicado online. Você quer a combinação do poder do Grok e do julgamento humano, em vez de confiar cegamente até mesmo em um modelo “em busca da verdade”.

Em conclusão, o Grok da xAI evoluiu incrivelmente rápido e, se o Grok-5 corresponder às expectativas, ele pode estabelecer um novo padrão para o que um assistente de IA pode fazer – sendo verificador de fatos, motor de raciocínio e agente autônomo, tudo em um só. Ao entender a infraestrutura e as escolhas de design do Grok, vemos um modelo para sistemas de IA que valorizam o conhecimento em tempo real e a transparência do raciocínio. Quer você adote o Grok ou não, essas ideias (contextos longos, uso de ferramentas, raciocínio multiagente, aprendizado contínuo a partir de feedback) provavelmente farão parte de todas as plataformas de IA sérias no futuro. A melhor coisa que qualquer equipe experiente em tecnologia pode fazer é arquitetar flexibilidade e manter uma pesquisa profunda sobre como cada novo modelo (Grok-5, GPT-5, Gemini, etc.) pode se integrar ao seu conjunto de ferramentas. O cenário de IA está avançando a uma velocidade vertiginosa – o Grok-4 de ponta de hoje pode ser superado pelo Grok-5 de amanhã – mas ao permanecer imparcial, informado e adaptável, você pode surfar na onda em vez de ser afogado por ela.

Fontes:

1.        xAI News – “O Memphis Supercluster da xAI entrou em operação, com até 100.000 GPUs Nvidia H100”[7] (Jul 2024)

2.        ServeTheHome – “Dentro do Cluster Colossal de 100K GPUs da xAI” (Out 2024)

3.        Blog AMD ROCm – “Inferência com Grok-1 em GPUs AMD” (Ago 2024)

4.        Anúncio xAI – “Anunciando Grok-1.5” (Mar 2024)

5.        Anúncio xAI – “Lançamento Aberto do Grok-1 (Model Card)” (Nov 2023)

6.        Blog Encord – “Grok-1.5V Multimodal – Primeira Visão” (Abr 2024)

7.        Central de Ajuda xAI – “Sobre o Grok, Seu Assistente de IA Humorístico no X”[11][1] (Acesso Nov 2025)

8.        Documentação Oracle Cloud – “xAI Grok 4 – Informações do Modelo”[2][22] (2025)

9.        The Verge – “xAI ajusta Grok após saídas controversas”[19] (Nov 2025)

10.  AI News Hub – “xAI Grok 5 Rumores: Modo Verdade 2.0 e o Que Esperar”[21] (ago. 2025)


[1] [11] [16] [18] [26] [27] Sobre Grok

https://help.x.com/en/using-x/about-grok

[2] [3] [22] Grok AI: Últimas Notícias, Atualizações e Recursos do xAI | AI News Hub

https://www.ainewshub.org/blog/categories/grok

[4] [5] Construindo o Colossus: o inovador supercomputador de IA da Supermicro feito para o xAI de Elon Musk | VentureBeat

https://venturebeat.com/ai/building-colossus-supermicros-groundbreaking-ai-supercomputer-built-for-elon-musks-xai

[6] [7] [25] O Memphis Supercluster da xAI está ativo, com até 100.000 GPUs Nvidia H100 - DCD

https://www.datacenterdynamics.com/en/news/xais-memphis-supercluster-has-gone-live-with-up-to-100000-nvidia-h100-gpus/

[8] [9] [10] Anunciando Grok-1.5 | xAI

https://x.ai/news/grok-1.5

[12] [13] [14] [15] [17] Levando Grok para Todos | xAI

https://x.ai/news/grok-1212

[19] Por que o Grok posta coisas falsas e ofensivas no X? Aqui estão 4 ...

https://www.politifact.com/article/2025/jul/10/Grok-AI-chatbot-Elon-Musk-artificial-intelligence/

[20] [21] [23] [24] Rumores sobre o xAI Grok 5: Data de lançamento, 'Modo Verdade' 2.0 e o que esperar no início de 2026

https://www.ainewshub.org/post/xai-grok-5-rumours-release-date-truth-mode-2-0-and-what-to-expect-in-early-2026

Boxu obteve seu diploma de bacharel na Universidade de Emory, com especialização em Economia Quantitativa. Antes de se juntar à Macaron, Boxu passou a maior parte de sua carreira no espaço de Private Equity e Venture Capital nos EUA. Ele agora é o Chefe de Gabinete e VP de Marketing na Macaron AI, gerenciando finanças, logística e operações, além de supervisionar o marketing.

Candidatar-se para se tornar Os primeiros amigos de Macaron