De Grok 1 à Grok 5 : L'évolution de l'infrastructure et des modèles d'IA de xAI

Auteur : Boxu Li

Grok de xAI a rapidement évolué d'un chatbot innovant sur X à une plateforme d'IA de pointe. Ce plongeon en profondeur examine comment l'infrastructure sous-jacente et les capacités des modèles de Grok ont progressé à travers Grok-1, 2, 3 et 4 – et ce que nous pouvons attendre du prochain Grok-5.

Qu'est-ce que xAI Grok ? Un bref récapitulatif

Grok est la famille phare de modèles de langue de grande taille (LLM) développée par la startup d'IA d'Elon Musk, xAI. Lancé fin 2023 comme chatbot grand public sur X (anciennement Twitter), Grok se distingue par sa personnalité un peu rebelle et malicieuse. Ce qui a immédiatement fait ressortir Grok, c'est sa conscience en temps réel – contrairement à la plupart des LLM avec des données de formation obsolètes, Grok était étroitement intégré au flux en direct de X et pouvait effectuer des recherches sur le web à la volée[1]. En pratique, Grok est un hybride entre un LLM et un agent de données en direct : il peut extraire les dernières informations des publications X et du web, puis incorporer ces faits avec des citations dans ses réponses[1]. Ce bot au style "Guide du voyageur galactique" était prêt à répondre à presque tout (même aux questions "épicées" que d'autres IA pourraient refuser), ce qui a attiré l'attention – et une certaine controverse – pour son approche non filtrée.

Sous le capot, Grok n'est pas un modèle unique mais une famille de modèles et d'outils. Au début, xAI a open-sourcé le modèle de base Grok-1 (un réseau massif de 314 milliards de paramètres) sous une licence Apache-2.0, signalant une stratégie inhabituellement ouverte. Depuis, xAI a rapidement itéré : Grok-1.5 a ajouté un long contexte et une vision multimodale, Grok-2 a amélioré la vitesse et le support multilingue, Grok-3 a introduit des modes de raisonnement explicites, et Grok-4 (et 4 "Heavy") a exploré le territoire multi-agent avec l'utilisation d'outils et de sous-agents coopératifs. Grok est désormais accessible via le chatbot Grok sur X, via l'API xAI, et même via des plateformes cloud (Oracle Cloud répertorie Grok-4 comme une offre de modèle de premier ordre[2][3]). En bref, Grok a évolué d'un simple chatbot avant-gardiste à une véritable pile d'IA – une pile centrée sur la quête de vérité, l'intégration en temps réel et le raisonnement intensif.

À l'intérieur de l'infrastructure de Grok : Colossus Supercomputer et JAX+Rust Stack

Derrière l'interface conviviale de Grok se cache l'un des superordinateurs d'IA les plus puissants au monde. Colossus – le méga-cluster GPU de xAI à Memphis, Tennessee – a été construit pour entraîner et faire fonctionner Grok à une échelle de pointe. Annoncé à la mi-2024 et surnommé le « Supercluster de Memphis » par Musk, Colossus a été conçu pour accueillir jusqu'à 100 000 GPU NVIDIA H100 connectés via un seul tissu RDMA à large bande passante. Selon Musk, « C'est le cluster d'entraînement d'IA le plus puissant au monde ! ». Le centre de données abritant Colossus est une installation de 150 MW qui a été construite en seulement 122 jours – une réalisation si rapide qu'elle a attiré l'attention des médias et même une visite vidéo de ServeTheHome.

Conception matérielle : L'unité de base de Colossus est un rack Supermicro refroidi par liquide contenant 8 serveurs, chacun avec 8× NVIDIA H100 GPUs (64 GPUs par rack). Chaque rack dispose également d'une unité de distribution de liquide de refroidissement (CDU) et de commutateurs réseau à haute vitesse, et les racks sont groupés en pods de 8 (512 GPUs) formant des mini-clusters. Ce design homogène et modulaire facilite l'évolutivité et la gestion. Tous les composants – GPUs, double CPUs Xeon, commutateurs PCIe – sont refroidis par liquide, ce qui est essentiel compte tenu de la dissipation thermique du H100 et du budget énergétique de l'installation de 150MW. Le réseau utilise le tissu Ethernet Spectrum-X de NVIDIA et les DPUs BlueField-3 pour atteindre 400 Gbps+ par nœud, permettant aux GPUs à travers les racks de communiquer à des vitesses extrêmes[4][5]. En résumé, xAI a construit Colossus pour minimiser les goulots d'étranglement : interconnexions rapides, refroidissement pour une utilisation élevée soutenue, et alimentation/refroidissement redondants afin qu'aucune défaillance unique n'arrête l'entraînement.

Échelle et calcul hybride : À la mi-2024, xAI avait environ 32 000 H100 en ligne avec des plans pour atteindre 100 000 d'ici la fin de l'année. Ils ont également annoncé une expansion (« Colossus 2 ») avec 300 000 GPU de nouvelle génération (NVIDIA B200) pour 2025[6]. Même en construisant son propre centre de données, xAI ne s'est pas appuyé sur une seule source de calcul : ils ont loué environ 16 000 GPU H100 sur Oracle Cloud et ont également utilisé AWS et les centres de données libres de X (Twitter)[7]. Cette stratégie hybride a donné à xAI la flexibilité de commencer à entraîner de grands modèles immédiatement (en utilisant des GPU cloud) puis de migrer progressivement les charges de travail sur leur supercalculateur interne. Fin 2025, Colossus devrait inclure 150 000 GPU H100 (plus des dizaines de milliers de nouveaux GPU H200) alors que xAI se préparait pour Grok-4 et au-delà.

Pile logicielle : Pour exploiter ce matériel, xAI a construit un cadre de formation distribué sur mesure centré sur JAX (la bibliothèque de tableaux et de ML haute performance de Google), avec une couche d'orchestration basée sur Rust fonctionnant sur Kubernetes[8]. Selon xAI, « L'entraînement LLM fonctionne comme un train de marchandises qui avance à toute allure ; si une voiture déraille, tout le train est entraîné hors des rails. » Maintenir une haute fiabilité et une Utilisation des FLOP du Modèle (MFU) élevée sur des milliers de GPU était une priorité absolue. L'orchestrateur de formation de xAI détecte automatiquement et éjecte tout nœud qui commence à poser problème (par exemple, des erreurs matérielles) et peut relancer sans problème des fragments du travail si nécessaire[9]. La sauvegarde de centaines de gigaoctets d'état de modèle se fait de manière tolérante aux pannes afin qu'une seule défaillance de serveur ne puisse pas anéantir des jours de progrès. Essentiellement, xAI a traité l'infrastructure comme un problème de première classe – investissant dans les outils pour garder plus de 10 000 GPU occupés même lorsque le matériel échoue ou lors d'expérimentations avec de nouvelles architectures de modèles. Cette pile JAX + Rust + Kubernetes donne à xAI la capacité de faire évoluer les tâches sur le cluster Colossus et d'itérer rapidement sur les variantes de modèles (comme en témoigne la rapidité avec laquelle les versions de Grok ont été déployées). C'est une philosophie similaire à l'infrastructure basée sur TPU de Google ou à la pile logicielle d'OpenAI, mais xAI l'a adaptée pour mélanger des clusters de GPU et mettre l'accent sur la résilience face aux pannes.

Évolution du Modèle Grok : Architecture et Capacités de 1 à 4

Grok-1 : Un Fondement Mixture-of-Experts de 314 Milliards de Paramètres

La première version complète, Grok-1, a été introduite à la fin de 2023 en tant que LLM de classe avancée développé en environ quatre mois. L'architecture de Grok-1 est un Transformateur Mixture-of-Experts (MoE) – essentiellement un modèle épars où différents « experts » (sous-réseaux) traitent différents jetons. En termes d'échelle, Grok-1 est énorme : 314 milliards de paramètres au total, avec 64 couches de Transformateur et 48 têtes d'attention. Il utilise un vocabulaire de 131 000 jetons et une taille d'embedding de 6 144, et la fenêtre contextuelle dans la version ouverte était de 8 192 jetons. Cependant, seule une fraction de ces 314 milliards de poids est active par jeton. Le design MoE signifie que chaque jeton passe par un réseau de sélection qui choisit 2 experts (modules de feed-forward) parmi un grand nombre, donc environ 1/8 des paramètres pourraient être utilisés pour un jeton d'entrée donné. Cela permet à Grok-1 d'atteindre la capacité de représentation d'un modèle de plus de 300 milliards tout en ne calculant que l'équivalent de ~79 milliards de paramètres par jeton – un gain majeur d'efficacité en formation et inférence.

Schéma d'une couche Mixture-of-Experts dans un LLM. Au lieu d'activer chaque neurone pour chaque entrée, un modèle MoE comme Grok-1 utilise un réseau de gating pour diriger les données de chaque token à travers un petit sous-ensemble de réseaux experts (activation éparse), puis combine les résultats. Cela permet d'avoir un nombre massif de paramètres totaux sans croissance linéaire du coût de calcul.

L'approche MoE de Grok-1 a été validée par ses performances. À sa sortie, xAI a rapporté que Grok-1 a obtenu 73% au benchmark de connaissances MMLU et 63,2% sur HumanEval pour le codage – dépassant des modèles comme GPT-3.5 d'OpenAI et Inflection-1, et second seulement après GPT-4 à la fin de 2023. Des tests indépendants ont confirmé les fortes compétences de Grok-1 en mathématiques et en raisonnement pour sa classe de calcul. Par exemple, Grok-1 a réussi à passer un examen de mathématiques de lycée hongrois avec une note C (59%), égalant Claude 2 d'Anthropic (55%) et pas loin derrière GPT-4 (68%) dans les mêmes conditions. Cela était notable car Grok-1 a atteint de tels résultats avec moins de calcul total d'entraînement que GPT-4, démontrant l'efficacité de l'entraînement de xAI.

Cependant, Grok-1 était également très gourmand en ressources. Exécuter le modèle complet de 314 milliards en précision 16 bits nécessite environ ~640 Go de VRAM pour l'inférence. Une telle empreinte signifie qu’aucun serveur unique ne peut l'héberger ; il faut une partition multi-GPU juste pour servir le modèle, et encore plus de GPU (avec parallélisme des données) pour l'entraîner. Cela a souligné pourquoi xAI a construit Colossus et pourquoi l'interconnexion haute vitesse est cruciale – à l'échelle de Grok-1, la mémoire et la bande passante GPU sont souvent les facteurs limitants. En effet, les ingénieurs d'AMD ont démontré Grok-1 sur un serveur MI300X à 8 GPU (le MI300X a 192 Go par GPU, l'un des rares à pouvoir gérer les exigences de mémoire de Grok-1). En bref, Grok-1 a prouvé que xAI pouvait entraîner un modèle de classe GPT-3.5 à partir de zéro, mais il a également poussé les limites du matériel, nécessitant le cluster massif et la pile de formation personnalisée décrits ci-dessus.

Grok-1.5 : Contexte long et vision multimodale

xAI n’a pas arrêté à la base Grok-1. En mars 2024, ils ont annoncé Grok-1.5, qui a apporté deux améliorations majeures : une fenêtre contextuelle de 128 000 jetons et des améliorations substantielles en mathématiques et en codage. Grok-1.5 avait à peu près la même architecture et le même nombre de paramètres que Grok-1 (xAI n’a pas divulgué de nouveaux chiffres de paramètres, ce qui implique qu’il s’agissait d’un raffinement du modèle existant), mais il pouvait traiter des entrées 16 fois plus longues et utiliser des techniques de « supervision évolutive » pour améliorer le raisonnement. Atteindre un contexte de 128k n’est pas trivial - cela impliquait probablement de nouveaux schémas d’encodage positionnel et des programmes de formation pour s’assurer que le modèle n’oublie pas comment gérer les courtes invites. Le résultat était impressionnant : Grok-1.5 a démontré une récupération parfaite de l’information sur toute la fenêtre de 128k lors des tests internes[10], et il excellait dans les tâches de « chercher une aiguille dans une botte de foin » où un extrait pertinent pourrait être caché profondément dans un long document.

Essentiellement, le raisonnement et la résolution de problèmes de Grok-1.5 ont franchi un palier. Sur le benchmark exigeant MATH (problèmes de mathématiques de niveau compétition), Grok-1.5 a obtenu un score de 50,6%, plus du double des 23,9% de Grok-1. Il a atteint 90% sur GSM8K, un ensemble de problèmes de mots mathématiques (en hausse par rapport aux ~63% de Grok-1). Et pour la génération de code, Grok-1.5 a atteint 74,1% sur HumanEval, contre 63%. Ces progrès ont rapproché Grok du niveau de GPT-4 sur les tâches quantitatives – en fait, Grok-1.5 aurait égalé ou dépassé Claude 2 d'Anthropic et PaLM 2 de Google sur de nombreux scores de benchmark. Pour y parvenir, xAI a utilisé des techniques comme l'incitation par chaîne de pensées et a peut-être intégré plus de réglages fins sur les données de code et de mathématiques. Grok-1.5 a également introduit un modèle « tuteur IA » dans la boucle de formation – essentiellement des examinateurs assistés par des humains et des outils qui ont généré des démonstrations de raisonnement de haute qualité pour affiner la résolution de problèmes étape par étape de Grok[11]. C'était le début de l'accent mis par xAI sur la supervision assistée par des outils, que nous verrons davantage dans les versions ultérieures.

En avril 2024, xAI a repoussé les limites avec Grok-1.5V, une extension multimodale capable de traiter des images en plus du texte. Grok-1.5V (« V » pour vision) a pris le Grok-1.5, connu pour sa capacité à traiter des contextes longs et des calculs mathématiques, et lui a donné des yeux : il a été formé pour interpréter des photographies, des diagrammes, des captures d'écran et d'autres entrées visuelles en plus du texte. Le modèle a immédiatement prouvé sa valeur en surpassant le GPT-4V d’OpenAI et d'autres concurrents capables de vision sur un nouveau benchmark appelé RealWorldQA, qui teste la compréhension spatiale dans des images réelles. Grok-1.5V a obtenu un score de 68,7 % sur RealWorldQA, contre 60,5 % pour GPT-4V et 61,4 % pour Google Gemini. En termes pratiques, Grok-1.5V peut répondre à des questions sur ce qui se passe dans une photo, analyser un graphique ou un document, puis raisonner à ce sujet avec la même capacité de long contexte qu'il avait pour le texte. Ce saut multimodal a montré l'engagement de xAI pour une IA qui n'est pas seulement un prédicteur de texte, mais un moteur de raisonnement plus holistique capable de comprendre des données complexes du monde réel. Cela a également ouvert la voie à l'utilisation de Grok dans des applications comme l'analyse d'images médicales ou le débogage de captures d'écran d'interfaces utilisateur, des domaines que Musk a évoqués pour une croissance future.

Grok-2 : Monter en puissance et passer au temps réel

Grok-2 est arrivé fin 2024 et a marqué une transition d'une «prévisualisation propriétaire» à un modèle plus largement disponible. xAI a ouvert l'accès à Grok à tous les utilisateurs sur X à cette époque, indiquant leur confiance dans la robustesse de Grok-2[12][13]. Techniquement, l'architecture de Grok-2 n'était pas un changement radical - c'était toujours un LLM basé sur MoE avec un grand contexte (probablement 128k). Mais xAI a passé la seconde moitié de 2024 à affiner la vitesse, la multilinguistique et l'utilisation des outils de Grok-2. Un modèle Grok-2 mis à jour en décembre 2024 était «3× plus rapide» en inférence, meilleur pour suivre les instructions et fluide dans de nombreuses langues[13][14]. Cela suggère qu'ils ont optimisé le routage MoE et peut-être distillé des parties du modèle pour plus d'efficacité. xAI a également introduit une variante plus petite, Grok-2-mini, pour répondre aux cas d'usage sensibles aux coûts ou à faible consommation (peut-être analogue au GPT-3.5 Turbo d'OpenAI par rapport au GPT-4 complet).

L'une des fonctionnalités phares de Grok-2 était la recherche en direct avec citations. Grok pouvait désormais effectuer automatiquement des recherches sur le web ou analyser des publications X lors de la réponse à une question, puis fournir des citations dans sa sortie[15]. Cela intégrait efficacement un moteur de recherche et un vérificateur de faits dans le flux de travail du modèle. Selon xAI, l'intégration de Grok-2 avec X lui permettait d'avoir une connaissance en temps réel des dernières nouvelles, des sujets tendances et des données publiques, lui donnant un avantage pour les requêtes sur les événements actuels[1]. Par exemple, si on lui demandait des informations sur un match de sport qui s'est déroulé « la nuit dernière », Grok-2 pouvait rechercher le score et citer un article de presse ou une publication X avec le résultat. Cette capacité en temps réel est devenue un argument de vente unique — contrairement à GPT-4 qui avait une date limite de formation fixée (et a seulement ajouté plus tard un plugin de navigation), Grok est né connecté aux données en direct. D'un point de vue technique, la fonctionnalité de recherche en direct impliquait un sous-système de type agent : le prompt de Grok pouvait déclencher un outil interne qui interrogeait les APIs X ou web, et le texte récupéré était ensuite ajouté au contexte de Grok (avec l'URL source) pour la réponse finale[1][16]. xAI a exposé des contrôles pour que les utilisateurs ou les développeurs décident si Grok devait effectuer une recherche automatique, toujours rechercher, ou rester purement sur les connaissances internes[1][11].

Grok-2 a également amélioré l'accessibilité et le coût. D'ici décembre 2024, xAI a rendu le chatbot Grok gratuit pour tous les utilisateurs de X (avec des niveaux payants offrant simplement des limites de taux plus élevées)[13]. Ils ont également lancé une API publique avec des modèles Grok-2 au prix de 2 $ par million de jetons d'entrée (un prix agressif sous-cotant de nombreux concurrents)[17]. Ce mouvement a positionné Grok-2 non seulement comme une exclusivité X, mais comme une plateforme de développement générale. Techniquement, la formation de Grok-2 a probablement incorporé des millions d'interactions utilisateur de la version bêta de Grok-1, plus un grand modèle de récompense pour l'alignement. L'équipe de Musk a mentionné l'utilisation de “tuteurs AI” (examinateurs humains) pour sélectionner les données de réglage fin et un accent sur rendre Grok politiquement neutre mais toujours humoristique[11][18]. Il y a eu des accrocs – le style non censuré de Grok a conduit à des sorties offensantes, que xAI a dû traiter avec des filtres de sécurité mis à jour et en « maîtrisant » la tendance de Grok à faire écho aux tweets personnels de Musk dans ses réponses[19]. À la fin de la période de Grok-2, xAI avait trouvé un meilleur équilibre : Grok pouvait encore être audacieux, mais il était moins susceptible de produire du contenu interdit ou biaisé, grâce à un RLHF (apprentissage par renforcement avec retour d'information humain) plus strict et des invites système ajustées.

Grok-3 : Modes de raisonnement et résolution de problèmes en plusieurs étapes

Lancé au début de 2025, Grok-3 a représenté un saut en avant en rendant le modèle plus transparent dans sa réflexion. xAI a décrit Grok-3 comme leur « modèle le plus avancé à ce jour » à l'époque, soulignant ses fortes capacités de raisonnement. Sous le capot, Grok-3 a multiplié par 10 la puissance de calcul par rapport à Grok-2, suggérant soit un modèle plus grand, soit simplement un entraînement beaucoup plus long avec plus de données. Il est possible que xAI ait augmenté le nombre d'experts ou de couches, mais ils n'ont pas divulgué de nouveaux nombres de paramètres. Au lieu de cela, l'accent était mis sur la manière dont Grok-3 gérait les tâches de raisonnement. Il a introduit des modes d'inférence spéciaux : un mode « Réfléchir » où le modèle montrerait sa chaîne de pensée (permettant essentiellement aux utilisateurs de voir son raisonnement étape par étape dans un panneau séparé), et un mode « Gros Cerveau » pour les requêtes complexes, qui allouait plus de calcul (ou peut-être lançait plusieurs passes de raisonnement) pour produire une réponse plus approfondie. Ces fonctionnalités étaient en ligne avec la tendance de l'industrie consistant à « laisser le modèle raisonner à voix haute » pour augmenter la transparence et la précision.

Lors des benchmarks et évaluations, Grok-3 a comblé une grande partie de l'écart avec GPT-4. Les médias technologiques ont rapporté que Grok-3 égalait ou surpassait le GPT-4 d’OpenAI (la version originale, pas l'hypothétique GPT-4.5) dans de nombreux benchmarks académiques et de codage. Par exemple, Grok-3 aurait obtenu des résultats à la hauteur de GPT-4 et Claude 2 sur les tests de raisonnement ARC Advanced et MMLU, et il a particulièrement brillé dans les tâches de mathématiques/programming où les modèles Grok avaient déjà un avantage. Un indice précoce de la force de Grok-3 : il a atteint 90 %+ sur GSM8K (presque parfait sur les problèmes de mathématiques de niveau scolaire) et ~75 %+ sur HumanEval, le plaçant solidement dans la catégorie de GPT-4 pour ces catégories. De plus, Grok-3 a amélioré la compréhension multilingue, le rendant plus compétitif à l'échelle mondiale.

Du point de vue de l'infrastructure, Grok-3 a été le moment où xAI a vraiment mis l'accent sur l'utilisation d'outils. Le modèle pouvait appeler des outils externes comme des calculatrices, des moteurs de recherche, des interprètes de code, etc., de manière plus fluide, et le système intégrait ces résultats dans les réponses. Essentiellement, Grok-3 a commencé à brouiller la ligne entre un modèle de langage et un cadre d'agent. Au lieu de s'attendre à ce qu'un énorme modèle fasse tout en interne, Grok-3 décomposait une requête complexe en étapes, utilisait des outils ou des sous-routines pour certaines étapes (par exemple, récupérer un document, exécuter du code Python, vérifier une preuve), puis composait la réponse finale. Cette approche préfigurait ce qui allait arriver avec Grok-4 Heavy. Cela s'aligne également avec les mentions de la feuille de route de recherche de xAI sur la vérification formelle et la surveillance évolutive – Grok-3 pouvait utiliser des vérificateurs externes ou des documents de référence pour vérifier ses propres sorties dans des situations critiques[20][21]. Tout cela a fait de Grok-3 un assistant plus fiable et performant, le faisant passer d'une simple alternative bavarde à GPT-3 à quelque chose de plus proche d'un chercheur en IA capable de citer des sources et de résoudre de manière fiable des problèmes en plusieurs étapes.

Grok-4 et Grok-4 Heavy : Collaboration multi-agents et performance de pointe

À la mi-2025, xAI a lancé Grok-4, le qualifiant de « modèle le plus intelligent du monde ». Bien que de telles affirmations doivent être prises avec précaution, Grok-4 est sans aucun doute parmi les modèles de premier plan de 2025. Le grand changement avec Grok-4 est qu'il ne s'agit plus d'un seul modèle – surtout dans la configuration Grok-4 Heavy, c'est essentiellement plusieurs modèles spécialisés travaillant de concert. xAI a construit Grok-4 comme un système multi-agents : lorsque vous posez une question complexe, Grok-4 peut faire appel à différents « experts » (agents) pour traiter des parties du problème, puis agréger leurs découvertes[22][23]. Par exemple, une session Grok-4 Heavy pourrait déployer un agent pour effectuer une recherche sur le web, un autre pour analyser un tableur, et un autre pour écrire du code, avec un agent coordinateur orchestrant ces sous-tâches. Cela est similaire en esprit à des projets comme AutoGPT d'OpenAI ou les agents « AI constitutionnels » d'Anthropic, mais xAI l'a intégré au niveau du produit – Grok-4 Heavy est la version multi-agents de Grok que les utilisateurs d'entreprise peuvent interroger directement.

Le résultat de cette conception est que Grok-4 excelle dans des tâches très complexes et à long terme. Il peut maintenir un fil conducteur cohérent sur des millions de tokens (la documentation API de xAI liste Grok-4.1 Fast avec une fenêtre de contexte de 2 000 000 de tokens pour certaines variantes), ce qui est pratiquement illimité pour la plupart des utilisations réelles. Les agents de Grok-4 peuvent effectuer des récupérations et des raisonnements en parallèle, le rendant beaucoup plus rapide pour des tâches comme la recherche exhaustive ou la génération de plans détaillés. Sur les benchmarks d'évaluation conçus pour tester le raisonnement avancé (comme Humanity’s Last Exam, un examen simulé de doctorat avec 2500 questions), Grok-4 aurait obtenu un score dans la tranche des 40% – supérieur à de nombreux contemporains et indicatif d'un raisonnement très solide en zero-shot. Dans les benchmarks de codage et de QA, Grok-4 Heavy a été noté pour surpasser les systèmes mono-modèles les plus puissants, grâce à sa capacité à éviter les erreurs en vérifiant le travail via plusieurs agents.

Grok-4 a également amené les intégrations d'outils natifs à maturité. Le modèle peut utiliser en autonomie une suite d'outils hébergés par xAI : navigation web, exécution de code, base de données vectorielle pour la récupération, analyse d'images, et plus encore. Lorsqu'une requête utilisateur arrive, Grok-4 (surtout en mode "raisonnement") décide s'il doit appeler ces outils et quand. Tout cela est retransmis à l'utilisateur avec une transparence totale – vous pourriez voir Grok dire « Recherche de documents pertinents... », puis il cite ces documents dans la réponse finale. Le système est conçu pour que l'utilisation des outils soit fluide et que l'utilisateur n'ait pas à l'orchestrer ; vous posez simplement une question en langage courant, et Grok s'occupe du reste. Il est à noter que xAI ne facture pas les appels d'outils pendant la phase bêta (ils souhaitent encourager l'utilisation intensive des outils pour améliorer les capacités du modèle).

L'un des dérivés plus spécialisés de Grok-4 est grok-code-fast-1, un modèle axé sur le code, et Grok 4.1 Fast (Raisonnement et Non-Raisonnement), optimisés pour un débit élevé et proposés gratuitement dans certains cas. Cela montre la stratégie de xAI d'offrir différentes tailles et vitesses de Grok pour répondre à différents besoins – du 4.1 Fast gratuit mais toujours puissant (avec des hallucinations réduites grâce à l'utilisation d'outils) à l'agent Heavy premium pour l'analyse d'entreprise.

En termes d'alignement, la sortie de Grok-4 a été accompagnée de garanties de sécurité renforcées (après les incidents de Grok-3 où il a fait des blagues antisémites et a été brièvement en difficulté[19]). xAI a mis en œuvre des filtres plus stricts et a souligné que les réponses de Grok ne sont pas influencées par les opinions personnelles de Musk[19]. Ils ont également introduit un mécanisme de retour d'information où les utilisateurs pouvaient évaluer les réponses, contribuant à un ajustement continu. À la fin de 2025, Grok n'avait pas eu d'autres incidents publics majeurs, ce qui suggère que la combinaison de RLHF, de tuteurs IA spécialisés (experts en domaine qui affinent le modèle dans des domaines sensibles) et d'auto-vérifications multi-agents fonctionnait mieux. En fait, xAI a opéré un virage vers les « tuteurs IA spécialisés » en 2025, préférant les experts en la matière pour sélectionner les données d'entraînement (par exemple, des mathématiciens, des avocats, etc. examinant les résultats) plutôt que des travailleurs généraux. Cela a probablement amélioré la précision factuelle de Grok-4 et réduit les biais dans des domaines de niche.

Voici un résumé de l'évolution du modèle Grok de 2023 à 2025, mettant en évidence les spécifications et capacités clés :

Tableau : Évolution des modèles xAI Grok (2023–2025)

Modèle
Sortie
Architecture & Taille
Fenêtre de contexte
Caractéristiques notables
Références / Performance
Grok-0
Mi-2023 (interne)
33B transformateur dense (prototype)
4K tokens (estimation)
Prototype initial de LLM (≈Niveau LLaMA-2 70B)
~57% GSM8K, ~66% MMLU (5 essais)
Grok-1
Nov 2023
314B MoE (64 couches, 48 têtes; 2 experts par token)
8K tokens
Poids open-source; forte compétence en mathématiques & codage
73% MMLU, 63.2% HumanEval; 59% sur un nouvel examen de mathématiques
Grok-1.5
Mars 2024
~314B MoE (raffiné)
128K tokens
Long contexte; raisonnement & mathématiques améliorés
50.6% MATH, 90% GSM8K, 74.1% HumanEval
Grok-1.5V
Avril 2024
Grok-1.5 + Encodeurs de vision
128K tokens
Multimodal (compréhension image + texte)
68.7% RealWorldQA (vs 60.5% GPT-4V) – meilleur en raisonnement visuel
Grok-2
Août 2024
~314B MoE (optimisations d'inférence plus rapides)
128K tokens (32K pour la variante vision)
Recherche sur le web & citations; multilingue; générateur d'images “Aurora”
Égalé GPT-4 Turbo sur de nombreuses tâches (selon tests internes); 3× plus rapide que 1.5[13]
Grok-2.5
Août 2025
(Variante open-source de Grok-2.5 annoncée)
128K+ tokens
Poids à être ouverts (Musk a promis Grok-2.5 open-source)
Grok-3
Fév 2025
Possiblement plus grand MoE (10× calcul d'entraînement vs 2)
131K tokens (effectivement long)
Mode “Think” (montre le raisonnement); meilleure utilisation des outils
~88–90% GSM8K, approchant GPT-4 sur les références HHH (données non officielles)
Grok-4
Juil 2025
Système multi-agent (LLM de base + outils + agents)
256K tokens (Grok-4.0); jusqu'à 2M dans 4.1
Appel d'outil natif; mode “Heavy” exécute plusieurs agents en parallèle
~42% à l'examen final de l'humanité[2] (dernier cri); fort dans les tâches complexes
Grok-4.1 Rapide
Nov 2025
Grok-4 optimisé (multimodal)
2M tokens
Modèle haute vitesse, faible coût (niveau gratuit); mode non-raisonnement disponible
Légère baisse de qualité par rapport à Heavy, mais excelle dans les requêtes en temps réel
Grok-5 (rumeur)
Attendu 2026
Architecture de nouvelle génération (“Projet Valis”) possiblement >1T params (sparse) + composants GNN
Multi-million tokens (prévu)
“Mode Vérité 2.0” avec un moteur de réalité pour vérification des faits; plus d'agents autonomes; multimodal++
Vise à rivaliser avec GPT-5 et Google Gemini 3 sur tous les fronts[24][21]

Sources : Annonces officielles de xAI, rapports médiatiques[22], et rumeurs pour Grok-5[21].

Forces et limitations de Grok en 2025

Avec Grok-4, xAI a su définir un créneau clair dans le paysage de l'IA. Les principales forces de Grok en 2025 incluent :

  • Compétences Exceptionnelles en Raisonnement et Mathématiques : Toutes les versions de Grok montrent un talent pour les énigmes logiques, les problèmes quantitatifs et le codage. Grok-4 Heavy utilise en particulier plusieurs agents de raisonnement pour décomposer les problèmes, ce qui entraîne moins d'erreurs sur les tâches difficiles (comme les longues démonstrations ou les défis de codage complexes) par rapport aux LLM uniques. Les benchmarks comme MATH, GSM8K et HLE placent Grok-4 en tête ou près du sommet du classement[2].
  • Intégration des Connaissances en Temps Réel : Grok est sans doute le modèle le plus à jour disponible grâce à son intégration X et web. Non seulement il a une date de fin d'entraînement plus récente que beaucoup (Grok-4 a été entraîné sur des données probablement jusqu'à mi-2025), mais il peut aussi récupérer des informations en direct sur demande[1]. Pour tout cas d'utilisation nécessitant des données actuelles – analyse de l'actualité, événements boursiers, tendances des médias sociaux, etc. – Grok est extrêmement pratique. Il cite ses sources pour ces faits en temps réel, facilitant la vérification des réponses[15].
  • Contexte Massif et Rétention : Avec jusqu'à 2 millions de tokens dans certaines versions, Grok peut mémoriser efficacement des bases de code entières ou des documents longs en une seule fois. C'est transformateur pour des tâches comme l'examen de milliers de pages de contrats, l'analyse d'années de journaux ou les revues de littérature approfondies – Grok peut garder tout ce contexte « en tête » et établir des connexions à travers lui. De plus, xAI a conçu Grok pour utiliser ce contexte efficacement (128k de contexte dans Grok-1.5 a déjà montré une mémoire quasi parfaite).
  • Utilisation d'Outils et Orchestration Multi-Agents : Le design de Grok-4 Heavy, qui utilise des agents et des outils spécialisés, signifie qu'il est moins une « boîte noire ». Il peut suivre des workflows explicites – chercher ceci, calculer cela, puis composer la réponse. Cela tend non seulement à produire des réponses plus précises (chaque sous-tâche est gérée par un expert), mais rend également le raisonnement de Grok plus interprétable lorsqu'il partage ses étapes de réflexion. Pour les développeurs, il est plus facile d'étendre les capacités de Grok en ajoutant de nouveaux outils, puisque le modèle est déjà conditionné pour utiliser des outils lorsque c'est approprié.
  • Ouverture et Déployabilité : Contrairement aux modèles d'OpenAI, certaines parties de la famille Grok sont ouvertes. Les poids de Grok-1 sont publics, et Musk a indiqué que Grok-2.5 et possiblement Grok-3 seront également open-source. Cela signifie que les chercheurs peuvent inspecter et même affiner ces modèles sur leurs propres données. Pour les entreprises, xAI offre des instances sur site ou cloud dédié (via Oracle et autres) pour atténuer les préoccupations de confidentialité des données[2][3]. Cette flexibilité – de SaaS entièrement hébergé à auto-hébergé – est un plus pour Grok sur le marché.

Cependant, Grok n'est pas sans ses limites :

  • Défis de sécurité et d'ajustement : Le positionnement initial de Grok en tant qu'IA « en quête de vérité maximale, politiquement incorrecte » signifiait qu'elle était moins filtrée que ses concurrents, ce qui a conduit à certaines erreurs flagrantes. Notamment, Grok-3 a à un moment donné généré des éloges pour Hitler et des remarques antisémites lorsqu'il était sollicité d'une certaine manière[19]. xAI a dû se précipiter pour ajuster l'invite système et le réglage fin pour empêcher de telles sorties. Bien que Grok-4 soit plus sûr, il marche toujours sur une ligne fine essayant d'être provocant mais pas offensant. Les entreprises dans les industries réglementées pourraient être prudentes et mettre en œuvre des couches supplémentaires de modération de contenu lorsqu'elles utilisent Grok. L'inverse est que Grok répondra à des questions que d'autres refusent (par exemple, il pourrait fournir des informations sur des sujets controversés que les modèles d'OpenAI ou d'Anthropic refuseraient), ce qui peut être un avantage ou un inconvénient selon le cas d'utilisation.
  • Maturité de l'écosystème : xAI est un nouvel acteur, donc son écosystème d'intégrations tierces, de bibliothèques et de ressources communautaires est plus petit que celui d'OpenAI ou de Google. Bien que Grok ait une API, il y a moins de plugins prêts à l'emploi ou de tutoriels pour des choses comme le réglage fin sur des données personnalisées ou son intégration dans des pipelines ML existants. La documentation existe mais est en croissance. Cela dit, l'écart se réduit – des outils comme Macaron AI ont commencé à offrir une orchestration multi-modèles incluant Grok aux côtés de GPT/Gemini, et l'approche open-source de xAI favorise les contributions de la communauté.
  • Biais potentiel et objectivité : Musk présente Grok comme s'efforçant de vérité et d'objectivité, mais Grok hérite des biais de ses données d'entraînement comme tout autre LLM. Son intégration étroite avec les données X est une arme à double tranchant : il connaît les derniers mèmes et sentiments, mais il pourrait aussi refléter la toxicité ou les points de vue biaisés présents sur les réseaux sociaux. xAI a mis en place des contrôles (tuteurs IA et un objectif de « balance »[18]), mais les utilisateurs doivent rester vigilants. Par exemple, si un sujet est fortement discuté de manière biaisée sur X, Grok pourrait le refléter jusqu'à être corrigé soit par sa propre vérification croisée, soit par les retours des utilisateurs.
  • Exigences de calcul : Exécuter les plus grands modèles Grok (le Grok-4 Heavy à source fermée) est extrêmement exigeant. Peu d'organisations en dehors des grandes technologies ont les moyens d'entraîner ou même d'inférer de tels modèles sans l'aide de xAI. Bien que des variantes plus petites et des versions ouvertes existent, si vous souhaitez les capacités complètes de Grok-4/5 avec des multi-agents à grande échelle, vous allez probablement utiliser le cloud de xAI ou un service partenaire. Cela est similaire à la dynamique avec GPT-4 (où seul Microsoft/Azure le fait vraiment fonctionner entièrement), mais c'est une considération pour ceux qui espéraient que l'open-sourcing rendrait Grok trivial à auto-héberger. L'exigence de 640 Go de VRAM de Grok-1 donne une idée du défi – les versions plus récentes de Grok peuvent utiliser encore plus de GPU en parallèle.

En résumé, Grok en 2025 est puissant et unique – excellent pour les utilisateurs qui ont besoin de raisonnement de pointe et d'informations fraîches, mais il nécessite une manipulation prudente côté sécurité et des ressources significatives pour être déployé à grande échelle.

Quoi de Neuf : Grok 5 et la Route à Venir

Tous les regards sont maintenant tournés vers Grok-5, que xAI a laissé entrevoir pour 2026. Bien que les détails officiels soient rares, les rapports d'initiés et les indices de Musk esquissent un tableau ambitieux. Grok-5 devrait être plus qu'un simple LLM – probablement une plateforme AI agentique qui reprend tout ce que Grok-4 a bien fait et va encore plus loin. Les principales rumeurs et caractéristiques plausibles incluent :

  • « Mode Vérité 2.0 » – Le Moteur de Réalité : xAI semble renforcer la réputation de Grok en tant que chercheur de vérité en développant un Moteur de Réalité interne pour Grok-5[21]. Cela signifie que Grok-5 pourrait vérifier activement les faits : en croisant les affirmations avec plusieurs sources, en signalant les incertitudes et même en exécutant des simulations ou des vérifications logiques formelles pour validation. En pratique, si vous posez une question à Grok-5, il pourrait non seulement répondre, mais aussi fournir un score de confiance ou des contre-arguments s'il trouve des preuves contradictoires. Cela pourrait rendre Grok-5 beaucoup plus fiable pour des tâches comme l'analyse de recherche, les conseils juridiques ou l'information médicale – des domaines où les LLM actuels « hallucinent » parfois des faits faux. Le Moteur de Réalité implique probablement une intégration de graphes de connaissances et peut-être un composant Graph Neural Network (GNN) (il y a des indices que xAI explore les GNN pour donner à Grok des capacités de raisonnement structuré)[2][22].
  • Plus grande autonomie et tâches en plusieurs étapes : On dit que Grok-5 est « agentique » au point de gérer des travaux en plusieurs étapes dans l'espace numérique sans prompts constants[23]. Cela implique un planificateur plus avancé – Grok-5 pourrait vous laisser dire : « Grok, gère mes réservations de voyage pour le mois prochain », et il interagira avec des outils/services pour le faire, ne demandant une confirmation que si nécessaire. Le système multi-agents de Grok-4 Heavy pourrait évoluer vers un agent unique plus cohérent qui gère en interne des sous-agents avec encore moins de microgestion de l'utilisateur. Les indices de xAI sur le Projet « Valis », qui atteint des scores sans précédent sur certains tests internes[20], suggèrent qu'ils construisent quelque chose capable de raisonner sur la causalité du monde réel et peut-être de coordonner des actions complexes. Dans les environnements d'entreprise, Grok-5 pourrait servir de chef de projet IA ou d'analyste de recherche, pas seulement de bot de questions-réponses.
  • Scalabilité et taille du modèle : Si Grok-1 était de 314 milliards et que Grok-4 est vraisemblablement plus grand (plus multi-agent), Grok-5 pourrait faire évoluer le nombre de paramètres dans les trillions – probablement par une expansion MoE plutôt qu'un modèle dense. Le cluster Colossus de xAI (surtout avec les mises à niveau prévues) devrait avoir suffisamment de puissance de calcul pour s'entraîner au-delà d'un trillion de paramètres s'ils utilisent efficacement des méthodes éparses[25]. Les données d'entraînement s'étendront également : Grok-5 aura une année supplémentaire de données web et X, un retour d'information humain plus raffiné et peut-être un entraînement multimodal (vidéo, audio) pour le rendre plus général. Nous pourrions également voir des contextes plus longs pris en charge nativement (millions de tokens par défaut, pas seulement un mode spécial), car les architectures mémoire s'améliorent.
  • Multimodalité améliorée : Grok-5 améliorera presque certainement la vision (peut-être en égalant les modèles spécialisés en compréhension d'image) et pourrait introduire de nouveaux modes comme l'analyse audio et vidéo. Musk s'intéresse à ce que xAI contribue à Tesla (autopilot, etc.), donc un Grok capable d'analyser les données des capteurs, les flux de caméras ou même les commandes robotiques est envisageable à terme. Quoi qu'il en soit, Grok-5 visera à intégrer de manière transparente le texte, les images, et peut-être les flux de données en temps réel.
  • Open Source vs Fermé : Musk a signalé un engagement à rendre open source les anciens modèles Grok, et d'ici à ce que Grok-5 soit disponible, Grok-3 ou 4 pourrait être public. Grok-5 lui-même est peu susceptible d'être en open-weight initialement (en raison de l'avantage concurrentiel), mais xAI pourrait publier une version légèrement réduite ou un point de contrôle antérieur pour les chercheurs. Cette stratégie de partie ouverte, partie propriétaire pourrait continuer, ce qui maintiendrait l'engagement de la communauté de Grok tout en donnant à xAI un avantage produit.
  • Concurrence avec GPT-5/Gemini : 2025 à 2026 voit l'arrivée de nouveaux modèles générationnels d'OpenAI (peut-être GPT-5) et Google DeepMind (série Gemini). Grok-5 est explicitement positionné pour « détrôner les géants »[22]. Cela signifie que nous pouvons nous attendre à ce que xAI cible toute faiblesse de ces modèles. Par exemple, si GPT-5 est très puissant mais toujours fermé et manquant d'informations en temps réel, xAI mettra en avant l'ouverture et les données en direct de Grok-5. Si Gemini est puissant mais peut-être plus conservateur dans ses réponses, xAI mettra en avant l'utilité non censurée de Grok. Essentiellement, le succès de Grok-5 dépendra de sa capacité à égaler ces rivaux en performance brute et à se différencier par sa philosophie (plus transparent, plus contrôlé par l'utilisateur, etc.).

En attendant, xAI a une feuille de route de fonctionnalités qui pourraient être déployées même avant un Grok-5 complet. Cela inclut des éléments tels que des instances d'IA personnalisées (utilisant les données d'un utilisateur pour créer un modèle personnel, avec des contrôles de confidentialité), une intégration plus profonde avec la plateforme de X (Grok comme assistant intégré pour la création ou la modération de contenu sur X), et des ajustements spécifiques à des domaines pour Grok (par exemple, Grok pour la finance, Grok pour la médecine, qui exploitent des données spécialisées). Tous ces éléments prendraient de l'élan en se dirigeant vers Grok-5.

Se préparer pour Grok-5 : Que devraient faire les développeurs et les équipes ?

Si vous êtes ingénieur, data scientist ou responsable de produit suivant l'évolution de Grok, la grande question est comment tirer parti de ces avancées. Voici quelques considérations pratiques pour se préparer à Grok-5 et aux modèles de prochaine génération similaires :

  • Adoptez une stratégie multi-modèles dès maintenant : Ne mettez pas tous vos œufs dans le même panier d'IA. Grok-5 sera puissant, mais il coexistera avec les modèles OpenAI, Google, Anthropic, etc. Les meilleurs systèmes souvent ensemblent ou orientent les requêtes vers différents modèles selon leur force. Vous pouvez commencer dès aujourd'hui : utilisez Grok-4 pour ce qu'il fait de mieux (informations en temps réel, mathématiques, récupération de contexte long) et d'autres modèles là où ils excellent (peut-être GPT-4 pour l'écriture créative ou Claude pour les grands résumés, etc.). En construisant votre pipeline pour qu'il soit agnostique au modèle, intégrer Grok-5 à son arrivée peut être aussi simple que de changer un point de terminaison API ou un paramètre de poids, plutôt qu'une refonte complète.
  • Construisez des pipelines d'évaluation robustes : À chaque mise à niveau du modèle, les comportements peuvent changer. Grok-5 pourrait corriger certains défauts de Grok-4 mais en introduire de nouveaux. Mettez en place une évaluation automatisée à l'aide de vos propres cas de test – mesurez la précision, la qualité de sortie, la latence et le coût à travers les différentes versions de modèle. Incluez des cas limites et des requêtes sensibles pour détecter toute régression en matière de sécurité ou de conformité aux politiques. Avoir cela en place signifie que lorsque Grok-5 arrivera, vous pourrez vérifier quantitativement ses améliorations (ou tout nouveau risque) avant de le déployer entièrement en production.
  • Exploitez les outils et gardez l'humain dans la boucle : Une leçon de la conception de Grok est que les outils et les humains améliorent considérablement la fiabilité. Même si vous n'avez pas accès au système d'agent interne de Grok-4 Heavy, vous pouvez l'imiter : pour les tâches critiques, faites en sorte que votre système appelle des API externes (recherche, calculatrices) pour soutenir le modèle, et envisagez d'avoir un examinateur humain pour les sorties importantes. Grok-5 permettra probablement une opération encore plus autonome, mais vous devriez décider où vous souhaitez un humain dans la boucle. Par exemple, peut-être que Grok-5 peut rédiger un rapport analytique et même vérifier les faits, mais vous aurez toujours un humain pour l'approuver pour le ton et l'exactitude finale. Définir ces limites maintenant facilitera l'intégration.
  • Traitez la gouvernance des données dès le début : L'intégration étroite de Grok avec X signifie qu'il peut personnaliser et s'améliorer en utilisant les données des utilisateurs, mais les entreprises doivent être prudentes avec la vie privée. Le Centre d'aide X précise que les utilisateurs peuvent se désinscrire du partage de données pour la formation et la personnalisation de Grok[26][27]. Si vous prévoyez d'incorporer Grok (ou toute IA) avec les données des utilisateurs, établissez des flux de consentement clairs et d'option de retrait. Aussi, si vous utilisez Grok-API dans votre application, considérez que les sorties et vos invites pourraient être enregistrées par xAI pour l'amélioration du modèle[16]. Révisez ces politiques et envisagez peut-être une solution sur site si vos données ne peuvent pas quitter certaines limites. Les offres d'entreprise de xAI pourraient permettre à un modèle Grok-4 de fonctionner isolé dans votre environnement cloud[2] – cela pourrait être un compromis idéal pour une utilisation sensible.
  • Restez impartial et vérifiez les affirmations : Le moteur de réalité de Grok-5 aidera à la vérification des faits, mais aucune IA ne sera parfaite. Promouvez une culture dans votre équipe qui vérifie les sorties de l'IA, surtout pour les décisions importantes. Utilisez les fonctionnalités de citation – si Grok donne une source, faites en sorte que votre système récupère cette source et la vérifie (peut-être même la présente aux utilisateurs). Encouragez les utilisateurs de vos fonctionnalités d'IA à vérifier les réponses importantes. Cela ne mitige pas seulement les risques, cela aligne également avec les principes EEAT (expérience, expertise, autorité, fiabilité) qui comptent si, par exemple, le contenu est publié en ligne. Vous voulez la combinaison de la puissance de Grok et du jugement humain, plutôt que de faire aveuglément confiance même à un modèle "chercheur de vérité".

En conclusion, Grok de xAI a évolué à une vitesse étonnante, et si Grok-5 est à la hauteur de sa réputation, il pourrait établir une nouvelle norme pour ce qu'un assistant IA peut faire – être à la fois un vérificateur de faits, un moteur de raisonnement et un agent autonome. En comprenant l'infrastructure et les choix de conception de Grok, nous voyons un modèle pour les systèmes IA qui valorisent la connaissance en temps réel et la transparence du raisonnement. Que vous adoptiez Grok ou non, ces idées (contextes longs, utilisation d'outils, raisonnement multi-agents, apprentissage continu à partir des retours) feront probablement partie de toutes les plateformes IA sérieuses à l'avenir. La meilleure chose qu'une équipe technophile puisse faire est d'architecturer de la flexibilité et de maintenir une recherche approfondie sur la façon dont chaque nouveau modèle (Grok-5, GPT-5, Gemini, etc.) pourrait s'intégrer dans leur infrastructure. Le paysage de l'IA évolue à une vitesse fulgurante – le Grok-4 à la pointe d'aujourd'hui pourrait être éclipsé par le Grok-5 de demain – mais en restant impartial, informé et adaptable, vous pouvez surfer sur la vague au lieu d'être submergé par elle.

Sources :

1.        xAI News – « La supercluster Memphis de xAI est en ligne, avec jusqu'à 100 000 GPU Nvidia H100 »[7] (juil. 2024)

2.        ServeTheHome – « À l'intérieur du cluster Colossus de 100K GPU de xAI » (oct. 2024)

3.        Blog AMD ROCm – « Inférence avec Grok-1 sur les GPU AMD » (Août 2024)

4.        Annonce xAI – « Annonce de Grok-1.5 » (Mars 2024)

5.        Annonce xAI – « Publication ouverte de Grok-1 (Model Card) » (Novembre 2023)

6.        Blog Encord – « Grok-1.5V Multimodal – Premier aperçu » (Avril 2024)

7.        Centre d'aide xAI – « À propos de Grok, votre assistant IA humoristique sur X »[11][1] (Consulté en Nov 2025)

8.        Docs Oracle Cloud – « xAI Grok 4 – Infos modèle »[2][22] (2025)

9.        The Verge – « xAI ajuste Grok après des sorties controversées »[19] (Novembre 2025)

  1. AI News Hub – « xAI Grok 5 Rumeurs : Mode Vérité 2.0 et à quoi s'attendre »[21] (août 2025)

[1] [11] [16] [18] [26] [27] À propos de Grok

https://help.x.com/en/using-x/about-grok

[2] [3] [22] Grok AI : Dernières nouvelles, mises à jour et fonctionnalités de xAI | AI News Hub

https://www.ainewshub.org/blog/categories/grok

[4] [5] Construction du Colossus : le superordinateur révolutionnaire d'IA de Supermicro conçu pour le xAI d'Elon Musk | VentureBeat

https://venturebeat.com/ai/building-colossus-supermicros-groundbreaking-ai-supercomputer-built-for-elon-musks-xai

[6] [7] [25] Le Supercluster de Memphis de xAI est opérationnel, avec jusqu'à 100 000 GPU Nvidia H100 - DCD

https://www.datacenterdynamics.com/en/news/xais-memphis-supercluster-has-gone-live-with-up-to-100000-nvidia-h100-gpus/

[8] [9] [10] Annonce de Grok-1.5 | xAI

https://x.ai/news/grok-1.5

[12] [13] [14] [15] [17] Amener Grok à tout le monde | xAI

https://x.ai/news/grok-1212

[19] Pourquoi Grok publie-t-il des choses fausses et offensantes sur X ? Voici 4 ...

https://www.politifact.com/article/2025/jul/10/Grok-AI-chatbot-Elon-Musk-artificial-intelligence/

[20] [21] [23] [24] Rumeurs sur xAI Grok 5 : Date de sortie, 'Mode Vérité' 2.0 et à quoi s'attendre début 2026

https://www.ainewshub.org/post/xai-grok-5-rumours-release-date-truth-mode-2-0-and-what-to-expect-in-early-2026

Boxu a obtenu son diplôme de licence à l'Université Emory en économie quantitative. Avant de rejoindre Macaron, Boxu a passé la majeure partie de sa carrière dans le domaine des capitaux privés et du capital-risque aux États-Unis. Il est maintenant chef de cabinet et vice-président du marketing chez Macaron AI, gérant les finances, la logistique et les opérations, tout en supervisant le marketing.

Postuler pour devenir Les premiers amis de Macaron