
Auteur : Boxu Li
La dernière initiative stratégique d'OpenAI souligne l'élan pour intégrer l'IA profondément dans les industries traditionnelles. En décembre 2025, OpenAI a pris une participation dans Thrive Holdings, un nouveau véhicule de Thrive Capital de Josh Kushner, dans le cadre d'un partenariat visant à intégrer les grands modèles de langage d'OpenAI dans des secteurs comme la comptabilité et les services informatiques[1][2]. Plutôt qu'un investissement en espèces, OpenAI fournit une équipe de recherche dédiée en échange d'une participation – alignant les incitations pour que les deux parties se concentrent sur la transformation des opérations commerciales héritées par l'IA. L'objectif est d'infuser l'IA dans les processus manuels et fragmentés des entreprises du portefeuille de Thrive et d'améliorer continuellement ces modèles via l'apprentissage par renforcement avec des experts du domaine[3]. Thrive a levé plus de 1 milliard de dollars pour acquérir des fournisseurs de services traditionnels et les rénover avec l'IA[2]. Ce partenariat signale une approche novatrice : OpenAI ne se contente pas de vendre l'accès à l'API ; il s'intègre verticalement en co-construisant des solutions d'IA au sein des entreprises. « Aligner OpenAI par la propriété » assure qu'OpenAI et Thrive partagent une « étoile polaire » de développement de produits leaders alimentés par l'IA pour ces industries[4]. Notamment, bien que Thrive Capital soit un important bailleur de fonds d'OpenAI, l'accord ne lie pas Thrive exclusivement aux modèles d'OpenAI – Thrive peut toujours utiliser d'autres modèles, y compris ceux en open-source, là où ils sont pertinents[5]. Cela met en évidence une vérité pragmatique du paysage actuel de l'IA en entreprise : les entreprises adopteront le modèle qui correspond le mieux à leurs besoins, contraintes de coûts et exigences d'intégration.
Dans l'ensemble des entreprises américaines, l'adoption de l'IA par les entreprises – et en particulier de l'IA générative – a explosé au cours des deux dernières années. Une enquête de McKinsey menée en 2024 a révélé que 78 % des organisations utilisent désormais l'IA dans au moins une fonction (contre 55 % l'année précédente), et que 71 % ont déployé des outils d'IA générative[6]. Cela indique que les LLMs sont passés de projets pilotes expérimentaux à une « infrastructure commerciale essentielle » dans de nombreuses entreprises[6]. Ce phénomène est généralisé à travers les industries. Dans le secteur financier, les banques utilisent les LLMs pour analyser des recherches et assister les conseillers ; dans le domaine de la santé, les LLMs rédigent des rapports médicaux et des communications avec les patients ; dans les domaines juridique et du conseil, ils résument des documents et génèrent des premiers brouillons de contenu. Dans le commerce électronique et le voyage, l'IA générative alimente le service client et les recommandations – par exemple, le concierge IA d'Airbnb peut aider à résoudre les demandes des clients sans agents humains. Le géant de la vente au détail Amazon utilise des modèles d'IA pour résumer les avis produits pour les acheteurs, extrayant les préférences et aversions communes de centaines de commentaires en un seul paragraphe[7]. Cela améliore l'expérience client et accélère les conversions de ventes. Amazon a également déployé des outils d'IA générative pour aider les vendeurs du marché à rédiger de meilleures descriptions de produits, et a même rendu Alexa plus conversationnelle grâce à l'intégration des LLM[8]. Ces exemples soulignent un schéma : les entreprises intègrent les LLMs partout où elles peuvent automatiser des flux de travail ou améliorer les interactions avec les utilisateurs, de la rédaction de contenu marketing à l'alimentation de chatbots et d'assistants de codage.
Cependant, intégrer l'IA à grande échelle n'est pas trivial – de nombreuses entreprises peinent encore à passer du pilote à la production. Des études ont révélé que seulement 5 % des projets pilotes GenAI enregistrent des gains rapides de revenus, beaucoup stagnent en raison d'objectifs flous ou de défis d'infrastructure[9]. Néanmoins, le business case pour l'IA d'entreprise reste solide. Les entreprises qui réussissent rapportent un retour sur investissement solide (en moyenne 3,7×, selon une analyse) et réallouent leurs budgets en conséquence[10]. Les dépenses des entreprises pour les LLMs ont explosé – 37 % des entreprises dépensaient plus de 250 000 $ par an pour l'utilisation des LLMs d'ici 2025[11]. Cette volonté d'investir reflète une nécessité compétitive : les entreprises voient l'IA comme une technologie stratégique pour booster la productivité et l'innovation. Le résultat est un écosystème d'IA d'entreprise où plusieurs LLMs coexistent. En fait, les enquêtes indiquent qu'un schéma de déploiement "multi-modèles" émerge – un rapport a révélé qu'une majorité d'entreprises utilisent au moins deux modèles d'IA différents, mélangeant souvent les offres d'OpenAI, Anthropic, Google et des fournisseurs open-source[12]. Cette approche multi-modèles permet aux organisations de balancer les forces et faiblesses de divers LLMs (par exemple, un modèle pour le support de codage, un autre pour les tâches de chatbot général) et d'éviter une dépendance excessive à un seul fournisseur.
Un rebondissement inattendu dans l'histoire de l'IA d'entreprise est la montée des LLM open-source chinois adoptés aux États-Unis. Les entreprises qui, il y a un an, utilisaient par défaut des modèles américains, évaluent de plus en plus (et dans certains cas adoptent) des modèles d'Alibaba, Baidu, Zhipu, MiniMax et d'autres. La raison se résume à une proposition de valeur puissante : ces modèles sont souvent gratuits, avec des « poids ouverts » (paramètres du modèle publiés ouvertement), et bien moins chers à utiliser que leurs homologues américains. Pour les entreprises cherchant à automatiser des tâches à grande échelle, le coût et la personnalisation peuvent l'emporter sur l'obtention du modèle à la pointe de la technologie. En conséquence, même les grandes entreprises technologiques américaines ont commencé à expérimenter l'IA chinoise. Dans un exemple récent qui a fait sensation, le PDG d'Airbnb, Brian Chesky, a révélé que l'entreprise s'appuie fortement sur le modèle Qwen d'Alibaba pour son agent de service client automatisé, le préférant aux derniers modèles d'OpenAI car « il existe des modèles plus rapides et moins chers ». Chesky a spécifiquement loué Qwen, déclarant « Nous comptons beaucoup sur le modèle Qwen d'Alibaba. Il est très bon. Il est également rapide et peu coûteux. » En effet, le nouveau concierge AI d'Airbnb lancé en 2025 a été construit en utilisant un mélange de 13 modèles (y compris OpenAI, Google et open-source), mais le Qwen chinois est à la base de la majeure partie du travail. Les économies réalisées grâce à l'utilisation de Qwen et d'autres ont permis à Airbnb d'automatiser 15 % des demandes de support et de réduire le temps de résolution de plusieurs heures à quelques secondes – un impact commercial tangible.
Airbnb n'est pas seul. Certaines startups bien financées et des VC se sont également tournés vers l'Est pour des raccourcis en IA. L'investisseur de renom Chamath Palihapitiya a remarqué que son entreprise avait transféré leurs flux de travail IA des services propriétaires d'Amazon vers le modèle Kimi de Moonshot (d'une startup basée à Pékin) parce qu'il était "bien plus performant".[19] De même, la nouvelle entreprise de l'ancien CTO d'OpenAI Mira Murati a lancé un outil permettant aux utilisateurs de peaufiner des modèles ouverts – y compris huit variantes de Qwen – soulignant l'intérêt de construire sur les bases des LLM chinois[20]. L'attrait est clair : "pour une startup moyenne, ce qui compte vraiment, c'est la rapidité, la qualité et le coût… Les modèles chinois ont constamment bien performé sur l'équilibre de ces trois aspects"[21]. Les laboratoires d'IA chinois ont agressivement mis en open source des modèles avec des licences permissives, permettant à quiconque de télécharger les poids des modèles et de les personnaliser. Alibaba, par exemple, a mis en open source des versions de sa famille de modèles Tongyi Qianwen (Qwen) sous licence Apache 2.0, allant de 4B à plus de 70B+ paramètres[22][23]. Cela signifie qu'une entreprise peut "récupérer ces poids sur Internet et les peaufiner avec des données propriétaires" pour obtenir un modèle spécifique à un domaine sans partir de zéro[24]. Une entreprise sud-coréenne a fait exactement cela – peaufinant Qwen pour le traitement de documents gouvernementaux – et a réduit ses coûts de 30 % en conséquence[25]. Alibaba rapporte que plus de 170 000 modèles ont été dérivés de Qwen dans le monde, et que plus de 90 000 entreprises (couvrant l'électronique grand public, les jeux, etc.) ont adopté les modèles de la famille Qwen sous une forme ou une autre[26]. Ces chiffres indiquent que les LLM chinois ont rapidement gagné du terrain parmi les développeurs et les entreprises à l'échelle mondiale.
Les implications de cette tendance sont à double tranchant. D'une part, les fournisseurs américains d'IA voient une partie du potentiel de revenus d'entreprise s'évaporer. Chaque tâche gérée par un modèle ouvert chinois est une tâche qui n'est pas exécutée sur les API payantes d'OpenAI ou d'Anthropic. Comme l'a noté The Wire China, si les développeurs de modèles américains perdent de gros clients comme Airbnb au profit de concurrents chinois, c'est un “signe d'alerte” que l'approche américaine (souvent propriétaire et coûteuse) faiblit pour certains cas d'utilisation[27]. Les laboratoires de modèles de pointe comme OpenAI, Anthropic et Google pourraient être contraints de réagir – que ce soit en baissant les prix, en proposant des variantes ouvertes (en effet, OpenAI a récemment publié certains modèles GPT “open-weight”[28]), ou en se concentrant sur des capacités véritablement différenciées. Une autre implication est stratégique et géopolitique : la dépendance croissante des entreprises américaines aux IA chinoises soulève des questions de confiance et de sécurité. Jusqu'à présent, le pragmatisme autour des coûts et des performances a parfois prévalu sur les préoccupations concernant la gouvernance des données. Mais Washington est attentif – les régulateurs américains ont ajouté la société chinoise d'IA Zhipu (fabricant des modèles GLM) à une liste noire commerciale début 2025[29], et un rapport du Département du Commerce a mis en garde contre les risques de sécurité des IA étrangères et a noté que l'essor des modèles chinois “rogne le leadership mondial historique des développeurs américains.”[29][30] Il y a même un élan aux États-Unis pour limiter l'utilisation des LLM chinois dans les milieux gouvernementaux, et cela pourrait potentiellement s'étendre aux entreprises si les pressions en matière de sécurité nationale augmentent[27]. Au niveau des entreprises, la diligence raisonnable vis-à-vis des vendeurs d'IA chinois augmente – les sociétés doivent peser les avantages des modèles comme Qwen ou DeepSeek contre les risques comme l'exposition des données ou les problèmes de conformité. Certaines atténuent cela en auto-hébergeant les modèles open-source en interne (éviter les appels API externes)[31][32], ce qui répond aux préoccupations concernant la résidence des données mais nécessite une ingénierie interne significative. D'autres adoptent une approche hybride : utiliser des modèles chinois pour des tâches non sensibles tout en réservant les données sensibles à des modèles en lesquels ils ont plus confiance. Dans tous les cas, l'entrée des LLM chinois a injecté une saine concurrence. Elle a poussé les entreprises américaines à innover en matière d'efficacité (par exemple, le dernier Claude d'Anthropic est nettement moins cher et plus rapide que son prédécesseur) et même à ouvrir certains aspects de leur technologie. Comme l'a dit un chercheur en IA, “la domination à long terme de l'IA américaine dépend fortement de [ne pas] céder le leadership en open-source à la Chine.”[33]
Dans l'environnement multi-modèle d'aujourd'hui, une poignée de LLM sont devenus les choix privilégiés pour l'intégration en entreprise :
Série GPT d'OpenAI (GPT-4 et GPT-5) – Les modèles GPT d'OpenAI restent des incontournables dans l'IA d'entreprise, réputés pour leurs capacités avancées et leur fiabilité générale. GPT-4 a permis des avancées majeures en compréhension et génération du langage naturel, et le nouveau GPT-5 d'OpenAI représente un saut encore plus significatif – excellant dans le codage, les mathématiques, l'écriture et les tâches multimodales[34]. De nombreuses entreprises accèdent aux modèles GPT via Azure OpenAI Service ou l'API d'OpenAI pour alimenter des chatbots, des assistants d'écriture, et des outils d'aide à la décision. Les atouts du GPT-4/5 sont le raisonnement complexe et le dialogue fluide, ce qui les rend idéaux pour des applications comme l'analyse de documents juridiques ou l'automatisation de helpdesks internes. Cependant, ils sont propriétaires et ont un coût premium. La part de marché d'OpenAI dans le secteur des entreprises était d'environ 25 % en 2025[35], reflétant une utilisation répandue mais aussi une concurrence. OpenAI a répondu à la vague open-source en lançant des modèles GPT-OSS (poids ouverts) de 120B et 20B paramètres pour l'auto-hébergement[28], visant à attirer les entreprises ayant besoin de plus de contrôle. Pourtant, pour de nombreuses entreprises, GPT-4 reste la référence en matière de qualité – souvent utilisé lorsque la précision est primordiale.
Anthropic Claude – Développé par Anthropic, Claude est rapidement devenu l'un des systèmes d'IA les plus populaires pour les entreprises. En fait, fin 2025, Anthropic aurait surpassé OpenAI avec 32 % de part de marché des LLM d'entreprise[35]. La popularité de Claude découle de sa philosophie de conception : il est conçu pour être utile, honnête et inoffensif (aligné), et il offre des fenêtres contextuelles très larges (plus de 100 000 tokens), lui permettant de gérer facilement des documents longs ou des conversations multi-tours. La dernière série Claude 4 (Opus 4, Sonnet 4.5) offre des performances de premier plan sur les tâches de codage et de raisonnement[36], faisant de Claude un concurrent sérieux des modèles d'OpenAI. Les entreprises utilisent Claude pour des tâches telles que l'analyse de code logiciel, la génération d'articles pour des bases de connaissances, et comme assistant IA dans des outils comme Slack. L'équilibre de Claude entre intelligence, rapidité et moindre risque de sorties offensantes est particulièrement apprécié dans les applications en contact avec les clients ou sensibles. Le partenariat étroit d'Anthropic avec AWS a également rendu Claude accessible aux entreprises via Amazon Bedrock. Dans l'ensemble, Claude est apprécié pour sa longue mémoire et sa fiabilité, et de nombreuses organisations l'utilisent aux côtés des modèles GPT pour comparer les réponses en termes de qualité et de ton.
3. LLaMA 2 de Meta – LLaMA 2 est le principal LLM open-source de Meta AI, publié à la mi-2023, et il est devenu une base pour de nombreuses solutions d'IA d'entreprise sur mesure. Contrairement aux modèles propriétaires, les poids de LLaMA 2 sont disponibles (avec une licence permissive pour la recherche et une utilisation commerciale limitée), ce qui signifie que les entreprises peuvent le peaufiner avec leurs propres données. Ce modèle (disponible en tailles allant jusqu'à 70 milliards de paramètres) a démontré que les modèles ouverts peuvent approcher la puissance des modèles fermés. Quelques mois après sa sortie, LLaMA 2 a suscité une vague d'innovation – engendrant d'innombrables variantes affinées et des modèles spécifiques à l'industrie. Il est devenu courant de voir des entreprises utiliser un modèle dérivé de LLaMA 2 en interne pour des tâches telles que la documentation logicielle, l'achèvement de code interne ou la rédaction de rapports, surtout lorsque la confidentialité des données était une préoccupation. L'approche ouverte de Meta a également mis la pression sur d'autres acteurs (comme OpenAI) pour envisager des offres de poids ouverts. Bien que de nouveaux modèles ouverts (y compris des modèles chinois) aient depuis surpassé LLaMA 2 sur certains benchmarks, il reste un choix populaire pour les entreprises ayant besoin d'un modèle de base solide qu'elles peuvent contrôler entièrement. En fait, jusqu'à récemment, les modèles basés sur LLaMA dominaient les nouveaux téléchargements de modèles IA sur Hugging Face, avant que Qwen d'Alibaba ne le dépasse en volume de nouveaux dérivés[37] – un témoignage de l'adoption généralisée de LLaMA dans la communauté des développeurs IA. Des entreprises technologiques comme IBM se sont même associées à Meta pour proposer LLaMA 2 via leurs plateformes (watsonx d'IBM), ciblant les créateurs d'IA d'entreprise. L'impact de LLaMA 2 est qu'il a ouvert la voie à l'adoption des LLM open-source dans les environnements d'entreprise, préparant le terrain pour la nouvelle génération de modèles ouverts.
Alibaba Qwen – Qwen (nom complet Tongyi Qianwen) est le modèle LLM phare d'Alibaba Cloud et sans doute le modèle open-source chinois le plus réussi sur la scène mondiale. Alibaba a publié Qwen-7B et 14B sous une licence Apache 2.0 en 2023, et a ensuite introduit des versions plus grandes de Mixture-of-Experts (jusqu'à plus de 70 milliards de paramètres effectifs dans Qwen 3). Les modèles Qwen sont connus pour leur efficacité et leurs capacités multilingues, et Alibaba a développé des variantes comme Qwen-Coder (pour la programmation) et Qwen-VL (vision-langage)[38][39]. De manière critique, Qwen est gratuit à utiliser et à modifier, ce qui a conduit à une adoption massive : fin 2025, Alibaba a rapporté plus de 90 000 entreprises (dans des secteurs allant de l'électronique grand public au jeu) utilisant les modèles de la famille Qwen[26]. Beaucoup sont des entreprises chinoises, mais Qwen a fait des percées à l'échelle mondiale grâce à son rapport performance-coût. L'adoption de Qwen par Airbnb pour son agent IA a montré les capacités du modèle dans le service client en anglais à grande échelle[15]. D'autres startups ont affiné Qwen pour leurs besoins, profitant du modèle de base robuste sans payer de frais d'API. L'impact de Qwen sur les entreprises se traduit souvent par des économies de coûts : les entreprises peuvent déployer Qwen sur leur propre cloud pour une fraction du coût d'un appel d'API comme GPT-4. Et en termes de performance, Qwen 14B a été compétitif avec des modèles deux ou trois fois plus gros dans de nombreuses tâches. Alibaba continue d'améliorer Qwen (la dernière série Qwen-3 utilise Mixture-of-Experts pour améliorer la performance tout en utilisant moins de paramètres actifs[40]). Pour les entreprises, Qwen offre un modèle open mature et prêt pour la production soutenu par un géant de la technologie – et il fait également partie des offres cloud d'Alibaba, que certaines multinationales utilisent dans les régions où Alibaba Cloud est présent. En conséquence, Qwen s'est positionné comme un choix de premier plan pour les LLM, en particulier pour les entreprises cherchant une alternative aux API occidentales soit pour des raisons de coût, de flexibilité ou de localisation.
DeepSeek – DeepSeek est un nouvel acteur qui a rapidement attiré l'attention pour son approche ultra-économique et ouverte. Développée par une entreprise chinoise d'IA (probablement basée à Hong Kong), la série de modèles DeepSeek n'est peut-être pas encore un nom connu du grand public, mais parmi les développeurs, elle est perçue comme une révolution pour une IA abordable. Les modèles DeepSeek V3 sont massifs (centaines de milliards de paramètres) et sont en open source sous la licence MIT[41], ce qui signifie que les entreprises peuvent les télécharger et les déployer librement pour un usage commercial[42]. Ce qui distingue vraiment DeepSeek, c'est son focus incessant sur l'optimisation pour une inférence rentable. Le dernier modèle DeepSeek V3.2-Exp a réduit les coûts d'inférence de 50%, offrant un traitement des entrées à seulement 0,028 $ par million de tokens via son API[43] – des ordres de grandeur moins chers que le GPT-4 d'OpenAI. Même en s'approchant d'un contexte de 128k tokens (centaines de pages de texte), DeepSeek maintient un coût bas et des performances solides[43][44]. Sur le plan technique, elle y parvient grâce à des innovations comme DeepSeek Sparse Attention (DSA) – un mécanisme qui sélectionne attentivement les tokens les plus pertinents (« indexeur éclair ») au lieu de chaque token dans une longue séquence[45]. Cela réduit considérablement la computation pour les longues requêtes tout en conservant la qualité des réponses, aplatissant efficacement la courbe des coûts pour les tâches à long contexte[46]. Grâce à cette efficacité, DeepSeek est idéal pour des applications comme le traitement de longs contrats juridiques ou la réalisation de dialogues de recherche à plusieurs tours sans engendrer de factures cloud exorbitantes. Les entreprises apprécient également que DeepSeek puisse être auto-hébergé – les poids complets des modèles (par exemple, le V3.2 de 685 milliards de paramètres) sont téléchargeables, et la société fournit même des noyaux d'inférence optimisés et des images Docker pour le déploiement[47][48]. En pratique, certaines organisations américaines testent DeepSeek comme un moyen de diversifier leur dépendance aux grands fournisseurs américains – une protection contre le verrouillage des fournisseurs[49]. Il est perçu comme une « alternative économique » pour des tâches généralistes comme la rédaction, la synthèse et le chat, où sa qualité légèrement inférieure à celle des modèles de pointe est un compromis acceptable pour des économies considérables[50]. La présence de DeepSeek dans l'entreprise est encore émergente, mais il était révélateur que sur OpenRouter (une plateforme populaire pour router les appels API de modèles d'IA), DeepSeek et Qwen se sont tous deux classés parmi les 10 modèles les plus utilisés par les développeurs fin 2025 – alors qu'un an auparavant, cette liste était dominée par des modèles américains[51][52]. À l'avenir, si DeepSeek continue d'itérer rapidement et de maintenir des coûts exceptionnellement bas (l'entreprise a déjà laissé entendre que son API sous-cotait même son rival open-source Meta's Llama dans les cas de long contexte[53]), il pourrait devenir un incontournable pour les déploiements d'IA en entreprises soucieuses de leur budget.
Bien que l'industrie de l'IA se concentre largement sur les cas d'usage en entreprise, une entreprise mise sur l'IA orientée consommateur : Macaron AI. Macaron, une startup basée à Singapour, a introduit ce qu'elle appelle le « premier agent personnel d'IA au monde » – essentiellement un assistant IA dédié à enrichir la vie quotidienne d'une personne plutôt qu'à améliorer uniquement la productivité au travail[54]. L'agent Macaron AI est conçu pour agir comme un compagnon numérique personnalisé. Il peut transformer instantanément une demande utilisateur (même une seule phrase) en mini-application ou solution sur mesure[55][56]. Par exemple, dites à Macaron « Planifie un week-end à Kyoto » et il générera une application d'itinéraire personnalisée ; demandez-lui de vous aider à commencer une habitude de fitness, et il crée un suivi d'entraînement personnalisé – le tout en quelques secondes, sans codage. Cette intelligence axée sur la vie est un différenciateur délibéré : Macaron ne se contente pas de résumer des e-mails ou d'écrire du code, il s'attaque aux tâches personnelles du quotidien. Comme le dit l'entreprise, la spécialité de Macaron est de « transformer une seule phrase en une mini-application fonctionnelle… sa focalisation sur la vie quotidienne le distingue des agents IA qui aident principalement au travail de bureau. »[56]
Sous le capot, Macaron repousse également les limites techniques. Il utilise un énorme modèle mélange d'experts (MoE) avec un nombre sans précédent de plus de 1 trillion de paramètres et un système d'entraînement sophistiqué[57][58]. L'équipe a mis en œuvre des techniques de mise à l'échelle innovantes (parallélisme hybride, adaptation fine par faible rang, etc.) pour rendre un tel modèle gigantesque réalisable[59][60]. Pourquoi si grand ? Parce que Macaron vise une IA qui se sent véritablement personnalisée et humaine dans son ampleur de connaissances. Il possède un module de mémoire à long terme qui construit une base de connaissances personnelle sur l'utilisateur – se souvenant de vos préférences, des événements importants et du contexte des conversations passées[61][62]. Avec le temps, il apprend à anticiper vos besoins et adapter son ton et ses suggestions à votre style unique, presque comme un ami toujours attentif. Par exemple, Macaron peut vous rappeler une tâche mentionnée la semaine dernière, ou suggérer un restaurant pour une soirée en fonction de vos habitudes alimentaires et de vos préférences passées. Il permet également une dimension sociale à l'IA – les utilisateurs peuvent inviter Macaron dans des discussions de groupe pour collaborer, partager ou co-créer les mini-applications qu'il construit[63][64], transformant l'IA en une expérience communautaire.
L'accent mis par Macaron sur les consommateurs et le style de vie pourrait saisir une énorme opportunité en Asie. En Chine et sur d'autres marchés asiatiques, les grands acteurs technologiques ont investi des ressources dans l'IA, mais une grande partie de ces efforts a été orientée vers les entreprises ou axée sur les infrastructures (services cloud d'entreprise, projets gouvernementaux, etc.) ou appliquée à l'amélioration des super-applications et plateformes existantes. Un agent personnel autonome destiné uniquement à l'autonomisation individuelle et à la créativité est plus rare. Macaron voit cette lacune – se positionnant comme une IA lifestyle qui vous aide à “vivre mieux, pas seulement à mieux travailler.” Ses services (planification de voyages, coaching santé, conseils relationnels, facilitation des loisirs, journal intime, etc.) s'inscrivent dans les tendances des consommateurs asiatiques pour les assistants personnels numériques et les “super-apps”, mais avec bien plus de personnalisation. Si Macaron parvient à naviguer dans les cultures locales et les réglementations sur les données (ce sur quoi elle travaille explicitement, en intégrant les normes locales de confidentialité et les considérations éthiques de l'IA dans son design pour des marchés comme le Japon et la Corée), elle pourrait susciter un accueil enthousiaste. Le marché chinois, en particulier, est immense – et bien que les géants nationaux aient leurs propres chatbots (comme Ernie de Baidu ou un mélange de services de Tencent), une solution d'agent personnel agile qui fonctionne sur plusieurs plateformes pourrait se tailler une niche. Le succès de Macaron dépendra de la confiance (stocker les souvenirs de vie d'un utilisateur est sensible) et de la capacité à offrir une réelle valeur ajoutée au-delà de ce que le téléphone et les applications d'un utilisateur offrent déjà. Mais son approche – un co-concepteur de solutions personnelles – suggère de nouvelles possibilités. Dans un paysage de l'IA largement divisé entre les outils d'entreprise et les chatbots génériques, Macaron est un exemple de startup visant à définir une nouvelle catégorie d'IA pour les consommateurs. Sa progression sera une étude de cas fascinante sur la manière dont une IA conçue pour l'autonomisation personnelle peut coexister et peut-être prospérer aux côtés des grandes initiatives d'IA d'entreprise.
Que nous réserve l'avenir si davantage d'entreprises américaines continuent d'adopter des modèles d'IA open-source chinois ? À court terme, nous pouvons nous attendre à une concurrence accrue et une innovation plus rapide. Les entreprises américaines d'IA seront poussées à réagir au « prix chinois » – nous pourrions voir de nouvelles réductions de coûts pour les services d'IA et des versions plus ouvertes de la part des entreprises occidentales. (La sortie des modèles GPT-OSS par OpenAI en 2025 en est une réponse, et Google Gemini pourrait suivre avec des niveaux incluant des versions moins chères et plus petites pour rester pertinent.) Cette concurrence profite aux acheteurs d'entreprise, qui auront un choix plus riche de modèles à divers points de performance-prix. Nous le voyons déjà : par exemple, le Claude 4 d'Anthropic est proposé en plusieurs versions (Opus, Sonnet, Haiku) pour équilibrer puissance et coût[66][36], et des startups comme MiniMax annoncent fièrement que leur modèle ne coûte que 8% de celui d'Anthropic pour une performance similaire[67]. Si les modèles ouverts chinois continuent de gagner en adoption, les fournisseurs américains pourraient également accélérer les recherches sur les techniques d'efficacité (comme les stratégies d'attention éparse et MoE utilisées par les équipes chinoises) pour combler l'écart en matière de débit et de coût. En fait, une pollinisation croisée est en cours – les idées de recherche circulent mondialement, donc un résultat positif est que les progrès globaux en capacités d'IA pourraient s'accélérer à mesure que les équipes s'appuient sur les percées des autres.
En même temps, la confiance et la gouvernance seront essentielles. Les entreprises exigeront des garanties sur tout modèle qu'elles utilisent, qu'il provienne de la Silicon Valley ou de Pékin. Cela pourrait conduire à l'audit et à la certification par des tiers des modèles d'IA pour la sécurité, tout comme les centres de données cloud subissent aujourd'hui des audits de sécurité. Le gouvernement américain pourrait également jouer un rôle : par exemple, il pourrait émettre des directives ou même des restrictions pour certains secteurs (comme la défense, les infrastructures critiques, etc.) sur l'utilisation de l'IA développée à l'étranger. « Il y a des préoccupations naturelles concernant les données sur lesquelles le modèle a été entraîné et s'il manifeste des comportements que l'entreprise ne souhaiterait pas », a noté Nathan Benaich d'Air Street Capital, en faisant référence à l'utilisation à fort enjeu des modèles étrangers par les entreprises[68]. Nous pourrions voir l'émergence de solutions d'IA orientées vers la conformité – par exemple, des dérivations hébergées aux États-Unis de modèles ouverts vérifiés pour la sécurité – offrant aux entreprises un moyen plus sûr de tirer parti de ces innovations. En effet, certaines organisations poursuivent déjà une approche « le meilleur des deux mondes » : elles prennent un modèle ouvert comme Qwen ou Llama, éliminent ou réentraînent les aspects problématiques et l'exécutent sur leur propre infrastructure sécurisée, profitant ainsi des avantages économiques sans envoyer de données à une entité externe[31][32].
Si l'IA open-source chinoise continue de proliférer dans les entreprises américaines, elle pourrait également modifier l'équilibre de l'expertise et du talent en IA. Les modèles ouverts abaissent la barrière à l'entrée pour créer des produits basés sur l'IA, ce qui pourrait engendrer plus de startups et de solutions – un atout pour l'innovation au sens large. Cependant, si la technologie de base qui sous-tend bon nombre de ces solutions provient de Chine, cela pourrait se traduire par une influence. Par exemple, les entreprises chinoises pourraient commencer à offrir un support payant, du conseil ou des add-ons premium pour leurs modèles ouverts (à l'instar de ce que Red Hat a fait pour Linux dans le monde des logiciels open-source). L'industrie technologique américaine pourrait se retrouver dans la position ironique de tirer largement parti de la technologie « ouverte » chinoise, même si la rivalité géopolitique persiste. D'un point de vue stratégique, cette tendance pourrait effectivement encourager plus de collaboration dans la communauté de recherche en IA – si les laboratoires chinois et occidentaux s'appuient tous sur les contributions ouvertes des uns et des autres, une base technique commune pourrait émerger (avec des normes ou des cadres communs). Mais cela pourrait également conduire à une fragmentation, où deux écosystèmes évoluent : l'un dominé par des modèles entièrement ouverts et à faible coût (avec une forte présence en Asie et parmi les startups sensibles aux coûts dans le monde entier), et un autre de modèles premium et propriétaires (dominant dans les domaines à haute sécurité et parmi les grandes entreprises qui privilégient la qualité et le support de premier ordre).
Pour les entreprises américaines, une considération clé pour l'avenir sera la 「diversification des fournisseurs」 dans la stratégie d'IA. Compter uniquement sur un seul partenaire IA (comme uniquement OpenAI ou uniquement Alibaba) comporte des risques — de changements de prix, de pannes ou de modifications de politique. De nombreux DSI préféreront un portefeuille : peut-être un principal fournisseur de LLM et un modèle ouvert de secours en interne comme solution de repli. L'intégration de modèles chinois dans le mix renforce cette stratégie, offrant aux entreprises un levier supplémentaire. Comme l'a noté l'analyse de VentureBeat, l'approche open-source de DeepSeek offre une protection contre le verrouillage – mais les conseils d'administration et les équipes de sécurité poseront des questions difficiles si la protection provient d'un fournisseur chinois. Ces questions susciteront probablement de nombreuses discussions dans les salles de conseil et les revues d'architecture informatique dans les années à venir.
Enfin, il est important de noter que les États-Unis conservent encore certains avantages critiques dans la course à l'IA : accès au matériel de semi-conducteurs le plus avancé, un pipeline plus solide de talents de recherche en IA à l'échelle mondiale et (pour l'instant) les archives les plus complètes de données de formation de haute qualité. Comme le commentaire YouTube qui a introduit cette discussion l'a souligné, les États-Unis « ont simplement un meilleur accès à des données de meilleure qualité et à des GPU... naturellement, les États-Unis créeront de meilleurs modèles comme nous l'avons toujours fait » – tandis que « la Chine continuera de casser le marché » sur le coût[70][71]. Cela suggère un avenir où les entreprises américaines continuent de repousser les limites de la capacité brute, et les entreprises chinoises se concentrent sur la rendre accessible et abordable à grande échelle. En termes d'entreprise, le segment premium (les entreprises qui ont besoin du meilleur modèle absolu et sont prêtes à payer pour cela) pourrait rester fidèle aux modèles américains de pointe, tandis que le segment de l'adoption massive (les entreprises qui ont besoin d'une IA « suffisamment bonne » au coût le plus bas) pourrait de plus en plus opter pour des modèles ouverts d'origine chinoise. Le partenariat OpenAI-Thrive lui-même peut être vu comme une réponse à cette dynamique : en intégrant profondément l'IA dans les flux de travail industriels et en apprenant de l'utilisation réelle, OpenAI espère conserver un avantage qui ne repose pas uniquement sur la qualité du modèle, mais sur l'intégration de l'ensemble du produit et l'expertise de domaine.
En conclusion, le paysage de l'intégration de l'IA en entreprise est en train d'être remodelé par des collaborations comme celle d'OpenAI avec Thrive, qui intègrent l'IA dans les processus métier principaux, et par l'afflux de LLM chinois capables et peu coûteux qui élargissent les options pour les entreprises. Nous nous dirigeons probablement vers une ère de coopétition, où les écosystèmes IA américains et chinois à la fois rivalisent et collaborent involontairement (via l'open-source) pour faire progresser l'état de l'art. Pour les entreprises, c'est généralement positif : plus de choix, plus d'innovation, et la capacité de mixer et assortir les solutions IA pour répondre à leurs besoins. Les gagnants en affaires seront ceux qui sauront tirer parti stratégiquement de cette diversité de modèles d'IA – en exploitant la force de chacun là où elle convient, en gérant les risques, et en restant agiles alors que la technologie continue d'évoluer à une vitesse fulgurante. En fin de compte, que ce soit un système OpenAI de pointe ou un modèle chinois gratuit sur Hugging Face, ce qui importe pour les entreprises, ce sont les résultats. Si un modèle d'IA peut automatiser une tâche, réduire les coûts ou ouvrir une nouvelle opportunité de produit, il trouvera un accueil favorable. Et en 2025 et au-delà, ces foyers accueilleront de plus en plus un mélange d'Est et d'Ouest dans leur boîte à outils IA – un développement qui aurait semblé improbable il n'y a pas si longtemps, mais qui est maintenant la réalité de notre industrie technologique globalement interconnectée.
Sources : [1][2][3][4][5][6][7][9][10][12][15][17][19][20][21][27][29][30][68][33][34][35][36][37][26][16][43][46][41][51][55][56][62][65][69][70][71]
[1] [2] [3] [4] [5] OpenAI prend une participation dans Thrive Holdings pour renforcer l'IA d'entreprise | Reuters
[6] [9] [10] [11] [12] [35] 13 Statistiques d'adoption de LLM : Points de données critiques pour la mise en œuvre de l'IA d'entreprise en 2025
https://www.typedef.ai/resources/llm-adoption-statistics
[7] [8] Entreprises utilisant l'IA générative : Exemples concrets
https://indatalabs.com/blog/companies-using-generative-ai
[13] [14] [19] [20] [21] [24] [25] [27] [29] [30] [33] [37] [51] [52] [67] [68] [70] [71] Bon marché et Open Source, les modèles d'IA chinois décollent - The Wire China
https://www.thewirechina.com/2025/11/09/cheap-and-open-source-chinese-ai-models-are-taking-off/
[15] [16] [17] [18] Le PDG d'Airbnb, Brian Chesky, est clair, il déclare : Nous n'utilisons pas les derniers modèles d'OpenAI en production parce que … - The Times of India
[22] [23] [26] [28] [34] [36] [38] [39] [40] [66] Les 9 meilleurs modèles de langage à grande échelle en novembre 2025 | Shakudo
https://www.shakudo.io/blog/top-9-large-language-models
[31] [32] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [53] [69] Le nouveau modèle V3.2-Exp de DeepSeek réduit de moitié le prix de l'API à moins de 3 centimes pour 1M de tokens d'entrée | VentureBeat
[54] Macaron AI, le premier agent personnel au monde, lance officiellement ...
https://finance.yahoo.com/news/productivity-ai-personal-ai-macaron-120000260.html
[55] [56] [57] [58] [59] [60] [61] [62] [63] [64] L'expérience Macaron - L'IA qui vous aide à mieux vivre
[65] Intégration socio-technique : Naviguer dans la culture ... - Macaron AI
https://macaron.im/en/blog/socio-technical-integration-macaron-asia