Wie die Partnerschaft zwischen OpenAI und Thrive und chinesische LLMs die Integration von Enterprise-AI neu gestalten

Autor: Boxu Li 

Die Enterprise-AI-Allianz von OpenAI und Thrive Capital

Der jüngste strategische Schachzug von OpenAI unterstreicht den Vorstoß, KI tief in traditionelle Industrien zu integrieren. Im Dezember 2025 erwarb OpenAI einen Eigentumsanteil an Thrive Holdings, einem neuen Vehikel von Josh Kushners Thrive Capital, als Teil einer Partnerschaft, um OpenAIs große Sprachmodelle (LLMs) in vertikale Bereiche wie Buchhaltung und IT-Dienstleistungen einzubetten[1][2]. Statt einer Geldinvestition stellt OpenAI ein dediziertes Forschungsteam im Austausch für Eigenkapital zur Verfügung – eine Angleichung der Anreize, sodass beide Seiten sich auf die KI-getriebene Transformation von Geschäftsabläufen im Erbe konzentrieren. Das Ziel ist es, KI in manuelle, fragmentierte Prozesse in den Portfoliounternehmen von Thrive zu integrieren und diese Modelle kontinuierlich durch Verstärkungslernen mit Fachexperten zu verbessern[3]. Thrive hat über 1 Milliarde Dollar aufgebracht, um traditionelle Dienstleister zu erwerben und sie mit KI zu überholen[2]. Diese Partnerschaft signalisiert einen neuartigen Ansatz: OpenAI verkauft nicht nur API-Zugang, sondern integriert vertikal, indem es gemeinsam KI-Lösungen innerhalb von Unternehmen entwickelt. “OpenAI durch Eigentümerschaft ausrichten” gewährleistet, dass sowohl OpenAI als auch Thrive einen gemeinsamen „Nordstern“ teilen, um führende KI-gestützte Produkte für diese Branchen zu entwickeln[4]. Bemerkenswerterweise, obwohl Thrive Capital ein wichtiger Unterstützer von OpenAI ist, bindet der Deal Thrive nicht exklusiv an OpenAIs Modelle – Thrive kann weiterhin andere Modelle nutzen, einschließlich Open-Source-Modelle, wo immer sie sinnvoll sind[5]. Dies hebt eine pragmatische Wahrheit der heutigen Unternehmens-KI-Landschaft hervor: Unternehmen werden das Modell übernehmen, das am besten zu ihren Bedarfen, Kostenbeschränkungen und Integrationsanforderungen passt.

Einführung von Unternehmens-LLMs in US-amerikanischen Branchen

In ganz Amerika hat die Unternehmensakzeptanz von KI – insbesondere generativer KI – in den letzten zwei Jahren stark zugenommen. Eine Umfrage von McKinsey aus dem Jahr 2024 ergab, dass 78 % der Organisationen mittlerweile KI in mindestens einer Funktion einsetzen (ein Anstieg von 55 % im Jahr davor), und 71 % haben generative KI-Tools implementiert. Dies zeigt, dass sich LLMs von experimentellen Pilotprojekten zu „essentieller Geschäftsinfrastruktur“ in vielen Unternehmen entwickelt haben. Entscheidend ist, dass dieser Trend branchenübergreifend ist. Im Finanzwesen nutzen Banken LLMs, um Analysen durchzuführen und Berater zu unterstützen; im Gesundheitswesen erstellen LLMs medizinische Berichte und Patientenkommunikationen; im Rechts- und Beratungsbereich fassen sie Dokumente zusammen und erstellen Entwürfe für Inhalte. Im E-Commerce und Reisebereich treibt generative KI den Kundenservice und Empfehlungen an – zum Beispiel kann der AI-Concierge von Airbnb Gästefragen ohne menschliche Agenten klären. Der Einzelhandelsriese Amazon nutzt KI-Modelle, um Produktbewertungen für Käufer zusammenzufassen, indem er gemeinsame Vorlieben und Abneigungen aus Hunderten von Kommentaren in einem Absatz extrahiert. Dies verbessert das Kundenerlebnis und beschleunigt den Verkaufsprozess. Amazon hat auch generative KI-Tools eingeführt, um Marktplatzverkäufern zu helfen, bessere Produktlisten zu schreiben, und hat sogar Alexa mit der Integration von LLMs gesprächiger gemacht. Diese Beispiele unterstreichen ein Muster: Unternehmen integrieren LLMs überall dort, wo sie Arbeitsabläufe automatisieren oder Benutzerinteraktionen verbessern können, von der Erstellung von Marketingtexten bis hin zur Unterstützung durch Chatbots und Codierungsassistenten.

Die Integration von KI im großen Maßstab ist jedoch nicht trivial – viele Unternehmen kämpfen immer noch damit, von Pilotprojekten zur Produktion überzugehen. Studien haben ergeben, dass nur 5 % der GenAI-Pilotprojekte schnelle Umsatzzuwächse erzielen, wobei viele aufgrund unklarer Ziele oder Infrastrukturprobleme ins Stocken geraten[9]. Dennoch bleibt der Business Case für Unternehmens-KI stark. Erfolgreiche Unternehmen berichten von solider Kapitalrendite (durchschnittlich das 3,7-fache, laut einer Analyse) und passen ihre Budgets entsprechend an[10]. Die Ausgaben der Unternehmen für LLMs haben stark zugenommen – bis 2025 gaben 37 % der Unternehmen jährlich über 250.000 US-Dollar für die Nutzung von LLMs aus[11]. Diese Investitionsbereitschaft spiegelt eine wettbewerbsbedingte Notwendigkeit wider: Unternehmen sehen KI als strategische Technologie zur Steigerung von Produktivität und Innovation. Das Ergebnis ist ein Unternehmens-KI-Ökosystem, in dem mehrere LLMs koexistieren. Tatsächlich deuten Umfragen darauf hin, dass ein „Multi-Modell“-Einsatzmuster entsteht – ein Bericht fand heraus, dass die Mehrheit der Unternehmen mindestens zwei verschiedene KI-Modelle verwendet, oft eine Mischung aus Angeboten von OpenAI, Anthropic, Google und Open-Source-Anbietern[12]. Dieser Multi-Modell-Ansatz ermöglicht es Organisationen, Stärken und Schwächen verschiedener LLMs auszugleichen (z.B. ein Modell zur Unterstützung beim Programmieren, ein anderes für allgemeine Chatbot-Aufgaben) und eine Überabhängigkeit von einem einzigen Anbieter zu vermeiden.

US-Unternehmen, die chinesische LLMs annehmen: Kostenvorteil und Auswirkungen

Eine unerwartete Wendung in der Geschichte der Unternehmens-KI ist der Aufstieg chinesischer Open-Source-LLMs, die in den USA angenommen werden. Unternehmen, die vor einem Jahr noch standardmäßig auf amerikanische Modelle setzten, evaluieren nun zunehmend (und in einigen Fällen übernehmen sie) Modelle von Alibaba, Baidu, Zhipu, MiniMax und anderen. Der Grund dafür ist ein starkes Wertversprechen: Diese Modelle sind oft kostenlos, „Open-Weight“ (offen veröffentlichte Modellparameter) und viel günstiger im Betrieb als ihre US-Pendants[13][14]. Für Unternehmen, die versuchen, Aufgaben im großen Maßstab zu automatisieren, können Kosten und Anpassungsfähigkeit wichtiger sein als das absolut modernste Modell zu haben. Infolgedessen haben selbst namhafte US-Technologiefirmen begonnen, mit chinesischer KI zu experimentieren. In einem kürzlich für Aufsehen sorgenden Beispiel enthüllte Airbnbs CEO Brian Chesky, dass das Unternehmen stark auf Alibabas Qwen LLM für seinen automatisierten Kundenservice-Agenten setzt – und es OpenAIs neuesten Modellen vorzieht, weil „es schnellere, günstigere Modelle gibt“[15]. Chesky lobte Qwen ausdrücklich und sagte: „Wir verlassen uns stark auf Alibabas Qwen-Modell. Es ist sehr gut. Es ist auch schnell und günstig.“[16]. Tatsächlich wurde Airbnbs neuer KI-Concierge, der 2025 eingeführt wurde, mit einer Mischung aus 13 Modellen (darunter OpenAI, Google und Open-Source) entwickelt, aber das chinesische Qwen übernimmt einen Großteil der Arbeit[17]. Die Kosteneinsparungen durch die Nutzung von Qwen und anderen haben es Airbnb ermöglicht, 15 % der Support-Anfragen zu automatisieren und die Lösungszeit von Stunden auf Sekunden zu verkürzen[18] – ein greifbarer Geschäftseinfluss.

Airbnb ist nicht allein. Einige gut finanzierte Startups und VCs haben sich ebenfalls nach Osten gewandt, um AI-Abkürzungen zu nutzen. Der prominente Investor Chamath Palihapitiya bemerkte, dass sein Unternehmen ihre AI-Workflows von Amazons proprietären Diensten auf das Kimi-Modell von Moonshot (von einem in Peking ansässigen Startup) verlegt hat, weil es „weitaus leistungsfähiger“ war.[19] Ebenso hat das neue Unternehmen des ehemaligen OpenAI-CTO Mira Murati ein Tool veröffentlicht, das es Nutzern ermöglicht, offene Modelle zu optimieren – darunter acht Varianten von Qwen – und damit das Interesse hervorgehoben, auf chinesische LLM-Grundlagen aufzubauen[20]. Der Reiz ist klar: „Für ein durchschnittliches Startup zählen wirklich Geschwindigkeit, Qualität und Kosten… Chinesische Modelle haben sich stets gut darin bewährt, diese drei zu balancieren“[21]. Chinesische AI-Labore haben aggressiv Modelle mit großzügigen Lizenzen als Open Source veröffentlicht, was jedem ermöglicht, die Modellgewichte herunterzuladen und anzupassen. Alibaba hat beispielsweise Versionen seiner Tongyi Qianwen (Qwen) Modellfamilie unter der Apache 2.0-Lizenz als Open Source veröffentlicht, von 4B bis zu massiven 70B+ Parametern[22][23]. Das bedeutet, dass ein Unternehmen „diese Gewichte aus dem Internet herunterladen und auf proprietäre Daten abstimmen“ kann, um ein domänenspezifisches Modell zu erhalten, ohne von vorne beginnen zu müssen[24]. Ein südkoreanisches Unternehmen hat genau das getan – Qwen für die Verarbeitung von Regierungsdokumenten feinabgestimmt – und seine Kosten dadurch um 30 % gesenkt[25]. Alibaba berichtet, dass weltweit über 170.000 Modelle aus Qwen abgeleitet wurden, und dass über 90.000 Unternehmen (darunter Unterhaltungselektronik, Gaming usw.) die Qwen-Familienmodelle in irgendeiner Form übernommen haben[26]. Diese Zahlen signalisieren, dass chinesische LLMs schnell unter Entwicklern und Unternehmen weltweit Fuß gefasst haben.

Die Auswirkungen dieses Trends sind zweischneidig. Einerseits sehen US-amerikanische KI-Anbieter, dass potenzielle Unternehmenseinnahmen abfließen. Jede Arbeitslast, die von einem offenen chinesischen Modell verarbeitet wird, läuft nicht über die kostenpflichtigen APIs von OpenAI oder Anthropic. Wie The Wire China feststellte, ist es ein „Warnzeichen“, wenn US-Modellentwickler große Kunden wie Airbnb an chinesische Konkurrenten verlieren, dass der US-Ansatz (oft proprietär und kostspielig) für einige Anwendungsfälle ins Stocken gerät[27]. Grenzmodell-Labore wie OpenAI, Anthropic und Google könnten gezwungen sein zu reagieren – sei es durch Preissenkungen, das Anbieten offener Varianten (tatsächlich hat OpenAI gerade einige „Open-Weight“-GPT-Modelle veröffentlicht[28]) oder die Konzentration auf wirklich differenzierte Fähigkeiten. Eine weitere Implikation ist strategisch und geopolitisch: Die zunehmende Abhängigkeit US-amerikanischer Unternehmen von chinesischer KI wirft Fragen des Vertrauens und der Sicherheit auf. Bisher hat Pragmatismus in Bezug auf Kosten und Leistung in einigen Fällen Bedenken hinsichtlich der Datenverwaltung überwogen. Aber Washington ist aufmerksam – US-Regulierungsbehörden haben das chinesische KI-Unternehmen Zhipu (Hersteller der GLM-Modelle) Anfang 2025 auf eine Handelsblacklist gesetzt[29], und ein Bericht des Handelsministeriums warnte vor Sicherheitsrisiken ausländischer KI und stellte fest, dass der Aufstieg chinesischer Modelle „die historische globale Führung der US-Entwickler schmälert“[29][30]. Es gibt sogar in den USA Bestrebungen, die Nutzung chinesischer LLMs in Regierungsumgebungen zu begrenzen, was sich möglicherweise auf Unternehmen ausweiten könnte, wenn der nationale Sicherheitsdruck wächst[27]. Auf Unternehmensebene nimmt die Sorgfaltspflicht gegenüber chinesischen KI-Anbietern zu – Unternehmen müssen die Vorteile von Modellen wie Qwen oder DeepSeek gegen Risiken wie Datenexposition oder Compliance-Probleme abwägen. Einige umgehen dies, indem sie die Open-Source-Modelle intern selbst hosten (um externe API-Aufrufe zu vermeiden)[31][32], was Bedenken hinsichtlich des Datenaufenthalts adressiert, aber erhebliche interne Ingenieursleistungen erfordert. Andere verfolgen einen hybriden Ansatz: Sie nutzen chinesische Modelle für nicht sensible Aufgaben, während sie sensible Daten vertrauenswürdigeren Modellen vorbehalten. In jedem Fall hat der Eintritt chinesischer LLMs gesunden Wettbewerb gebracht. Er hat US-Unternehmen dazu gedrängt, in Effizienz zu innovieren (zum Beispiel ist der neueste Claude von Anthropic erheblich günstiger und schneller als sein Vorgänger) und sogar Aspekte ihrer Technologie zu öffnen. Wie ein KI-Forscher sagte: „Die langfristige Dominanz der amerikanischen KI hängt stark davon ab, [nicht] die Führung bei Open-Source an China abzutreten.“[33]

Die 5 führenden KI-Modelle, die von Unternehmen integriert werden

In der heutigen Multi-Modell-Umgebung haben sich einige wenige LLMs als bevorzugte Wahl für die Integration in Unternehmen herauskristallisiert:

1. OpenAI GPT-Serie (GPT-4 und GPT-5) – OpenAIs GPT-Modelle sind weiterhin ein Grundpfeiler im Bereich der Unternehmens-KI, bekannt für ihre fortschrittlichen Fähigkeiten und allgemeine Zuverlässigkeit. GPT-4 brachte bahnbrechende Leistung in der natürlichen Sprachverarbeitung und -erzeugung, und der neu angekündigte GPT-5 von OpenAI ist ein noch bedeutenderer Sprung – er glänzt in den Bereichen Programmierung, Mathematik, Schreiben und multimodale Aufgaben[34]. Viele Unternehmen nutzen GPT-Modelle über den Azure OpenAI Service oder die API von OpenAI, um Chatbots, Schreibassistenten und Entscheidungsunterstützungstools zu betreiben. Die Stärken von GPT-4/5 liegen in komplexem Denken und flüssigem Dialog, was sie ideal für Anwendungen wie die Analyse von juristischen Dokumenten oder die interne Helpdesk-Automatisierung macht. Sie sind jedoch proprietär und mit hohen Kosten verbunden. OpenAIs Marktanteil im Unternehmensbereich lag bei etwa 25 % im Jahr 2025[35], was auf eine weit verbreitete Nutzung, aber auch auf Konkurrenz hinweist. OpenAI hat auf die Open-Source-Welle reagiert, indem es GPT-OSS (open-weight) Modelle mit 120B und 20B Parametern für das Selbst-Hosting veröffentlicht hat[28], um Unternehmen anzusprechen, die mehr Kontrolle benötigen. Dennoch bleibt für viele Unternehmen GPT-4 der Maßstab für Qualität – oft verwendet, wenn Genauigkeit entscheidend ist.

  1. Anthropic Claude – Entwickelt von Anthropic, hat sich Claude schnell als eines der beliebtesten KI-Systeme für Unternehmen etabliert. Tatsächlich überholte Anthropic bis Ende 2025 Berichten zufolge OpenAI mit einem Marktanteil von 32 % im Unternehmens-LLM-Bereich[35]. Claudes Beliebtheit resultiert aus seiner Designphilosophie: Es wurde entwickelt, um hilfreich, ehrlich und harmlos (ausgerichtet) zu sein, und bietet sehr große Kontextfenster (100K+ Tokens), die es ihm ermöglichen, mühelos mit umfangreichen Dokumenten oder mehrstufigen Gesprächen umzugehen. Die neueste Claude 4 Serie (Opus 4, Sonnet 4.5) bietet erstklassige Leistungen bei Codierungs- und Argumentationsaufgaben[36] und macht Claude zu einem starken Konkurrenten für die Modelle von OpenAI. Unternehmen nutzen Claude für Aufgaben wie die Analyse von Softwarecode, das Erstellen von Wissensbasisartikeln und als KI-Assistent in Tools wie Slack. Claudes Balance aus Intelligenz, Geschwindigkeit und geringerem Risiko von anstößigen Ausgaben ist besonders in kundenorientierten oder sensiblen Anwendungen attraktiv. Die enge Partnerschaft von Anthropic mit AWS hat Claude auch Unternehmen über Amazon Bedrock zugänglich gemacht. Insgesamt wird Claude für sein langes Gedächtnis und seine Zuverlässigkeit geschätzt, und viele Organisationen nutzen es neben GPT-Modellen, um Antworten in Bezug auf Qualität und Ton zu vergleichen.

  2. Meta’s LLaMA 2LLaMA 2 ist das führende Open-Source-LLM von Meta AI, das Mitte 2023 veröffentlicht wurde und zur Grundlage für viele maßgeschneiderte Enterprise-AI-Lösungen geworden ist. Im Gegensatz zu proprietären Modellen sind die Gewichte von LLaMA 2 verfügbar (mit einer großzügigen Lizenz für Forschung und eingeschränkte kommerzielle Nutzung), was bedeutet, dass Unternehmen es auf ihren eigenen Daten feinabstimmen können. Dieses Modell (verfügbar in Größen von bis zu 70 Milliarden Parametern) hat gezeigt, dass offene Modelle die Leistungsfähigkeit geschlossener Modelle erreichen können. Bereits wenige Monate nach der Veröffentlichung löste LLaMA 2 eine Innovationswelle aus – es entstanden unzählige feinabgestimmte Varianten und branchenspezifische Modelle. Es wurde üblich, dass Unternehmen ein LLaMA 2-Derivatmodell intern für Aufgaben wie Softwaredokumentation, interne Codevervollständigung oder das Erstellen von Berichten verwenden, insbesondere wenn der Datenschutz eine Rolle spielte. Metas offene Herangehensweise setzte auch andere Akteure (z. B. OpenAI) unter Druck, offene Gewichtsangebote in Betracht zu ziehen. Während neuere offene Modelle (einschließlich chinesischer) LLaMA 2 in einigen Benchmarks mittlerweile übertroffen haben, bleibt es eine beliebte Wahl für Unternehmen, die ein solides Basismodell benötigen, das sie vollständig kontrollieren können. Tatsächlich dominierten bis vor kurzem LLaMA-basierte Modelle die neuen KI-Modell-Uploads auf Hugging Face, bevor Alibabas Qwen es in der Menge neuer Derivate überholte[37] – ein Beweis dafür, wie weit verbreitet LLaMA in der KI-Entwicklergemeinschaft angenommen wurde. Technologiefirmen wie IBM haben sogar mit Meta zusammengearbeitet, um LLaMA 2 über ihre Plattformen (IBMs watsonx) anzubieten und damit Enterprise-AI-Entwickler anzusprechen. Die Wirkung von LLaMA 2 besteht darin, dass es den Weg für die Akzeptanz von Open-Source-LLMs in Unternehmensumgebungen öffnete und den Weg für die neuere Generation offener Modelle ebnete.

  3. Alibaba QwenQwen (vollständiger Name Tongyi Qianwen) ist das Flaggschiff-LLM von Alibaba Cloud und wohl das erfolgreichste chinesische Open-Source-Modell auf der globalen Bühne. Alibaba veröffentlichte Qwen-7B und 14B unter einer Apache 2.0-Lizenz im Jahr 2023 und führte später größere Mixture-of-Experts-Versionen ein (bis zu 70B+ effektive Parameter in Qwen 3). Qwen-Modelle sind bekannt für ihre Effizienz und mehrsprachigen Fähigkeiten, und Alibaba hat Varianten wie Qwen-Coder (für Programmierung) und Qwen-VL (Visionssprache) angepasst[38][39]. Entscheidend ist, dass Qwen kostenlos zu verwenden und zu modifizieren ist, was zu einer massiven Verbreitung führte: Bis Ende 2025 berichtete Alibaba, dass über 90.000 Unternehmen (in Sektoren von Unterhaltungselektronik bis Gaming) Modelle der Qwen-Familie nutzten[26]. Viele sind chinesische Unternehmen, aber Qwen hat dank seines Preis-Leistungs-Verhältnisses weltweit Fuß gefasst. Airbnbs Einführung von Qwen für seinen AI-Agenten zeigte die Fähigkeiten des Modells im englischen Kundenservice in großem Maßstab[15]. Andere Startups haben Qwen für ihre Bedürfnisse feinjustiert und profitieren vom robusten Basismodell, ohne API-Gebühren zu zahlen. Der Einfluss von Qwen auf Unternehmen zeigt sich oft in Kosteneinsparungen: Unternehmen können Qwen auf ihrer eigenen Cloud zu einem Bruchteil der Kosten einsetzen, die das Aufrufen einer API wie GPT-4 verursachen würde. Und leistungsmäßig hat sich Qwen 14B in vielen Aufgaben als konkurrenzfähig mit Modellen erwiesen, die zwei- oder dreimal so groß sind. Alibaba entwickelt Qwen weiterhin fort (die neueste Qwen-3-Serie nutzt Mixture-of-Experts, um die Leistung zu steigern, während weniger aktive Parameter verwendet werden[40]). Für Unternehmen bietet Qwen ein ausgereiftes, produktionsbereites Open-Modell, das von einem Technologieriesen unterstützt wird – und es ist gleichzeitig Teil des Cloud-Angebots von Alibaba, das einige multinationale Unternehmen in Regionen nutzen, in denen Alibaba Cloud präsent ist. Infolgedessen hat sich Qwen als Top-LLM-Wahl positioniert, insbesondere für Unternehmen, die eine Alternative zu westlichen APIs suchen, sei es aus Kosten-, Flexibilitäts- oder Lokalitätsgründen.

  4. DeepSeekDeepSeek ist ein neuerer Marktteilnehmer, der schnell Aufmerksamkeit für seinen ultra-kostengünstigen und offenen Ansatz erlangt hat. Entwickelt von einem chinesischen KI-Unternehmen (vermutlich mit Sitz in Hongkong), ist die Modellreihe von DeepSeek vielleicht noch kein bekannter Name, aber unter Entwicklern gilt sie als bahnbrechend für erschwingliche KI. Die DeepSeek V3 Modelle sind massiv (mit Hunderten von Milliarden Parametern) und unter der MIT-Lizenz als Open Source verfügbar[41], was bedeutet, dass Unternehmen sie frei herunterladen und einsetzen können für kommerzielle Zwecke[42]. Was DeepSeek wirklich auszeichnet, ist sein unermüdlicher Fokus auf Optimierung für kosteneffiziente Inferenz. Das neueste DeepSeek V3.2-Exp Modell hat die Inferenzkosten um 50 % gesenkt, bietet Verarbeitung von Eingaben für nur 0,028 USD pro Million Tokens über seine API[43] – um Größenordnungen günstiger als OpenAIs GPT-4. Selbst bei einem 128k-Token-Kontext (Hunderte von Seiten Text) hält DeepSeek die Kosten niedrig und die Leistung stabil[43][44]. Technisch erreicht es dies durch Innovationen wie DeepSeek Sparse Attention (DSA) – ein Mechanismus, der selektiv die relevantesten Tokens („Lightning Indexer“) anstelle jedes Tokens in einer langen Sequenz berücksichtigt[45]. Dies reduziert die Berechnung für lange Eingaben drastisch, während die Antwortqualität erhalten bleibt und die Kostenspanne für Aufgaben mit langem Kontext effektiv abflacht[46]. Dank dieser Effizienz ist DeepSeek ideal für Anwendungen wie die Verarbeitung umfangreicher juristischer Verträge oder die Durchführung mehrstufiger Forschungsdialoge, ohne hohe Cloud-Kosten zu verursachen. Unternehmen schätzen auch, dass DeepSeek selbst gehostet werden kann – die vollständigen Modellgewichte (z. B. das 685 Milliarden-Parameter V3.2) sind herunterladbar, und das Unternehmen stellt sogar optimierte Inferenz-Kerne und Docker-Images für die Bereitstellung bereit[47][48]. In der Praxis testen einige US-amerikanische Organisationen DeepSeek als Möglichkeit, die Abhängigkeit von großen US-Anbietern zu diversifizieren – ein Schutz gegen Anbieterbindung[49]. Es wird als „kostengünstige Alternative“ für allgemeine Aufgaben wie Entwurf, Zusammenfassung und Chat betrachtet, bei denen die etwas geringere Qualität im Vergleich zu Spitzenmodellen ein akzeptabler Kompromiss für enorme Einsparungen ist[50]. Die Präsenz von DeepSeek im Unternehmensbereich ist noch im Entstehen, aber es war bezeichnend, dass auf OpenRouter (einer beliebten Plattform zur Weiterleitung von KI-Modell-API-Aufrufen) DeepSeek und Qwen beide unter den Top 10 der meistgenutzten Modelle von Entwicklern Ende 2025 waren – während diese Liste ein Jahr zuvor von US-Modellen dominiert wurde[51][52]. Wenn DeepSeek weiterhin schnell iteriert und die Kosten außergewöhnlich niedrig hält (das Unternehmen deutete bereits an, dass seine API sogar den Open-Source-Konkurrenten Meta's Llama in Fällen mit langem Kontext unterbietet[53]), könnte es zu einem festen Bestandteil für budgetbewusste KI-Bereitstellungen in Unternehmen werden.

Macaron – Ein Verbraucher-KI-Agent bereit für den asiatischen Markt

Obwohl sich ein Großteil der KI-Industrie auf Unternehmensanwendungen konzentriert hat, setzt ein Unternehmen auf verbraucherorientierte KI: Macaron AI. Macaron, ein in Singapur ansässiges Startup, hat das vorgestellt, was es als den „weltweit ersten persönlichen KI-Agenten“ bezeichnet – im Wesentlichen einen KI-Assistenten, der darauf abzielt, das tägliche Leben eines Individuums zu bereichern, anstatt nur die Produktivität am Arbeitsplatz zu steigern. Der Macaron AI-Agent ist darauf ausgelegt, wie ein personalisierter digitaler Begleiter zu agieren. Er kann eine Anfrage eines Nutzers (selbst ein einziger Satz) sofort in eine maßgeschneiderte Mini-App oder Lösung umwandeln. Zum Beispiel, sagen Sie zu Macaron „Plane einen Wochenendausflug nach Kyoto“ und es wird eine maßgeschneiderte Reise-App generiert; bitten Sie es, Ihnen bei der Entwicklung einer Fitnessgewohnheit zu helfen, und es erstellt einen personalisierten Workout-Tracker – alles in Sekundenschnelle, ohne Programmierung. Diese lebensfokussierte Intelligenz ist ein bewusster Unterschied: Macaron fasst nicht nur E-Mails zusammen oder schreibt Code, es widmet sich alltäglichen persönlichen Aufgaben. Wie das Unternehmen sagt, ist Macarons Spezialität das „Verwandeln eines einzigen Satzes in eine funktionierende Mini-App… der lebenszentrierte Fokus unterscheidet es von KI-Agenten, die hauptsächlich bei Büroarbeiten helfen.“

Hinter den Kulissen setzt Macaron auch technische Maßstäbe. Es nutzt ein massives Mixture-of-Experts-Modell (MoE) mit über 1 Billion Parametern und ein ausgeklügeltes Trainingssetup[57][58]. Das Team hat innovative Skalierungstechniken (hybride Parallelität, Feinabstimmung mit Low-Rank-Adaption usw.) implementiert, um ein so großes Modell realisierbar zu machen[59][60]. Warum so groß? Weil Macaron ein AI anstrebt, das wirklich personalisiert und menschlich in seinem Wissensumfang wirkt. Es verfügt über ein umfangreiches Langzeitgedächtnismodul, das eine persönliche Wissensdatenbank über den Nutzer aufbaut – es merkt sich Ihre Vorlieben, wichtige Ereignisse und den Kontext vergangener Gespräche[61][62]. Im Laufe der Zeit lernt es, Ihre Bedürfnisse zu antizipieren und seinen Ton und seine Vorschläge an Ihren einzigartigen Stil anzupassen, fast wie ein stets aufmerksamer Freund. Zum Beispiel kann Macaron Sie an eine Aufgabe erinnern, die Sie letzte Woche erwähnt haben, oder ein Restaurant für ein Date vorschlagen, basierend auf Ihren Ernährungsgewohnheiten und bisherigen Favoriten. Es ermöglicht auch eine soziale Dimension der AI – Nutzer können Macaron in Gruppenchats einladen, um gemeinsam zu unterstützen, und die von ihm erstellten Mini-Apps teilen oder gemeinsam entwickeln[63][64], wodurch AI zu einem gemeinschaftlichen Erlebnis wird.

Macaron konzentriert sich auf Verbraucher und Lifestyle und könnte damit eine riesige Chance in Asien nutzen. In China und anderen asiatischen Märkten haben die großen Technologiekonzerne Ressourcen in die KI investiert, aber vieles davon war unternehmensorientiert oder infrastrukturfokussiert (Enterprise-Cloud-Services, Regierungsprojekte usw.) oder wurde zur Verbesserung bestehender Super-Apps und Plattformen eingesetzt. Ein eigenständiger persönlicher Agent, der rein auf individuelle Ermächtigung und Kreativität abzielt, ist seltener. Macaron sieht diese Lücke – und positioniert sich als Lifestyle-KI, die dir hilft, „besser zu leben, nicht nur besser zu arbeiten.“ Seine Dienste (Reiseplanung, Gesundheitscoaching, Beziehungsberatung, Hobbyunterstützung, Tagebuchführung usw.) passen zu den asiatischen Verbrauchertrends digitaler persönlicher Assistenten und „Super-Apps“, jedoch mit weit mehr Personalisierung. Wenn Macaron in der Lage ist, lokale Kulturen und Datenregulierungen zu navigieren (etwas, woran es ausdrücklich arbeitet, indem es lokale Datenschutznormen und ethische Überlegungen zur KI in sein Design für Märkte wie Japan und Korea integriert[65]), könnte es auf begeisterte Aufnahme stoßen. Der chinesische Markt ist besonders groß – und obwohl inländische Giganten ihre eigenen Chatbots haben (wie Baidus Ernie oder Tencents Mix aus Dienstleistungen), könnte eine flexible persönliche Agentenlösung, die plattformübergreifend funktioniert, eine Nische erobern. Der Erfolg von Macaron wird von Vertrauen abhängen (das Speichern der Lebensgedächtnisse eines Nutzers ist sensibel) und davon, echten Mehrwert zu liefern, der über das hinausgeht, was das Telefon und die Apps eines Nutzers bereits leisten. Aber sein Ansatz – ein Co-Designer persönlicher Lösungen – deutet auf neue Möglichkeiten hin. In einer KI-Landschaft, die weitgehend zwischen Unternehmenswerkzeugen und generischen Chatbots aufgeteilt ist, ist Macaron ein Beispiel für ein Startup, das versucht, eine neue Kategorie von Verbraucher-KI zu definieren. Sein Fortschritt wird eine faszinierende Fallstudie darüber sein, wie eine KI, die für persönliche Ermächtigung entwickelt wurde, koexistieren und möglicherweise neben den großen Unternehmens-KI-Initiativen gedeihen kann.

Zukünftige Perspektiven: Open-Source-Chinesische KI und US-Unternehmensstrategie

Was hält die Zukunft bereit, wenn mehr US-Unternehmen weiterhin quelloffene chinesische KI-Modelle übernehmen? Kurzfristig können wir mit einem intensiveren Wettbewerb und schnelleren Innovationen rechnen. US-KI-Firmen werden gezwungen sein, auf den „China-Preis“ zu reagieren – möglicherweise sehen wir weitere Kostenreduzierungen für KI-Dienstleistungen und mehr offene Veröffentlichungen von westlichen Unternehmen. (OpenAIs Veröffentlichung der GPT-OSS-Modelle im Jahr 2025 ist eine solche Reaktion, und Googles Gemini könnte mit günstigeren, kleineren Versionen nachziehen, um relevant zu bleiben.) Dieser Wettbewerb kommt Unternehmenskunden zugute, die eine reichhaltigere Auswahl an Modellen zu verschiedenen Preis-Leistungs-Punkten haben werden. Wir sehen das bereits: Zum Beispiel wird Anthropics Claude 4 in mehreren Versionen (Opus, Sonnet, Haiku) angeboten, um Leistung und Kosten auszugleichen[66][36], und Startups wie MiniMax werben stolz damit, dass ihr Modell nur 8% der Kosten von Anthropics Modell für eine ähnliche Leistung verursacht[67]. Wenn chinesische offene Modelle weiter an Akzeptanz gewinnen, könnten amerikanische Anbieter ihre Forschung in Effizienztechniken beschleunigen (wie die sparsamen Aufmerksamkeits- und MoE-Strategien, die chinesische Teams verwenden), um die Lücke bei Durchsatz und Kosten zu schließen. Tatsächlich findet eine Kreuzbestäubung statt – Forschungsideen fließen global, sodass ein positiver Effekt darin besteht, dass der allgemeine Fortschritt in den KI-Fähigkeiten beschleunigt werden könnte, da Teams auf den Durchbrüchen der anderen aufbauen.

Gleichzeitig werden Vertrauen und Governance entscheidend sein. Unternehmen werden Garantien für jedes Modell verlangen, das sie nutzen, sei es aus dem Silicon Valley oder Peking. Dies könnte zur Entstehung von Drittanbieter-Audits und Zertifizierungen von KI-Modellen für Sicherheit führen, ähnlich wie heutige Cloud-Rechenzentren Sicherheitsüberprüfungen durchlaufen. Auch die US-Regierung könnte eine Rolle spielen: Beispielsweise könnte sie Leitlinien oder sogar Einschränkungen für bestimmte Sektoren (wie Verteidigung, kritische Infrastruktur usw.) bei der Nutzung von im Ausland entwickelten KI-Modellen erlassen. „Es gibt natürliche Bedenken darüber, auf welchen Daten das Modell trainiert wurde und ob es Verhaltensweisen zeigt, die das Unternehmen nicht wünscht,“ bemerkte Nathan Benaich von Air Street Capital mit Bezug auf hochsensible Unternehmensanwendungen ausländischer Modelle[68]. Wir könnten die Entstehung von compliance-orientierten KI-Lösungen sehen – z.B. in den USA gehostete Abzweigungen offener Modelle, die auf Sicherheit geprüft werden – und Unternehmen einen sichereren Weg bieten, diese Innovationen zu nutzen. Tatsächlich verfolgen einige Organisationen bereits einen „best of both worlds“-Ansatz: Sie nehmen ein offenes Modell wie Qwen oder Llama, entfernen oder retrainieren problematische Aspekte und betreiben es auf ihrer eigenen gesicherten Infrastruktur, um so Kostenvorteile zu nutzen, ohne Daten an eine externe Einheit zu senden[31][32].

Wenn der chinesische Open-Source-AI weiterhin in US-amerikanischen Unternehmen an Bedeutung gewinnt, könnte dies auch das Gleichgewicht der AI-Expertise und des Talents verändern. Offene Modelle senken die Einstiegshürde für die Entwicklung von AI-gesteuerten Produkten, was zu mehr Startups und Lösungen führen könnte – ein Gewinn für die Innovation im Allgemeinen. Wenn jedoch die Kerntechnologie, die viele dieser Lösungen untermauert, aus China stammt, könnte das Einfluss bedeuten. Beispielsweise könnten chinesische Unternehmen beginnen, bezahlten Support, Beratung oder Premium-Add-ons für ihre offenen Modelle anzubieten (ähnlich wie Red Hat es für Linux in der Open-Source-Softwarewelt getan hat). Die US-Technologiebranche könnte sich in der ironischen Lage wiederfinden, chinesische „offene“ Technologie weit verbreitet zu nutzen, während die geopolitische Rivalität anhält. Aus strategischer Sicht könnte dieser Trend tatsächlich mehr Zusammenarbeit in der AI-Forschungsgemeinschaft fördern – wenn chinesische und westliche Labore auf den offenen Beiträgen der jeweils anderen aufbauen, könnte eine gemeinsame technische Grundlage entstehen (mit gemeinsamen Standards oder Rahmenwerken). Aber es könnte ebenso zu einer Fragmentierung führen, bei der zwei Ökosysteme entstehen: eines, das von vollständig offenen, kostengünstigen Modellen dominiert wird (mit einer starken Präsenz in Asien und unter kostensensitiven Startups weltweit), und ein weiteres von Premium-, proprietären Modellen (dominant in hochsicheren Bereichen und unter großen Unternehmen, die höchste Qualität und Unterstützung priorisieren).

Für US-Unternehmen wird die „Anbietervielfalt“ in der KI-Strategie ein wichtiger Aspekt für die Zukunft sein. Sich ausschließlich auf einen KI-Partner zu verlassen (zum Beispiel nur auf OpenAI oder nur auf Alibaba), birgt Risiken – wie Preisänderungen, Ausfälle oder politische Veränderungen. Viele CIOs werden eine Portfoliostrategie bevorzugen: vielleicht ein primärer LLM-Anbieter plus ein Backup mit einem offenen Modell im eigenen Haus als Vorsichtsmaßnahme. Chinesische Modelle, die in die Mischung einfließen, stärken diese Position und geben Unternehmen zusätzlichen Spielraum. Wie die Analyse von VentureBeat feststellte, bietet der Open-Source-Ansatz von DeepSeek einen Schutz gegen Abhängigkeiten – aber Vorstände und Sicherheitsteams werden kritische Fragen stellen, wenn der Schutz von einem chinesischen Anbieter kommt[69]. Diese Fragen werden wahrscheinlich in den kommenden Jahren viele Diskussionen in Vorstandsetagen und bei IT-Architekturbewertungen auslösen.

Schließlich ist es wichtig zu beachten, dass die USA im KI-Rennen noch einige entscheidende Vorteile haben: Zugang zu den fortschrittlichsten Halbleiter-Hardware, ein stärkerer Pool an erstklassigen KI-Forschungstalenten weltweit und (vorerst) die umfassendsten Sammlungen hochwertiger Trainingsdaten. Wie der YouTube-Kommentar, der diese Diskussion einleitete, betonte, haben die USA „einfach besseren Zugang zu qualitativ hochwertigeren Daten und GPUs... natürlich werden die USA wie immer bessere Modelle erstellen“ – während „China den Markt kontinuierlich im Preis unterbieten wird“. Dies deutet auf eine Zukunft hin, in der US-Unternehmen weiterhin die Grenzen der reinen Leistungsfähigkeit ausloten und chinesische Unternehmen sich darauf konzentrieren, KI weit verbreitet und erschwinglich zu machen. In Unternehmensbegriffen könnte das Premiumsegment (Unternehmen, die das absolut beste Modell benötigen und dafür bezahlen werden) den US-Frontier-Modellen treu bleiben, während das Massenadoptionssegment (Unternehmen, die „gut genug“ KI zu den niedrigsten Kosten benötigen) zunehmend zu chinesischen Open-Source-Modellen greifen könnte. Die Partnerschaft zwischen OpenAI und Thrive selbst kann als Reaktion auf diese Dynamik gesehen werden: Durch die tiefgehende Einbettung von KI in industrielle Arbeitsabläufe und das Lernen aus der realen Anwendung hofft OpenAI, einen Vorsprung zu halten, der nicht nur auf der Modellqualität basiert, sondern auf der Integration des gesamten Produkts und der Fachexpertise.

Abschließend lässt sich sagen, dass die Landschaft der Unternehmens-AI-Integration durch Kooperationen wie die von OpenAI mit Thrive, die AI in zentrale Geschäftsprozesse einbringen, und durch den Zustrom fähiger, kostengünstiger chinesischer LLMs, die die Optionen für Unternehmen erweitern, neu gestaltet wird. Wir bewegen uns wahrscheinlich in eine Ära der Koopetition, in der amerikanische und chinesische AI-Ökosysteme sowohl konkurrieren als auch unbeabsichtigt (durch Open-Source) zusammenarbeiten, um den Stand der Technik voranzutreiben. Für Unternehmen ist dies im Allgemeinen positiv: mehr Auswahl, mehr Innovation und die Möglichkeit, AI-Lösungen individuell anzupassen, um ihren Bedürfnissen gerecht zu werden. Die Gewinner im Geschäftsleben werden diejenigen sein, die in der Lage sind, diese Vielfalt an AI-Modellen strategisch zu nutzen – die Stärken jedes Modells dort einzusetzen, wo es passt, die Risiken zu managen und agil zu bleiben, während sich die Technologie mit rasender Geschwindigkeit weiterentwickelt. Letztendlich zählt für Unternehmen, ob es sich um ein hochmodernes OpenAI-System oder ein kostenloses chinesisches Modell auf Hugging Face handelt, das Ergebnis. Wenn ein AI-Modell eine Aufgabe automatisieren, Kosten sparen oder eine neue Produktmöglichkeit eröffnen kann, wird es willkommen geheißen. Und im Jahr 2025 und darüber hinaus werden diese Plattformen zunehmend eine Mischung aus Ost und West in ihrem AI-Toolkit beherbergen – eine Entwicklung, die vor kurzem noch weit hergeholt erschien, aber jetzt die Realität unserer global vernetzten Technologiebranche ist.

Quellen: [1][2][3][4][5][6][7][9][10][12][15][17][19][20][21][27][29][30][68][33][34][35][36][37][26][16][43][46][41][51][55][56][62][65][69][70][71]


[1] [2] [3] [4] [5] OpenAI beteiligt sich an Thrive Holdings im neuesten Vorstoß in die Unternehmens-KI | Reuters

https://www.reuters.com/business/openai-buys-stake-thrive-holdings-push-ai-into-accounting-it-services-2025-12-01/

[6] [9] [10] [11] [12] [35] 13 LLM-Einführungsstatistiken: Kritische Datenpunkte für die Implementierung von Unternehmens-KI im Jahr 2025

https://www.typedef.ai/resources/llm-adoption-statistics

[7] [8] Unternehmen, die Generative KI verwenden: Beispiele aus der Praxis

https://indatalabs.com/blog/companies-using-generative-ai

[13] [14] [19] [20] [21] [24] [25] [27] [29] [30] [33] [37] [51] [52] [67] [68] [70] [71] Günstig und Open Source, Chinesische KI-Modelle heben ab - The Wire China

https://www.thewirechina.com/2025/11/09/cheap-and-open-source-chinese-ai-models-are-taking-off/

[15] [16] [17] [18] Airbnb-CEO Brian Chesky macht es klar, sagt: Wir verwenden die neuesten Modelle von OpenAI nicht in der Produktion, weil … - The Times of India

https://timesofindia.indiatimes.com/technology/tech-news/airbnb-ceo-brian-chesky-makes-it-clear-says-we-dont-use-openais-latest-models-in-production-because-/articleshow/124728422.cms

[22] [23] [26] [28] [34] [36] [38] [39] [40] [66] Top 9 große Sprachmodelle im November 2025 | Shakudo

https://www.shakudo.io/blog/top-9-large-language-models

[31] [32] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [53] [69] DeepSeek's neues V3.2-Exp-Modell halbiert die API-Preise auf weniger als 3 Cent pro 1M Eingabetoken | VentureBeat

https://venturebeat.com/ai/deepseeks-new-v3-2-exp-model-cuts-api-pricing-in-half-to-less-than-3-cents

[54] Macaron AI, der weltweit erste persönliche Agent, wird offiziell eingeführt ...

https://finance.yahoo.com/news/productivity-ai-personal-ai-macaron-120000260.html

[55] [56] [57] [58] [59] [60] [61] [62] [63] [64] Die Macaron-Erfahrung - KI, die Ihnen hilft, besser zu leben

https://www.prnewswire.com/news-releases/the-macaron-experience--ai-that-helps-you-live-better-302610064.html

[65] Sozio-technische Integration: Kulturen navigieren ... - Macaron AI

https://macaron.im/en/blog/socio-technical-integration-macaron-asia

Boxu erwarb seinen Bachelor-Abschluss an der Emory University mit Schwerpunkt Quantitative Ökonomie. Bevor er zu Macaron kam, verbrachte Boxu den Großteil seiner Karriere im Bereich Private Equity und Venture Capital in den USA. Er ist nun der Stabschef und VP für Marketing bei Macaron AI, verantwortlich für Finanzen, Logistik und Betrieb sowie die Überwachung des Marketings.

Bewerben, um zu werden Macarons erste Freunde