
Autore: Boxu Li
L'ultima mossa strategica di OpenAI sottolinea l'intento di integrare profondamente l'IA nei settori tradizionali. A dicembre 2025, OpenAI ha acquisito una partecipazione in Thrive Holdings, un nuovo veicolo di Thrive Capital di Josh Kushner, come parte di una collaborazione per integrare i modelli linguistici di grandi dimensioni (LLM) di OpenAI in settori come contabilità e servizi IT[1][2]. Invece di un investimento in contanti, OpenAI fornisce un team di ricerca dedicato in cambio di partecipazioni azionarie, allineando gli incentivi affinché entrambe le parti si concentrino sulla trasformazione delle operazioni aziendali legacy guidata dall'IA. L'obiettivo è infondere l'IA nei processi manuali e frammentati delle aziende del portafoglio di Thrive e migliorare continuamente questi modelli tramite l'apprendimento per rinforzo con esperti del settore[3]. Thrive ha raccolto oltre 1 miliardo di dollari per acquisire fornitori di servizi tradizionali e rinnovarli con l'IA[2]. Questa collaborazione segnala un approccio innovativo: OpenAI non sta solo vendendo accesso API; sta integrando verticalmente co-costruendo soluzioni AI all'interno delle imprese. 'Allineare OpenAI tramite la proprietà' assicura che sia OpenAI che Thrive condividano un 'North Star' di sviluppo di prodotti leader con potenza IA per quei settori[4]. Notoriamente, nonostante Thrive Capital sia un grande sostenitore di OpenAI, l'accordo non vincola Thrive esclusivamente ai modelli di OpenAI — Thrive può ancora sfruttare altri modelli, inclusi quelli open-source, quando lo ritenuto opportuno[5]. Questo evidenzia una verità pragmatica del panorama odierno dell'IA aziendale: le aziende adotteranno qualunque modello si adatti meglio alle loro esigenze di dominio, vincoli di costo e requisiti di integrazione.
In tutta l'America aziendale, l'adozione aziendale dell'IA – soprattutto dell'IA generativa – è aumentata negli ultimi due anni. Un sondaggio del 2024 di McKinsey ha rilevato che il 78% delle organizzazioni utilizza ora l'IA in almeno una funzione (rispetto al 55% dell'anno precedente) e il 71% ha implementato strumenti di IA generativa. Questo indica che gli LLM sono passati da progetti pilota sperimentali a “infrastruttura aziendale essenziale” in molte aziende. Fondamentalmente, questa tendenza è diffusa tra i settori. Nel settore finanziario, le banche utilizzano gli LLM per analizzare ricerche e assistere i consulenti; nel settore sanitario, gli LLM redigono rapporti medici e comunicazioni con i pazienti; nel legale e nella consulenza, sintetizzano documenti e generano contenuti di prima stesura. Nell'e-commerce e nei viaggi, l'IA generativa alimenta il servizio clienti e le raccomandazioni – per esempio, il concierge AI di Airbnb può aiutare a risolvere le richieste degli ospiti senza agenti umani. Il gigante del retail Amazon utilizza modelli di IA per riassumere le recensioni dei prodotti per gli acquirenti, estraendo i comuni apprezzamenti e critiche da centinaia di commenti in un solo paragrafo. Questo migliora l'esperienza del cliente e accelera le conversioni di vendita. Amazon ha anche lanciato strumenti di IA generativa per aiutare i venditori del marketplace a scrivere migliori elenchi di prodotti e ha persino reso Alexa più conversazionale con l'integrazione di LLM. Questi esempi sottolineano un modello: le aziende stanno integrando gli LLM ovunque possano automatizzare i flussi di lavoro o migliorare le interazioni con gli utenti, dalla redazione di testi di marketing all'alimentazione di chatbot e assistenti di programmazione.
Tuttavia, integrare l'IA su larga scala non è banale: molte aziende ancora faticano a passare dai progetti pilota alla produzione. Studi hanno rilevato che solo il 5% dei progetti pilota di GenAI raggiunge rapidi guadagni di fatturato, con molti che si fermano a causa di obiettivi poco chiari o sfide infrastrutturali[9]. Tuttavia, il business case per l'IA aziendale rimane forte. Le aziende che hanno successo riportano un solido ROI (in media 3,7× di ritorno, secondo un'analisi) e stanno riassegnando i budget di conseguenza[10]. La spesa delle imprese per gli LLM è aumentata notevolmente: il 37% delle imprese spendeva oltre $250.000 all'anno per l'uso degli LLM entro il 2025[11]. Questa disponibilità a investire riflette un imperativo competitivo: le aziende vedono l'IA come una tecnologia strategica per aumentare la produttività e l'innovazione. Il risultato è un ecosistema IA aziendale dove molteplici LLM coesistono. Infatti, i sondaggi indicano che sta emergendo un modello di distribuzione "multi-modello" – un rapporto ha rilevato che la maggior parte delle aziende utilizza almeno due diversi modelli di IA, spesso mescolando le offerte di OpenAI, Anthropic, Google e fornitori open-source[12]. Questo approccio multi-modello permette alle organizzazioni di bilanciare i punti di forza e di debolezza dei vari LLM (ad esempio un modello per il supporto alla codifica, un altro per i compiti generali del chatbot) e di evitare di dipendere eccessivamente da un singolo fornitore.
Un colpo di scena inaspettato nella storia dell'AI aziendale è l'ascesa degli LLM open-source cinesi che trovano adozione negli Stati Uniti. Le aziende che un anno fa preferivano i modelli americani stanno ora valutando (e in alcuni casi abbracciando) modelli di Alibaba, Baidu, Zhipu, MiniMax e altri. Il motivo si riduce a una proposta di valore potente: questi modelli sono spesso gratuiti, "open-weight" (parametri del modello rilasciati apertamente) e molto più economici da gestire rispetto ai loro equivalenti americani. Per le imprese che cercano di automatizzare le attività su larga scala, il costo e la personalizzazione possono prevalere sull'avere il modello all'avanguardia assoluto. Di conseguenza, anche le firme tecnologiche americane di primo piano hanno iniziato a sperimentare con l'AI cinese. In un recente esempio che ha fatto scalpore, il CEO di Airbnb Brian Chesky ha rivelato che l'azienda si affida pesantemente all'LLM Qwen di Alibaba per il suo agente di servizio clienti automatizzato – preferendolo ai modelli più recenti di OpenAI perché "ci sono modelli più veloci e più economici". Chesky ha specificamente elogiato Qwen, dicendo "Ci affidiamo molto al modello Qwen di Alibaba. È molto buono. È anche veloce ed economico." Infatti, il nuovo concierge AI di Airbnb lanciato nel 2025 è stato costruito utilizzando una miscela di 13 modelli (inclusi OpenAI, Google e open-source), ma il Qwen cinese sostiene gran parte del lavoro pesante. I risparmi sui costi derivanti dall'uso di Qwen e altri hanno permesso ad Airbnb di automatizzare il 15% delle richieste di supporto e ridurre il tempo di risoluzione da ore a secondi – un impatto tangibile sul business.
Airbnb non è sola. Alcune startup ben finanziate e venture capitalist hanno anch'essi rivolto lo sguardo a est per scorciatoie nell'AI. L'investitore di spicco Chamath Palihapitiya ha osservato che la sua azienda ha spostato i loro flussi di lavoro AI dai servizi proprietari di Amazon al modello Kimi di Moonshot (da una startup con sede a Pechino) perché era “molto più performante.”[19] Allo stesso modo, la nuova impresa del ex CTO di OpenAI Mira Murati ha rilasciato uno strumento che consente agli utenti di perfezionare modelli aperti – inclusi otto varianti di Qwen – evidenziando l'interesse per la costruzione su fondamenta LLM cinesi[20]. L'attrattiva è chiara: “per una startup media, ciò che conta davvero è velocità, qualità e costo... i modelli cinesi hanno costantemente ottenuto buoni risultati nel bilanciare questi tre aspetti”[21]. I laboratori AI cinesi hanno aggressivamente reso open source modelli con licenze permissive, consentendo a chiunque di scaricare i pesi del modello e personalizzarli. Alibaba, ad esempio, ha reso open source versioni della sua famiglia di modelli Tongyi Qianwen (Qwen) sotto licenza Apache 2.0, variando dai 4 miliardi a oltre 70 miliardi di parametri[22][23]. Questo significa che un'azienda può “scaricare quei pesi da internet e perfezionarli su dati proprietari” per ottenere un modello specifico per il dominio senza partire da zero[24]. Una società sudcoreana ha fatto esattamente questo – perfezionando Qwen per l'elaborazione di documenti governativi – e ha ridotto i loro costi del 30% come risultato[25]. Alibaba riporta che oltre 170.000 modelli sono stati derivati da Qwen in tutto il mondo, e che oltre 90.000 imprese (spaziando dall'elettronica di consumo ai giochi, ecc.) hanno adottato i modelli della famiglia Qwen in qualche forma[26]. Queste cifre indicano che gli LLM cinesi hanno rapidamente guadagnato una posizione tra sviluppatori e aziende a livello globale.
Le implicazioni di questa tendenza sono a doppio taglio. Da un lato, i fornitori di IA statunitensi vedono potenziali entrate aziendali sottratte. Ogni carico di lavoro gestito da un modello cinese aperto è uno in meno che utilizza le API a pagamento di OpenAI o Anthropic. Come ha osservato The Wire China, se gli sviluppatori di modelli statunitensi perdono grandi clienti come Airbnb a favore dei concorrenti cinesi, questo è un “segnale di avvertimento” che l'approccio statunitense (spesso proprietario e costoso) sta vacillando per alcuni casi d'uso. I laboratori di modelli avanzati come OpenAI, Anthropic e Google potrebbero essere costretti a rispondere – sia abbassando i prezzi, offrendo varianti aperte (infatti OpenAI ha appena rilasciato alcuni modelli GPT “open-weight”), sia concentrandosi su capacità davvero differenziate. Un'altra implicazione è strategica e geopolitica: la crescente dipendenza delle aziende statunitensi dall'IA cinese solleva interrogativi sulla fiducia e sulla sicurezza. Finora, il pragmatismo sui costi e sulle prestazioni ha in alcuni casi superato le preoccupazioni sulla governance dei dati. Ma Washington sta prestando attenzione – i regolatori statunitensi hanno aggiunto l'azienda cinese di IA Zhipu (produttrice di modelli GLM) a una lista nera commerciale all'inizio del 2025, e un rapporto del Dipartimento del Commercio ha avvertito sui rischi per la sicurezza dell'IA straniera e ha notato che l'ascesa dei modelli cinesi sta “intaccando la storica leadership globale degli sviluppatori statunitensi.” C'è persino un movimento negli Stati Uniti per limitare l'uso di LLM cinesi in ambito governativo, potenzialmente estendendolo alle imprese se le pressioni sulla sicurezza nazionale cresceranno. A livello aziendale, la due diligence sui fornitori di IA cinesi sta aumentando – le aziende devono valutare i benefici di modelli come Qwen o DeepSeek rispetto ai rischi come l'esposizione dei dati o i problemi di conformità. Alcuni mitigano questo problema ospitando internamente i modelli open-source (evitando chiamate API esterne), affrontando così le preoccupazioni sulla residenza dei dati ma richiedendo competenze ingegneristiche interne significative. Altri adottano un approccio ibrido: utilizzano modelli cinesi per compiti non sensibili riservando i dati sensibili per modelli in cui hanno più fiducia. In ogni caso, l'ingresso degli LLM cinesi ha iniettato una sana concorrenza. Ha spinto le aziende statunitensi a innovare sull'efficienza (ad esempio, l'ultimo Claude di Anthropic è significativamente più economico e veloce del suo predecessore) e persino ad aprirsi su aspetti della loro tecnologia. Come ha detto un ricercatore di IA, “il dominio a lungo termine dell'IA americana dipende fortemente dal [non] cedere il primato dell'open-source alla Cina.”
Nell'attuale contesto multi-modello, alcuni LLM sono emersi come le scelte principali per l'integrazione aziendale:
1. Serie GPT di OpenAI (GPT-4 e GPT-5) – I modelli GPT di OpenAI rimangono un pilastro nell'AI aziendale, noti per le loro capacità avanzate e l'affidabilità generale. GPT-4 ha portato a un progresso rivoluzionario nella comprensione e generazione del linguaggio naturale, e il nuovo GPT-5 di OpenAI rappresenta un salto ancora più significativo – eccellendo in codifica, matematica, scrittura e compiti multimodali[34]. Molte aziende accedono ai modelli GPT tramite il Servizio OpenAI di Azure o l'API di OpenAI per alimentare chatbot, assistenti di scrittura e strumenti di supporto decisionale. I punti di forza di GPT-4/5 sono il ragionamento complesso e il dialogo fluente, rendendoli ideali per applicazioni come l'analisi di documenti legali o l'automazione delle helpdesk interne. Tuttavia, sono proprietari e hanno un costo premium. La quota di mercato di OpenAI nel settore enterprise era di circa 25% nel 2025[35], riflettendo un uso diffuso ma anche la concorrenza. OpenAI ha risposto all'ondata open-source rilasciando modelli GPT-OSS (open-weight) di 120B e 20B parametri per l'auto-hosting[28], mirati a corteggiare le aziende che necessitano di maggiore controllo. Tuttavia, per molte imprese, GPT-4 rimane il punto di riferimento per la qualità – spesso utilizzato quando l'accuratezza è fondamentale.
Anthropic Claude – Sviluppato da Anthropic, Claude è diventato rapidamente uno dei sistemi AI più popolari per le imprese. Infatti, alla fine del 2025, Anthropic avrebbe superato OpenAI con il 32% della quota di mercato LLM aziendale. La popolarità di Claude deriva dalla sua filosofia di progettazione: è costruito per essere utile, onesto e innocuo (allineato), e offre finestre di contesto molto ampie (oltre 100K token), permettendogli di gestire documenti lunghi o conversazioni multi-turno con facilità. La più recente serie Claude 4 (Opus 4, Sonnet 4.5) offre prestazioni di alto livello nei compiti di codifica e ragionamento, rendendo Claude un forte concorrente ai modelli di OpenAI. Le imprese utilizzano Claude per attività come l'analisi del codice software, la generazione di articoli per basi di conoscenza e come assistente AI in strumenti come Slack. L'equilibrio tra intelligenza, velocità e minore rischio di output offensivi di Claude è particolarmente apprezzato nelle applicazioni a contatto con il cliente o sensibili. La stretta collaborazione di Anthropic con AWS ha reso Claude accessibile alle aziende tramite Amazon Bedrock. In generale, Claude è apprezzato per la sua lunga memoria e affidabilità, e molte organizzazioni lo utilizzano insieme ai modelli GPT per confrontare le risposte in termini di qualità e tono.
LLaMA 2 di Meta – LLaMA 2 è il principale LLM open-source di Meta AI, rilasciato a metà del 2023, ed è diventato una base per molte soluzioni AI aziendali personalizzate. A differenza dei modelli proprietari, i pesi di LLaMA 2 sono disponibili (con una licenza permissiva per ricerca e uso commerciale limitato), il che significa che le aziende possono ottimizzarlo sui propri dati. Questo modello (disponibile in dimensioni fino a 70 miliardi di parametri) ha dimostrato che i modelli aperti possono avvicinarsi alla potenza dei modelli chiusi. Nel giro di pochi mesi dal rilascio, LLaMA 2 ha stimolato un'ondata di innovazione – dando vita a innumerevoli varianti ottimizzate e modelli specifici per l'industria. È diventato comune vedere aziende che utilizzano internamente un modello derivato da LLaMA 2 per compiti come documentazione software, completamento di codice interno o redazione di rapporti, soprattutto quando la privacy dei dati era una preoccupazione. L'approccio aperto di Meta ha anche messo pressione su altri attori (ad esempio, OpenAI) per considerare offerte di pesi aperti. Sebbene modelli aperti più recenti (inclusi quelli cinesi) abbiano da allora superato LLaMA 2 in alcuni benchmark, rimane una scelta popolare per le aziende che necessitano di un modello base solido che possano controllare completamente. Infatti, fino a poco tempo fa i modelli basati su LLaMA dominavano i nuovi caricamenti di modelli AI su Hugging Face, prima che il Qwen di Alibaba lo superasse in volume di nuovi derivati – una testimonianza di quanto LLaMA fosse ampiamente adottato nella comunità degli sviluppatori AI. Aziende tecnologiche come IBM hanno persino collaborato con Meta per offrire LLaMA 2 attraverso le loro piattaforme (watsonx di IBM), rivolgendosi ai costruttori di AI aziendali. L'impatto di LLaMA 2 è che ha aperto la strada all'adozione di LLM open-source in contesti aziendali, preparando il terreno per la nuova generazione di modelli aperti.
4. Alibaba Qwen – Qwen (nome completo Tongyi Qianwen) è il modello LLM di punta di Alibaba Cloud e probabilmente il modello open-source cinese di maggior successo a livello globale. Alibaba ha rilasciato Qwen-7B e 14B sotto licenza Apache 2.0 nel 2023, e successivamente ha introdotto versioni più grandi Mixture-of-Experts (fino a oltre 70B parametri efficaci in Qwen 3). I modelli Qwen sono noti per la loro efficienza e capacità multilingue, e Alibaba ha creato varianti come Qwen-Coder (per la programmazione) e Qwen-VL (visione-linguaggio)[38][39]. Criticamente, Qwen è gratuito da usare e modificare, il che ha portato a un'adozione massiccia: entro la fine del 2025, Alibaba ha riportato oltre 90.000 imprese (in settori che vanno dall'elettronica di consumo al gaming) che utilizzano i modelli della famiglia Qwen[26]. Molte sono aziende cinesi, ma Qwen ha avuto successo a livello globale grazie al suo rapporto prestazioni-costo. L'adozione di Qwen da parte di Airbnb per il suo agente AI ha mostrato le capacità del modello nel servizio clienti in inglese su larga scala[15]. Altre startup hanno ottimizzato Qwen per le loro esigenze, beneficiando del robusto modello base senza pagare le tariffe API. L'impatto di Qwen sulle imprese è spesso nei risparmi sui costi: le aziende possono distribuire Qwen sul proprio cloud a una frazione del costo di chiamare un'API come GPT-4. E in termini di prestazioni, Qwen 14B è stato competitivo con modelli due o tre volte più grandi in molti compiti. Alibaba continua a sviluppare Qwen (l'ultima serie Qwen-3 utilizza Mixture-of-Experts per potenziare le prestazioni utilizzando meno parametri attivi[40]). Per le imprese, Qwen offre un modello open maturo e pronto per la produzione supportato da un gigante tecnologico – e fa parte delle offerte cloud di Alibaba, che alcune multinazionali utilizzano in regioni dove Alibaba Cloud è presente. Di conseguenza, Qwen si è posizionato come una scelta LLM di punta, in particolare per le aziende che cercano un'alternativa alle API occidentali per motivi di costo, flessibilità o località.
5. DeepSeek – DeepSeek è un nuovo arrivo che ha rapidamente attirato l'attenzione per il suo approccio ultra-economico e aperto. Sviluppato da una società cinese di AI (si ritiene abbia sede a Hong Kong), la serie di modelli DeepSeek potrebbe non essere ancora un nome familiare, ma tra gli sviluppatori è considerata un punto di svolta per l'AI accessibile. I modelli DeepSeek V3 sono massicci (centinaia di miliardi di parametri) e open-source sotto la licenza MIT[41], il che significa che le aziende possono scaricarli e implementarli liberamente per uso commerciale[42]. Ciò che distingue davvero DeepSeek è il suo incessante focus sull'ottimizzazione per un'inferenza economica. L'ultimo modello DeepSeek V3.2-Exp ha ridotto i costi di inferenza del 50%, offrendo l'elaborazione degli input a soli $0.028 per milione di token tramite la sua API[43] – ordini di grandezza più economico rispetto al GPT-4 di OpenAI. Anche avvicinandosi a un contesto di 128k token (centinaia di pagine di testo), DeepSeek mantiene basso costo e prestazioni solide[43][44]. Tecnicamente, raggiunge questo risultato tramite innovazioni come DeepSeek Sparse Attention (DSA) – un meccanismo che si concentra selettivamente sui token più rilevanti (“indicizzatore lampo”) invece di ogni token in una lunga sequenza[45]. Ciò riduce drasticamente il calcolo per prompt lunghi mantenendo la qualità delle risposte, appiattendo efficacemente la curva dei costi per compiti a lungo contesto[46]. Grazie a tale efficienza, DeepSeek è ideale per applicazioni come l'elaborazione di contratti legali lunghi o lo svolgimento di dialoghi di ricerca multi-turno senza accumulare enormi costi di cloud. Le aziende apprezzano anche che DeepSeek possa essere ospitato autonomamente – i pesi completi del modello (ad esempio, il V3.2 con 685 miliardi di parametri) sono scaricabili, e l'azienda fornisce anche kernel di inferenza ottimizzati e immagini Docker per la distribuzione[47][48]. In pratica, alcune organizzazioni statunitensi stanno testando DeepSeek come un modo per diversificare dalla dipendenza dai grandi fornitori statunitensi – un riparo contro il lock-in del fornitore[49]. È visto come un “alternativa economica” per compiti generali come la redazione, il riassunto e la chat, dove la sua qualità leggermente inferiore rispetto ai modelli di frontiera è un compromesso accettabile per i grandi risparmi[50]. La presenza di DeepSeek nelle imprese è ancora in fase emergente, ma è significativo che su OpenRouter (una piattaforma popolare per il routing delle chiamate API dei modelli AI), DeepSeek e Qwen abbiano entrambi fatto parte dei primi 10 modelli più utilizzati dagli sviluppatori alla fine del 2025 – mentre un anno prima quella lista era dominata da modelli statunitensi[51][52]. In futuro, se DeepSeek continua a iterare rapidamente e a mantenere i costi eccezionalmente bassi (la società ha già accennato che la sua API sottovaluta anche il rivale open-source Meta’s Llama nei casi di lungo contesto[53]), potrebbe diventare un elemento fondamentale per le implementazioni AI aziendali attente al budget.
Sebbene gran parte dell'attenzione dell'industria dell'IA sia stata rivolta ai casi d'uso aziendali, una società che punta sull'IA rivolta ai consumatori è Macaron AI. Macaron, una startup con sede a Singapore, ha introdotto quello che chiama il “primo agente AI personale al mondo” – essenzialmente un assistente AI dedicato ad arricchire la vita quotidiana di un individuo piuttosto che solo la produttività sul posto di lavoro[54]. L'agente Macaron AI è progettato per agire come un compagno digitale personalizzato. Può trasformare istantaneamente la richiesta di un utente (anche una sola frase) in un mini-app personalizzato o soluzione[55][56]. Ad esempio, dì a Macaron “Pianifica un viaggio nel weekend a Kyoto” e genererà un'app di itinerario su misura; chiedigli di aiutarti a iniziare un'abitudine di fitness, e creerà un tracker di allenamento personalizzato – tutto in pochi secondi, senza codifica. Questa intelligenza incentrata sulla vita è un differenziatore deliberato: Macaron non si limita a riassumere email o scrivere codice, affronta compiti personali quotidiani. Come afferma l'azienda, la specialità di Macaron è “trasformare una singola frase in un mini-app funzionante... il focus sulla vita lo distingue dagli agenti AI che aiutano principalmente con il lavoro d'ufficio.”[56]
Dietro le quinte, Macaron sta spingendo anche i confini tecnici. Impiega un enorme modello mixture-of-experts (MoE) con un numero senza precedenti di oltre 1 trilione di parametri e un sofisticato setup di addestramento[57][58]. Il team ha implementato tecniche innovative di scalabilità (parallelismo ibrido, adattamento fine-tuning a basso rango, ecc.) per rendere fattibile un modello così grande[59][60]. Perché così grande? Perché Macaron punta a un'IA che sembra veramente personalizzata e simile a un essere umano nella sua ampiezza di conoscenze. Dispone di un ampio modulo di memoria a lungo termine che costruisce una base di conoscenze personali sull'utente - ricordando le tue preferenze, eventi importanti e contesto delle conversazioni passate[61][62]. Nel tempo, impara a anticipare le tue esigenze e ad adattare il suo tono e le sue proposte al tuo stile unico, quasi come un amico sempre attento. Ad esempio, Macaron può ricordarti un compito di cui hai parlato la scorsa settimana, o suggerirti un ristorante per una serata romantica basato sulle tue abitudini alimentari e sui preferiti passati. Inoltre, consente una dimensione sociale all'IA - gli utenti possono invitare Macaron nelle chat di gruppo per assistere collaborativamente e condividere o co-creare le mini-app che costruisce[63][64], trasformando l'IA in un'esperienza comunitaria.
L'attenzione di Macaron sui consumatori e lo stile di vita potrebbe rappresentare una grande opportunità in Asia. In Cina e in altri mercati asiatici, i grandi player tecnologici hanno investito risorse nell'AI, ma gran parte di queste sono state orientate verso l'impresa o focalizzate sull'infrastruttura (servizi cloud per le imprese, progetti governativi, ecc.) o applicate al miglioramento di super-app e piattaforme esistenti. Un agente personale standalone mirato esclusivamente all'empowerment individuale e alla creatività è più raro. Macaron vede questa lacuna – posizionandosi come un'AI per lo stile di vita che aiuta a “vivere meglio, non solo a lavorare meglio.” I suoi servizi (pianificazione viaggi, coaching sulla salute, consulenza sulle relazioni, facilitazione degli hobby, diario, ecc.) si inseriscono nelle tendenze dei consumatori asiatici di assistenti personali digitali e “super-app,” ma con una personalizzazione molto maggiore. Se Macaron riesce a navigare tra le culture locali e le normative sui dati (cosa su cui sta lavorando esplicitamente, integrando le norme locali sulla privacy e le considerazioni etiche sull'AI nel suo design per mercati come il Giappone e la Corea), potrebbe trovare un'accoglienza entusiastica. Il mercato cinese, in particolare, è enorme – e mentre i giganti domestici hanno i loro chatbot (come Ernie di Baidu o il mix di servizi di Tencent), una soluzione agile di agente personale che funziona su più piattaforme potrebbe ritagliarsi una nicchia. Il successo di Macaron dipenderà dalla fiducia (memorizzare i ricordi di vita di un utente è delicato) e dal fornire un reale valore aggiunto rispetto a ciò che il telefono e le app di un utente già offrono. Ma il suo approccio – un co-designer di soluzioni personali – suggerisce nuove possibilità. In un panorama AI ampiamente diviso tra strumenti aziendali e chatbot generici, Macaron è un esempio di startup che mira a definire una nuova categoria di AI per il consumatore. Il suo progresso sarà un affascinante caso di studio su come un'AI progettata per l'empowerment personale possa coesistere e forse prosperare accanto alle grandi iniziative di AI aziendale.
Quali prospettive ci attendono se più aziende statunitensi continueranno ad adottare modelli di IA cinesi open-source? Nel breve termine, possiamo aspettarci una maggiore competizione e un'innovazione più rapida. Le aziende statunitensi di IA saranno spinte a rispondere al “prezzo cinese” – potremmo vedere ulteriori riduzioni dei costi per i servizi di IA e più rilasci open da parte delle aziende occidentali. (Il rilascio dei modelli GPT-OSS di OpenAI nel 2025 è una di queste risposte, e Gemini di Google potrebbe seguire con versioni più economiche e ridotte per rimanere rilevante.) Questa competizione avvantaggia gli acquirenti aziendali, che avranno un menu più ricco di modelli a vari livelli di prezzo-prestazioni. Lo stiamo già vedendo: ad esempio, Claude 4 di Anthropic è offerto in più versioni (Opus, Sonnet, Haiku) per bilanciare potenza e costo[66][36], e startup come MiniMax pubblicizzano orgogliosamente che il loro modello costa solo l'8% di quello di Anthropic per prestazioni simili[67]. Se i modelli open cinesi continuano a guadagnare adozione, i fornitori americani potrebbero anche accelerare la ricerca in tecniche di efficienza (come le strategie di attenzione sparsa e MoE utilizzate dai team cinesi) per colmare il divario su throughput e costi. Infatti, si sta verificando una contaminazione incrociata – le idee di ricerca fluiscono a livello globale, quindi un esito positivo è che il progresso complessivo nelle capacità di IA potrebbe accelerare mentre i team costruiscono sui successi reciproci.
Allo stesso tempo, fiducia e governance saranno fondamentali. Le aziende richiederanno garanzie su qualsiasi modello utilizzino, sia che provenga dalla Silicon Valley o da Pechino. Ciò potrebbe portare alla nascita di audit e certificazioni di terze parti per i modelli di AI in termini di sicurezza, proprio come oggi i data center cloud sono sottoposti ad audit di sicurezza. Anche il governo degli Stati Uniti potrebbe avere un ruolo: ad esempio, potrebbe emanare linee guida o addirittura restrizioni per determinati settori (come difesa, infrastrutture critiche, ecc.) sull'uso di AI sviluppata all'estero. “Ci sono preoccupazioni naturali su quali dati il modello sia stato addestrato e se mostri comportamenti che l'azienda non desidererebbe,” ha osservato Nathan Benaich di Air Street Capital, riferendosi agli usi aziendali ad alto rischio di modelli stranieri. Potremmo assistere all'emergere di soluzioni AI orientate alla conformità – ad esempio, versioni americane di modelli open che sono stati verificati per la sicurezza – offrendo alle imprese un modo più sicuro di sfruttare queste innovazioni. Infatti, alcune organizzazioni stanno già perseguendo un approccio “il meglio di entrambi i mondi”: prendono un modello open come Qwen o Llama, rimuovono o riformano eventuali aspetti problematici e lo eseguono sulla propria infrastruttura sicura, godendo così dei vantaggi economici senza inviare dati a un'entità esterna.
Se l'AI open-source cinese continua a proliferare nelle imprese statunitensi, potrebbe anche alterare l'equilibrio dell'esperienza e del talento nell'AI. I modelli open-source abbassano la barriera all'ingresso per la creazione di prodotti basati sull'AI, il che potrebbe generare più startup e soluzioni – un vantaggio per l'innovazione in generale. Tuttavia, se la tecnologia di base che supporta molte di queste soluzioni proviene dalla Cina, ciò potrebbe tradursi in influenza. Ad esempio, le aziende cinesi potrebbero iniziare a offrire supporto a pagamento, consulenza o componenti aggiuntivi premium per i loro modelli open-source (proprio come Red Hat ha fatto per Linux nel mondo del software open-source). L'industria tecnologica statunitense potrebbe trovarsi nella posizione ironica di sfruttare ampiamente la tecnologia “aperta” cinese, anche mentre la rivalità geopolitica persiste. Da un punto di vista strategico, questa tendenza potrebbe in realtà incoraggiare una maggiore collaborazione nella comunità di ricerca sull'AI – se i laboratori cinesi e occidentali costruiscono tutti sulle reciproche contributi open-source, potrebbe emergere una base tecnica condivisa (con standard o framework comuni). Ma potrebbe altrettanto portare a una frammentazione, dove si evolvono due ecosistemi: uno dominato da modelli completamente aperti e a basso costo (con una forte presenza in Asia e tra le startup sensibili ai costi a livello globale), e un altro di modelli premium e proprietari (dominante nei domini ad alta sicurezza e tra le grandi imprese che danno priorità alla massima qualità e supporto).
Per le aziende statunitensi, una considerazione chiave per il futuro sarà la “diversificazione dei fornitori” nella strategia AI. Affidarsi esclusivamente a un unico partner AI (come solo OpenAI o solo Alibaba) comporta dei rischi – come variazioni di prezzo, interruzioni o cambiamenti di politica. Molti CIO preferiranno un portafoglio: magari un fornitore principale di LLM più un modello aperto di riserva in-house come contingenza. L'inclusione di modelli cinesi rafforza questa strategia, offrendo alle imprese ulteriore potere contrattuale. Come notato nell'analisi di VentureBeat, l'approccio open-source di DeepSeek offre una copertura contro il lock-in – ma i consigli di amministrazione e i team di sicurezza faranno domande difficili se la copertura proviene da un fornitore cinese. Queste domande probabilmente alimenteranno molte discussioni nelle sale dei consigli e nelle revisioni dell'architettura IT negli anni a venire.
Infine, è importante notare che gli Stati Uniti mantengono ancora alcuni vantaggi critici nella corsa all'IA: accesso all'hardware semiconduttore più avanzato, un flusso più forte di talenti di ricerca IA di alto livello a livello globale e (per ora) le raccolte più complete di dati di formazione di alta qualità. Come sottolineato dal commento su YouTube che ha introdotto questa discussione, gli Stati Uniti “hanno semplicemente un migliore accesso a dati di qualità superiore e GPU... naturalmente, gli Stati Uniti creeranno modelli migliori come abbiamo sempre fatto” - mentre “la Cina continuerà a sottovalutare il mercato” sui costi[70][71]. Questo suggerisce un futuro in cui le aziende statunitensi continuano a spingere il confine della capacità grezza, mentre le aziende cinesi si concentrano su rendere l'IA ampiamente accessibile e conveniente. In termini di impresa, il segmento premium (aziende che necessitano del miglior modello assoluto e sono disposte a pagarlo) potrebbe rimanere fedele ai modelli di frontiera statunitensi, mentre il segmento di adozione di massa (aziende che necessitano di un'IA “abbastanza buona” al costo più basso) potrebbe sempre più orientarsi verso modelli aperti di origine cinese. La stessa partnership OpenAI-Thrive può essere vista come una risposta a questa dinamica: integrando profondamente l'IA nei flussi di lavoro industriali e imparando dall'uso reale, OpenAI spera di mantenere un vantaggio che non riguarda solo la qualità del modello ma l'integrazione completa del prodotto e l'esperienza nel settore.
In conclusione, il panorama dell'integrazione dell'AI nelle imprese sta venendo ridefinito da collaborazioni come quella tra OpenAI e Thrive, che portano l'AI nei processi aziendali fondamentali, e dall'afflusso di LLM cinesi capaci e a basso costo che ampliano le opzioni per le imprese. Probabilmente ci stiamo dirigendo verso un'era di co-opetizione, in cui gli ecosistemi AI americani e cinesi sia competono che collaborano involontariamente (tramite open-source) per avanzare lo stato dell'arte. Per le imprese, questo è generalmente positivo: più scelta, più innovazione e la possibilità di combinare soluzioni AI per soddisfare le loro esigenze. I vincitori nel business saranno quelli che sapranno sfruttare strategicamente questa diversità di modelli AI – attingendo alla forza di ciascuno dove si adatta, gestendo i rischi e rimanendo agili mentre la tecnologia continua a evolversi a velocità vertiginosa. Alla fine, che si tratti di un sistema OpenAI all'avanguardia o di un modello cinese gratuito su Hugging Face, ciò che conta per le aziende sono i risultati. Se un modello AI può automatizzare un compito, ridurre i costi o aprire una nuova opportunità di prodotto, troverà facilmente accoglienza. E nel 2025 e oltre, queste realtà ospiteranno sempre più un mix di Est e Ovest nel loro kit di strumenti AI – uno sviluppo che sarebbe sembrato inverosimile non molto tempo fa, ma che ora è la realtà della nostra industria tecnologica globalmente interconnessa.
Sources: [1][2][3][4][5][6][7][9][10][12][15][17][19][20][21][27][29][30][68][33][34][35][36][37][26][16][43][46][41][51][55][56][62][65][69][70][71]
OpenAI acquisisce una quota in Thrive Holdings nella sua ultima spinta verso l'IA aziendale | Reuters
13 statistiche sull'adozione di LLM: Dati critici per l'implementazione dell'IA aziendale nel 2025
https://www.typedef.ai/resources/llm-adoption-statistics
[7] [8] Aziende che utilizzano l'AI generativa: esempi reali
https://indatalabs.com/blog/companies-using-generative-ai
[13] [14] [19] [20] [21] [24] [25] [27] [29] [30] [33] [37] [51] [52] [67] [68] [70] [71] Modelli di intelligenza artificiale cinesi, economici e open source, stanno decollando - The Wire China
https://www.thewirechina.com/2025/11/09/cheap-and-open-source-chinese-ai-models-are-taking-off/
[15] [16] [17] [18] Il CEO di Airbnb Brian Chesky è chiaro, afferma: Non usiamo i modelli più recenti di OpenAI in produzione perché ... - The Times of India
[22] [23] [26] [28] [34] [36] [38] [39] [40] [66] 9 Migliori Modelli di Linguaggio di Ampio Raggio a Novembre 2025 | Shakudo
https://www.shakudo.io/blog/top-9-large-language-models
[31] [32] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [53] [69] Il nuovo modello V3.2-Exp di DeepSeek riduce il prezzo dell'API della metà a meno di 3 centesimi per 1M di token di input | VentureBeat
[54] Macaron AI, il primo agente personale al mondo, lancia ufficialmente ...
https://finance.yahoo.com/news/productivity-ai-personal-ai-macaron-120000260.html
[55] [56] [57] [58] [59] [60] [61] [62] [63] [64] L'esperienza Macaron - Un'AI che ti aiuta a vivere meglio
[65] Integrazione Socio-Tecnica: Navigare nella Cultura ... - Macaron AI
https://macaron.im/en/blog/socio-technical-integration-macaron-asia