Cómo la sociedad Thrive de OpenAI y los LLM chinos están redefiniendo la integración de la IA empresarial

Autor: Boxu Li 

Alianza de IA empresarial de OpenAI y Thrive Capital

El último movimiento estratégico de OpenAI subraya el impulso para integrar la IA profundamente en las industrias tradicionales. En diciembre de 2025, OpenAI tomó una participación en Thrive Holdings, un nuevo vehículo de Thrive Capital de Josh Kushner, como parte de una asociación para incorporar los modelos de lenguaje de OpenAI en verticales como contabilidad y servicios de TI[1][2]. En lugar de una inversión en efectivo, OpenAI está proporcionando un equipo de investigación dedicado a cambio de acciones, alineando los incentivos para que ambas partes se centren en la transformación impulsada por IA de las operaciones comerciales heredadas. El objetivo es infundir IA en procesos manuales y fragmentados en las empresas del portafolio de Thrive y mejorar continuamente estos modelos a través del aprendizaje por refuerzo con expertos en el dominio[3]. Thrive ha recaudado más de $1,000 millones para adquirir proveedores de servicios tradicionales y renovarlos con IA[2]. Esta asociación señala un enfoque novedoso: OpenAI no solo está vendiendo acceso a la API; está integrándose verticalmente al co-construir soluciones de IA dentro de las empresas. “Alinear OpenAI a través de la propiedad” asegura que tanto OpenAI como Thrive compartan una “Estrella del Norte” de desarrollar productos líderes impulsados por IA para esas industrias[4]. Notablemente, a pesar de que Thrive Capital es un importante respaldo de OpenAI, el acuerdo no obliga a Thrive a usar exclusivamente los modelos de OpenAI – Thrive aún puede aprovechar otros modelos, incluidos los de código abierto, donde tengan sentido[5]. Esto destaca una verdad pragmática del panorama actual de la IA empresarial: las empresas adoptarán el modelo que mejor se ajuste a sus necesidades de dominio, restricciones de costos y requisitos de integración.

Adopción Empresarial de LLM en Industrias de EE.UU.

En todo Estados Unidos corporativo, la adopción empresarial de IA, especialmente de IA generativa, ha aumentado en los últimos dos años. Una encuesta de McKinsey de 2024 encontró que el 78% de las organizaciones ahora utilizan IA en al menos una función (frente al 55% del año anterior), y el 71% ha implementado herramientas de IA generativa[6]. Esto indica que los LLMs han pasado de pilotos experimentales a “infraestructura empresarial esencial” en muchas empresas[6]. Crucialmente, esta tendencia es generalizada en todas las industrias. En finanzas, los bancos están utilizando LLMs para analizar investigaciones y ayudar a los asesores; en salud, los LLMs redactan informes médicos y comunicaciones con pacientes; en legal y consultoría, resumen documentos y generan borradores de contenido. En comercio electrónico y viajes, la IA generativa impulsa el servicio al cliente y las recomendaciones; por ejemplo, el concierge de IA de Airbnb puede ayudar a resolver consultas de huéspedes sin agentes humanos. El gigante minorista Amazon utiliza modelos de IA para resumir reseñas de productos para los compradores, extrayendo gustos y disgustos comunes de cientos de comentarios en un solo párrafo[7]. Esto mejora la experiencia del cliente y acelera las conversiones de ventas. Amazon también ha lanzado herramientas de IA generativa para ayudar a los vendedores del mercado a redactar mejores listados de productos, e incluso ha hecho que Alexa sea más conversacional con la integración de LLM[8]. Estos ejemplos subrayan un patrón: las empresas están integrando LLMs dondequiera que puedan automatizar flujos de trabajo o mejorar las interacciones con los usuarios, desde redactar copias de marketing hasta impulsar chatbots y asistentes de codificación.

Sin embargo, integrar la IA a gran escala no es trivial: muchas empresas aún luchan por pasar del piloto a la producción. Los estudios encontraron que tan solo el 5 % de los proyectos piloto de GenAI logran rápidos incrementos en los ingresos, con muchos estancándose debido a objetivos poco claros o desafíos de infraestructura[9]. No obstante, el caso de negocio para la IA empresarial sigue siendo sólido. Las empresas que tienen éxito reportan un sólido ROI (en promedio 3.7× de retorno, según un análisis) y están reasignando presupuestos en consecuencia[10]. El gasto empresarial en LLMs se ha disparado: el 37 % de las empresas gastaban más de $250,000 anualmente en el uso de LLM para 2025[11]. Esta disposición a invertir refleja una necesidad competitiva: las empresas ven la IA como una tecnología estratégica para impulsar la productividad y la innovación. El resultado es un ecosistema de IA empresarial donde múltiples LLMs coexisten. De hecho, las encuestas indican que está emergiendo un patrón de implementación “multi-modelo”: un informe encontró que la mayoría de las empresas usan al menos dos modelos de IA diferentes, a menudo combinando ofertas de OpenAI, Anthropic, Google y proveedores de código abierto[12]. Este enfoque multi-modelo permite a las organizaciones equilibrar las fortalezas y debilidades de varios LLMs (por ejemplo, un modelo para soporte de codificación, otro para tareas generales de chatbot) y evitar la dependencia excesiva de un solo proveedor.

Empresas de EE.UU. adoptan LLM chinos: Ventaja de costos e implicaciones

Un giro inesperado en la historia de la IA empresarial es el aumento de LLMs de código abierto chinos que encuentran adopción en EE. UU. Las empresas que hace un año optaban por modelos estadounidenses ahora están evaluando (y en algunos casos adoptando) modelos de Alibaba, Baidu, Zhipu, MiniMax y otros. La razón se reduce a una propuesta de valor poderosa: estos modelos suelen ser gratuitos, de “peso abierto” (parámetros de modelo liberados abiertamente), y mucho más baratos de operar que sus contrapartes estadounidenses[13][14]. Para las empresas que intentan automatizar tareas a gran escala, el costo y la personalización pueden superar el tener el modelo más avanzado del estado del arte. Como resultado, incluso las grandes empresas tecnológicas de EE. UU. han comenzado a experimentar con la IA china. En un ejemplo reciente que causó revuelo, el CEO de Airbnb, Brian Chesky, reveló que la empresa depende en gran medida del Qwen de Alibaba LLM para su agente de servicio al cliente automatizado, prefiriéndolo sobre los modelos más recientes de OpenAI porque “hay modelos más rápidos y baratos”[15]. Chesky elogió específicamente a Qwen, diciendo “Dependemos mucho del modelo Qwen de Alibaba. Es muy bueno. También es rápido y barato.”[16]. De hecho, el nuevo conserje de IA de Airbnb lanzado en 2025 se construyó utilizando una mezcla de 13 modelos (incluyendo OpenAI, Google y de código abierto), pero el Qwen chino sustenta gran parte del trabajo pesado[17]. Los ahorros de costos al usar Qwen y otros han permitido a Airbnb automatizar el 15% de las solicitudes de soporte y reducir el tiempo de resolución de horas a segundos[18] – un impacto tangible en el negocio.

Airbnb no está solo. Algunas startups bien financiadas y capitalistas de riesgo también han mirado hacia el este en busca de atajos de IA. El destacado inversor Chamath Palihapitiya comentó que su empresa trasladó sus flujos de trabajo de IA desde los servicios propietarios de Amazon al modelo Kimi de Moonshot (de una startup con sede en Beijing) porque era “mucho más eficiente.”[19] De manera similar, la nueva empresa de la ex CTO de OpenAI Mira Murati lanzó una herramienta que permite a los usuarios ajustar modelos abiertos, incluyendo ocho variantes de Qwen, destacando el interés en construir sobre las bases de los LLM chinos[20]. El atractivo es claro: “para una startup promedio, lo que realmente importa es la velocidad, la calidad y el costo... los modelos chinos han tenido un buen desempeño consistentemente en equilibrar esos tres”[21]. Los laboratorios de IA chinos han abierto agresivamente el acceso a modelos con licencias permisivas, permitiendo a cualquiera descargar los pesos del modelo y personalizarlos. Alibaba, por ejemplo, liberó versiones de su familia de modelos Tongyi Qianwen (Qwen) bajo la licencia Apache 2.0, que van desde 4B hasta más de 70B+ parámetros[22][23]. Esto significa que una empresa puede “extraer esos pesos de internet y ajustarlos con datos propietarios” para obtener un modelo específico de dominio sin comenzar desde cero[24]. Una empresa surcoreana hizo exactamente eso, ajustando Qwen para el procesamiento de documentos gubernamentales, y redujo sus costos en un 30% como resultado[25]. Alibaba informa que más de 170,000 modelos se han derivado de Qwen en todo el mundo, y que más de 90,000 empresas (que abarcan electrónica de consumo, videojuegos, etc.) han adoptado los modelos de la familia Qwen de alguna forma[26]. Estas cifras indican que los LLM chinos han ganado rápidamente terreno entre desarrolladores y empresas a nivel global.

Las implicaciones de esta tendencia son un arma de doble filo. Por un lado, los proveedores de IA de EE.UU. están viendo cómo se desvía el potencial de ingresos empresariales. Cada carga de trabajo manejada por un modelo chino abierto es una que no se ejecuta en las API de pago de OpenAI o Anthropic. Como señaló The Wire China, si los desarrolladores de modelos de EE.UU. pierden grandes clientes como Airbnb a manos de competidores chinos, eso es una “señal de advertencia” de que el enfoque estadounidense (a menudo propietario y de alto costo) está fallando en algunos casos de uso[27]. Los laboratorios de modelos de frontera como OpenAI, Anthropic y Google pueden verse obligados a responder, ya sea bajando precios, ofreciendo variantes abiertas (de hecho, OpenAI acaba de lanzar algunos modelos GPT de “peso abierto”[28]), o enfocándose en capacidades verdaderamente diferenciadas. Otra implicación es estratégica y geopolítica: la creciente dependencia de la IA china por parte de empresas estadounidenses plantea preguntas de confianza y seguridad. Hasta ahora, el pragmatismo en torno al costo y el rendimiento ha superado en algunos casos las preocupaciones sobre la gobernanza de datos. Pero Washington está prestando atención: los reguladores de EE.UU. añadieron al fabricante chino de IA Zhipu (creador de modelos GLM) a una lista negra comercial a principios de 2025[29], y un informe del Departamento de Comercio advirtió sobre los riesgos de seguridad de la IA extranjera y señaló que el auge de los modelos chinos está “afectando el liderazgo histórico global de los desarrolladores de EE.UU.”[29][30]. Incluso hay impulso en EE.UU. para limitar el uso de LLM chinos en entornos gubernamentales, potencialmente extendiéndose a las empresas si aumentan las presiones de seguridad nacional[27]. A nivel empresarial, está aumentando la diligencia debida con los proveedores chinos de IA: las empresas deben sopesar los beneficios de modelos como Qwen o DeepSeek frente a riesgos como la exposición de datos o problemas de cumplimiento. Algunos mitigan esto autoalojando los modelos de código abierto internamente (evitando llamadas a API externas)[31][32], lo cual aborda las preocupaciones sobre la residencia de datos pero requiere una ingeniería interna significativa. Otros adoptan un enfoque híbrido: utilizan modelos chinos para tareas no sensibles mientras reservan datos sensibles para modelos en los que confían más. En cualquier caso, la entrada de LLM chinos ha inyectado una competencia saludable. Ha empujado a las empresas estadounidenses a innovar en eficiencia (por ejemplo, el último Claude de Anthropic es significativamente más barato y rápido que su predecesor) e incluso a abrir aspectos de su tecnología. Como lo expresó un investigador de IA, “el dominio a largo plazo de la IA estadounidense depende en gran medida de [no] ceder el liderazgo en código abierto a China.”[33]

Los 5 principales modelos de IA integrados por empresas

En el entorno multimodelo actual, un puñado de LLMs han emergido como las opciones preferidas para la integración empresarial:

  1. Serie GPT de OpenAI (GPT-4 y GPT-5)Los modelos GPT de OpenAI siguen siendo un pilar en la IA empresarial, conocidos por sus capacidades avanzadas y confiabilidad general. GPT-4 trajo un rendimiento revolucionario en la comprensión y generación del lenguaje natural, y el recién anunciado GPT-5 de OpenAI representa un salto aún más significativo – destacando en tareas de codificación, matemáticas, escritura y multimodalidad[34]. Muchas empresas acceden a los modelos GPT a través del servicio Azure OpenAI o la API de OpenAI para potenciar chatbots, asistentes de escritura y herramientas de soporte a la toma de decisiones. Las fortalezas de GPT-4/5 son el razonamiento complejo y el diálogo fluido, lo que los hace ideales para aplicaciones como el análisis de documentos legales o la automatización de mesas de ayuda internas. Sin embargo, son propietarios y tienen un costo premium. La cuota de mercado empresarial de OpenAI era de aproximadamente 25% en 2025[35], reflejando un uso generalizado pero también competencia. OpenAI ha respondido a la ola de código abierto lanzando modelos GPT-OSS (de peso abierto) de 120B y 20B parámetros para auto-hospedaje[28], con el objetivo de atraer a negocios que necesitan más control. Aún así, para muchas empresas, GPT-4 sigue siendo el referente de calidad – a menudo utilizado cuando la precisión es primordial.

  2. Anthropic Claude – Desarrollado por Anthropic, Claude se ha convertido rápidamente en uno de los sistemas de IA más populares para empresas. De hecho, a finales de 2025, Anthropic supuestamente superó a OpenAI con un 32% de participación de mercado en LLM empresariales[35]. La popularidad de Claude proviene de su filosofía de diseño: está diseñado para ser útil, honesto e inofensivo (alineado), y ofrece ventanas de contexto muy grandes (más de 100.000 tokens), lo que le permite manejar documentos extensos o conversaciones de múltiples turnos con facilidad. La última serie Claude 4 (Opus 4, Sonnet 4.5) ofrece un rendimiento de primera clase en tareas de codificación y razonamiento[36], convirtiendo a Claude en un fuerte competidor de los modelos de OpenAI. Las empresas utilizan Claude para cosas como analizar código de software, generar artículos para bases de conocimiento y como asistente de IA en herramientas como Slack. El equilibrio de inteligencia, velocidad y menor riesgo de resultados ofensivos de Claude resulta especialmente atractivo en aplicaciones orientadas al cliente o sensibles. La estrecha colaboración de Anthropic con AWS también ha hecho que Claude sea accesible para las empresas a través de Amazon Bedrock. En general, Claude es valorado por su larga memoria y fiabilidad, y muchas organizaciones lo ejecutan junto con modelos GPT para comparar respuestas en cuanto a calidad y tono.

3. LLaMA 2 de Meta – LLaMA 2 es el principal LLM de código abierto de Meta AI, lanzado a mediados de 2023, y se ha convertido en una base para muchas soluciones empresariales personalizadas de IA. A diferencia de los modelos propietarios, los pesos de LLaMA 2 están disponibles (con una licencia permisiva para investigación y uso comercial limitado), lo que significa que las empresas pueden ajustarlo con sus propios datos. Este modelo (disponible en tamaños de hasta 70 mil millones de parámetros) demostró que los modelos abiertos pueden acercarse al poder de los modelos cerrados. A los pocos meses de su lanzamiento, LLaMA 2 impulsó una ola de innovación, generando innumerables variantes ajustadas y modelos específicos de la industria. Se hizo común ver empresas utilizando un modelo derivado de LLaMA 2 internamente para tareas como documentación de software, finalización de código interno o redacción de informes, especialmente cuando la privacidad de los datos era una preocupación. El enfoque abierto de Meta también presionó a otros actores (por ejemplo, OpenAI) para considerar ofertas de pesos abiertos. Aunque modelos abiertos más nuevos (incluidos los chinos) han superado a LLaMA 2 en algunos puntos de referencia, sigue siendo una opción popular para las empresas que necesitan un modelo base sólido que puedan controlar completamente. De hecho, hasta hace poco, los modelos basados en LLaMA dominaban las nuevas cargas de modelos de IA en Hugging Face, antes de que el Qwen de Alibaba lo superara en volumen de nuevos derivados[37] – un testimonio de cuán ampliamente fue adoptado LLaMA en la comunidad de desarrolladores de IA. Empresas tecnológicas como IBM incluso se asociaron con Meta para ofrecer LLaMA 2 a través de sus plataformas (watsonx de IBM), dirigidas a los constructores de IA empresariales. El impacto de LLaMA 2 es que abrió la puerta para la adopción de LLM de código abierto en entornos empresariales, allanando el camino para la nueva generación de modelos abiertos.

4. Alibaba Qwen – Qwen (nombre completo Tongyi Qianwen) es el LLM insignia de Alibaba Cloud y, posiblemente, el modelo chino de código abierto más exitoso en el escenario global. Alibaba lanzó Qwen-7B y 14B bajo una licencia Apache 2.0 en 2023, y más tarde presentó versiones más grandes de Mixture-of-Experts (con hasta 70B+ parámetros efectivos en Qwen 3). Los modelos Qwen son conocidos por su eficiencia y capacidades multilingües, y Alibaba ha desarrollado variantes como Qwen-Coder (para programación) y Qwen-VL (visión-lenguaje)[38][39]. Fundamentalmente, Qwen es libre de usar y modificar, lo que llevó a una gran adopción: a finales de 2025, Alibaba reportó más de 90,000 empresas (en sectores desde electrónica de consumo hasta juegos) utilizando modelos de la familia Qwen[26]. Muchas son empresas chinas, pero Qwen ha ganado terreno a nivel mundial gracias a su relación rendimiento-costo. La adopción de Qwen por parte de Airbnb para su agente de IA demostró las capacidades del modelo en servicio al cliente en inglés a gran escala[15]. Otras startups han ajustado Qwen a sus necesidades, beneficiándose del robusto modelo base sin pagar tarifas de API. El impacto de Qwen en las empresas suele ser en ahorros de costos: las empresas pueden desplegar Qwen en su propia nube por una fracción del costo de llamar a una API como GPT-4. Y en términos de rendimiento, Qwen 14B ha sido competitivo con modelos dos o tres veces su tamaño en muchas tareas. Alibaba continúa avanzando Qwen (la última serie Qwen-3 utiliza Mixture-of-Experts para mejorar el rendimiento mientras se usan menos parámetros activos[40]). Para las empresas, Qwen ofrece un modelo abierto maduro y listo para producción respaldado por un gigante tecnológico, y además forma parte de las ofertas en la nube de Alibaba, que algunas empresas multinacionales usan en regiones donde Alibaba Cloud tiene presencia. Como resultado, Qwen se ha posicionado como una opción superior de LLM, especialmente para empresas que buscan una alternativa a las APIs occidentales, ya sea por costo, flexibilidad o razones de localización.

  1. DeepSeekDeepSeek es un recién llegado que rápidamente ha captado la atención por su enfoque ultraeconómico y abierto. Desarrollado por una empresa china de IA (se cree que con sede en Hong Kong), la serie de modelos de DeepSeek aún no es un nombre familiar, pero entre los desarrolladores está en tendencia como un cambio de juego para la IA asequible. Los modelos DeepSeek V3 son masivos (cientos de miles de millones de parámetros) y están abiertos bajo la licencia MIT, lo que significa que las empresas pueden descargarlos y desplegarlos libremente para uso comercial. Lo que realmente distingue a DeepSeek es su enfoque implacable en la optimización para una inferencia rentable. El último modelo DeepSeek V3.2-Exp redujo los costos de inferencia en un 50%, ofreciendo procesamiento de entrada a solo $0.028 por millón de tokens a través de su API – órdenes de magnitud más barato que GPT-4 de OpenAI. Incluso acercándose a un contexto de 128k tokens (cientos de páginas de texto), DeepSeek mantiene bajos costos y un rendimiento sólido. Técnicamente, logra esto mediante innovaciones como DeepSeek Sparse Attention (DSA) – un mecanismo que atiende selectivamente a los tokens más relevantes (“indexador relámpago”) en lugar de cada token en una secuencia larga. Esto reduce drásticamente el cálculo para indicaciones largas mientras preserva la calidad de la respuesta, aplanando efectivamente la curva de costos para tareas de largo contexto. Gracias a esta eficiencia, DeepSeek es ideal para aplicaciones como el procesamiento de contratos legales extensos o la realización de diálogos de investigación de múltiples turnos sin incurrir en enormes facturas en la nube. Las empresas también aprecian que DeepSeek puede ser autoalojado – los pesos completos del modelo (por ejemplo, el V3.2 de 685 mil millones de parámetros) son descargables, e incluso la empresa proporciona núcleos de inferencia optimizados e imágenes Docker para su despliegue. En la práctica, algunas organizaciones estadounidenses están probando DeepSeek como una forma de diversificarse de la dependencia de grandes proveedores estadounidenses – una protección contra el bloqueo de proveedores. Se ve como una “alternativa rentable” para tareas de propósito general como redacción, resumen y chat, donde su calidad ligeramente inferior a los modelos de vanguardia es un intercambio aceptable por enormes ahorros. La presencia de DeepSeek en las empresas aún está emergiendo, pero fue revelador que en OpenRouter (una plataforma popular de enrutamiento de llamadas API de modelos de IA), DeepSeek y Qwen ambos se ubicaron entre los 10 modelos más utilizados por los desarrolladores a finales de 2025 – mientras que un año antes esa lista estaba dominada por modelos estadounidenses. En el futuro, si DeepSeek continúa iterando rápidamente y manteniendo los costos excepcionalmente bajos (la empresa ya insinuó que su API incluso socava a su rival de código abierto Meta's Llama en casos de largo contexto), podría convertirse en un elemento básico para despliegues de IA empresariales conscientes del presupuesto.

Macaron – Un agente de inteligencia artificial para consumidores listo para el mercado asiático

Si bien gran parte del enfoque de la industria de la IA ha estado en los casos de uso empresarial, una empresa que apuesta por la IA orientada al consumidor es Macaron AI. Macaron, una startup con sede en Singapur, ha introducido lo que llama el “primer agente personal de IA del mundo”: esencialmente, un asistente de IA dedicado a enriquecer la vida diaria de una persona en lugar de solo la productividad en el lugar de trabajo[54]. El agente de Macaron AI está diseñado para actuar como un compañero digital personalizado. Puede convertir instantáneamente la solicitud de un usuario (incluso una sola oración) en una miniaplicación o solución personalizada[55][56]. Por ejemplo, dile a Macaron “Planifica un viaje de fin de semana a Kioto” y generará una aplicación de itinerario personalizada; pídele que te ayude a comenzar un hábito de ejercicio y creará un rastreador de ejercicios personalizado, todo en segundos, sin necesidad de programar. Esta inteligencia centrada en la vida es un diferenciador deliberado: Macaron no solo resume correos electrónicos o escribe código, está abordando tareas personales cotidianas. Como dice la empresa, la especialidad de Macaron es “convertir una sola oración en una miniaplicación funcional... su enfoque centrado en la vida lo distingue de los agentes de IA que principalmente ayudan con el trabajo de oficina.”[56]

Bajo el capó, Macaron también está empujando los límites técnicos. Emplea un modelo masivo de mezcla de expertos (MoE) con más de 1 billón de parámetros y una configuración de entrenamiento sofisticada[57][58]. El equipo implementó técnicas innovadoras de escalado (paralelismo híbrido, ajuste fino de adaptación de bajo rango, etc.) para hacer viable un modelo tan grande[59][60]. ¿Por qué tan grande? Porque Macaron apunta a una IA que se sienta verdaderamente personalizada y humana en su amplitud de conocimiento. Tiene un extenso módulo de memoria a largo plazo que construye una base de conocimiento personal sobre el usuario – recordando tus preferencias, eventos importantes y contexto de conversaciones pasadas[61][62]. Con el tiempo, aprende a anticipar tus necesidades y adaptar su tono y sugerencias a tu estilo único, casi como un amigo siempre atento. Por ejemplo, Macaron puede recordarte una tarea que mencionaste la semana pasada o sugerir un restaurante para una cita según tus hábitos alimenticios y favoritos anteriores. También permite una dimensión social a la IA: los usuarios pueden invitar a Macaron a chats grupales para asistir colaborativamente y compartir o co-crear las miniaplicaciones que construye[63][64], convirtiendo la IA en una experiencia comunitaria.

El enfoque de Macaron en los consumidores y el estilo de vida podría aprovechar una gran oportunidad en Asia. En China y otros mercados asiáticos, los grandes jugadores de tecnología han invertido recursos en IA, pero gran parte de eso ha sido orientado a empresas o centrado en infraestructura (servicios en la nube para empresas, proyectos gubernamentales, etc.) o aplicado para mejorar superaplicaciones y plataformas existentes. Un agente personal independiente destinado puramente al empoderamiento individual y la creatividad es más raro. Macaron ve esta brecha, posicionándose como una IA de estilo de vida que te ayuda a “vivir mejor, no solo a trabajar mejor.” Sus servicios (planificación de viajes, asesoramiento en salud, consejos de relaciones, facilitación de hobbies, diarios, etc.) se alinean con las tendencias de los consumidores asiáticos hacia los asistentes personales digitales y las “superaplicaciones”, pero con mucha más personalización. Si Macaron puede navegar por las culturas locales y las regulaciones de datos (algo en lo que está trabajando explícitamente, integrando normas de privacidad locales y consideraciones éticas de IA en su diseño para mercados como Japón y Corea[65]), podría encontrar una acogida entusiasta. El mercado chino, en particular, es enorme, y aunque los gigantes nacionales tienen sus propios chatbots (como Ernie de Baidu o la mezcla de servicios de Tencent), una solución ágil de agente personal que funcione en varias plataformas podría encontrar un nicho. El éxito de Macaron dependerá de la confianza (almacenar los recuerdos de vida de un usuario es sensible) y de ofrecer un valor real más allá de lo que ya hace el teléfono y las aplicaciones de un usuario. Pero su enfoque – un codiseñador de soluciones personales – sugiere nuevas posibilidades. En un panorama de IA en gran medida dividido entre herramientas empresariales y chatbots genéricos, Macaron es un ejemplo de una startup que busca definir una nueva categoría de IA para el consumidor. Su progreso será un caso de estudio fascinante sobre cómo una IA diseñada para el empoderamiento personal puede coexistir y quizás prosperar junto a las grandes iniciativas de IA empresarial.

Perspectivas Futuras: IA China de Código Abierto y Estrategia Empresarial de EE.UU.

¿Qué depara el futuro si más empresas estadounidenses continúan adoptando modelos de IA chinos de código abierto? A corto plazo, podemos esperar una competencia más intensa y una innovación más rápida. Las empresas de IA en EE. UU. se verán presionadas a responder al “precio chino” – podríamos ver más recortes de costos para servicios de IA y más lanzamientos abiertos de empresas occidentales. (El lanzamiento de modelos GPT-OSS por OpenAI en 2025 es una de esas respuestas, y Google podría seguir con Gemini, ofreciendo versiones más económicas y pequeñas para mantener su relevancia). Esta competencia beneficia a los compradores empresariales, quienes tendrán un menú más diverso de modelos en varios puntos de precio-rendimiento. Ya estamos viendo esto: por ejemplo, Claude 4 de Anthropic se ofrece en múltiples versiones (Opus, Sonnet, Haiku) para equilibrar poder y costo[66][36], y startups como MiniMax anuncian con orgullo que su modelo cuesta solo el 8% de lo que cuesta el de Anthropic para un rendimiento similar[67]. Si los modelos abiertos chinos siguen ganando adopción, los proveedores estadounidenses también podrían acelerar la investigación en técnicas de eficiencia (como las estrategias de atención dispersa y MoE que usan los equipos chinos) para cerrar la brecha en rendimiento y costo. De hecho, está ocurriendo una polinización cruzada: las ideas de investigación fluyen globalmente, por lo que un resultado positivo es que el progreso general en las capacidades de IA podría acelerarse a medida que los equipos construyen sobre los avances de otros.

Al mismo tiempo, la confianza y la gobernanza serán fundamentales. Las empresas exigirán garantías sobre cualquier modelo que utilicen, ya sea de Silicon Valley o de Beijing. Esto podría dar lugar a auditorías y certificaciones de terceros de modelos de IA para la seguridad, tal como los centros de datos en la nube hoy en día se someten a auditorías de seguridad. El gobierno de EE. UU. también podría desempeñar un papel: por ejemplo, podría emitir directrices o incluso restricciones para ciertos sectores (como defensa, infraestructura crítica, etc.) sobre el uso de IA desarrollada en el extranjero. “Existen preocupaciones naturales sobre en qué datos se entrenó el modelo y si exhibe comportamientos que la empresa no desearía,” señaló Nathan Benaich de Air Street Capital, refiriéndose al uso empresarial de alto riesgo de modelos extranjeros[68]. Podríamos ver la aparición de soluciones de IA orientadas al cumplimiento – por ejemplo, bifurcaciones de modelos abiertos alojadas en EE. UU. que sean verificadas para la seguridad – proporcionando a las empresas una forma más segura de aprovechar estas innovaciones. De hecho, algunas organizaciones ya están adoptando un enfoque de “lo mejor de ambos mundos”: toman un modelo abierto como Qwen o Llama, eliminan o reentrenan cualquier aspecto problemático y lo ejecutan en su propia infraestructura segura, disfrutando así de beneficios de costos sin enviar datos a una entidad externa[31][32].

Si la inteligencia artificial de código abierto china sigue proliferando en las empresas estadounidenses, también podría alterar el equilibrio de la experiencia y el talento en IA. Los modelos abiertos bajan la barrera de entrada para crear productos impulsados por IA, lo que podría generar más startups y soluciones, un beneficio para la innovación en general. Sin embargo, si la tecnología central que sustenta muchas de esas soluciones proviene de China, eso podría traducirse en influencia. Por ejemplo, las empresas chinas podrían comenzar a ofrecer soporte pagado, consultoría o complementos premium para sus modelos abiertos (al igual que Red Hat hizo para Linux en el mundo del software de código abierto). La industria tecnológica estadounidense podría encontrarse en la posición irónica de aprovechar ampliamente la tecnología “abierta” china, incluso mientras persiste la rivalidad geopolítica. Desde un punto de vista estratégico, esta tendencia podría realmente fomentar más colaboración en la comunidad de investigación en IA – si los laboratorios chinos y occidentales están construyendo sobre las contribuciones abiertas de los demás, podría surgir una base técnica compartida (con estándares o marcos comunes). Pero igualmente podría llevar a una fragmentación, donde evolucionen dos ecosistemas: uno dominado por modelos completamente abiertos y de bajo costo (con una fuerte presencia en Asia y entre las startups sensibles al costo a nivel mundial), y otro de modelos premium y propietarios (dominante en dominios de alta seguridad y entre grandes empresas que priorizan la máxima calidad y soporte).

Para las empresas de EE. UU., una consideración clave para el futuro será la 「diversificación de proveedores」 en la estrategia de IA. Confiar únicamente en un solo socio de IA (digamos solo OpenAI o solo Alibaba) conlleva riesgos, como cambios de precio, interrupciones o cambios de políticas. Muchos CIOs preferirán tener un portafolio: tal vez un proveedor principal de LLM más un modelo abierto de respaldo internamente como contingencia. Incluir modelos chinos en la mezcla fortalece esa mano, otorgando a las empresas un apalancamiento adicional. Como señaló el análisis de VentureBeat, el enfoque de código abierto de DeepSeek ofrece una protección contra el bloqueo, pero los consejos de administración y los equipos de seguridad harán preguntas difíciles si la protección proviene de un proveedor chino[69]. Esas preguntas probablemente generarán mucha discusión en las salas de juntas y revisiones de arquitectura de TI en los próximos años.

Finalmente, es importante señalar que los EE.UU. aún tienen algunas ventajas críticas en la carrera de la IA: acceso al hardware de semiconductores más avanzado, una fuente más fuerte de talento de investigación en IA a nivel mundial y (por ahora) los archivos más completos de datos de entrenamiento de alta calidad. Como señaló el comentario de YouTube que introdujo esta discusión, los EE.UU. “simplemente tienen mejor acceso a datos de mayor calidad y GPUs… naturalmente, EE.UU. creará mejores modelos como siempre lo hemos hecho”, mientras que “China continuamente reducirá el mercado” en costos[70][71]. Esto sugiere un futuro donde las empresas estadounidenses continúen empujando la frontera de la capacidad bruta, y las empresas chinas se centren en hacer que la IA sea ampliamente accesible y asequible. En términos empresariales, el segmento premium (empresas que necesitan el mejor modelo absoluto y están dispuestas a pagar por ello) puede permanecer leal a los modelos fronterizos de EE.UU., mientras que el segmento de adopción masiva (empresas que necesitan una IA “suficientemente buena” al menor costo) podría optar cada vez más por modelos abiertos de origen chino. La asociación OpenAI-Thrive en sí misma puede verse como una respuesta a esta dinámica: al integrar profundamente la IA en los flujos de trabajo de la industria y aprender del uso real, OpenAI espera mantener una ventaja que no solo se trata de la calidad del modelo, sino de la integración del producto completo y la experiencia en el dominio.

En conclusión, el panorama de la integración de IA empresarial está siendo transformado por colaboraciones como la de OpenAI con Thrive, que integran la IA en los procesos comerciales centrales, y por la llegada de LLM chinos capaces y económicos que amplían las opciones para las empresas. Probablemente nos dirigimos hacia una era de coopetencia, donde los ecosistemas de IA estadounidenses y chinos compiten y colaboran involuntariamente (a través de código abierto) para avanzar en el estado del arte. Para las empresas, esto es generalmente positivo: más opciones, más innovación y la capacidad de combinar soluciones de IA para satisfacer sus necesidades. Los ganadores en los negocios serán aquellos que puedan aprovechar estratégicamente esta diversidad de modelos de IA – aprovechando la fortaleza de cada uno donde encaje, gestionando los riesgos y manteniéndose ágiles a medida que la tecnología sigue evolucionando a gran velocidad. Al final, ya sea un sistema de OpenAI de vanguardia o un modelo chino gratuito en Hugging Face, lo que importa a las empresas son los resultados. Si un modelo de IA puede automatizar una tarea, reducir costos o abrir una nueva oportunidad de producto, encontrará un hogar bienvenido. Y en 2025 y más allá, esos hogares cada vez más albergarán una mezcla de Oriente y Occidente en su conjunto de herramientas de IA – un desarrollo que habría parecido inverosímil no hace mucho, pero que ahora es la realidad de nuestra industria tecnológica globalmente interconectada.

Fuentes: [1][2][3][4][5][6][7][9][10][12][15][17][19][20][21][27][29][30][68][33][34][35][36][37][26][16][43][46][41][51][55][56][62][65][69][70][71]


[1] [2] [3] [4] [5] OpenAI toma participación en Thrive Holdings en el último impulso de IA empresarial | Reuters

https://www.reuters.com/business/openai-buys-stake-thrive-holdings-push-ai-into-accounting-it-services-2025-12-01/

[6] [9] [10] [11] [12] [35] 13 Estadísticas de Adopción de LLM: Puntos de Datos Críticos para la Implementación de IA Empresarial en 2025

https://www.typedef.ai/resources/llm-adoption-statistics

[7] [8] Empresas que usan IA generativa: Ejemplos en la vida real

https://indatalabs.com/blog/companies-using-generative-ai

[13] [14] [19] [20] [21] [24] [25] [27] [29] [30] [33] [37] [51] [52] [67] [68] [70] [71] Modelos de IA chinos, baratos y de código abierto están despegando - The Wire China

https://www.thewirechina.com/2025/11/09/cheap-and-open-source-chinese-ai-models-are-taking-off/

[15] [16] [17] [18] El CEO de Airbnb, Brian Chesky, lo deja claro, dice: No usamos los últimos modelos de OpenAI en producción porque… - The Times of India

https://timesofindia.indiatimes.com/technology/tech-news/airbnb-ceo-brian-chesky-makes-it-clear-says-we-dont-use-openais-latest-models-in-production-because-/articleshow/124728422.cms

[22] [23] [26] [28] [34] [36] [38] [39] [40] [66] Los 9 principales modelos de lenguaje grande a noviembre de 2025 | Shakudo

https://www.shakudo.io/blog/top-9-large-language-models

[31] [32] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [53] [69] El nuevo modelo V3.2-Exp de DeepSeek reduce el precio de la API a la mitad, a menos de 3 centavos por cada 1M de tokens de entrada | VentureBeat

https://venturebeat.com/ai/deepseeks-new-v3-2-exp-model-cuts-api-pricing-in-half-to-less-than-3-cents

[54] Macaron AI, el primer agente personal del mundo, se lanza oficialmente ...

https://finance.yahoo.com/news/productivity-ai-personal-ai-macaron-120000260.html

[55] [56] [57] [58] [59] [60] [61] [62] [63] [64] La experiencia Macaron - IA que te ayuda a vivir mejor

https://www.prnewswire.com/news-releases/the-macaron-experience--ai-that-helps-you-live-better-302610064.html

[65] Integración Socio-Técnica: Navegando la Cultura ... - Macaron AI

https://macaron.im/en/blog/socio-technical-integration-macaron-asia

Boxu obtuvo su Licenciatura en la Universidad de Emory, especializándose en Economía Cuantitativa. Antes de unirse a Macaron, Boxu pasó la mayor parte de su carrera en el ámbito del capital privado y el capital de riesgo en los EE.UU. Ahora es Jefe de Personal y VP de Marketing en Macaron AI, gestionando finanzas, logística y operaciones, y supervisando el marketing.

Aplicar para convertirse Los primeros amigos de Macaron