Como a Parceria Thrive da OpenAI e os LLMs Chineses Estão Remodelando a Integração de IA Empresarial

Autor: Boxu Li 

Aliança de IA Empresarial da OpenAI e Thrive Capital

O mais recente movimento estratégico da OpenAI destaca o esforço para integrar a IA profundamente nas indústrias tradicionais. Em dezembro de 2025, a OpenAI adquiriu uma participação na Thrive Holdings, um novo veículo da Thrive Capital de Josh Kushner, como parte de uma parceria para integrar os grandes modelos de linguagem (LLMs) da OpenAI em setores como contabilidade e serviços de TI[1][2]. Em vez de um investimento em dinheiro, a OpenAI está fornecendo uma equipe de pesquisa dedicada em troca de participação – alinhando os incentivos para que ambos se concentrem na transformação impulsionada por IA das operações comerciais legadas. O objetivo é infundir IA em processos manuais e fragmentados nas empresas do portfólio da Thrive e melhorar continuamente esses modelos por meio de aprendizado por reforço com especialistas em domínio[3]. A Thrive arrecadou mais de US$ 1 bilhão para adquirir provedores de serviços tradicionais e reformulá-los com IA[2]. Esta parceria sinaliza uma abordagem inovadora: a OpenAI não está apenas vendendo acesso à API; está se integrando verticalmente ao co-construir soluções de IA dentro das empresas. “Alinhar a OpenAI por meio da propriedade” garante que tanto a OpenAI quanto a Thrive compartilhem um “Norte” em desenvolver produtos líderes impulsionados por IA para essas indústrias[4]. Notavelmente, apesar da Thrive Capital ser um grande apoiador da OpenAI, o acordo não obriga a Thrive a usar exclusivamente os modelos da OpenAI – a Thrive ainda pode aproveitar outros modelos, incluindo os de código aberto, onde fizerem sentido[5]. Isso destaca uma verdade pragmática do cenário atual da IA empresarial: as empresas adotarão o modelo que melhor se adapte às suas necessidades de domínio, restrições de custo e requisitos de integração.

Adoção Empresarial de LLMs em Indústrias dos EUA

Em toda a América corporativa, a adoção de IA nas empresas – especialmente a IA generativa – disparou nos últimos dois anos. Uma pesquisa da McKinsey de 2024 revelou que 78% das organizações agora usam IA em pelo menos uma função (um aumento de 55% em relação ao ano anterior), e 71% implementaram ferramentas de IA generativa[6]. Isso indica que os LLMs passaram de pilotos experimentais para “infraestrutura essencial de negócios” em muitas empresas[6]. Crucialmente, essa tendência é abrangente em todos os setores. No setor financeiro, os bancos estão usando LLMs para analisar pesquisas e auxiliar consultores; na saúde, LLMs redigem relatórios médicos e comunicações com pacientes; no jurídico e na consultoria, eles resumem documentos e geram conteúdo preliminar. No e-commerce e no turismo, a IA generativa impulsiona o atendimento ao cliente e as recomendações – por exemplo, o concierge de IA do Airbnb pode ajudar a resolver dúvidas de hóspedes sem agentes humanos. O gigante do varejo Amazon usa modelos de IA para resumir avaliações de produtos para os consumidores, extraindo gostos e desgostos comuns de centenas de comentários em um único parágrafo[7]. Isso melhora a experiência do cliente e acelera as conversões de vendas. A Amazon também lançou ferramentas de IA generativa para ajudar os vendedores do marketplace a criar melhores descrições de produtos, e até tornou a Alexa mais conversacional com a integração de LLM[8]. Esses exemplos destacam um padrão: as empresas estão integrando LLMs sempre que podem automatizar fluxos de trabalho ou aprimorar interações com os usuários, desde redigir cópias de marketing até alimentar chatbots e assistentes de codificação.

No entanto, integrar IA em grande escala não é trivial – muitas empresas ainda enfrentam dificuldades para passar de projetos piloto para produção. Estudos descobriram que apenas 5% dos projetos piloto de GenAI obtêm ganhos rápidos de receita, com muitos parando devido a objetivos pouco claros ou desafios de infraestrutura[9]. No entanto, o caso de negócio para IA empresarial continua forte. Empresas que obtêm sucesso relatam um ROI sólido (em média, retornos de 3,7×, de acordo com uma análise) e estão realocando orçamentos de acordo[10]. Os gastos empresariais com LLMs aumentaram significativamente – 37% das empresas estavam gastando mais de $250.000 anualmente com o uso de LLMs até 2025[11]. Essa disposição para investir reflete uma necessidade competitiva: as empresas veem a IA como uma tecnologia estratégica para aumentar a produtividade e a inovação. O resultado é um ecossistema de IA empresarial onde múltiplos LLMs coexistem. De fato, pesquisas indicam que um padrão de implantação “multi-modelo” está emergindo – um relatório descobriu que a maioria das empresas utiliza pelo menos dois modelos de IA diferentes, muitas vezes combinando ofertas da OpenAI, Anthropic, Google e provedores de código aberto[12]. Essa abordagem multi-modelo permite que as organizações equilibrem os pontos fortes e fracos de vários LLMs (por exemplo, um modelo para suporte de codificação, outro para tarefas gerais de chatbot) e evitem a dependência excessiva de um único fornecedor.

Empresas dos EUA Adotando LLMs Chineses: Vantagem de Custo e Implicações

Uma reviravolta inesperada na história da IA empresarial é a ascensão dos LLMs de código aberto chineses, que estão encontrando adoção nos EUA. Empresas que há um ano optavam por modelos americanos estão agora cada vez mais avaliando (e em alguns casos adotando) modelos da Alibaba, Baidu, Zhipu, MiniMax e outros. A razão se resume a uma proposta de valor poderosa: esses modelos são frequentemente gratuitos, com "peso aberto" (parâmetros de modelo abertamente liberados) e muito mais baratos de operar do que seus equivalentes nos EUA. Para empresas que tentam automatizar tarefas em escala, custo e personalização podem superar a necessidade de ter o modelo mais avançado do mercado. Como resultado, até mesmo grandes empresas de tecnologia dos EUA começaram a experimentar com IA chinesa. Em um exemplo recente que ganhou destaque, o CEO do Airbnb, Brian Chesky, revelou que a empresa depende fortemente do LLM Qwen da Alibaba para seu agente de atendimento ao cliente automatizado – preferindo-o aos modelos mais recentes da OpenAI porque "existem modelos mais rápidos e baratos". Chesky elogiou especificamente o Qwen, dizendo "Estamos dependendo muito do modelo Qwen da Alibaba. É muito bom. Também é rápido e barato." De fato, o novo concierge de IA do Airbnb, lançado em 2025, foi construído usando uma mistura de 13 modelos (incluindo OpenAI, Google e de código aberto), mas o Qwen chinês sustenta grande parte do trabalho pesado. As economias de custo ao usar o Qwen e outros permitiram que o Airbnb automatizasse 15% das solicitações de suporte e reduzisse o tempo de resolução de horas para segundos – um impacto tangível nos negócios.

A Airbnb não está sozinha. Algumas startups bem financiadas e VCs também se voltaram para o leste em busca de atalhos de IA. O investidor proeminente Chamath Palihapitiya comentou que sua empresa transferiu seus fluxos de trabalho de IA dos serviços proprietários da Amazon para o modelo Kimi da Moonshot (de uma startup sediada em Pequim) porque era “muito mais eficiente.”[19] Da mesma forma, a nova empresa do ex-CTO da OpenAI, Mira Murati, lançou uma ferramenta que permite aos usuários ajustar modelos abertos – incluindo oito variantes de Qwen – destacando o interesse em construir sobre as fundações dos LLMs chineses[20]. O apelo é claro: “para uma startup média, o que realmente importa é velocidade, qualidade e custo... os modelos chineses têm consistentemente se destacado em equilibrar esses três”[21]. Os laboratórios de IA chineses têm agressivamente disponibilizado modelos de código aberto com licenças permissivas, permitindo que qualquer pessoa baixe os pesos dos modelos e os personalize. O Alibaba, por exemplo, disponibilizou versões de código aberto de sua família de modelos Tongyi Qianwen (Qwen) sob a licença Apache 2.0, variando de 4B a mais de 70B+ parâmetros[22][23]. Isso significa que uma empresa pode “baixar esses pesos da internet e ajustar com dados proprietários” para obter um modelo específico de domínio sem começar do zero[24]. Uma empresa sul-coreana fez exatamente isso – ajustou o Qwen para o processamento de documentos governamentais – e reduziu seus custos em 30% como resultado[25]. A Alibaba relata que mais de 170.000 modelos foram derivados do Qwen em todo o mundo, e que mais de 90.000 empresas (abrangendo eletrônicos de consumo, jogos, etc.) adotaram os modelos da família Qwen de alguma forma[26]. Esses números indicam que os LLMs chineses rapidamente ganharam espaço entre desenvolvedores e empresas globalmente.

As implicações dessa tendência são duplas. Por um lado, os provedores de IA dos EUA estão vendo uma potencial receita empresarial ser desviada. Cada carga de trabalho gerenciada por um modelo aberto chinês é uma que não está rodando nas APIs pagas da OpenAI ou da Anthropic. Como observado pela The Wire China, se os desenvolvedores de modelos dos EUA estão perdendo grandes clientes como a Airbnb para concorrentes chineses, isso é um “sinal de alerta” de que a abordagem dos EUA (frequentemente proprietária e de alto custo) está falhando para alguns casos de uso[27]. Laboratórios de modelos de ponta como OpenAI, Anthropic e Google podem ser forçados a responder – seja reduzindo preços, oferecendo variantes abertas (de fato, a OpenAI acabou de lançar alguns modelos GPT de “peso aberto”[28]), ou focando em capacidades verdadeiramente diferenciadas. Outra implicação é estratégica e geopolítica: a crescente dependência de IA chinesa por empresas dos EUA levanta questões de confiança e segurança. Até agora, o pragmatismo em torno de custo e desempenho tem, em alguns casos, superado preocupações sobre governança de dados. Mas Washington está atento – os reguladores dos EUA adicionaram a empresa chinesa de IA Zhipu (fabricante de modelos GLM) a uma lista negra comercial no início de 2025[29], e um relatório do Departamento de Comércio alertou sobre riscos de segurança de IA estrangeira e notou que o aumento dos modelos chineses está “cortando a liderança global histórica dos desenvolvedores dos EUA.”[29][30] Há até movimento nos EUA para limitar o uso de LLMs chineses em ambientes governamentais, potencialmente estendendo-se para empresas se as pressões de segurança nacional crescerem[27]. No nível empresarial, a diligência devida sobre fornecedores de IA chineses está aumentando – as empresas devem pesar os benefícios de modelos como Qwen ou DeepSeek contra riscos como exposição de dados ou questões de conformidade. Algumas mitigam isso hospedando internamente os modelos de código aberto (evitando chamadas de API externas)[31][32], o que aborda preocupações de residência de dados, mas requer engenharia significativa interna. Outras adotam uma abordagem híbrida: usando modelos chineses para tarefas não sensíveis enquanto reservam dados sensíveis para modelos em que confiam mais. Em qualquer caso, a entrada de LLMs chineses injetou uma competição saudável. Isso impulsionou as empresas dos EUA a inovarem na eficiência (por exemplo, o último Claude da Anthropic é significativamente mais barato e rápido que seu antecessor) e até mesmo a abrir aspectos de sua tecnologia. Como um pesquisador de IA disse, “o domínio de longo prazo da IA americana depende fortemente de [não] ceder a liderança em código aberto para a China.”[33]

Os 5 Principais Modelos de IA Sendo Integrados por Empresas

No ambiente multimodelo de hoje, alguns LLMs se destacaram como as escolhas preferidas para integração empresarial:

  1. Série GPT da OpenAI (GPT-4 e GPT-5)Os modelos GPT da OpenAI continuam sendo uma referência em IA corporativa, conhecidos por suas capacidades avançadas e confiabilidade geral. O GPT-4 trouxe um desempenho revolucionário em compreensão e geração de linguagem natural, e o recém-anunciado GPT-5 é um salto ainda mais significativo – destacando-se em tarefas de codificação, matemática, escrita e multimodal[34]. Muitas empresas acessam os modelos GPT via Azure OpenAI Service ou API da OpenAI para impulsionar chatbots, assistentes de escrita e ferramentas de apoio à decisão. As forças do GPT-4/5 estão no raciocínio complexo e diálogo fluente, tornando-os ideais para aplicações como análise de documentos jurídicos ou automação de helpdesk interno. No entanto, eles são proprietários e têm um custo premium. A participação de mercado da OpenAI no segmento corporativo era de cerca de 25% em 2025[35], refletindo uso generalizado, mas também competição. A OpenAI respondeu à onda de código aberto lançando modelos GPT-OSS (open-weight) de 120B e 20B parâmetros para auto-hospedagem[28], visando atrair empresas que precisam de mais controle. Ainda assim, para muitas empresas, o GPT-4 continua sendo o padrão de qualidade – frequentemente usado quando a precisão é essencial.

  2. Anthropic Claude – Desenvolvido pela Anthropic, Claude rapidamente se tornou um dos sistemas de IA mais populares para empresas. De fato, no final de 2025, a Anthropic supostamente superou a OpenAI com 32% de participação no mercado de LLM empresarial. A popularidade de Claude vem de sua filosofia de design: ele é construído para ser útil, honesto e inofensivo (alinhado), e oferece janelas de contexto muito grandes (100K+ tokens), permitindo lidar facilmente com documentos extensos ou conversas de várias etapas. A última série Claude 4 (Opus 4, Sonnet 4.5) oferece desempenho de ponta em tarefas de codificação e raciocínio, tornando Claude um forte concorrente aos modelos da OpenAI. As empresas usam Claude para coisas como analisar códigos de software, gerar artigos de base de conhecimento e como assistente de IA em ferramentas como o Slack. O equilíbrio de inteligência, velocidade e menor risco de saídas ofensivas de Claude atrai especialmente em aplicações voltadas para o cliente ou sensíveis. A parceria próxima da Anthropic com a AWS também tornou Claude acessível para empresas via Amazon Bedrock. No geral, Claude é valorizado por sua longa memória e confiabilidade, e muitas organizações o utilizam juntamente com modelos GPT para comparar respostas quanto à qualidade e tom.

  3. LLaMA 2 da MetaO LLaMA 2 é o LLM de código aberto líder da Meta AI, lançado em meados de 2023, e tornou-se uma base para muitas soluções corporativas de IA personalizadas. Diferente dos modelos proprietários, os pesos do LLaMA 2 estão disponíveis (com uma licença permissiva para pesquisa e uso comercial limitado), o que significa que as empresas podem ajustá-lo aos seus próprios dados. Este modelo (disponível em tamanhos de até 70 bilhões de parâmetros) demonstrou que modelos abertos podem se aproximar do poder dos modelos fechados. Em poucos meses após o lançamento, o LLaMA 2 gerou uma onda de inovação – originando inúmeras variantes ajustadas e modelos específicos para diferentes indústrias. Tornou-se comum ver empresas usando um modelo derivado do LLaMA 2 internamente para tarefas como documentação de software, conclusão de código interno ou elaboração de relatórios, especialmente quando a privacidade dos dados era uma preocupação. A abordagem aberta da Meta também pressionou outros players (por exemplo, OpenAI) a considerar ofertas de pesos abertos. Embora modelos abertos mais novos (incluindo chineses) tenham superado o LLaMA 2 em alguns benchmarks, ele continua sendo uma escolha popular para empresas que precisam de um modelo base sólido que possam controlar totalmente. Na verdade, até recentemente, modelos baseados no LLaMA dominavam os novos uploads de modelos de IA no Hugging Face, antes que o Qwen da Alibaba o superasse em volume de novos derivados[37] – um testemunho de quão amplamente o LLaMA foi adotado na comunidade de desenvolvedores de IA. Empresas de tecnologia como a IBM até fizeram parceria com a Meta para oferecer o LLaMA 2 através de suas plataformas (o watsonx da IBM), visando construtores de IA corporativa. O impacto do LLaMA 2 é que ele abriu as portas para a adoção de LLMs de código aberto em ambientes corporativos, abrindo caminho para a nova geração de modelos abertos.

  4. Alibaba QwenQwen (nome completo Tongyi Qianwen) é o principal LLM da Alibaba Cloud e, sem dúvida, o modelo chinês de código aberto mais bem-sucedido no cenário global. A Alibaba lançou o Qwen-7B e 14B sob uma licença Apache 2.0 em 2023 e, posteriormente, introduziu versões maiores Mixture-of-Experts (com até mais de 70B parâmetros efetivos no Qwen 3). Os modelos Qwen são conhecidos por sua eficiência e capacidades multilíngues, e a Alibaba desenvolveu variantes como Qwen-Coder (para programação) e Qwen-VL (visão-linguagem)[38][39]. Criticamente, o Qwen é gratuito para uso e modificação, o que levou a uma adoção maciça: até o final de 2025, a Alibaba reportou mais de 90.000 empresas (em setores que vão de eletrônicos de consumo a jogos) usando modelos da família Qwen[26]. Muitas são empresas chinesas, mas o Qwen conquistou espaço globalmente graças à sua relação custo-desempenho. A adoção do Qwen pela Airbnb para seu agente de IA mostrou as capacidades do modelo no atendimento ao cliente em inglês em larga escala[15]. Outras startups ajustaram o Qwen para suas necessidades, beneficiando-se do modelo base robusto sem pagar taxas de API. O impacto do Qwen nas empresas é frequentemente em economias de custo: as empresas podem implantar o Qwen em sua própria nuvem por uma fração do custo de chamar uma API como o GPT-4. E em termos de desempenho, o Qwen 14B tem sido competitivo com modelos duas ou três vezes maiores em muitas tarefas. A Alibaba continua a avançar com o Qwen (a série mais recente Qwen-3 usa Mixture-of-Experts para aumentar o desempenho enquanto utiliza menos parâmetros ativos[40]). Para as empresas, o Qwen oferece um modelo aberto maduro e pronto para produção, apoiado por um gigante da tecnologia – e ainda faz parte das ofertas em nuvem da Alibaba, que algumas empresas multinacionais utilizam em regiões onde a Alibaba Cloud está presente. Como resultado, o Qwen se posicionou como uma das principais escolhas de LLM, especialmente para empresas que buscam uma alternativa às APIs ocidentais seja por custo, flexibilidade ou razões de localidade.

  5. DeepSeekDeepSeek é um novo participante que rapidamente ganhou atenção por sua abordagem ultra-baixo custo e aberta. Desenvolvido por uma empresa chinesa de IA (acredita-se que esteja sediada em Hong Kong), a série de modelos da DeepSeek pode ainda não ser um nome comum, mas entre os desenvolvedores está se destacando como um divisor de águas para IA acessível. Os modelos DeepSeek V3 são massivos (centenas de bilhões de parâmetros) e de código aberto sob a licença MIT, o que significa que as empresas podem baixar e implantar livremente para uso comercial. O que realmente diferencia a DeepSeek é seu foco incessante em otimização para inferência econômica. O modelo mais recente, DeepSeek V3.2-Exp, reduziu os custos de inferência em 50%, oferecendo processamento de entrada a apenas $0,028 por milhão de tokens através de sua API – ordens de magnitude mais barato que o GPT-4 da OpenAI. Mesmo aproximando-se de um contexto de 128k tokens (centenas de páginas de texto), a DeepSeek mantém baixo custo e desempenho sólido. Tecnicamente, alcança isso por meio de inovações como DeepSeek Sparse Attention (DSA) – um mecanismo que atende seletivamente aos tokens mais relevantes (“indexador relâmpago”) em vez de todos os tokens em uma sequência longa. Isso reduz drasticamente a computação para prompts longos enquanto preserva a qualidade das respostas, achatando efetivamente a curva de custo para tarefas de longo contexto. Graças a essa eficiência, a DeepSeek é ideal para aplicações como processamento de contratos legais extensos ou realização de diálogos de pesquisa de múltiplas etapas sem gerar grandes contas de nuvem. As empresas também apreciam que a DeepSeek pode ser auto-hospedada – os pesos completos do modelo (por exemplo, o V3.2 com 685 bilhões de parâmetros) estão disponíveis para download, e a empresa até fornece kernels de inferência otimizados e imagens Docker para implantação. Na prática, algumas organizações dos EUA estão testando a DeepSeek como uma forma de diversificar a dependência de grandes fornecedores norte-americanos – uma proteção contra o bloqueio de fornecedores. É vista como uma “alternativa econômica” para tarefas de uso geral como redação, sumarização e chat, onde sua qualidade ligeiramente inferior aos modelos de ponta é uma troca aceitável por grandes economias. A presença da DeepSeek nas empresas ainda está emergindo, mas foi revelador que na OpenRouter (uma plataforma popular que direciona chamadas de API de modelos de IA), DeepSeek e Qwen ficaram entre os 10 modelos mais usados por desenvolvedores no final de 2025 – enquanto um ano antes essa lista era dominada por modelos norte-americanos. No futuro, se a DeepSeek continuar iterando rapidamente e mantendo os custos excepcionalmente baixos (a empresa já sugeriu que sua API supera até mesmo o rival de código aberto Meta’s Llama em casos de longo contexto), ela poderá se tornar um item básico para implementações de IA empresariais com orçamento limitado.

Macaron – Um Agente de IA para Consumidores Pronto para o Mercado Asiático

Embora grande parte do foco da indústria de IA tenha sido em casos de uso empresarial, uma empresa que aposta em IA voltada para o consumidor é a Macaron AI. A Macaron, uma startup com sede em Singapura, apresentou o que chama de 「primeiro agente de IA pessoal do mundo」 – essencialmente um assistente de IA dedicado a enriquecer a vida diária de um indivíduo, e não apenas a produtividade no local de trabalho[54]. O agente Macaron AI é projetado para atuar como um companheiro digital personalizado. Ele pode transformar instantaneamente o pedido de um usuário (mesmo uma única frase) em um miniaplicativo personalizado ou solução[55][56]. Por exemplo, diga ao Macaron 「Planeje uma viagem de fim de semana para Kyoto」 e ele gerará um aplicativo de itinerário sob medida; peça para ajudá-lo a começar um hábito de fitness, e ele cria um rastreador de treino personalizado – tudo em segundos, sem necessidade de codificação. Essa inteligência focada na vida é um diferenciador deliberado: Macaron não está apenas resumindo e-mails ou escrevendo código, está lidando com tarefas pessoais do dia a dia. Como a empresa coloca, a especialidade do Macaron é 「transformar uma única frase em um miniaplicativo funcional… o foco centrado na vida o diferencia de agentes de IA que ajudam principalmente no trabalho de escritório」[56]

Nos bastidores, o Macaron está ultrapassando limites técnicos também. Ele emprega um enorme modelo de mistura de especialistas (MoE) com mais de 1 trilhão de parâmetros e uma configuração de treinamento sofisticada[57][58]. A equipe implementou técnicas inovadoras de escalonamento (paralelismo híbrido, ajuste fino de adaptação de baixa classificação, etc.) para viabilizar um modelo tão grande[59][60]. Por que tão grande? Porque o Macaron almeja ser uma IA que parece verdadeiramente personalizada e humana em sua amplitude de conhecimento. Ele possui um extenso módulo de memória de longo prazo que constrói uma base de conhecimento pessoal sobre o usuário – lembrando suas preferências, eventos importantes e contexto de conversas passadas[61][62]. Com o tempo, ele aprende a antecipar suas necessidades e adaptar seu tom e sugestões ao seu estilo único, quase como um amigo sempre atento. Por exemplo, o Macaron pode lembrar você de uma tarefa que mencionou na semana passada ou sugerir um restaurante para um encontro com base nos seus hábitos alimentares e favoritos anteriores. Ele também possibilita uma dimensão social para a IA – os usuários podem convidar o Macaron para bate-papos em grupo para ajudar de forma colaborativa e compartilhar ou co-criar os mini-aplicativos que ele desenvolve[63][64], transformando a IA em uma experiência comunitária.

O foco da Macaron em consumidores e estilo de vida pode explorar uma grande oportunidade na Ásia. Na China e em outros mercados asiáticos, os grandes players de tecnologia têm investido recursos em IA, mas grande parte disso tem sido orientada para empresas ou voltada para infraestrutura (serviços de nuvem empresarial, projetos governamentais, etc.) ou aplicada para aprimorar superapps e plataformas existentes. Um agente pessoal autônomo voltado puramente para o empoderamento e criatividade individual é mais raro. A Macaron vê essa lacuna – posicionando-se como uma IA de estilo de vida que ajuda você a "viver melhor, não apenas trabalhar melhor." Seus serviços (planejamento de viagens, coaching de saúde, aconselhamento de relacionamento, facilitação de hobbies, diários, etc.) se alinham com as tendências de consumidores asiáticos de assistentes pessoais digitais e "superapps", mas com muito mais personalização. Se a Macaron conseguir navegar pelas culturas locais e regulamentações de dados (algo em que está explicitamente trabalhando, integrando normas locais de privacidade e considerações éticas de IA em seu design para mercados como Japão e Coreia[65]), poderá encontrar uma recepção entusiástica. O mercado chinês, em particular, é enorme – e embora gigantes domésticos tenham seus próprios chatbots (como o Ernie da Baidu ou a combinação de serviços da Tencent), uma solução ágil de agente pessoal que funcione em várias plataformas pode conquistar um nicho. O sucesso da Macaron dependerá da confiança (armazenar as memórias de vida de um usuário é sensível) e de oferecer um valor real além do que os telefones e aplicativos de um usuário já fazem. Mas sua abordagem – um co-designer de soluções pessoais – sugere novas possibilidades. Em um cenário de IA amplamente dividido entre ferramentas empresariais e chatbots genéricos, a Macaron é um exemplo de startup que busca definir uma nova categoria de IA para consumidores. Seu progresso será um estudo de caso fascinante sobre como uma IA projetada para empoderamento pessoal pode coexistir e, talvez, prosperar ao lado das grandes iniciativas de IA empresarial.

Perspectivas Futuras: AI Chinesa de Código Aberto e Estratégia Empresarial dos EUA

O que o futuro reserva se mais empresas dos EUA continuarem a adotar modelos de IA chineses de código aberto? No curto prazo, podemos esperar competição acirrada e inovação mais rápida. As empresas de IA dos EUA serão pressionadas a responder ao “preço da China” – podemos ver mais reduções de custo para serviços de IA e mais lançamentos abertos de empresas ocidentais. (O lançamento dos modelos GPT-OSS da OpenAI em 2025 é uma dessas respostas, e o Gemini do Google pode seguir com versões mais baratas e menores para se manter relevante.) Essa competição beneficia os compradores empresariais, que terão um menu mais rico de modelos em vários pontos de preço-desempenho. Já estamos vendo isso: por exemplo, o Claude 4 da Anthropic é oferecido em várias versões (Opus, Sonnet, Haiku) para equilibrar poder e custo[66][36], e startups como a MiniMax orgulhosamente anunciam que seu modelo custa apenas 8% do que o da Anthropic por desempenho semelhante[67]. Se os modelos chineses abertos continuarem ganhando adoção, os provedores americanos também podem acelerar a pesquisa em técnicas de eficiência (como as estratégias de atenção esparsa e MoE usadas por equipes chinesas) para fechar a lacuna de rendimento e custo. Na verdade, está ocorrendo uma polinização cruzada – ideias de pesquisa fluem globalmente, então um resultado positivo é que o progresso geral nas capacidades de IA pode acelerar à medida que as equipes constroem sobre os avanços umas das outras.

Ao mesmo tempo, confiança e governança serão fundamentais. As empresas exigirão garantias sobre qualquer modelo que utilizem, seja de Silicon Valley ou Pequim. Isso pode dar origem a auditorias e certificações de terceiros para modelos de IA em termos de segurança, assim como os centros de dados em nuvem hoje passam por auditorias de segurança. O governo dos EUA também pode desempenhar um papel: por exemplo, pode emitir diretrizes ou até restrições para certos setores (como defesa, infraestrutura crítica, etc.) no uso de IA desenvolvida no exterior. “Existem preocupações naturais sobre quais dados o modelo foi treinado e se ele exibe comportamentos que a empresa não desejaria,” observou Nathan Benaich, da Air Street Capital, referindo-se aos usos empresariais de alto risco de modelos estrangeiros[68]. Podemos ver o surgimento de soluções de IA orientadas para conformidade – por exemplo, forks hospedados nos EUA de modelos abertos que são avaliados para segurança – oferecendo às empresas uma maneira mais segura de aproveitar essas inovações. De fato, algumas organizações já estão seguindo uma abordagem de “o melhor dos dois mundos”: elas pegam um modelo aberto como Qwen ou Llama, removem ou re-treinam quaisquer aspectos problemáticos e o executam em sua própria infraestrutura segura, desfrutando assim de benefícios de custo sem enviar dados para uma entidade externa[31][32].

Se a IA de código aberto chinesa continuar a proliferar nas empresas dos EUA, isso também pode alterar o equilíbrio de especialização e talento em IA. Modelos abertos reduzem a barreira de entrada para a construção de produtos impulsionados por IA, o que pode gerar mais startups e soluções – uma vitória para a inovação em geral. No entanto, se a tecnologia central que sustenta muitas dessas soluções vier da China, isso pode se traduzir em influência. Por exemplo, empresas chinesas poderiam começar a oferecer suporte pago, consultoria ou complementos premium para seus modelos abertos (assim como a Red Hat fez para o Linux no mundo do software de código aberto). A indústria de tecnologia dos EUA pode se encontrar na posição irônica de aproveitar amplamente a tecnologia “aberta” chinesa, mesmo enquanto a rivalidade geopolítica persiste. Do ponto de vista estratégico, essa tendência pode realmente encorajar mais colaboração na comunidade de pesquisa em IA – se laboratórios chineses e ocidentais estiverem todos construindo sobre as contribuições abertas uns dos outros, uma base técnica compartilhada pode emergir (com padrões ou frameworks comuns). Mas isso também pode levar à fragmentação, onde dois ecossistemas evoluem: um dominado por modelos totalmente abertos e de baixo custo (com forte presença na Ásia e entre startups sensíveis a custos globalmente), e outro de modelos proprietários premium (dominantes em domínios de alta segurança e entre grandes empresas que priorizam qualidade e suporte de alto nível).

Para as empresas dos EUA, uma consideração chave para o futuro será a “diversificação de fornecedores” na estratégia de IA. Confiar exclusivamente em um parceiro de IA (como apenas a OpenAI ou apenas a Alibaba) acarreta riscos – de alterações de preço, interrupções ou mudanças de política. Muitos CIOs preferirão um portfólio: talvez um provedor principal de LLM mais um modelo aberto de backup internamente como contingência. A inclusão de modelos chineses na mistura fortalece essa posição, proporcionando às empresas uma alavancagem adicional. Como a análise do VentureBeat observou, a abordagem de código aberto da DeepSeek oferece uma proteção contra o bloqueio – mas os conselhos e as equipes de segurança farão perguntas difíceis se a proteção vier de um fornecedor chinês[69]. Essas questões provavelmente gerarão muita discussão nas salas de reuniões e revisões de arquitetura de TI nos próximos anos.

Finalmente, é importante notar que os EUA ainda possuem algumas vantagens críticas na corrida da IA: acesso ao hardware de semicondutores mais avançado, um fluxo mais forte de talentos de pesquisa em IA de ponta globalmente e (por enquanto) os mais abrangentes acervos de dados de treinamento de alta qualidade. Como o comentário do YouTube que introduziu esta discussão apontou, os EUA “simplesmente têm melhor acesso a dados de maior qualidade e GPUs... naturalmente, os EUA criarão melhores modelos, como sempre fizemos” – enquanto “a China continuamente reduzirá o mercado” no custo[70][71]. Isso sugere um futuro onde as empresas norte-americanas continuam a avançar na fronteira da capacidade bruta, e as empresas chinesas se concentram em tornar a IA amplamente acessível e acessível. Em termos empresariais, o segmento premium (empresas que precisam do melhor modelo absoluto e estão dispostas a pagar por isso) pode permanecer leal aos modelos de fronteira dos EUA, enquanto o segmento de adoção em massa (empresas que precisam de IA “suficientemente boa” ao menor custo) pode cada vez mais optar por modelos abertos de origem chinesa. A própria parceria OpenAI-Thrive pode ser vista como uma resposta a essa dinâmica: ao integrar a IA profundamente nos fluxos de trabalho da indústria e aprender com o uso real, a OpenAI espera manter uma vantagem que não se trata apenas da qualidade do modelo, mas da integração completa do produto e da expertise de domínio.

Em conclusão, o cenário da integração de IA nas empresas está sendo transformado por colaborações como a da OpenAI com a Thrive, que trazem a IA para os processos centrais de negócios, e pela chegada de LLMs chineses capazes e de baixo custo que ampliam as opções para as empresas. Estamos provavelmente entrando em uma era de coopetição, onde os ecossistemas de IA americanos e chineses competem e inadvertidamente colaboram (através do código aberto) para avançar o estado da arte. Para as empresas, isso é geralmente positivo: mais escolha, mais inovação e a capacidade de misturar e combinar soluções de IA para atender às suas necessidades. Os vencedores nos negócios serão aqueles que podem aproveitar estrategicamente essa diversidade de modelos de IA – aproveitando a força de cada um onde se encaixa, gerenciando os riscos e permanecendo ágeis enquanto a tecnologia continua a evoluir a uma velocidade vertiginosa. No final, seja um sistema de ponta da OpenAI ou um modelo chinês gratuito no Hugging Face, o que importa para as empresas são os resultados. Se um modelo de IA pode automatizar uma tarefa, economizar custos ou abrir uma nova oportunidade de produto, ele encontrará um lar acolhedor. E em 2025 e além, esses lares cada vez mais hospedarão uma mistura de Oriente e Ocidente em seu kit de ferramentas de IA – um desenvolvimento que pareceria improvável há pouco tempo, mas agora é a realidade da nossa indústria tecnológica globalmente interconectada.

Fontes: [1][2][3][4][5][6][7][9][10][12][15][17][19][20][21][27][29][30][68][33][34][35][36][37][26][16][43][46][41][51][55][56][62][65][69][70][71]


[1] [2] [3] [4] [5] A OpenAI adquire participação na Thrive Holdings em sua mais recente investida em IA empresarial | Reuters

https://www.reuters.com/business/openai-buys-stake-thrive-holdings-push-ai-into-accounting-it-services-2025-12-01/

[6] [9] [10] [11] [12] [35] 13 Estatísticas de Adoção de LLM: Pontos de Dados Críticos para a Implementação de IA Empresarial em 2025

https://www.typedef.ai/resources/llm-adoption-statistics

[7] [8] Empresas que Usam IA Generativa: Exemplos da Vida Real

https://indatalabs.com/blog/companies-using-generative-ai

[13] [14] [19] [20] [21] [24] [25] [27] [29] [30] [33] [37] [51] [52] [67] [68] [70] [71] Modelos de IA Chineses, Baratos e de Código Aberto, Estão decolando - The Wire China

https://www.thewirechina.com/2025/11/09/cheap-and-open-source-chinese-ai-models-are-taking-off/

[15] [16] [17] [18] O CEO do Airbnb, Brian Chesky, deixa claro, diz: Não usamos os modelos mais recentes da OpenAI em produção porque … - The Times of India

https://timesofindia.indiatimes.com/technology/tech-news/airbnb-ceo-brian-chesky-makes-it-clear-says-we-dont-use-openais-latest-models-in-production-because-/articleshow/124728422.cms

[22] [23] [26] [28] [34] [36] [38] [39] [40] [66] Top 9 Modelos de Linguagem Grande em novembro de 2025 | Shakudo

https://www.shakudo.io/blog/top-9-large-language-models

[31] [32] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [53] [69] O novo modelo V3.2-Exp do DeepSeek reduz os preços da API pela metade para menos de 3 centavos por 1M de tokens de entrada | VentureBeat

https://venturebeat.com/ai/deepseeks-new-v3-2-exp-model-cuts-api-pricing-in-half-to-less-than-3-cents

[54] Macaron AI, o Primeiro Agente Pessoal do Mundo, Lançado Oficialmente ...

https://finance.yahoo.com/news/productivity-ai-personal-ai-macaron-120000260.html

[55] [56] [57] [58] [59] [60] [61] [62] [63] [64] A Experiência Macaron - IA Que Ajuda Você a Viver Melhor

https://www.prnewswire.com/news-releases/the-macaron-experience--ai-that-helps-you-live-better-302610064.html

[65] Integração Sociotécnica: Navegando pela Cultura ... - Macaron AI

https://macaron.im/en/blog/socio-technical-integration-macaron-asia

Boxu obteve seu diploma de bacharel na Universidade de Emory, com especialização em Economia Quantitativa. Antes de se juntar à Macaron, Boxu passou a maior parte de sua carreira no espaço de Private Equity e Venture Capital nos EUA. Ele agora é o Chefe de Gabinete e VP de Marketing na Macaron AI, gerenciando finanças, logística e operações, além de supervisionar o marketing.

Candidatar-se para se tornar Os primeiros amigos de Macaron