
May-akda: Boxu Li
Ang pinakabagong hakbang ng OpenAI ay naglalayong isama ang AI sa tradisyunal na industriya. Noong Disyembre 2025, kinuha ng OpenAI ang isang pagmamay-ari na bahagi sa Thrive Holdings, isang bagong sasakyan ng Thrive Capital ni Josh Kushner, bilang bahagi ng pakikipagtulungan upang ilagay ang malalaking modelo ng wika ng OpenAI (LLMs) sa mga vertical na tulad ng accounting at mga serbisyo ng IT [1][2]. Sa halip na isang pamumuhunan sa cash, nagbibigay ang OpenAI ng isang dedikadong team ng pananaliksik kapalit ng equity - pag-aayon ng mga insentibo upang parehong nakatuon sa AI-driven transformation ng mga legacy na operasyon ng negosyo. Ang layunin ay isama ang AI sa mga manu-manong, pira-pirasong proseso sa mga kumpanya ng portfolio ng Thrive at patuloy na pahusayin ang mga modelong ito sa pamamagitan ng reinforcement learning kasama ng mga eksperto sa larangan [3]. Nakalikom ang Thrive ng mahigit $1B upang bilhin ang mga tradisyunal na service provider at baguhin ito gamit ang AI [2]. Ang pakikipagtulungan na ito ay nagsasaad ng isang bagong diskarte: Hindi lamang nagbebenta ng API access ang OpenAI; ito ay patayong isinasama sa pamamagitan ng co-building ng mga AI solutions sa loob ng mga enterprise. "Ang pag-aayon sa OpenAI sa pamamagitan ng pagmamay-ari" ay nagsisiguro na parehong OpenAI at Thrive ay may "North Star" ng pagbuo ng mga nangungunang produktong pinapagana ng AI para sa mga industriyang iyon [4]. Kapansin-pansin, sa kabila ng pagiging isang malaking tagasuporta ng OpenAI ng Thrive Capital, ang kasunduan ay hindi naglalock sa Thrive sa mga modelo ng OpenAI lamang - maaari pa ring gamitin ng Thrive ang iba pang mga modelo, kabilang ang mga open-source, kapag iyon ang angkop [5]. Ito ay nagtatampok ng isang praktikal na katotohanan ng kasalukuyang enterprise AI landscape: tatanggapin ng mga kumpanya ang alinmang modelo na pinakamahusay na akma sa kanilang mga pangangailangan sa domain, mga limitasyon sa gastos, at mga kinakailangan sa pagsasama.
Sa buong corporate America, malawakang paggamit ng AI – lalo na ang generative AI – ay tumaas sa nakaraang dalawang taon. Ayon sa isang 2024 McKinsey survey, natuklasan na 78% ng mga organisasyon ay gumagamit na ng AI sa kahit isang function (mula sa 55% noong nakaraang taon), at 71% ay nag-deploy ng mga generative AI tools. Ipinapakita nito na ang LLMs ay lumipat mula sa mga experimental pilots patungo sa “mahalagang imprastraktura ng negosyo” sa maraming kumpanya. Mahalaga, ang trend na ito ay kumakalat sa iba't ibang industriya. Sa larangan ng finance, ginagamit ng mga bangko ang LLMs para i-analyze ang research at tulungan ang mga advisors; sa healthcare, ginagamit ang LLMs para mag-draft ng mga medical reports at komunikasyon sa mga pasyente; sa legal at consulting, ginagamit ito para i-summarize ang mga dokumento at gumawa ng unang draft ng content. Sa e-commerce at travel, ginagamit ang generative AI para sa customer service at rekomendasyon – halimbawa, ang AI concierge ng Airbnb ay makakatulong sa pagresolba ng inquiries ng mga bisita nang walang human agents. Ang retail giant na Amazon ay gumagamit ng AI models para i-summarize ang mga product reviews para sa mga mamimili, na kumukuha ng mga karaniwang gusto at ayaw mula sa daan-daang komento sa isang paragraph. Pinapabuti nito ang karanasan ng customer at pinapabilis ang sales conversions. Inilunsad din ng Amazon ang mga generative AI tools para tulungan ang mga marketplace sellers na sumulat ng mas mahusay na product listings, at ginawa pang mas conversational si Alexa sa pamamagitan ng LLM integration. Ang mga halimbawang ito ay nagpapakita ng isang pattern: ang mga kumpanya ay nag-iintegrate ng LLMs saanman nila maaaring i-automate ang mga workflow o pahusayin ang interaksyon ng mga user, mula sa pag-draft ng marketing copy hanggang sa pagpapagana ng chatbots at coding assistants.
Gayunpaman, ang pagsasama ng AI sa malaking sukat ay hindi madali – maraming kumpanya pa rin ang nahihirapang lumipat mula sa pilot patungo sa produksyon. Natuklasan ng mga pag-aaral na kakaunti sa 5% ng mga GenAI pilot na proyekto ang nakakamit ng mabilis na pagtaas ng kita, marami ang nahihinto dahil sa hindi malinaw na mga layunin o mga hamon sa imprastraktura[9]. Gayunpaman, ang business case para sa enterprise AI ay nananatiling malakas. Ang mga kumpanyang nagtatagumpay ay nag-uulat ng solidong ROI (sa karaniwan, 3.7× ang balik, ayon sa isang pagsusuri) at muling inaanunsyo ang mga badyet nang naaayon[10]. Ang paggastos ng mga negosyo sa LLMs ay lumago – 37% ng mga negosyo ang gumagastos ng mahigit sa $250,000 taun-taon sa paggamit ng LLM pagsapit ng 2025[11]. Ang kahandaang ito na mamuhunan ay sumasalamin sa isang mapagkumpitensyang imperative: nakikita ng mga kumpanya ang AI bilang isang estratehikong teknolohiya upang mapalakas ang produktibidad at inobasyon. Ang resulta ay isang ecosystem ng enterprise AI kung saan maraming LLMs ang magkakasamang umiiral. Sa katunayan, ipinapakita ng mga survey na isang “multi-model” na deployment pattern ang lumilitaw – natagpuan ng isang ulat na ang karamihan ng mga kumpanya ay gumagamit ng hindi bababa sa dalawang iba't ibang AI models, kadalasang pinaghahalo ang mga alok mula sa OpenAI, Anthropic, Google, at mga open-source na provider[12]. Ang multi-model na diskarte na ito ay nagbibigay-daan sa mga organisasyon na balansehin ang mga lakas at kahinaan ng iba't ibang LLMs (hal. isang modelo para sa suporta sa coding, isa pa para sa pangkalahatang chatbot na gawain) at iwasan ang labis na pag-asa sa isang solong vendor.
Isang hindi inaasahang twist sa kwento ng enterprise AI ay ang pag-angat ng mga Chinese open-source LLM na tinatanggap sa U.S. Ang mga kumpanya na noong nakaraang taon ay karaniwang gumagamit ng mga modelong Amerikano ay ngayon ay mas lumalapit at sa ilang kaso ay tinatanggap ang mga modelo mula sa Alibaba, Baidu, Zhipu, MiniMax at iba pa. Ang dahilan ay nag-uugat sa isang makapangyarihang proposisyon ng halaga: ang mga modelong ito ay kadalasang libre, “open-weight” (malayang inilabas na mga parameter ng modelo), at mas mura ang pagpapatakbo kaysa sa kanilang mga katapat sa U.S.[13][14]. Para sa mga negosyo na nagtatangkang i-automate ang mga gawain sa malawakang saklaw, ang gastos at kakayahang i-customize ay maaaring mas mahalaga kaysa sa pagkakaroon ng pinakabago at pinakamodernong modelo. Bilang resulta, kahit ang mga kilalang tech firm sa U.S. ay nagsimula nang mag-eksperimento sa Chinese AI. Sa isang bagong halimbawa na nagdulot ng ingay, ibinunyag ng CEO ng Airbnb na si Brian Chesky na ang kumpanya ay malaki ang pag-asa sa Qwen ng Alibaba LLM para sa kanilang automated na customer service agent – pinipili ito kaysa sa pinakabagong mga modelo ng OpenAI dahil “may mas mabilis at mas murang mga modelo”[15]. Partikular na pinuri ni Chesky ang Qwen, sinasabing “Malaki ang aming pag-asa sa modelong Qwen ng Alibaba. Magaling ito. Mabilis at mura rin ito.”[16]. Sa katunayan, ang bagong AI concierge ng Airbnb na inilunsad noong 2025 ay binuo gamit ang kumbinasyon ng 13 modelo (kabilang ang OpenAI, Google, at open-source), ngunit ang Chinese Qwen ang nagdadala ng malaking bahagi ng trabaho[17]. Ang pagtitipid sa gastos mula sa paggamit ng Qwen at iba pa ay nagbigay-daan sa Airbnb na i-automate ang 15% ng mga support request at bawasan ang oras ng pagresolba mula sa oras patungo sa ilang segundo[18] – isang konkretong epekto sa negosyo.
Hindi nag-iisa ang Airbnb. Ang ilang mga startup na may sapat na pondo at mga VC ay tumingin din sa silangan para sa mga shortcut sa AI. Binanggit ng kilalang mamumuhunan na si Chamath Palihapitiya na inilipat ng kanyang kompanya ang kanilang mga AI workflows mula sa proprietary services ng Amazon papunta sa Kimi model ng Moonshot (mula sa isang startup na nakabase sa Beijing) dahil ito ay “mas mahusay sa pagganap.”[19] Katulad nito, ang bagong venture ng dating CTO ng OpenAI na si Mira Murati ay naglabas ng tool na nagbibigay-daan sa mga user na i-fine-tune ang open models – kabilang ang walong variant ng Qwen – na nagha-highlight sa interes sa pagbuo sa mga pundasyon ng Chinese LLM[20]. Malinaw ang atraksyon: “para sa isang karaniwang startup, ang talagang mahalaga ay bilis, kalidad, at gastos… Ang mga Chinese na modelo ay palaging mahusay sa pagbabalanse ng tatlong iyon”[21]. Nagbukas ang mga Chinese AI labs ng mga modelo na may malawak na mga lisensyang nagpapahintulot, na nagbibigay-daan sa kahit sino na i-download ang model weights at i-customize ang mga ito. Halimbawa, nagbukas ng source ang Alibaba ng mga bersyon ng kanilang pamilya ng modelo ng Tongyi Qianwen (Qwen) sa ilalim ng Apache 2.0 license, mula sa 4B hanggang sa napakalaking 70B+ na mga parameter[22][23]. Nangangahulugan ito na ang isang kompanya ay maaaring “kunin ang mga weights na iyon mula sa internet at i-fine-tune sa proprietary data” upang makakuha ng modelo na espesipiko sa domain nang hindi nagsisimula mula sa simula[24]. Isang kompanya mula sa Timog Korea ang eksaktong ginawa iyon – fine-tuning Qwen para sa pagproseso ng dokumento ng gobyerno – at nabawasan ang kanilang gastos ng 30% bilang resulta[25]. Iniulat ng Alibaba na mahigit sa 170,000 na mga modelo ang na-derive mula sa Qwen sa buong mundo, at na mahigit sa 90,000 na mga enterprise (kabilang ang consumer electronics, gaming, atbp.) ang nag-adopt ng mga modelo ng pamilya ng Qwen sa ilang anyo[26]. Ang mga numerong ito ay nagpapahiwatig na ang mga Chinese LLM ay mabilis na nakakuha ng puwang sa mga developer at negosyo sa buong mundo.
Ang mga implikasyon ng trend na ito ay may dalawang panig. Sa isang banda, ang mga AI provider ng U.S. ay nakakakita ng potensyal na kita ng negosyo na nasasayang. Bawat workload na hinahawakan ng bukas na modelong Tsino ay isa na hindi tumatakbo sa bayad na API ng OpenAI o Anthropic. Tulad ng binanggit ng The Wire China, kung ang mga developer ng modelo sa U.S. ay nawawalan ng malalaking kliyente tulad ng Airbnb sa mga kakompetensyang Tsino, ito ay isang “babala” na ang pamamaraan ng U.S. (karaniwang proprietary at mataas ang gastos) ay may problema sa ilang paggamit[27]. Maaring mapilitan ang mga frontier model labs tulad ng OpenAI, Anthropic, at Google na tumugon – maging sa pamamagitan ng pagpapababa ng presyo, pag-aalok ng bukas na mga variant (sa katunayan, kamakailan lang ay naglabas ang OpenAI ng ilang “open-weight” na modelo ng GPT[28]), o pagtutok sa tunay na naiibang kakayahan. Ang isa pang implikasyon ay estratehiko at heopolitikal: ang pagtaas ng pag-asa sa mga AI ng Tsino ng mga kumpanya sa U.S. ay nagdadala ng mga katanungan sa tiwala at seguridad. Sa ngayon, ang praktikalidad sa gastos at pagganap ay sa ilang kaso ay nanaig sa mga alalahanin tungkol sa pamamahala ng data. Ngunit napapansin ito ng Washington – ang mga regulator ng U.S. ay idinagdag ang Chinese AI firm na Zhipu (gumagawa ng mga modelo ng GLM) sa isang trade blacklist noong unang bahagi ng 2025[29], at nagbabala ang isang ulat ng Commerce Department tungkol sa mga panganib sa seguridad ng dayuhang AI at binanggit na ang pag-angat ng mga modelong Tsino ay “pumapasok sa makasaysayang pandaigdigang pamumuno ng mga developer sa U.S.”[29][30]. Mayroon ding momentum sa U.S. upang limitahan ang paggamit ng mga Chinese LLM sa mga setting ng gobyerno, na posibleng umabot sa mga negosyo kung lumalaki ang mga pandaigdigang presyur sa seguridad[27]. Sa antas ng negosyo, ang masusing pag-aaral sa mga vendor ng AI ng Tsino ay tumataas – kailangang timbangin ng mga kumpanya ang mga benepisyo ng mga modelong tulad ng Qwen o DeepSeek laban sa mga panganib tulad ng pagkakalantad ng data o mga isyu sa pagsunod. Ang ilan ay binabawasan ito sa pamamagitan ng pagho-host ng mga open-source na modelo sa loob (iwas sa mga panlabas na tawag sa API)[31][32], na nag-aaddress sa mga alalahanin sa pananatili ng data ngunit nangangailangan ng makabuluhang in-house na engineering. Ang iba ay gumagamit ng hybrid na pamamaraan: gumagamit ng mga modelong Tsino para sa mga hindi sensitibong gawain habang iniingatan ang sensitibong data para sa mga modelong mas pinagkakatiwalaan nila. Sa anumang kaso, ang pagpasok ng mga Chinese LLM ay nagdala ng malusog na kumpetisyon. Ito ay nagtulak sa mga kumpanya ng U.S. na mag-innovate sa kahusayan (halimbawa, ang pinakabagong Claude ng Anthropic ay mas mura at mas mabilis kaysa sa nauna nito) at maging sa pagbukas ng ilang aspeto ng kanilang teknolohiya. Tulad ng sinabi ng isang mananaliksik ng AI, “ang pangmatagalang pamamayani ng American AI ay lubos na nakasalalay sa [hindi] pagbigay ng nangunguna sa open-source sa Tsina.”[33]
Sa kasalukuyang multi-model na kapaligiran, ilang LLMs ang lumitaw bilang pangunahing mga pagpipilian para sa pagsasama ng mga kumpanya:
OpenAI GPT Series (GPT-4 at GPT-5) – Ang mga modelo ng GPT ng OpenAI ay nananatiling mahalaga sa enterprise AI, kilala para sa kanilang advanced na kakayahan at pangkalahatang pagiging maaasahan. Ang GPT-4 ay nagdala ng makabagong pagganap sa natural na pag-unawa at pagbuo ng wika, at ang bagong inanunsyo na GPT-5 ay isang mas makabuluhang hakbang – mahusay sa coding, matematika, pagsusulat, at multimodal na gawain[34]. Maraming kumpanya ang gumagamit ng GPT models sa pamamagitan ng Azure OpenAI Service o OpenAI’s API para sa pagpapagana ng chatbots, writing assistants, at mga tool sa decision-support. Ang mga kalakasan ng GPT-4/5 ay kumplikadong pangangatwiran at matatas na diyalogo, na ginagawang angkop para sa mga aplikasyon tulad ng pagsusuri ng legal na dokumento o automation ng internal helpdesk. Gayunpaman, sila ay proprietary at may kasamang premium na gastos. Ang market share ng OpenAI sa enterprise ay nasa 25% noong 2025[35], na sumasalamin sa malawakang paggamit ngunit mayroon ding kompetisyon. Tumugon ang OpenAI sa open-source wave sa pamamagitan ng paglabas ng GPT-OSS (open-weight) models na may 120B at 20B parameters para sa self-hosting[28], layuning akitin ang mga negosyo na nangangailangan ng mas maraming kontrol. Gayunpaman, para sa maraming enterprise, GPT-4 ang nananatiling benchmark para sa kalidad – madalas na ginagamit kapag mas mahalaga ang katumpakan.
Anthropic Claude – Binuo ng Anthropic, mabilis na naging isa sa pinakasikat na AI systems para sa enterprise si Claude. Sa katunayan, noong huling bahagi ng 2025, naiulat na nalampasan ng Anthropic ang OpenAI na may 32% ng enterprise LLM market share[35]. Ang kasikatan ni Claude ay nagmumula sa kanyang disenyo: ito ay ginawa upang maging kapaki-pakinabang, tapat, at walang pinsala (aligned), at nag-aalok ito ng napakalalaking context windows (100K+ na mga token), na nagpapahintulot dito na hawakan ang mahahabang dokumento o multi-turn na pag-uusap nang madali. Ang pinakabagong Claude 4 series (Opus 4, Sonnet 4.5) ay nagbibigay ng nangungunang pagganap sa mga gawain sa coding at pangangatwiran[36], na ginagawang malakas na kakumpitensya si Claude sa mga modelo ng OpenAI. Ginagamit ng mga enterprise si Claude para sa mga bagay tulad ng pagsusuri ng software code, pagbuo ng mga artikulo para sa knowledge base, at bilang AI assistant sa mga tool tulad ng Slack. Ang balanse ni Claude ng talino, bilis, at mas mababang panganib ng mga offensive outputs ay kaakit-akit lalo na sa mga aplikasyon na nakaharap sa customer o sensitibo. Ang malapit na pakikipagtulungan ng Anthropic sa AWS ay naging dahilan din upang maging accessible si Claude sa mga kumpanya sa pamamagitan ng Amazon Bedrock. Sa kabuuan, pinahahalagahan si Claude para sa kanyang mahabang memorya at pagiging maaasahan, at maraming mga organisasyon ang nagpapatakbo nito kasabay ng mga modelo ng GPT upang ihambing ang mga tugon para sa kalidad at tono.
3. Meta’s LLaMA 2 – Ang LLaMA 2 ay ang nangungunang open-source LLM mula sa Meta AI, inilabas noong kalagitnaan ng 2023, at naging pundasyon para sa maraming custom na enterprise AI solutions. Hindi tulad ng proprietary na mga modelo, ang mga weights ng LLaMA 2 ay magagamit (may maluwag na lisensya para sa pananaliksik at limitadong komersyal na paggamit), na nangangahulugang ang mga kumpanya ay maaaring mag-fine-tune nito gamit ang kanilang sariling data. Ang modelong ito (available sa mga sukat na hanggang 70B parameters) ay nagpakita na ang mga open model ay maaaring maging kasing lakas ng mga closed model. Sa loob ng ilang buwan mula nang ilabas, ang LLaMA 2 ay nagpasimula ng isang alon ng inobasyon – nagluwal ng di-mabilang na mga fine-tuned na variant at mga industry-specific na modelo. Karaniwan nang makitang gumagamit ang mga enterprise ng isang LLaMA 2 derivative model sa loob para sa mga gawaing tulad ng dokumentasyon ng software, internal code completion, o pag-draft ng mga ulat, lalo na kapag may alalahanin sa privacy ng data. Ang open approach ng Meta ay naglagay din ng presyon sa ibang mga manlalaro (hal. OpenAI) na isaalang-alang ang mga open-weight offerings. Habang ang mga mas bagong open models (kabilang ang mga Chinese) ay nalampasan na ang LLaMA 2 sa ilang benchmarks, ito ay nananatiling isang sikat na pagpipilian para sa mga kumpanyang nangangailangan ng solid na base model na maaari nilang ganap na kontrolin. Sa katunayan, hanggang kamakailan lamang, ang mga modelong batay sa LLaMA ay nangingibabaw sa mga bagong AI model uploads sa Hugging Face, bago ito nalampasan ng Qwen ng Alibaba sa dami ng mga bagong derivatives – isang patunay kung gaano kalawakan ang pagtanggap sa LLaMA sa AI developer community. Ang mga tech company tulad ng IBM ay nakipagtulungan pa sa Meta upang mag-alok ng LLaMA 2 sa pamamagitan ng kanilang mga platform (IBM’s watsonx), na target ang mga enterprise AI builders. Ang epekto ng LLaMA 2 ay nagbukas ito ng pinto para sa pagtanggap ng open-source LLM sa mga enterprise settings, na nagbigay-daan para sa mas bagong henerasyon ng mga open model.
4. Alibaba Qwen – Qwen (buong pangalan Tongyi Qianwen) ay ang pangunahing LLM ng Alibaba Cloud at itinuturing na pinaka-matagumpay na Chinese open-source model sa pandaigdigang entablado. Inilabas ng Alibaba ang Qwen-7B at 14B sa ilalim ng Apache 2.0 na lisensya noong 2023, at kalaunan ay nagpakilala ng mas malalaking bersyon ng Mixture-of-Experts (hanggang sa 70B+ na epektibong mga parameter sa Qwen 3). Kilala ang mga modelong Qwen sa kanilang kahusayan at multilingual na kakayahan, at may mga inangkop na bersyon ang Alibaba tulad ng Qwen-Coder (para sa programming) at Qwen-VL (vision-language)[38][39]. Kritikal, ang Qwen ay libre gamitin at baguhin, na nagdulot ng malawakang paggamit: sa huling bahagi ng 2025, iniulat ng Alibaba na higit sa 90,000 na mga negosyo (sa mga sektor mula consumer electronics hanggang gaming) ang gumagamit ng mga modelong Qwen-family[26]. Marami sa mga ito ay mga kompanyang Chinese, ngunit ang Qwen ay nakagawa ng mga hakbang sa pandaigdigang merkado dahil sa kanyang performance-cost ratio. Ang paggamit ng Airbnb ng Qwen para sa AI agent nito ay nagpakita ng kakayahan ng modelo sa English customer service sa malawakang saklaw[15]. Ang iba pang mga startup ay na-tune ang Qwen para sa kanilang mga pangangailangan, na nakikinabang mula sa matibay na base model nang hindi nagbabayad ng mga bayarin sa API. Ang epekto ng Qwen sa mga negosyo ay madalas na sa pagtipid ng gastos: maaaring i-deploy ng mga kumpanya ang Qwen sa kanilang sariling cloud sa maliit na bahagi ng gastos ng pagtawag sa isang API tulad ng GPT-4. At performance-wise, ang Qwen 14B ay naging competitive sa mga modelong dalawa o tatlong beses ang laki nito sa maraming gawain. Patuloy na pinauunlad ng Alibaba ang Qwen (ang pinakabagong Qwen-3 series ay gumagamit ng Mixture-of-Experts upang mapabuti ang performance habang gumagamit ng mas kaunting aktibong parameter[40]). Para sa mga negosyo, nag-aalok ang Qwen ng isang mature, production-ready open model na suportado ng isang tech giant – at ito ay bahagi ng mga alok ng Alibaba Cloud, na ginagamit ng ilang multinasyonal na kumpanya sa mga rehiyon kung saan may presensya ang Alibaba Cloud. Bilang resulta, ang Qwen ay nakaposisyon bilang isang nangungunang pagpipilian ng LLM, partikular para sa mga kumpanyang naghahanap ng alternatibo sa mga Western APIs alinman para sa gastos, kakayahang umangkop, o mga dahilan ng lokalidad.
Habang karamihan sa pokus ng industriya ng AI ay nasa mga paggamit para sa negosyo, isang kumpanya na tumataya sa consumer-facing na AI ay ang Macaron AI. Ang Macaron, isang startup na nakabase sa Singapore, ay nagpakilala ng tinatawag nitong “kauna-unahang personal na AI agent sa mundo” – karaniwang isang AI assistant na nakatuon sa pagpapayaman ng pang-araw-araw na buhay ng isang indibidwal sa halip na sa pagiging produktibo lamang sa trabaho[54]. Ang Macaron AI agent ay idinisenyo upang kumilos na tulad ng isang personalized na digital na kasama. Maaari nitong kaagad na gawing custom na mini-app ang kahilingan ng isang user (kahit isang pangungusap lang) o solusyon[55][56]. Halimbawa, sabihin sa Macaron na “Magplano ng weekend trip sa Kyoto” at ito ay bubuo ng isang tailored na itinerary app; hilingin dito na tulungan kang magsimula ng fitness habit, at ito ay lilikha ng personalized na workout tracker – lahat ay sa ilang segundo lang, walang coding. Ang intelligence na nakatuon sa buhay ay isang sinadyang pagkakaiba: Ang Macaron ay hindi lamang nagbubuod ng mga email o sumusulat ng code, ito'y humaharap sa araw-araw na personal na gawain. Ayon sa kumpanya, ang espesyalidad ng Macaron ay “pag-turn ng isang pangungusap sa isang gumaganang mini-app… ang pokus sa buhay ang nagtatangi dito mula sa mga AI agents na karamihan ay tumutulong sa mga gawain sa opisina.”[56]
Sa ilalim, itinutulak din ng Macaron ang mga teknikal na hangganan. Ito ay gumagamit ng napakalaking mixture-of-experts model (MoE) na may hindi pa nagagawang 1 trilyon+ na mga parameter at sopistikadong setup ng pagsasanay[57][58]. Ang koponan ay nagpatupad ng mga makabagong teknolohiya ng pag-scale (hybrid parallelism, low-rank adaptation fine-tuning, atbp.) upang gawing posible ang ganoong kalaking modelo[59][60]. Bakit ganito kalaki? Dahil ang Macaron ay naglalayon ng isang AI na talagang personalized at parang-tao sa lawak ng kaalaman nito. Ito ay may malawak na long-term memory module na bumubuo ng personal na kaalaman tungkol sa gumagamit – inaalala ang iyong mga kagustuhan, mahahalagang kaganapan, at konteksto mula sa mga nakaraang pag-uusap[61][62]. Sa paglipas ng panahon, natututo itong asahan ang iyong mga pangangailangan at iangkop ang tono at mga mungkahi nito sa iyong natatanging estilo, halos tulad ng isang palaging nakatuon na kaibigan. Halimbawa, maaaring ipaalala sa iyo ng Macaron ang isang gawain na nabanggit mo noong nakaraang linggo, o magmungkahi ng restaurant para sa date night batay sa iyong mga dietary habits at nakalipas na mga paborito. Pinapagana rin nito ang isang social na dimensyon sa AI – maaaring imbitahan ng mga gumagamit ang Macaron sa mga group chat upang tumulong nang sama-sama, at ibahagi o magkasamang lumikha ng mga mini-apps na ginagawa nito[63][64], ginagawang pangkomunidad na karanasan ang AI.
Ang pokus ng Macaron sa mga mamimili at pamumuhay ay maaaring magbukas ng malaking pagkakataon sa Asya. Sa China at iba pang mga merkado sa Asya, ang malalaking tech na kumpanya ay naglaan ng mga mapagkukunan sa AI, ngunit karamihan dito ay nakatuon sa negosyo o sa imprastraktura (mga serbisyo sa ulap para sa negosyo, mga proyekto ng gobyerno, atbp.) o ginagamit para sa pagpapahusay ng umiiral na mga super-apps at platform. Ang isang standalone na personal na ahente na nakatuon lamang sa pagpapaunlad at pagkamalikhain ng indibidwal ay mas bihira. Nakikita ng Macaron ang puwang na ito – itinuturing ang sarili bilang isang lifestyle AI na tumutulong sa iyo na "mamuhay nang mas mahusay, hindi lamang magtrabaho nang mas mahusay." Ang mga serbisyo nito (pagpaplano ng paglalakbay, health coaching, payo sa relasyon, pagtulong sa libangan, journaling, atbp.) ay tumutugma sa mga trend ng mga mamimili sa Asya ng mga digital personal assistants at "super-apps," ngunit may mas mataas na antas ng personalisasyon. Kung ang Macaron ay makakapaglayag sa mga lokal na kultura at regulasyon ng data (isang bagay na aktibong pinagtatrabahuhan nito, sa pamamagitan ng pagsasama ng mga lokal na pamantayan sa privacy at mga konsiderasyon sa AI ethics sa disenyo nito para sa mga merkado tulad ng Japan at Korea), maaari itong magtagumpay. Ang merkado sa China, partikular, ay napakalaki – at habang ang mga lokal na higante ay may kani-kanilang mga chatbots (tulad ng Ernie ng Baidu o ang kumbinasyon ng mga serbisyo ng Tencent), isang maliksi na solusyon sa personal na ahente na gumagana sa iba't ibang platform ay maaaring makahanap ng sariling niche. Ang tagumpay ng Macaron ay nakasalalay sa tiwala (ang pag-iimbak ng mga alaala ng buhay ng isang gumagamit ay sensitibo) at sa paghahatid ng tunay na halaga na lampas sa kung ano ang nagagawa na ng telepono at mga app ng isang gumagamit. Ngunit ang diskarte nito – isang co-designer ng personal na mga solusyon – ay nagmumungkahi ng mga bagong posibilidad. Sa isang AI landscape na kadalasang mahahati sa pagitan ng mga tool para sa negosyo at mga generic na chatbots, ang Macaron ay isang halimbawa ng isang startup na naglalayong tukuyin ang bagong kategorya ng consumer AI. Ang pag-unlad nito ay magiging isang kapanapanabik na case study kung paano ang isang AI na dinisenyo para sa personal na pagpapaunlad ay maaaring umiral at marahil ay umunlad kasabay ng mga malalaking inisyatiba ng enterprise AI.
Ano ang magiging hinaharap kung mas maraming mga kumpanya sa U.S. ang patuloy na mag-aampon ng mga open-source na modelong AI mula sa Tsina? Sa malapit na hinaharap, maaari nating asahan ang mas mataas na kompetisyon at mas mabilis na inobasyon. Ang mga kumpanya ng AI sa U.S. ay mapipilitang tumugon sa "China price" – maaari nating makita ang karagdagang pagbaba ng gastos para sa mga serbisyong AI at mas maraming open releases mula sa mga kumpanyang Kanluranin. (Ang pag-release ng OpenAI ng mga modelong GPT-OSS noong 2025 ay isang ganitong tugon, at maaaring sundan ito ng Google’s Gemini na may mga tier na kasama ang mas murang, mas maliit na mga bersyon upang manatiling makabuluhan.) Ang kompetisyong ito ay kapaki-pakinabang sa mga enterprise buyers, na magkakaroon ng mas masaganang menu ng mga modelo sa iba-ibang price-performance points. Nakikita na natin ito: halimbawa, ang Claude 4 ng Anthropic ay inaalok sa maraming bersyon (Opus, Sonnet, Haiku) upang balansehin ang kapangyarihan laban sa gastos[66][36], at ang mga startup tulad ng MiniMax na may pagmamalaking nag-aanunsyo na ang kanilang modelo ay nagkakahalaga ng 8% lang ng halaga ng Anthropic para sa katulad na performance[67]. Kung patuloy na makakakuha ng pagtanggap ang mga open models ng Tsina, maaaring pabilisin din ng mga American provider ang pananaliksik sa mga efficiency technique (tulad ng sparse attention at MoE strategies na ginagamit ng mga team mula sa Tsina) upang mapalapit ang agwat sa throughput at gastos. Sa katunayan, nagaganap ang cross-pollination – ang mga ideya sa pananaliksik ay dumadaloy sa buong mundo, kaya isang positibong resulta ay ang pag-unlad sa AI capabilities sa kabuuan ay maaaring mas bumilis habang ang mga team ay bumubuo sa mga breakthrough ng isa't isa.
Kasabay nito, ang tiwala at pamamahala ay magiging mahalaga. Ang mga negosyo ay mangangailangan ng katiyakan tungkol sa anumang modelong kanilang ginagamit, maging mula sa Silicon Valley o Beijing. Ito ay maaaring magbunga ng third-party audit at sertipikasyon ng mga AI model para sa seguridad, tulad ng mga cloud data center na sumasailalim sa mga audit ng seguridad ngayon. Maaaring gumanap din ang gobyerno ng U.S. ng papel: halimbawa, maaari itong maglabas ng mga alituntunin o kahit mga limitasyon para sa ilang sektor (tulad ng depensa, kritikal na imprastraktura, atbp.) sa paggamit ng mga AI na dinebelop sa ibang bansa. “May mga likas na alalahanin sa kung anong datos ang pinag-aralan ng modelo at kung nagpapakita ito ng mga pag-uugali na hindi nanaisin ng kompanya,” ayon kay Nathan Benaich ng Air Street Capital, na tumutukoy sa mataas na panganib ng paggamit ng mga banyagang modelo sa negosyo[68]. Maaari nating makita ang paglitaw ng mga solusyon sa AI na nakatuon sa pagsunod – halimbawa, mga U.S.-hosted na bersyon ng open models na nasuri para sa seguridad – na nagbibigay sa mga negosyo ng mas ligtas na paraan upang mapakinabangan ang mga inobasyon. Sa katunayan, ang ilang mga organisasyon ay sumusunod na sa isang “pinakamahusay ng dalawang mundo” na pamamaraan: kinukuha nila ang isang open model tulad ng Qwen o Llama, inaalis o nire-retrain ang anumang problematikong aspeto, at pinapatakbo ito sa kanilang sariling ligtas na imprastraktura, sa gayon ay nakikinabang sa murang halaga nang hindi ipinapadala ang datos sa isang panlabas na entidad[31][32].
Kung ang open-source AI ng Tsina ay patuloy na kumakalat sa mga negosyo sa U.S., maaring magbago rin ang balanse ng kaalaman at talento sa AI. Ang mga open models ay nagpapababa ng hadlang para makapagsimula sa paggawa ng mga produktong pinapagana ng AI, na maaring magbunga ng mas maraming startups at solusyon – isang tagumpay para sa inobasyon sa kabuuan. Gayunpaman, kung ang pangunahing teknolohiya na nagsisilbing batayan ng maraming solusyon ay mula sa Tsina, maaring magresulta ito sa impluwensya. Halimbawa, maaring magsimula ang mga kumpanyang Tsino na mag-alok ng bayad na suporta, konsultasyon, o mga premium na add-ons para sa kanilang mga open models (katulad ng ginawa ng Red Hat para sa Linux sa mundo ng open-source na software). Maaring matagpuan ng industriya ng teknolohiya sa U.S. ang sarili sa isang ironikong sitwasyon ng malawakang paggamit ng "open" tech mula sa Tsina, kahit na patuloy ang geopolitical rivalry. Mula sa isang estratehikong pananaw, maaring talagang hikayatin ng trend na ito ang mas maraming kolaborasyon sa komunidad ng pananaliksik sa AI – kung ang mga lab ng Tsina at Kanluran ay kapwa nagtatayo sa mga open contributions ng bawat isa, maaring umusbong ang isang pinagsamang teknikal na pundasyon (na mayroong mga karaniwang pamantayan o frameworks). Ngunit maari rin itong humantong sa fragmentation, kung saan umuunlad ang dalawang ecosystem: isa na pinangungunahan ng ganap na open, mababang gastos na mga modelo (na may malakas na pundasyon sa Asya at sa mga startups na sensitibo sa gastos sa buong mundo), at isa pa ng premium, proprietary na mga modelo (nangingibabaw sa mga high-security na domain at sa mga malalaking negosyo na inuuna ang pinakamataas na kalidad at suporta).
Para sa mga kumpanyang U.S., isang mahalagang konsiderasyon sa hinaharap ay ang “pagkakaiba-iba ng vendor” sa AI strategy. Ang pag-asa lamang sa isang AI partner (halimbawa, OpenAI lang o Alibaba lang) ay may kaakibat na panganib – sa pagbabago ng presyo, pagpalya, o pagbabago ng polisiya. Maraming CIO ang mas pipili ng isang portfolio: maaaring isang pangunahing LLM provider kasama ang backup na open model sa loob ng bahay bilang contingency. Ang pagsama ng mga modelong Tsino ay nagpapalakas sa kamay na iyon, na nagbibigay sa mga enterprise ng karagdagang leverage. Tulad ng binanggit sa pagsusuri ng VentureBeat, ang open-source na approach ng DeepSeek ay nag-aalok ng hedge laban sa lock-in – ngunit ang mga board at security team ay magtatanong ng mahihirap na tanong kung ang hedge ay mula sa isang Chinese vendor. Ang mga tanong na iyon ay malamang na magdulot ng maraming talakayan sa mga boardroom at pagsusuri ng IT architecture sa mga darating na taon.
Sa wakas, mahalagang tandaan na ang U.S. ay may ilang mahahalagang kalamangan pa rin sa AI race: access sa pinakabago at pinaka-advanced na semiconductor hardware, isang mas malakas na pipeline ng nangungunang AI research talent sa buong mundo, at (sa ngayon) ang pinaka-komprehensibong koleksyon ng mataas na kalidad na training data. Tulad ng nabanggit sa YouTube commentary na nagpakilala ng talakayang ito, ang U.S. “mas may access sa mas mataas na kalidad ng data at GPUs… natural lamang na ang U.S. ay lilikha ng mas mahusay na mga modelo tulad ng dati naming ginagawa” – habang “ang China ay patuloy na babawasan ang merkado” sa gastos[70][71]. Ipinapahiwatig nito ang isang hinaharap kung saan ang mga kumpanya ng U.S. ay patuloy na magtutulak sa hangganan ng raw capability, at ang mga kumpanya ng Tsina ay magtuon sa paggawa ng AI na malawak na ma-access at abot-kaya. Sa mga terminong pang-enterprise, ang premium segment (mga kumpanya na nangangailangan ng lubos na pinakamahusay na modelo at handang magbayad para dito) ay maaaring manatiling tapat sa mga modelo ng U.S. frontier, samantalang ang mass adoption segment (mga kumpanya na nangangailangan ng “sapat na mabuti” na AI sa pinakamababang gastos) ay maaaring mas pumili ng mga modelo mula sa Tsina. Ang OpenAI-Thrive partnership mismo ay makikita bilang tugon sa dinamikong ito: sa pamamagitan ng malalim na pag-embed sa AI sa mga workflow ng industriya at pag-aaral mula sa totoong paggamit, umaasa ang OpenAI na mapanatili ang isang kalamangan na hindi lamang tungkol sa kalidad ng modelo kundi tungkol sa buong produkto na integrasyon at kadalubhasaan sa domain.
Sa konklusyon, ang tanawin ng integrasyon ng enterprise AI ay binabago ng mga kolaborasyon tulad ng sa pagitan ng OpenAI at Thrive na nagdadala ng AI sa mga pangunahing proseso ng negosyo, at ng pagdagsa ng mga abot-kayang at may kakayahang Chinese LLMs na nagpapalawak ng mga pagpipilian para sa mga negosyo. Tila papunta tayo sa isang panahon ng co-opetition, kung saan parehong nagkokompetensya at hindi sinasadyang nagtutulungan ang mga AI ecosystems ng Amerika at Tsina (sa pamamagitan ng open-source) upang isulong ang sining ng teknolohiya. Para sa mga negosyo, ito ay karaniwang positibo: mas maraming pagpipilian, mas maraming inobasyon, at kakayahang pagsamahin ang iba't ibang AI solutions na angkop sa kanilang pangangailangan. Ang mga magtatagumpay sa negosyo ay ang mga makapag-strategic na magamit ang pagkakaiba-iba ng mga AI models – pinapakinabangan ang lakas ng bawat isa kung saan ito angkop, pinamamahalaan ang mga panganib, at nananatiling mabilis habang patuloy na umuunlad ang teknolohiya sa napakabilis na bilis. Sa huli, maging ito man ay isang makabagong sistema ng OpenAI o isang libreng Chinese model sa Hugging Face, ang mahalaga sa mga negosyo ay ang resulta. Kung ang isang AI model ay makapag-automate ng isang gawain, makatipid ng gastos, o makapagbukas ng bagong pagkakataon sa produkto, ito'y magkakaroon ng mainit na pagtanggap. At pagdating ng 2025 at lampas pa, ang mga tahanan na ito ay lalong magtatampok ng pagsasama ng Silangan at Kanluran sa kanilang AI toolkit – isang pag-unlad na tila malayong mangyari noong una, ngunit ngayon ay reyalidad na ng ating globally intertwined na industriya ng teknolohiya.
Mga Pinagmulan: [1][2][3][4][5][6][7][9][10][12][15][17][19][20][21][27][29][30][68][33][34][35][36][37][26][16][43][46][41][51][55][56][62][65][69][70][71]
[1] [2] [3] [4] [5] Kinuha ng OpenAI ang bahagi sa Thrive Holdings sa pinakabagong hakbang ng enterprise AI | Reuters
[6] [9] [10] [11] [12] [35] 13 Istatistika ng Pag-aampon ng LLM: Mahahalagang Punto ng Datos para sa Pagpapatupad ng AI ng Negosyo sa 2025
https://www.typedef.ai/resources/llm-adoption-statistics
[7] [8] Mga Kumpanyang Gumagamit ng Generative na AI: Mga Halimbawa sa Totoong Buhay
https://indatalabs.com/blog/companies-using-generative-ai
[13] [14] [19] [20] [21] [24] [25] [27] [29] [30] [33] [37] [51] [52] [67] [68] [70] [71] Mura at Bukas na Pinagmulan, Ang mga Modelong AI ng Tsina ay Sumasabog - The Wire China
https://www.thewirechina.com/2025/11/09/cheap-and-open-source-chinese-ai-models-are-taking-off/
[15] [16] [17] [18] Malinaw na sinabi ng CEO ng Airbnb na si Brian Chesky: Hindi namin ginagamit ang pinakabagong mga modelo ng OpenAI sa produksyon dahil … - The Times of India
[22] [23] [26] [28] [34] [36] [38] [39] [40] [66] Nangungunang 9 Malalaking Modelo ng Wika noong Nobyembre 2025 | Shakudo
https://www.shakudo.io/blog/top-9-large-language-models
[31] [32] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [53] [69] Ang bagong modelong V3.2-Exp ng DeepSeek ay nagbabawas ng presyo ng API ng kalahati sa mas mababa sa 3 sentimos bawat 1M input tokens | VentureBeat
[54] Macaron AI, ang Unang Personal na Ahente sa Mundo, Opisyal na Inilunsad ...
https://finance.yahoo.com/news/productivity-ai-personal-ai-macaron-120000260.html
[55] [56] [57] [58] [59] [60] [61] [62] [63] [64] Ang Karanasan sa Macaron - AI na Tumutulong sa Iyong Mamuhay Nang Mas Mabuti
[65] Pagsasama ng Sosyo-Teknikal: Pag-navigate sa Kultura ... - Macaron AI
https://macaron.im/en/blog/socio-technical-integration-macaron-asia