Apple Intelligence 2.0: Offline LLM at "Scene Memory" sa iOS 19.2

May-akda: Boxu Li

Nagdadala ang iOS 19.2 ng Mga Pribadong AI Upgrade – Bakit Usap-usapan ito?

Ang iOS 19.2 update ng Apple ay naging viral sa mga tech enthusiasts sa magandang dahilan: ito ay naglalagay ng turbo sa mga tampok ng “Apple Intelligence” na ipinakilala noong nakaraang taon gamit ang isang makapangyarihang on-device malaking language model (LLM) at bagong kakayahan sa “Scene Memory”. Sa simpleng salita, ang iyong iPhone o iPad ay naging mas matalino – nang hindi umaasa sa cloud. Masaya ang mga gumagamit dahil ang update na ito ay nangangahulugan na mas maiintindihan ni Siri at iba pang matatalinong tampok ang konteksto at maaring magpatakbo nang lubusang offline, na pinapanatili ang privacy. Ito ay isang malaking hakbang sa AI strategy ng Apple, pinagsasama ang mga makabagong generative models sa araw-araw na paggamit habang pinapanatili ang user data sa device. Ang kasiglahan ay pinalakas ng paninindigan ng Apple sa privacy: makakakuha ka ng AI-driven convenience (tulad ng advanced na tugon ni Siri, live translations, tulong sa pagsusulat, paglikha ng imahe, atbp.) nang hindi ipinapadala ang iyong personal na data sa server. Ang balanse ng makapangyarihan at pribado na ito ay nagposisyon sa AI 2.0 ng Apple bilang isang potensyal na game-changer sa consumer tech.

Mula sa pananaw ng isang consumer, ang AI ng iOS 19.2 ay mas matalino at mas may kamalayan sa konteksto kaysa dati. Ang tawag ng marketing ng Apple dito ay “AI para sa lahat, naka-embed mismo sa iyong iPhone”[4]. Sa ilalim ng hood, ang update ay naghahatid ng bagong on-device foundation model (ang sariling compact LLM ng Apple) at kung ano ang tatawagin nating Scene Memory, na magkasamang nagbibigay-daan sa mas natural at pag-uusap na interaksyon. Ang mga tech forum at social media ay puno ng mga halimbawa - tulad ng kakayahan ni Siri na magpatuloy ng isang palitan ng usapan o magmungkahi ng mga aksyon base sa kung ano ang nasa iyong screen. Sa artikulong ito, susuriin natin ang aktwal na nangyayari sa teknikal sa on-device LLM at Scene Memory ng Apple, at kung bakit ito mahalaga para sa mga gumagamit, developer, at mga personal na AI app tulad ng Macaron. Tara, simulan natin.

Ano Nga Ba ang Apple Intelligence 2.0?

Ang “Apple Intelligence” ay ang pantawag ng Apple para sa mga generative AI na tampok na isinama sa iOS, iPadOS, macOS, at iba pa. Una itong inilabas sa iOS 18 na may mga bagay tulad ng Writing Tools (AI-powered na pag-proofread at pag-reword sa kahit anong text field), Image Playground (paglikha ng mga imahe mula sa teksto), mga buod ng notification, at kahit na kaunting integration ng ChatGPT sa Siri. Isipin ito bilang tugon ng Apple sa pagbibigay ng AI assistance sa mga pang-araw-araw na gawain — ngunit idinisenyo upang tumakbo lokal at ligtas. Ang Apple Intelligence 2.0 (ang pag-ulit sa iOS 19.x) ay lubos na nagpapalawak ng mga kakayahang ito. Ayon sa Apple, ang pundasyon ay isang bagong on-device large language model na nagpapatakbo ng mga tampok sa buong OS. Bukod dito, ang Apple ay nagpatong ng mga pagpapabuti tulad ng mas mahusay na visual intelligence (ang camera o Photos app ay nakakakilala ng mga bagay at teksto), mas natural na dialog ni Siri, at ang malaking tampok: context awareness sa iyong device.

Ilan sa mga pangunahing tampok ng Apple Intelligence 2.0 ay kinabibilangan ng:

  • On‑Device Foundation Model (~3 bilyong parameter) – Isang generative AI model na ginawa ng Apple na tumatakbo sa Neural Engine ng A-series at M-series chips. Nagpapagana ito sa text generation, pagbuod, pagsasalin, at iba pa nang lokal (hindi kailangan ng internet)[7][3]. Sa kabila ng maliit na sukat nito, na-optimize ng Apple ang modelong ito upang maging kamangha-manghang kakayahan sa iba't ibang gawain, mula sa pag-rewrite ng mensahe hanggang sa pagsagot ng mga tanong. (Tatalakayin natin kung paano sa susunod na seksyon.)
  • “Scene Memory” (Kamalyahan ng Konteksto) – Kaya na ngayong tandaan at gamitin ni Siri at ng system intelligence ang konteksto mula sa iyong kasalukuyang “eksena” (ang iyong ginagawa, kung ano ang nasa screen, mga kamakailang interaksyon). Halimbawa, kayang panatilihin ni Siri ang daloy ng isang usapan mula sa isang kahilingan papunta sa susunod[6], o mag-alok na idagdag ang isang appointment sa iyong kalendaryo kapag tinitingnan mo ang isang texted na imbitasyon sa kaganapan. Sa loob, nagtatrabaho ang Apple sa personal na kamalyahan ng konteksto – ibig sabihin ay susubaybayan ni Siri ang mga bagay tulad ng iyong mga mensahe, email, file, at mga larawan (pribado sa device) upang mas matulungan ka ng mas matalino[8]. Nakakuha rin ito ng kamalayan sa screen, kaya alam nito kung anong app o nilalaman ang iyong tinitingnan at maaring kumilos dito (katulad ng isang human assistant)[9]. Ang “Scene Memory” ay isang maginhawang termino upang makuha ang mga tampok ng konteksto na nagpapahintulot sa AI na tandaan ang kasalukuyang eksena at tumugon nang naaayon.
  • Pag-access ng Developer sa AI (Foundation Models SDK) – Sa iOS 19, binuksan ng Apple ang on-device LLM nito sa mga developer ng app sa pamamagitan ng bagong Framework[10][11]. Ito ay malaki: ang third-party apps ay maaari na ngayong gamitin ang AI brain ng Apple sa ilang linya ng code lamang, na nagpapagana ng mga tampok tulad ng offline natural language search o generative text/image creation sa loob ng anumang app. Mahalaga, ang on-device inference na ito ay walang gastos sa cloud – walang mamahaling tawag sa API sa OpenAI o iba pa[12]. Maaaring bumuo ang mga developer ng mga AI feature na gumagana kahit walang internet at nang hindi ibinabahagi ang data ng user, na naaayon sa mga pangako ng privacy ng Apple.
  • Pinalawak na Multi‑Modal Skills – Hindi lamang text chatbot ang model ng Apple; mayroon din itong kakayahan sa vision. Sa iOS 19 maaari nitong maunawaan ang mga imahe at mga elemento ng interface. Halimbawa, maaari kang kumuha ng larawan ng isang flyer at ang AI sa iyong iPhone ay mababasa ang teksto upang lumikha ng isang event sa kalendaryo (awtomatikong nakukuha ang petsa, oras, lokasyon)[13]. Ang tampok na Live Translation ay maaaring makinig sa sinasalitang wika at magbigay ng real-time na isinalin na teksto o audio, ganap na on-device[14]. Ipinapahiwatig ng mga ito na ang LLM ay nakatali sa vision at audio systems, na ginagawa itong mas general-purpose assistant na “nakakakita” at “nakakarinig” gayundin sa pagbabasa.

Sa madaling salita, ang Apple Intelligence 2.0 ay tungkol sa pagpapatalino ng iyong device sa kinalalagyan nito – mas nauunawaan nito ang tungkol sa iyo (ang iyong konteksto, ang iyong nilalaman) at maaaring bumuo o tumulong sa nilalaman nang mabilis, habang pinapanatili ang AI processing sa lokal na antas. Ang pagpapakilala ng isang malakas na offline na LLM at context memory system sa iOS 19.2 ay isang mahalagang sandali para sa mga ambisyon ng AI ng Apple, kaya’t tuklasin natin ang teknikal na aspeto kung paano nila ito naisakatuparan.

Sa Likod ng mga Eksena: Paano Gumagana ang On-Device LLM ng Apple

Ang pagpapatakbo ng isang malaking language model direkta sa isang smartphone ay isang malaking hamon – ang mga modelong ito ay karaniwang napakalaki, malakas ang konsumo ng mapagkukunan, at tumatakbo sa mga cloud data centers. Hinarap ito ng Apple sa pamamagitan ng kumbinasyon ng model compression, custom silicon, at matalinong engineering upang mailagay ang AI kasanayan sa isang pakete na kasya sa iyong kamay. Narito ang isang paghahati-hati:

  • Model Distillation at Laki – Ang pangunahing modelo ng Apple na nasa device ay may humigit-kumulang 3 bilyong parameter[15], na mas maliit kumpara sa mga higanteng modelo gaya ng GPT-4 (daang bilyong mga parameter) subalit nananatiling “malaki” para sa isang device. Malamang na sinanay ito ng Apple gamit ang knowledge distillation, kung saan ang kaalaman ng mas malaking “teacher” model ay nailipat sa mas maliit na “student” model. Sa katunayan, ang mga tala ng pananaliksik ng Apple ay naglalarawan ng paggamit ng Mixture-of-Experts (MoE) na pamamaraan para sanayin nang mahusay ang isang de-kalidad na modelo: ginamit nila muli ang isang 3B na modelo sa isang sparse na 64-expert na modelo upang magsilbing guro, iniiwasan ang pangangailangan para sa isang napakalaking dense na modelo[16]. Sa pamamagitan ng matalinong teacher-student na estratehiya (at 14 trilyong token ng training data para sa server model) nagawa ng Apple na ipasok ang kagila-gilalas na kakayahan sa 3B na parameter[16][17]. Salin: Tinuruan ng Apple ang mas maliit na utak na kumilos na parang mas malaking utak, dramatikong nabawasan ang laki habang nananatiling matalino.
  • Optimized Architecture para sa Bilis – Upang mapatakbo nang mas mabilis ang modelo sa device, hindi lang ito pinaliit ng Apple – binago rin nila ang ilang bahagi nito. Halimbawa, hinati ang modelo sa dalawang bloke upang mas maayos na maibahagi ang memorya (ang “key-value cache” ng Transformer) sa pagitan ng mga layer[18]. Ang tweak na ito ay nagbawas ng paggamit ng cache memory ng ~37.5% at pinabilis ang oras upang makabuo ng unang token ng tugon[18]. Nagpatupad din sila ng bago at interleaved attention na mekanismo (pinagsasama ang local attention windows sa isang global attention layer) upang mas mahusay na hawakan ang mahahabang input ng konteksto nang hindi bumabagal o gumagamit ng masyadong maraming RAM[19]. Nangangahulugan ito na ang modelo ay maaaring magkaroon ng mas mahabang “memorya” (sumusuporta sa napakahabang mga prompt o dokumento) – isang mahalagang bahagi ng Scene Memory na tampok – habang tumatakbo pa rin nang mahusay sa device.
  • Quantization at Compression – Marahil ang pinakamahalagang susi sa pagkakasya ng LLM sa isang iPhone ay ang agresibong quantization ng mga timbang ng modelo. Nagpatupad ang Apple ng 2-bit weight quantization para sa mga pangunahing parameter ng modelo sa pamamagitan ng quantization-aware training[20], epektibong pinapaliit ang modelo sa isang bahagi ng orihinal nitong laki. (2-bit ay nangangahulugan na ang bawat timbang ay nakaimbak na may lamang 4 na posibleng halaga!) Ang mga embedding layer ay nasa 4-bit, at kahit na ang attention cache ay naka-compress sa 8-bit na mga halaga[21]. Pagkatapos ay pinino nila gamit ang mga low-rank adapters upang maibalik ang anumang nawalang katumpakan[21]. Ang huling resulta ay isang on-device na modelo na gumagamit ng napakakaunting memorya – Ipinapakita ng Table 1 kung gaano kalayo ang narating nito. Ipinapahayag ng Apple na tanging minor na pagkakaiba sa kalidad pagkatapos ng compression (ang ilang mga benchmark ay bahagyang bumuti pa)[21]. Ang ultra-compact na modelong ito ay maaaring manatili sa memorya ng device at mabilis na magpatakbo, na mahalaga para sa real-time na paggamit.
  • Apple Neural Engine (ANE) – Ang hardware ng Apple ay nagbibigay sa kanila ng malaking kalamangan dito. Ang mga modernong iPhone at iPad ay may dedikadong Neural Engine na may 16 na cores. Halimbawa, ang Neural Engine ng A17 Pro chip ay maaaring magsagawa ng 35 trilyong operasyon kada segundo[22]. Ang foundation model ng iOS 19 ay dinisenyo upang ilipat ang mga kalkulasyon sa Neural Engine na ito, na mahusay sa matrix math sa low-precision na data (eksakto kung ano ang kailangan ng quantized neural network). Sa pamamagitan ng paggamit ng ANE, tinitiyak ng Apple na ang LLM ay tumatakbo na may mataas na throughput at mababang power consumption. Ang maagang pagsubok sa 19.2 beta ay nagpakita na inilipat pa ng Apple ang mas maraming trabaho ng modelo sa Neural Engine, na makabuluhang nagbawas ng end-to-end latency (isang ulat ay nagbanggit ng 40% na bilis sa ilang mga query sa AI matapos ang isang optimization ng Neural Engine)[23]. Sa praktikal na mga termino, nangangahulugan ito na kapag may tinanong ka kay Siri, ang tugon ay maaaring mabuo sa isang iglap sa device, nang walang pagkaantala ng pakikipag-ugnayan sa server.
  • Multimodal Inputs – Ang on-device na modelo ay hindi lamang nagbabasa ng teksto; sinanay ito upang hawakan din ang mga imahe bilang input. Nagdagdag ang Apple ng vision encoder (isang tinangkilik na Vision Transformer) sa modelo, upang maaari itong mag-interpret ng visual na data at i-align ito sa wika[24]. Halimbawa, kung gagamitin mo ang tampok na iOS Visual Look Up o magtanong kay Siri “Ano ito?” habang itinututok ang iyong kamera sa isang bagay, ang mismong modelo ang magpoproseso ng mga tampok ng imahe at magbibigay ng sagot. Ang kakayahan ng vision+language ay kung paano rin pinalalawig ng scene memory ang visual na konteksto – halimbawa, magbabahagi ka ng screenshot kay Siri at magpapatuloy sa pakikipag-chat tungkol dito. Ang pagsasanay sa modelo na maging multimodal (sa 6 bilyong pares ng imahe-teksto sa pamamagitan ng isang layunin ng CLIP-style[25]) ay nagbibigay-daan sa AI ng Apple na likas na maunawaan kung ano ang nasa iyong screen o sa iyong mga larawan nang hindi nangangailangan ng hiwalay na cloud vision API. Ang mabigat na gawain – pagkuha ng kahulugan mula sa isang imahe – ay nagaganap sa device.

Talahanayan 1. Mga Teknik sa Pag-compress para sa mga Foundation Model ng Apple (on-device vs. server)[20][21]

Bersyon ng Modelo
Katumpakan ng Timbang (Decoder)
Katumpakan ng Embedding
Katumpakan ng KV Cache
Pag-angkop sa Fine-tune
On-Device 3B
2 bits (QAT optimized)
4 bits (QAT)
8 bits
Oo (ginamit ang adapters)
Server MoE (malaki)
~3.56 bits (ASTC compression)[20]
4 bits (pagkatapos ng pagsasanay)
8 bits
Oo (ginamit ang adapters)

Ang Apple ay nagko-compress ng kanyang on-device na modelo nang malaki (hanggang sa 2-bit na weights) upang tumakbo nang mahusay sa iPhones at iPads, habang ang cloud model ay gumagamit ng ibang compression (ASTC) dahil sa mas malaking saklaw nito. Parehong modelo ay gumagamit ng fine-tuned na adapters upang mapanatili ang kalidad.[20][21]

Sa esensya, ang on-device LLM ng Apple ay isang pinaikli at na-optimize na utak na nag-uutilize ng kakayahan ng chip ng Apple. Hindi nito kayang tapatan ang isang 100B-parameter cloud model sa raw na kaalaman, ngunit nilikha ito ng Apple para mahusay na makapag-handle ng karaniwang gawain ng mga user na may bilis at accuracy. Ang internal na pagsusuri ay nagpakita na ang 3B model ay nakipagsabayan pa sa ilang mas malalaking 4B parameter models mula sa mga kakompitensya sa maraming gawain[17]. Sinasabi ng Apple na ang lokal na model na ito ay mahusay sa mga bagay tulad ng pagbubuod ng teksto, pag-unawa, muling pagpapahayag, at maikling diyalogo, bagaman “hindi ito dinisenyo para maging chatbot para sa pangkalahatang kaalaman sa mundo.”[26] Sa madaling salita, maaaring hindi nito alam ang bawat obscure na trivia fact (para sa mga iyon, maaari pa ring gumamit si Siri ng online search o mas malaking cloud model kapag kinakailangan[27][28]), ngunit para sa pagtulong sa iyong pang-araw-araw na content – pagsusulat ng emails, pag-unawa ng mga dokumento, pagsasalin ng mga pag-uusap – ito ay lubos na naka-tune. At higit sa lahat, ito ay tumatakbo buong-buo sa edge, binubuksan ang susunod na bahagi: ang mga benepisyo ng edge inference at kung paano pumapasok ang “Scene Memory.”

“Scene Memory” – Ang Bagong Superpower ng Siri sa Konteksto

Isa sa mga pinaka-kapansin-pansing pag-unlad sa iOS 19.2 ay kung paano ngayon hinahawakan ni Siri (at iba pang matatalinong tampok) ang konteksto. Wala na ang mga araw na nakakalimutan ni Siri ang tanong mo pagkatapos ng dalawang segundo – binigyan ito ng Apple ng anyo ng panandaliang memorya o “scene” awareness. Kaya ano nga ba ang Scene Memory? Ito ang kombinasyon ng personal na konteksto, konteksto sa screen, at tuloy-tuloy na pag-uusap na memorya na nagbibigay-daan sa AI ng Apple na maunawaan ang mas malawak na sitwasyon sa paligid ng kahilingan ng isang gumagamit.

  • Pagkakaroon ng Tuloy-tuloy na Usapan: Ngayon ay kayang tandaan ni Siri ang konteksto mula sa isang kahilingan papunta sa susunod sa isang pag-uusap[6]. Ibig sabihin, maaari mong itanong, “Gaano kataas ang Eiffel Tower?” at sundan ito ng “Makikita ko ba ito mula sa Montmartre?” – nauunawaan ni Siri na ang “ito” ay tumutukoy sa Eiffel Tower dahil nasa konteksto pa rin ang naunang tanong. Isang malaking pag-unlad ito mula sa lumang Siri, na itinuring ang bawat tanong nang hiwalay. Ang mga tuloy-tuloy na pag-uusap at mga follow-up na tanong ay sa wakas posible, na ginagawa si Siri na mas natural at mas parang nakikipag-chat (katulad ng mode ng tuloy-tuloy na pag-uusap ni Alexa o Google Assistant, at maging ang pag-uugali ng ChatGPT). Ang on-device LLM’s transformer architecture ay likas na magaling sa ganitong uri ng prompt chaining, at ang implementasyon ng Apple ay nag-iimbak ng kasaysayan ng kamakailang pakikipag-ugnayan nang lokal kaya’t maaaring bumalik si Siri. Siyempre, ang memorya ng kontekstong ito ay panandalian at pribado – hindi ito ina-upload, kundi itinatago lamang sa RAM para sa sesyon.
  • Kamalayan sa Personal na Konteksto: Ang iOS 19.2 ay nagbibigay din kay Siri ng mas malalim na kamalayan sa data sa iyong aparato (sa iyong pahintulot). Inilarawan ito ng Apple bilang pagkatuto ni Siri tungkol sa “iyong personal na konteksto – tulad ng iyong mga email, mensahe, file, larawan at higit pa – upang makatulong sa mga gawain”[8]. Halimbawa, maaari mong itanong, “Siri, anong oras ang flight ko bukas?” at maaaring tingnan ni Siri sa iyong Mail app para sa mga boarding pass o sa iyong Calendar para sa mga pangyayari upang mahanap ang sagot, sa halip na sabihing “Hindi ko alam” tulad ng dati. Mahalaga, ito ay nagtatayo ng lokal na knowledge graph tungkol sa iyo. Isa pang senaryo: binanggit mo ang “ang PDF na nire-review ko kahapon” – maaaring tukuyin ng personal na memorya ng konteksto ni Siri kung aling file ang ibig mong sabihin batay sa iyong kamakailang aktibidad at buksan ito. Ang device-local indexing ng iyong nilalaman ay malamang na matagal nang layunin; mayroon nang spotlight search at mga mungkahi si Siri sa loob ng maraming taon, ngunit ngayon ay maaaring mag-tap ang LLM sa kayamanan na iyon sa isang paraang pang-usapan. Lahat ng ito ay nananatili sa aparato (walang ipinapadala sa mga server ng Apple) kaya’t pinapanatili nito ang pangako ng Apple sa privacy habang ginagawa si Siri na kapansin-pansing mas kapaki-pakinabang at personalized.
  • Kaalaman sa On-Screen (Scene) Awareness: Marahil ang pinaka-kapaki-pakinabang na aspeto ng Scene Memory ay ang kakayahan ni Siri na maunawaan kung ano ang kasalukuyan mong tinitingnan o ginagawa sa telepono – ang aktibong eksena. Tinatawag ito ng Apple na onscreen awareness, at pinapayagan nitong gampanan ni Siri ang “mga aksyon na may kinalaman sa kahit anong tinitingnan mo”[29]. Sa praktikal, maaaring mangahulugan ito: kung mayroong kang recipe na bukas sa Safari, maaari mong sabihing “Siri, i-save ito sa aking mga tala” at alam ni Siri na ang “ito” ay ang webpage na bukas, awtomatikong kino-clip ito. O kung tinitingnan mo ang isang thread ng text tungkol sa isang kaganapan, maaari mong sabihing “Paalalahanan mo ako tungkol dito mamaya” at lilikha si Siri ng paalala na may link sa pag-uusap na iyon. Bago ito, ganitong mga utos ang magpapahinto kay Siri. Sa likod ng sistema, ang mga intelligence API ng Apple ay maaaring mag-feed ng konteksto (tulad ng pinakaharap na app, o napiling teksto, o nilalaman ng webpage) sa LLM prompt. Ang iOS 19 ay nagdagdag pa ng Intents para sa “Continue with Current Screen” upang maipakita ng mga app kung ano ang nasa screen kay Siri nang ligtas. Ang resulta ay isang voice assistant na may kamalayan sa sitwasyon – halos parang nakatingin ito sa iyong screen (sa isang kapaki-pakinabang na paraan!). Ang scene awareness na ito ay matagal nang hinihiling na tampok (ang ibang mga platform ay may bahagyang implementasyon), at ngayon sa kumbinasyon ng LLM at system integration, maaaring sa wakas ay “makuha” ni Siri ang ibig mong sabihin sa “convert this to a PDF” o “ibahagi ito kay Alice” nang walang dose-dosenang follow-up na tanong.

Sa likod ng mga eksena, ang pagpapagana ng Scene Memory ay isang hamon sa software kasing dami ng sa AI. Kinailangan ng Apple na pagsamahin ang LLM sa tradisyunal na tagapagpatupad ng intensyon ng Siri at base ng kaalaman. Ayon sa mga ulat, may bagong sistema ang Apple na tinatawag na “query planner” para sa Siri na nagpapasya kung paano tutuparin ang isang kahilingan – kung sa pamamagitan ng web search, paggamit ng on-device data, o pag-activate ng app sa pamamagitan ng Siri Shortcuts/App Intents[30]. Malamang na ang LLM ay tumutulong sa pag-parse ng mga kumplikado o hindi malinaw na mga query at panatilihin ang estado ng pag-uusap, habang ang sistema ng pamana ng Siri ang humahawak sa pagpapatupad ng mga utos (pagbukas ng mga app, pagpapadala ng mensahe, atbp.). Gumagamit din ang Apple ng isang “summarizer” na module upang paikliin ang mahabang nilalaman – halimbawa, ang pagtatanong kay Siri ng “Ano ang mga hindi ko nakuha sa mga email ngayon?” ay maaaring mag-trigger sa on-device model na ibuod ang iyong mga pinakabagong email para sa iyo[31]. Lahat ng mga bahagi na ito ay nagtutulungan upang gawing mas proactive si Siri. Sa katunayan, tahasang sinabi ng Apple na ang layunin ay para si Siri na “gumawa ng aksyon para sa iyo sa loob at sa kabuuan ng iyong mga app” gamit ang personal na konteksto memory na ito[32]. Talaga namang nasasaksihan natin ang mabagal na pagbabago ng Siri mula sa isang matigas na sistema ng boses na utos patungo sa isang nababaluktot na personal na katulong na talagang nakakaalala ng konteksto at makapag-isip tungkol dito.

Mahahalagang tandaan na ang mga tampok na ito ay naantala ng maraming beses – orihinal na binalak ng Apple ang mga ito para sa iOS 18, pagkatapos ay itinulak sa 19, at kahit noong na-release na ang .0, hindi pa rin lahat ito kabilang[33][34]. Ngayon sa iOS 19.2, mukhang sa wakas ay nagkakaroon na ng katuparan ang personal na konteksto, on-screen na kamalayan, at malalim na integrasyon ng app[35]. Ang malaking consumer buzz ay dahil biglang nakikita ng mga tao na nagagawa na ni Siri ang mga bagay na dati ay hindi niya magawa. Ang assistant ay tila mas buhay. Ang mga unang ulat ng mga gumagamit ay nabanggit na kayang pagsama-samahin ni Siri ang mga gawain (tulad ng, “I-email ang mga larawang ito sa aking nanay” habang tinitingnan ang isang album – isang gumagamit ang nagsabing talagang nagawa ito ni Siri nang sabay-sabay, kinikilala na ang “mga larawang ito” ay nangangahulugang ang nakabukas na album). Ito ang eksaktong pangako ng Scene Memory: mas kaunting palpak na utos, mas maayos na pag-unawa. Nagdadala ito ng mga gumagamit ng iPhone na mas malapit sa uri ng karanasan ng AI helper na dati ay nangangailangan ng mga cloud service tulad ng ChatGPT. At muli, ang pagkakaiba ng Apple ay ginagawa ito offline. Hindi ini-stream ng iyong device ang iyong screen content sa cloud para sa pagsusuri; ang LLM ay nag-iinterpreta ng konteksto lokal. Ang privacy ay pinapangalagaan sa disenyo[36][37], kaya maaari mong pagkatiwalaan ang mga personalized na tampok na ito nang walang nakakatakot na pakiramdam na binabantayan ka ng Big Brother.

Upang ibuod ang Scene Memory: Ito ay ang mabisang pagsasama ng pinong AI utak ng Apple sa mayamang, lokal na data ng konteksto. Ang kombinasyong ito ay nagbubukas ng mas makapangyarihang interaksyon. Sa wakas, natututo na si Siri kung “sino/ano/saan ang iyong pinag-uusapan” at makakasagot sa isang kapaki-pakinabang na paraan. Para sa isang tech-savvy na gumagamit, nangangahulugan ito ng mas kaunting oras na kailangang manu-manong ipaliwanag ang mga bagay o kopyahin at i-paste sa pagitan ng mga app – ang assistant ang bahalang intindihin ito. Bagamat maaga pa (hindi pa perpekto si Siri at minsan ay mali ang konteksto o kailangan niyang humingi ng paglilinaw), ito ay isang malaking pag-unlad. Sa plano ng Apple na magpakilala ng mas malaking AI sa susunod na iOS (napapabalitang buong GPT-like na Siri sa iOS 20 sa 2026), ang Scene Memory sa 19.2 ay isang pundamental na hakbang sa direksyong iyon.

Edge Inference: Bakit Malaking Bagay ang On-Device AI

Isang pangunahing tema sa Apple Intelligence 2.0 ay ang edge inference – pagpapatakbo ng AI sa device ng gumagamit (ang “edge” ng network) sa halip na sa isang sentralisadong cloud. Natalakay na natin ang mga teknikal na paraan, pero alamin natin kung bakit ito mahalaga:

  • Privacy at Seguridad: Ang pagpapanatili ng LLM sa device ay nangangahulugang hindi lalabas sa iyong telepono ang data para iproseso. Gaya ng sinasabi ng Apple, ang mga personal na pag-uusap at nilalaman ay nananatiling pribado. Mag-draft ng email gamit ang Writing Tools o tanungin si Siri tungkol sa iyong iskedyul – wala sa mga ito ang kailangang i-upload. Ito ay kabaligtaran ng mga cloud assistant na nagpapadala ng iyong boses at konteksto sa mga server. Kahit na gumagamit si Siri ng Apple ng tulong mula sa cloud (gaya ng ChatGPT integration para sa ilang query), ito ay idinadaan sa Private Cloud Compute – isang sistema kung saan naka-encrypt ang iyong data at hindi pinapanatili ng third party. Ngunit para sa karamihan ng mga gawain sa 19.2, kaya itong gawin ng device nang lokal. Ito ay nakakatugon sa E2E encryption at pinapaboran ng mga tagasuporta ng privacy, na naaayon sa ethos ng brand ng Apple. Mula sa isang anggulo ng seguridad, ang on-device inference ay nangangahulugang mas kaunting exposure sa mga network attack o leaks; ang iyong mga AI request ay hindi naglalakbay sa internet kung saan maaari silang maharang.

  • Offline Availability: Gumagana ang Edge AI nang walang internet. Ito ay maaaring maging tagapagligtas – isipin mong naglalakbay ka nang walang data at kailangan ng pagsasalin ng wika, o nasa malayong lugar ka at nais mong kumuha ng impormasyon mula sa Notes sa pamamagitan ni Siri. Sa offline LLM ng iOS 19, maraming mga tampok ang patuloy na gumagana. Ang Live Translation, halimbawa, ay isasalin ang text sa Messages o spoken calls kahit na wala kang signal, dahil ang translation model ay nasa device. Ang disenyo ng Apple ay “offline-first” para sa mga pangunahing tampok ng intelligence. Sila ay nag-cache pa ng madalas na ginagamit na AI routines at kamakailang konteksto sa device upang ang pag-offline ay magdulot ng minimal na pagkagambala. Ang katatagan na ito ay mas inklusibo – hindi lahat ay may constant na high-speed internet, at kahit sa mga developed na lugar ay may mga patay na zone. Ang isang personal na AI na nawawala kapag offline ka ay hindi masyadong “personal.” Napagtanto ito ng Apple, at ang Macaron (ang personal na AI agent na tatalakayin natin sa madaling panahon) ay yakap ang parehong pilosopiya: ang iyong AI ay dapat nandiyan para sa iyo anumang oras, kahit saan.

  • Low Latency at Real-Time Interaction: Kapag ang inference ay nangyayari sa device, nawawala ang round-trip delay papunta sa server. Ang mga gawain ay nararamdaman na mas mabilis. Halimbawa, ang Summarize sa Safari o Mail ay maaaring makabuo ng summary kaagad-agad, samantalang ang isang cloud API ay maaaring mangailangan ng ilang segundo kasama ang network latency. Ang acceleration ng Neural Engine ng Apple ay higit pang ginagarantiyahan na ang mga tugon ay dumarating nang halos real-time. Isa sa mga pinag-uusapan ay na-papabilis ng Apple ang response time para sa ilang query ni Siri sa pamamagitan ng pag-offload ng trabaho sa Neural Engine sa 19.2. Sa mga tuntunin ng karanasan ng gumagamit, ang mababang latency na ito ay nagiging mas responsive at interactive ang AI, na naghihikayat sa mga tao na gamitin ito nang mas madalas. Maaari kang makipag-usap kay Siri halos kasing bilis ng pakikipag-usap sa isang tao sa silid. Katulad nito, ang mga tampok tulad ng predictive text ng keyboard (na ngayon ay pinahusay ng LLM) ay maaaring gumana nang may minimal na lag, kahit na bumubuo ng buong mungkahi ng pangungusap nang mabilis dahil ito ay kinukuwenta nang lokal. Mahalaga ring tandaan na sa pamamagitan ng paggawa ng inference sa device, iniiwasan ng Apple ang mga server costs at rate-limits na minsang nagtatali sa cloud AI services – walang abalang server queue, ang buong atensyon ng iyong telepono ay nasa iyo.

  • Gastos at Sustainability: Ang pagpapatakbo ng malalaking AI models sa cloud para sa milyun-milyong gumagamit ay maaaring maging labis na mahal (sa mga gastos ng GPU server) at enerhiya-intesibo. Sa pamamagitan ng paglipat ng inference sa mga edge devices, inilipat ng Apple ang computation sa hardware na nasa kamay na ng mga gumagamit (at purpose-built para sa efficiency). Itinampok pa ng Apple na ang mga developer na gumagamit ng on-device model ay walang usage fees – isang malaking insentibo kumpara sa pagbabayad kada API call sa isang external na AI service. Mula sa isang sustainability angle, ang decentralizing ng AI ay maaaring magpabawas sa load ng mga data center (na gumagamit ng maraming kapangyarihan). Ang bawat iPhone na gumagawa ng kaunting AI work ay maaaring mas energy-efficient nang sama-sama kaysa sa daan-daang libong mga request na tumatama sa isang central server farm (lalo na dahil ang Neural Engine ng Apple ay optimized para sa mataas na performance-per-watt). Sa kalaunan, ang malawakang paggamit ng edge AI ay maaaring magpabawas sa ilang cloud computing bottlenecks at gastos.

Sa lahat ng nasabi, ang diskarte ng Apple ay may mga kapalit din. Ang on-device na modelo, na mas maliit, ay hindi kasing-dalubhasa gaya ng isang bagay tulad ng GPT-4. Tinatanggap ng Apple na hindi ito nilalayong palitan ang isang pangkalahatang chatbot para sa bawat katanungan. Kaya't plano pa rin ng Apple na gumamit ng napakalaking mga modelo (kahit ang 1.2 trilyon-param na Gemini mula sa Google sa pamamagitan ng isang kasunduan) para sa pagpapahusay ng pag-unawa ni Siri sa mundo sa hinaharap. Ngunit kung ano ang ipinakita nila sa iOS 19.2 ay na para sa isang malawak na klase ng mga gawain sa personal na asistan, ang isang maayos na idinisenyong 3B na modelo ay sapat na – at ang mga benepisyo ng pagpapatakbo nito nang lokal ay napakalaki. Isa itong estratehikong pusta: hawakan ang personal at kontekstwal na mga gawain sa device, at ireserba ang cloud para lamang sa mabibigat na gawain (na may mga privacy wrapper tulad ng Private Compute). Ang hybrid na modelong edge-cloud na ito ay maaaring maging karaniwan.

Para makita ang estratehiyang ito sa aksyon, isaalang-alang natin si Macaron, isang personal na AI agent na nakatuon din sa mga tiyak na gawain ng gumagamit at offline na kakayahan. Ang mga pagsulong ng Apple sa on-device AI ay talagang komplementaryo sa ginagawa ng mga tool tulad ng Macaron.

Macaron Mini-Apps at ang Kinabukasan ng Low-Latency Personal Agent

Ang Macaron ay isang plataporma ng personal na AI assistant na nagpapahintulot sa mga gumagamit na lumikha ng mga “mini-apps” sa pamamagitan ng pag-uusap – ito ay mahalagang mga custom na AI-powered workflows para sa iyong pang-araw-araw na pangangailangan. Kung ang built-in na intelligence ng iOS ay ang malawak na solusyon ng Apple para sa lahat ng gumagamit, ang Macaron ay may mas personalisado, user-driven na diskarte: sabihin mo kung ano ang kailangan mo, ito ang gagawa ng solusyon agad-agad. Ngayon, paano nakikipaglaro ang offline na LLM at Scene Memory ng Apple dito? Sa isang salita: perpektong.

Binibigyang-diin ng pilosopiya ng Macaron ang offline-first, mababang latency, at disenyo na sentro sa gumagamit. Ayon sa koponan ng Macaron, ang tunay na personal na AI ay dapat gumana kahit kailan, saanman, kahit na may mahinang koneksyon, at nag-aangkop sa gumagamit[43][42]. Iyan mismo ang lakas ng on-device AI upgrades ng Apple. Sa foundation model ng iOS 19.2, maaaring magamit ng Macaron ang on-device intelligence ng Apple sa halip na palaging umaasa sa cloud APIs. Halimbawa:

  • Instant na Paglikha ng Mini-App: Pinapahintulutan ni Macaron ang mga gumagamit na magsalita ng mga bagay tulad ng “Tulungan mo akong gumawa ng meal planner app”, at gumagamit ito ng generative AI upang bumuo ng isang mini-app para sa layuning iyon[45][46]. Kung ang hakbang na ito sa pagbuo ay maaaring tumakbo sa device (gamit ang modelo ng Apple sa pamamagitan ng bagong Foundation Models SDK), ang paglikha ay nangyayari agad-agad na walang pagkaantala sa server. Maaaring makakuha ang gumagamit ng gumaganang mini-app sa loob lamang ng ilang segundo. Nangangahulugan din ito na ang mga tagubiling ibinibigay mo (na maaaring magsama ng personal na kagustuhan o datos) ay nananatili sa iyong device habang isinasagawa ang pagbuo[3].
  • Kontekstwal na Pag-unawa sa mga Mini-App: Kadalasang sangkot sa personal na datos ang mga mini-app ni Macaron – halimbawa, isang habit tracker o personal na tagasuri ng pananalapi – at nakikinabang sila mula sa kakayahan sa konteksto. Ngayon sa pagkakaroon ng mga kakayahan sa Scene Memory, maaaring hingin ni Macaron ang katalinuhan ng sistema para sa konteksto sa screen o personal na konteksto upang maisama sa mga daloy ng trabaho ng mini-app nito. Halimbawa, kung mayroon kang mini-app ni Macaron para sa pamamahala ng email, maaari nitong gamitin ang bagong kakayahan ni Siri na buodin ang mga email o tukuyin ang mahahalaga (isang tampok na inilantad ng Apple sa intelligence suite ng iOS 19)[47][48]. Karaniwang nagkakaroon si Macaron ng mas matalinong canvas upang paglaruan, sa tulong ng mga serbisyo ng AI sa antas ng OS ng Apple.
  • Mababang Pagkaantala sa UX ng Ahente: Isa sa mga bentahe ni Macaron ay ang maayos, conversational na karanasan ng gumagamit – ang AI agent ay nakikipagtulungan sa iyo tulad ng isang kasosyo. Tinitiyak ng edge AI ng Apple na ang mga tugon at aksyon ay nagaganap na may minimal na pagkaantala, na mahalaga para mapanatili ang natural na daloy. Ang mga mini-app ni Macaron ay maaari na ngayong magsagawa ng mga gawain tulad ng pagsasalin ng wika, pagkilala ng imahe, o pagsusuri ng teksto sa device agad-agad, samantalang dati ay kailangang tumawag sa mga cloud API at maghintay. Ang isang playbook ni Macaron na, halimbawa, gumagabay sa iyo sa isang recipe ng pagluluto ay maaaring gumamit ng on-device vision upang makilala ang mga sangkap sa real-time, o gamitin ang LLM upang sagutin ang “ano ang maaring ipalit sa butter?” nang hindi naghahanap sa internet. Ito ay lumilikha ng mas nakaka-engganyong at maaasahang karanasan ng katulong.
  • Pinahusay na Privacy para sa Personal na AI: Si Macaron, bilang isang personal na ahente, ay humahawak ng mga personal na impormasyon ng gumagamit (mga iskedyul, tala, datos ng kalusugan, atbp.). Sa pamamagitan ng pag-align sa on-device processing ng Apple, maaari ni Macaron na tiyakin sa mga gumagamit na ang kanilang impormasyon ay hindi umaalis sa device sa panahon ng operasyon ng AI. Sa katunayan, may mga mode si Macaron para sa low-bandwidth o offline na gamit, nag-iimbak ng mahalagang data lokal at gumagamit kahit ng mas maliit na fallback models kung kinakailangan[49][42]. Ang 19.2 LLM ng Apple ay maaaring magsilbing offline na model – isang kapani-paniwalang fallback na sumasaklaw sa mga pangunahing kahilingan kapag hindi maabot ang buong cloud AI[42]. Ang sinerhiya dito ay parehong nagtatagpo ang Apple at Macaron sa “AI na gumagana para sa iyo sa iyong device”, na nagpapalakas ng tiwala at awtonomiya ng gumagamit.
  • Pagpapanatili ng Konteksto sa Workflows: Ang mga mini-app ni Macaron ay kadalasang mga multi-step na proseso (tinutukoy ni Macaron ang mga ito bilang playbooks o micro-flows[50]). Ang konsepto ng Scene Memory ay makakatulong na mapanatili ang estado sa mga hakbang na iyon. Halimbawa, mayroon kang mini-app sa pagplano ng paglalakbay: Hakbang 1 ay naghahanap ng mga flight, Hakbang 2 mga hotel, Hakbang 3 ay gumagawa ng itineraryo. Sa memorya ng konteksto, maaaring dalhin ng AI ang impormasyon mula sa isang hakbang patungo sa susunod nang hindi na kailangan muling itanong ang lahat. Istruktura na ni Macaron ang mga daloy sa mga lohikal na bahagi upang bawasan ang cognitive load[51] – ngayon ang AI backend ay mas mahusay na makakasubaybay kung ano ang nagawa na at kung ano ang susunod, kahit na humahawak ng mga pagbabago tulad ng “talaga, gawin ito ng isang araw mamaya” na may pag-unawa sa kasalukuyang plano.

Sa kabuuan, ang pag-upgrade ng edge AI ng Apple ay nagbibigay ng mas malakas na pwersa sa mga platform tulad ng Macaron na nakabase sa iOS. Tayo ay papunta sa isang ecosystem kung saan ang mga personal na AI agent ay hindi nakahiwalay sa cloud, kundi naninirahan sa ating mga personal na device, nagtutulungan kasama ng system intelligence. Ang bisyon ng Macaron ng mini-apps sa iyong mga kamay ay nagkakaroon ng karagdagan dahil ang ilalim na OS ay kayang magsagawa ng mga AI task nang mas madulas. Napapansin na ang mga prinsipyo ng disenyo ng Macaron (hal. adaptive content, malalim na personalisasyon, mas matibay na offline mode[52][43]) ay mahusay na umaayon sa inilabas ng Apple sa iOS 19.2. Ang low-latency, context-aware agent UX na dati ay mukhang futuristic ay mabilis na nagiging realidad.

Konklusyon: Isang Bagong Panahon ng Personal, On-Device na AI

Ang iOS 19.2 ng Apple ay nagmamarka ng isang mahalagang sandali sa pag-unlad ng consumer AI – kung saan lumilipat ang kapangyarihan sa gilid. Sa pamamagitan ng pag-deploy ng isang maingat na naitugmang LLM na tumatakbo nang lokal at pagpapakilala ng “Scene Memory” para sa konteksto, binago ng Apple kung ano ang magagawa ng iyong iPhone. Hindi lang ito tungkol sa pagpapabuti kay Siri (bagamat iyon ay isang malugod na kinalabasan); ito ay tungkol sa muling pagpapakahulugan ng mga inaasahan ng user tungkol sa privacy at pagiging tumutugon ng mga tampok ng AI. Maaari ka na ngayong magkaroon ng isang quasi-pag-uusap sa iyong telepono, makakuha ng agarang AI na tulong sa iyong nilalaman, at magtiwala na ang iyong data ay hindi lihim na kinukuha sa ilang malayong server farm[39][36]. Sa panahon ng lumalaking pag-aalala tungkol sa privacy ng data, ang offline-first na diskarte ng Apple ay nagbibigay ng isang kapani-paniwalang sagot sa tanong na “maaari ba tayong magkaroon ng advanced na AI at privacy?” – tila, oo maaari natin.

Sa teknikal na aspeto, ang Apple Intelligence 2.0 ay isang makapangyarihang halimbawa ng compression ng modelo, co-design ng hardware-software, at integrasyon sa isang consumer OS. Ipinapakita nito na sa pamamagitan ng distillation, quantization, at optimization, ang isang modelong may bilyun-bilyong mga parameter ay maaaring tumakbo nang maayos sa isang device na pinapatakbo ng baterya[18][20]. Binubuksan nito ang pinto para sa higit pang mga inobasyon: maaaring makita natin ang mga on-device speech models para sa mas matalinong diktasyon, o mga lokal na rekomendasyon na modelo na natututo ng iyong mga kagustuhan nang hindi nangangailangan ng cloud training. Pinapalakas din ng Apple ang mga developer na makisabay sa alon na ito sa pamamagitan ng Foundation Models framework[10][11] – asahan ang bagong crop ng mga app na gumagamit ng on-device LLM para sa malikhaing at praktikal na mga layunin, lahat nang walang karagdagang gastos o pagkaantala sa mga user.

Para sa mga tech-savvy na gumagamit, ang 19.2 na update ay lalo na nakakatugon sa inaasahan. Parang nagkakaroon ka ng hardware upgrade sa pamamagitan ng software – biglang nagagawa ng iyong kasalukuyang device ang mga bagong trick na hindi mo inaasahan. Masisiyahan ang mga power user sa pagsubok sa mga limitasyon ng konteksto ni Siri, paglikha ng mga kumplikadong shortcut na gumagamit ng on-device model, o pagpapatakbo ng mga app tulad ng Macaron para itulak ang mga hangganan ng personal na AI. Nakikita rin namin kung paano maaaring i-augment ng edge AI ang accessibility: ang mga tampok tulad ng live captions, simplipikasyon ng teksto, o mga paglalarawan ng imahe ay mas instant at maaasahan kapag ginawa sa device, na nakikinabang sa mga gumagamit na may kapansanan o limitadong koneksyon[53][54].

Tiyak na, hindi nag-iisa ang Apple sa trend ng edge AI na ito (ang Qualcomm, Google, at iba pa ay nagtatrabaho rin sa on-device na AI acceleration), ngunit ang mahigpit na integrasyon ng Apple ng custom na silicon, OS, at mga high-level na tampok ay nagbibigay dito ng kalamangan sa paghahatid ng isang pulidong produkto sa milyun-milyong gumagamit sa malawakang antas. Ang "malaking interes ng mga mamimili" sa AI ng iOS 19.2 ay patunay na mahalaga sa mga tao ang parehong kakayahan at tiwala. Epektibong sinasabi ng Apple: hindi mo kailangang ipagpalit ang isa para sa isa pa. Ang iyong iPhone ay maaaring maging matalino at iyo sa parehong oras.

Sa hinaharap, maaring isipin ang Apple Intelligence 3.0 na may mas marami pang “scene memory” – maaring tuloy-tuloy na personalisasyon na lumalago sa paglipas ng panahon (muli, nakaimbak nang lokal), o isang ganap na pinagsamang multimodal na katulong na walang kahirap-hirap na humahawak ng teksto, boses, bisyon, at aksyon. Nakaayos na ang pundasyon. At ang mga personal na AI agents tulad ng Macaron ay uunlad sa ganitong kapaligiran, kung saan bawat user ay maaring magkaroon ng natatanging AI na lubos na nakakakilala sa kanila ngunit pinoprotektahan ang kanilang privacy.

Sa madaling sabi, ang offline LLM at Scene Memory ng Apple sa iOS 19.2 ay kumakatawan sa isang teknikal na milestone at etikal na paninindigan na magkasama. Ipinapakita nila kung ano ang posible kapag ang pagsulong ng AI ay pinagsama sa paggalang sa privacy at karanasan ng gumagamit. Para sa mga gumagamit, ito ay nangangahulugan ng mas matalino at mas kapaki-pakinabang na device. Para sa mga developer, ito ay isang bagong palaruan ng on-device AI na posibilidad. At para sa industriya, itinaas nito ang pamantayan: ang hinaharap ng AI ay hindi lamang nasa cloud – ito ay narito mismo sa ating mga bulsa. Maligayang pagdating sa panahon ng on-device AI – kung saan ang iyong telepono mismo ang matalinong ahente, at ito ay nagiging mas matalino araw-araw.

Mga Pinagmulan: Ang impormasyon sa artikulong ito ay sinusuportahan ng mga opisyal na anunsyo at teknikal na ulat ng Apple, pati na rin ng mga independiyenteng pagsusuri. Ang mga pangunahing sanggunian ay kinabibilangan ng balita ng Apple sa WWDC 2025 tungkol sa on-device model at developer framework[55][10], teknikal na ulat ng Apple Machine Learning Research sa kanilang foundation models (naglalaman ng detalye tungkol sa 3B model design, distillation, at quantization)[15][20], at mga mapagkakatiwalaang ulat tungkol sa mga bagong context features ng Siri at naantalang rollout[35][28]. Ang mga pinagmulan na ito at iba pa ay binanggit para sa pag-verify at mas malalim na pagbasa. Ang mga pag-unlad ay kasalukuyan hanggang huli ng 2025, na nagmamarka ng pinakabagong estado sa on-device AI deployment.

[1] [2] [3] [5] [6] [7] [10] [11] [12] [14] [39] [47] [48] [55] Ang Apple Intelligence ay mas pinalakas pa sa pamamagitan ng mga bagong kakayahan sa mga Apple device - Apple (CA)

https://www.apple.com/ca/newsroom/2025/06/apple-intelligence-gets-even-more-powerful-with-new-capabilities-across-apple-devices/

[4] Apple Intelligence - Apple

https://www.apple.com/apple-intelligence/

[8] [9] [29] [32] [33] [34] [35] Sabi ng Apple Kailangan Magtiis ng Mga Regular na Siri ang mga User Hanggang iOS 19 o 2026 – MacTrast

https://www.mactrast.com/2025/03/apple-says-users-will-have-to-put-up-with-regular-siri-until-ios-19-or-2026/

[13] [15] [16] [17] [18] [19] [20] [21] [24] [25] [26] [36] [37] Mga Update sa Apple’s On-Device at Server Foundation Language Models - Apple Machine Learning Research

https://machinelearning.apple.com/research/apple-foundation-models-2025-updates

[22] Apple A17 - Wikipedia

https://en.wikipedia.org/wiki/Apple_A17

[23] Key AI & Tech Developments (Nobyembre 1-2, 2025)

https://www.jasonwade.com/key-ai-tech-developments-november-1-2-2025

[27] [28] [30] [31] [40] [44] Gagamitin ng Apple ang isang napakamahal na AI model na may 1.2 trilyong parameter mula sa Google bilang suporta para kay Siri

https://wccftech.com/apple-will-use-a-1-2-trillion-parameter-very-expensive-ai-model-from-google-as-a-crutch-for-siri/

[38] Papayagan ng iOS 19 ang mga Developer na Gamitin ang AI Models ng Apple sa Kanilang Apps - MacRumors

https://www.macrumors.com/2025/05/20/ios-19-apple-ai-models-developers/

[41] [42] [43] [49] [50] [51] [52] [53] [54] Paano Umaangkop ang Macaron AI sa Bawat User - Macaron

https://macaron.im/blog/macaron-ai-adaptive-accessibility-features

[45] [46] Macaron AI sa Aksyon: Paglikha ng Personalized na Mini‑Apps sa Isang Iklik - Macaron

https://macaron.im/blog/macaron-personalized-ai-solutions

Boxu earned his Bachelor's Degree at Emory University majoring Quantitative Economics. Before joining Macaron, Boxu spent most of his career in the Private Equity and Venture Capital space in the US. He is now the Chief of Staff and VP of Marketing at Macaron AI, handling finances, logistics and operations, and overseeing marketing.

Apply to become Macaron's first friends