एप्पल इंटेलिजेंस 2.0: ऑफलाइन एलएलएम और "दृश्य स्मृति" iOS 19.2 में

लेखक: बॉक्सू ली

iOS 19.2 लाता है प्राइवेट AI अपग्रेड्स – क्यों है चर्चा में?

Apple के iOS 19.2 अपडेट ने तकनीकी उत्साही लोगों के बीच एक महत्वपूर्ण कारण से वायरल हो गया है: यह पिछले साल में पेश किए गए “Apple इंटेलिजेंस” फीचर्स को एक शक्तिशाली ऑन-डिवाइस बड़ी भाषा मॉडल (LLM) और एक नई “सीन मेमोरी” क्षमता के साथ सुपरचार्ज करता है। सरल शब्दों में, आपका iPhone या iPad अब बहुत अधिक स्मार्ट हो गया है – बिना क्लाउड पर निर्भर हुए। उपयोगकर्ता उत्साहित हैं क्योंकि इस अपडेट का मतलब है कि Siri और अन्य बुद्धिमान फीचर्स बेहतर संदर्भ को समझ सकते हैं और पूरी तरह से ऑफलाइन चल सकते हैं, गोपनीयता को संरक्षित करते हुए। यह Apple की AI रणनीति में एक महत्वपूर्ण छलांग है, जो अत्याधुनिक जेनरेटिव मॉडल को रोजमर्रा के उपयोग में मिश्रित करता है जबकि उपयोगकर्ता डेटा को डिवाइस पर रखता है। इस चर्चा को Apple के गोपनीयता-प्रथम दृष्टिकोण से और बढ़ावा मिलता है: आपको AI-संचालित सुविधा मिलती है (जैसे उन्नत Siri प्रतिक्रियाएं, लाइव अनुवाद, लेखन सहायता, छवि निर्माण आदि) बिना आपके व्यक्तिगत डेटा को सर्वर पर भेजे। यह शक्तिशाली और गोपनीय का संतुलन Apple के AI 2.0 को उपभोक्ता तकनीक में संभावित गेम-चेंजर के रूप में स्थापित करता है।

उपभोक्ता दृष्टिकोण से, iOS 19.2 की AI पहले से कहीं अधिक स्मार्ट और संदर्भ-सचेत लगती है। Apple की मार्केटिंग इसे "हम सबके लिए AI, आपके iPhone में ही निर्मित" कहती है। [4] अंदरूनी तौर पर, यह अपडेट एक नए ऑन-डिवाइस फाउंडेशन मॉडल (Apple का खुद का कॉम्पैक्ट LLM) और जिसे हम सीन मेमोरी कहेंगे, के माध्यम से अधिक प्राकृतिक, बातचीतपूर्ण इंटरैक्शन को सक्षम करता है। तकनीकी मंचों और सोशल मीडिया पर उदाहरण भरे पड़े हैं - जैसे कि सिरी अब आगे-पीछे की बातचीत करने में सक्षम है या आपके स्क्रीन पर दिखने वाली चीजों के आधार पर सक्रिय रूप से सुझाव देने में सक्षम है। इस लेख में, हम Apple के ऑन-डिवाइस LLM और सीन मेमोरी के साथ तकनीकी रूप से वास्तव में क्या हो रहा है और यह उपयोगकर्ताओं, डेवलपर्स, और व्यक्तिगत AI ऐप्स जैसे मैकरॉन के लिए क्यों महत्वपूर्ण है, का विश्लेषण करेंगे। चलिए शुरू करते हैं।

Apple इंटेलिजेंस 2.0 वास्तव में क्या है?

「एप्पल इंटेलिजेंस」 एप्पल का वह व्यापक शब्द है जो जनरेटिव एआई फीचर्स को iOS, iPadOS, macOS आदि में एकीकृत करता है[5]। इसे पहली बार iOS 18 में रोल आउट किया गया था जैसे कि राइटिंग टूल्स (किसी भी टेक्स्ट फील्ड में एआई-संचालित प्रूफरीडिंग और पुनः शब्दांकन), इमेज प्लेग्राउंड (टेक्स्ट से चित्र बनाना), नोटिफिकेशन सारांश, और यहां तक कि सिरी में ChatGPT एकीकरण की थोड़ी सी बात[6]। इसे एप्पल का एआई सहायता को रोजमर्रा के कार्यों में लाने का उत्तर समझें – लेकिन इसे स्थानीय रूप से और सुरक्षित रूप से चलाने के लिए डिजाइन किया गया है। एप्पल इंटेलिजेंस 2.0 (iOS 19.x में संस्करण) इन क्षमताओं को काफी हद तक बढ़ाता है। एप्पल के अनुसार, आधार एक नया ऑन-डिवाइस बड़ा भाषा मॉडल है जो ओएस में फीचर्स को शक्ति प्रदान करता है[1]। इसके ऊपर, एप्पल ने सुधारों का लेयर किया है जैसे बेहतर दृश्य इंटेलिजेंस (कैमरा या फोटोज़ ऐप वस्तुओं और टेक्स्ट को पहचानना), अधिक प्राकृतिक सिरी वार्तालाप, और सबसे बड़ा: आपके डिवाइस पर संदर्भ जागरूकता

एप्पल इंटेलिजेंस 2.0 की कुछ प्रमुख विशेषताएं शामिल हैं:

  • ऑन-डिवाइस फाउंडेशन मॉडल (~3 बिलियन पैरामीटर) – Apple द्वारा निर्मित एक जनरेटिव AI मॉडल जो A-सीरीज़ और M-सीरीज़ चिप्स के न्यूरल इंजन पर चलता है। यह टेक्स्ट जनरेशन, समरी, अनुवाद और अन्य कार्यों को स्थानीय रूप से संचालित करता है (इंटरनेट की आवश्यकता नहीं है)[7][3]। अपने छोटे आकार के बावजूद, Apple ने इस मॉडल को कई कार्यों में चौंकाने वाली क्षमता के लिए ऑप्टिमाइज़ किया है, जैसे संदेशों को फिर से लिखना और सवालों का जवाब देना। (हम अगले सेक्शन में इसके बारे में गहराई से चर्चा करेंगे।)
  • “सीन मेमोरी” (संदर्भ जागरूकता) – Siri और सिस्टम इंटेलिजेंस अब आपके वर्तमान “सीन” (जो आप कर रहे हैं, जो स्क्रीन पर है, हाल की बातचीत) से संदर्भ को याद और उपयोग कर सकते हैं। उदाहरण के लिए, Siri एक अनुरोध से अगले तक बातचीत की धारा बनाए रख सकती है[6], या जब आप टेक्स्ट में प्राप्त किसी घटना के निमंत्रण को देख रहे हैं तो आपके कैलेंडर में एक अपॉइंटमेंट जोड़ने की पेशकश कर सकती है। आंतरिक रूप से, Apple व्यक्तिगत संदर्भ जागरूकता पर काम कर रहा है – जिसका मतलब है कि Siri आपके संदेशों, ईमेल, फाइल्स, और फ़ोटो का ट्रैक रखेगी (गोपनीय रूप से डिवाइस पर) ताकि आपको अधिक समझदारी से मदद मिल सके[8]। यह ऑन-स्क्रीन जागरूकता भी प्राप्त कर चुकी है, इसलिए इसे पता है कि आप कौन सा ऐप या सामग्री देख रहे हैं और इसके अनुसार कार्य कर सकती है (जैसे एक मानव सहायक होगा)[9]। “सीन मेमोरी” एक सुविधाजनक शब्द है जो इन संदर्भ सुविधाओं को पकड़ता है जो AI को वर्तमान सीन को याद रखने और उसके अनुसार प्रतिक्रिया देने की अनुमति देता है।
  • डेवलपर एक्सेस टू द AI (फाउंडेशन मॉडल्स SDK) – iOS 19 के साथ, Apple ने अपने ऑन-डिवाइस LLM को ऐप डेवलपर्स के लिए एक नए फ्रेमवर्क के माध्यम से खोला[10][11]। यह बड़ा है: थर्ड-पार्टी ऐप्स अब कुछ कोड लाइनों के साथ Apple के AI दिमाग का लाभ उठा सकते हैं, जिससे ऑफलाइन नैचुरल लैंग्वेज सर्च या किसी ऐप के अंदर जनरेटिव टेक्स्ट/इमेज निर्माण जैसी सुविधाएं सक्षम हो जाती हैं। महत्वपूर्ण रूप से, यह ऑन-डिवाइस इन्फेरेंस क्लाउड लागतों से मुक्त है – OpenAI या अन्य के महंगे API कॉल्स की कोई आवश्यकता नहीं है[12]। डेवलपर्स AI सुविधाएं बना सकते हैं जो बिना इंटरनेट के भी काम करती हैं और बिना उपयोगकर्ता डेटा साझा किए, Apple के गोपनीयता वादों के साथ संरेखित होती हैं।
  • विस्तारित मल्टी-मोडल स्किल्स – Apple का मॉडल सिर्फ टेक्स्ट चैटबॉट नहीं है; इसमें विजन क्षमताएं भी हैं। iOS 19 में यह इमेज और इंटरफेस तत्वों को समझ सकता है। उदाहरण के लिए, आप एक फ्लायर की फोटो खींच सकते हैं और आपका iPhone AI टेक्स्ट को पार्स करके कैलेंडर इवेंट बना देगा (तारीख, समय, स्थान स्वचालित रूप से निकाला जाएगा)[13]। लाइव ट्रांसलेशन फीचर बोली गई भाषा को सुन सकता है और रीयल-टाइम में अनुवादित टेक्स्ट या ऑडियो प्रदान कर सकता है, पूरी तरह से ऑन-डिवाइस[14]। ये संकेत करते हैं कि LLM विजन और ऑडियो सिस्टम्स से जुड़ा हुआ है, इसे एक सामान्य-उद्देश्य सहायक बना रहा है जो “देखता” और “सुनता” है जैसे कि पढ़ता है।

संक्षेप में, Apple Intelligence 2.0 आपके डिवाइस को स्थानीय रूप से अधिक स्मार्ट बनाने के बारे में है – यह आप (आपका संदर्भ, आपकी सामग्री) के बारे में अधिक समझता है और सामग्री को तुरंत उत्पन्न या सहायता कर सकता है, साथ ही एआई प्रोसेसिंग को स्थानीय रखते हुए। iOS 19.2 में एक शक्तिशाली ऑफलाइन LLM और संदर्भ मेमोरी सिस्टम का परिचय Apple की एआई महत्वाकांक्षाओं के लिए एक परिभाषित क्षण है, तो चलिए देखते हैं कि उन्होंने इसे कैसे अंजाम दिया।

अंदर की बात: Apple का ऑन-डिवाइस LLM कैसे काम करता है

सीधे स्मार्टफोन पर एक बड़े भाषा मॉडल को चलाना एक कठिन कार्य है – ये मॉडल आमतौर पर विशाल, संसाधन-भूखें होते हैं और क्लाउड डेटा केंद्रों में चलते हैं। Apple ने इसे मॉडल संपीड़न, कस्टम सिलिकॉन, और चतुर इंजीनियरिंग के मिश्रण के माध्यम से संभाला है ताकि एआई की स्मार्टनेस को आपके हाथ में समाहित किया जा सके। यहाँ इसका विवरण है:

  • मॉडल डिस्टिलेशन और आकार – एप्पल का मुख्य ऑन-डिवाइस मॉडल लगभग 3 अरब पैरामीटर का है[15], जो GPT-4 जैसे बड़े मॉडल्स (सैकड़ों अरब पैरामीटर्स) की तुलना में बहुत छोटा है, फिर भी डिवाइस के लिए "बड़ा" माना जाता है। एप्पल ने इसे ज्ञान डिस्टिलेशन का उपयोग करके प्रशिक्षित किया, जहाँ एक बड़े "टीचर" मॉडल का ज्ञान इस छोटे "स्टूडेंट" मॉडल में स्थानांतरित होता है। वास्तव में, एप्पल के शोध नोट्स में एक मिश्रण-ऑफ-एक्सपर्ट्स (MoE) दृष्टिकोण का उपयोग करके एक उच्च गुणवत्ता वाला मॉडल प्रशिक्षित करने का वर्णन है: उन्होंने 3B मॉडल को एक दुर्लभ 64-एक्सपर्ट मॉडल में पुनः उपयोग किया ताकि एक टीचर के रूप में कार्य किया जा सके, एक विशाल घने मॉडल की आवश्यकता से बचा जा सके[16]। स्मार्ट टीचर-स्टूडेंट रणनीति (और सर्वर मॉडल के लिए 14 ट्रिलियन टोकन के प्रशिक्षण डेटा) का उपयोग करके एप्पल ने 3B पैरामीटर में आश्चर्यजनक क्षमता को संकुचित किया[16][17]अनुवाद: एप्पल ने छोटे दिमाग को बड़े दिमाग की तरह काम करना सिखाया, आकार को नाटकीय रूप से कम करते हुए इसे स्मार्ट बनाए रखा।
  • गति के लिए अनुकूलित आर्किटेक्चर – मॉडल को डिवाइस पर तेजी से चलाने के लिए, एप्पल ने इसे केवल छोटा नहीं किया – उन्होंने इसके कुछ हिस्सों को पुनः डिजाइन किया। उदाहरण के लिए, मॉडल को दो ब्लॉकों में विभाजित किया गया है ताकि मेमोरी (ट्रांसफार्मर की "की-वैल्यू कैश") को लेयर्स के बीच अधिक कुशलता से साझा किया जा सके[18]। इस संशोधन ने अकेले कैश मेमोरी उपयोग को ~37.5% कम कर दिया और प्रतिक्रिया के पहले टोकन को उत्पन्न करने के समय को तेज कर दिया[18]। उन्होंने एक नए इंटरलीव्ड अटेंशन तंत्र को भी कार्यान्वित किया (स्थानीय अटेंशन विंडोज को एक वैश्विक अटेंशन लेयर के साथ संयोजित करके) ताकि लंबे संदर्भ इनपुट को बेहतर तरीके से संभाला जा सके बिना धीमा हुए या बहुत अधिक RAM का उपयोग किए[19]। इसका मतलब है कि मॉडल में लंबी "मेमोरी" हो सकती है (बहुत लंबे प्रॉम्प्ट्स या दस्तावेजों का समर्थन करते हुए) – जो कि सीन मेमोरी फीचर का एक महत्वपूर्ण हिस्सा है – जबकि डिवाइस पर कुशलता से चलता है।
  • क्वांटाइजेशन और संपीड़न – शायद iPhone पर LLM को फिट करने की सबसे बड़ी कुंजी मॉडल वेट्स का आक्रामक क्वांटाइजेशन है। एप्पल ने क्वांटाइजेशन-अवेयर प्रशिक्षण के माध्यम से मॉडल के मुख्य पैरामीटर्स के लिए 2-बिट वेट क्वांटाइजेशन लागू किया[20], effectively compressing the model to a fraction of its original size. (2-बिट का मतलब है कि प्रत्येक वजन को केवल 4 संभावित मूल्यों के साथ संग्रहीत किया जाता है!) एम्बेडिंग लेयर्स 4-बिट में हैं, और यहां तक कि ध्यान कैश को 8-बिट मूल्यों में संपीड़ित किया जाता है[21]। उन्होंने फिर खोई हुई सटीकता को पुनः प्राप्त करने के लिए लो-रैंक एडॉप्टर्स के साथ फाइन-ट्यून किया[21]। अंतिम परिणाम एक ऑन-डिवाइस मॉडल है जो अत्यधिक कम मेमोरी का उपयोग करता है – तालिका 1 दिखाती है कि यह कितना आगे तक जाता है। एप्पल रिपोर्ट करता है कि संपीड़न के बाद केवल मामूली गुणवत्ता में अंतर होता है (कुछ बेंचमार्क में तो थोड़ी सुधार भी हुआ)[21]। यह अल्ट्रा-कॉम्पैक्ट मॉडल डिवाइस की मेमोरी में रह सकता है और जल्दी से निष्पादित हो सकता है, जो वास्तविक समय के उपयोग के लिए महत्वपूर्ण है।
  • एप्पल न्यूरल इंजन (ANE) – एप्पल का हार्डवेयर यहाँ उन्हें एक बड़ी बढ़त देता है। आधुनिक iPhones और iPads में 16 कोर्स के साथ एक समर्पित न्यूरल इंजन होता है। उदाहरण के लिए, A17 प्रो चिप का न्यूरल इंजन 35 ट्रिलियन ऑपरेशन्स प्रति सेकंड कर सकता है[22]। iOS 19 का फाउंडेशन मॉडल इस न्यूरल इंजन पर गणनाओं को ऑफलोड करने के लिए डिज़ाइन किया गया है, जो निम्न-सटीकता डेटा पर मैट्रिक्स गणित में उत्कृष्टता प्राप्त करता है (बिल्कुल वही जो एक क्वांटाइज्ड न्यूरल नेटवर्क की आवश्यकता होती है)। ANE का लाभ उठाकर, एप्पल सुनिश्चित करता है कि LLM उच्च थ्रूपुट और कम बिजली की खपत के साथ चलता है। 19.2 बीटा में प्रारंभिक परीक्षण में संकेत दिए गए कि एप्पल ने मॉडल के और भी अधिक काम को न्यूरल इंजन पर स्थानांतरित कर दिया, अंततः लेटेंसी को काफी हद तक घटा दिया (एक रिपोर्ट ने कुछ AI क्वेरीज़ पर न्यूरल इंजन ऑप्टिमाइज़ेशन के बाद 40% गति सुधार की सूचना दी)[23]। व्यावहारिक शब्दों में, इसका मतलब है कि जब आप सिरी से कुछ पूछते हैं, तो प्रतिक्रिया कुछ सेकंड के अंश में डिवाइस पर उत्पन्न हो सकती है, बिना सर्वर से संपर्क करने के देरी के।
  • मल्टीमॉडल इनपुट्स – ऑन-डिवाइस मॉडल केवल पाठ नहीं पढ़ रहा है; इसे छवियों को इनपुट के रूप में संभालने के लिए भी प्रशिक्षित किया गया था। एप्पल ने मॉडल में एक दृष्टि एन्कोडर (एक अनुकूलित विज़न ट्रांसफार्मर) जोड़ा, ताकि यह दृश्य डेटा को व्याख्या कर सके और इसे भाषा के साथ संरेखित कर सके[24]। उदाहरण के लिए, यदि आप iOS विज़ुअल लुक अप फीचर का उपयोग करते हैं या सिरी से “यह क्या है?” पूछते हैं और अपने कैमरे से किसी वस्तु का संकेत देते हैं, तो मॉडल स्वयं छवि विशेषताओं को संसाधित कर सकता है और उत्तर उत्पन्न कर सकता है। यह दृष्टि+भाषा क्षमता भी है कि कैसे सीन मेमोरी दृश्य संदर्भ तक बढ़ती है – जैसे कि आप सिरी के साथ एक स्क्रीनशॉट साझा करते हैं और इसके बारे में चैट करना जारी रखते हैं। मॉडल को मल्टीमॉडल प्रशिक्षित करना (6 बिलियन छवि-पाठ युग्मों पर एक CLIP-शैली के उद्देश्य के माध्यम से[25]) एप्पल की AI को स्वाभाविक रूप से समझने की अनुमति देता है कि आपकी स्क्रीन पर क्या है या आपकी तस्वीरों में बिना किसी अलग क्लाउड विज़न API की आवश्यकता के। भारी कार्य – एक छवि से अर्थ निकालने का – डिवाइस पर होता है।

तालिका 1. एप्पल के फाउंडेशन मॉडल्स के लिए संपीड़न तकनीकें (डिवाइस पर बनाम सर्वर पर)[20][21]

मॉडल वेरिएंट
वजन सटीकता (डिकोडर)
एम्बेडिंग सटीकता
केवी कैश सटीकता
फाइन-ट्यून अनुकूलन
ऑन-डिवाइस 3B
2 बिट्स (QAT ऑप्टिमाइज़्ड)
4 बिट्स (QAT)
8 बिट्स
हां (एडाप्टर का उपयोग किया गया)
सर्वर MoE (बड़ा)
~3.56 बिट्स (ASTC संपीड़न)[20]
4 बिट्स (पोस्ट-ट्रेनिंग)
8 बिट्स
हां (एडाप्टर का उपयोग किया गया)

Apple अपने ऑन-डिवाइस मॉडल को काफी हद तक (2-बिट वज़न तक) संपीड़ित करता है ताकि iPhones और iPads पर इसे प्रभावी ढंग से चलाया जा सके, जबकि क्लाउड मॉडल अपने बड़े पैमाने के कारण एक अलग संपीड़न (ASTC) का उपयोग करता है। दोनों मॉडल फिर गुणवत्ता बनाए रखने के लिए फाइन-ट्यून किए गए एडेप्टर लागू करते हैं।[20][21]

सार रूप में, Apple का ऑन-डिवाइस LLM एक संक्षिप्त, अनुकूलित मस्तिष्क है जो Apple की चिप क्षमताओं का अधिकतम उपयोग करता है। यह कच्चे ज्ञान में 100B-पैरामीटर क्लाउड मॉडल की बराबरी नहीं कर सकता, लेकिन Apple ने इसे सामान्य उपयोगकर्ता कार्यों को गति और सटीकता के साथ संभालने के लिए विशेष रूप से तैयार किया है। आंतरिक मूल्यांकनों ने दिखाया कि 3B मॉडल ने कई कार्यों पर प्रतिस्पर्धियों के कुछ बड़े 4B पैरामीटर मॉडलों के खिलाफ भी अपनी जगह बनाई[17]। Apple विशेष रूप से कहता है कि यह स्थानीय मॉडल पाठ सारांश, समझ, पुनःप्रस्तुति, और छोटे संवादों जैसी चीजों में उत्कृष्टता प्राप्त करता है, हालांकि यह "सामान्य विश्व ज्ञान के लिए चैटबॉट बनने के लिए डिज़ाइन नहीं किया गया है।"[26]। दूसरे शब्दों में, यह हर अस्पष्ट ट्रिविया तथ्य नहीं जान सकता (उनके लिए, सिरी अभी भी एक ऑनलाइन खोज का उपयोग कर सकती है या जरूरत पड़ने पर एक बड़ा क्लाउड मॉडल उपयोग कर सकती है[27][28]), लेकिन आपके दैनिक सामग्री में मदद करने के लिए – ईमेल लिखना, दस्तावेजों का पाचन करना, वार्तालापों का अनुवाद करना – यह अत्यधिक ट्यून किया गया है। और महत्वपूर्ण बात यह है कि यह पूरी तरह से किनारे पर चलता है, अगले खंड के लिए मंच तैयार करता है: किनारे पर अनुमान के लाभ और कैसे "दृश्य स्मृति" इसमें भूमिका निभाती है।

「सीन मेमोरी」 – सिरी की नई संदर्भ सुपरपावर

iOS 19.2 में सबसे उल्लेखनीय सुधारों में से एक यह है कि अब सिरी (और अन्य बुद्धिमान विशेषताएँ) संदर्भ को कैसे संभालते हैं। वो दिन गए जब सिरी आपकी दो सेकंड पहले पूछी गई बात को भूल जाती थी – Apple ने इसे एक तरह की अल्पकालिक मेमोरी या 「सीन」 जागरूकता दी है। तो सीन मेमोरी वास्तव में क्या है? यह व्यक्तिगत संदर्भ, ऑन-स्क्रीन संदर्भ, और निरंतर वार्तालाप मेमोरी का संयोजन है जो Apple की AI को उपयोगकर्ता के अनुरोध के आस-पास की व्यापक स्थिति को समझने में मदद करता है।

  • संवादात्मक निरंतरता: अब सिरी संवाद में एक अनुरोध से अगले अनुरोध का संदर्भ रख सकती है[6]। इसका मतलब है कि आप पूछ सकते हैं, “एफिल टॉवर की ऊंचाई कितनी है?” और फिर पूछ सकते हैं “क्या मैं इसे मॉनमार्ट से देख सकता हूँ?” – सिरी समझ जाती है कि “इसे” एफिल टॉवर के संदर्भ में कहा गया है क्योंकि पिछला प्रश्न अभी भी संदर्भ में है। यह पुराने सिरी से एक बड़ा उन्नयन है, जो प्रत्येक प्रश्न को अलगाव में देखता था। अब बैक-एंड बातचीत और फॉलो-अप प्रश्न संभव हैं, जिससे सिरी अधिक स्वाभाविक और बातचीतपूर्ण लगती है (एलेक्सा या गूगल असिस्टेंट के निरंतर बातचीत मोड के करीब, और वास्तव में ChatGPT-जैसा व्यवहार)। ऑन-डिवाइस LLM की ट्रांसफार्मर आर्किटेक्चर इस प्रकार के प्रॉम्प्ट चेनिंग में स्वाभाविक रूप से अच्छी है, और एप्पल की कार्यान्वयन हाल ही में हुई बातचीत के इतिहास को स्थानीय रूप से संग्रहीत करता है ताकि सिरी वापस देख सके। बेशक, यह संदर्भ स्मृति अस्थायी और निजी है – इसे अपलोड नहीं किया जाता, बस सत्र के लिए रैम में रखा जाता है।
  • व्यक्तिगत संदर्भ जागरूकता: iOS 19.2 सिरी को आपके डिवाइस के डेटा के बारे में गहरी जागरूकता (आपकी अनुमति के साथ) भी देता है। एप्पल इसे “आपके व्यक्तिगत संदर्भ – जैसे आपके ईमेल, संदेश, फाइलें, फोटो और अधिक – को सीखने में मदद” के रूप में वर्णित करता है[8]। उदाहरण के लिए, आप पूछ सकते हैं, “सिरी, कल मेरी उड़ान किस समय है?” और सिरी आपके मेल ऐप में बोर्डिंग पास या कैलेंडर में इवेंट्स में देख सकती है ताकि जवाब ढूंढ सके, बजाय इसके कि “मुझे नहीं पता” कहे जैसा कि पहले होता था। यह मूलतः आपके बारे में एक स्थानीय नॉलेज ग्राफ बना रहा है। एक अन्य स्थिति: आप उल्लेख करते हैं “वह पीडीएफ जिसे मैं कल देख रहा था” – सिरी की व्यक्तिगत संदर्भ स्मृति आपके हाल की गतिविधि के आधार पर पहचान सकती है कि आप किस फाइल की बात कर रहे हैं और उसे खोल सकती है। आपके सामग्री की इस डिवाइस-स्थानीय अनुक्रमण का संभावना एक लंबे समय से चल रहा लक्ष्य था; एप्पल ने वर्षों से स्पॉटलाइट खोज और सिरी सुझाव दिए थे, लेकिन अब LLM उस खजाने में एक बातचीतपूर्ण तरीके में टैप कर सकता है। यह सब डिवाइस पर ही रहता है (कुछ भी एप्पल के सर्वरों को नहीं भेजा जाता) इसलिए यह एप्पल की गोपनीयता प्रतिज्ञा को बनाए रखता है जबकि सिरी को उल्लेखनीय रूप से अधिक उपयोगी और व्यक्तिगत बनाता है।
  • ऑन-स्क्रीन (दृश्य) जागरूकता: संभवतः दृश्य स्मृति का सबसे तुरंत सहायक पहलू सिरी की यह क्षमता है कि वह समझ सके कि आप वर्तमान में फोन पर क्या देख रहे हैं या कर रहे हैं – सक्रिय दृश्य। एप्पल इसे ऑनस्क्रीन जागरूकता कहता है, और यह सिरी को “किसी भी चीज़ के साथ कार्रवाई करने की अनुमति देता है जिसे आप देख रहे हैं”[29]। व्यवहार में, इसका मतलब यह हो सकता है: यदि आपके पास सफारी में एक रेसिपी खुली है, तो आप कह सकते हैं “सिरी, इसे मेरे नोट्स में सहेज लो” और सिरी समझ जाती है “इसे” से आपका मतलब वह वेबपेज है जो आपने खोला है, और उसे स्वचालित रूप से क्लिप कर देती है। या यदि आप एक इवेंट के बारे में एक टेक्स्ट थ्रेड देख रहे हैं, तो आप कह सकते हैं “मुझे बाद में इसके बारे में याद दिलाना” और सिरी उस बातचीत के लिंक के साथ एक रिमाइंडर बना देती है। इससे पहले, ऐसे कमांड सिरी को उलझन में डाल देते थे। पर्दे के पीछे, एप्पल की सिस्टम इंटेलिजेंस एपीआई जैसे कि फ्रंटमोस्ट ऐप, या चयनित टेक्स्ट, या वेबपेज की सामग्री को LLM प्रॉम्प्ट में संदर्भ के रूप में फीड कर सकती है। iOS 19 ने “वर्तमान स्क्रीन के साथ जारी रखें” के लिए इंटेंट्स भी जोड़े ताकि ऐप्स सुरक्षित रूप से स्क्रीन पर क्या है, उसे सिरी को एक्सपोज़ कर सकें। परिणामस्वरूप एक आवाज सहायक है जो स्थितिजन्य रूप से जागरूक है – लगभग जैसे कि वह आपकी स्क्रीन पर आपके कंधे के ऊपर देख रही है (एक सहायक तरीके से!)। यह दृश्य जागरूकता एक लंबे समय से अनुरोधित विशेषता थी (अन्य प्लेटफार्मों ने आंशिक कार्यान्वयन किया था), और अब LLM और सिस्टम इंटीग्रेशन के संयोजन के साथ, सिरी अंततः “इसे पीडीएफ में बदलें” या “इसे ऐलिस के साथ साझा करें” जैसे कमांड को समझ सकती है बिना दर्जनों फॉलो-अप प्रश्न पूछे।

परदे के पीछे, सीन मेमोरी को सक्षम करना सॉफ़्टवेयर की चुनौती थी जितनी की AI की। Apple को LLM को Siri के पारंपरिक इंटेंट एक्ज़ेक्यूटर और ज्ञान आधार के साथ एकीकृत करना पड़ा। रिपोर्टों के अनुसार, Apple के पास Siri के लिए एक नया “क्वेरी प्लानर” प्रणाली है जो यह तय करता है कि किसी अनुरोध को कैसे पूरा किया जाए - चाहे वह वेब खोज द्वारा हो, डिवाइस पर डेटा का उपयोग करके हो, या Siri शॉर्टकट्स/ऐप इंटेंट्स के माध्यम से किसी ऐप को सक्रिय करके हो[30]। LLM जटिल या अस्पष्ट क्वेरीज़ को समझने और संवादात्मक स्थिति बनाए रखने में मदद करता है, जबकि Siri की पुरानी प्रणाली कमांड निष्पादन (ऐप खोलना, संदेश भेजना, आदि) को संभालती है। Apple एक “सारांशकर्ता” मॉड्यूल का भी उपयोग कर रहा है जो लंबे कंटेंट को संक्षेप में करता है - उदाहरण के लिए, Siri से पूछना “आज ईमेल्स में मैंने क्या मिस किया?” आपके नवीनतम ईमेल्स को संक्षेप में प्रस्तुत करने के लिए ऑन-डिवाइस मॉडल को सक्रिय कर सकता है[31]। ये सभी टुकड़े मिलकर Siri को और अधिक प्रोएक्टिव बनाते हैं। वास्तव में, Apple ने स्पष्ट रूप से कहा है कि लक्ष्य Siri के लिए है कि वह आपके ऐप्स के भीतर और उनके पार कार्यवाही करे, इस व्यक्तिगत संदर्भ मेमोरी का लाभ उठाते हुए[32]। हम मूल रूप से Siri को एक कठोर वॉयस कमांड सिस्टम से एक लचीले व्यक्तिगत सहायक में धीमी गति से बदलते हुए देख रहे हैं, जो वास्तव में संदर्भ को याद रखता है और इसके बारे में सोच सकता है।

यह ध्यान देने योग्य है कि इन फीचर्स में कई बार देरी हुई थी - ऐप्पल ने मूल रूप से इन्हें iOS 18 के लिए योजना बनाई थी, फिर 19 के लिए धकेल दिया, और तब भी वे सभी .0 रिलीज में नहीं थे। अब iOS 19.2 में, ऐसा लगता है कि पर्सनल कॉन्टेक्स्ट, ऑन-स्क्रीन अवेयरनेस, और डीप ऐप इंटीग्रेशन आखिरकार साकार हो रहे हैं। उपभोक्ता में भारी उत्साह है क्योंकि लोग अचानक देख रहे हैं कि सिरी वह कर रही है जो वह पहले नहीं कर सकती थी। सहायक अधिक जीवंत महसूस होती है। प्रारंभिक उपयोगकर्ता रिपोर्टों में उल्लेख है कि सिरी कार्यों को जोड़ सकती है (जैसे, "इन फोटो को मेरी माँ को ईमेल करो" जब एक एलबम देख रहे हों - एक उपयोगकर्ता ने कहा कि सिरी ने इसे एक बार में किया, पहचानते हुए कि "इन फोटो" का मतलब खुला हुआ एलबम था)। यह ठीक वही वादा है जो सीन मेमोरी का है: कम क्लंकी कमांड, अधिक तरल समझ। यह iPhone उपयोगकर्ताओं को उस तरह के AI हेल्पर अनुभव के करीब लाता है जो अब तक अक्सर ChatGPT जैसी क्लाउड सेवाओं की आवश्यकता होती थी। और फिर, ऐप्पल का अंतर इसे ऑफलाइन करना है। आपका डिवाइस आपके स्क्रीन कंटेंट को विश्लेषण के लिए क्लाउड पर स्ट्रीम नहीं कर रहा है; LLM स्थानीय रूप से संदर्भ की व्याख्या कर रहा है। प्राइवेसी को डिज़ाइन द्वारा संरक्षित किया गया है, इसलिए आप इन व्यक्तिगत फीचर्स पर भरोसा कर सकते हैं बिना बिग ब्रदर द्वारा देखे जाने की अजीब भावना के।

सीन मेमोरी का सारांश: यह Apple के परिष्कृत AI मस्तिष्क का प्रभावी संयोजन है जो समृद्ध, स्थानीय संदर्भ डेटा के साथ है। इस संयोजन से कहीं अधिक शक्तिशाली इंटरैक्शन खुलते हैं। सिरी आखिरकार सीख रही है कि “आप किसके बारे में बात कर रहे हैं” और उपयोगी तरीके से प्रतिक्रिया कर सकती है। एक तकनीकी जानकारी रखने वाले उपयोगकर्ता के लिए, इसका मतलब है कि चीजों को मैन्युअल रूप से स्पष्ट करने या ऐप्स के बीच कॉपी-पेस्ट करने में कम समय लगाना - सहायक इसे समझ लेता है। यह अभी भी प्रारंभिक है (सिरी परफेक्ट नहीं है और कभी-कभी संदर्भ को गलत समझती है या स्पष्टता के लिए पूछना पड़ता है), लेकिन यह एक महत्वपूर्ण सुधार है। Apple अगले iOS में और भी बड़े AI की योजना बना रहा है (2026 में iOS 20 द्वारा अफवाहित पूर्ण GPT-जैसी सिरी[38]), सीन मेमोरी 19.2 में उस दिशा में एक बुनियादी कदम है।

एज इनफेरेंस: ऑन-डिवाइस AI क्यों महत्वपूर्ण है

Apple Intelligence 2.0 में एक मुख्य विषय है एज इन्फरेंस - यानी उपयोगकर्ता के डिवाइस (नेटवर्क के "एज") पर AI चलाना, बजाय इसके कि इसे केंद्रीकृत क्लाउड में चलाया जाए। हमने तकनीकी साधनों को छुआ है, लेकिन चलिए स्पष्ट करते हैं यह क्यों महत्वपूर्ण है:

  • गोपनीयता और सुरक्षा: डिवाइस पर LLM रखने का मतलब है कि आपका डेटा प्रोसेसिंग के लिए आपके फोन से बाहर नहीं जाता। जैसा कि Apple कहता है, व्यक्तिगत बातचीत और सामग्री व्यक्तिगत रहती है[39]। Writing Tools के साथ एक ईमेल ड्राफ्ट करें या Siri से अपने शेड्यूल के बारे में पूछें – इनमें से कुछ भी अपलोड करने की आवश्यकता नहीं है। यह क्लाउड असिस्टेंट्स के विपरीत है जो आपकी आवाज और संदर्भ को सर्वरों पर भेजते हैं। यहां तक कि जब Apple का Siri क्लाउड मदद का उपयोग करता है (जैसे कुछ प्रश्नों के लिए ChatGPT इंटीग्रेशन), वे इसे Private Cloud Compute के माध्यम से रूट करते हैं – एक प्रणाली जहां आपका डेटा एन्क्रिप्टेड होता है और तीसरे पक्ष द्वारा बरकरार नहीं रखा जाता है[40][27]। लेकिन 19.2 में अधिकतर कार्यों के लिए, डिवाइस इसे स्थानीय रूप से संभाल सकता है। यह E2E एन्क्रिप्शन और गोपनीयता के समर्थनकर्ताओं को संतुष्ट करता है, Apple के ब्रांड सिद्धांतों के अनुरूप। सुरक्षा के दृष्टिकोण से, डिवाइस पर इनफेरेंस का मतलब है नेटवर्क हमलों या लीक का कम जोखिम; आपकी AI अनुरोध इंटरनेट पर नहीं जा रहे हैं जहाँ उन्हें इंटरसेप्ट किया जा सकता है।
  • ऑफलाइन उपलब्धता: एज AI बिना इंटरनेट के काम करता है। यह जीवन रक्षक हो सकता है – कल्पना करें आप यात्रा कर रहे हैं और आपके पास डेटा नहीं है और आपको भाषा अनुवाद की आवश्यकता है, या आप एक दूरस्थ क्षेत्र में हैं और Siri के माध्यम से Notes से कुछ जानकारी प्राप्त करना चाहते हैं। iOS 19 के ऑफलाइन LLM के साथ, कई फीचर्स काम करते रहते हैं। उदाहरण के लिए, लाइव ट्रांसलेशन, Messages या बोले गए कॉल्स में टेक्स्ट का अनुवाद करेगा भले ही आपके पास सिग्नल न हो[14], क्योंकि अनुवाद मॉडल डिवाइस पर है। Apple का डिज़ाइन कोर इंटेलिजेंस फीचर्स के लिए “ऑफलाइन-प्रथम” है। वे यहां तक कि अक्सर उपयोग की जाने वाली AI प्रक्रियाओं और हालिया संदर्भ को डिवाइस पर कैश करते हैं ताकि ऑफलाइन होने पर न्यूनतम बाधा हो[41][42]। यह मजबूती अधिक समावेशी है – हर किसी के पास लगातार उच्च गति इंटरनेट नहीं होता है, और विकसित क्षेत्रों में भी हम डेड ज़ोन हिट करते हैं। एक व्यक्तिगत AI जो ऑफलाइन होने पर कट जाता है, वह बहुत अधिक “व्यक्तिगत” नहीं है। Apple ने इसे पहचाना, और Macaron (व्यक्तिगत AI एजेंट जिसका हम जल्द ही चर्चा करेंगे) भी उसी सिद्धांत को अपनाता है: आपका AI हर समय, हर जगह आपके लिए उपलब्ध होना चाहिए[43]
  • कम विलंबता और वास्तविक समय की बातचीत: जब इंफेरेंस डिवाइस पर होता है, तो सर्वर तक आने-जाने की देरी गायब हो जाती है। कार्य तेजी से महसूस होते हैं। उदाहरण के लिए, Safari या Mail में Summarize लगभग तुरंत एक सारांश उत्पन्न कर सकता है, जबकि एक क्लाउड API को कुछ सेकंड लग सकते हैं प्लस नेटवर्क विलंबता। Apple का Neural Engine त्वरण आगे सुनिश्चित करता है कि प्रतिक्रियाएँ लगभग वास्तविक समय में आएं। एक बात यह है कि Apple ने कुछ Siri प्रश्नों के लिए प्रतिक्रिया समय को कम कर दिया है, Neural Engine में काम ऑफलोड करके 19.2 में[23]। उपयोगकर्ता अनुभव की दृष्टि से, यह कम विलंबता AI को अधिक प्रतिक्रियाशील और इंटरैक्टिव महसूस कराती है, जो लोगों को इसे अधिक उपयोग करने के लिए प्रोत्साहित करती है। आप Siri से लगभग उतनी ही तेजी से बात कर सकते हैं जितना कि कमरे में किसी व्यक्ति से। इसी तरह, कीबोर्ड का भविष्यवाणी पाठ (अब LLM द्वारा संवर्धित) न्यूनतम अंतराल के साथ कार्य कर सकता है, यहां तक कि संपूर्ण वाक्य सुझाव ऑन-द-फ्लाई उत्पन्न कर सकता है क्योंकि यह स्थानीय रूप से गणना की जाती है। यह भी ध्यान देने योग्य है कि डिवाइस पर इंफेरेंस करके, Apple सर्वर लागतों और दर-सीमाओं को बायपास करता है जो कभी-कभी क्लाउड AI सेवाओं को थ्रॉटल करती हैं – कोई व्यस्त सर्वर कतार नहीं है, आपके फोन का पूरा ध्यान आप पर है।
  • लागत और स्थिरता: लाखों उपयोगकर्ताओं के लिए क्लाउड में बड़े AI मॉडल चलाना अत्यधिक महंगा हो सकता है (GPU सर्वर लागत के संदर्भ में) और ऊर्जा गहन। एज उपकरणों पर इंफेरेंस को पुश करके, Apple कंप्यूटेशन को हार्डवेयर पर स्थानांतरित करता है जो पहले से ही उपयोगकर्ताओं के हाथों में है (और दक्षता के लिए विशेष रूप से निर्मित)। Apple ने यहां तक ​​हाइलाइट किया कि डिवाइस पर मॉडल का उपयोग करने वाले डेवलपर्स को कोई उपयोग शुल्क नहीं लगता[3] – एक बड़ा प्रोत्साहन एक बाहरी AI सेवा के लिए प्रति API कॉल का भुगतान करने की तुलना में। स्थिरता के दृष्टिकोण से, AI को विकेंद्रीकृत करने से डेटा केंद्रों पर लोड कम हो सकता है (जो बहुत सारी शक्ति का उपभोग करते हैं)। प्रत्येक iPhone थोड़ा AI कार्य कर रहा है, सामूहिक रूप से सैकड़ों हजारों अनुरोधों को केंद्रीय सर्वर फार्म तक पहुंचने की तुलना में अधिक ऊर्जा-कुशल हो सकता है (विशेषकर जब से Apple का Neural Engine उच्च प्रदर्शन-प्रति-वॉट के लिए अनुकूलित है)। लंबे समय में, व्यापक एज AI कुछ क्लाउड कंप्यूटिंग बाधाओं और लागतों को कम कर सकता है।

यह सब कहने के बाद, Apple का दृष्टिकोण भी अपने साथ कुछ समझौते लाता है। डिवाइस पर मॉडल, जो छोटा होता है, कुछ जैसे GPT-4 जितना सामान्य ज्ञान नहीं रखता। Apple यह स्वीकार करता है कि इसे हर प्रश्न के लिए व्यापक चैटबॉट के रूप में प्रतिस्थापित करने के लिए नहीं बनाया गया है। यही कारण है कि Apple भविष्य में Siri की दुनिया की समझ को बढ़ाने के लिए अत्यधिक बड़े मॉडल (यहां तक कि Google के 1.2 ट्रिलियन-पैरामीटर Gemini के माध्यम से एक सौदा) का उपयोग करने की योजना बना रहा है। लेकिन iOS 19.2 के साथ उन्होंने जो दिखाया है वह यह है कि व्यक्तिगत सहायक कार्यों के बड़े वर्ग के लिए, एक अच्छी तरह से डिज़ाइन किया गया 3B मॉडल पर्याप्त है - और इसे स्थानीय रूप से चलाने के लाभ बहुत बड़े हैं। यह एक रणनीतिक दांव है: व्यक्तिगत और संदर्भित कार्यों को डिवाइस पर संभालना, और केवल भारी-भरकम चीजों के लिए क्लाउड को आरक्षित करना (Private Compute जैसे गोपनीयता आवरणों के साथ)। यह हाइब्रिड एज-क्लाउड मॉडल सामान्य बन सकता है।

इस रणनीति को क्रियान्वित होते देखने के लिए, आइए Macaron पर विचार करें, एक व्यक्तिगत AI एजेंट जो उपयोगकर्ता-विशिष्ट कार्यों और ऑफलाइन क्षमता पर ध्यान केंद्रित करता है। Apple की ऑन-डिवाइस AI में प्रगति वास्तव में Macaron जैसे उपकरणों के काम को पूरा करती है।

Macaron मिनी-ऐप्स और कम-विलंबता व्यक्तिगत एजेंट का भविष्य

Macaron एक व्यक्तिगत AI सहायक मंच है जो उपयोगकर्ताओं को बातचीत के माध्यम से “मिनी-ऐप्स” बनाने की अनुमति देता है – मूल रूप से आपके दैनिक आवश्यकताओं के लिए कस्टम AI-संचालित वर्कफ़्लोज़। यदि iOS की अंतर्निहित बुद्धिमत्ता सभी उपयोगकर्ताओं के लिए Apple का व्यापक समाधान है, तो Macaron एक अधिक व्यक्तिगत, उपयोगकर्ता-चालित दृष्टिकोण अपनाता है: आप इसे बताते हैं कि आपको क्या चाहिए, यह तुरंत एक समाधान बनाता है। अब, Apple की ऑफलाइन LLM और सीन मेमोरी इसमें कैसे फिट होती है? एक शब्द में: पूरी तरह से

Macaron की विचारधारा ऑफलाइन-प्रथम, कम-विलंबता, और उपयोगकर्ता-केंद्रित डिज़ाइन पर जोर देती है। Macaron की टीम के अनुसार, एक सच्चा व्यक्तिगत AI कभी भी, कहीं भी, यहाँ तक कि खराब कनेक्टिविटी के साथ भी काम करना चाहिए, और उपयोगकर्ता के अनुसार अनुकूलित होना चाहिए[43][42]। यही Apple की ऑन-डिवाइस AI अपग्रेड्स की ताकत है। iOS 19.2 के फाउंडेशन मॉडल के साथ, Macaron संभावित रूप से Apple की ऑन-डिवाइस इंटेलिजेंस का लाभ उठा सकता है बजाय इसके कि हमेशा क्लाउड API को कॉल करे। उदाहरण के लिए:

  • त्वरित मिनी-ऐप निर्माण: मैकरॉन उपयोगकर्ताओं को यह कहने की सुविधा देता है जैसे “मुझे एक मील प्लानर ऐप बनाने में मदद करें”, और यह उस उद्देश्य के लिए एक मिनी-ऐप बनाने के लिए जेनरेटिव एआई का उपयोग करता है[45][46]। यदि यह जेनरेटिव चरण डिवाइस पर चल सकता है (एप्पल के मॉडल का उपयोग करके नए फाउंडेशन मॉडल्स SDK के माध्यम से), तो निर्माण वास्तविक समय में होता है बिना सर्वर विलंब के। उपयोगकर्ता कुछ ही सेकंड में एक कामकाजी मिनी-ऐप प्राप्त कर सकता है। इसका मतलब यह भी है कि आप जो निर्देश देते हैं (जो व्यक्तिगत प्राथमिकताएँ या डेटा शामिल कर सकते हैं) निर्माण के दौरान आपके डिवाइस पर ही रहते हैं[3]
  • मिनी-ऐप्स में संदर्भात्मक समझ: मैकरॉन के मिनी-ऐप्स अक्सर व्यक्तिगत डेटा शामिल करते हैं – जैसे कि एक आदत ट्रैकर या एक व्यक्तिगत वित्त विश्लेषक – और उन्हें संदर्भ जागरूकता से लाभ होता है। अब दृश्य स्मृति क्षमताओं के उपलब्ध होने के साथ, मैकरॉन सिस्टम इंटेलिजेंस से ऑन-स्क्रीन संदर्भ या व्यक्तिगत संदर्भ को अपने मिनी-ऐप वर्कफ़्लो में शामिल कर सकता है। उदाहरण के लिए, यदि आपके पास ईमेल प्रबंधन के लिए एक मैकरॉन मिनी-ऐप है, तो यह सिरी की नई क्षमता का उपयोग करके ईमेल को संक्षेप में प्रस्तुत कर सकता है या महत्वपूर्ण ईमेल की पहचान कर सकता है (एक विशेषता जो एप्पल ने iOS 19 की इंटेलिजेंस सुइट में पेश की है)[47][48]। मूल रूप से, मैकरॉन एप्पल के ओएस-स्तरीय एआई सेवाओं के सौजन्य से एक स्मार्ट कैनवास प्राप्त करता है।
  • कम-विलंबता एजेंट UX: मैकरॉन की विशेषताओं में से एक है एक सहज, वार्तालाप-केंद्रित उपयोगकर्ता अनुभव – एआई एजेंट आपके साथी की तरह सहयोग करता है। एप्पल का एज एआई सुनिश्चित करता है कि प्रतिक्रियाएं और क्रियाएं न्यूनतम विलंबता के साथ होती हैं, जो एक प्राकृतिक प्रवाह बनाए रखने के लिए महत्वपूर्ण है। अब मैकरॉन मिनी-ऐप्स डिवाइस पर भाषा अनुवाद, छवि पहचान, या पाठ विश्लेषण जैसे कार्य तुरंत कर सकते हैं, जबकि पहले उन्हें क्लाउड एपीआई को कॉल करना पड़ता था और प्रतीक्षा करनी पड़ती थी। एक मैकरॉन प्लेबुक जो, मान लीजिए, आपको एक कुकिंग रेसिपी के माध्यम से मार्गदर्शन करती है, वह वास्तविक समय में सामग्री को पहचानने के लिए ऑन-डिवाइस विज़न का उपयोग कर सकती है, या इंटरनेट खोज के बिना “मक्खन के लिए क्या विकल्प हो सकता है?” का उत्तर देने के लिए LLM का उपयोग कर सकती है। यह एक अधिक डूबने वाला और विश्वसनीय सहायक अनुभव बनाता है।
  • व्यक्तिगत एआई के लिए उन्नत गोपनीयता: मैकरॉन, एक व्यक्तिगत एजेंट होने के नाते, अंतरंग उपयोगकर्ता जानकारी (अनुसूचियां, नोट्स, स्वास्थ्य डेटा, आदि) से संबंधित होता है। एप्पल के ऑन-डिवाइस प्रोसेसिंग के साथ संगत होने से, मैकरॉन उपयोगकर्ताओं को आश्वस्त कर सकता है कि उनकी जानकारी एआई संचालन के दौरान डिवाइस नहीं छोड़ रही है। वास्तव में, मैकरॉन के पास कम-बैंडविड्थ या ऑफ़लाइन उपयोग के लिए विशेष मोड हैं, जो महत्वपूर्ण डेटा को स्थानीय रूप से कैश करते हैं और जरूरत पड़ने पर छोटे फॉलबैक मॉडल का उपयोग भी करते हैं[49][42]। एप्पल का 19.2 LLM उस ऑफ़लाइन मॉडल के रूप में कार्य कर सकता है – एक सक्षम फॉलबैक जो बुनियादी अनुरोधों को कवर करता है जब पूरी क्लाउड एआई तक पहुंच नहीं होती है[42]। यहां का तालमेल यह है कि एप्पल और मैकरॉन दोनों “आपके डिवाइस पर आपके लिए काम करने वाली एआई” पर अभिसरण कर रहे हैं, जो उपयोगकर्ता के विश्वास और स्वायत्तता को बढ़ाता है।
  • वर्कफ़्लो में संदर्भ का स्थानांतरण: मैकरॉन के मिनी-ऐप्स अक्सर बहु-चरण प्रक्रियाएं होती हैं (मैकरॉन उन्हें प्लेबुक्स या माइक्रो-फ्लोज़ कहता है[50])। दृश्य स्मृति अवधारणा उन चरणों के बीच स्थिति बनाए रखने में मदद कर सकती है। मान लीजिए आपके पास एक यात्रा योजना मिनी-ऐप है: चरण 1 उड़ानों को ढूंढता है, चरण 2 होटल, चरण 3 एक यात्रा कार्यक्रम बनाता है। संदर्भ स्मृति के साथ, एआई एक चरण से दूसरे चरण में जानकारी ले जा सकता है बिना सब कुछ दोबारा पूछे। मैकरॉन पहले से ही तार्किक खंडों में प्रवाह को संरचित करता है जिससे संज्ञानात्मक भार कम होता है[51] – अब एआई बैकएंड बेहतर तरीके से ट्रैक कर सकता है कि क्या किया गया है और क्या अगला है, यहां तक कि फॉलो-अप बदलाव जैसे “वास्तव में, इसे एक दिन बाद करें” को वर्तमान योजना की समझ के साथ संभाल सकता है।

कुल मिलाकर, Apple का एज AI अपग्रेड उन प्लेटफार्म्स को सुपरचार्ज करता है जैसे कि Macaron जो iOS के ऊपर मौजूद हैं। हम एक ऐसे इकोसिस्टम की ओर बढ़ रहे हैं जहाँ व्यक्तिगत AI एजेंट क्लाउड में अलग-थलग नहीं होते, बल्कि हमारे व्यक्तिगत डिवाइस पर रहते हैं, सिस्टम इंटेलिजेंस के साथ समरसता में काम करते हुए। Macaron का आपकी उंगलियों के टिप्स पर मिनी-एप्स का विजन एक बढ़ावा पाता है क्योंकि अंतर्निहित OS AI कार्यों को अधिक सुगमता से निष्पादित कर सकता है। यह बात बताती है कि Macaron के डिज़ाइन सिद्धांत (जैसे कि अनुकूली सामग्री, गहरी व्यक्तिगतकरण, मजबूत ऑफलाइन मोड[52][43]) iOS 19.2 में Apple द्वारा दिए गए चीज़ों के साथ कितनी अच्छी तरह मेल खाते हैं। जो कम-विलंबता, संदर्भ-सचेत एजेंट UX कभी भविष्यवादी लगता था, वह तेजी से वास्तविकता बन रहा है।

निष्कर्ष: व्यक्तिगत, ऑन-डिवाइस AI का नया युग

Apple का iOS 19.2 उपभोक्ता AI के विकास में एक महत्वपूर्ण क्षण का प्रतीक है – एक जहां शक्ति स्पष्ट रूप से किनारे की ओर स्थानांतरित होती है। एक स्थानीय रूप से चलने वाले LLM को तैनात करके और संदर्भ के लिए “Scene Memory” का परिचय देकर, Apple ने आपके iPhone की क्षमताओं को बदल दिया है। यह सिर्फ Siri को कम बेवकूफ बनाने के बारे में नहीं है (हालांकि यह एक स्वागत योग्य परिणाम है); यह AI फीचर्स में गोपनीयता और प्रतिक्रिया के मामले में उपयोगकर्ता की अपेक्षाओं को पुनर्परिभाषित करने के बारे में है। अब आप अपने फोन के साथ एक अर्ध-संवाद कर सकते हैं, अपने कंटेंट के लिए त्वरित AI सहायता प्राप्त कर सकते हैं, और इस पर विश्वास कर सकते हैं कि आपका डेटा किसी दूरस्थ सर्वर फार्म में गुप्त रूप से नहीं भेजा जा रहा है[39][36]। डेटा गोपनीयता पर बढ़ती चिंता के युग में, Apple का ऑफ़लाइन-प्रथम दृष्टिकोण "क्या हमारे पास उन्नत AI और गोपनीयता हो सकती है?" के लिए एक आकर्षक उत्तर प्रदान करता है – जाहिर है, हां, हम कर सकते हैं।

तकनीकी रूप से, Apple Intelligence 2.0 मॉडल संपीड़न, हार्डवेयर-सॉफ़्टवेयर सह-डिज़ाइन, और एक उपभोक्ता OS में एकीकरण का एक अद्वितीय उदाहरण है। यह दर्शाता है कि डिस्टिलेशन, क्वांटाइज़ेशन, और ऑप्टिमाइज़ेशन के माध्यम से, अरबों पैरामीटर वाला एक मॉडल बैटरी चालित डिवाइस पर आसानी से चल सकता है[18][20]। यह अधिक नवाचारों के लिए दरवाजे खोलता है: हम जल्द ही ऑन-डिवाइस भाषण मॉडल देख सकते हैं जो और भी स्मार्ट डिक्टेशन के लिए, या स्थानीय सिफारिश मॉडल जो आपकी प्राथमिकताओं को बिना क्लाउड प्रशिक्षण के सीखते हैं। Apple ने डेवलपर्स को Foundation Models फ्रेमवर्क के माध्यम से इस लहर पर सवार होने का अधिकार भी दिया है[10][11] – ऑन-डिवाइस LLM का लाभ उठाने वाले रचनात्मक और व्यावहारिक उद्देश्यों के लिए नए ऐप्स की एक नई फसल की उम्मीद करें, सभी उपयोगकर्ताओं के लिए शून्य अतिरिक्त लागत या विलंबता के साथ।

तकनीक-प्रेमी उपयोगकर्ताओं के लिए, 19.2 अपडेट विशेष रूप से संतोषजनक है। यह महसूस होता है जैसे सॉफ़्टवेयर के माध्यम से हार्डवेयर अपग्रेड हो रहा हो – अचानक आपका मौजूदा डिवाइस वो नए करतब कर सकता है जिनकी आपने उम्मीद नहीं की थी। पावर उपयोगकर्ता सिरी की संदर्भ सीमाओं का परीक्षण करने, ऑन-डिवाइस मॉडल का उपयोग करके जटिल शॉर्टकट बनाने, या पर्सनल एआई की सीमाओं को धकेलने के लिए मैकरॉन जैसे ऐप्स चलाने का आनंद लेंगे। हम यह भी देख रहे हैं कि एज एआई कैसे एक्सेसिबिलिटी को बढ़ा सकता है: लाइव कैप्शन, टेक्स्ट सरलीकरण, या इमेज विवरण जैसी विशेषताएं ऑन-डिवाइस किए जाने पर अधिक तात्कालिक और विश्वसनीय होती हैं, जिससे विकलांग या सीमित कनेक्टिविटी वाले उपयोगकर्ताओं को लाभ होता है[53][54].

निश्चित रूप से, Apple इस एज AI ट्रेंड में अकेला नहीं है (Qualcomm, Google, और अन्य भी ऑन-डिवाइस AI एक्सेलेरेशन पर काम कर रहे हैं), लेकिन Apple की कस्टम सिलिकॉन, OS, और उच्च-स्तरीय फीचर्स का सख्त एकीकरण इसे बड़े पैमाने पर लाखों उपयोगकर्ताओं के लिए एक परिष्कृत उत्पाद देने में अग्रणी बनाता है। iOS 19.2 के AI के आसपास की "विशाल उपभोक्ता चर्चा" इस बात का प्रमाण है कि लोग दोनों क्षमता और विश्वास की परवाह करते हैं। Apple प्रभावी रूप से कह रहा है: आपको एक के लिए दूसरे का सौदा नहीं करना पड़ेगा। आपका iPhone स्मार्ट और आपका दोनों हो सकता है।

आगे देखते हुए, कोई Apple Intelligence 3.0 की कल्पना कर सकता है जिसमें और भी अधिक 「दृश्य स्मृति」 होगी - शायद एक ऐसी निरंतर वैयक्तिकरण जो समय के साथ उभरती है (फिर से, स्थानीय रूप से संग्रहीत), या एक पूरी तरह से एकीकृत मल्टीमॉडल सहायक जो बिना किसी रुकावट के टेक्स्ट, वॉइस, दृष्टि और क्रिया को संभालता है। आधारशिला रखी गई है। और व्यक्तिगत AI एजेंट जैसे कि Macaron इस वातावरण में फलेंगे-फूलेंगे, प्रत्येक उपयोगकर्ता के पास एक अनोखा AI हो सकता है जो उन्हें गहराई से जानता है लेकिन उनकी गोपनीयता की रक्षा करता है।

सारांश में, iOS 19.2 में Apple का ऑफलाइन LLM और सीन मेमोरी एक तकनीकी मील का पत्थर और नैतिक दृष्टिकोण का प्रतिनिधित्व करते हैं। यह दिखाते हैं कि जब AI का विकास उपयोगकर्ता की गोपनीयता और अनुभव के सम्मान के साथ जुड़ा होता है, तो क्या संभव होता है। उपयोगकर्ताओं के लिए, इसका मतलब है एक स्मार्ट और अधिक सहायक डिवाइस। डेवलपर्स के लिए, यह डिवाइस पर AI संभावनाओं का एक नया क्षेत्र है। और उद्योग के लिए, यह मानक को ऊंचा करता है: AI का भविष्य सिर्फ क्लाउड में नहीं है – यह हमारे जेब में है। डिवाइस पर AI के युग में आपका स्वागत है – जहां आपका फोन ही बुद्धिमान एजेंट है, और यह दिन-ब-दिन स्मार्ट होता जा रहा है[7][10].

स्रोत: इस लेख में दी गई जानकारी एप्पल की आधिकारिक घोषणाओं और तकनीकी रिपोर्टों के साथ-साथ स्वतंत्र विश्लेषणों द्वारा समर्थित है। मुख्य संदर्भों में एप्पल का WWDC 2025 न्यूज शामिल है जो डिवाइस पर मॉडल और डेवलपर फ्रेमवर्क पर आधारित है[55][10], एप्पल मशीन लर्निंग रिसर्च की तकनीकी रिपोर्ट जिसमें उनके फाउंडेशन मॉडल का विवरण (3B मॉडल डिजाइन, डिस्टिलेशन, और क्वांटाइजेशन का विवरण)[15][20], और सिरी की नई संदर्भ सुविधाओं और विलंबित रोलआउट पर विश्वसनीय रिपोर्टें शामिल हैं[35][28]। ये स्रोत और अधिक सत्यापन और गहन पठन के लिए उद्धृत किए गए हैं। विकास की स्थिति देर से 2025 तक वर्तमान है, जो डिवाइस पर AI तैनाती में अत्याधुनिक को चिह्नित करता है।

[1] [2] [3] [5] [6] [7] [10] [11] [12] [14] [39] [47] [48] [55] Apple इंटेलिजेंस नए क्षमताओं के साथ और भी शक्तिशाली हो जाती है - Apple (CA)

https://www.apple.com/ca/newsroom/2025/06/apple-intelligence-gets-even-more-powerful-with-new-capabilities-across-apple-devices/

[4] एप्पल इंटेलिजेंस - एप्पल

https://www.apple.com/apple-intelligence/

[8] [9] [29] [32] [33] [34] [35] एप्पल का कहना है कि उपयोगकर्ताओं को iOS 19 या 2026 तक नियमित सिरी के साथ रहना होगा - मैकट्रास्ट

https://www.mactrast.com/2025/03/apple-says-users-will-have-to-put-up-with-regular-siri-until-ios-19-or-2026/

[13] [15] [16] [17] [18] [19] [20] [21] [24] [25] [26] [36] [37] Apple के ऑन-डिवाइस और सर्वर फाउंडेशन भाषा मॉडल के अपडेट्स - ऐप्पल मशीन लर्निंग रिसर्च

https://machinelearning.apple.com/research/apple-foundation-models-2025-updates

[22] Apple A17 - विकिपीडिया

https://en.wikipedia.org/wiki/Apple_A17

[23]  प्रमुख एआई और तकनीकी विकास (नवंबर 1-2, 2025)

https://www.jasonwade.com/key-ai-tech-developments-november-1-2-2025

[27] [28] [30] [31] [40] [44] एप्पल सिरी के लिए गूगल के 1.2 ट्रिलियन-पैरामीटर, बेहद महंगे एआई मॉडल का सहारा लेगा

https://wccftech.com/apple-will-use-a-1-2-trillion-parameter-very-expensive-ai-model-from-google-as-a-crutch-for-siri/

[38] iOS 19 डेवलपर्स को Apple के AI मॉडल्स को उनके ऐप्स में उपयोग करने देगा - MacRumors

https://www.macrumors.com/2025/05/20/ios-19-apple-ai-models-developers/

[41] [42] [43] [49] [50] [51] [52] [53] [54] मैकरॉन का एआई हर उपयोगकर्ता के लिए कैसे अनुकूलित होता है - मैकरॉन

https://macaron.im/blog/macaron-ai-adaptive-accessibility-features

[45] [46] मैकरॉन एआई का उपयोग करके: पर्सनलाइज्ड मिनी-ऐप्स को उंगलियों पर बनाना - मैकरॉन

https://macaron.im/blog/macaron-personalized-ai-solutions

Boxu earned his Bachelor's Degree at Emory University majoring Quantitative Economics. Before joining Macaron, Boxu spent most of his career in the Private Equity and Venture Capital space in the US. He is now the Chief of Staff and VP of Marketing at Macaron AI, handling finances, logistics and operations, and overseeing marketing.

Related articles

Apply to become Macaron's first friends