ذكاء أبل 2.0: LLM غير متصل و"ذاكرة المشهد" في iOS 19.2

المؤلف: Boxu Li

يجلب iOS 19.2 ترقيات للذكاء الاصطناعي الخاص - لماذا كل هذه الضجة؟

أصبح تحديث iOS 19.2 من Apple شائعًا بين عشاق التكنولوجيا لسبب وجيه: فهو يعزز ميزات "الذكاء من Apple" التي تم تقديمها خلال العام الماضي بنموذج لغوي كبير وقوي (LLM) يعمل على الجهاز وقدرة جديدة تسمى "ذاكرة المشهد". ببساطة، أصبحت أجهزة iPhone وiPad أكثر ذكاءً – دون الاعتماد على السحابة. يشعر المستخدمون بالحماس لأن هذا التحديث يعني أن Siri والميزات الذكية الأخرى يمكنها فهم السياق بشكل أفضل والعمل تمامًا دون اتصال بالإنترنت، مما يحافظ على الخصوصية. إنه قفزة كبيرة في استراتيجية الذكاء الاصطناعي من Apple، حيث يدمج النماذج التوليدية المتقدمة في الاستخدام اليومي مع الحفاظ على بيانات المستخدم على الجهاز[1]. تم تعزيز الضجة بموقف Apple الذي يركز على الخصوصية: تحصل على راحة مدفوعة بالذكاء الاصطناعي (مثل استجابات Siri المتقدمة، الترجمات الحية، المساعدة في الكتابة، توليد الصور، إلخ) دون إرسال بياناتك الشخصية إلى الخادم[2][3]. هذا التوازن بين القوة والخصوصية قد وضع الذكاء الاصطناعي 2.0 من Apple كمغير للعبة في تقنية المستهلك.

من منظور المستهلك، يبدو أن الذكاء الاصطناعي في نظام iOS 19.2 أكثر ذكاءً وفهمًا للسياق من أي وقت مضى. تسميه شركة أبل 「الذكاء الاصطناعي لبقية الناس، مدمج مباشرة في جهاز الآيفون الخاص بك」 [4]. تحت السطح، يجلب التحديث نموذج أساس جديد على الجهاز (نموذج LLM صغير خاص بأبل) وما نسميه ذاكرة المشهد، والتي تمكن معًا تفاعلات أكثر طبيعية ومحادثات. تمتلئ المنتديات التقنية ووسائل التواصل الاجتماعي بأمثلة - مثل أن سيري الآن يمكنها إجراء محادثة ذهابًا وإيابًا أو اقتراح إجراءات استباقية بناءً على ما يظهر على شاشتك. في هذه المقالة، سنوضح ما يحدث تقنيًا بالفعل مع نموذج LLM الخاص بأبل وذاكرة المشهد، ولماذا يهم المستخدمين والمطورين وتطبيقات الذكاء الاصطناعي الشخصية مثل Macaron. دعونا نغوص في ذلك.

ما هو بالضبط الذكاء الاصطناعي لأبل 2.0؟

مصطلح "Apple Intelligence" هو المصطلح الشامل من أبل للميزات الذكاء الاصطناعي التوليدي المدمجة في iOS وiPadOS وmacOS، وغيرها [5]. تم طرحه لأول مرة في iOS 18 مع ميزات مثل أدوات الكتابة (تصحيح وإعادة صياغة النصوص باستخدام الذكاء الاصطناعي في أي حقل نص)، ملعب الصور (إنشاء الصور من النصوص)، ملخصات الإشعارات، وحتى بعض التكامل مع ChatGPT في سيري [6]. فكر في الأمر كإجابة أبل لجلب المساعدة الذكائية الاصطناعية للمهام اليومية - ولكن مصمم للتشغيل محليًا وبأمان. Apple Intelligence 2.0 (الإصدار في iOS 19.x) يوسع هذه القدرات بشكل كبير. وفقًا لأبل، الأساس هو نموذج لغوي كبير جديد على الجهاز يدعم الميزات عبر نظام التشغيل [1]. بالإضافة إلى ذلك، أضافت أبل تحسينات مثل الذكاء البصري الأفضل (التعرف على الكاميرا أو تطبيق الصور على الأشياء والنصوص)، حوار سيري الطبيعي أكثر، والأهم: الوعي بالسياق عبر جهازك.

تشمل بعض الميزات الرئيسية لبرنامج Apple Intelligence 2.0:

  • On‑Device Foundation Model (~3 billion parameters) – A generative AI model built by Apple that runs on the Neural Engine of A-series and M-series chips. It powers text generation, summarization, translation, and more locally (no internet needed)[7][3]. Despite its compact size, Apple optimized this model to be surprisingly capable at a wide range of tasks, from rewriting messages to answering questions. (We’ll dive into how in the next section.)
  • “Scene Memory” (Context Awareness) – Siri and system intelligence can now remember and utilize context from your current “scene” (what you’re doing, what’s on screen, recent interactions). For example, Siri can maintain the thread of a conversation from one request to the next[6], or offer to add an appointment to your calendar when you’re viewing a texted event invite. Internally, Apple has been working on personal context awareness – meaning Siri will keep track of things like your messages, emails, files, and photos (privately on-device) to help you more intelligently[8]. It’s also gained on-screen awareness, so it knows what app or content you’re viewing and can act on it (similar to how a human assistant would)[9]. “Scene Memory” is a handy term to capture these context features that let the AI remember the current scene and react accordingly.
  • Developer Access to the AI (Foundation Models SDK) – With iOS 19, Apple opened up its on-device LLM to app developers via a new Framework[10][11]. This is huge: third-party apps can now leverage Apple’s AI brain with just a few lines of code, enabling features like offline natural language search or generative text/image creation inside any app. Importantly, this on-device inference is free of cloud costs – no expensive API calls to OpenAI or others[12]. Developers can build AI features that work even with no internet and without sharing user data, aligning with Apple’s privacy promises.
  • Expanded Multi‑Modal Skills – Apple’s model isn’t just a text chatbot; it also has vision capabilities. In iOS 19 it can understand images and interface elements. For example, you can snap a photo of a flyer and your iPhone’s AI will parse the text to create a calendar event (date, time, location extracted automatically)[13]. The Live Translation feature can listen to spoken language and provide real-time translated text or audio, entirely on-device[14]. These indicate the LLM is tied into vision and audio systems, making it more of a general-purpose assistant that “sees” and “hears” as well as reads.

باختصار، تهدف Apple Intelligence 2.0 إلى جعل جهازك أكثر ذكاءً في الموقع – حيث يفهم المزيد عنك (سياقك، محتواك) ويمكنه إنشاء أو المساعدة في المحتوى فورًا، كل ذلك مع الحفاظ على معالجة الذكاء الاصطناعي محليًا. إدخال نظام ذاكرة سياق قوي ونموذج لغوي كبير غير متصل بالإنترنت في iOS 19.2 هو لحظة حاسمة في طموحات Apple للذكاء الاصطناعي، فلنستكشف الجانب الفني لكيفية تحقيقهم لذلك.

تحت الغطاء: كيف يعمل النموذج اللغوي الكبير على جهاز Apple

تشغيل نموذج لغوي كبير مباشرة على الهاتف الذكي هو مهمة صعبة – هذه النماذج عادة ما تكون ضخمة، تستهلك الكثير من الموارد، وتعمل في مراكز بيانات السحابة. تعاملت Apple مع هذا من خلال مزيج من ضغط النماذج، السيليكون المخصص، والهندسة الذكية لتجميع الذكاء الاصطناعي في حزمة تناسب يدك. إليكم التفاصيل:

  • التقطير النموذجي والحجم – النموذج الأساسي من Apple على الجهاز يحتوي تقريبًا على 3 مليار معلمة[15]، وهو أصغر بكثير من العمالقة مثل GPT-4 (مئات المليارات من المعلمات) ولكنه لا يزال "كبيرًا" بالنسبة للجهاز. من المرجح أن Apple قامت بتدريبه باستخدام التقطير المعرفي، حيث يتم نقل معرفة نموذج "المعلم" الأكبر إلى هذا النموذج "الطالب" الأصغر. في الواقع، تشير ملاحظات أبحاث Apple إلى استخدام نهج مزيج من الخبراء (MoE) لتدريب نموذج عالي الجودة بكفاءة: لقد أُعيد تدوير نموذج 3B إلى نموذج خبير نادر مكون من 64 خبير ليعمل كمعلم، متجنبين الحاجة إلى نموذج كثيف ضخم[16]. من خلال استخدام استراتيجية معلم-طالب ذكية (و 14 تريليون رموز من بيانات التدريب لنموذج الخادم) تمكنت Apple من حشر قدرة مذهلة في 3B من المعلمات[16][17]. الترجمة: علمت Apple دماغًا أصغر ليتصرف مثل دماغ أكبر، مما قلل الحجم بشكل كبير مع الحفاظ على ذكائه.
  • البنية المحسنة للسرعة – لجعل النموذج يعمل بشكل أسرع على الجهاز، لم تقم Apple بتقليصه فحسب – بل أعادت تصميم أجزاء منه. على سبيل المثال، يتم تقسيم النموذج إلى كتلتين بحيث يمكن مشاركة الذاكرة (ذاكرة التخزين المؤقت "المفتاح-القيمة" للمحول) بشكل أكثر فعالية بين الطبقات[18]. هذا التعديل وحده قلل استخدام ذاكرة التخزين المؤقت بحوالي ~37.5% وسرع وقت توليد أول رمز من الاستجابة[18]. كما طبقوا آلية اهتمام متداخلة جديدة (تجمع بين نوافذ الاهتمام المحلية وطبقة اهتمام عالمية) للتعامل بشكل أفضل مع المدخلات ذات السياق الطويل بدون تباطؤ أو استخدام الكثير من ذاكرة الوصول العشوائي[19]. هذا يعني أن النموذج يمكن أن يكون له "ذاكرة" أطول (يدعم المطالبات أو الوثائق الطويلة جدًا) – جزء حيوي من ميزة ذاكرة المشهد – بينما لا يزال يعمل بكفاءة على الجهاز.
  • التكمية والضغط – ربما يكون المفتاح الأكبر لتلائم نموذج لغة عريض على iPhone هو التكمية العدوانية لأوزان النموذج. قامت Apple بتطبيق تكمية وزن 2 بت للمعلمات الرئيسية للنموذج عبر التدريب الواعي للتكمية[20]، مما أدى بشكل فعال إلى ضغط النموذج إلى جزء صغير من حجمه الأصلي. (2 بت تعني أن كل وزن يتم تخزينه بأربعة قيم ممكنة فقط!) طبقات الإدخال في 4 بت، وحتى ذاكرة تخزين الاهتمام يتم ضغطها إلى قيم 8 بت[21]. ثم قاموا بتعديل دقيق باستخدام المحولات منخفضة الرتبة لاستعادة أي دقة مفقودة[21]. النتيجة النهائية هي نموذج على الجهاز يستخدم ذاكرة قليلة جدًا – يوضح الجدول 1 مدى نجاح هذا. تفيد Apple بأن هناك اختلافات طفيفة فقط في الجودة بعد الضغط (حتى أن بعض المعايير تحسنت قليلاً)[21]. هذا النموذج فائق الضغط يمكن أن يقيم في ذاكرة الجهاز ويعمل بسرعة، وهذا أمر حيوي للاستخدام في الوقت الفعلي.
  • محرك Apple العصبي (ANE) – يمنحهم جهاز Apple ميزة كبيرة هنا. تحتوي أجهزة iPhone و iPad الحديثة على محرك عصبي مخصص بـ 16 نواة. على سبيل المثال، يمكن لمحرك A17 Pro العصبي أداء 35 تريليون عملية في الثانية[22]. تم تصميم النموذج الأساسي لنظام iOS 19 لنقل الحسابات إلى هذا المحرك العصبي، الذي يتفوق في الرياضيات المصفوفية على البيانات منخفضة الدقة (بالضبط ما يحتاجه الشبكة العصبية المكمية). من خلال الاستفادة من ANE، تضمن Apple أن النموذج اللغوي الكبير يعمل مع إنتاجية عالية واستهلاك قليل للطاقة. أظهرت الاختبارات المبكرة في الإصدار التجريبي 19.2 أن Apple نقلت المزيد من عمل النموذج إلى المحرك العصبي، مما قلل زمن الاستجابة بشكل كبير (لاحظ تقرير تحسينًا بنسبة 40% في سرعة بعض الاستفسارات بعد تحسين المحرك العصبي)[23]. عمليًا، هذا يعني أنه عندما تطلب من Siri شيئًا، يمكن للنموذج أن يولد الاستجابة في جزء من الثانية على الجهاز، بدون التأخير الناتج عن الاتصال بخادم.
  • المدخلات متعددة الوسائط – النموذج على الجهاز لا يقرأ النصوص فقط؛ بل تم تدريبه أيضًا للتعامل مع الصور كمدخلات. أضافت Apple مشفر رؤية (محول رؤية مخصص) إلى النموذج، بحيث يمكنه تفسير البيانات البصرية وتوافقها مع اللغة[24]. على سبيل المثال، إذا كنت تستخدم ميزة iOS Visual Look Up أو تسأل Siri "ما هذا؟" أثناء توجيه الكاميرا إلى شيء ما، يمكن للنموذج نفسه معالجة ميزات الصورة وإنتاج إجابة. هذه القدرة على الرؤية+اللغة هي أيضًا كيف تمتد ذاكرة المشهد إلى السياق البصري – مثل مشاركة لقطة شاشة مع Siri ومتابعة الحديث عنها. تدريب النموذج ليكون متعدد الوسائط (على 6 مليارات زوج صورة-نص عبر هدف على نمط CLIP[25]) يسمح للذكاء الاصطناعي من Apple بفهم ما هو على شاشتك أو في صورك دون الحاجة إلى واجهة رؤية سحابية منفصلة. يتم العمل الشاق – استخراج المعنى من الصورة – على الجهاز.

الجدول 1. تقنيات الضغط لنماذج Apple الأساسية (على الجهاز مقابل الخادم)[20][21]

نموذج متغير
دقة الوزن (المفسر)
دقة التضمين
دقة ذاكرة التخزين المؤقت KV
تكييف التعديل الدقيق
على الجهاز 3B
2 بت (محسّن QAT)
4 بت (QAT)
8 بت
نعم (يستخدم المحولات)
الخادم MoE (كبير)
~3.56 بت (ضغط ASTC)[20]
4 بت (بعد التدريب)
8 بت
نعم (يستخدم المحولات)

تقوم Apple بضغط نموذجها على الجهاز بشكل كبير (حتى 2 بت للأوزان) للعمل بكفاءة على أجهزة iPhone وiPad، بينما يستخدم النموذج السحابي ضغطًا مختلفًا (ASTC) نظرًا لحجمه الأكبر. ثم تقوم كلا النموذجين بتطبيق محولات مضبوطة بدقة للحفاظ على الجودة.[20][21]

بشكل أساسي، يعتبر النموذج اللغوي الكبير على جهاز آبل بمثابة عقل مصغّر ومحسن يستفيد من قدرات شريحة آبل. لا يمكنه مطابقة نموذج سحابي يحتوي على 100 مليار معلمة في المعرفة الخام، لكن آبل صممته خصيصًا للتعامل مع المهام الشائعة للمستخدمين بسرعة ودقة. أظهرت التقييمات الداخلية أن النموذج ذو 3 مليارات معلمة كانت له مكانته حتى ضد بعض النماذج الأكبر ذات 4 مليارات معلمة من المنافسين في العديد من المهام[17]. تقول آبل صراحة أن هذا النموذج المحلي يتفوق في أشياء مثل تلخيص النصوص، الفهم، إعادة الصياغة، والحوارات القصيرة، على الرغم من أنه "لم يُصمم ليكون روبوت دردشة للمعرفة العامة للعالم."[26] بعبارة أخرى، قد لا يعرف كل حقائق المعلومات غير المعروفة (لهذه، يمكن لسيري الاستعانة ببحث عبر الإنترنت أو استخدام نموذج سحابي أكبر عند الحاجة[27][28])، ولكن لمساعدتك في محتواك اليومي - كتابة الرسائل الإلكترونية، استيعاب المستندات، ترجمة المحادثات - فهو مضبوط للغاية. والأهم من ذلك، أنه يعمل تمامًا على الجهاز، مما يمهد الطريق للقسم التالي: فوائد الاستنتاج على الجهاز وكيفية دخول "ذاكرة المشهد" في اللعب.

「ذاكرة المشهد」 - القوة الخارقة الجديدة لسيري في التعامل مع السياق

أحد التحسينات الملحوظة في iOS 19.2 هو كيفية تعامل سيري (وغيرها من الميزات الذكية) الآن مع السياق. لقد ولّت الأيام التي كانت فيها سيري تنسى ما طلبته منذ ثانيتين - فقد أعطتها آبل شكلاً من أشكال الذاكرة قصيرة المدى أو وعي المشهد. فما هي ذاكرة المشهد بالضبط؟ إنها مزيج من السياق الشخصي، والسياق على الشاشة، وذاكرة المحادثة المستمرة التي تتيح للذكاء الاصطناعي الخاص بآبل فهم الوضع الأوسع حول طلب المستخدم.

  • الاستمرارية في المحادثة: يمكن لسيري الآن تتبع السياق من طلب إلى آخر في الحوار[6]. هذا يعني أنك يمكنك أن تسأل، “ما هو ارتفاع برج إيفل؟” وتتابع بسؤال “هل يمكنني رؤيته من مونمارتر؟” - سيري يفهم أن “هذا” يشير إلى برج إيفل لأن السؤال السابق لا يزال في السياق. هذا يمثل ترقية كبيرة عن سيري القديم الذي كان يتعامل مع كل استفسار بشكل منعزل. المحادثات المتبادلة والأسئلة المتابعة أصبحت ممكنة أخيرًا، مما يجعل سيري يبدو أكثر طبيعية وحيوية (أقرب إلى وضع المحادثة المستمرة لأليكسا أو مساعد جوجل، وبالفعل سلوك مشابه لـ ChatGPT). بنية المحول في LLM الموجود على الجهاز بارعة بطبيعتها في هذا النوع من الربط بين الطلبات، وتطبيق أبل يحتفظ بتاريخ التفاعل الحديث محليًا لكي يتمكن سيري من الرجوع إليه. بالطبع، هذه الذاكرة السياقية هي مؤقتة وخاصة - لا يتم تحميلها، بل تُحفظ في الذاكرة العشوائية للجلسة.
  • الوعي بالسياق الشخصي: يوفر iOS 19.2 أيضًا لسيري وعيًا أعمق بالبيانات على جهازك (بإذنك). تصف أبل هذا بأنه تعلم سيري عن “سياقك الشخصي - مثل إيميلاتك، رسائلك، ملفاتك، صورك والمزيد - للمساعدة في المهام”[8]. على سبيل المثال، يمكنك أن تسأل، “سيري، ما هو موعد رحلتي غدًا؟” ويمكن لسيري البحث في تطبيق البريد عن بطاقات الصعود أو في التقويم عن الأحداث للعثور على الإجابة، بدلاً من القول “لا أعرف” كما في الماضي. إنها في الأساس بناء رسم بياني للمعرفة المحلية عن أنت. سيناريو آخر: تذكر “ملف PDF الذي كنت أراجعه أمس” - ذاكرة السياق الشخصي لسيري يمكن أن تحدد أي ملف تقصده بناءً على نشاطك الأخير وتفتحه. هذا الفهرسة المحلية للجهاز لمحتوياتك كان على الأرجح هدفًا طويل الأمد؛ كان لدى أبل البحث السريع واقتراحات سيري لسنوات، لكن الآن يمكن لـ LLM الاستفادة من هذا الكنز بطريقة محادثة. كل هذا يبقى على الجهاز (لا يتم إرسال أي شيء إلى خوادم أبل) لذا يحافظ على تعهد أبل بالخصوصية بينما يجعل سيري أكثر فائدة وتخصيصًا.
  • الوعي بالمشهد على الشاشة: ربما يكون الجانب الأكثر فائدة فورًا من ذاكرة المشهد هو قدرة سيري على فهم ما تنظر إليه أو تفعله حاليًا على الهاتف - المشهد النشط. تسميه أبل الوعي بالشاشة، ويسمح لسيري بتنفيذ “إجراءات تتعلق بأي شيء تنظر إليه”[29]. في الواقع، قد يعني هذا: إذا كان لديك وصفة مفتوحة في سفاري، يمكنك أن تقول “سيري، احفظ هذا في ملاحظاتي” وسيري يعلم أن “هذا” يعني صفحة الويب المفتوحة، ويقوم تلقائيًا بقصها. أو إذا كنت تشاهد محادثة نصية عن حدث، يمكنك أن تقول “ذكرني بهذا لاحقًا” وسيري ينشئ تذكيرًا مع رابط لتلك المحادثة. قبل هذا، كانت مثل هذه الأوامر تحير سيري. تحت السطح، يمكن لواجهات برمجة التطبيقات للاستخبارات النظامية لأبل تغذية السياق (مثل التطبيق الأمامي أو النص المحدد أو محتوى صفحة الويب) في طلب LLM. أضاف iOS 19 حتى نوايا لـ “الاستمرار مع الشاشة الحالية” بحيث يمكن للتطبيقات عرض ما على الشاشة لسيري بأمان. والنتيجة هي مساعد صوتي واعٍ بالوضع - تقريبًا كما لو كان ينظر من فوق كتفك إلى شاشتك (بطريقة مفيدة!). كان هذا الوعي بالمشهد ميزة مطلوبة منذ فترة طويلة (وقد قامت منصات أخرى بتنفيذ جزئي)، والآن مع الجمع بين LLM وتكامل النظام، قد يفهم سيري أخيرًا ما تعنيه بقول “حوّل هذا إلى PDF” أو “شارك هذا مع أليس” دون الحاجة إلى عشرات الأسئلة المتابعة.

في الكواليس، كان تمكين ذاكرة المشهد تحديًا برمجيًا بقدر ما كان تحديًا في الذكاء الاصطناعي. كان على أبل دمج نموذج اللغة الكبير مع مشغل نوايا سيري التقليدي وقاعدة المعرفة. وفقًا للتقارير، تمتلك أبل نظامًا جديدًا يُدعى 「مخطط الاستفسار」 لسيري يقرر كيفية تنفيذ الطلب - سواء من خلال البحث على الويب، أو استخدام البيانات على الجهاز، أو استدعاء تطبيق عبر اختصارات سيري/نوايا التطبيقات [30]. من المرجح أن يساعد نموذج اللغة الكبير في تحليل الاستفسارات المعقدة أو الغامضة والحفاظ على حالة المحادثة، بينما يتولى نظام سيري القديم تنفيذ الأوامر (فتح التطبيقات، إرسال الرسائل، إلخ.). كما تستخدم أبل وحدة 「الملخص」 لتكثيف المحتوى الطويل - مثل سؤال سيري "ماذا فاتني في البريد الإلكتروني اليوم؟" قد يؤدي إلى تشغيل النموذج على الجهاز لتلخيص أحدث رسائلك [31]. تعمل كل هذه الأجزاء معًا لجعل سيري أكثر نشاطًا. في الواقع، قالت أبل صراحةً إن الهدف هو أن يقوم سيري "باتخاذ إجراءات بالنيابة عنك داخل تطبيقاتك وعبرها" باستخدام هذه الذاكرة الشخصية للسياق [32]. نحن نشهد بشكل أساسي التحول البطيء لسيري من نظام أوامر صوتية صارم إلى مساعد شخصي مرن يتذكر السياق فعلاً ويمكنه التفكير فيه.

من الجدير بالذكر أن هذه الميزات تأخرت عدة مرات - كانت آبل تخطط لها أصلاً لنظام iOS 18، ثم تم تأجيلها إلى 19، وحتى ذلك الحين لم تكن جميعها في الإصدار .0[33][34]. الآن في iOS 19.2، يبدو أن الوعي بالسياق الشخصي والوعي بالشاشة والتكامل العميق مع التطبيقات قد بدأت تتحقق أخيرًا[35]. الضجة الكبيرة بين المستهلكين هي لأن الناس يرون فجأة أن سيري يقوم بأشياء لم يكن يستطيع فعلها من قبل. يبدو المساعد أكثر حيوية. تشير تقارير المستخدمين الأوائل إلى أن سيري يمكنه ربط المهام معًا (مثل، "أرسل هذه الصور إلى أمي" أثناء عرض ألبوم - قال أحد المستخدمين إن سيري فعل ذلك بالفعل دفعة واحدة، معترفًا أن "هذه الصور" تعني الألبوم المفتوح). هذا هو بالضبط وعد ذاكرة المشهد: أوامر أقل تعقيدًا وفهم أكثر سلاسة. إنه يقرب مستخدمي الآيفون من نوع تجربة مساعدة الذكاء الاصطناعي التي كانت غالبًا تتطلب خدمات سحابية مثل ChatGPT. ومرة أخرى، ما يميز آبل هو القيام بذلك دون الاتصال بالإنترنت. جهازك لا يقوم ببث محتوى شاشتك إلى السحابة للتحليل؛ النموذج اللغوي الكبير يفسر السياق محليًا. الخصوصية محفوظة بالتصميم[36][37]، لذا يمكنك الوثوق بهذه الميزات الشخصية دون الشعور الغريب بأنك مراقب من قبل الأخ الأكبر.

لتلخيص ذاكرة المشهد: إنها الدمج الفعال لعقل الذكاء الاصطناعي المصفى من أبل مع بيانات سياقية محلية غنية. هذا الجمع يفتح تفاعلات أقوى بكثير. سيري أخيرًا يتعلم "من/ماذا/أين تتحدث عنه" ويمكنه الرد بطريقة مفيدة. بالنسبة للمستخدمين المتمرسين في التقنية، يعني ذلك قضاء وقت أقل في توضيح الأمور يدويًا أو النسخ واللصق بين التطبيقات - المساعد يفهم الأمر. لا يزال في مرحلة مبكرة (سيري ليس مثاليًا وأحيانًا يفهم السياق بشكل خاطئ أو يحتاج لطلب توضيح)، ولكنه تحسن ملحوظ. مع خطط أبل لتقديم ذكاء اصطناعي أكبر في نظام iOS القادم (يُشاع أن يكون سيري شبيه بـ GPT بشكل كامل بحلول iOS 20 في عام 2026)، ذاكرة المشهد في 19.2 هي خطوة أساسية في هذا الاتجاه.

الاستدلال الحدي: لماذا الذكاء الاصطناعي على الجهاز أمر مهم

موضوع أساسي في Apple Intelligence 2.0 هو الاستدلال الطرفي - تشغيل الذكاء الاصطناعي على جهاز المستخدم (في "حافة" الشبكة) بدلاً من السحابة المركزية. لقد تطرقنا إلى الوسائل التقنية، ولكن دعونا نوضح لماذا هذا مهم:

  • الخصوصية والأمان: الاحتفاظ بالنموذج اللغوي على الجهاز يعني أن بياناتك لا تغادر هاتفك للمعالجة. كما تقول Apple، تبقى المحادثات والمحتويات الشخصية شخصية [39]. يمكنك كتابة بريد إلكتروني باستخدام أدوات الكتابة أو سؤال Siri عن جدولك الزمني - لا حاجة لتحميل أي من ذلك. هذا يختلف تمامًا عن المساعدين السحابيين الذين يرسلون صوتك وسياقك إلى الخوادم. حتى عندما يستخدم Siri من Apple المساعدة السحابية (مثل تكامل ChatGPT لبعض الاستفسارات)، فإنهم يوجهونها من خلال الحوسبة السحابية الخاصة - وهو نظام حيث يتم تشفير بياناتك ولا يحتفظ بها الطرف الثالث [40][27]. ولكن بالنسبة لمعظم المهام في 19.2، يمكن للجهاز التعامل معها محليًا. هذا يرضي معايير التشفير من النهاية إلى النهاية ومحبي الخصوصية، ويتماشى مع فلسفة علامة Apple التجارية. من زاوية الأمان، يعني التنبؤ على الجهاز أيضًا تقليل التعرض للهجمات أو التسريبات عبر الشبكة؛ طلبات الذكاء الاصطناعي الخاصة بك لا تسافر عبر الإنترنت حيث يمكن اعتراضها.
  • التواجد دون اتصال: يعمل الذكاء الاصطناعي على الحافة بدون إنترنت. يمكن أن يكون ذلك منقذًا - تخيل أنك تسافر بدون بيانات وتحتاج إلى ترجمة لغة، أو أنك في منطقة نائية وتريد استدعاء بعض المعلومات من الملاحظات عبر Siri. مع النموذج اللغوي المحلي في iOS 19، تستمر العديد من الميزات في العمل. على سبيل المثال، ستقوم ميزة الترجمة الفورية بترجمة النصوص في الرسائل أو المكالمات الصوتية حتى لو لم يكن لديك إشارة [14]، لأن نموذج الترجمة موجود على الجهاز. تصميم Apple هو “الأولوية للانفصال” للميزات الذكية الأساسية. حتى أنهم يقومون بتخزين الروتينات الذكية المستخدمة بشكل متكرر والسياق الأخير على الجهاز بحيث يسبب الانفصال عن الإنترنت أقل تعطيل [41][42]. هذه القوة تجعل الذكاء الاصطناعي أكثر شمولية - ليس لدى الجميع إنترنت عالي السرعة باستمرار، وحتى في المناطق المتقدمة نواجه مناطق ميتة. الذكاء الاصطناعي الشخصي الذي ينقطع كلما كنت غير متصل ليس شخصيًا جدًا. أدركت Apple ذلك، وتشارك Macaron (الوكيل الشخصي للذكاء الاصطناعي الذي سنتحدث عنه قريبًا) نفس الفلسفة: يجب أن يكون ذكاؤك الاصطناعي هناك من أجلك في أي وقت وفي أي مكان [43].
  • الاستجابة الفورية والتفاعل في الوقت الحقيقي: عندما يحدث التنبؤ على الجهاز، يختفي التأخير بين الذهاب والإياب إلى الخادم. تصبح المهام أكثر سرعة. على سبيل المثال، يمكن أن ينتج ميزة التلخيص في Safari أو Mail ملخصًا في الحال تقريبًا، بينما قد يستغرق API السحابي بضع ثوانٍ زائد تأخير الشبكة. تضمن تسريع المحرك العصبي من Apple أيضًا أن تأتي الاستجابات في الوقت الحقيقي تقريبًا. أحد النقاط المثيرة هو أن Apple خفضت وقت الاستجابة لبعض استفسارات Siri من خلال نقل العمل إلى المحرك العصبي في 19.2 [23]. في مصطلحات تجربة المستخدم، تجعل هذه الاستجابة الفورية الذكاء الاصطناعي يبدو أكثر تفاعلية واستجابة، مما يشجع الناس على استخدامه أكثر. يمكنك التحدث إلى Siri تقريبًا بنفس سرعة التحدث إلى شخص في الغرفة. وبالمثل، يمكن للميزات مثل النص التنبؤي للوحة المفاتيح (المعزز الآن بواسطة النموذج اللغوي) أن تعمل بتأخير ضئيل، حتى أنها تنتج اقتراحات جمل كاملة في الحال لأنها محسوبة محليًا. من الجدير بالذكر أيضًا أن القيام بالتنبؤ على الجهاز يعني أن Apple تتجاوز تكاليف الخوادم والقيود المفروضة التي قد تخنق أحيانًا خدمات الذكاء الاصطناعي السحابية - لا يوجد قائمة انتظار خادم مشغول، وكل انتباه هاتفك موجه لك.
  • التكلفة والاستدامة: يمكن أن يكون تشغيل نماذج الذكاء الاصطناعي الضخمة في السحابة لملايين المستخدمين مكلفًا بشكل كبير (من حيث تكاليف خوادم GPU) وكثيفة الاستهلاك للطاقة. من خلال نقل التنبؤ إلى الأجهزة الطرفية، تنقل Apple الحوسبة إلى الأجهزة الموجودة بالفعل في أيدي المستخدمين (والمصممة لغرض الكفاءة). حتى أن Apple أبرزت أن المطورين الذين يستخدمون النموذج المحلي لا يتحملون أية رسوم استخدام [3] - حافز كبير مقارنةً بدفع رسوم لكل استدعاء API لخدمة ذكاء اصطناعي خارجية. من زاوية الاستدامة، يمكن أن يقلل الذكاء الاصطناعي اللامركزي من الحمل على مراكز البيانات (التي تستهلك الكثير من الطاقة). قد يكون كل iPhone يقوم بكمية صغيرة من العمل الذكاء الاصطناعي أكثر كفاءة في استهلاك الطاقة بشكل جماعي من مئات الآلاف من الطلبات التي تضرب مزرعة خوادم مركزية (خاصة وأن محرك Apple العصبي محسن لأداء عالي مقابل الواط). على المدى الطويل، قد يخفف الذكاء الاصطناعي الواسع الانتشار على الحافة بعض اختناقات الحوسبة السحابية وتكاليفها.

مع كل ما قيل، فإن نهج آبل له أيضًا مقايضاته. النموذج الموجود على الجهاز، كونه أصغر، ليس واسع المعرفة بشكل عام مثل شيء مثل GPT-4. تعترف آبل بأنه ليس من المفترض أن يحل محل روبوت الدردشة الشامل لكل استفسار[26]. لهذا السبب لا تزال آبل تخطط لاستخدام نماذج كبيرة للغاية (حتى نموذج Google الذي يحتوي على 1.2 تريليون بارامتر من خلال صفقة) لتعزيز فهم سيري للعالم في المستقبل[44][27]. ولكن ما أظهرته مع iOS 19.2 هو أنه بالنسبة لفئة كبيرة من مهام المساعد الشخصي، فإن نموذج مصمم جيدًا بحجم 3B يكفي - وفوائد تشغيله محليًا هائلة. إنها رهان استراتيجي: التعامل مع المهام الشخصية والسياقية على الجهاز، واحتياط السحابة فقط للأمور الثقيلة (مع أغلفة الخصوصية مثل الحوسبة الخاصة). قد يصبح هذا النموذج الهجين بين الحافة والسحابة هو المعيار.

لرؤية هذه الاستراتيجية قيد التنفيذ، دعونا نعتبر Macaron، وهو وكيل AI شخصي يركز أيضًا على المهام المحددة للمستخدم والقدرة على العمل دون اتصال. في الواقع، تكمل تقدمات Apple في تقنية الذكاء الاصطناعي على الجهاز ما تقوم به الأدوات مثل Macaron.

تطبيقات Macaron المصغرة ومستقبل الوكيل الشخصي منخفض التأخير

Macaron هو منصة مساعد AI شخصي تمكن المستخدمين من إنشاء "تطبيقات مصغرة" من خلال المحادثة - وهو عمليًا تدفقات عمل مخصصة تعتمد على الذكاء الاصطناعي لتلبية احتياجاتك اليومية. إذا كانت الذكاء المدمج في iOS هو الحل الشامل لآبل لجميع المستخدمين، فإن Macaron يتبنى نهجًا أكثر تخصيصًا يقوده المستخدم: أنت تخبره بما تحتاجه، وهو يبني لك الحل بشكل فوري. الآن، كيف تلعب تقنية LLM غير المتصلة وScene Memory التابعة لآبل دورًا في هذا؟ بكلمة: بشكل مثالي.

تُركز فلسفة Macaron على الاستخدام دون إنترنت، وتأخير زمني منخفض، وتصميم يركز على المستخدم. وفقًا لفريق Macaron، يجب أن تعمل الذكاء الاصطناعي الشخصي حقًا في أي وقت وأي مكان، حتى مع اتصال ضعيف، وأن تتكيف مع المستخدم[43][42]. هذه هي بالضبط قوة ترقيات الذكاء الاصطناعي على الأجهزة من Apple. مع نموذج الأساس في iOS 19.2، يمكن لـ Macaron الاستفادة من الذكاء المحلي على أجهزة Apple بدلاً من الاعتماد دائمًا على واجهات برمجة التطبيقات السحابية. على سبيل المثال:

  • إنشاء تطبيقات صغيرة فوريًا: يتيح Macaron للمستخدمين قول أشياء مثل "ساعدني في إنشاء تطبيق لتخطيط الوجبات"، ويستخدم الذكاء الاصطناعي التوليدي لتجميع تطبيق صغير لهذا الغرض[45][46]. إذا كان من الممكن تشغيل هذه الخطوة التوليدية على الجهاز (باستخدام نموذج Apple عبر SDK نماذج الأساس الجديد)، يحدث الإنشاء في الوقت الفعلي دون تأخير من الخادم. يمكن للمستخدم الحصول على تطبيق صغير يعمل في ثوانٍ. وهذا يعني أيضًا أن التعليمات التي تعطيها (والتي قد تتضمن تفضيلات شخصية أو بيانات) تبقى على جهازك أثناء التوليد[3].
  • فهم السياق في التطبيقات الصغيرة: تتضمن تطبيقات Macaron الصغيرة غالبًا بيانات شخصية - مثل متتبع العادات أو محلل التمويل الشخصي - وتستفيد من الوعي بالسياق. الآن مع قدرات ذاكرة المشهد المتاحة، يمكن لـ Macaron أن يطلب من ذكاء النظام السياق المعروض على الشاشة أو السياق الشخصي لدمجه في سير عمل تطبيقاته الصغيرة. على سبيل المثال، إذا كان لديك تطبيق صغير من Macaron لإدارة البريد الإلكتروني، يمكنه الاستفادة من قدرة Siri الجديدة على تلخيص الرسائل الإلكترونية أو تحديد الرسائل المهمة (ميزة كشفت عنها Apple في مجموعة ذكاء iOS 19)[47][48]. يوفر Macaron بشكل أساسي لوحة أكثر ذكاءً للرسم بفضل خدمات الذكاء الاصطناعي على مستوى نظام التشغيل الخاص بـ Apple.
  • تجربة مستخدم وكيل منخفضة التأخير: إحدى نقاط البيع الخاصة بـ Macaron هي تجربة مستخدم سلسة ومحاورة - يتعاون وكيل الذكاء الاصطناعي معك كشريك. يضمن الذكاء الاصطناعي الحافة من Apple أن الاستجابات والإجراءات تحدث بتأخير ضئيل، وهو أمر مهم للحفاظ على تدفق طبيعي. يمكن لتطبيقات Macaron الصغيرة الآن أداء مهام مثل الترجمة اللغوية، التعرف على الصور، أو تحليل النص على الجهاز فورًا، في حين كان عليها من قبل الاتصال بواجهات برمجة التطبيقات السحابية والانتظار. يمكن لدليل Macaron، الذي يرشدك خلال وصفة طبخ، استخدام الرؤية على الجهاز للتعرف على المكونات في الوقت الفعلي، أو استخدام LLM للإجابة على "ما الذي يمكنني استبداله بالزبدة؟" دون البحث على الإنترنت. هذا يخلق تجربة مساعد أكثر انغماسًا وموثوقية.
  • خصوصية محسنة للذكاء الاصطناعي الشخصي: يتعامل Macaron، كوكيل شخصي، مع معلومات المستخدم الحساسة (الجداول الزمنية، الملاحظات، بيانات الصحة، إلخ). من خلال التوافق مع معالجة Apple على الجهاز، يمكن لـ Macaron طمأنة المستخدمين بأن معلوماتهم لا تترك الجهاز أثناء عمليات الذكاء الاصطناعي. في الواقع، يحتوي Macaron على أوضاع لاستخدام نطاق ترددي منخفض أو استخدام غير متصل بالإنترنت، حيث يقوم بتخزين البيانات المهمة محليًا وحتى استخدام نماذج بديلة أصغر عند الحاجة[49][42]. يمكن أن يعمل LLM من Apple 19.2 كنموذج غير متصل - نموذج بديل قادر يغطي الطلبات الأساسية عندما لا يمكن الوصول إلى الذكاء الاصطناعي السحابي بالكامل[42]. التآزر هنا هو أن كل من Apple وMacaron يتجهان نحو "الذكاء الاصطناعي الذي يعمل من أجلك على جهازك"، مما يعزز ثقة المستخدم واستقلاليته.
  • نقل السياق في سير العمل: غالبًا ما تكون تطبيقات Macaron الصغيرة عمليات متعددة الخطوات (تسميها Macaron دفاتر اللعب أو التدفقات الصغيرة[50]). يمكن لمفهوم ذاكرة المشهد المساعدة في الحفاظ على الحالة عبر تلك الخطوات. افترض لديك تطبيق صغير للتخطيط للسفر: الخطوة 1 تبحث عن الرحلات الجوية، الخطوة 2 الفنادق، الخطوة 3 تنشئ برنامج الرحلة. مع ذاكرة السياق، يمكن للذكاء الاصطناعي نقل المعلومات من خطوة إلى أخرى دون الحاجة إلى إعادة تقديم كل شيء. يقوم Macaron بالفعل بترتيب التدفقات إلى أجزاء منطقية لتقليل العبء المعرفي[51] - الآن يمكن للواجهة الخلفية للذكاء الاصطناعي تتبع أفضل لما تم إنجازه وما هو التالي، حتى التعامل مع التغييرات اللاحقة مثل "في الواقع، اجعلها بعد يوم" مع فهم للخطة الحالية.

بشكل عام، ترقية الذكاء الاصطناعي المتقدّم من Apple تعزز المنصات مثل Macaron التي تعمل على نظام iOS. نحن نتجه نحو نظام بيئي حيث لا تكون وكلاء الذكاء الاصطناعي الشخصي محصورة في السحابة، بل تعيش على أجهزتنا الشخصية، وتعمل بتناغم مع ذكاء النظام. رؤية Macaron للتطبيقات المصغرة في متناول يدك تحصل على دفعة لأن نظام التشغيل الأساسي يمكنه تنفيذ مهام الذكاء الاصطناعي بسلاسة أكبر. من الجدير بالذكر أن مبادئ تصميم Macaron (مثل المحتوى التكيفي، التخصيص العميق، وضع عدم الاتصال القوي) تتماشى بشكل جيد مع ما قدمته Apple في نظام iOS 19.2. تجربة المستخدم للوكيل ذات الاستجابة السريعة والوعي بالسياق التي كانت تبدو مستقبلية أصبحت بسرعة حقيقة.

الخاتمة: عصر جديد للذكاء الاصطناعي الشخصي على الجهاز

يمثل نظام iOS 19.2 من Apple لحظة محورية في تطور الذكاء الاصطناعي للمستهلكين - حيث تتحول القوة بشكل واضح إلى الحافة. من خلال نشر نموذج لغوي كبير (LLM) محسّن يعمل محليًا وتقديم "ذاكرة المشهد" للسياق، غيرت Apple ما يمكن أن يفعله هاتفك iPhone. الأمر لا يتعلق فقط بجعل Siri أقل غباءً (رغم أن ذلك نتيجة مرحب بها)؛ بل يتعلق بإعادة تعريف توقعات المستخدمين بشأن الخصوصية والاستجابة في ميزات الذكاء الاصطناعي. يمكنك الآن إجراء محادثة شبه حقيقية مع هاتفك، والحصول على مساعدة فورية من الذكاء الاصطناعي لمحتواك، والوثوق بأن بياناتك ليست قيد التحميل السري إلى بعض مزارع الخوادم البعيدة. في عصر القلق المتزايد بشأن خصوصية البيانات، يوفر نهج Apple الذي يعتمد على العمل دون اتصال إجابة مقنعة على السؤال: "هل يمكننا الحصول على ذكاء اصطناعي متقدم و خصوصية؟" - يبدو أن الإجابة نعم، يمكننا.

من الناحية التقنية، يُعتبر "أبل إنتليجنس 2.0" إبداعًا في ضغط النماذج وتصميم الأجهزة والبرامج والتكامل في نظام تشغيل للمستهلكين. يُظهر أنه من خلال التقطير والتكميم والتحسين، يمكن لنموذج يحتوي على مليارات من المعاملات أن يعمل بسلاسة على جهاز يعمل بالبطارية [18][20]. يفتح هذا الباب لمزيد من الابتكارات: قد نرى قريبًا نماذج صوتية على الجهاز لإملاء أكثر ذكاءً، أو نماذج توصية محلية تتعلم تفضيلاتك دون الحاجة إلى تدريب سحابي. كما منحت أبل المطورين القدرة على الاستفادة من هذه الموجة من خلال إطار عمل النماذج الأساسية [10][11] – توقع ظهور مجموعة جديدة من التطبيقات التي تستفيد من نموذج اللغة الكبير على الجهاز لأغراض إبداعية وعملية، وكل ذلك بدون أي تكلفة إضافية أو تأخير على المستخدمين.

لمستخدمي التكنولوجيا المتقدمين، يعتبر تحديث 19.2 مُرضيًا بشكل خاص. يشبه الأمر الحصول على ترقية في الأجهزة عبر البرمجيات – فجأة يمكن لجهازك الحالي القيام بـ حيل جديدة لم تكن تتوقعها. سيستمتع المستخدمون المحترفون باختبار حدود سياق سيري، وإنشاء اختصارات معقدة تستخدم النموذج الموجود على الجهاز، أو تشغيل تطبيقات مثل Macaron لدفع حدود الذكاء الاصطناعي الشخصي. نحن أيضًا نرى كيف يمكن للذكاء الاصطناعي الطرفي تعزيز الوصول: ميزات مثل التسميات التوضيحية الحية، تبسيط النصوص، أو وصف الصور تصبح أكثر فورية وموثوقية عند تنفيذها على الجهاز، مما يفيد المستخدمين ذوي الإعاقات أو الاتصال المحدود.[53][54].

بالتأكيد، ليست Apple وحدها في هذا الاتجاه للذكاء الاصطناعي القائم على الأجهزة (Qualcomm وGoogle وغيرهما يعملون أيضًا على تسريع الذكاء الاصطناعي على الأجهزة)، ولكن التكامل الوثيق الذي تقوم به Apple بين السيليكون المخصص ونظام التشغيل والميزات المتقدمة يمنحها السبق في تقديم منتج متكامل لملايين المستخدمين على نطاق واسع. "الضجة الكبيرة" حول الذكاء الاصطناعي في iOS 19.2 هو دليل على أن الناس يهتمون بكل من القدرة والثقة. Apple تقول بشكل فعال: لا تحتاج إلى التضحية بواحدة من أجل الأخرى. يمكن أن يكون iPhone الخاص بك ذكيًا وخاصًا بك في نفس الوقت.

بالنظر إلى المستقبل، يمكن للمرء أن يتخيل Apple Intelligence 3.0 مع ذاكرة "المشهد" أكثر تطورًا - ربما تخصيص دائم يتراكم مع مرور الوقت (مخزن محليًا مرة أخرى)، أو مساعد متعدد الوسائط موحد تمامًا يتعامل بسلاسة مع النص والصوت والرؤية والعمل. الأساس موجود بالفعل. وسيزدهر وكلاء الذكاء الاصطناعي الشخصي مثل Macaron في هذا البيئة، حيث يمكن أن يكون لكل مستخدم ذكاء اصطناعي فريد يعرفهم بعمق ولكنه يحافظ على خصوصيتهم.

باختصار، يعتبر LLM غير المتصل وذاكرة المشهد في iOS 19.2 من Apple بمثابة علامة تقنية بارزة وموقف أخلاقي في آن واحد. يظهران ما هو ممكن عندما يتم اقتران تطور الذكاء الاصطناعي باحترام خصوصية المستخدم وتجربته. بالنسبة للمستخدمين، يعني ذلك جهازًا أذكى وأكثر فائدة. أما للمطورين، فهو ملعب جديد من إمكانيات الذكاء الاصطناعي على الجهاز. وللصناعة، يرفع المستوى: مستقبل الذكاء الاصطناعي ليس فقط في السحابة - إنه هنا في جيوبنا. مرحبًا بكم في عصر الذكاء الاصطناعي على الجهاز - حيث يكون هاتفك نفسه هو الوكيل الذكي، ويصبح أكثر ذكاءً كل يوم[7][10].

المصادر: المعلومات الواردة في هذه المقالة مدعومة بإعلانات أبل الرسمية والتقارير التقنية، بالإضافة إلى التحليلات المستقلة. تشمل المراجع الرئيسية أخبار مؤتمر WWDC 2025 حول نموذج الجهاز وإطار المطور [55][10]، وتقرير أبل لبحوث التعلم الآلي حول نماذجها الأساسية (الذي يوضح تصميم النموذج 3B والتقطير والتحويل إلى أعداد صغيرة) [15][20]، والتقارير الموثوقة حول ميزات سيري الجديدة وتأجيل إطلاقها [35][28]. تم الاستشهاد بهذه المصادر والمزيد طوال المقالة للتحقق والقراءة المتعمقة. التطورات حديثة حتى أواخر 2025، مما يشير إلى أحدث ما توصلت إليه التكنولوجيا في نشر الذكاء الاصطناعي على الأجهزة.

[1] [2] [3] [5] [6] [7] [10] [11] [12] [14] [39] [47] [48] [55] نظام آبل الذكي يزداد قوة بقدرات جديدة عبر أجهزة آبل - آبل (كندا)

https://www.apple.com/ca/newsroom/2025/06/apple-intelligence-gets-even-more-powerful-with-new-capabilities-across-apple-devices/

[4] ذكاء Apple - Apple

https://www.apple.com/apple-intelligence/

[8] [9] [29] [32] [33] [34] [35] آبل تقول إنه يجب على المستخدمين التعايش مع سيري العادي حتى iOS 19 أو 2026 - MacTrast

https://www.mactrast.com/2025/03/apple-says-users-will-have-to-put-up-with-regular-siri-until-ios-19-or-2026/

[13] [15] [16] [17] [18] [19] [20] [21] [24] [25] [26] [36] [37] تحديثات لنماذج اللغات الأساسية على الجهاز والخادم من آبل - أبحاث التعلم الآلي من آبل

https://machinelearning.apple.com/research/apple-foundation-models-2025-updates

[22] Apple A17 - ويكيبيديا

https://en.wikipedia.org/wiki/Apple_A17

[23] تطورات الذكاء الاصطناعي والتكنولوجيا الرئيسية (1-2 نوفمبر 2025)

https://www.jasonwade.com/key-ai-tech-developments-november-1-2-2025

[27] [28] [30] [31] [40] [44] أبل ستستخدم نموذج ذكاء اصطناعي بقيمة 1.2 تريليون من جوجل كمساعدة لسيري

https://wccftech.com/apple-will-use-a-1-2-trillion-parameter-very-expensive-ai-model-from-google-as-a-crutch-for-siri/

[38] iOS 19 سيسمح للمطورين باستخدام نماذج الذكاء الاصطناعي من Apple في تطبيقاتهم - MacRumors

https://www.macrumors.com/2025/05/20/ios-19-apple-ai-models-developers/

[41] [42] [43] [49] [50] [51] [52] [53] [54] كيف يتكيف ذكاء ماكرون الاصطناعي مع كل مستخدم - ماكرون

https://macaron.im/blog/macaron-ai-adaptive-accessibility-features

[45] [46] ماكرون AI في العمل: إنشاء تطبيقات صغيرة مخصصة في متناول اليد - ماكرون

https://macaron.im/blog/macaron-personalized-ai-solutions

Boxu earned his Bachelor's Degree at Emory University majoring Quantitative Economics. Before joining Macaron, Boxu spent most of his career in the Private Equity and Venture Capital space in the US. He is now the Chief of Staff and VP of Marketing at Macaron AI, handling finances, logistics and operations, and overseeing marketing.

Apply to become Macaron's first friends