ديفسترال 2 من ميسترال: الذكاء الاصطناعي المفتوح المصدر في عالم ذكاء اصطناعي متعدد الأقطاب

المؤلف: بوكسو لي

شركة ميسترال AI الناشئة في أوروبا كشفت النقاب عن ديفسترال 2، نموذج لغوي متطور يركز على البرمجة. صدر في ديسمبر 2025، يأتي ديفسترال 2 كنموذج مفتوح الوزن بالكامل، مما يعني أن أوزانه متاحة للجمهور بموجب تراخيص مرنة[1]. هذا الإطلاق يؤكد سعي ميسترال لتحدي عمالقة الذكاء الاصطناعي في مهام البرمجة، مقدماً للمطورين بديلاً مفتوح المصدر للنماذج الخاصة مثل كودكس من OpenAI وكلود من Anthropic. أدناه نستعرض بنية ديفسترال 2، قدراته، استخداماته في العالم الحقيقي، وأهميته في الساحة العالمية المتغيرة للذكاء الاصطناعي.

نظرة عامة على النموذج: البنية، تنسيق الإصدار، والحالة المفتوحة

يمثل ديفسترال 2 الجيل التالي من عائلة النماذج البرمجية لميسترال، وقد تم تقديمه في نوعين[1]:

· Devstral 2 (123B بارامترات) - نموذج Transformer كثيف يحتوي على 123 مليار بارامتر ونافذة سياق ضخمة تصل إلى 256,000 رمز[2]. هذا النموذج الكبير موجه للنشر عالي المستوى والمهام المعقدة، ويتطلب على الأقل أربع وحدات معالجة رسومات H100 (وهي مسرعات الذكاء الاصطناعي الرائدة من NVIDIA) للاستدلال في الوقت الحقيقي[3].

· Devstral Small 2 (24B بارامترات) - نموذج مصغر بحجم 24 مليار يحتفظ بطول السياق 256K ولكنه خفيف بما يكفي للتشغيل على أجهزة المستهلك أو وحدة معالجة رسومات واحدة[4][5]. يجعل هذا الإصدار “Small” النشر المحلي وعلى الحافة ممكنًا، مستبدلاً بعض الأداء الأقصى للخدمة العملية.

الهندسة والميزات: على عكس بعض النماذج المنافسة التي تستخدم تقنيات المزج الضخمة (MoE)، فإن Devstral 2 هو محول كثيف، مما يعني أن جميع المعاملات البالغة 123B يمكن استخدامها في كل استدلال. بالرغم من التخلي عن تقسيم MoE، فإنه يضاهي أو يتفوق على أداء النماذج الأكبر حجماً MoE من خلال التركيز على التدريب الفعال وإدارة السياق[6]. يدعم كل من Devstral 2 وشقيقه الصغير المدخلات متعددة الوسائط - حيث يمكنهما قبول الصور جنبًا إلى جنب مع الشفرات، مما يتيح حالات استخدام الرؤية والشفرات مثل تحليل الرسوم البيانية أو لقطات الشاشة في المهام البرمجية[7]. كما يدعمان الميزات القياسية في الصناعة مثل إكمال المحادثات، واستدعاء الوظائف، وتحرير الشفرة داخل السطر (مثل دعم الملء في الوسط لإدراج الشفرة) كجزء من واجهة برمجة التطبيقات الخاصة بـ Mistral[8][9].

بيانات التدريب: بينما لم تقم ميسترال بتفصيل وصفة التدريب بالكامل علنًا، تم تحسين ديفسترال 2 بشكل واضح للمهام المكثفة على الكود. يتم وصفه كنموذج نصي من الدرجة الممتازة للشركات يتفوق في استخدام الأدوات لاستكشاف قواعد الكود وتحرير ملفات متعددة، مخصص لتشغيل وكلاء الهندسة البرمجية الذاتية. يمكننا استنتاج أن تريليونات من الرموز المصدرية والوثائق والنصوص التقنية تم استخدامها في التدريب - ومن المحتمل أنها مستمدة من مستودعات مفتوحة المصدر (مشابهة للطريقة التي تم بها تدريب النماذج المنافسة على مزيج من 80-90% كود والباقي لغة طبيعية). والنتيجة هي نموذج يتقن مئات من لغات البرمجة وماهر في فهم مشاريع الكود الكبيرة.

صيغة الإصدار والترخيص المفتوح المصدر: بشكل حاسم، تستمر Mistral في فلسفة “الوزن المفتوح”[12]. أوزان نموذج Devstral 2 متاحة للجميع لتحميلها وتشغيلها. النموذج الرئيسي 123B متوفر تحت ترخيص MIT المعدل، بينما يستخدم Devstral Small 24B ترخيص Apache 2.0[13][1]. كلا الترخيصين يسمحان بالاستخدام التجاري والتعديل بشكل كبير (من المحتمل أن يضيف MIT المعدل بعض التوضيحات حول الاستخدام). من خلال فتح مصدر هذه النماذج، تهدف Mistral إلى “تسريع الذكاء الموزع” وضمان الوصول الواسع إلى أحدث تقنيات الذكاء الاصطناعي[1]. يمكن للمطورين استضافة النماذج بأنفسهم أو استخدام API الخاص بـ Mistral. خلال الفترة الأولية، تكون API لـ Devstral 2 مجانية للاختبار، مع تحديد الأسعار لاحقًا عند $0.40 لكل مليون رمز إدخال و$2.00 لكل مليون رمز إخراج (وبأسعار أقل حتى للنموذج الصغير)[14][15]. توفر الأوزان بشكل مفتوح يعني أن المجتمعات يمكنها أيضًا تحسين وتكامل النموذج بدون قيود البائع.

قدرات البرمجة وقياس الأداء

تم تصميم Devstral 2 خصيصًا لتطوير البرمجيات بطرق "وكلائية". فهو لا يقوم فقط بإنشاء الأكواد، بل يمكنه التنقل، التحرير، وتصحيح الأكواد بشكل تلقائي عبر استخدام الأدوات. تم تصميم النموذج للتعامل مع المشاريع متعددة الملفات: يمكنه تحميل السياق من العديد من ملفات المصدر، تتبع التبعية عبر المشروع، وحتى تنسيق التغييرات عبر الملفات أثناء إعادة الصياغة[16]. على سبيل المثال، يمكن لـ Devstral تحديد مكان تعريف الوظيفة، نشر التحديثات لجميع المكالمات، وإصلاح الأخطاء الناتجة – مما يجعله يتصرف كمطور مبتدئ ذكي على دراية بالمستودع بأكمله. يقوم باكتشاف الأخطاء أثناء التنفيذ، تحسين مخرجاته، ويكرر حتى تنجح الاختبارات[17]. هذا المستوى من الوعي السياقي والتكرار التحسيني هو في صميم ما يسمى بمساعدي البرمجة "vibe coding"، مما يضع Devstral 2 في منافسة مع الذكاء الاصطناعي المتخصص في البرمجة مثل OpenAI’s Codex، Meta’s Code Llama، والمبرمجين الوكلائيين الجدد مثل DeepSeek-Coder و Kimi K2.

أداء المعايير: على معايير البرمجة، يعتبر Devstral 2 من النماذج ذات الأداء الأفضل عالميًا. تشير تقارير Mistral إلى أن Devstral 2 يسجل 72.2% على مجموعة SWE-Bench (التحقق منها)[2]. SWE-Bench هي مجموعة صارمة من المهام البرمجية الواقعية حيث يتم التحقق من صحة الحلول، وتشبه نسخة متقدمة من اختبار HumanEval الخاص بـOpenAI. للمقارنة، حل Codex (2021) الأصلي لـOpenAI فقط ~28.8% من مشاكل HumanEval الأبسط pass@1[18] - وهذا دليل على مدى تقدم الذكاء الاصطناعي في البرمجة. حتى Code Llama 34B (2023) من Meta، أحد أفضل النماذج المفتوحة في وقته، حقق ~53.7% في HumanEval[19]. تشير نسبة 72% لـ Devstral 2 على SWE-Bench الأصعب إلى أنه يتفوق بشكل كبير على تلك النماذج السابقة. في الواقع، دقة Devstral تقترب من مستوى العمالقة الحاليين المملوكين؛ حيث أن النموذج الأحدث لـAnthropic Claude Sonnet 4.5 (نموذج متخصص في البرمجة) وGemini من Google في منتصف إلى أواخر السبعينيات على معايير البرمجة المماثلة[20].

أداء نموذج الترميز المفتوح مقابل النموذج الخاص: في اختبار SWE-Bench Verified، يعتبر Devstral 2 (72.2%) وأخوه 24B (68.0%) من بين أفضل النماذج مفتوحة المصدر. يغلقون الفجوة مع القادة الخاصين مثل Claude Sonnet 4.5 وGPT-5.1 Codex (أحدث إصدار من Anthropic وOpenAI، حوالي 77%). بشكل مدهش، يحقق Devstral 2 هذا بجزء من المعاملات مقارنة ببعض المنافسين. على سبيل المثال، DeepSeek V3.2 في الصين (نموذج MoE ~236B إجمالي المعاملات) يتفوق قليلاً على Devstral في الدقة (~73.1%)، لكن Devstral يستخدم فقط 1/5 من إجمالي المعاملات. وبالمثل، Kimi K2 من Moonshot (نموذج MoE بترليون معاملة من الصين) سجل ~71–72% بينما يفعل 32B من الخبراء – يتطابق Devstral 2 معه مع نموذج 123B كثيف، أصغر بكثير في الحجم. هذه الكفاءة تنعكس في المخطط أعلاه: Devstral 2 (الشريط الأحمر) يقدم دقة قريبة من الحداثة بينما هو أصغر بـ5 مرات من DeepSeek و8 مرات من Kimi K2. بعبارة أخرى، أثبتت Mistral أن النماذج المدمجة يمكن أن تنافس الأكبر بكثير، مما يبشر بنشر فعال من حيث التكلفة.

في المقارنات جنبًا إلى جنب، يتفوق Devstral 2 بالفعل على بعض المنافسين المفتوحين في الاختبارات النوعية. في تحدي برمجة مباشر أجرته جهة تقييم مستقلة، حقق Devstral 2 نسبة فوز بلغت 42.8% مقابل خسائر بلغت 28.6% فقط عند مقارنته مع DeepSeek V3.2[23] مما يظهر تفوقًا واضحًا في جودة توليد الكود. ومع ذلك، ضد نموذج Anthropic’s Claude Sonnet 4.5، خسر Devstral أكثر مما فاز[23]، مما يشير إلى أن هناك فجوة لا تزال قائمة بين النماذج المفتوحة وأفضل النماذج المغلقة. حتى أن Anthropic تصف Claude Sonnet 4.5 بأنه "أفضل نموذج برمجي في العالم" بقدرة استثنائية على بناء وكلاء برمجة معقدة[24]. الخبر السار لعشاق المصادر المفتوحة هو أن Devstral 2 يضيق هذه الفجوة بشكل كبير. تشير Mistral إلى أن Devstral يحقق معدلات نجاح في استخدام الأدوات تضاهي أفضل النماذج المغلقة - مما يعني أنه يمكنه تحديد متى يستدعي واجهة برمجة التطبيقات، أو تشغيل أمر، أو البحث في الوثائق بمهارة تضاهي المنافسين[25]. هذه القدرة على التحكم الذاتي حاسمة لأتمتة مهام البرمجة بما يتجاوز إكمال الكود الثابت.

من الجدير بالذكر أيضًا كفاءة التكلفة في Devstral 2. بفضل حجمه الأصغر وتصميمه المحسن، تدعي Mistral أن Devstral أكثر كفاءة في التكلفة بنسبة تصل إلى 7 مرات مقارنة بـ Claude Sonnet من Anthropic في مهام البرمجة الواقعية[26]. تشير الكفاءة هنا إلى الحساب المطلوب لكل نتيجة ناجحة – يمكن لـ Devstral تحقيق نتائج مماثلة مع عدد أقل من العمليات الحسابية أو تكاليف سحابية أقل، وهي ميزة جذابة للشركات الناشئة والفرق الحريصة على الميزانية.

التطبيقات للمطورين والشركات الناشئة والمؤسسات

Devstral 2 ليس مجرد إنجاز بحثي؛ بل مصمم ليكون مفيدًا فورًا لمطوري البرمجيات عبر الطيف - من المطورين المستقلين إلى فرق الشركات الكبرى. قامت Mistral بدمج النموذج مع Mistral Vibe CLI، مساعد سطر الأوامر الجديد الذي يحول Devstral إلى شريك برمجة فعلي[27]. يتيح هذا CLI (متوفر كإضافة لـ IDE وأداة مفتوحة المصدر) للمطورين التحدث مع الذكاء الاصطناعي حول قاعدة الشفرة الخاصة بهم، طلب التغييرات، وحتى تنفيذ الأوامر، كل ذلك من داخل بيئة البرمجة الخاصة بهم[28][29]. في الممارسة، يمكن لـ Vibe CLI قراءة ملفات مشروعك، فهم حالة git، والحفاظ على ذاكرة دائمة لجلسة العمل لتجنب تكرار السياق[30]. على سبيل المثال، يمكن للمطور كتابة: "أضف وحدة مصادقة المستخدم" وسينشئ Vibe الملفات الضرورية، يعدل التكوين، يشغل npm install للتبعيات، وحتى ينفذ الاختبارات - مما يعني أتمتة مهام البرمجة متعددة الخطوات عن طريق اتباع تعليمات باللغة الطبيعية. يمكن لهذا النوع من المساعد التطويري المتكامل أن يقلل من أوقات دورات طلب السحب إلى النصف من خلال التعامل مع الأعمال الروتينية مثل القوالب وإعادة الهيكلة بشكل تلقائي[31].

للمطورين الفرديين والفرق الصغيرة، يمكن لـ Devstral 2 (عبر Vibe CLI أو محررين مثل VS Code) زيادة الإنتاجية بشكل كبير. يوفر إكمال الكود الفوري ونصائح تصحيح الأخطاء، مشابهًا لـ GitHub Copilot ولكن بقدرة أكبر على معالجة تغييرات المشروع بالكامل. كما يدعم البحث الذكي عن الكود: باستخدام نموذج التضمين واللغة الطبيعية، يمكنه العثور على مكان استخدام دالة أو اقتراح مقتطفات ذات صلة (طورت Mistral سابقًا نموذجًا للبحث عن الكود "Codestral Embed" لهذا الغرض). ذاكرة المحادثة المستمرة للنموذج تعني أنها يمكن أن تتذكر المناقشات السابقة حول خطأ أو ميزة خلال الجلسة، مما يجعل التجربة تبدو وكأنها برمجة زوجية مع خبير كان موجودًا طوال الوقت. ولأن Devstral Small 2 يمكن تشغيله محليًا (حتى بدون وحدة معالجة رسوميات إذا لزم الأمر)، يمكن للهواة والمبرمجين المستقلين التجربة بدون تكاليف السحابة أو الوصول إلى الإنترنت – مثل البرمجة على جهاز كمبيوتر محمول خلال هاكاثون بمساعد AI يعمل بالكامل على الجهاز.

بالنسبة للشركات الناشئة، يعتبر تبني Devstral 2 وسيلة لبناء ميزات برمجة AI متقدمة دون الاعتماد على واجهات برمجة التطبيقات الخاصة بالشركات الكبرى. العديد من الشركات الناشئة تسعى لدمج مبرمجي الذكاء الاصطناعي أو أتمتة الكود في خطوط التطوير الخاصة بهم. مع نموذج Devstral المفتوح، يمكنهم استضافته على خوادمهم الخاصة أو استخدام خدمات الاستدلال التي يديرها المجتمع، مما يتيح لهم تجنب رسوم واجهات برمجة التطبيقات الباهظة. الترخيص المرن يعني أنهم يمكنهم ضبط النموذج على قاعدة بياناتهم البرمجية الخاصة ودمجه بعمق في منتجهم (وهو ما لا يمكن القيام به مع النماذج المغلقة مثل Codex أو Claude بسبب قيود الاستخدام). النموذج متوافق مع النشر المحلي والتخصيص الفوري مباشرة[33]. المستخدمون الأوائل لتقنية مبرمجة Mistral تشمل شركات مثل Capgemini و SNCF (السكك الحديدية الوطنية الفرنسية) الذين استخدموا AI من Mistral للمساعدة في مشاريع البرمجيات[34]. يمكن للشركة الناشئة استخدام Devstral بطريقة مشابهة لأتمتة مراجعات الكود، إنشاء نماذج جاهزة للخدمات الصغيرة الجديدة، أو حتى بناء مولدات اختبار باللغة الطبيعية - كل ذلك مع الحفاظ على الكود الحساس داخل الشركة.

الشركات يمكن أن تستفيد بشكل كبير من تركيز Mistral على "عمليات الإنتاج عالية الجودة". غالباً ما تكون لدى المؤسسات الكبيرة أنظمة تقليدية وقواعد بيانات ممتدة. يعني نافذة السياق الممتدة في Devstral 2 (256 ألف رمز) أنها تستطيع استيعاب مئات الصفحات من التعليمات البرمجية أو الوثائق دفعة واحدة، مما يجعلها قادرة على فهم هيكل مستودع التعليمات البرمجية بالكامل للشركة أو مواصفات API كبيرة في جولة واحدة. هذا أمر حاسم للمهام مثل تحديث التعليمات البرمجية القديمة – يمكن للنموذج اقتراح إعادة هيكلة وحدة من إطار عمل قديم إلى إطار حديث، وتغيير عشرات الملفات بشكل متسق[17]. يمكن للشركات نشر Devstral 2 خلف جدار الحماية الخاص بها (حتى أن Mistral قامت بتحسينه ليعمل على أنظمة NVIDIA DGX وأنظمة NIM القادمة لتسهيل التوسع الداخلي[35]). هذا يخفف من المخاوف بشأن خصوصية البيانات والامتثال، حيث لا حاجة لخروج التعليمات البرمجية من بنية الشركة التحتية.

علاوة على ذلك، الاعتمادية والتحكم هما مفتاح لأقسام تكنولوجيا المعلومات في الشركات الكبيرة. أشار Guillaume Lample، المؤسس المشارك لشركة Mistral، إلى أن الاعتماد على واجهات برمجة التطبيقات للذكاء الاصطناعي الخارجية (مثل OpenAI) يمكن أن يكون محفوفًا بالمخاطر: "إذا كنت شركة كبيرة، لا يمكنك تحمل [واجهة برمجة تطبيقات] تتعطل لمدة نصف ساعة كل أسبوعين"[36]. من خلال امتلاك نشر النموذج، تكتسب الشركات استمرارية في التشغيل ويمكنها تخصيص الأداء وفقًا لاحتياجاتها. كما تقدم Mistral وحدة تحكم إدارية لمنصة البرمجة الخاصة بها، مما يوفر تحكمات دقيقة، تحليلات الاستخدام، وإدارة الفريق[37] – وهو أمر حيوي للشركات الكبيرة لمراقبة وإدارة استخدام الذكاء الاصطناعي. باختصار، يعزز Devstral 2 مجموعة أدوات المؤسسات: من أتمتة صيانة الشفرات، إلى العمل كمساعد برمجي ذو معرفة يساعد في توظيف المطورين الجدد من خلال الإجابة عن الأسئلة المتعلقة بقاعدة الشفرات الخاصة بالشركة.

الموقع الاستراتيجي: نهضة Mistral في مشهد الذكاء الاصطناعي العالمي

شركة Mistral AI، التي تُلقب غالبًا بـ"مختبر الذكاء الاصطناعي الرائد في أوروبا"، نمت بسرعة لتصبح لاعبًا قويًا. يُظهر التقييم الأخير للشركة بقيمة 11.7 مليار يورو (ما يقرب من 13.8 مليار دولار) عقب جولة تمويل رئيسية بقيادة عملاق أشباه الموصلات ASML الأهمية الاستراتيجية التي توليها أوروبا لامتلاك قيادة خاصة بها في مجال الذكاء الاصطناعي. على عكس المختبرات الأمريكية الممولة بشكل كبير (ذكرت التقارير أن OpenAI جمعت 57 مليار دولار بقيمة مذهلة بلغت 500 مليار دولار)، تعمل Mistral بتمويل أقل نسبيًا. هذا التباين المالي شكل استراتيجية Mistral: النماذج ذات الأوزان المفتوحة والكفاءة على الحجم الكبير. بدلاً من المشاركة في سباق التسلح بالمعاملات مع أمثال GPT-4 أو GPT-5، فإن فلسفة Mistral هي أن الأكبر ليس دائمًا الأفضل - خاصة في حالات الاستخدام المؤسسي. كما أوضح Lample، يمكن التعامل مع العديد من المهام المؤسسية بواسطة نماذج أصغر ومضبوطة بدقة بشكل أرخص وأسرع. Devstral 2 يجسد تمامًا هذا النهج: فهو أصغر من النماذج ذات المصدر المغلق ولكنه مُحسّن للغاية لمهام البرمجة التي تهتم بها المؤسسات.

من خلال جعل النماذج عالية الأداء مفتوحة المصدر، تضع ميسترال نفسها كـ نقيض لفكرة الذكاء الاصطناعي المغلق التي تهيمن عليها وادي السيليكون. نماذج OpenAI وAnthropic الرائدة، على الرغم من أنها قوية بشكل مذهل، إلا أنها خاصة ويمكن الوصول إليها فقط عبر API. ترفض ميسترال بشكل صريح هذا النهج المغلق: “لا نريد أن يتحكم في الذكاء الاصطناعي عدد قليل فقط من المختبرات الكبيرة”، يقول لامبل[42]. بدلاً من ذلك، تريد ميسترال ديمقراطية الذكاء الاصطناعي المتقدم عن طريق إطلاق الأوزان وتمكين أي شخص من تشغيل النماذج وتعديلها. هذا الموقف أكسب ميسترال بسرعة دوراً مركزياً في نظام الذكاء الاصطناعي مفتوح المصدر. تضمن مجموعة نماذجهم السابقة (عائلة Mistral 3 التي تم إطلاقها في 2 ديسمبر 2025) نموذج موE متعدد الوسائط يحتوي على 675 مليار معلمة وتسعة نماذج أصغر، جميعها تم إصدارها بشكل مفتوح[43][44]. الآن Devstral 2 يبني على تلك الأساسيات، مستهدفاً مجال الترميز المهم. كل إصدار يعزز سمعة ميسترال كـ رائد للذكاء الاصطناعي المفتوح وعالي الجودة ومزود لنماذج "الحدود" التي تنافس النماذج المغلقة في الإمكانيات[44].

استراتيجياً، يتيح Devstral 2 أيضاً لشركة Mistral تشكيل شراكات صناعية ونظام بيئي للمطورين. إلى جانب النموذج، أعلنت شركة Mistral عن تكاملات مع أدوات وكيل مثل Kilo Code وCline (إطارات عمل شائعة لوكلاء البرمجة الذاتية) لضمان أن Devstral يمكن استخدامه بسهولة في هذه الأنظمة[45]. كما جعلوا امتداد Vibe CLI متاحاً في Zed IDE[46]، مما يشير إلى نهج ذكي لدخول السوق من خلال تلبية احتياجات المطورين في أماكن عملهم الحالية. من خلال دمج تقنيتهم في أساليب العمل وتشجيع مساهمات المجتمع (CLI مفتوح المصدر تحت رخصة Apache 2.0[47])، تعزز شركة Mistral مكانتها في النظام البيئي. هذا نهج مختلف عن المختبرات الأمريكية الكبرى – حيث يركز على استيعاب المجتمع والثقة. إنه يضع Mistral ليس فقط كمزود لنماذج الذكاء الاصطناعي، بل كـ باني منصة للتطوير بمساعدة الذكاء الاصطناعي، مما قد ينتج عنه تأثيرات شبكية مع تبني المزيد من المستخدمين والمنظمات لأدواتهم.

تحول نحو التعددية القطبية في الذكاء الاصطناعي: نماذج رائدة في الولايات المتحدة والصين والاتحاد الأوروبي

يبرز إصدار Devstral 2 تحولًا مستمرًا نحو عالم الذكاء الاصطناعي متعدد الأقطاب، حيث يتم توزيع القيادة بين الولايات المتحدة والصين وأوروبا بدلاً من أن تسيطر عليها منطقة واحدة. كل من هذه المناطق قام بتطوير نماذج ذكاء اصطناعي رئيسية بسرعة، وغالبًا بطرق فلسفية مختلفة:

· الولايات المتحدة – نماذج الحدود المغلقة: لا تزال الولايات المتحدة تتصدر في قدرات النماذج المتقدمة، مع OpenAI وAnthropic في المقدمة. وضعت OpenAI معايير عالية مع GPT-4 (وسلسلة GPT-5 المنتظرة) للكثير من المعايير، لكنها تبقى مملوكة بالكامل. يركز كلود 4 وكلود سونيت من Anthropic على ذكاء اصطناعي آمن يركز على التفكير، وهو أيضًا مغلق المصدر ولكنه يستهدف بشكل متزايد عمليات سير العمل البرمجية (مثل Sonnet 4.5 مع سياق مليون رمز للبرمجة)[48]. تفضل هذه الشركات الوصول المحدود عبر واجهات برمجة التطبيقات ولديها ميزانيات حوسبة ضخمة – وهي اتجاه أثار قلقًا في الخارج بشأن الاعتماد المفرط على الذكاء الاصطناعي الأمريكي. من المثير للاهتمام، حتى في الولايات المتحدة، أن شركات مثل Meta قد خرجت عن هذا الاتجاه بفتح مصدر نماذج Llama، لكن العديد من النظم الأكثر تقدمًا لا تزال مغلقة.

· الصين – طفرة الابتكار المفتوح: في العامين الماضيين، قامت مختبرات الذكاء الاصطناعي في الصين بتحول استراتيجي نحو الإصدارات المفتوحة المصدر، جزئيًا لاكتساب اعتماد عالمي وجزئيًا لتقليل الاعتماد على التقنية الغربية. على سبيل المثال، قامت بايدو مؤخرًا بإصدار نموذج متعدد الوسائط مفتوح المصدر (ERNIE 4.5-VL) تحت رخصة Apache 2.0، مدعية أنه ينافس أحدث إصدارات جوجل وOpenAI في مهام الرؤية واللغة[49][50]. يستخدم نموذج بايدو بنية MoE ليكون فعالاً للغاية - حيث يقوم بتفعيل ~3 مليارات من معاييره البالغ عددها 28 مليار في آن واحد - مما يسمح له بالعمل على وحدة معالجة رسوميات واحدة بسعة 80 غيغابايت[51][52]. هذا يظهر تأكيد الصين على القابلية العملية للنشر والوصول المفتوح، مقارنة بالشركات الغربية التي تحافظ على نماذجها القوية. Zhipu AI (شركة ناشئة صينية بارزة في الذكاء الاصطناعي) تتبع نهجًا مفتوحًا بالمثل: سلسلة DeepSeek-Coder الخاصة بها مفتوحة المصدر وتم تدريبها على مجموعات بيانات ضخمة ثنائية اللغة[53]. يمكن لأحدث إصدار من DeepSeek التعامل مع 338 لغة برمجة و128 ألف سياق[54]، ويدعي أداءً مماثلاً لـ GPT-4 Turbo في مهام البرمجة[11] - ادعاء جريء مدعوم بنتائج معاييرها التي تفوقت على GPT-4 في بعض تحديات الترميز والرياضيات[55]. بالإضافة إلى ذلك، فإن Kimi K2 من Moonshot AI، مع تريليون معايير (MoE)، هو نموذج مفتوح صيني آخر مصمم لتوليد الأكواد وحل المشكلات بذكاء[56]. تشير هذه الجهود إلى أن الصين تنتج بسرعة نماذج من فئة GPT-4 الخاصة بها، غالبًا مفتوحة أو شبه مفتوحة، لتعزيز نظام بيئي محلي وللمنافسة عالميًا من خلال الاستفادة من قوة التعاون المفتوح.

· الاتحاد الأوروبي – الهجوم المفتوح الوزن لمجموعة ميسترال: أوروبا، من خلال ميسترال وعدد من المبادرات الأخرى، تؤسس ركيزة ثالثة للقيادة في مجال الذكاء الاصطناعي. تُعتبر نماذج ميسترال – من مجموعة Large 3 MoE إلى سلسلة الترميز الجديدة Devstral – بمثابة رد أوروبا على النماذج المغلقة من الخارج. يركز نهج الاتحاد الأوروبي بشكل كبير على الانفتاح والثقة. وقد أعرب صناع السياسات الأوروبيون عن دعمهم للأبحاث المفتوحة في الذكاء الاصطناعي، باعتبارها وسيلة لضمان السيادة التكنولوجية (حتى لا تعتمد الشركات الأوروبية بالكامل على واجهات برمجة التطبيقات الأمريكية أو التقنية الصينية). إن نجاح ميسترال في جمع رأس المال (بدعم من قادة الصناعة الأوروبية مثل ASML) وتقديم نماذج مفتوحة عالية الأداء هو دليل على أن الذكاء الاصطناعي العالمي يمكن بناؤه خارج وادي السيليكون. كما أنه يكمل اللوائح الأوروبية التي تؤكد على الشفافية: النماذج المفتوحة تسمح بالمراجعة والتكيف مع المعايير المحلية بسهولة أكبر. مع Devstral 2، تمتلك أوروبا الآن نموذج ترميز رائد يمكنه الوقوف أمام الأفضل من الولايات المتحدة (Claude، مبرمجي GPT) والصين (DeepSeek، Kimi). إنه يجسد نهجًا متعدد الأطراف في التقدم في الذكاء الاصطناعي، حيث يتم تقدير التعاون والابتكار المفتوح بجانب الأداء الخام.

من المرجح أن يستفيد المطورون والشركات على مستوى العالم من هذا الاتجاه المتعدد الأقطاب في الذكاء الاصطناعي. تدفع المنافسة كل لاعب إلى الابتكار - ستسعى OpenAI لجعل GPT-5 أكثر قوة، بينما ستركز Anthropic على السياق الكبير والسلامة، وستواصل المختبرات الصينية فتح نماذج بأساليب جديدة (كما هو الحال مع نماذج MoE للرؤية الفعالة من Baidu)، وستواصل Mistral التقدم في أحدث التقنيات المفتوحة مع تمكين الوصول الواسع. على سبيل المثال، بعد الإصدارات المفتوحة لـ Mistral، رأينا Baidu تتبنى ترخيص Apache المتسامح كخطوة تنافسية [50]، وعلى العكس، تقوم Mistral الآن بدمج تقنيات متقدمة مثل تلك التي تم تطويرها في الصين (مثل نوافذ السياق الطويلة، وتوجيه MoE في نماذج أخرى).

في عالم الذكاء الاصطناعي متعدد الأقطاب، المطورون لديهم خيارات أكثر. يمكنهم اختيار نموذج أوروبي مفتوح المصدر للخصوصية، أو نموذج صيني من أجل الكفاءة في التكلفة، أو واجهة برمجة تطبيقات أمريكية للقدرة الهائلة – أو مزجها وتطابقها. هذا يقلل من هيمنة أي شركة أو دولة واحدة على تكنولوجيا الذكاء الاصطناعي. كما وضعها فريق ميسترال، المهمة هي ضمان أن الذكاء الاصطناعي ليس تحت سيطرة عدد قليل من المختبرات الكبيرة فقط. مع إطلاق ديفسترال 2، تتخذ هذه الرؤية خطوة كبيرة نحو الأمام. الابتكار في الذكاء الاصطناعي أصبح جهدًا عالميًا وتعاونيًا، تمامًا مثل البرمجيات المفتوحة المصدر، و"الأجواء" تدعم بشدة الانفتاح والتنوع.

الخاتمة

وصول Mistral Devstral 2 يأتي في لحظة محورية في عالم الذكاء الاصطناعي – لحظة يثبت فيها الانفتاح والتعاون قيمتهما ضد المنافسين المغلقين. بالنسبة للمطورين، يعني ذلك مساعدًا قويًا في البرمجة يمكنهم امتلاكه وتعديله والوثوق به حقًا. بالنسبة للمنظمات، يوفر طريقًا للاستفادة من قدرات البرمجة بالذكاء الاصطناعي من الدرجة الأولى مع سيطرة أكبر على التكلفة والبيانات. وللصناعة بشكل عام، يشير Devstral 2 إلى أن تقدم الذكاء الاصطناعي لم يعد محصورًا في احتكار وادي السيليكون. شركة Mistral الأوروبية، بفلسفتها المفتوحة، تستفيد من موجة "البرمجة بالجو" وتدفع حدود ما يمكن أن تفعله النماذج المفتوحة في الإنتاج[57][58]. مع تحول الذكاء الاصطناعي ليصبح متعدد الأقطاب بشكل متزايد، الفائزون الحقيقيون سيكونون من يبنون باستخدام هذه النماذج. سيكون لدينا مجموعة غنية من نماذج ووكلاء الذكاء الاصطناعي تحت تصرفنا – من Devstral وما بعده – لتعزيز الابتكار في تطوير البرمجيات وما بعده. إطلاق Devstral 2 لا يعزز فقط مكانة Mistral، بل يمكّن أيضًا مجتمع المطورين العالمي بأكمله من خلال الذكاء الاصطناعي المتقدم في البرمجة وفقًا لشروطهم الخاصة. يبدو أن الفصل التالي من الذكاء الاصطناعي سيكتبه العديد من الأيدي، وMistral قدمت لنا قلمًا قويًا للغاية.

المصادر: إعلان Mistral AI[1][2][23]; تغطية TechCrunch[57][4][38]; أرقام المقاييس ومقارنات النماذج[20][6][18][19]; مراجع Anthropic وDeepSeek[59][48]; تقرير VentureBeat عن Baidu[50][51]; مقابلة TechCrunch مع Mistral[40][42].

تقديم: ديفسترال 2 وميسترال فايب CLI. | ميسترال AI

https://mistral.ai/news/devstral-2-vibe-cli

[3] [4] [13] [14] [27] [28] [30] [38] [57] [58] شركة Mistral AI تستفيد من الاتجاهات الجديدة في البرمجة مع نماذج ترميز جديدة | TechCrunch

https://techcrunch.com/2025/12/09/mistral-ai-surfs-vibe-coding-tailwinds-with-new-coding-models/

[8] [9] [10] Devstral 2 - Mistral AI | مستندات ميسترال

https://docs.mistral.ai/models/devstral-2-25-12

[11] [54] [55] [59] deepseek-ai/DeepSeek-Coder-V2-Instruct · Hugging Face

https://huggingface.co/deepseek-ai/DeepSeek-Coder-V2-Instruct

[12] [36] [39] [40] [41] [42] [43] [44] ميسترال تقترب من منافسي الذكاء الاصطناعي الكبار بنماذج جديدة مفتوحة الوزن وصغيرة | تيك كرانش

https://techcrunch.com/2025/12/02/mistral-closes-in-on-big-ai-rivals-with-mistral-3-open-weight-frontier-and-small-models/

[18] HumanEval: عندما تعلمت الآلات البرمجة - Runloop

https://runloop.ai/blog/humaneval-when-machines-learned-to-code

[19] Code Llama: نماذج الأساس المفتوحة للبرمجة - alphaXiv

https://www.alphaxiv.org/overview/2308.12950v3

[21] [56] الذكاء الاصطناعي الصيني يطلق نموذج كيمي K2 بمليار معلمة

https://www.hpcwire.com/2025/07/16/chinas-moonshot-ai-releases-trillion-parameter-model-kimi-k2/

[24] تقديم كلود سونيت 4.5 - أنثروبيك

https://www.anthropic.com/news/claude-sonnet-4-5

[32] [34] [37] مسترال تصدر عميل ترميز الفايب، مسترال كود | تك كرانش

https://techcrunch.com/2025/06/04/mistral-releases-a-vibe-coding-client-mistral-code/

[48] ما الجديد في كلود 4.5

https://platform.claude.com/docs/en/about-claude/models/whats-new-claude-4-5

[49] [50] [51] [52] شركة بايدو أصدرت للتو نموذج ذكاء اصطناعي متعدد الوسائط مفتوح المصدر تدعي أنه يتفوق على GPT-5 وGemini | VentureBeat

https://venturebeat.com/ai/baidu-just-dropped-an-open-source-multimodal-ai-that-it-claims-beats-gpt-5

[53] [2401.14196] DeepSeek-Coder: عندما النموذج اللغوي الكبير ...

https://arxiv.org/abs/2401.14196

Boxu earned his Bachelor's Degree at Emory University majoring Quantitative Economics. Before joining Macaron, Boxu spent most of his career in the Private Equity and Venture Capital space in the US. He is now the Chief of Staff and VP of Marketing at Macaron AI, handling finances, logistics and operations, and overseeing marketing.

Apply to become Macaron's first friends