عندما جلست لأول مرة لأكتشف ما هو GLM-4.7 في الممارسة (وليس فقط في لغة البيانات الصحفية)، توقعت "نمواً آخر في نموذج الجبهة." مؤشرات أفضل قليلاً، ادعاءات غامضة حول التفكير، وليس الكثير غير ذلك.

هذا... ليس ما حدث.

بعد أسبوع من اختبار GLM-4.7 عبر البرمجة، مراجعة الوثائق الطويلة، وبعض تدفقات العمل بأسلوب الوكيل، انتهيت إلى إعادة ترتيب بعض أدواتي الافتراضية. هذا النموذج يقع في مكانة محددة للغاية: سياق ضخم، مهارات برمجية جادة، ووزن مفتوح عند 358 مليار معلمة، وهو ليس بجملة توقعت أن أكتبها في عام 2025.

دعني أشرح لك ما هو GLM-4.7 بالفعل، كيف يتصرف، وأين يمكن أن يناسب فعلياً في تدفق عمل المبدعين أو المطورين المستقلين.

نظرة عامة على GLM-4.7: ما الذي أطلقته Zhipu للتو

إذا كنت قد استخدمت GLM-4 أو GLM-4-Air أو GLM-4.6 من قبل، فإن GLM-4.7 هو إصدار Zhipu الذي يقول "لن نلعب بعد الآن". فكر في: التفكير على مستوى الجبهة + سياق كبير + أوزان مفتوحة مستهدفة بشكل مباشر لكل من واجهات برمجة التطبيقات الإنتاجية والمستخدمين الأقوياء.

تاريخ الإصدار

أطلقت Zhipu بهدوء GLM-4.7 في أواخر 2024، ثم بدأت في دفعه بقوة في أوائل 2025 كنموذجها الرئيسي الجديد للبرمجة والاستدلال. بحلول الوقت الذي قمت فيه باختباره، كانت الوثائق تشير إليه بالفعل كنموذج GLM الراقي الافتراضي.

عادةً ما ستراه يُعرض كشيء مثل glm-4.7 أو مشابه في واجهة برمجة التطبيقات الخاصة بـ Zhipu، وكإصدار بوزن مفتوح 358B على Hugging Face للاستضافة الذاتية.

تموضع النموذج

إليك كيف ألخص تموضع النموذج بعد استخدامه فعليًا:

  • المستوى: LLM متعدد الأغراض على مستوى الجبهة
  • التركيز: البرمجة، الاستدلال المعقد، والمهام ذات السياق الطويل
  • الجمهور: الفرق التي ترغب في مساعدة قوية في البرمجة وتدفقات العمل الطويلة للوثائق: المطورون المستقلون الذين يفضلون الأوزان المفتوحة: الباحثون

في نظام Zhipu البيئي الخاص، يتم تقديم GLM-4.7 كنموذجهم الأفضل للبرمجة والاستدلال، ويدعمه الفوز في المعايير مثل SWE-bench و HLE. في العالم الواقعي، هذا يعني: هذا هو النموذج الذي تختاره عندما تهتم بالجودة أكثر من التكلفة الخام لكل رمز.

توفر الأوزان المفتوحة

أكبر لحظة "واو، لقد فعلوها بالفعل" بالنسبة لي كانت هذه: نسخة GLM-4.7 ذات 358 مليار معلمة متاحة كأوزان مفتوحة.

يمكنك:

  • سحبها من Hugging Face
  • تشغيلها على البنية التحتية الخاصة بك (بافتراض أن لديك أجهزة غير تقليدية للغاية)
  • ضبطها بدقة أو تكييفها باستخدام LoRA لمجالك الخاص

في اختباري، كان زاوية الأوزان المفتوحة أقل أهمية للمبدعين الفرديين (من المحتمل أنك تستخدم API) وأكثر أهمية للفرق التي تحتاج إلى التحكم في البيانات أو ترغب في بناء مساعدين داخليين متخصصين.

العلاقة مع GLM-4.6

إذا كنت تتساءل عن الفرق بين GLM-4.7 وGLM-4.6، فإليك النسخة المختصرة من استخدام كلاهما جنبًا إلى جنب:

  • GLM-4.7 أفضل بشكل ملحوظ في البرمجة (خاصة في إعادة هيكلة الملفات المتعددة والاختبارات)
  • التفكير في المهام الصعبة متعددة الخطوات يبدو أكثر اتساقًا، وليس فقط "أحيانًا رائع"
  • استخدام الأدوات أكثر سلاسة: يحترم توقيعات الوظائف والمخططات بشكل أكثر موثوقية

في مجموعة المعايير الخاصة بي (حوالي 40 مهمة في العالم الحقيقي أستخدمها عبر النماذج)، حل GLM-4.7 حوالي 18-20% من المهام البرمجية المعقدة أكثر من GLM-4.6 بدون أي جهد إضافي في التوجيه.

لذا إذا كنت لا تزال تستخدم 4.6 لأي شيء جاد، فإن GLM-4.7 ليس مجرد ترقية جمالية، بل هو الأساس الجديد في خط GLM.

المواصفات الأساسية التي تحتاج إلى معرفتها

المواصفات لا تروي القصة كاملة، ولكن مع GLM-4.7، بعضها مرتبط مباشرة بكيفية استخدامك له يوميًا.

نافذة سياق 200K

يأتي GLM-4.7 مع نافذة سياق تضم 200 ألف رمز. بمعنى بشري، هذا يعني:

  • تقريبًا 130-150 ألف كلمة
  • أو بضع كتب كاملة الطول
  • أو مستودع ضخم مع مستندات وملفات تكوين دفعة واحدة

في اختباري:

  • قمت بتحميل ملف PDF مكون من 620 صفحة (حوالي 180 ألف رمز) وطلبت ملخصًا منظمًا ودليل أسئلة وأجوبة.
  • تعامل GLM-4.7 معه في تمريرة واحدة، دون تقسيم يدوي.

ارتفعت فترة الانتظار، انتقلت الردود من حوالي 3-4 ثواني على المطالبات الأصغر إلى حوالي 13-18 ثانية على هذا الإدخال الضخم، ولكن لم ينهار أو يتوهم بشكل كبير، وهو ما يقتل عادةً ادعاءات التسويق للسياق الطويل.

طول الإخراج الأقصى 128K

النصف الآخر من القصة هو الإخراج. يدعم GLM-4.7 ما يصل إلى 128 ألف رمز من النص المُولد.

لقد اختبرته مع اختبار اصطناعي: "توليد مخطط دورة كامل مع شروح وأمثلة (~80 ألف رمز)." وقد:

  • أكمل دون قطع في منتصف الجملة
  • حافظ على اتساق الموضوع لأكثر من 95% من الإخراج (عينة يدوية تقريبية خاصة بي)

بالنسبة للمبدعين، هذا يعني أنك يمكن أن تتوقع بشكل واقعي:

  • إنشاء مسودات بطول كتاب في جلسة واحدة
  • اطلب مكتبات كاملة لمكونات الواجهة الأمامية أو مجموعات العملاء API
  • بناء إجابات على نمط قاعدة معرفية ضخمة دون الحاجة لتكرار الطلب المستمر

ربما لن تصل إلى 100 ألف+ ناتج كل يوم، ولكن معرفة أن السقف مرتفع إلى هذا الحد يجعل GLM-4.7 جذابًا جدًا لمعالجة الوثائق الطويلة والعمل على قواعد أكواد كبيرة.

358 مليار معلمات مع أوزان مفتوحة

على الورق، GLM-4.7 هو نموذج يحتوي على 358 مليار معلمة مع أوزان مفتوحة.

عمليًا، هذا ما يعنيه ذلك في اختباري:

  • الجودة والاستقرار يشعران بأنها أقرب إلى النماذج الحدودية الملكية من معظم الخيارات ذات الأوزان المفتوحة
  • التفكير في المشاكل متعددة الخطوات (خاصة التي تجمع بين الرياضيات والكود والنصوص) كان أفضل بنسبة 15-25% من النماذج المفتوحة المتوسطة التي أستخدمها بانتظام
  • إنه ثقيل للاستضافة الذاتية، ولكن عندما تقوم بذلك، لن تواجه عادةً المقايضة المعتادة بين "الانفتاح ولكن بجودة متوسطة"

إذا كنت تسأل نفسك ليس فقط ما هو GLM-4.7 ولكن لماذا هو مهم، فهذه واحدة من الأسباب الكبيرة: إنه يدفع حدود الأوزان المفتوحة بالفعل إلى الأمام بدلاً من أن يكون مجرد "نموذج آخر بحوالي 30 مليار مع تسويق رائع."

ما يفعله GLM-4.7 بشكل أفضل من GLM-4.6

حسنًا، المعايير لطيفة، لكنني أهتم بما تغير في سير العمل الخاص بي. لقد قمت بتشغيل GLM-4.7 وGLM-4.6 من خلال نفس مهام الترميز والتفكير واستخدام الأدوات التي أستخدمها للتحقق من صحة النماذج الجديدة.

أداء الترميز الأساسي (SWE-bench 73.8)

رسميًا، GLM-4.7 يسجل 73.8 على SWE-bench، وهو درجة جادة لحل مشاكل GitHub الحقيقية.

في اختبارات الترميز الخاصة بي (~25 مهمة):

  • حل GLM-4.7 بشكل كامل 20 من 25 مهمة (80٪) دون أن ألمس الكود
  • حل GLM-4.6 15 من 25 (60٪) تحت نفس التعليمات

تضمنت هذه المهام:

  • إصلاح اختبارات الوحدة الفاشلة في مستودع بايثون
  • إعادة هيكلة ملف TypeScript فوضوي إلى مكونات وحدوية
  • كتابة نقاط نهاية صغيرة للخلفية والاختبارات المرتبطة بها

الفرق الرئيسي: لم يكتب GLM-4.7 التصحيح فحسب، بل أشار غالبًا إلى نتائج الاختبار الفاشلة بشكل صحيح وقام بتحديث ملفات متعددة بطريقة متسقة. 4.6 أحيانًا كان يصلح الخطأ الفوري ولكنه يكسر شيئًا آخر.

ترميز الأجواء وجماليات الواجهة الأمامية

هناك شيء لا يظهر في المعايير: ترميز الأجواء، ذلك المزيج من التخطيط، والنصوص، والتفاعلات الدقيقة للواجهات الأمامية.

لقد قمت بتوجيه GLM-4.7 بتوجيهات مثل:

"صمم صفحة هبوط لأداة كتابة AI بسيطة. TailwindCSS + React. اجعلها تشعر بالهدوء ولكن واثقة، مع رسوم متحركة خفيفة."

مقارنة بـ GLM-4.6، كان GLM-4.7:

  • تم إنتاج هياكل مكونات أنظف (عدد أقل من المكونات الضخمة)
  • استخدمت أنماط Tailwind الحديثة
  • تم إنشاء نصوص تشعر بأنها أقل آلية وأقرب إلى شيء يمكنني تحريره بخفة ونشره

إذا كان سير العمل الخاص بك يتضمن إنشاء الواجهة الأمامية أو تحسين أفكار UI/UX، فإن GLM-4.7 يكون ببساطة أكثر متعة. إنه "يفهم" التلميحات الجمالية بشكل أفضل ويحولها إلى HTML/CSS/JS معقول.

استخدام الأدوات وتنفيذ الوكيل

لقد قمت أيضًا باختبار GLM-4.7 ضمن سير عمل صغير:

  • أداة 1: البحث
  • أداة 2: البحث في الوثائق الداخلية
  • أداة 3: محرر الملفات

الهدف: تحديث تكوين، تعديل الكود، وكتابة سجل تغييرات قصير بناءً على المعلومات المسترجعة.

على مدى 20 تشغيلًا:

  • استخدمت GLM-4.7 الأدوات بشكل صحيح 18 مرة من أصل 20 (90%)
  • تمكنت GLM-4.6 من 14 مرة من أصل 20 (70%)

ما كان مميزًا هو كيفية تعامل GLM-4.7 مع JSON الذي يحترم المخطط. نادرًا ما تخيلت حقولًا إضافية، مما يجعلها أقل إزعاجًا في تدفقات الوكيل الإنتاجية.

التفكير المعقد (HLE 42.8)

في جانب التفكير، يصل GLM-4.7 إلى 42.8 في HLE (تقييم الهلوسة والمنطق)، وهو طريقة معقدة للقول: إنه أفضل في عدم اختراع الأشياء واتباع سلاسل منطقية.

نسختي الأكثر إنسانية من هذا الاختبار:

  • موجه طويل بمتطلبات متضاربة
  • جدول بيانات + ملخص سردي
  • اطلب منه استنتاج قرار مع تبرير واضح، خطوة بخطوة

GLM-4.7:

  • تم تحديد البيانات المفقودة أو الغامضة بشكل واضح في ~70% من الحالات الصعبة (وهذا مؤشر جيد)
  • تم إصدار ادعاءات "واثقة ولكن خاطئة" أقل من الإصدار 4.6
  • أنتج خطوات منطقية يمكنني متابعتها ومراجعتها بالفعل

إذا كنت تقوم بكتابة ملاحظات بحثية أو مسودات سياسات أو أي شيء حيث يهم التفكير المعقد أكثر من عدد الكلمات، فإن GLM-4.7 يبدو كشريك أكثر أمانًا وشفافية.

التسعير والوصول

الآن إلى الجزء الذي يتجاوزه الجميع بصمت: كم يكلف GLM-4.7 وكيف يمكنك استخدامه فعليًا؟

تسعير API (0.6 دولار لكل مليون مدخلات، 2.2 دولار لكل مليون مخرجات)

تسعير Zhipu العام لـ GLM-4.7 هو:

  • 0.60 دولار لكل 1 مليون رمز مدخلات
  • 2.20 دولار لكل 1 مليون رمز مخرجات

في الممارسة العملية، هذا ما يعنيه لأحد اختبارات الوثائق الطويلة الخاصة بي:

  • المدخلات: ~160 ألف رمز → حوالي 0.10 دولار
  • المخرجات: ~18 ألف رمز → حوالي 0.04 دولار
  • المجموع: ~0.14 دولار لقراءة شاملة مكافئة لعدة ساعات من العمل البشري + تركيبة

بالمقارنة مع النماذج المتقدمة الأخرى، فإن نسبة السعر إلى الجودة لـ GLM-4.7 تنافسية بشكل كبير، خاصة إذا كنت تعتمد على ميزات السياق الطويل.

خطة ترميز GLM (3 دولارات/الشهر)

بالنسبة للمبدعين المستقلين والمطورين الفرديين، تعتبر خطة ترميز GLM بسعر 3 دولارات/الشهر واحدة من العروض الأكثر إثارة للاهتمام.

تحصل على بيئة محسنة للترميز أعلى نماذج GLM-4.7، التي في تجربتي، تكفي لـ:

  • استخدامها كمساعد الترميز الرئيسي لك يوميًا
  • استبدال جزء مما تقوم به عادةً في GitHub Copilot أو أدوات مشابهة

خلال فترة 5 أيام حيث أجبرت نفسي على استخدامه لكل ما يتعلق بالبرمجة، أقدر أنه وفر لي من 1.5 إلى 2 ساعة يوميًا على القوالب الجاهزة، وإعادة الهيكلة، وكتابة الاختبارات.

مقابل ثلاثة دولارات، يكون الأمر بديهيًا إذا كنت جادًا حتى بشكل جزئي فيما يتعلق بالبرمجة.

الاستضافة الذاتية عبر Hugging Face

إذا كنت تريد تحكمًا كاملًا، يمكنك الحصول على الأوزان المفتوحة لـ GLM-4.7 من Hugging Face واستضافتها بنفسك.

لكن لنكن واقعيين:

  • 358 مليار معلمة ليس بحجم للهواية العادية
  • أنت في منطقة متعددة GPU وعمليات جدية

لكن بالنسبة للفرق التي يمكنها التعامل معه، تشغيل GLM-4.7 محليًا يعني:

  • البيانات لا تخرج من بنيتك التحتية
  • يمكنك القيام بضبط دقيق خاص بالمجال
  • يمكن تعديل زمن الاستجابة ليناسب بنيتك بدلاً من البنية العامة المشتركة

إذا كان سؤالك الأولي هو فقط "ما هو GLM-4.7 وكيف أصل إلى API"، يمكنك تجاهل هذا الجزء. إذا كنت مهتمًا بالبنية التحتية، فإن مسار Hugging Face هو واحد من أكثر الأجزاء إقناعًا في هذا الإصدار.

أفضل حالات الاستخدام لـ GLM-4.7

هنا حيث حصل GLM-4.7 بالفعل على مكان في دورتي.

معالجة المستندات الطويلة

إذا كان عملك يتضمن:

  • تقارير
  • ملفات PDF بحثية
  • قواعد المعرفة
  • صادرات كبيرة من Notion

... فإن مجموعة 200K السياق و128K الناتج لـ GLM-4.7 مفيدة للغاية.

مثال من اختبارات:

  • أطعمتها حزمة مكونة من 170 ألف رمز من أبحاث المنتجات، ملاحظات خارطة الطريق، وملاحظات المستخدمين
  • طلبت منها: خارطة طريق ذات أولويات، تحليل المخاطر، ودليل الرسائل
  • أنتجت خطة متماسكة في طلقة واحدة، والتي قمت بتحريرها بشكل خفيف بعد ذلك

بالمقارنة مع تقسيم كل شيء إلى 10-20 قطعة باستخدام أدوات أخرى، خفض GLM-4.7 العمل اليدوي بنسبة لا تقل عن 50-60%.

تدفقات العمل متعددة الخطوات للوكيل

استخدام GLM-4.7 الأقوى للأدوات وانضباطه الأفضل مع JSON يجعله عقلاً رائعاً لتدفقات العمل متعددة الخطوات للوكيل.

على سبيل المثال، قمت بتوصيله في مسار صغير:

  1. البحث في المستندات
  2. فحص الكود
  3. اقتراح التصحيح
  4. كتابة سجل التغييرات

نسبة النجاح (المعنى: لا توجد أخطاء في المخطط، التصحيح مطبق بنجاح، سجل التغييرات دقيق):

  • GLM-4.7: ~85-90% عبر 20 تجربة
  • نموذج مفتوح من الدرجة المتوسطة: ~60-65% على نفس الإعداد

إذا كنت تلعب مع الوكلاء أو تبني مساعدين داخليين، فهذا هو المكان الذي يتألق فيه GLM-4.7 بهدوء.

توليد الواجهة الأمامية (برمجة الإيقاع)

بالنسبة لبرمجة الإيقاع، شعر GLM-4.7 وكأنه مصمم مبتدئ + مطور واجهة أمامية يستمع بالفعل.

حالات الاستخدام التي نجحت جيداً في اختباري:

  • مسودات الصفحات الرئيسية الأولية بنسخ جيدة
  • مكتبات المكونات مع ملاحظات نظام التصميم
  • متغيرات سريعة A/B للتخطيطات أو أقسام البطل

إذا كنت منشئًا فرديًا أو مسوقًا يريد تجربة أفكار واجهة المستخدم دون فتح Figma لكل تغيير صغير، فإن GLM-4.7 شريك مفاجئ قادر، خاصة عندما تثبته بمراجع مثل "اجعله يشبه Linear" أو "أقرب إلى جمالية Notion، ولكن أكثر دفئًا."

ما التالي: مقارنة GLM-4.7 بالنماذج الأخرى

عندما يسألني الناس ما الذي يميز GLM-4.7 مقارنة بالنماذج الأخرى، أطرحه بهذه الطريقة:

  • إذا كنت تريد أقصى درجات التلميع والنظام البيئي: فسوف تنظر إلى النماذج المغلقة المعتادة في الحدود
  • إذا كنت تريد نماذج مفتوحة وصغيرة للألعاب المحلية: ستبحث عن الأشياء بحجم 7B إلى 70B
  • إذا كنت تريد جودة بمستوى الحدود مع أوزان مفتوحة وسياق طويل: فجأة يصبح GLM-4.7 مثيرًا جدًا للاهتمام

في مجموعتي الشخصية الآن:

  • ألجأ إلى GLM-4.7 عندما أحتاج إلى مساعدة جدية في البرمجة، أو تلخيص مستندات طويلة، أو تدفقات الوكيل المتعددة الخطوات
  • لا زلت أستخدم نماذج أخرى للعصف الذهني السريع والرخيص أو حيث تقيدني أدوات الموردين المحددة

من منظور منشئ / مسوق مستقل، إليك الخلاصة العملية:

  • استخدم خطة GLM للبرمجة إذا كنت تريد رفيق برمجة رخيص وعالي الجودة
  • استخدم API عندما تبني تدفقات عمل طويلة السياق في منتجك
  • فكر في الاستضافة الذاتية فقط إذا كان لديك بالفعل بنية تحتية قوية: وإلا فلا تشغل بالك

إذن، ما هو GLM-4.7 في جملة واحدة؟

إنه نموذج حدودي مفتوح الأوزان يبلغ 358B-parameter و200K-context وقوي في البرمجة يجعل أخيرًا السياق الطويل + التفكير عالي الجودة يبدو قابلًا للاستخدام، وليس مجرد عرض توضيحي.

إذا كنت فضوليًا، نصيحتي بسيطة: اختر تدفق عمل واحد، تحليل PDF طويل، مشكلة برمجة عنيدة، أو خط أنابيب وكيل صغير، وجربه باستخدام GLM-4.7 جنبًا إلى جنب مع المفضل لديك الحالي. الفرق أسهل بكثير للشعور به من القراءة عنه.

شيء واحد عززته لي هذا الأسبوع من الاختبارات: النماذج مثل GLM-4.7 لا تصبح فقط أكثر ذكاءً — بل أصبحت بنية تحتية لطريقة تفكيرنا، تخطيطنا، واتخاذ قراراتنا.

في الواقع، هذه الفكرة هي السبب وراء بناء Macaron. ليس مجرد AI آخر "للقيام بالمزيد من العمل بشكل أسرع"، بل وكيل شخصي يختار بهدوء النموذج المناسب للعمل — سواء كان ترميزًا، قراءة، تخطيطًا، أو مجرد التفكير في الأمور — لكي يتناسب الذكاء الاصطناعي مع حياتنا، وليس العكس.

إذا كنت مهتمًا بمعرفة كيف يبدو ذلك في الواقع، يمكنك تجربته هنا: جرب Macaron مجانًا

Nora is the Head of Growth at Macaron. Over the past two years, she has focused on AI product growth, successfully leading multiple products from 0 to 1. She possesses extensive experience in growth strategies.

Apply to become Macaron's first friends