المؤلف:  بوكسو لي 

مقدمة

من الشائع في عالم الذكاء الاصطناعي القول: "من السهل إثبات المفهوم، لكن من الصعب الإنتاج." لقد تمكنت العديد من المؤسسات من بناء نماذج أولية واعدة للذكاء الاصطناعي أو تشغيل مشاريع تجريبية في بيئات معزولة، فقط لتجدها تتعثر قبل تحقيق تأثير حقيقي على الأعمال. الأرقام مثيرة للدهشة: وجدت جارتنر أن، في المتوسط، فقط 48٪ من مشاريع الذكاء الاصطناعي تنتقل من النموذج الأولي إلى الإنتاج – وتلك التي تفعل تستغرق حوالي 8 أشهر للانتقال. علاوة على ذلك، يتوقعون أن ما لا يقل عن 30٪ من جميع مشاريع الذكاء الاصطناعي التوليدي سيتم التخلي عنها في مرحلة إثبات المفهوم بحلول عام 2025 بسبب مشكلات مثل ضعف جودة البيانات، نقص الضوابط المخاطر، التكاليف المتزايدة أو القيمة غير الواضحة. هذه الأرقام تتماشى مع أبحاث أخرى تشير إلى أن الغالبية العظمى من مبادرات الذكاء الاصطناعي تفشل في التوسع. باختصار، هناك مشكلة "الخطوة الأخيرة" في الذكاء الاصطناعي: سد الفجوة بين عرض ناجح في المختبر ونظام موثوق به مدمج في العمليات اليومية.

لماذا يعتبر توسيع نطاق الذكاء الاصطناعي صعبًا للغاية؟ أحد الأسباب هو أن الانتقال من تجربة تجريبية محكومة إلى بيئة إنتاج يقدم مجموعة من التعقيدات. في تجربة تجريبية، قد يقوم فريق علم البيانات بتشغيل نموذج على مجموعة بيانات ثابتة ويظهر أنه يمكنه التنبؤ أو التصنيف بشكل جيد. لكن في الإنتاج، قد يحتاج هذا النموذج إلى التعامل مع أحجام بيانات أكبر بكثير، تدفقات بيانات في الوقت الفعلي، أو توزيعات بيانات جديدة لم تكن موجودة في التجربة التجريبية. والسياق العملي مختلف أيضًا - يجب أن تُدمج مخرجات النموذج في العمليات التجارية وأنظمة تكنولوجيا المعلومات وأن تكون مفهومة ومستخدمة من قبل غير المتخصصين في علم البيانات. يجب أن يعمل بشكل موثوق، غالبًا في ظل متطلبات زمن استجابة ضيقة أو على بنية تحتية فعالة من حيث التكلفة. تتطلب هذه المتطلبات هندسة قوية (غالبًا ما يشار إليها باسم MLOps - عمليات تعلم الآلة) التي ما زالت العديد من المؤسسات تحاول اكتشافها. ومن اللافت أن الشركات التي لديها معدلات فشل عالية في الذكاء الاصطناعي غالبًا ما تشير إلى نقص مثل هذه الأنابيب. في أحد الاستطلاعات، فقط حوالي 1 من كل 4 شركات كانت لديها ممارسات أو أدوات MLOps ناضجة لإدارة النماذج، وأولئك الذين لم يكن لديهم هذه الممارسات واجهوا صعوبة في الانتقال إلى ما بعد الأنظمة التجريبية المُدارة يدويًا.

تحدٍ آخر هو الحوكمة والمخاطر. خلال التجربة الأولية، يمكن قبول الأخطاء العرضية للنموذج أو التحقق المزدوج يدوياً للنتائج. لكن في الإنتاج، خاصة في المجالات الحساسة، يمكن أن تكون لقرارات الذكاء الاصطناعي عواقب حقيقية. في بيئة الإنتاج، يجب أن يلتزم نظام الذكاء الاصطناعي بالمعايير التنظيمية والأخلاقية، وأن يحتوي على تدابير أمان للأخطاء. العديد من مشاريع الذكاء الاصطناعي تتعثر في هذه المرحلة - يعمل النموذج، لكن المنظمة ليست مرتاحة لنشره على نطاق واسع دون ضمانات بشأن الامتثال، والعدالة، والشفافية، وما إلى ذلك. هذا أحد الأسباب التي أدت إلى تحديد ما يقرب من نصف المنظمات "الضوابط غير الكافية للمخاطر" كعائق رئيسي لتوسيع حلول الذكاء الاصطناعي. فهم يعلمون أن الخطأ في الإنتاج يمكن أن يكون مكلفًا أو ضارًا، لذا تظل التجارب الأولية في حالة "تجريبية" دائمة ما لم تُعالج هذه المخاوف.

على الرغم من هذه العقبات، نجحت مجموعة متزايدة من المنظمات في الانتقال من التجارب إلى الإنتاج. توفر تجاربهم دليلًا للاستراتيجيات اللازمة لتوسيع نطاق الذكاء الاصطناعي بفعالية:

تصميم للإنتاج من اليوم الأول:

الفرق التي تتوسع في النهاية غالبًا ما تقترب من المشروع التجريبي بعقلية الإنتاج. هذا يعني استخدام مجموعات بيانات واقعية، والنظر في نقاط التكامل مبكرًا، وتحديد معايير النجاح المرتبطة بالنشر (وليس فقط مقاييس الدقة غير المتصلة). على سبيل المثال، إذا كنت تُجري تجربة لنظام ذكاء اصطناعي لأتمتة دعم العملاء، فقم بقياس ليس فقط دقته في الإجابة على الأسئلة، ولكن أيضًا كيف سيتكامل مع نظام الدردشة الحية، وكيف سيقوم بتصعيد الأمور إلى الوكلاء البشريين، وما إذا كان يمكنه التعامل مع الأحمال العالية. من خلال التفكير في هذه الجوانب مبكرًا، تتجنب إنشاء إثبات مفهوم يعمل فقط في بيئة مختبرية. إحدى أفضل الممارسات هي إشراك موظفي تكنولوجيا المعلومات/DevOps في المشروع الأولي للذكاء الاصطناعي جنبًا إلى جنب مع علماء البيانات. سيساهمون بآرائهم حول أشياء مثل الأمان، وتسجيل الدخول، وواجهات برمجة التطبيقات، والبنية التحتية لتشكيل حل يمكن نشره. من الحكمة أيضًا توثيق الافتراضات والمتطلبات أثناء التجربة (مثل "إعادة تدريب النموذج كل X أسبوعًا"، "يجب أن يكون الرد أقل من 200 مللي ثانية") حتى يعرف الجميع ما هو مطلوب لطرح الإنتاج.

استثمر في بنية تحتية قابلة للتوسع وعمليات التعلم الآلي (MLOps): تعتبر الأساس التقني القوي أمرًا حيويًا لإنتاج الذكاء الاصطناعي. يشمل هذا:

  • خطوط البيانات: خطوط أنابيب مؤتمتة وقابلة للتوسع لجلب البيانات ومعالجتها مسبقًا وتقديمها للنظام الذكي باستمرار. في الإنتاج، يمكن لانجراف البيانات أو فشل خطوط الأنابيب أن يكسر أداء النموذج. يستخدم المتبنون الرائدون أدوات لجدولة ومراقبة تدفقات البيانات، مما يضمن أن النموذج يحصل دائمًا على بيانات نظيفة وفي الوقت المناسب. يقومون أيضًا بإصدار البيانات والحفاظ على مجموعات البيانات التدريبية حتى يمكن إعادة تدريب النماذج بشكل متكرر عند الحاجة.
  • نشر النموذج ومراقبته: باستخدام أطر عمل MLOps، يتم نشر النماذج كجزء من عملية محكومة. يعتبر استخدام الحاويات (مثل Docker/Kubernetes) شائعًا لضمان التناسق عبر البيئات. بمجرد نشرها، تتم مراقبة صحة النموذج – يتم تتبع مقاييس مثل وقت الاستجابة، ومعدلات الخطأ، وتوزيعات التنبؤ. إذا حدثت شذوذات (مثل تغير مفاجئ في تنبؤات النموذج)، يتم إطلاق إنذارات للمهندسين للتحقيق أو العودة إلى إصدار سابق من النموذج. تساعد لوحات المعلومات التحليلية والحواجز المؤتمتة هنا – على سبيل المثال، قد يكون لدى منصة مؤسسة قاعدة لإرسال تنبيه تلقائي إذا انخفضت ثقة النموذج تحت عتبة معينة لفترة مستدامة.
  • التكامل المستمر/النشر المستمر (CI/CD) للذكاء الاصطناعي: معاملة نماذج الذكاء الاصطناعي بشكل مشابه للكود في هندسة البرمجيات. يعني هذا أن إصدارات النماذج الجديدة تخضع لاختبار مؤتمت (على بيانات محجوزة أو سيناريوهات إنتاج محاكاة) قبل دفعها للعيش، وهناك آلية للتراجع إذا كان أداء النموذج الجديد غير مرضي. تمارس بعض الفرق المتقدمة "النشر الظلي" حيث يعمل النموذج الجديد بالتوازي مع القديم لمقارنة النتائج لفترة قبل الانتقال الكامل.
  • البنية التحتية المرنة: استخدام الخدمات السحابية أو البنية التحتية القابلة للتوسع التي يمكنها التعامل مع النمو. تبدأ العديد من الشركات بمشروع تجريبي على خادم واحد أو جهاز محلي. في الإنتاج، قد تحتاج إلى التوسع التلقائي على السحابة للتعامل مع زيادات الاستخدام. لحسن الحظ، تقدم خدمات الذكاء الاصطناعي السحابية الحديثة (مثل Google's Vertex AI أو Amazon Bedrock) حلولًا مُدارة لنشر النماذج وتوسيعها، والتعامل مع إصدار النماذج، وحتى توفير التكرار في مناطق متعددة. يمكن أن يوفر استخدام هذه الحلول الكثير من الجهد الهندسي. الخلاصة هي أن توسيع الذكاء الاصطناعي بشكل موثوق يتطلب مجموعة تقنية تتجاوز النموذج نفسه؛ تستثمر المنظمات الذكية في هذه المجموعة، إما عن طريق البناء باستخدام أدوات مفتوحة المصدر أو الاستفادة من منصات MLOps التجارية.
  • التأكيد على جودة البيانات وإعادة التدريب: العديد من المشاريع التجريبية تكون لمرة واحدة – يتم تدريب النموذج مرة واحدة على بيانات تاريخية وهذا كل شيء. في الإنتاج، مع ذلك، البيانات تتطور باستمرار، ويمكن أن يصبح النماذج بسرعة قديمة أو أقل دقة إذا لم يتم صيانتها. يتضمن توسيع الذكاء الاصطناعي بنجاح إعداد عمليات لإعادة تدريب النموذج أو التكيف بشكل دوري مع ورود بيانات جديدة. يمكن أن يكون هذا إعادة تدريب شهرية، أو حتى تعلم مستمر إذا كان مناسبًا. بشكل مهم، تنفذ المنظمات خطوات التحقق للتأكد من أن النموذج المعاد تدريبه هو بالفعل تحسين (وإذا لم يكن كذلك، فإنها تلتزم بالإصدار الأقدم حتى يتم إصلاح المشكلات). تأكد من وجود خط أنابيب لتسمية أو جمع بيانات الحقيقة الأرضية من الإنتاج أيضًا ذو قيمة – على سبيل المثال، التقاط الحالات التي كان فيها النموذج غير مؤكد أو حيث اختلف مع الإنسان، وإعادة تلك إلى التدريب. تعامل الشركات التي توسع الذكاء الاصطناعي معه كدورة حياة، وليس كمشروع ينفذ وينتهي. يخصصون الموارد باستمرار لإعداد بيانات "جاهزة للذكاء الاصطناعي"، ومراقبة انجراف البيانات، وتحسين جودة البيانات للنموذج. يلاحظ جارتنر أنه بحلول عام 2025، سيكون السبب الرئيسي للتخلي عن مشاريع الجيل الجديد من الذكاء الاصطناعي هو ضعف جودة البيانات؛ القادة يتوقعون ذلك من خلال معالجة المشكلات المتعلقة بالبيانات مبكرًا وباستمرار.
  • دمج الأمان، التحكم في الوصول، والحكم: في وضع الطيار، قد يستخدم علماء البيانات امتيازات المسؤول، أو بيانات اعتماد ثابتة، أو مجموعات بيانات عامة لجعل الأمور تعمل بسرعة. لكن نظام الذكاء الاصطناعي الإنتاجي يحتاج إلى الالتزام بمعايير الأمان والامتثال للمؤسسة. يعني ذلك التكامل مع أنظمة المصادقة، وتطبيق التحكم في الوصول المستند إلى الأدوار (مثلًا، يمكن فقط لأشخاص معينين الموافقة على تغييرات النموذج أو عرض البيانات الحساسة)، وضمان الاحتفاظ بسجلات التدقيق لأي قرارات مدفوعة بالذكاء الاصطناعي. مثال على أفضل الممارسات هو نهج StackAI، منصة أتمتة الذكاء الاصطناعي للمؤسسات، التي تضمن أن كل عملية عمل "آمنة، متوافقة، ومحكومة" بميزات مثل تكامل تسجيل الدخول الموحد (SSO)، التحكم في الوصول المستند إلى الأدوار (RBAC)، تسجيل التدقيق، وحتى خيارات إقامة البيانات للمعلومات الحساسة. عند توسيع الذكاء الاصطناعي، ينبغي على الشركات العمل عن كثب مع فرق أمن المعلومات والامتثال لديها لإجراء تقييمات المخاطر وتنفيذ الضوابط اللازمة. لا يمنع ذلك فقط الحوادث الأمنية الكارثية، بل يبني أيضًا الثقة مع أصحاب المصلحة (الداخليين والخارجيين) بأن نظام الذكاء الاصطناعي مُدار بشكل جيد. يمتد الحكم أيضًا إلى وجود إطار عمل للذكاء الاصطناعي الأخلاقي – مثل توثيق كيفية اتخاذ النموذج للقرارات، ووجود مسار تصعيد إذا أنتج الذكاء الاصطناعي نتيجة مشكوك فيها، ومراجعة تأثير الذكاء الاصطناعي بانتظام على النتائج (للتحقق من الانحياز أو الأخطاء). تضمن هذه التدابير أنه عند توسيع الذكاء الاصطناعي، فإنه لا يزيد من المخاطر بشكل غير مقصود.
  • تحسين الأداء والتكيف معه: قد لا يكون النموذج الذي يعمل في مشروع تجريبي فعالًا من حيث الموارد أو سريعًا بما يكفي للاستخدام الواسع النطاق. غالبًا ما يتطلب التوسع تحسين نموذج الذكاء الاصطناعي والبنية التحتية للأداء والتكلفة. قد يتضمن ذلك تقنيات مثل ضغط النموذج (مثل تقطير نموذج كبير ومعقد إلى نموذج أصغر)، استخدام استراتيجيات التخزين المؤقت، أو التحول إلى أجهزة متخصصة (مثل وحدات معالجة الرسوميات أو وحدات معالجة الموتر) للاستدلال. الشركات التي تنشر الذكاء الاصطناعي بنجاح بشكل واسع غالبًا ما تكرر على نموذجها لجعله أكثر نحافة وأسرع بمجرد رؤية أنماط الاستخدام في العالم الحقيقي. كما تهتم بمراقبة التكلفة – من السهل أن ترتفع تكاليف السحابة أو رسوم استخدام واجهة برمجة التطبيقات عندما يتم استخدام خدمة الذكاء الاصطناعي بشكل مكثف. يساعد بناء لوحات المعلومات لتكلفة وحساب العائد على الاستثمار في ضمان بقاء الحل الموسع اقتصاديًا قابلًا للتطبيق. مشجعًا، كانت تكلفة استدلال الذكاء الاصطناعي تتناقص؛ على سبيل المثال، انخفضت تكلفة الحوسبة لتحقيق مستوى معين من أداء نموذج اللغة (مقارنة بـ GPT-3.5) بمقدار 280× بين أواخر 2022 وأواخر 2024. بسبب تحسينات النموذج والأجهزة. هذا يعني أن توسيع حل الذكاء الاصطناعي في عام 2025 قد يكون أرخص بكثير مما كان يمكن أن يكون قبل بضع سنوات فقط. ومع ذلك، فإن الإشراف هو المفتاح – تتبع المنظمات مقاييس مثل التكلفة لكل تنبؤ أو استخدام الخادم، وتحسين البنية التحتية حسب الحاجة (مثل إيقاف تشغيل مثيلات النموذج غير المستخدمة أو استخدام المعالجة الدفعية للمهام ذات الإنتاجية العالية).
  • التخطيط للإشراف البشري والاستمرارية: لا ينبغي نشر أي نظام ذكاء اصطناعي على نطاق واسع دون وضوح حول الأدوار البشرية في الحلقة. تحدد النشرات الناجحة متى وكيف سيتدخل البشر أو يعززوا الذكاء الاصطناعي. على سبيل المثال، قد تقوم شركة بتوسيع مولد محتوى الذكاء الاصطناعي للتسويق بإعداد عملية عمل حيث يتم مراجعة المسودات التي أنشأها الذكاء الاصطناعي بواسطة محرر بشري قبل النشر. أو قد يقوم نظام الذكاء الاصطناعي الطبي بتحديد حالات معينة ذات عدم يقين عالي للمراجعة اليدوية. بعيدًا عن أن يكون هذا خطوة إلى الوراء، فإن هذا النوع من الحماية البشرية غالبًا ما يكون ما يجعل النشر الأوسع ممكنًا – فهو يوفر الثقة بأن الأخطاء لن تمر دون رادع. بمرور الوقت، مع إثبات الذكاء الاصطناعي نفسه، يمكن تقليل مستوى الإشراف بشكل مناسب، ولكن من الحكمة البدء بشبكة أمان. بالإضافة إلى ذلك، تقوم المنظمات بتحديد ملكية واضحة لخدمة الذكاء الاصطناعي. في الإنتاج، يحتاج شخص ما (أو فريق ما) إلى أن يكون جاهزًا لنظام الذكاء الاصطناعي مثل أي برامج حيوية أخرى. تحديد من هو المسؤول عن صيانة الذكاء الاصطناعي، ومن يستجيب إذا حدث خطأ ما في الثالثة صباحًا، وكيف يتم جمع ومعالجة ملاحظات المستخدم سيضمن أن النظام لديه دعم مستمر. هذه الملكية التشغيلية هي حيث يفشل العديد من المشاريع التجريبية – لم يكن لديهم "موطن" في قسم تكنولوجيا المعلومات أو الأعمال التجارية بمجرد انتهاء فريق علوم البيانات من التجربة. غالبًا ما يتضمن التوسع الناجح نقل الملكية من فريق البحث والتطوير البحت إلى فريق المنتج أو تكنولوجيا المعلومات الذي سيعامل حلاً الذكاء الاصطناعي كمنتج/خدمة دائمة.

الخاتمة

توسيع نطاق حل الذكاء الاصطناعي من التجربة إلى الإنتاج هو تحدٍ متعدد الأبعاد، لكن يمكن مواجهته بالنهج والعقلية الصحيحة. المنظمات التي تحقق النجاح تتبع موضوعًا متكررًا: تعامل حلول الذكاء الاصطناعي كمنتجات وليس كمشاريع. يعني ذلك البناء مع مراعاة المستخدم النهائي وطول الأمد، ووضع العمل الهندسي والحوكمي الضروري، والتحسين المستمر بعد النشر. كما يعني تجنب الوقوع في "فخ التجارب" من خلال الاستعداد للاستثمار بعد تجربة علوم البيانات - في التدريب والبنية التحتية وتغييرات العمليات - لتحقيق القيمة الفعلية في الميدان.

بالنسبة للأعمال التجارية في الولايات المتحدة وآسيا على حد سواء، حيث الضغوط التنافسية شديدة، فإن حل لغز التوسع يعد أمرًا حاسمًا. يمكن أن يعني الفرق بين بقاء الذكاء الاصطناعي مجرد عرض رائع وبين أن يصبح محركًا أساسيًا للكفاءة أو الإيرادات. الجهد بالتأكيد ليس سهلاً؛ كما رأينا، يتطلب التعامل مع جاهزية البيانات، وتوسيع نطاق الهندسة، وجاهزية المنظمة في نفس الوقت. لكن العائد يستحق الجهد. عندما تقوم بنشر نظام ذكاء اصطناعي بنجاح يحسن مثلاً الاحتفاظ بالعملاء من خلال أتمتة العروض المخصصة، أو يخفض وقت التوقف في التصنيع بنسبة 30% من خلال الصيانة التنبؤية، فإن هذا التأثير يصل إلى خط الأرباح ويمكن أن يعيد تشكيل ديناميكيات السوق.

بشكل مشجع، ينضج النظام البيئي حول توسيع نطاق الذكاء الاصطناعي. هناك الآن منصات وخدمات سحابية كاملة تهدف إلى تسهيل الطريق للإنتاج، ومجتمعات تشارك أفضل ممارسات MLOps، ومكونات جاهزة للمراقبة والأمان والمزيد. شركات مثل Macaron AI قامت بتصميم حلولها مع مراعاة التوسع وثقة المستخدم منذ البداية، مما يوضح أن المنتجات الجديدة للذكاء الاصطناعي يتم بناؤها جاهزة للإنتاج افتراضيًا. كل هذه الاتجاهات تعني أن المؤسسات التي تبدأ في هذه الرحلة لديها دعم أكثر من أي وقت مضى.

باختصار، يعتبر الانتقال من المرحلة التجريبية إلى الإنتاج في الذكاء الاصطناعي تحديًا لكنه قابل للتحقيق. من خلال التخطيط المبكر، بناء أسس قوية لعمليات التعلم الآلي، التركيز على البيانات والجودة، تأمين وحوكمة الحل، تحسين الأداء، والإبقاء على العنصر البشري في الصورة، فإنك تضع مشروع الذكاء الاصطناعي الخاص بك على طريق النجاح في العالم الحقيقي. المنظمات التي تتقن هذا ستكشف عن القيمة الحقيقية للذكاء الاصطناعي - الانتقال من العروض المثيرة إلى أنظمة قابلة للتوسع تحول كيفية عملها. أما الذين لا يفعلون ذلك، فسيجدون أنفسهم مع الكثير من "مشاريع معارض العلوم للذكاء الاصطناعي" ولكن القليل ليظهر في الأداء المالي. يعتبر التوسع الخطوة الأخيرة التي تحول الوعد إلى تحقيق. باستخدام الإرشادات المذكورة أعلاه، يمكن للمؤسسات اجتياز هذه الخطوة وضمان تحقيق مبادرات الذكاء الاصطناعي النتائج التحويلية التي يتطلع إليها الجميع.

Boxu earned his Bachelor's Degree at Emory University majoring Quantitative Economics. Before joining Macaron, Boxu spent most of his career in the Private Equity and Venture Capital space in the US. He is now the Chief of Staff and VP of Marketing at Macaron AI, handling finances, logistics and operations, and overseeing marketing.

Apply to become Macaron's first friends