مسؤول الذكاء الاصطناعي في «Cognizant»: استقلالية القرار قد تكون أعظم قوة وأكبر تهديد للذكاء الاصطناعي

فينتك جيت: مصطفى عيد

استعرض باباك هودجات (Babak Hodjat)، كبير مسؤولي الذكاء الاصطناعي في شركة «Cognizant» الأمريكية، رؤيته التحليلية حول طبيعة العلاقة الجديدة بين الإنسان والأنظمة الذكية، مسلطاً الضوء على الإشكالية الجوهرية بين السعي لفهم كل قرار تتخذه الخوارزميات، والحاجة العملية إلى تصميم أنظمة تعمل بكفاءة في خدمة البشر مع منحها قدراً محسوباً من الاستقلالية التشغيلية.

واوضح هودجات فى جلسة نقاشية ضمن فعاليات القمة الاولي للذكاء الاصطناعي التس تستضيفها العاصمة المصرية القاهرة اليوم، أن النقاش الدائر اليوم حول الذكاء الاصطناعي لم يعد نظرياً أو أكاديمياً كما كان قبل سنوات، بل دخل مرحلة التطبيق واسع النطاق، خصوصاً منذ إطلاق «ChatGPT» في نوفمبر 2022. فبينما كانت أبحاث الذكاء الاصطناعي ممتدة لعقود، فإن انتقال هذه التقنيات إلى الاستخدام اليومي على المستوى الشخصي والمؤسسي سرّع وتيرة الحوار العام، وفتح الباب أمام تساؤلات أكثر تعقيداً بشأن الحوكمة والمساءلة.

ويشير إلى وجود فجوة واضحة بين الخطاب المؤسسي حول ما يعرف بـ«توافق الذكاء الاصطناعي» (AI Alignment)، وبين الكيفية الفعلية التي تصمم وتدرّب بها النماذج. فالبشر – كما يوضح – اعتادوا التعامل مع الأخطاء بمنطق لاحق للحدث. حيث يتم تقييم السلوك بعد وقوعه. غير أن هذا الأسلوب لا يصلح مع أنظمة قادرة على اتخاذ قرارات آنية قد تترتب عليها آثار واسعة النطاق. ما يستدعي نهجاً استباقياً يضع الضوابط قبل تشغيل الأنظمة، لا بعدها.

التحدي التقني


وفي تحليله للتحدي التقني، يلفت هودجات إلى أن جوهر المعضلة يرتبط بقدرة النماذج اللغوية الكبيرة على فهم وإنتاج اللغة الطبيعية. وهي ميزة لطالما ارتبطت بالقدرة البشرية على توصيف مواقف غير مسبوقة أو تخيل سيناريوهات لم تحدث من قبل. هذه القدرة نفسها هي مصدر قوة الذكاء الاصطناعي التوليدي. إذ تمكّنه من التعامل مع سياقات غير معرّفة سلفاً واتخاذ قرارات في بيئات متغيرة.

لكن هنا تبرز الإشكالية الكبرى: كيف يمكن ضمان عدم انحراف النظام في مواقف لم تدرج ضمن بيانات تدريبه؟ وكيف يمكن ضبط سلوك خوارزمية في سيناريوهات لم تُختبر فعلياً؟ بالنسبة لهودجات. فإن هذه الأسئلة لا تمثل تحدياً هندسياً فحسب. بل إشكالية فلسفية تتعلق بحدود التفويض الذي يمنحه الإنسان للآلة.

ويؤكد أن مفهوم «التوافق» يجب ألا يختزل في معايير تقنية أو تعليمات برمجية جامدة. بل ينبغي التعامل معه كإطار شامل يوازن بين تمكين الأنظمة من العمل بكفاءة في بيئات معقدة وغير متوقعة، وضمان التزامها بالقيم الإنسانية والقواعد الأخلاقية. وفي هذا السياق، تصبح فكرة «التوافق المسبق» واحدة من أعقد القضايا التي تواجه مطوري ومشرّعي تقنيات الذكاء الاصطناعي في المرحلة الراهنة. مع تصاعد الاعتماد على هذه الأنظمة في قطاعات حيوية وحساسة.

في هذا السياق، ومن ناحية أخرى، هناك العديد من الأخبار المرتبطة بالقطاع والتي يمكنك متابعتها: