«جارتنر»: الإعدادات الخاطئة للذكاء الاصطناعي قد تتسبب في توقف بنية تحتية وطنية حساسة بإحدى دول مجموعة العشرين بحلول 2028

فنتيك جيت: محمد بدوي

توقعت شركة جارتنر، الشركة العالمية المتخصصة في تحليلات الأعمال والتكنولوجيا. أنه بحلول عام 2028 سيؤدي الإعداد غير السليم لتطبيقات الذكاء الاصطناعي داخل الأنظمة السيبرانية المادية إلى تعطل بنية تحتية وطنية حساسة في إحدى دول مجموعة العشرين.

تحذيرات جارتنر من تعطل البنية التحتية الوطنية بحلول 2028

وتعرف جارتنر الأنظمة السيبرانية المادية بأنها أنظمة هندسية تعمل على تنسيق عمليات الاستشعار والحوسبة والتحكم والاتصال الشبكي والتحليلات بهدف التفاعل مع العالم المادي، بما في ذلك البشر. ويُعدّ هذا المصطلح مظلة جامعة تضم تقنيات التشغيل، وأنظمة التحكم الصناعية، وأنظمة الأتمتة والتحكم الصناعية، وإنترنت الأشياء الصناعي، والروبوتات، والطائرات المسيّرة، إضافة إلى منظومة الثورة الصناعية الرابعة.

وقال وام فوستر، نائب الرئيس للأبحاث لدى جارتنر: “قد لا ينجم الإخفاق الكبير التالي في البنية التحتية عن هجوم إلكتروني أو كارثة طبيعية، بل قد يكون نتيجة مهندس حسن النية، أو برنامج تحديث يحتوي على خطأ برمجي. أو حتى فاصلة عشرية وضعت في غير مكانتها. ويعد توفير آلية إيقاف طارئ آمنة، أو وضع تحكم احتياطي محصور بالمشغلين المعتمدين أمراً جوهرياً لحماية البنية التحتية الوطنية من حالات التوقف غير المقصود الناجمة عن إعداد غير سليم لأنظمة الذكاء الاصطناعي”.

التهديدات المباشرة للسلامة العامة والاستقرار الاقتصادي

وقد يؤدي الإعداد غير السليم لأنظمة الذكاء الاصطناعي إلى إيقاف خدمات حيوية بصورة ذاتية، أو إساءة تفسير بيانات أجهزة الاستشعار. أو إطلاق أوامر تشغيلية غير آمنة. الامر الذي قد يترتب عليه أضرار مادية جسيمة أو تعطّل واسع النطاق في الخدمات يشكل تهديدا مباشراً للسلامة العامة والاستقرار الاقتصادي نتيجة فقدان السيطرة على أنظمة محورية مثل شبكات الطاقة أو المنشآت الصناعية.

فعلى سبيل المثال، تعتمد شبكات الطاقة الحديثة على أنظمة الذكاء الاصطناعي لضبط التوازن الفوري بين توليد الكهرباء واستهلاكها. وقد يؤدي نموذج تنبؤي تم تطويره على نحو غير سليم إلى تفسير الطلب باعتباره مؤشراً على حالة عدم استقرار، الأمر الذي يفضي إلى عزل أجزاء من الشبكة أو تطبيق إجراءات فصل الأحمال دون مبرر عبر مناطق واسعة، بل وحتى على مستوى دول بأكملها.

تعقيد “الصندوق الأسود” وضرورة التدخل البشري

وأضاف فوستر: “إن نماذج الذكاء الاصطناعي الحديثة بلغت درجة من التعقيد تجعلها أقرب إلى ما يُعرف بـ “الصندوق الأسود”. وحتى مطوروها لا يستطيعون دائماً توقع الكيفية التي قد تنعكس بها تغييرات طفيفة في إعداداتها على السلوك الناتج عنها. وكلما ازدادت هذه الأنظمة انغلاقاً وغموضاً، تعاظم خطر الإعداد غير السليم. ومن ثمّ تزداد الحاجة إلى تمكين التدخل البشري عند الضرورة”.

للتخفيف من المخاطر، توصي جارتنر رؤساء ومسؤولي أمن المعلومات بما يلي:

اعتماد أوضاع تحكم احتياطية آمنة: بالنسبة لجميع الأنظمة السيبرانية الفيزيائية المرتبطة بالبنية التحتية الحيوية، ينبغي تضمين آلية إيقاف طارئ آمنة أو وسائل تجاوز تشغيلية لا يفعّلها إلا مشغّلون معتمدون، بما يضمن بقاء القرار النهائي بيد العنصر البشري حتى في حالات التشغيل الذاتي الكامل.

إنشاء توائم رقمية: تطوير نموذج رقمي مطابق للأنظمة الداعمة للبنية التحتية الحيوية. لإجراء اختبارات واقعية للتحديثات وتعديلات الإعدادات قبل اعتمادها في بيئة التشغيل الفعلية.

المراقبة الفورية وآليات الاسترجاع: إلزام الجهات المعنية بتطبيق مراقبة آنية مستمرة للتغييرات التي تطرأ على أنظمة الذكاء الاصطناعي ضمن الأنظمة السيبرانية الفيزيائية. مع توفير آليات استرجاع سريعة للتراجع عن أي تعديل. إلى جانب تأسيس فرق وطنية متخصصة للاستجابة لحوادث الذكاء الاصطناعي.

 

روابط ذات صلة:

«جارتنر»: 6 توجهات للأمن السيبراني لعام 2026

«جارتنر»: 35% من الدول ستعتمد منصات ذكاء اصطناعي إقليمية بحلول 2027