فينتك جيت: منار أسامة
حذّر مسؤولون أمميون ومختصون في التكنولوجيا العسكرية من مخاطر أنظمة الذكاء الاصطناعي غير المنضبِطة، محذرين من أن التطور السريع لهذه التقنية قد يؤدي إلى ظهور أسلحة قادرة على اتخاذ قرارات قتالية مستقلة، ما يشكل تهديداً مباشراً للأمن والاستقرار العالميين.
تحذيرات أممية
وقال أمانديب جيل وكيل الأمين العام للأمم المتحدة والمبعوث الخاص للتكنولوجيا، إن الذكاء الاصطناعي يسرّع تطوير الأسلحة الحالية ويمنحها مستويات غير مسبوقة من الاستقلالية، مشدداً على ضرورة إبقاء السيطرة البشرية على قرارات اختيار الأهداف،
وخذر جيل من أن أي تراجع في الدور البشري قد يسمح لأنظمة هجومية بالتصرف دون رقابة أو مساءلة.
مخاطر تقنية
وأكد مسؤولون عسكريون ومتخصصون في الأمن السيبراني أن خطورة الأسلحة الذكية لا تقتصر على قدرتها على اتخاذ قرارات قتالية لحظية، بل تمتد إلى مخاطر تقنية كبيرة، أبرزها إمكانية الاختراق أو التلاعب بخوارزميات الأسلحة عبر بيانات مضللة، ما قد يؤدي إلى توجيه الضربات لأهداف غير مقصودة أو خارج نطاق القانون الدولي.
وأشاروا إلى أن الانتقال من أنظمة “الدعم البشري” إلى “الاستقلالية المتزايدة” يقلل قدرة البشر على التحكم، ويخلق فجوة قانونية واضحة في تحديد المسؤولية عند وقوع أخطاء قاتلة، والسلاح الذكي قد يتحول إلى أداة هجومية لصالح الخصم إذا تم اختراقه أو إعادة برمجته.
تنظيم دولي
وطالبوا بفرض إطار دولي صارم ينظم استخدام الأسلحة المعتمدة على الذكاء الاصطناعي، مع التأكيد على إبقاء الإنسان هو صاحب القرار النهائي قبل استخدام القوة المميتة، وتحديد مستويات موحدة للاستقلالية وإنشاء آليات رقابية دولية لمنع تطوير أسلحة ذاتية القرار.
من جانبه، شدد اللواء عادل العمدة، المحاضر بالأكاديمية العسكرية للدراسات العليا، على أن السماح باستقلالية كاملة في أنظمة السلاح يشكل تهديداً مباشراً للبشرية، محذراً من أن ترك القرار لآلة بلا وعي أو تقدير موقف قد يؤدي إلى نتائج كارثية على المجتمعات والاستقرار العالمي، وربما إلى سيناريوهات تدميرية تصل إلى فناء العالم.
في هذا السياق، ومن ناحية أخرى، هناك العديد من الأخبار المرتبطة بالقطاع والتي يمكنك متابعتها:







