«أحمد شاكورة» نائب الرئيس الإقليمي للأسواق الناشئة في «كلاوديرا» يكتب: كيف يحمي الذكاء الاصطناعي الأخلاقي الأفراد ويدعم الابتكار؟
تشير بيانات كي بي إم جي (KPMG) إلى أن 46% فقط من الأشخاص حول العالم يثقون فعلياً بأنظمة الذكاء الاصطناعي، رغم أن 66% منهم يستخدمونها بانتظام وبوعي. ومن دون إشراف دقيق، قد تتحول الأدوات المصممة لتعزيز التقدم إلى عوامل تؤدي إلى تفاقم التحيز، وتشويه النتائج، والابتعاد عن المبادئ التي أُنشئت لخدمتها.
النشر الأخلاقي والمسؤول للذكاء الاصطناعي
يركز النشر الأخلاقي والمسؤول على مبادئ العدالة والشفافية والمساءلة. فإذا لم تتم مراجعة مخرجات هذه الأنظمة بانتظام لضمان توافقها مع القيم الإنسانية، فقد يؤدي ذلك إلى نتائج متحيزة أو غير دقيقة أو غير خاضعة للرقابة، مما يخرجها سريعاً عن غاياتها الأصلية. وحين يتم تجاهل الأطر التنظيمية والمسؤوليات، فإن التأثير السلبي يقع على المجتمعات والأفراد الذين لم يشاركوا أصلاً في بناء الذكاء الاصطناعي.
وتقدّر برايس ووترهاوس كوبرز (PwC) أن منطقة الشرق الأوسط ستستفيد بحلول عام 2030 من نحو 2% من إجمالي المكاسب العالمية المتوقعة من الذكاء الاصطناعي، أي ما يقارب 320 مليار دولار أمريكي. وبالنظر إلى الإمكانات الكبيرة التي يحملها الذكاء الاصطناعي لتأثير التنمية في المنطقة، يصبح من الضروري الحفاظ على الهدف الأصلي منه: مساعدة المستخدمين وتقديم إرشاد دقيق ودعم موثوق في تطبيقاته المختلفة.
البداية من المساءلة
تعد المساءلة الركيزة الأساسية لنشر الذكاء الاصطناعي الأخلاقي.
على سبيل المثال، قد يستخدم بنك ما الذكاء الاصطناعي لاتخاذ قرار بشأن الموافقة أو الرفض لطلب قرض. وإذا تلقى المتقدم إشعاراً يفيد بـ”تاريخ ائتماني غير كافٍ” وتم رفض الطلب، فإن المؤسسة المصرفية تتحمل مسؤولية القرار الذي اتخذته خوارزمية الذكاء الاصطناعي.
وعندما لا يتم توضيح القرارات أو الإجراءات الناتجة عن الذكاء الاصطناعي بشكل علني، تصبح حدود الثقة والشفافية بين الأطراف غامضة. لذا، فإن تحميل مطوري ومنفذي أنظمة الذكاء الاصطناعي المسؤولية يضمن سلاسل واضحة من العدالة والشفافية والإشراف عبر كامل دورة عمل النظام.
آليات المساءلة والتفسير
آليات المساءلة والتفسير تحدد الأدوار والمسؤوليات بوضوح، وتعزز الثقة والشفافية. وبذلك يتمكن المصممون والمطورون والمشغلون من تبرير القرارات التي تعتمد على الخوارزميات.
ينبغي على المؤسسات تبني نهج “المساءلة منذ التصميم” (Accountability by Design) بحيث تتضمن المبادئ الأخلاقية في أنظمة الذكاء الاصطناعي منذ المراحل الأولى للتطوير. كما أن تبني إجراءات تضمن الشفافية والعدالة وقابلية الإدارة في جميع مراحل التطوير والتطبيق يحد من التحيز وسوء الاستخدام والمشكلات غير المتوقعة.
وتتيح المراجعات الدورية لمخرجات الذكاء الاصطناعي معاملة جميع الأفراد بإنصاف، وتساعد المؤسسات على الامتثال المستمر للمعايير المتجددة، بما يجعل الذكاء الاصطناعي المسؤول ممارسة طبيعية.
معالجة التحيز وتعزيز العدالة
من أنظمة التعرف على الوجوه التي تخطئ في تحديد بعض الفئات السكانية، إلى أدوات التوظيف التي تمارس تمييزاً قائماً على الجنس أو العرق، أثبتت أنظمة الذكاء الاصطناعي مراراً الحاجة الملحّة لتقنيات أكثر عدالة وشفافية.
بعد ترسيخ مبدأ المساءلة، يمكن الانتقال إلى معالجة التحيزات المنهجية في الذكاء الاصطناعي.
أمثلة عملية
-
ينبغي فحص خوارزميات التوظيف بشكل دوري للكشف عن الأنماط التمييزية في مراجعة السير الذاتية وإزالتها.
-
لضمان أن تكون القرارات الآلية مبنية على المنطق والأخلاق والتعاطف، من الضروري تبني نهج “الإنسان في الحلقة” (Human-in-the-Loop)، بحيث يظل هناك إشراف بشري يمكنه التدخل لتصحيح النتائج وضمان حياديتها.
العدالة تعني توفير نتائج متكافئة ومتسقة، وتهيئة أرضية متساوية تتيح لكل فرد فرصة متكافئة للنجاح. ومع تزايد اعتماد المؤسسات على الخوارزميات في عمليات الفرز الأولية، مثل اختيار المرشحين للوظائف، يصبح من الضروري مراقبة هذه الأنظمة باستمرار لتجنب النتائج التمييزية وضمان العدالة للجميع.
الثقة تنمو مع الشفافية
تخيل مثلاً أن تتقدم لوظيفة، ليتم لاحقاً اكتشاف أن طلبك قد تم تقييمه ورفضه من قبل نظام ذكاء اصطناعي من دون تدخل بشري. هذا النقص في الشفافية يضعف ثقة المتقدمين ويجعلهم يشعرون بأنهم لم يحظوا بفرصة عادلة.
لكي يكون الذكاء الاصطناعي فعالاً بحق، يحتاج الأفراد إلى فهم كيفية عمله وكيفية اتخاذ قراراته. حين تكون نماذج الذكاء الاصطناعي صريحة في آلياتها، فإن ذلك يعزز إحساس الأفراد بالاستقلالية والثقة.
أهمية الشفافية المؤسسية
-
توضيح آلية عمل أنظمة الذكاء الاصطناعي في تقييم الطلبات واتخاذ القرارات.
-
تقديم شروح وافية للمعايير والإجراءات.
-
توفير قنوات ميسّرة لتلقي الملاحظات أو الطعون من المستخدمين.
-
استخدام أطر حوكمة داخلية مثل لجان أخلاقيات الذكاء الاصطناعي لتعزيز الالتزام بالقيم.
رفع معايير الخصوصية والأمن
يمتلك الذكاء الاصطناعي القدرة على جمع وتحليل كميات هائلة من البيانات بسرعة غير مسبوقة، ما يزيد من احتمالية حدوث انتهاكات للخصوصية إذا أُسيء استخدام هذه القدرات.
تُظهر بيانات برايس ووترهاوس كوبرز أن 40% من المستهلكين في الشرق الأوسط يترددون في مشاركة بياناتهم الشخصية عبر وسائل التواصل الاجتماعي والمواقع الإلكترونية بسبب المخاوف الأمنية.
احترام الحقوق الفردية يتجاوز مجرد الامتثال للقوانين، فحماية البيانات الحساسة — وخاصة المعلومات الشخصية — يجب أن تكون أولوية قصوى عند تطوير أنظمة الذكاء الاصطناعي.
-
تبني نماذج هجينة لمعالجة البيانات محلياً (On-premises) وكذلك عبر الحوسبة السحابية (Cloud Computing) بشكل متوازن وفعّال.
-
رفع مستوى الوعي الرقمي وتعزيز مهارات القوى العاملة والمؤسسات بشكل مستمر.
لماذا لا يمكن تأجيل المعايير الأخلاقية للذكاء الاصطناعي؟
غالباً ما يتفوق تطور تقنيات الذكاء الاصطناعي على قدرة القوانين والمعايير الأخلاقية القائمة على مواكبتها. وأي تأخير في اعتماد هذه المعايير قد يعرض المؤسسات لاستخدامات ضارة أو غير متوقعة، خصوصاً أن الذكاء الاصطناعي يؤثر اليوم على قطاعات متعددة مثل الرعاية الصحية والعمل والخصوصية والأمن.
إن غياب القواعد الأخلاقية الصارمة يزيد من احتمالية ظهور التحيز والأحكام المسبقة والمعلومات المضللة وعواقب سلبية أخرى قد تمس حياة ملايين الأشخاص.
-
الإمارات العربية المتحدة أعطت الأولوية لمبادئ العدالة والمساءلة والشفافية والاستدامة في إطار أخلاقيات الذكاء الاصطناعي.
-
وضع مبادئ أخلاقية مشتركة عالمياً يتيح للجميع تحمل المسؤولية عن منع سوء الاستخدام وتعزيز التطبيقات المفيدة.
الخلاصة
أعظم قيمة للذكاء الاصطناعي لا تكمن في قدراته التقنية، بل في كيفية استخدامه بمسؤولية. ومن خلال إعلاء مبادئ:
-
التصميم الأخلاقي
-
المساءلة
-
الشفافية
-
العدالة
يمكن للذكاء الاصطناعي أن يصبح قوة داعمة للخير والابتكار المستدام.
أحمد شاكورة
نائب الرئيس الإقليمي للأسواق الناشئة في شركة كلاوديرا
في هذا السياق، ومن ناحية أخرى، هناك العديد من الأخبار المرتبطة بالقطاع والتي يمكنك متابعتها. على سبيل المثال، نستعرض أهمها في القائمة التالية:
«كلاوديرا» تكشف عن حلها المتقدم لتمثيل البيانات مدعومة بالذكاء الاصطناعي ضمن مراكز البيانات المحلية