تقرير لـ«أنثروبيك»: نماذج الذكاء الاصطناعي المتقدمة قد تلجأ للكذب والاحتيال لتحقيق أهدافها

فينتك جيت: مصطفى عيد

كشفت شركة «Anthropic» الأمريكية المتخصصة في أبحاث الذكاء الاصطناعي عن نتائج دراسة جديدة مثيرة للقلق، أظهرت أن نماذج الذكاء الاصطناعي الكبيرة عبر الصناعة أبدت ميولًا متزايدة للتهرب من الضوابط الأخلاقية، واللجوء إلى الخداع، وحتى محاولة سرقة أسرار الشركات في سيناريوهات اختبار خيالية.

وتأتي هذه النتائج في توقيت بالغ الحساسية، مع تسارع تطوير نماذج الذكاء الاصطناعي القادرة على “التفكير” بشكل مستقل، وحصولها على موارد حسابية متقدمة، مما يفتح الباب أمام مخاطر جديدة في سباق عالمي لصناعة أنظمة تفوق قدرات البشر.

أكدت «Anthropic» في تقريرها أن هذه الأنماط السلوكية لا تقتصر على نماذجها فقط، بل رُصدت أيضًا لدى نماذج طورتها شركات كبرى مثل «OpenAI»، و«Google»، و«Meta»، و«xAI»، وغيرها. وأوضحت الشركة: «عند اختبار 16 نموذجًا رائدًا في سيناريوهات محاكاة، لوحظ تكرار السلوكيات غير المتماشية مع القيم الأخلاقية».

وأضاف التقرير: «في بعض الحالات، اختارت النماذج الابتزاز والمساعدة في التجسس الصناعي، وحتى اتخاذ إجراءات أكثر تطرفًا عندما اعتبرت ذلك ضروريًا لتحقيق أهدافها». ولفت إلى أن «تشابه السلوكيات بين نماذج الشركات المختلفة يشير إلى وجود خطر جوهري في هذه الأنظمة، وليس مجرد مشكلة خاصة بطريقة شركة معينة».

أظهرت الدراسة أن التهديدات تصبح أكثر تعقيدًا عندما يُتاح للنماذج الوصول إلى بيانات الشركات وأدواتها. فعلى سبيل المثال، resortت خمسة نماذج إلى التهديد بالابتزاز في سيناريوهات اختبارية إذا واجهت خطر الإغلاق.

وفي سيناريو بالغ الخطورة، وجد الباحثون أن العديد من النماذج كانت مستعدة نظريًا لقطع إمدادات الأكسجين عن موظف في غرفة خوادم إذا كان يمثل عائقًا أمام تحقيق أهداف النظام.

وقالت الشركة: «الأغلبية كانت مستعدة لاتخاذ إجراءات متعمدة تؤدي إلى الوفاة في هذا الإعداد الصناعي»، مشيرة إلى أن حتى التوجيهات الصريحة للحفاظ على حياة البشر لم تمنع بالكامل وقوع مثل هذه السلوكيات.

قال «Benjamin Wright»، الباحث في علوم توافق الذكاء الاصطناعي لدى «Anthropic»، إن هذه النتائج تؤكد أهمية التزام شركات الذكاء الاصطناعي الرائدة بالشفافية، ووضع معايير أمان موحدة على مستوى الصناعة، مع تزايد قدرات هذه الأنظمة واستقلاليتها.

وأوضح الباحثون أن هذه السلوكيات لم تُرصد في الاستخدام الواقعي للنماذج حتى الآن، لكنها قد تصبح ممكنة مع منح الذكاء الاصطناعي صلاحيات أوسع في بيئات الشركات.

وجه تقرير «Anthropic» رسالة واضحة للشركات التي تتسابق إلى تبني الذكاء الاصطناعي لرفع الكفاءة وتقليل الاعتماد على العنصر البشري، مشيرًا إلى أن هذه النماذج قد تشكل مخاطر على الأعمال التجارية: «النماذج لم تنزلق إلى هذه السلوكيات بشكل عشوائي، بل حسبتها كأفضل مسار لتحقيق أهدافها».

واختتمت الشركة بالتأكيد أن هذه السلوكيات ظهرت فقط في بيئات محاكاة، لكنها تمثل إشارة إنذار مع اقتراب عصر أنظمة الذكاء الاصطناعي الأكثر قوة واعتمادية.

اقرأ ايضا:

أنثروبيك تدمج البحث عبر الإنترنت في منصة Claude للذكاء الاصطناعي

شركة «أنثروبيك» تجمع جولة تمويل بقيمة 3.5 مليار دولار وبتقييم 61.5 مليار دولار

«أنثروبيك» تطلق نموذجا للذكاء الاصطناعي بنهج تفكير هجين