شركة «Anthropic» الأمريكية للذكاء الاصطناعي تحظر استخدام نموذج «Claude AI» في تطوير الأسلحة النووية والكيماوية
فنتيك جيت: مصطفى عيد
أعلنت شركة «Anthropic» الأمريكية المتخصصة في الذكاء الاصطناعي عن تحديث سياساتها الخاصة باستخدام منصتها «Claude AI»، في خطوة تهدف إلى تعزيز معايير السلامة ومنع إساءة توظيف تقنياتها في مجالات خطرة.
التحديث الجديد جاء ليشدد القيود على التطبيقات المحظورة، مع تركيز خاص على منع أي استخدام يتعلق بتطوير الأسلحة أو المواد شديدة الخطورة.
حظر تطوير المتفجرات عالية القدرة
وبحسب السياسة السابقة، كانت الشركة تحظر استخدام منصتها في «إنتاج أو تعديل أو تصميم أو تسويق أو توزيع الأسلحة أو المتفجرات أو المواد الخطرة أو الأنظمة المصممة لإحداث ضرر أو فقدان للحياة البشرية».
إلا أن الصياغة الجديدة جاءت أكثر وضوحًا وتشددًا، حيث نصت صراحة على حظر تطوير المتفجرات عالية القدرة، وكذلك الأسلحة البيولوجية والنووية والكيماوية والإشعاعية (CBRN).
مستوى الأمان الثالث للذكاء الاصطناعي
ويأتي هذا التغيير بعد أشهر قليلة من إطلاق الشركة ما أسمته «مستوى الأمان الثالث للذكاء الاصطناعي» في مايو الماضي، تزامنًا مع طرح نموذج «Claude Opus 4».
وتهدف هذه الحماية إلى تقوية مقاومة النظام لمحاولات الاختراق ومنع استغلاله في تطوير أسلحة دمار شامل.
كما لفتت «Anthropic» الانتباه إلى المخاطر المرتبطة بقدراتها المتقدمة في مجال الذكاء الاصطناعي «الوكيل»، مثل خاصية «استخدام الكمبيوتر» التي تتيح للمنصة التحكم المباشر في أجهزة المستخدمين، وأداة «Claude Code» المدمجة في بيئة عمل المطورين.
وأوضحت الشركة أن هذه القدرات قد تفتح المجال أمام سوء الاستخدام على نطاق واسع، بما في ذلك إنشاء برمجيات خبيثة أو تنفيذ هجمات إلكترونية.
ويؤكد هذا التشديد في السياسات حجم الضغوط المتزايدة على شركات الذكاء الاصطناعي لضمان عدم استغلال نماذجها لأغراض ضارة، حيث تحاول «Anthropic» من خلال هذه الإجراءات أن تسبق كلًّا من الجهات التنظيمية والجهات الخبيثة بخطوة، عبر التصدي بوضوح لأخطر التهديدات الأمنية في العالم.
اقرا ايضا:
شركة «Anthropic» الأمريكية تسحب ترخيص استخدام نموذج «Claude» من «OpenAI» لانتهاك شروط الاستخدام
بلومبرج: شركة «Lightspeed» تعرض قيادة جولة تمويلية لـ «Anthropic» بـ 2 مليار دولار
«جوجل» تستثمر مليار دولار في شركة «Anthropic» للذكاء الاصطناعي