فينتك جيت: مصطفى عيد
أعلنت شركة OpenAI عن تعديل صفقتها مع وزارة الحرب الأمريكية بعد الانتقادات التي طالت الترتيبات المتسرعة لتوريد تقنيات الذكاء الاصطناعي، فيما اعترف الرئيس التنفيذي للشركة، سام ألتمان، بأن الصفقة بدت “انتهازية ومهملة” عند الإعلان عنها. الصفقة أثارت مخاوف من إمكانية استخدام الذكاء الاصطناعي في المراقبة الشاملة على الصعيد المحلي، لكن ألتمان أكد مساء الاثنين أن شركته ستمنع صراحة استخدام تقنياتها لهذا الغرض أو من قبل وكالات الاستخبارات التابعة لوزارة الدفاع مثل وكالة الأمن القومي الأمريكية (NSA).
وتأتي هذه التعديلات بعد أن ألغت وزارة الدفاع عقدها مع شركة Anthropic، المتخصصة أيضًا في الذكاء الاصطناعي، بسبب اعتراض الشركة على استخدام أنظمتها للمراقبة الشاملة، معتبرةً أن ذلك “يتعارض مع القيم الديمقراطية”، وهو ما دفع الرئيس الأمريكي السابق دونالد ترامب لوصف Anthropic بأنها “مجموعة متطرفة يسارية” وأمر الحكومة الفيدرالية بوقف استخدام تقنياتها.
رغم نفي OpenAI أن الاتفاقية تسمح باستخدام الذكاء الاصطناعي للمراقبة، أثارت الصفقة موجة من الانتقادات على منصات التواصل، حيث دعا مستخدمون على X وReddit إلى حملة “حذف ChatGPT”، معتبرين أن الشركة تدرب الآن “آلة حرب”. وفي المقابل، ارتفع تطبيق Claude التابع لشركة Anthropic إلى قمة متجر التطبيقات لأجهزة Apple، متفوقًا على ChatGPT، وفقًا لتحليل بيانات Sensor Tower.
تواصلًا واضحًا
وقال ألتمان لموظفي OpenAI في رسالة أعيد نشرها على X إن الصفقة المعلنة يوم الجمعة الماضي تم التوصل إليها بسرعة بعد إسقاط Anthropic، معترفًا بأن القضايا “معقدة للغاية وتتطلب تواصلًا واضحًا”. وأضاف:
“كنا نحاول حقًا تهدئة الأمور وتجنب نتيجة أسوأ، لكن في النهاية بدا الأمر انتهازيًا ومهملًا”.
يذكر أن أكثر من 800 موظف في OpenAI وGoogle وقعوا رسالة مفتوحة يحذرون فيها من استخدام الذكاء الاصطناعي للأغراض العسكرية والمراقبة الشاملة، مطالبين قيادات شركاتهم بالوقوف ضد مطالب وزارة الحرب الحالية، والتي تشمل استخدام النماذج الذكية للقتل المستقل دون إشراف بشري.
وقد أشارت OpenAI سابقًا إلى أن إحدى خطوطها الحمراء كانت “عدم استخدام تقنيات OpenAI لتوجيه أنظمة أسلحة مستقلة”، إلا أن بعض المراقبين، بمن فيهم رئيس أبحاث السياسة السابق في OpenAI، مايلز بروندج، شككوا في قدرة الشركة على ضمان هذه الالتزامات، معتبرين أن الصفقة قد تم تأطيرها بطريقة تخدم مصالح OpenAI بينما تضر بمصالح Anthropic.
في الوقت نفسه، بدأت ثلاث وكالات أمريكية على مستوى الوزارة – الخارجية، الخزانة، والصحة والخدمات الإنسانية – بإيقاف استخدام منتجات Anthropic بعد إعلان وزارة الدفاع عن الشركة كمصدر خطر في سلسلة التوريد، فيما أصدر ترامب توجيهًا لكافة الوكالات الفيدرالية لإنهاء استخدام تقنيات Anthropic تدريجيًا.
في هذا السياق، ومن ناحية أخرى، هناك العديد من الأخبار المرتبطة بالقطاع والتي يمكنك متابعتها:
- تصاعد الخلاف بين «البنتاجون» و «أنثروبيك» بشأن استخدام «كلود» في عمليات عسكرية حساسة
- رغم قرار الحظر..«الجيش الأمريكي» يستخدم« أداة ذكاء اصطناعي» من شركة «أنثروبيك» في الحرب ضد «إيران»
- «ترامب» يمنح الجهات الحكومية في «أمريكا» مهلة 6 أشهر لتصفية العقود ووقف استخدام تقنيات «أنثروبيك»




