فينتك جيت: وكالات
أكدت شركة غوغل أنها ستوقع على مدونة ممارسات الذكاء الاصطناعي للأغراض العامة للاتحاد الأوروبي.
عمل تطوعي
ومدونة ممارسات الذكاء الاصطناعي، هي إطار عمل تطوعي يهدف إلى مساعدة مطوري الذكاء الاصطناعي على تطبيق العمليات والأنظمة بما يتوافق مع قانون الذكاء الاصطناعي للاتحاد.
تجاوز للحدود
ومن الجدير بالذكر أن شركة ميتا أعلنت في وقت سابق من هذا الشهر أنها لن توقع على المدونة، واصفةً تطبيق الاتحاد الأوروبي لتشريعاته المتعلقة بالذكاء الاصطناعي بأنه “تجاوز للحدود”، ومؤكدةً أن أوروبا “تسير في الطريق الخطأ فيما يتعلق بالذكاء الاصطناعي”، بحسب تقرير نشره موقع “تك كرانش” واطلعت عليه “العربية Business”.
تطبيقات وبرامج
يأتي التزام “غوغل” قبل أيام من دخول قواعد مُقدمي “نماذج الذكاء الاصطناعي للأغراض العامة ذات المخاطر النظامية” حيز التنفيذ في 2 أغسطس.
ومن بين الشركات التي يُحتمل أن تتأثر بهذه القواعد أسماء رئيسية مثل “أنثروبيك” و”غوغل” و”ميتا” و “أوبن إيه آي”، بالإضافة إلى العديد من النماذج التوليدية الكبيرة الأخرى، وسيكون أمامها عامان للامتثال الكامل لقانون الذكاء الاصطناعي.
النسخة النهائية
في منشور على مدونة يوم الأربعاء، أقر كينت ووكر، رئيس الشؤون العالمية في “غوغل”، بأن النسخة النهائية من مدونة الممارسات كانت أفضل مما اقترحه الاتحاد الأوروبي في البداية، لكنه لا يزال يُبدي تحفظات حول قانون الذكاء الاصطناعي والمدونة.
تطوير الذكاء الاصطناعي
وقال: “لا نزال قلقين من أن قانون الذكاء الاصطناعي ومدونته يُهددان بإبطاء تطوير الذكاء الاصطناعي ونشره في أوروبا، وعلى وجه الخصوص، فإن الانحرافات عن قانون حقوق النشر في الاتحاد الأوروبي، والخطوات التي تُبطئ الموافقات، أو المتطلبات التي تكشف الأسرار التجارية، قد تُعيق تطوير النماذج الأوروبية ونشرها، مما يُضر بالقدرة التنافسية لأوروبا”.
بتوقيع مدونة ممارسات الاتحاد الأوروبي، ستوافق شركات الذكاء الاصطناعي على اتباع مجموعة من الإرشادات، تشمل توفير وثائق مُحدثة حول أدوات وخدمات الذكاء الاصطناعي الخاصة بها؛ وعدم تدريب الذكاء الاصطناعي على المحتوى المُقرصن؛ والامتثال لطلبات مالكي المحتوى بعدم استخدام أعمالهم في مجموعات بياناتهم.
ذات المخاطر غير المقبولة
يُحظر قانون الذكاء الاصطناعي التاريخي للاتحاد الأوروبي، وهو لائحة قائمة على المخاطر لتطبيقات الذكاء الاصطناعي، بعض حالات الاستخدام “ذات المخاطر غير المقبولة”، مثل التلاعب السلوكي المعرفي أو التقييم الاجتماعي.
كما تُحدد القواعد مجموعة من الاستخدامات “عالية المخاطر”، بما في ذلك القياسات الحيوية والتعرف على الوجه، واستخدام الذكاء الاصطناعي في مجالات مثل التعليم والتوظيف.
كما يُلزم القانون المطورين بتسجيل أنظمة الذكاء الاصطناعي والوفاء بالتزامات إدارة المخاطر والجودة.
اقرأ ايضا:
شركة «Groq» الناشئة لرقائق الذكاء الاصطناعي تتفاوض لجمع تمويل جديد بقيمة 600 مليون دولار
«سوندار بيتشاي» رئيس «جوجل» ينضم لنادي المليارديرات بثروة تتجاوز 1.1 مليار دولار
«ميتا» تعيّن أحد مطوّري نموذج «GPT-4» رئيسًا لمختبرات «الذكاء الخارق»