رغم اعتراضات شركات التكنولوجيا.. الاتحاد الأوروبي يلتزم بتطبيق قانون الذكاء الاصطناعي

فينتك جيت: مصطفى عيد

أعلنت المفوضية الأوروبية التزامها الكامل بتطبيق قانون الذكاء الاصطناعي الجديد وفق الجدول الزمني المحدد سلفاً، رغم مطالبات متزايدة من شركات تكنولوجية أوروبية وأمريكية، مثل «Alphabet» و«Meta» و«ASML» و«Mistral»، بتأجيل التنفيذ لعدة سنوات بسبب ما وصفوه بالتحديات التنظيمية والتكاليف العالية للامتثال.

القانون، الذي يُعد أول إطار قانوني شامل ينظم الذكاء الاصطناعي على مستوى العالم، دخل حيز التنفيذ تدريجياً منذ فبراير الماضي، حيث ستبدأ التزامات النماذج العامة في أغسطس 2025، على أن تُطبق القواعد الخاصة بالنماذج عالية الخطورة في أغسطس 2026.

ورفضت المفوضية فكرة “إيقاف الساعة” أو منح فترة سماح، مؤكدة أن الجدول الزمني جزء من نص قانوني ملزم، ما يُشكل رسالة واضحة بأن أوروبا ماضية في تنظيم الذكاء الاصطناعي دون تراجع، حتى مع الضغوط من كبرى الشركات العالمية.

ويهدف القانون إلى فرض ضوابط حوكمة صارمة على التكنولوجيا الناشئة، لا سيما في القطاعات الحساسة مثل الصحة والتعليم والأمن، في وقت تتصدر فيه الولايات المتحدة والصين سباق تطوير نماذج الذكاء الاصطناعي.

ومن المتوقع أن تُعلن المفوضية في نهاية العام عن خطوات لتبسيط اللوائح الرقمية، خاصة لتخفيف عبء التقارير على الشركات الصغيرة، دون المساس بجوهر الحماية والتوازن التكنولوجي الذي يسعى إليه القانون، ووفقاً للخطة الرسمية، دخل القانون حيّز النفاذ اعتباراً من 1 أغسطس 2024، ليُشكل بذلك الإطار القانوني المعتمد لتنظيم الذكاء الاصطناعي داخل دول الاتحاد.

وبدأت أولى مراحل التطبيق الفعلي في 2 فبراير 2025، بفرض حظر صارم على الأنظمة المصنفة كـ«عالية الخطورة»، مثل تقنيات التصنيف الحيوي أو التلاعب النفسي، والتي قد تُهدد خصوصية الأفراد أو الحقوق الأساسية.

وفي 2 أغسطس 2025، يدخل حيز التنفيذ الجزء المتعلق بالنماذج العامة للذكاء الاصطناعي (GPAI)، حيث تلتزم الشركات المطورة لهذه النماذج بتطبيق معايير الشفافية والخصوصية، بالإضافة إلى آليات المساءلة والغرامات.

أما في 2 أغسطس 2026، فتُطبق الأحكام الكاملة للقانون على النماذج عالية الخطورة في القطاعات المنظمة مثل الأمن والتوظيف، لتشمل متطلبات أكثر صرامة في التقييم والتصريح والتوثيق.

وتُختتم مراحل التطبيق في 2 أغسطس 2027، بإطلاق المرحلة الأخيرة من تصنيف النماذج عالية الخطورة، وتفعيل منظومة التراخيص والمراقبة الميدانية بشكل كامل.

يُعد قانون الذكاء الاصطناعي الأوروبي أول إطار تشريعي من نوعه عالمياً، يستهدف حماية المستخدمين وتنظيم استخدام التقنيات الناشئة عبر مقاربة مستندة إلى مستوى الخطورة. ورغم دعوات الشركات لتأخير التطبيق إلى 2027، يصر الاتحاد على أن القانون باقٍ دون تغيير لضمان سلامة وشفافية ابتكارات الذكاء الاصطناعي .

اقرا ايضا:

«مارك زوكربيرج» يعيد هيكلة وحدة الذكاء الاصطناعي في «ميتا»

شركة «Lovable» السويدية لتطبيقات الويب بالذكاء الاصطناعي تجمع 150 مليون دولار

جامعة «برمنجهام» تتعاون مع شركة «مينترا» الناشئة في حاضنة الأعمال «in5» للارتقاء بخدمات الصحة النفسية القائمة على الذكاء الاصطناعي

شركة صينية تطلق أول نموذج ذكاء اصطناعي مخصص لصناعة توليد الطاقة في العالم