فينتك جيت: محمد بدوي
أصدرت شركة بالو ألتو نتوركس، الشركة العالمية الرائدة في مجال الأمن السيبراني، تقريرها الجديد “6 توقعات لاقتصاد الذكاء الاصطناعي: القواعد الجديدة للأمن السيبراني لعام 2026″، والذي يسلط الضوء على التحول المتسارع نحو اقتصاد عالمي قائم على الذكاء الاصطناعي، وما يصاحبه من إعادة صياغة شاملة لمعادلات المخاطر السيبرانية. ويشير التقرير إلى أن هذا النموذج الاقتصادي الجديد، الذي يقود فيه الذكاء الاصطناعي الإنتاجية والعمليات المؤسسية، يفرض واقع أمني جديد ومختلف جذرياً. ومع دخول عام 2026، يتوقع أن تعيد وكلاء الذكاء الاصطناعي المستقلة تعريف أنماط التشغيل داخل المؤسسات، بما يمهد الطريق لتحولات جوهرية في منظومات الهوية، ومراكز العمليات الأمنية، والحوسبة الكمية، وأمن البيانات، وبرامج تصفح الإنترنت.
توقعت بالو ألتو نتوركس أن يكون 2025 هو عام الاضطراب في ضوء الارتفاع غير المسبوق في حوادث الاختراق واسعة النطاق التي أدت إلى تعطل شبكات مؤسسية كاملة، نتيجة الثغرات المتزايدة في سلاسل التوريد، وبلوغ الجهات المهاجمة مستويات غير مسبوقة من السرعة والتعقيد.
وقد أثبتت التطورات اللاحقة دقة هذا التوقع، إذ أسفرت 84% من أبرز الحوادث السيبرانية التي حققت فيها “الوحدة 42” خلال هذا العام عن توقف تشغيلي، أو أضرار على مستوى السمعة، أو خسائر مالية مباشرة. ومع حلول عام 2026، تشير بالو ألتو نتوركس إلى الانتقال إلى “عام المدافع”، حيث ترجّح كفة الدفاعات المعتمدة على الذكاء الاصطناعي لصالح المؤسسات، من خلال تسريع الاستجابة للحوادث، وتقليص التعقيد التشغيلي، وتعزيز مستوى الرؤية الشاملة، بما يتيح التعامل السريع والفعّال مع الهجمات السيبرانية.
تحولاً جذرياً
وقالت ويندي وايتمور، كبيرة مسؤولي استقصاء المعلومات الأمنية في بالو ألتو نتوركس: “يعيد التوسع في اعتماد الذكاء الاصطناعي تعريف مخاطر الأمن السيبراني. إلا أن الفرصة الحاسمة باتت اليوم في صالح فرق الأمن السيبراني. ففي الوقت الذي يوظف فيه المهاجمون الذكاء الاصطناعي لتوسيع نطاق التهديدات وتسريعها عبر بيئات عمل هجينة. حيث يتجاوز عدد الوكلاء المستقلين عدد البشر بنسبة 82 إلى 1، يصبح لزاماً على فرق الأمن السيبراني مجاراة هذه الوتيرة عبر منظومات دفاع ذكية. الأمر الذي يقتضي ذلك تحولاً جذرياً من نهج تفاعلي يقتصر على الحظر. إلى دور تمكيني استباقي يتولى إدارة المخاطر المدفوعة بالذكاء الاصطناعي بفاعلية، مع دعم الابتكار المؤسسي وتسريعه”.
ومن الارتفاع المتوقع في هجمات الهوية المدعومة بالذكاء الاصطناعي، إلى بروز موجة جديدة من المسؤولية التنفيذية المرتبطة بالذكاء الاصطناعي غير المنضبط. تشكل هذه التوقعات لعام 2026 مرجع إرشادي أساسي يمكن المؤسسات من صياغة استراتيجياتها في مجال الأمن السيبراني. والتعامل بثقة مع الاقتصاد الجديد القائم على الأنظمة المستقلة المدعومة بالذكاء الاصطناعي.
وقال حيدر باشا، كبير مسؤولي الأمن لمنطقة أوروبا والشرق الأوسط وأفريقيا في بالو ألتو نتوركس: “في منطقة أوروبا والشرق الأوسط وأفريقيا. يعد مستقبل الذكاء الاصطناعي القائم على الوكلاء أكثر أهمية مقارنة بمناطق أخرى. وذلك نتيجة الضغوط المتزامنة الناجمة عن اتساع فجوة المواهب وتصاعد مشهد التهديدات السيبرانية.
وتتفاقم هذه التحديات بفعل التعقيد الذي يميز المنطقة. في ظل بيئات تشغيل متعددة اللغات، ومتعددة السحابات، ومتعددة الأطر التنظيمية. وهو ما يشكل عبئ متزايد على محللي مراكز العمليات الأمنية. ونعتقد أن الذكاء الاصطناعي القائم على الوكلاء يمثل الحل الضروري لسد الفجوات الحرجة في مجالات المعرفة والإدارة والتنفيذ. بما يضمن المرونة التشغيلية. ومع إدراك أن الهجمات السيبرانية المستقبلية ستستهدف حتمًا هذه القوة العاملة الجديدة من وكلاء الذكاء الاصطناعي. ينبغي أن ينصب التركيز على نشر وكلاء أكثر أمانًا. وخاضعين للإشراف، وجديرين بالثقة بطبيعتهم. ومؤمّنين وفق بنية “انعدام الثقة” منذ البداية.”
توقعات بالو ألتو نتوركس لعام 2026 في مجال الذكاء الاصطناعي والأمن السيبراني:
عصر الخداع الجديد: تهديد هوية الذكاء الاصطناعي
في عام 2026، ستصبح الهوية ساحة المواجهة الأساسية، مع تصاعد تقنيات التزييف العميق المعتمدة على الذكاء الاصطناعي في الزمن الحقيقي. بما في ذلك محاكاة الشخصيات التنفيذية، على نحو يجعل التزوير غير قابل للتمييز عن الواقع. وتتضاعف حدة هذا التهديد مع انتشار الوكلاء المستقلين وبلوغ نسبة الهويات الآلية إلى البشرية مستوى 82:1. ما يفضي إلى أزمة مصداقية قد يتسبب فيها أمر واحد مزور بإطلاق سلسلة واسعة من الإجراءات المؤتمتة. ومع تراجع الثقة. يصبح من الضروري أن ينتقل أمن الهوية من إطار وقائي تفاعلي إلى دور تمكيني استباقي على مستوى المؤسسة، بما يضمن حماية كل عنصر بشري. وكل نظام آلي، وكل وكيل ذكاء اصطناعي.
التهديد الداخلي الجديد: تأمين وكيل الذكاء الاصطناعي
سيسهم اعتماد المؤسسات لوكلاء ذكاء اصطناعي مستقلين في توفير عامل تسريع حاسم لمعالجة فجوة المهارات السيبرانية التي تقدر بـ 4.8 مليون متخصص. ووضع حد لإرهاق التنبيهات المتكرر. غير أن هذا التطور ينطوي في الوقت ذاته على مخاطر جوهرية. إذ يفضي إلى نشوء شكل جديد وقوي من التهديدات الداخلية. فهؤلاء الوكلاء العاملون على مدار الساعة. والذين يُمنحون ثقة ضمنية وصلاحيات وصول عالية، بما في ذلك الامتيازات الحساسة. يتحولون سريعًا إلى الأهداف الأعلى قيمة. ولن يعود الخصوم يركزون على استهداف البشر بوصفهم الهدف الأساسي. بل سيسعون إلى اختراق هؤلاء الوكلاء ذوي القدرات العالية وتحويلهم إلى “عنصر داخلي مستقل”. ويفرض هذا الواقع الانتقال إلى نموذج يقوم على الاستقلالية المقترنة بالتحكم. بما يستدعي اعتماد أدوات حوكمة لجدران حماية الذكاء الاصطناعي أثناء التشغيل. لوقف الهجمات التي تُنفَّذ بسرعة الآلة. وضمان عدم توجيه قوة عمل الذكاء الاصطناعي ضد الجهات المالكة لها.
الفرصة الجديدة: معالجة إشكالية الثقة في البيانات
في العام المقبل، ستنتقل بؤرة الهجمات إلى مستوى جديد يتمثل فيما يعرف بـ “تسميم البيانات”. من خلال إفساد بيانات تدريب الذكاء الاصطناعي بصورة خفية عند مصدرها. ويستغل هذا النمط من الهجمات الفجوة التنظيمية الحرجة بين فرق علوم البيانات وفرق الأمن، لإدخال أبواب خلفية غير مرئية وبناء نماذج تفتقر إلى الموثوقية. بما يؤدي إلى نشوء أزمة جوهرية في الثقة بالبيانات. ومع تراجع جدوى المحيطات الأمنية التقليدية، تبرز الحاجة إلى منصة موحدة تسد هذه الثغرة، عبر توظيف إدارة وضع أمن البيانات (DSPM) وإدارة وضع أمن الذكاء الاصطناعي (AI-SPM) لتعزيز الرصد والشفافية. إلى جانب وكلاء تشغيلية تعتمد مفهوم “جدار الحماية كرمز” لتأمين سلسلة بيانات الذكاء الاصطناعي بالكامل.
تصاعد المخاطر القانونية للذكاء الاصطناعي ومسؤولية الإدارة العليا
سيصطدم سباق المؤسسات نحو تحقيق أفضلية تنافسية عبر الذكاء الاصطناعي بجدار جديد من الواقع القانوني. وبحلول عام 2026. ستؤدي الفجوة الواسعة بين وتيرة التبني السريع ومستوى نضج أمن الذكاء الاصطناعي. (حيث لا تمتلك سوى 6% من المؤسسات استراتيجية متقدمة) إلى بروز أولى القضايا القضائية الكبرى التي تحمل القيادات التنفيذية مسؤولية شخصية عن تصرفات الذكاء الاصطناعي غير المنضبط. ويجسد هذا التحول انتقال الذكاء الاصطناعي من كونه مسألة تقنية محصورة بتكنولوجيا المعلومات إلى قضية مسؤولية جوهرية تقع ضمن اختصاص مجالس الإدارة. وفي هذا السياق. يتعين أن يتطور دور مدير تقنية المعلومات ليصبح ممكناً استراتيجياً. أو أن يتكامل مع منصب جديد هو كبير مسؤولي مخاطر الذكاء الاصطناعي. باستخدام منصة موحدة توفر حوكمة قابلة للتحقق وتدعم الابتكار بصورة آمنة.
العد التنازلي الجديد: الحتمية الكمومية
كما يتمثل أحد أخطر التهديدات الناشئة فيما يعرف بأسلوب “جمع البيانات الآن وفك تشفيرها لاحقاً”. حيث يتم سرقة البيانات المشفرة والاحتفاظ بها، على أمل فك تشفيرها مستقبلاً مع تطور قدرات الحوسبة الكمومية. وهو ما يتسارع بفعل الذكاء الاصطناعي. حيث تصبح البيانات المسروقة حالياً مصدر مخاطر مستقبلية مؤكدة. ومع تقلص الأفق الزمني للحوسبة الكمومية من تحد متوقع خلال عشر سنوات إلى واقع محتمل خلال ثلاث سنوات فقط. ستفرض التوجيهات الحكومية قريباً انتقال واسع ومعقد نحو اعتماد تقنيات تشفير ما بعد الحوسبة الكمية. كما يستوجب هذا التحول من المؤسسات تجاوز مفهوم التحديث لمرة واحدة، والتوجّه نحو بناء مرونة تشفير مستدامة.تقوم على القدرة المستمرة على تكييف معايير التشفير باعتبارها ركيزة أمنية أساسية لا تقبل المساومة.
الاتصال الجديد: متصفح الإنترنت بوصفه مساحة العمل الجديدة
لم يعد متصفح الإنترنت أداة لعرض المعلومات فحسب، بل تطور ليصبح منصة تنفيذ فعلية تعتمد على وكلاء ذكاء اصطناعي لإنجاز المهام. ما جعله يؤدي دور مركزي داخل بيئات العمل المؤسسية، أشبه بدور أنظمة التشغيل. ويؤدي هذا التحول إلى بروز أكبر سطح هجوم غير مؤمن. إذ أصبح المتصفح نقطة الدخول الأساسية للتطبيقات والبيانات المدعومة بالذكاء الاصطناعي. في ظل محدودية الرؤية والتحكم الأمني داخله. ومع الارتفاع الحاد في حركة مرور تطبيقات الذكاء الاصطناعي التوليدي بنسبة تتجاوز 890%، يتعيّن على المؤسسات اعتماد نموذج أمني موحّد قائم على السحابة. يفرض ضوابط انعدام الثقة وحماية البيانات بشكل متسق في آخر نقطة ممكنة للتنفيذ، داخل المتصفح ذاته.
في هذا السياق، ومن ناحية أخرى، هناك العديد من الأخبار المرتبطة بالقطاع والتي يمكنك متابعتها:









