الذكاء الاصطناعي ووكلاء الذكاء الاصطناعي: تغيير قواعد اللعبة لكل من الأمن السيبراني والجرائم السيبرانية..بقلم آنا كولارد
بقلم: آنا كولارد
لم يعد الذكاء الاصطناعي مجرد أداة، بل إنه يغير قواعد اللعبة في حياتنا وعملنا وكذلك في كل من الأمن السيبراني والجرائم السيبرانية. بينما تستفيد الشركات من الذكاء الاصطناعي لتعزيز الدفاعات، يستخدم مجرمو الإنترنت الذكاء الاصطناعي كسلاح لجعل هذه الهجمات أكثر قابلية للتطوير وأكثر إقناعًا.
<>في عام 2025، يتوقع الباحثون أن وكلاء الذكاء الاصطناعي، أو الأنظمة المستقلة التي تعتمد على الذكاء الاصطناعي والقادرة على أداء مهام معقدة بأقل قدر من المدخلات البشرية، سيحدثون ثورة في كل من الهجمات السيبرانية ودفاعات الأمن السيبراني. في حين أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي كانت موجودة منذ فترة، فإن عملاء الذكاء الاصطناعي يتجاوزون المساعدين البسيطين، ويعملون كعملاء رقميين يتعلمون ذاتيًا ويخططون وينفذون ويتكيفون في الوقت الفعلي. لا تعمل هذه التطورات على تعزيز تكتيكات المجرمين السيبرانيين فحسب، بل قد تغير بشكل جذري ساحة معركة الأمن السيبرا
<>كيف يستخدم مجرمو الإنترنت الذكاء الاصطناعي كسلاح: مشهد التهديد الجديد
<>يعمل الذكاء الاصطناعي على إحداث تحول في الجريمة السيبرانية، وشن الهجمات أكثر قابلية للتطوير، وكفاءة، ويمكن الوصول إليها. ال تقرير المنتدى الاقتصادي العالمي حول الذكاء الاصطناعي والأمن السيبراني (2025) يسلط الضوء على كيفية قيام الذكاء الاصطناعي بإضفاء الطابع الديمقراطي على التهديدات السيبرانية، مما مكن المهاجمين من أتمتة الهندسة الاجتماعية، وتوسيع حملات التصيد الاحتيالي، وتطوير البرمجيات الخبيثة التي تعتمد على الذكاء الاصطناعي. وبالمثل، فإن أورانج Cyberdefense Security Navigator 2025 يحذر من الابتزاز السيبراني المدعوم بالذكاء الاصطناعي، والاحتيال العميق، وتقنيات الذكاء الاصطناعي العدائية. و تقرير حالة البرامج الضارة لعام 2025 من Malwarebytes كما يلاحظ، على الرغم من أن GenAI قد عززت كفاءة الجرائم الإلكترونية، إلا أنها لم تقدم بعد أساليب هجوم جديدة تمامًا – فلا يزال المهاجمون يعتمدون على التصيد الاحتيالي، والهندسة الاجتماعية، والابتزاز السيبراني، والتي تم تضخيمها الآن بواسطة الذكاء الاصطناعي. ومع ذلك، فمن المتوقع أن يتغير هذا مع ظهور وكلاء الذكاء الاصطناعي – أنظمة الذكاء الاصطناعي المستقلة القادرة على التخطيط والعمل وتنفيذ المهام المعقدة – مما يشكل آثارًا كبيرة على مستقبل الجرائم الإلكترونية.
<>فيما يلي قائمة بحالات الاستخدام الشائعة للذكاء الاصطناعي من قبل مجرمي الإنترنت:
<>التصيد الاحتيالي والهندسة الاجتماعية المولدة بواسطة الذكاء الاصطناعي
<>يمكّن الذكاء الاصطناعي التوليدي ونماذج اللغات الكبيرة (LLMs) مجرمي الإنترنت من صياغة رسائل بريد إلكتروني تصيدية أكثر موثوقية وتعقيدًا بلغات متعددة – بدون العلامات الحمراء المعتادة مثل الأخطاء النحوية أو الأخطاء الإملائية. يسمح الآن التصيد الاحتيالي المعتمد على الذكاء الاصطناعي للمجرمين بتخصيص عمليات الاحتيال على نطاق واسع، وضبط الرسائل تلقائيًا بناءً على نشاط الهدف عبر الإنترنت. تتزايد عمليات الاحتيال المتعلقة باختراق البريد الإلكتروني للأعمال (BEC) المدعومة بالذكاء الاصطناعي، حيث يستخدم المهاجمون رسائل البريد الإلكتروني التصيدية التي أنشأها الذكاء الاصطناعي والمرسلة من حسابات داخلية مخترقة لتعزيز المصداقية. يقوم الذكاء الاصطناعي أيضًا بأتمتة إنشاء مواقع التصيد الاحتيالي الزائفة، وهجمات الحفر المائية وعمليات الاحتيال عبر برامج الدردشة الآلية، والتي يتم بيعها كبرامج إجرامية مدعومة بالذكاء الاصطناعي كعروض خدمة، مما يؤدي إلى تقليل العوائق أمام دخول الجرائم الإلكترونية.
<>عمليات الاحتيال وانتحال الشخصية المعززة بتقنية Deepfake
<>يتم استخدام عمليات الاحتيال الصوتي والمرئي Deepfake لانتحال شخصية مديري الأعمال أو زملاء العمل أو أفراد الأسرة للتلاعب بالضحايا لتحويل الأموال أو الكشف عن بيانات حساسة. الأكثر شهرة حادثة 2024 كانت لشركة Arup الهندسية ومقرها المملكة المتحدة التي خسرت 25 مليون دولار بعد أن تم خداع أحد موظفيها المقيمين في هونغ كونغ من قبل مديرين تنفيذيين عميقين في مكالمة فيديو. ويستخدم المهاجمون أيضًا تقنية التزييف الصوتي العميق لانتحال شخصية الأقارب أو المديرين التنفيذيين المنكوبين، والمطالبة بمعاملات مالية عاجلة.
<>الهجمات المعرفية
التلاعب عبر الإنترنت – كما حدده Susser et al. (2018)– هو “في جوهره تأثير خفي – التخريب الخفي لسلطة صنع القرار لدى شخص آخر”. تعمل الهجمات المعرفية التي يعتمدها الذكاء الاصطناعي على توسيع نطاق التلاعب عبر الإنترنت بسرعة، والاستفادة من المنصات الرقمية والجهات الفاعلة التي ترعاها الدولة وتستخدم بشكل متزايد الذكاء الاصطناعي التوليدي لصياغة محتوى مزيف واقعي للغاية، وتشكيل الإدراك العام بمهارة مع تجنب الكشف. ويتم نشر هذه التكتيكات للتأثير على الانتخابات، ونشر المعلومات المضللة، وتقويض الثقة في المؤسسات الديمقراطية. على عكس الهجمات السيبرانية التقليدية، لا تؤدي الهجمات المعرفية إلى تعريض الأنظمة للخطر فحسب، بل إنها تتلاعب بالعقول، وتوجه السلوكيات والمعتقدات بمهارة بمرور الوقت دون وعي الهدف. إن دمج الذكاء الاصطناعي في حملات التضليل يزيد بشكل كبير من حجم هذه التهديدات ودقتها، مما يجعل اكتشافها ومواجهتها أكثر صعوبة.
<>المخاطر الأمنية لاعتماد LLM
<>وبعيدًا عن سوء الاستخدام من قبل الجهات التهديدية، فإن اعتماد الشركات لروبوتات الدردشة و LLMs ينطوي على مخاطر أمنية كبيرة خاصة بها – خاصة عندما تربط واجهات الذكاء الاصطناعي غير المختبرة الإنترنت المفتوح بأنظمة خلفية مهمة أو بيانات حساسة. يمكن للخصوم استغلال أنظمة الذكاء الاصطناعي سيئة التكامل وتمكين نواقل هجوم جديدة، بما في ذلك الحقن السريع والتهرب من المحتوى وهجمات رفض الخدمة. يعمل الذكاء الاصطناعي متعدد الوسائط على توسيع هذه المخاطر بشكل أكبر، مما يسمح للأوامر الضارة المخفية في الصور أو الصوت بالتلاعب بالمخرجات.
<>علاوة على ذلك، تعمل الآن العديد من برامج LLM الحديثة كأنظمة توليد الاسترجاع المعزز (RAG)، حيث تقوم ديناميكيًا بسحب البيانات في الوقت الفعلي من مصادر خارجية لتعزيز استجاباتها. وفي حين أن هذا يعمل على تحسين الدقة والملاءمة، فإنه يقدم أيضًا مخاطر إضافية، مثل تسميم البيانات، ونشر المعلومات الخاطئة، وزيادة التعرض لأسطح الهجوم الخارجية. يمكن أن يؤثر المصدر المخترق أو الذي تم التلاعب به بشكل مباشر على مخرجات الذكاء الاصطناعي، مما قد يؤدي إلى توصيات غير صحيحة أو متحيزة أو حتى ضارة في التطبيقات المهمة للأعمال.
<>بالإضافة إلى ذلك، يشكل التحيز داخل LLMs تحديًا آخر، حيث تتعلم هذه النماذج من مجموعات البيانات الضخمة التي قد تحتوي على تحيزات منحرفة أو قديمة أو ضارة. ويمكن أن يؤدي ذلك إلى نتائج مضللة، أو اتخاذ قرارات تمييزية، أو سوء تقدير أمني، مما قد يؤدي إلى تفاقم نقاط الضعف بدلاً من تخفيفها. مع تزايد اعتماد LLM، تعد الاختبارات الأمنية الصارمة، وتدقيق التحيز، وتقييم المخاطر – خاصة في النماذج التي تعمل بنظام RAG – ضرورية لمنع الاستغلال وضمان اتخاذ قرارات جديرة بالثقة وغير متحيزة تعتمد على الذكاء الاصطناعي.
<>عندما يصبح الذكاء الاصطناعي مارقًا: مخاطر الوكلاء المستقلين
<>مع أن أنظمة الذكاء الاصطناعي أصبحت الآن قادرة على التكاثر الذاتي، كما هو موضح في أ دراسة حديثةيتزايد خطر انتشار الذكاء الاصطناعي غير المنضبط أو الذكاء الاصطناعي المارق – أي أنظمة الذكاء الاصطناعي التي تعمل ضد مصالح منشئيها أو مستخدميها أو البشرية جمعاء. وقد أثار الباحثون في مجال الأمن والذكاء الاصطناعي مخاوف من أن هذه الأنظمة المارقة يمكن أن تنشأ إما عن طريق الخطأ أو بشكل ضار، خاصة عندما يتم منح عملاء الذكاء الاصطناعي المستقلين إمكانية الوصول إلى البيانات وواجهات برمجة التطبيقات وعمليات التكامل الخارجية. كلما اتسع نطاق الذكاء الاصطناعي من خلال عمليات التكامل والأتمتة، زاد التهديد المحتمل المتمثل في تحوله إلى مارق، مما يجعل الرقابة القوية والتدابير الأمنية والحوكمة الأخلاقية للذكاء الاصطناعي ضرورية للتخفيف من هذه المخاطر.
<>مستقبل وكلاء الذكاء الاصطناعي للأتمتة في الجرائم الإلكترونية
<>إن التحول الأكثر تدميراً في الجرائم الإلكترونية يمكن أن يأتي من وكلاء الذكاء الاصطناعي، الذين يحولون الذكاء الاصطناعي من مساعد سلبي إلى جهة فاعلة مستقلة قادرة على تخطيط وتنفيذ الهجمات المعقدة. تعمل Google وAmazon وMeta وMicrosoft وSalesforce بالفعل على تطوير Agentic AI للاستخدام التجاري، ولكن في أيدي مجرمي الإنترنت، فإن آثاره مثيرة للقلق. يمكن استخدام عوامل الذكاء الاصطناعي هذه للبحث بشكل مستقل عن نقاط الضعف واستغلال نقاط الضعف الأمنية وتنفيذ الهجمات الإلكترونية على نطاق واسع. يمكنهم أيضًا السماح للمهاجمين باستخلاص كميات هائلة من البيانات الشخصية من منصات الوسائط الاجتماعية وإنشاء طلبات تنفيذية زائفة وإرسالها تلقائيًا إلى الموظفين أو تحليل سجلات الطلاق عبر بلدان متعددة لتحديد الأفراد من أجل عمليات الاحتيال الرومانسية التي يقودها الذكاء الاصطناعي، والتي ينظمها وكيل الذكاء الاصطناعي. لا تعمل أساليب الاحتيال المعتمدة على الذكاء الاصطناعي على توسيع نطاق الهجمات فحسب، بل تجعلها أكثر تخصيصًا ويصعب اكتشافها. على عكس تهديدات GenAI الحالية، يتمتع Agentic AI بالقدرة على أتمتة عمليات الجرائم الإلكترونية بأكملها، مما يزيد بشكل كبير من المخاطر.
<>كيف يمكن للمدافعين استخدام الذكاء الاصطناعي ووكلاء الذكاء الاصطناعي
<>لا تستطيع المؤسسات أن تظل سلبية في مواجهة التهديدات التي يحركها الذكاء الاصطناعي، ويتعين على المتخصصين في مجال الأمن أن يظلوا على اطلاع بأحدث التطورات. فيما يلي بعض الفرص المتاحة في استخدام الذكاء الاصطناعي للدفاع ضد الذكاء الاصطناعي:
<>الكشف عن التهديدات المدعومة بالذكاء الاصطناعي والاستجابة لها:
<>يمكن لفرق الأمن نشر الذكاء الاصطناعي ووكلاء الذكاء الاصطناعي لمراقبة الشبكات في الوقت الفعلي، وتحديد الحالات الشاذة، والاستجابة للتهديدات بشكل أسرع مما يستطيع المحللون البشريون القيام به. يمكن لمنصات الأمان المعتمدة على الذكاء الاصطناعي ربط كميات هائلة من البيانات تلقائيًا لاكتشاف أنماط الهجوم الدقيقة التي قد تمر دون أن يلاحظها أحد، وإنشاء نماذج ديناميكية للتهديدات، وتحليل سلوك الشبكة في الوقت الفعلي، والكشف العميق عن الشذوذات. على سبيل المثال، كما أوضح الباحثون في أورانج سايبر ديفانسيعد اكتشاف التهديدات بمساعدة الذكاء الاصطناعي أمرًا بالغ الأهمية حيث يستخدم المهاجمون بشكل متزايد تقنيات “العيش خارج الأرض” (LOL) التي تحاكي سلوك المستخدم العادي، مما يجعل من الصعب على فرق الكشف فصل التهديدات الحقيقية عن الأنشطة الحميدة. من خلال تحليل الطلبات المتكررة وأنماط حركة المرور غير العادية، يمكن للأنظمة المعتمدة على الذكاء الاصطناعي تحديد الحالات الشاذة بسرعة وإطلاق تنبيهات في الوقت الفعلي، مما يسمح باستجابات دفاعية أسرع.
<>ومع ذلك، على الرغم من إمكانات وكلاء الذكاء الاصطناعي، لا يزال المحللون البشريون حاسمين، نظرًا لأن حدسهم وقدرتهم على التكيف ضروريان للتعرف على أنماط الهجوم الدقيقة والاستفادة من الحوادث الحقيقية والرؤى التنظيمية لتحديد أولويات الموارد بشكل فعال.
<>منع التصيد والاحتيال الآلين:
<>يمكن لحلول أمان البريد الإلكتروني المدعومة بالذكاء الاصطناعي تحليل الأنماط اللغوية والبيانات الوصفية لتحديد محاولات التصيد التي ينشئها الذكاء الاصطناعي قبل أن تصل إلى الموظفين، من خلال تحليل أنماط الكتابة والشذوذات السلوكية. يمكن للذكاء الاصطناعي أيضًا الإبلاغ عن سلوك المرسل غير المعتاد وتحسين اكتشاف هجمات BEC. وبالمثل، يمكن أن تساعد خوارزميات الكشف في التحقق من صحة الاتصالات ومنع عمليات الاحتيال لانتحال الشخصية. تكتشف أدوات التحليل البيومترية والصوتية المدعومة بالذكاء الاصطناعي الوسائط المزيفة بعمق من خلال تحديد التناقضات في الصوت والفيديو. *ومع ذلك، لا يزال اكتشاف التزييف العميق في الوقت الفعلي يمثل تحديًا، مع استمرار تطور التكنولوجيا.
<>تعليم المستخدم والتدريب على التوعية الأمنية المدعومة بالذكاء الاصطناعي:
<>توفر المنصات التي تعمل بالذكاء الاصطناعي (على سبيل المثال، AIDA من KnowBe4) تدريبًا شخصيًا للتوعية الأمنية، ومحاكاة الهجمات التي يولدها الذكاء الاصطناعي لتثقيف المستخدمين حول التهديدات المتطورة، وتساعد في تدريب الموظفين على التعرف على المحتوى المخادع الناتج عن الذكاء الاصطناعي وتعزيز عوامل الضعف ونقاط الضعف الفردية لديهم.
<>التدابير المضادة للذكاء الاصطناعي:
<>مثلما يستخدم مجرمو الإنترنت الذكاء الاصطناعي لتجاوز الأمن، يمكن للمدافعين استخدام تقنيات الذكاء الاصطناعي العدائية، على سبيل المثال نشر تقنيات الخداع – مثل مصائد الجذب التي ينشئها الذكاء الاصطناعي – لتضليل المهاجمين وتعقبهم، بالإضافة إلى التدريب المستمر لنماذج الذكاء الاصطناعي الدفاعية للتعرف على أنماط الهجوم المتطورة ومواجهتها.
<>استخدام الذكاء الاصطناعي لمكافحة المعلومات المضللة وعمليات الاحتيال التي يحركها الذكاء الاصطناعي:
<>يمكن للأدوات المدعومة بالذكاء الاصطناعي اكتشاف النصوص الاصطناعية والمعلومات الخاطئة العميقة، مما يساعد في التحقق من الحقائق والتحقق من صحة المصدر. يمكن لنماذج كشف الاحتيال تحليل مصادر الأخبار والمعاملات المالية والوسائط التي ينشئها الذكاء الاصطناعي للإبلاغ عن محاولات التلاعب. الهجمات المضادة، كما هو موضح في مشروع البحث السحابة المضادة أو وكيل الذكاء الاصطناعي لشركة O2 Telecoms “ديزي“ أظهر كيف يمكن استخدام الروبوتات القائمة على الذكاء الاصطناعي وروبوتات الدردشة الصوتية العميقة في الوقت الفعلي لمواجهة حملات التضليل وكذلك المحتالين من خلال إشراكهم في محادثات لا نهاية لها لإضاعة وقتهم وتقليل قدرتهم على استهداف ضحايا حقيقيين.
<>في المستقبل حيث يستخدم كل من المهاجمين والمدافعين الذكاء الاصطناعي، يجب على المدافعين أن يكونوا على دراية بكيفية عمل الذكاء الاصطناعي العدائي وكيف يمكن استخدام الذكاء الاصطناعي للدفاع ضد هجماتهم. في هذه البيئة سريعة الخطى، تحتاج المؤسسات إلى الحماية من عدوها الأكبر: الرضا عن النفس، وفي الوقت نفسه التفكير في الحلول الأمنية المعتمدة على الذكاء الاصطناعي بشكل مدروس ومتعمد. وبدلاً من التسرع في اعتماد الأداة الأمنية اللامعة التالية للذكاء الاصطناعي، يجب على صناع القرار تقييم الدفاعات المدعومة بالذكاء الاصطناعي بعناية للتأكد من أنها تتوافق مع تعقيد تهديدات الذكاء الاصطناعي الناشئة. إن النشر السريع للذكاء الاصطناعي دون تقييم استراتيجي للمخاطر يمكن أن يؤدي إلى ظهور نقاط ضعف جديدة، مما يجعل اتباع نهج مدروس ومدروس ضروريًا لتأمين مستقبل الأمن السيبراني.
<>للبقاء في المقدمة في سباق التسلح الرقمي المدعوم بالذكاء الاصطناعي، يجب على المؤسسات:
✅<>مراقبة كل من التهديد ومشهد الذكاء الاصطناعي للبقاء على اطلاع بآخر التطورات على كلا الجانبين.
✅ <>تدريب الموظفين بشكل متكرر على أحدث التهديدات التي يحركها الذكاء الاصطناعي، بما في ذلك التزييف العميق والتصيد الاحتيالي الناتج عن الذكاء الاصطناعي.
✅ نشر الذكاء الاصطناعي للدفاع السيبراني الاستباقي، بما في ذلك معلومات التهديدات والاستجابة للحوادث.
✅ قم باختبار نماذج الذكاء الاصطناعي الخاصة بك باستمرار ضد هجمات الخصوم لضمان المرونة.