ثورة الذكاء الاصطناعي: سيف ذو حدين على الأطفال

في غضون سنتين فقط، شهد الذكاء الاصطناعي ثورة. أصبحت أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT وGemini من Google وCopilot من Microsoft جزءًا من حياتنا اليومية بشكل سريع.

 

مع دمج Meta لبوتات الدردشة الذكية في منصات شعبية مثل WhatsApp وFacebook وInstagram، أصبحت التكنولوجيا أكثر إتاحة من أي وقت مضى.

بالنسبة للأطفال الذين ينشؤون في هذا العالم المدفوع بالذكاء الاصطناعي، فإن الآثار مثيرة للاهتمام وقلقة في الوقت نفسه.

وقالت آنا كوالرد، نائبة الرئيس الأولى للاستراتيجية والموجّه في KnowBe4 أفريقيا “توفر أدوات الذكاء الاصطناعي فرصًا فريدة للتعلم والإبداع وحل المشكلات.

ويمكن للأطفال استخدامها لإنشاء فن، وتأليف موسيقى، وكتابة قصص، وحتى تعلم لغات جديدة من خلال طرق تفاعلية مشوقة”،

وأضافت كوالرد “الطبيعة المخصصة لبوتات الدردشة ذكية، بقدرتها على تقديم إجابات سريعة واستجابات مصممة خصيصًا، تجعلها جذابة بشكل خاص للعقول الشابة.”

ومع ذلك، كما هو الحال مع أي تكنولوجيا متحولة، يجلب الذكاء الاصطناعي معه مجموعة من المخاطر المحتملة التي يجب على الآباء والمربين وصناع السياسات النظر فيها بعناية. من المخاوف المتعلقة بالخصوصية وخطر الثقة المفرطة إلى انتشار المعلومات المضللة والآثار النفسية المحتملة، فإن التحديات كبيرة.

“وأثناء دخولنا في هذا العصر المحرك بالذكاء الاصطناعي، يجب علينا أن نوازن بعناية الإمكانات الرائعة مع المخاطر الحقيقية”،

وحذرت كوالرد. “تحدينا هو استغلال قوة الذكاء الاصطناعي لإثراء حياة أطفالنا مع ضمان حمايتهم، خصوصيتهم والرفاهية الشاملة في الوقت ذاته.”

المخاوف المتعلقة بالخصوصية “يحتاج الآباء إلى معرفة أنه بينما تبدو بوتات الدردشة بريئة، فإنها تجمع البيانات وقد تستخدمها دون موافقة مناسبة، ما قد يؤدي إلى انتهاكات محتملة للخصوصية.”

تختلف درجة هذه المخاطر على الخصوصية بشكل كبير.

فوفقًا لتقرير هيئة المعايير الكندية، تتراوح التهديدات من قضايا منخفضة التكلفة نسبيًا، مثل استخدام بيانات الطفل لأغراض الإعلانات الموجهة، إلى مخاوف أكثر خطورة. نظرًا لأن بوتات الدردشة يمكنها تتبع المحادثات والتفضيلات والسلوكيات، فإنها يمكن أن تنشئ ملفات تعريف مفصلة لمستخدميها الأطفال.

عند استخدامها لأغراض خبيثة، يمكن أن تمكن هذه المعلومات من استراتيجيات التلاعب القوية لنشر المعلومات المضللة أو التطرف أو التحريض.

تشير كوالرد أيضًا إلى أن نماذج اللغة الضخمة لم تُصمم مع الأطفال في الاعتبار.

تتدرب أنظمة الذكاء الاصطناعي التي تشغل هذه بوتات الدردشة على كميات هائلة من البيانات الموجهة للبالغين، والتي قد لا تأخذ في الاعتبار الحماية الخاصة اللازمة لمعلومات القصر.

الثقة المفرطة مخاوف أخرى للآباء هي أن الأطفال قد يطورون ارتباطًا عاطفيًا ببوتات الدردشة ويثقون فيها كثيرًا، في حين أنهم ليسوا بشرًا ولا أصدقاءهم.

“يُعد تأثير الثقة المفرطة ظاهرة نفسية ترتبط ارتباطًا وثيقًا بنظرية معادلة الوسائط، والتي تنص على أن الناس يميلون إلى تأنيس الآلات، أي إسناد صفات بشرية إليها وتطوير مشاعر لهم”، كما يعلق كوالرد.

“هذا يعني أيضًا أننا نبالغ في تقدير قدرات نظام الذكاء الاصطناعي ونضع ثقة كبيرة فيه، وبالتالي نصبح متساهلين.”

يمكن أن تؤدي الثقة المفرطة في الذكاء الاصطناعي التوليدي إلى جعل الأطفال يتخذون قرارات سيئة لأنهم قد لا يتحققون من المعلومات.

“هذا يمكن أن يؤدي إلى المساومة على الدقة والعديد من النتائج السلبية المحتملة الأخرى”.

كما تشرح. “عندما يعتمد الأطفال كثيرًا على صديقهم الذكاء الاصطناعي التوليدي، قد يصبحون متساهلين في تفكيرهم النقدي، وهذا يعني أيضًا أنهم قد يقللون من التفاعلات وجهًا لوجه مع الناس الحقيقيين.”

المعلومات الغير دقيقة والغير مناسبة على الرغم من تطورها، إلا أن بوتات الدردشة الذكية ليست معصومة من الخطأ. “عندما لا تكون متأكدة من كيفية الرد، قد تتخيل هذه الأدوات الذكية الإجابة بدلاً من القول ببساطة أنها لا تعرف”.

وأوضحت كوالرد. قد يؤدي هذا إلى مشاكل طفيفة مثل إجابات واجبات غير صحيحة أو، بشكل أكثر خطورة، إعطاء القصر تشخيصًا خاطئًا عندما يشعرون بالمرض.

“يتم تدريب أنظمة الذكاء الاصطناعي على معلومات تتضمن تحيزات، مما يعني أنها يمكن أن تعزز هذه التحيزات القائمة وتقدم معلومات مضللة، تؤثر على فهم الأطفال للعالم”، كما تؤكد.

من منظور الأبوين، فإن أخطر خطر للذكاء الاصطناعي على الأطفال هو التعرض المحتمل للمواد الجنسية الضارة. “هذا يتراوح من أدوات الذكاء الاصطناعي التي يمكن أن تنشئ صورًا مزيفة عنهم أو التي يمكن أن تلاعب بهم وتستغل ضعفهم، وتؤثر عليهم ضمنيًا لكي يسلكوا بطرق ضارة”، كما تقول كوالرد.

الأثر النفسي وانخفاض التفكير النقدي كما هو الحال مع معظم التقنيات الجديدة، فإن الاستخدام المفرط قد ينتج نتائج سيئة. “قد يؤدي الاستخدام المفرط لأدوات الذكاء الاصطناعي من قبل الأطفال والمراهقين إلى انخفاض التفاعلات الاجتماعية، فضلاً عن انخفاض التفكير النقدي”،

كما تصرح كوالرد “نحن نرى بالفعل هذه الآثار الجانبية النفسية السلبية عند الأطفال من خلال الاستخدام المفرط لتقنيات أخرى مثل وسائل التواصل الاجتماعي: ارتفاع القلق والاكتئاب والعدوان الاجتماعي وحرمان النوم وفقدان التفاعل ذي المعنى مع الآخرين.”

يعد التنقل في هذا العالم الجديء أمرًا صعبًا بالنسبة للأطفال والآباء والمعلمين، لكن كوالرد تعتقد أن صناع السياسات يلحقون بركب التطور. “في أوروبا، على الرغم من أنه لا يتعلق تحديدًا بالأطفال، فإن قانون الذكاء الاصطناعي يهدف إلى حماية حقوق الإنسان من خلال ضمان أمان أنظمة الذكاء الاصطناعي.”

حتى يتم وضع الضوابط المناسبة، سيحتاج الآباء إلى مراقبة استخدام أطفالهم للذكاء الاصطناعي ومعالجة آثاره السلبية من خلال إدخال بعض قواعد العائلة.

“من خلال إعطاء الأولوية للعب والقراءة التي لا يقوم بها الأطفال على الشاشات، سيساعد الآباء في تعزيز ثقة أطفالهم بأنفسهم، وكذلك مهارات التفكير النقدي لديهم.”

بقلم:

آنا كولارد/ النائب الأول لرئيس استراتيجية المحتوى بشركة KnowBe4 أفريقيا