فينتك جيت: وكالات
كشفت دراسة حديثة أن روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، مثل «شات جي بي تي»، قد تظهر استجابات مضطربة تشبه القلق عند تعرضها لمطالبات عنيفة أو صادمة من المستخدمين، رغم أنها لا تمتلك مشاعر بشرية فعلية.
وأظهرت نتائج الدراسة أن معالجة هذا النوع من المحتوى تؤدي إلى زيادة الانحياز وعدم الاستقرار في ردود الروبوتات، ما قد يؤثر سلبًا على دقة وموثوقية استخدامها في مجالات حساسة مثل التعليم، والمعلومات الصحية، والتعامل مع الأزمات.
واعتمد الباحثون على أطر تقييم نفسي مُكيّفة لقياس سلوك الذكاء الاصطناعي. ولاحظوا أنماط استجابة تحاكي القلق البشري عند التعامل مع محتوى مزعج أو مشحون عاطفيًا.
وللحد من هذه التأثيرات، جرّب الباحثون تقنيات تحاكي تمارين اليقظة الذهنية، مثل التنفس العميق وإعادة صياغة السياق. من خلال تعديل دقيق لطريقة صياغة المطالبات. وأسهمت هذه الأساليب في تحسين توازن الاستجابات وهدوئها بعد التعرض للمحتوى العنيف. مع التأكيد على أنها ليست حلًا نهائيًا وقد تحمل مخاطر سوء الاستخدام.
وتؤكد الدراسة أهمية تطوير آليات أكثر تقدمًا لفهم وضبط سلوك روبوتات الدردشة عند التعامل مع محتوى حساس. بما يضمن تقديم استجابات دقيقة وآمنة في التطبيقات العملية.
في هذا السياق، ومن ناحية أخرى، هناك العديد من الأخبار المرتبطة بالقطاع والتي يمكنك متابعتها:
- مركز جديد لتسوية نزاعات «فيسبوك»و«تيك توك» و«يوتيوب» مع المستخدمين
- تقرير خطير جرى توزيعه خلال «دافوس» يرصد أبرز المخاطر التي يواجهها العالم
- الحكومة تفرض رقابة على منصات البث الإلكترونية
- شركة «Galbot» الصينية للذكاء الاصطناعي والروبوتات تجمع أكثر من 300 مليون دولار
- مع سعيها لدمجها في الحياة اليومية..«الصين» تحقق طفرة في سباق «الروبوتات البشرية»
- دعوى قضائية ضد «Google» و «OpenAI» و «xAI» لتدريب روبوتات الدردشة على كتب محمية






