فنتيك جيت: أحمد منصور
واجهت شركة DeepSeek الصينية اتهامات جديدة في أوساط مجتمع الذكاء الاصطناعي، بعدما أطلقت الأسبوع الماضي تحديثاً لنموذجها المتقدم في الاستدلال والتحليل “R1-0528″، والذي أظهر أداءً جيداً في اختبارات الرياضيات والبرمجة. لكن بعض الباحثين في المجال يعتقدون أن النموذج قد تم تدريبه جزئياً على مخرجات من عائلة نماذج Gemini التابعة لشركة Google، دون إفصاح رسمي من DeepSeek عن مصادر بيانات التدريب.
المطور الأسترالي سام باتش، المتخصص في اختبارات “الذكاء العاطفي” للنماذج اللغوية، نشر عبر منصة X ما قال إنه “أدلة” على تشابه نمط تعبيرات R1-0528 مع نموذج Gemini 2.5 Pro. كما أشار مطور آخر يُعرف باسم مستعار ويعمل على تقييمات حرية التعبير في الذكاء الاصطناعي، إلى أن “الآثار الفكرية” التي يولدها نموذج DeepSeek أثناء الوصول إلى استنتاجات “تشبه إلى حد بعيد أسلوب Gemini”.
هذه الادعاءات تأتي في سياق تاريخ مثير للجدل لشركة DeepSeek. ففي ديسمبر الماضي، لوحظ أن نموذجها V3 كان أحياناً يُعرّف نفسه على أنه “ChatGPT”، ما أثار الشكوك حول احتمالية تدريبه على سجلات دردشة من منصة OpenAI. وفي وقت سابق من العام الحالي، أفادت OpenAI لصحيفة فايننشال تايمز أنها رصدت مؤشرات على استخدام DeepSeek لتقنية “التمييع” أو Distillation، وهي تقنية تُستخدم لاستخلاص المعرفة من نماذج أكثر تقدماً لتدريب نماذج أصغر.
وذكرت بلومبرغ أن مايكروسوفت، الشريك المقرب لـ OpenAI، اكتشف في أواخر 2024 عمليات تهريب بيانات واسعة عبر حسابات مطورين تابعة لـ OpenAI، يُعتقد أنها مرتبطة بـ DeepSeek. ورغم أن “التمييع” ممارسة شائعة في مجال الذكاء الاصطناعي، فإن شروط استخدام OpenAI تحظر صراحة استخدام مخرجات نماذجها لبناء نماذج منافسة.
ومع ذلك، يشير مختصون إلى أن بعض التشابهات بين النماذج قد تكون ناتجة عن عوامل أخرى، منها انتشار المحتوى الناتج عن الذكاء الاصطناعي نفسه على الإنترنت، مما يزيد من احتمالات التداخل في الأساليب والتعابير بين النماذج المدربة على بيانات من الويب المفتوح.