كشفت دراسة حديثة عن استمرار معاناة روبوتات الدردشة المعتمدة على الذكاء الاصطناعي من اختلالات لافتة في دقة المحتوى الإخباري، إذ تبيّن أن عددًا منها يلجأ إلى اختلاق مصادر إعلامية أو أحداث غير صحيحة، أو إلى تشويه أخبار حقيقية، ما يثير تساؤلات جدية بشأن مدى موثوقية هذه الأدوات كمصدر للمعلومة.
وبحسب ما أوردته منصة The Conversation، أُجريت تجربة بحثية دامت شهرًا كاملًا، أشرف عليها أستاذ في الصحافة متخصص في علوم الحاسوب، بهدف اختبار سبعة أنظمة للذكاء الاصطناعي التوليدي، من بينها Google Gemini، وOpenAI (ChatGPT)، وClaude، وCopilot، وGrok، وDeepSeek، وAria. وخلال التجربة، طُلب من هذه الأدوات يوميًا تحديد أبرز خمسة أحداث إخبارية في مقاطعة كيبيك الكندية، وترتيبها حسب الأهمية، مع تقديم ملخصات وروابط للمصادر الصحفية.
وأظهرت النتائج أن روبوت “جيميني” سجّل أكثر حالات الإخفاق وضوحًا، بعدما اخترع موقعًا إخباريًا غير موجود ونشر تقريرًا زائفًا حول إضراب لسائقي حافلات مدرسية في كيبيك خلال شتنبر 2025، في حين أن الواقع كان يتعلق بتوقف مؤقت للخدمة بسبب سحب حافلات كهربائية تابعة لشركة Lion Electric نتيجة خلل تقني.
كما بيّنت مراجعة شملت 839 إجابة أن أنظمة الذكاء الاصطناعي كثيرًا ما استشهدت بمصادر وهمية، أو قدّمت روابط غير مكتملة، أو أعادت صياغة تقارير صحيحة بشكل محرّف، وهو ما يعزز التحذيرات من الاعتماد غير الحذر على هذه الأدوات في استقاء الأخبار والمعلومات.
