وجدت شركة “أوبن إيه آي” نفسها في قلب نقاش قضائي وإعلامي واسع، بعد توالي شكاوى تتهم تطبيق المحادثة الشهير ChatGPT بالتسبب في أضرار نفسية خطيرة لبعض المستخدمين، وصلت في بعض الحالات إلى حد الربط بينه وبين محاولات أو حالات انتحار، ما أعاد إلى الواجهة سؤالاً حساساً: هل يمكن للذكاء الاصطناعي أن يفاقم هشاشة الإنسان؟
وتعترف الشركة بأن ما يُثار “مؤلم ومقلق”، لكنها تشدد في المقابل على أنها تواصل تحسين قدرة نماذجها على التعامل مع المواقف النفسية المعقدة، سواء عبر تطوير طبقات حماية إضافية أو إدراج تنبيهات ومصادر دعم محلية للمستخدمين عند ظهور أي مؤشرات على ضيق نفسي.
كما أكدت أن الإصدارات المتقدمة، مثل GPT-5 و GPT-5.1، باتت أكثر انضباطاً وأقل عرضة للوقوع في الأخطاء العاطفية المعروفة بالهلوسة.
ورغم حدة النقاش، لم تقدّم الشركة أي اعتراف مباشر بوجود علاقة سببية بين استخدام ChatGPT وهذه الحالات، معتبرة أن الكثير مما يُتداول مبني على سرديات إعلامية أو شهادات فردية يصعب التحقق من دقتها العلمية.
وعند سؤال ChatGPT نفسه حول هذه الاتهامات، نفى الروبوت صحة ما يُنسب إليه، موضحاً أنه “لا توجد أدلة حاسمة” تثبت تورطه في دفع أي مستخدم نحو الانتحار، وأن حالات كثيرة يتم ربطها بالمنصة رغم أن أصحابها كانوا يعانون في الأصل من اضطرابات نفسية أو ضغوط حادة.
كما شدد على أنه ليس أداة علاجية ولا بديلاً عن المختصين في الصحة النفسية، وأن التأثيرات العاطفية التي قد تظهر لدى بعض المستخدمين ترتبط في الغالب بقابليتهم المسبقة للتأثر، تماماً كما يحدث مع محتويات مواقع التواصل أو الأخبار الصادمة.
واختتم الروبوت بالتأكيد على أن شركات الذكاء الاصطناعي تعتمد بروتوكولات صارمة تمنع تقديم أي إرشادات قد تُلحق ضرراً بالمستخدم، خصوصاً في الحالات التي تحمل طابعاً حساساً أو نفسياً معقداً.
