كنا نعتقد أن الذكاء الاصطناعي هو الحل لكل مشاكلنا، أنه الأداة التي ستقودنا إلى مستقبل أكثر ذكاءً وتقدماً. ولكن، كما يحدث في كثير من الأحيان، فإن التكنولوجيا تحمل في طياتها مفاجآت غير متوقعة. ففي دراسة جديدة اكتشف الباحثون أن نماذج الذكاء الاصطناعي المتقدمة مثل ChatGPT و Gemini تعاني من عيب قاتل يهدد مستقبلها.
هذا العيب يكمن في قدرة هذه النماذج على “تسميم” نفسها بنفسها. فبدلاً من أن تصبح أكثر ذكاءً مع تدريبها على كميات هائلة من البيانات، فإنها تبدأ في فقدان دقتها وكفاءتها عندما يتم تغذيتها ببيانات تم إنشاؤها بواسطة الذكاء الاصطناعي نفسه. هذه الظاهرة التي أطلق عليها الباحثون اسم “انهيار النموذج” تشبه إلى حد كبير إصابة كائن حي بمرض ينتشر بسرعة ويقوض صحته.
ولكن، كيف يحدث هذا؟ الجواب يكمن في طبيعة التعلم الآلي الذي تعتمد عليه هذه النماذج. فكلما زادت كمية البيانات التي يتم تدريب النموذج عليها، زادت قدرته على التعرف على الأنماط والتنبؤ بالنتائج. ولكن، إذا كانت هذه البيانات نفسها تحتوي على أخطاء أو تحيزات، فإن النموذج سيتعلم هذه الأخطاء بدوره وسيدمجها في نتائجه المستقبلية.
هذا يعني أن استخدام البيانات الاصطناعية لتدريب نماذج الذكاء الاصطناعي يمكن أن يؤدي إلى حلقة مفرغة من الأخطاء المتراكمة، مما يقلل من جودة النتائج التي يقدمها النموذج. وبمرور الوقت، قد يصل النموذج إلى نقطة لا يمكن فيها استخدامه بشكل فعال.
تطرح هذه الدراسة تساؤلات مهمة حول مستقبل الذكاء الاصطناعي. فإذا كانت نماذجنا المتقدمة عرضة لهذا النوع من “التسمم الذاتي”، فكيف يمكننا ضمان موثوقيتها وكفاءتها؟ وكيف يمكننا تطوير نماذج أكثر مقاومة للأخطاء والتحيزات؟
إن هذا الاكتشاف يمثل تحديًا كبيرًا لمطوري الذكاء الاصطناعي، ولكنه يفتح أيضًا الباب أمام فرص جديدة للبحث والتطوير. فمن خلال فهم أسباب هذه المشكلة، يمكن للباحثين تطوير تقنيات جديدة لتحسين جودة البيانات المستخدمة في تدريب النماذج، وكذلك تطوير خوارزميات أكثر قوة قادرة على التعامل مع البيانات الملوثة.
المصدر: Alalam24