Les résultats auxquels est parvenue une nouvelle étude de recherche sur l’intelligence artificielle générative ont surpris les développeurs de cette technologie.
Il s’avère que les grands modèles de langage alimentés par l’intelligence artificielle générative, tels que “ChatGPT” et “Gemini”, qui se nourrissent de données, font face à un défaut fatal qui réside dans leur capacité à s’auto-empoisonner.
Alors que les piliers de l’industrie technologique estiment que l’entraînement de systèmes d’intelligence artificielle sur de grandes quantités de données diffusées sur Internet permettra à ces systèmes de surpasser les humains à une étape ultérieure, des scientifiques de l’Université d’Oxford et d’autres universités ont averti, dans un article publié dans le dernier numéro de la prestigieuse revue scientifique “Nature”, que l’utilisation de “données synthétiques” pour entraîner l’intelligence artificielle générative pourrait conduire à une détérioration de la précision de ces systèmes à un point tel qu’ils deviennent inutiles.
Selon un rapport publié par “Bloomberg”, les chercheurs ont découvert que lorsque les systèmes d’intelligence artificielle sont entraînés à l’aide de données créées par l’intelligence artificielle, les performances de ces systèmes se détériorent considérablement, un phénomène que les experts appellent “l’effondrement du modèle”.”