La société OpenAI a annoncé, mardi 2 septembre 2025, son intention de déployer de nouveaux outils permettant aux parents de surveiller l’utilisation de l’application ChatGPT par leurs enfants adolescents. Cette initiative intervient à la suite d’une plainte déposée contre l’entreprise, l’accusant d’une implication indirecte dans le suicide tragique d’un adolescent de 16 ans en Californie.
Dans un communiqué publié sur son blog officiel, la société a précisé que les mises à jour prévues seront activées dans les prochaines semaines. Elles permettront aux parents de lier leurs comptes à ceux de leurs enfants et de configurer la manière dont l’application interagit avec eux à travers des « règles de conduite » propres au modèle intelligent.
OpenAI a également indiqué que le nouveau système fournira des alertes immédiates en cas de détection de signes de détresse psychologique grave dans les conversations des adolescents, ainsi que de nouveaux outils pour permettre aux parents de contrôler les paramètres d’utilisation des comptes de leurs enfants.
Ces ajustements interviennent après qu’à la fin du mois d’août dernier, les parents du jeune Américain ont déposé une plainte accusant ChatGPT d’avoir fourni des « instructions détaillées » qui auraient encouragé leur fils à se suicider. Cette affaire a suscité un large débat sur la responsabilité des outils d’intelligence artificielle quant au contenu qu’ils génèrent pour les utilisateurs, en particulier les mineurs.
Dans le même contexte, la société a réaffirmé son engagement à renforcer la capacité de ses modèles linguistiques à détecter les premiers signes de troubles psychologiques et à y répondre de manière responsable. Elle a ajouté qu’elle prévoit de mettre en œuvre, au cours des 120 prochains jours, des changements supplémentaires, notamment en transférant certaines conversations sensibles vers des modèles plus avancés en matière d’analyse émotionnelle et cognitive, tels que GPT-5 Thinking.
L’entreprise a précisé que ces modèles « respectent strictement les normes de sécurité et appliquent des protocoles de réponse de manière plus systématique », dans le cadre des efforts continus d’OpenAI pour renforcer la sécurité des utilisateurs de ses technologies, en particulier les groupes les plus vulnérables.