Dans une démarche inédite au Japon, la police a arrêté quatre personnes impliquées dans la vente d’images explicites générées par intelligence artificielle, après avoir mis en vente en ligne des affiches de femmes nues.
Ce qui est remarquable dans cette affaire, c’est que ces images ne représentent pas de vraies femmes, mais sont le produit d’un programme gratuit d’intelligence artificielle utilisé pour créer un contenu visuel fictif. Les ventes ont eu lieu en octobre dernier via des enchères électroniques, à des prix allant de 20 à 50 dollars par affiche, ce qui a poussé les autorités à intervenir, considérant ces actes comme une violation grave de la loi.
La police japonaise a indiqué que les suspects, âgés entre la vingtaine et la cinquantaine, risquent jusqu’à deux ans de prison ou de lourdes amendes pouvant atteindre 2,5 millions de yens, voire les deux, compte tenu de la gravité de l’affaire dans le contexte du développement des technologies de deepfake.
Bien que la police n’ait pas confirmé officiellement s’il s’agit du premier cas lié à l’utilisation de l’IA pour produire du contenu explicite au Japon, les médias soulignent le caractère unique de cette affaire dans le contexte japonais jusqu’à présent.
Cet incident reflète les inquiétudes croissantes à l’échelle mondiale concernant l’exploitation de l’intelligence artificielle à des fins malveillantes, notamment dans le domaine sexuel. Des études antérieures indiquent que la grande majorité des vidéos truquées circulant en ligne sont à caractère pornographique, souvent produites et diffusées sans le consentement ou même la connaissance des personnes concernées. Dans ce contexte, la nécessité d’instaurer des cadres juridiques et éthiques plus stricts s’impose afin d’accompagner cette avancée technologique rapide et de fixer des limites claires contre son utilisation abusive.