Un Américain a été arrêté pour avoir possédé, produit et distribué des images à caractère pédopornographiques et d’abus sur enfant. Jusque-là, hélas, rien de très nouveau. Sauf que cet habitant du Wisconsin avait créé lui-même ces photos, en utilisant un outil de génération d’image par intelligence artificielle, a annoncé le ministère de la Justice américain le 20 mai 2024.
« L’annonce d’aujourd’hui envoie un message clair : l’utilisation de l’IA pour produire des images sexuellement explicites d’enfants est illégale », indique le ministère dans son communiqué de presse. « En d’autres termes, le matériel pédopornographique généré par l’intelligence artificielle reste du matériel pédopornographique, et nous demanderons des comptes à ceux qui exploitent l’intelligence artificielle pour créer des images obscènes, abusives et de plus en plus photoréalistes d’enfants. »
Les images pédopornographiques générées par IA sont un immense problème
L’homme arrêté « aurait utilisé un modèle d’intelligence artificielle générative texte-image appelé Stable Diffusion pour créer des milliers d’images réalistes de mineurs prépubères », indique également le ministère. Stable Diffusion est un outil qui fonctionne sur le même principe que Midjourney : les utilisateurs doivent rentrer un « prompt », une commande écrite, pour que l’IA leur présente un résultat. Stable Diffusion est gratuit, open-source, et fonctionne dans des versions en ligne, ou bien en le faisant tourner localement, sur son ordinateur.
Les outils de génération d’images par IA, tels que Midjourney, ont bien mis en place des mesures pour empêcher de créer des images de certaines personnes, ou bien des contenus violents ou à caractère sexuels. Il reste cependant possible de passer outre les blocages des AI. L’Américain aurait créé des « milliers » de photos « représentant des mineurs nus ou partiellement vêtus exhibant ou touchant leurs organes génitaux de manière lascive ou ayant des rapports sexuels avec des hommes », précise le ministère.
L’homme aurait également envoyé des messages Instagram à un garçon de 15 ans, et lui aurait envoyé des images à caractère pédopornographiques créées par IA, en lui expliquant comment il avait utilisé Stable Diffusion pour les créer.
L’arrivée d’outils permettant de générer des images représente un immense défi pour la lutte contre la pédopornographie. Même si la justice américaine estime que « la technologie peut changer, mais notre engagement à protéger les enfants ne change pas », le nombre d’outils disponibles rend la tâche très difficile. Il existe ainsi des centaines d’apps et de canaux Telegram spécialisés dans la création de deepfakes à caractère pornographiques, et certaines IA permettent de « déshabiller » des photos de femmes et d’enfants.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !