L’émergence de l’intelligence artificielle générative s’accompagne d’un nouveau type de risque informatique : le Slopsquatting. Il s’agit d’une manipulation construite grâce aux hallucinations d’une IA, qui permet à une personne malveillante d’injecter du code corrompu dans des logiciels.

Ce n’est un secret pour personne : les intelligences artificielles génératives hallucinent. Un phénomène qui s’explique par leur fonctionnement : les tokens (l’équivalent des mots) sont générés les uns après les autres. Dans certains cas, l’IA peut s’emballer et se mettre à raconter n’importe quoi.

Sur Slashdot, on apprend le 21 avril 2025 l’existence d’une conséquence inattendue de ces hallucinations : il y a de nouvelles attaques informatiques qui reposent sur la précipitation des développeurs. Le Slopsquatting (slop = bavure + squatting) désigne le fait d’enregistrer un package logiciel halluciné par une IA, mais qui n’existe pas vraiment. Il suffit qu’un hacker génère un malware du même nom pour que toute la chaîne logicielle soit empoisonnée.

Attention à ce que vous installez

De plus en plus de développeurs utilisent l’IA pour coder. Les outils spécialisés ne cessent d’émerger en ligne, ce qui pourrait complètement transformer ce métier.

Problème, l’IA hallucine souvent. Il leur arrive de générer du code inutile, pour lancer l’installation d’un logiciel fantôme. On peut, par exemple, imaginer une commande pip install super-logiciel, qui ne sert à rien dans le code, puisque super-logiciel n’existe pas.

La chaîne du Slopsquatting.
La chaîne du Slopsquatting. // Source : arXiv

Le Slopsquatting arrive si un hacker, pour des raisons malveillantes, décide de créer un super-logiciel et d’en faire un malware. L’exécution du code généré par l’IA, au lieu de ne rien faire sur cette commande, ajoutera alors un virus au reste de l’application. Un attaquant peut donc s’introduire facilement dans n’importe quel code, en repérant un code halluciné.

Dans un long rapport publié en mars 2025, plusieurs experts alertent sur ce nouveau risque. Premier constat : l’ampleur du phénomène. Dans une campagne de 576 000 générations de code, 19,7 % des noms de pakacgae sont hallucinés (5,2 % avec les modèles commerciaux, 21,7 % avec les modèles open source). Ça représente 205 000 noms inédits prêts à être détournés.

Autre problème, ces erreurs se répètent. Lorsqu’un LLM invente un package, il le ressort dans 58 % des réponses suivantes ; un attaquant peut donc compter sur cette persistance pour toucher progressivement de nouveaux projets, et donc potentiellement parasiter plusieurs logiciels simultanément. Les hallucinations des IA pourraient être moins inoffensives qu’initialement prévu, sauf si les développeurs apprennent à vérifier manuellement le code exécuté. Le rapport pointe la trop grande confiance accordée aux LLM comme principal problème.

Découvrez les bonus

+ rapide, + pratique, + exclusif

Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.

Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+
Toute l'actu tech en un clien d'oeil

Toute l'actu tech en un clin d'œil

Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !


Marre des réseaux sociaux ? Rejoignez la communauté Numerama sur WhatsApp !