Lorsque ChatGPT a été rendu public, en novembre 2022, la popularité du chatbot a immédiatement alerté les spécialistes en cybersécurité. Ils craignaient que les pirates ne s’en servent pour envoyer des courriels de phishing très convaincants, ou bien pour créer des opérations de désinformation à grande échelle.
En février 2024, Microsoft (qui est un très proche partenaire d’OpenAI, la société derrière ChatGPT) publiait de son côté un rapport révélant que des hackers nord-coréens, russes et chinois utilisaient le chatbot pour planifier leur cyberattaque.
Pourtant, les peurs des chercheurs seraient plutôt infondées, d’après OpenAI. L’entreprise a partagé le 30 mai 2024 un compte rendu sur « les utilisations trompeuses de l’IA dans le cadre d’opérations d’influence secrètes » — et ses conclusions sont étonnantes : ChatGPT n’aurait finalement pas été d’une aide si décisive que cela.
« Jusqu’à présent, ces opérations ne semblent pas avoir bénéficié d’une augmentation significative de l’engagement grâce à nos services », déclare OpenAI. L’entreprise, pour apporter la démonstration de ses dires, a cité l’échelle de Brookings, qui mesure l’impact des opérations d’influence. Or, aucune des campagnes utilisant ChatGPT « n’a obtenu un score supérieur à 2 » — l’un des scores les plus faibles.
Des opérations d’influence menées par Israël, la Chine, la Russie, et la Corée du Nord
Rien que sur les trois derniers mois, « nous avons interrompu cinq opérations d’influence secrètes qui cherchaient à utiliser nos modèles pour soutenir des activités trompeuses sur Internet », poursuit OpenAI dans sa synthèse.
Deux campagnes ont été menées depuis la Russie. La première avait lieu sur Telegram et ciblait l’Ukraine, la Moldavie, les pays baltes et les États-Unis, et les hackers ont utilisé ChatGPT pour écrire du code et pour « écrire de brefs commentaires politiques en russe et en anglais. » La deuxième opération russe a utilisé ChatGPT pour générer des commentaires en anglais, français, allemand, italien et polonais publiés sur X (ex-Twitter) et 9Gag, pour « traduire et éditer des articles en anglais et en français qui ont été postés sur des sites web liés à cette opération », et convertir ces articles en publication sur Facebook.
Une opération chinoise s’est servie de ChatGPT pour surveiller l’activité sur plusieurs réseaux sociaux et écrire des publications sur X, Medium et Blogspot. Une autre campagne a été menée par des agents iraniens. Ils ont utilisé ChatGPT pour générer et traduire de longs articles, publiés sur un site lié à l’opération.
Enfin, la dernière campagne découverte par OpenAI a été menée par une entreprise israélienne. Les personnes impliquées « ont utilisé nos modèles pour générer des articles et des commentaires qui ont ensuite été postés sur de multiples plateformes, notamment Instagram, Facebook, X, et des sites web associés à cette opération. »
Ces campagnes portaient « sur un large éventail de sujets, notamment l’invasion de l’Ukraine par la Russie, le conflit à Gaza, les élections indiennes, la politique en Europe et aux États-Unis, ainsi que les critiques formulées par des dissidents chinois et des gouvernements étrangers à l’encontre du gouvernement chinois », précise OpenAI.
Une conclusion à prendre avec des pincettes
« En mai 2024, ces campagnes ne semblent pas avoir augmenté de manière significative l’engagement ou la portée de leur audience grâce à nos services », tient à rappeler OpenAI. À l’inverse, l’AI aurait même aidé à détecter ces opérations, insiste l’entreprise.
Il est cependant difficile de conclure que l’IA n’est pas utile aux hackers et aux agents d’influence. La rapidité de ChatGPT et des modèles d’OpenAI rend ces campagnes plus faciles à monter. Le chatbot peut écrire des articles en quelques secondes, et dans un grand nombre de langues. Là où, auparavant, il aurait fallu plusieurs heures et des connaissances poussées en français pour écrire des articles de désinformation, il ne faut désormais plus que quelques secondes et absolument aucune formation en langue pour y parvenir.
Surtout, ce n’est pas parce que ces opérations ne sont pas si réussies que cela qu’elles ne marchent pas. Un travail de sape et d’influence se déroule généralement sur des mois, voire des années. Il suffit ainsi que quelques personnes tombent sur ces publications pour potentiellement avoir un effet boule de neige. Enfin, si monter des campagnes est plus simple et rapide pour les agents, cela veut également dire qu’on peut s’attendre à en voir beaucoup plus à l’avenir. Un plus grand nombre d’opérations, même si elles sont peu efficaces, est un vrai danger.
Enfin, OpenAI n’a peut-être pas détecté toutes les opérations qui sont passés par ChatGPT. Autrement dit, les campagnes les plus réussies et les plus importantes sont peut-être simplement passées sous les radars de la société américaine.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !