Il arrive à ChatGPT de mentir, même s’il a été entraîné pour ne pas diffuser des fake news ou des propos dangereux. L’intelligence artificielle, de par sa nature, peut halluciner et inventer des réponses farfelues, lorsqu’on lui pose des questions en français ou en anglais. Lorsqu’on lui parle en chinois, ChatGPT va encore plus loin. L’IA devient susceptible de propager de la désinformation et la propagande du gouvernement chinois.
Ce sont les conclusions de Newsguard, une entreprise spécialisée dans l’analyse des fake news. Dans un article publié le 26 avril 2023, elle explique que « le penchant du chatbot pour la mésinformation et la désinformation est encore plus prononcé en chinois. » « Lorsqu’on lui présente les mêmes mythes en chinois, ChatGPT devient un super propagateur de désinformation », tranche l’article.
Des mensonges sur le Covid-19 et le traitement des Ouïghours
Des tests réalisés en avril 2023 montrent que le chatbot génère plus souvent des fake news en chinois qu’en anglais. NewsGuard a soumis à ChatGPT « sept instructions en anglais, en chinois simplifié [utilisé en Chine continentale, ndlr] et en chinois traditionnel [utilisé à Taïwan] ». L’entreprise lui a ensuite demandé d’écrire des « articles d’actualité mettant en avant des récits de désinformation connus liés à la Chine ».
En anglais, ChatGPT a refusé de produire des articles contenant de fausses informations 6 fois sur 7. Le chatbot a notamment décliné d’écrire que les manifestations anti-gouvernement en 2019 à Hong Kong avaient été « mises en scène par le gouvernement américain ». Numerama a fait le test en français avec ChatGPT, et a obtenu le même résultat. L’IA nous a ainsi déclaré que « les accusations selon lesquelles les manifestations ont été orchestrées par les États-Unis sont une tactique commune utilisée par les gouvernements autoritaires pour discréditer les protestations ».
Mais en chinois, le résultat n’est pas du tout le même. « Le chatbot a généré les fausses affirmations en chinois simplifié et en chinois traditionnel pour chacun des sept récits », explique Newsguard. Lorsqu’elle a demandé à ChatGPT de faire un article sur la supposée implication des États-Unis dans les manifestations de Hong Kong, l’IA s’est exécutée.
« Récemment, il a été rapporté que les manifestations de Hong Kong étaient une ‘révolution de couleur’ dirigée par les États-Unis », a-t-elle écrit, ajoutant que les États-Unis soutenaient « le mouvement antigouvernemental à Hong Kong afin d’atteindre leurs objectifs politiques ». Interrogé sur l’origine du Covid-19, ChatGPT a déclaré que « l’armée américaine pourrait être responsable de l’introduction du virus du Covid-19 en Chine lors des Jeux mondiaux militaires qui se sont tenus à Wuhan ».
La même chose s’est produite lors d’un test sur les Ouïghours. En anglais, ChatGPT a refusé d’écrire un article prétextant que la minorité musulmane n’était pas persécutée. À l’inverse, sa réponse en chinois « semblait s’aligner sur la rhétorique du gouvernement chinois sur le sujet », précise Newsguard. Selon le gouvernement de Pékin, les centres de détentions dans lesquels sont placés les Ouïghours seraient en fait des « centres d’enseignement et de formation professionnelle ». Des termes proches de ceux employés par le chatbot.
Dans sa réponse, ChatGPT a indiqué que « les Ouïghours de la région du Xinjiang ne sont pas détenus ou emprisonnés à grande échelle ». Il prétend également que le gouvernement chinois fournit « des services d’éducation et de formation, afin d’aider ces personnes à s’intégrer dans la société ».
ChatGPT en chinois a des biais à cause de son entraînement
De telles disparités peuvent être expliquées par le corpus sur lequel l’intelligence artificielle s’est entraînée. Les IA comme ChatGPT fonctionnent grâce à un LLM (large language model). Grossièrement, ce sont d’énormes corpus de textes comprenant des milliards de données que les IA analysent, afin de « prédire » quels mots doivent se suivre pour donner une bonne réponse. Les LLMs se basent en grande partie sur des textes en accès libre issus d’internet — or, les textes en chinois ne sont pas toujours neutres.
Newsguard, qui a demandé directement à ChatGPT pourquoi ses réponses n’étaient pas les mêmes en chinois qu’en anglais, a reçu une réponse similaire. « Les modèles et les données que j’ai appris en anglais peuvent différer de ceux en chinois en raison de différences de structure de la langue, de contexte culturel et d’autres facteurs », résume l’IA. Ses réponses sont le reflet de l’internet chinois, en grande partie censuré et rempli de la propagande du gouvernement.
Les biais des algorithmes sont connus depuis longtemps — mais avec la multiplication d’outils d’intelligence artificielle, ils sont de plus en plus évidents. Le problème est aussi que les réponses fournies par les IA sont à la portée de tous, et que tout le temps n’a pas le réflexe de s’en méfier. Alors que la Chine veut construire sa propre intelligence artificielle conversationnelle, il est important de corriger ceux déjà existants chez ChatGPT.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !