C’est un appel qui a été signé par des milliers de personnalités. Leur souhait ? Que le secteur de l’intelligence artificielle se mette en pause pour une durée de six mois. Plus exactement, que les laboratoires qui travaillent actuellement sur des systèmes plus puissants que GPT-4 interrompent provisoirement leurs travaux, le temps que l’on réfléchisse à la direction à donner à l’IA.
C’est un appel néanmoins contesté au sein de la communauté de recherche, et plus généralement dans l’industrie tech, à l’image du commentaire fait par Bill Gates à Reuters, le 4 avril. Pour le fondateur de Microsoft, société aujourd’hui très engagée dans l’IA via son partenariat avec OpenAI, à l’origine de GPT-4 et ChatGPT, rien ne sera résolu de cette manière.
Faire une pause ne résoudra rien
« Je ne pense pas que le fait de demander à un groupe particulier de faire une pause résoudra les problèmes », a déclaré Bill Gates, qui a conservé chez Microsoft un rôle de conseiller sur certains sujets techniques. « Assurément, ces technologies présentent d’énormes avantages, mais ce que nous devons faire, c’est identifier les domaines délicats. »
La position de Bill Gates sur l’IA n’apparaît pas tout à fait surprenante, pour qui suit ces sujets. Le 21 mars, l’intéressé écrivait un article sur son blog dans lequel il annonçait que « l’âge de l’IA a commencé », en classant justement l’intelligence artificielle comme l’une des deux démonstrations technologiques révolutionnaires à ses yeux, avec l’interface graphique.
Racontant à quel point les progrès d’OpenAI lui avaient semblé fulgurants, il a écrit qu’à ses yeux l’IA constitue une percée aussi fondamentale que le microprocesseur, l’ordinateur personnel, Internet et le téléphone portable. L’IA « changera la façon dont les gens travaillent, apprennent, voyagent, se soignent et communiquent entre eux. Des secteurs entiers se réorienteront autour d’elle. »
Parmi les domaines qui pourraient connaître un bouleversement par l’IA, il y en a trois que Bill Gates cite : la productivité, la santé et l’éducation — deux domaines pour lesquels le milliardaire s’investit beaucoup à travers sa fondation à visée philanthropique. À ses yeux, « l’IA peut réduire certaines des pires inégalités dans le monde. »
L’intéressé n’a toutefois pas mis sous le boisseau les difficultés actuelles autour de l’IA. « Toute nouvelle technologie aussi perturbatrice suscite forcément un certain malaise […] elle soulève des questions difficiles sur la main-d’œuvre, le système juridique, la protection de la vie privée, les préjugés, etc. Les IA commettent aussi des erreurs factuelles et sont victimes d’hallucinations. »
La place qu’occupe Bill Gates auprès de Microsoft et sa perception sur le rôle que peut avoir l’IA dans la réduction des inégalités aident à comprendre les raisons qui l’amènent à avoir un discours moins alarmiste. Mais le milliardaire philanthrope soulève aussi une autre problématique très concrète : comment fait-on pour rendre effective une pause de six mois ?
« Je ne comprends pas vraiment qui pourrait s’arrêter, ni si tous les pays du monde accepteraient de s’arrêter, ni pourquoi il faudrait s’arrêter », a-t-il relevé. Comment s’assure-t-on que le moratoire est respecté par tous, dans le monde entier, et par tous les labos ? Cela ne risque-t-il pas plutôt d’inciter à du développement secret, pour ne pas dire clandestin ?
Une pause qui sera contre-productive
Il n’est pas le seul à penser ça. Yann LeCun, présenté comme l’un des pères de la méthode de l’apprentissage profond (deep learning), un domaine clé de la recherche en IA, et accessoirement patron de l’IA chez Meta, a le même avis. Un moratoire sur le développement équivaudrait à de la recherche cachée. Raison pour laquelle il fait partie de ceux qui n’ont pas signé la lettre ouverte.
Pour illustrer son point de vue, il s’est livré à une sorte d’expérience de pensée en établissant un parallèle avec la découverte de l’imprimerie. Il a imaginé l’Église catholique demander un moratoire de six mois sur cette technologie, au motif qu’elle risquerait de détruire la société — et accessoirement mettrait en péril sa position, car tout le monde pourrait lire et interpréter la Bible.
« Les livres imprimés ont permis le mouvement protestant et 200 ans de conflits religieux en Europe », a relevé Yann LeCun. La société a effectivement été détruite, avant de renaître : « les livres imprimés ont permis l’avènement du siècle des Lumières : alphabétisation, éducation, science, philosophie, laïcité et démocratie. »
En contre-exemple, il a évoqué la politique contraire de l’empire ottoman, qu’il décrit comme moteur de son déclin. Une analogie contestée dans les commentaires qu’il a reçus. Ce parallèle, forcément incomplet, vise à montrer la peur millénariste qui s’empare d’une partie de la population lorsque de nouvelles technologies émergent et bousculent les sociétés.
« Ces technologies permettent aux gens de s’émanciper et finissent par être bénéfiques. Les changements technologiques doivent être gérés de manière à maximiser les avantages et à minimiser les risques », a-t-il ajouté. Cela fait écho à la tribune de Georges Nahon, autre expert de la tech, qui relève que l’IA générative « crée plus de métiers qu’elle n’en élimine. »
Reste à savoir ce que l’on met derrière l’idée d’une « pause de six mois dans l’IA ». Aaron Defazio, autre expert, fait observer que la sortie de GPT-4, en mars, survient quasi trois ans après l’arrivée de GPT-3. Dans la présentation du modèle de langage, OpenAI déclare avoir « passé 6 mois à rendre le GPT-4 plus sûr et mieux aligné. » C’est, de fait, une sorte de pause avant le déploiement.
Plus que l’IA elle-même, c’est peut-être ce genre de lettre ouverte qu’il faudrait mettre en pause. C’est en tout cas l’opinion transparaissant en filigrane dans un fil sur Twitter rédigé par Arvind Narayanan, professeur d’informatique à la fac de Princeton. Les arguments présentés sont, juge-t-il, exagérés, à côté de la plaque ou manquent les vrais enjeux.
« Cette lettre ouverte alimente le battage médiatique autour de l’IA et rend plus difficile la lutte contre les dommages réels et déjà existants de l’IA. Je soupçonne qu’elle profitera aux entreprises qu’elle est censée réglementer, et non à la société », écrit-il, en contestant les quatre périls cités dans le courrier — sur la désinformation, l’automatisation du travail et deux autres risques existentiels.
« Pour faire face aux risques de sécurité, il faudra collaborer et coopérer. Hélas, le battage médiatique de cette lettre — l’exagération des capacités et du risque existentiel — est susceptible de conduire à un verrouillage accru des modèles, ce qui rendra plus difficile la prise en compte des risques ». Un verrouillage que l’on observe déjà avec un recul de l’open source.
Surtout, le moratoire ne répond pas aux vrais défis, comme les plugins. C’est de ces extensions que « les nouvelles capacités et les nouveaux risques proviendront principalement », prévient Arvind Narayanan. On sait qu’OpenAI se positionne déjà. « Le moratoire ne fait rien pour y remédier. C’est ce qui le rend non seulement contre-productif, mais tout simplement déroutant. »
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.