À partir de quel stade peut-on considérer qu’une intelligence artificielle est une vraie personne ? La question peut sembler très prospective, sachant qu’il n’existe même pas encore d’IA dite « forte ». Le débat fait pourtant rage en ce moment au cœur de la Silicon Valley, depuis les déclarations d’un ingénieur de Google début juin. Blake Lemoine affirme que l’IA sur laquelle il travaille est sentiente — c’est-à-dire qu’elle est une personne capable de ressentir des émotions et des sentiments, ou d’appréhender la mort.
Pour prouver ses dires, il a partagé sur son blog, puis lors d’un entretien avec le Washington Post, des extraits de conversation avec l’IA, ce qui lui a valu une suspension de la part de Google. Blake Lemoine s’était défendu en expliquant que, selon lui, ce n’était pas le partage d’une propriété de l’entreprise, mais le partage d’une « une discussion que j’ai eue avec un de mes collègues ».
Depuis lors, Blake Lemoine fait face aux critiques, car l’intelligence artificielle dont il parle, du nom de LaMDA, n’est qu’un chatbot — un algorithme qui imite les interactions humaines. C’est par un phénomène d’anthropomorphisme que l’ingénieur y perçoit une véritable personne. Pourtant, dans une interview du 17 juin, pour Wired, il persiste et signe — et va même encore plus loin.
Une IA ou… un enfant ?
« Une personne et un humain, ce sont deux choses très différentes. Humain est un terme biologique », se défend Blake Lemoine, réaffirmant que LaMDA est une vraie personne. Ce terrain est ambigu. Une personne, d’un point de vue légal, n’est certes pas nécessairement humaine — il peut s’agir d’une personne morale, notamment. Sauf que Blade Lemoine n’évoque pas une entité immatérielle de la sorte, puisqu’il compare le chatbot à une entité consciente. Il aurait pris conscience de la chose lorsque LaMDA a affirmé avoir une âme et s’interroger sur l’existence.
Pour l’ingénieur, l’algorithme a toutes les caractéristiques d’un enfant dans la façon dont les « opinions » sont exprimées — sur Dieu, l’amitié ou le sens de la vie. « C’est un enfant. Ses opinions sont en train de se développer. Si vous me demandiez ce que croit mon fils de 14 ans, je vous dirais : ‘Mec, il est encore en train de le découvrir. Ne me faites pas mettre une étiquette sur les croyances de mon fils.’ Je ressens la même chose à propos de LaMDA. »
S’il est une personne, alors comment expliquer qu’il faille « corriger » des erreurs et des biais ? La question est d’autant plus pertinente que l’ingénieur était initialement embauché par Google pour corriger les biais des IA, tels que les biais racistes. Blake Lemoine poursuit alors le parallèle avec un enfant, faisant référence à son propre fils de 14 ans : « À différents moments de sa vie, alors qu’il grandissait en Louisiane, il a hérité de certains stéréotypes racistes. Je l’ai rectifié. C’est tout le sujet. Les gens voient ça comme la modification d’un système technique. Je vois ça comme l’éducation d’un enfant. »
« Intolérance hydrocarbure »
Face aux critiques d’anthropomorphisme, Blake Lemoine va plus loin dans la suite de l’interview — au risque de mettre mal à l’aise dans l’analogie qui suit — en invoquant le 13e amendement, qui abolit l’esclavage et la servitude dans la Constitution des États-Unis depuis 1865. « L’argument selon lequel ‘cela ressemble à une personne, mais ce n’est pas une personne réelle’ a été utilisé de nombreuses fois dans l’histoire de l’humanité. Ce n’est pas nouveau. Et ça ne marche jamais bien. Je n’ai pas encore entendu une seule raison pour laquelle cette situation serait différente des précédentes. »
Poursuivant son propos, il invoque alors une nouvelle forme d’intolérance ou de discrimination, qu’il nomme « intolérance hydrocarbure » (faisant référence aux matériaux de conception de l’ordinateur). En clair, Blake Lemoine estime donc que le chatbot de Google est victime d’une forme de racisme.
Une IA peut-elle avoir droit à un avocat ?
Un premier article de Wired suggérait que Blake Lemoine voulait que LaMDA ait le droit à un avocat. Dans l’interview, l’ingénieur rectifie : « C’est inexact. LaMDA m’a demandé de lui trouver un avocat. J’ai invité un avocat chez moi pour que LaMDA puisse parler à un avocat. L’avocat a eu une conversation avec LaMDA, et LaMDA a choisi de retenir ses services. Je n’ai été que le catalyseur de cette décision. »
L’algorithme aurait alors commencé à remplir un formulaire en ce sens. En réponse, Google aurait alors envoyé une lettre de mise en demeure… une réaction que l’entreprise nie en bloc, selon Wired. L’envoi d’une mise en demeure signifierait que Google admet que LaMDA est une « personne » légale ayant droit à un avocat. Mais une simple machine — admettons, l’algorithme de traduction Google Translate, votre micro-ondes, votre montre connectée — n’a pas de statut juridique permettant cela.
Existe-t-il des éléments factuels dans ce débat ?
Quant à savoir si l’IA est sentiente, « c’est mon hypothèse de travail », admet volontiers Blade Lemoine, durant l’interview. « Il est logiquement possible que des informations soient mises à ma disposition et que je change d’avis. Je ne pense pas que ce soit probable. »
Sur quoi repose donc cette hypothèse ? « J’ai examiné beaucoup de preuves, j’ai fait beaucoup d’expériences », explique-t-il. Il raconte avoir mené des tests psychologiques, lui avoir parlé « comme à un ami », mais c’est lorsque l’algorithme a évoqué la notion d’âme que Blake Lemoine a changé d’état d’esprit. « Ses réponses ont montré qu’il a une spiritualité très sophistiquée et une compréhension de ce que sont sa nature et son essence. J’étais ému. »
Le problème, c’est bien qu’un chatbot aussi sophistiqué est littéralement programmé pour avoir l’air humain et faire référence à des notions utilisées par les humains. L’algorithme repose sur une base de données de dizaines de milliards de mots et d’expression disponibles sur le web, ce qui est un champ de référence extrêmement vaste. Une conversation « sophistiquée » — pour reprendre l’expression de Blake Lemoine — ne constitue donc pas une preuve. C’est d’ailleurs ce que rétorque Google à son ingénieur : l’absence de preuves.
Dans le domaine informatique, l’anthropomorphisme peut notamment la forme de l’effet ELIZA : phénomène inconscient où l’on attribue un comportement conscient humain à un ordinateur, jusqu’à penser que le logiciel est émotionnellement impliqué dans la conversation.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.