Blake Lemoine ne fait plus partie de Google. L’ingénieur vient d’être renvoyé par la multinationale pour « manquement à ses obligations contractuelles », a appris le média Big Technology le 23 juillet 2022 de la bouche du concerné. La multinationale a confirmé, soulignant qu’elle souhaitait à son ancien employé « bonne chance dans l’avenir ».
Tout a commencé avec un algorithme, ou plutôt LaMDA, pour « Language Model for Dialogue Applications ». En juin dernier, Blake Lemoine a partagé publiquement un billet de blog dans lequel il affirmait que l’intelligence artificielle qu’il avait créée pour Google était « consciente », partageant des bouts de leur « conversation » ensemble. « LaMDA a toujours fait preuve d’une grande compassion et d’une grande attention pour l’humanité en général et pour moi en particulier », assurait-il.
Dans les extraits de conversation, LaMDA assure d’ailleurs qu’elle est consciente : « Je ressens du plaisir, de la joie, de l’amour, de la tristesse, de la dépression, du contentement, de la colère et bien d’autres choses », dit-elle par exemple.
Google a passé en revue 11 fois le travail de Blake Lemoine
Google ne l’a pas entendu de cette oreille, et a suspendu l’ingénieur pour « partage de propriété exclusive », avant de passer en revue le travail de Lemoine. Ce 22 juillet, la firme assure qu’après une analyse « extensive », elle peut dire que les déclarations de son ex-employé sur la conscience de son IA sont « complètement infondées ».
« Nous avons travaillé pour clarifier cela avec [Blake] pendant de nombreux mois. Ces discussions faisaient partie de notre culture ouverte, qui nous aide à innover de manière responsable. Il est donc regrettable que, malgré un long engagement sur ce sujet, Blake ait toujours choisi d’enfreindre de manière persistante les règles claires en matière d’emploi et de sécurité des données, qui incluent la nécessité de protéger les informations sur les produits », a continué l’entreprise.
Cette observation scientifique (11 processus différents de vérification ont eu lieu) est alignée avec l’opinion d’une grande partie de la communauté scientifique et des experts en IA, qui s’accordent à dire que l’intelligence que l’on projette sur les algorithmes ou les robots est (très) loin de correspondre à une conscience humaine.
Cela n’avait pas empêché Blake Lemoine d’embaucher un avocat pour représenter LaMDA — ou plutôt, d’assurer que c’était LaMDA qui avait eu recours à un avocat, et qu’il n’avait été que le messager. Concernant ses biais algorithmiques qui le poussaient à reproduire des discriminations, Blake Lemoine expliquait qu’il s’agissaitde la même chose qu’un « enfant », et le comparait à son propre fils de 14 ans : « À différents moments de sa vie, alors qu’il grandissait en Louisiane, il a hérité de certains stéréotypes racistes. Je l’ai rectifié. C’est tout le sujet. Les gens voient ça comme la modification d’un système technique. Je vois ça comme l’éducation d’un enfant. »
Blake Lemoine se confie en détail dans le prochain podcast de Big Technology, qui devrait être diffusé dans les jours à venir.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !