Les propos alarmistes d’Elon Musk sur une potentielle troisième guerre mondiale déclenchée par une course à l’intelligence artificielle n’ont pas échappé à Google, au même titre que ses déclarations pessimistes sur cette technologie, qu’il considère comme « la plus grande menace [pesant] sur notre civilisation ».
Invité de l’événement TechCrunch Disrupt à San Francisco, John Giannandrea, responsable des recherches sur l’intelligence artificielle chez Google, n’a pas manqué de s’en prendre à l’entrepreneur — sans jamais le nommer directement, même si sa cible est claire : « Il y a énormément de battage injustifié au sujet de l’IA en ce moment. Cette théorie selon laquelle quelqu’un va créer une intelligence surhumaine qui va entraîner de nombreuses questions éthiques est injustifiée et presque irresponsable. Je ne suis vraiment pas inquiet quant à une apocalypse de l’IA. »
John Giannandrea reconnaît deux domaines d’inquiétude légitime, qui nécessitent selon lui une vigilance particulière : un biais codifié, et un manque de transparence pour expliquer les décisions de l’IA.
L’un des porte-parole d’OpenAI, le collectif fondé en 2015 par Elon Musk pour « faire avancer l’intelligence numérique de la manière qui serait la plus profitable à l’humanité, sans que ces recherches soient dictées par le besoin d’un retour sur investissement » — n’a pas souhaité répondre aux sollicitations de Bloomberg.
Elon Musk, pessimiste notoire au sujet de l’IA
Les propos alarmistes d’Elon Musk lui avaient déjà valu des critiques assez vives de plusieurs spécialistes de l’intelligence artificielle. Un reproche compréhensible quand on connaît l’impact médiatique des déclarations de l’entrepreneur rôdé à la communication.
D’autant que les spécialistes sont les premiers à reconnaître la nécessité d’encadrer le développement de l’intelligence artificielle. Certains, comme Subbarao Kambhampati, professeur d’informatique à l’université d’Arizona State et président de l’Association for the Advancement of Artificial Intelligence, reprochent simplement à Elon Musk de présenter comme probable « un scénario tiré par les cheveux ».
Les initiatives pour réguler l’IA ne manquent pas, entre les 23 principes d’Asilomar édictés par la communauté scientifique — et approuvés par Stephen Hawking et Elon Musk — en février 2017, ou encore les 3 récentes propositions d’un spécialiste en la matière.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.