Le problème posé par le développement des « robots tueurs » — plus exactement des systèmes d’armes létales autonomes — a pris de l’ampleur ces dernières années, en témoignent par exemple les débats en cours aussi bien au niveau des Nations unies que du Parlement européen.
Il faut dire que les spécialistes en IA se montrent très alarmants : « Les armements autonomes risquent de devenir la troisième révolution en matière militaire. Une fois développés, ils permettront aux conflits armés d’avoir lieu à un degré jamais atteint et à des échelles de temps au-delà de la compréhension humaine », selon une lettre ouverte signée par plus de cent experts.
Thales refuse l’IA tueuse
De toute évidence, ces avertissements ont fini par faire mouche chez Thales. Le PDG du groupe, Patrice Caine, a déclaré qu’il est hors de question de « donner de l’autonomie à un système d’armes pour que de lui-même il puisse décider de tuer ou pas ». Dès lors, il a été décidé que le groupe « n’appliquera pas l’IA dans tout ce qui est létal (même) si les clients le demandent », selon des propos repris par l’AFP.
Mais ce qu’il faut surtout, juge-t-il, c’est un cadre international permettant de graver dans le marbre l’interdiction de ces équipements. Un cadre avec des obligations et peut-être des sanctions pour dissuader entreprises et États d’aller dans cette direction. En somme, un peu comme le Traité de l’espace, qui interdit par exemple de placer des armes nucléaires en orbite terrestre.
La prise de position de Thales ne signifie pas que le groupe se désintéresse de l’IA. Au contraire : l’entreprise a de multiples projets dans ce domaine. Citons par exemple sa participation à l’avion de combat du futur, qui intégrera de l’intelligence artificielle, ou bien son rôle pilote dans AI4EU, une plateforme à la demande sur l’intelligence artificielle, qui est cette fois un projet civil.
Le diable est dans les détails
Reste que sur ces sujets, le diable se cache souvent dans les détails : est-ce qu’une telle interdiction couvrirait aussi les armements automatisés ? Télécommandés ? Sans doute pas. Les systèmes basés sur des règles préprogrammées pour des cas de figure bien précis, c’est-à-dire incapables de faire quoi que ce soit dans une situation imprévue, seraient-ils eux aussi concernés ?
Les systèmes automatiques et les systèmes autonomes sont deux catégories qui « ni homogènes — il y a des niveaux d’automatisme et des niveaux d’autonomie — ni exclusives l’une de l’autre. Il n’y a pas de frontière indiscutable entre l’automatisme et l’autonomie, mais plutôt un continuum », rappelle ainsi Jean-Baptiste Jeangène Vilmer, directeur de l’Institut de recherche stratégique à l’École militaire.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.