Parmi tous les domaines de la tech, l’intelligence artificielle est l’un de ceux qui concentre le plus de buzzwords, vidés de leur sens pourtant pas si compliqué pour « faire classe ».
Mais en réalité, les concepts généraux de l’IA sont censés évoquer moins les Terminator et les HAL-3000 de la science-fiction qu’une salle de classe d’école primaire.
Nous avons décidé de vous servir ici une version simple et courte des choses, sans rentrer dans des détails que vous ne seriez pas susceptibles de rencontrer lors de vos lectures tech quotidiennes.
Algorithmes et IA
Derrière son nom mystifiant, un algorithme n’est à la base qu’une méthode pour résoudre un problème. Mettons que vous devez retrouver votre conjoint dans un supermarché : vous pouvez sillonner l’allée centrale en regardant à droite et à gauche (au risque de ne pas le voir s’il est dans une allée parallèle) ou alors zigzaguer entre les allées transverses (ce qui prend plus de temps) — ce sont deux algorithmes différents à l’efficacité différente en fonction de la configuration du lieu. En fait, vous pouvez même les combiner en un seul algorithme qui choisit la meilleure méthode selon les circonstances.
Dans la vie, on passe notre temps à résoudre des problèmes avec des algorithmes, ainsi imbriqués les uns dans les autres et généralement pas aussi explicites que l’exemple précédent. En gros, chaque décision rationnelle qu’on prend (dois-je sauter du lit et être à l’heure et fatigué, ou rester sous la couette et être en retard et moins fatigué ?), chaque geste qu’on effectue (de combien étendre mon bras pour attraper la tasse de café ?) et chaque estimation qu’on fait (au vu de la couleur du ciel, risque-t-il de pleuvoir ?) peut théoriquement être déterminé par un algorithme.
Savoir si nos émotions et notre sensibilité peuvent également être reproduits par des algorithmes n’est ici pas une question pertinente — les algorithmes peuvent déjà faire assez de choses comme ça.
C’est de là que part l’idée d’intelligence artificielle (IA), terme doté de plusieurs acceptations souvent vagues. C’est le nom d’un champ de recherche fondé en 1956 — quatre ans après l’arrestation du précurseur Alan Turing et deux ans après sa mort — et qui rassemble en son sein, avouons-le, beaucoup des fantasmes qu’on y associe spontanément.
On utilisera ici le terme « IA » dans son acceptation plus terre-à-terre, désignant une machine ou logiciel doté(e) de telles capacités d’analyse. Vous pouvez appeler ça un sac d’algorithme si vous le souhaitez. Ainsi, le cerveau d’une Tesla autonome est une IA, tout comme l’adversaire virtuel contre lequel vous vous entraînez sur StarCraft II. Les chatbots (IA de conversation), ainsi que les assistant vocaux Alexa, Siri, Cortana ou encore Google Assistant, se distinguent par leur compréhension du langage naturel, un des grands enjeux commerciaux actuels du secteur.
Pour interagir avec leur environnement, les intelligences artificielles doivent traiter une grosse quantité de données, c’est-à-dire de la big data. Ce ne sont ni plus ni moins que des bases de données, soit de monumentales piles de feuilles Excel sous un autre format. La plupart des IA ayant un niveau décent de sophistication sont basées sur un réseau de neurones artificiel (artificial neural network).
La nature ayant dépensé 4 milliards d’années de R&D et un budget illimité pour parvenir au cerveau tel qu’on le connaît, il est bien logique de s’en servir comme modèle en en reproduisant une version simplifiée avec du code. Cependant, un cerveau a besoin d’apprendre avant de fonctionner efficacement ; et c’est pareil avec les IA, comme on va le voir.
Modalités d’apprentissage
Une IA fraîchement écrite par ses programmeurs n’est pas plus futée ou adaptée à son futur environnement qu’un nourisson. Un bébé ne sait pas de manière innée ce qu’est la gravité, et doit l’apprendre à force de faire tomber ses jouets, par exemple. De même, les IA arrivent à maturité grâce au machine learning, ou apprentissage par machine, et entraîner une IA revient un peu à enseigner à une classe d’élèves.
La première étape est l’apprentissage par renforcement. C’est l’équivalent de la partie théorique du cours : on montre des exemples déjà résolus à l’IA, qui se contente de regarder passivement ce qu’on lui enseigne. Ce n’est qu’ensuite que l’IA peut passer aux exercices.
L’apprentissage supervisé est la traduction informatique de nos « travaux dirigés » scolaires : c’est comme si on donnait un texte à l’élève avec une liste de questions auxquelles répondre pas à pas. L’IA plonge dans la base de données avec des demandes précises à satisfaire, comme calculer s’il y a une tendance qui ressort à tel endroit bien spécifique.
Dès que l’IA se débrouille bien quand on lui prend la main, on la jette dans le grand bain avec l’apprentissage non supervisé : c’est maintenant un commentaire de texte qu’on lui demande d’écrire. En regardant la base de données, l’IA doit pouvoir automatiquement en tirer les informations intéressantes. On arrive ainsi au seuil du deep learning, l’apprentissage profond : si l’IA arrive par elle-même à formuler des conclusions, c’est qu’elle « comprend » d’une certaine manière ce qu’elle étudie. Tout comme un écolier qui a réussi ses contrôles est censé avoir compris sa leçon.
Enfin, tout comme savoir faire du vélo est utile si on veut apprendre à conduire un scooter, les compétences acquises dans un domaine peuvent aider l’IA à accomplir d’autres tâches : c’est l’apprentissage par transfert. Une fois terminé avec succès son « trimestre » de cours, on attend de l’IA qu’elle n’ait pas tout oublié après les examens et qu’elle puisse réutiliser ses connaissances pendant les cours du trimestre suivant.
À force d’apprendre et de s’entraîner, le cerveau d’une IA finit par devenir une jungle de code impénétrable dont on ne connaît pas les détails — d’où le nom de boîte noire. Ce n’est pas tant qu’on soit techniquement incapable de savoir ce qu’il y a dedans, mais que le contenu est tellement désorganisé que cela n’en vaut pas la peine d’essayer. Au baccalauréat, ce qui compte est la copie que le lycéen rend à l’examinateur ; pas la clarté du brouillon où il a griffonné chaque étape de son cheminement intellectuel…
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.