Depuis l’automne 2022 et la démocratisation d’intelligences artificielles (IA) langagières, le grand public et la presse placent en l’IA de grands espoirs. Dans les sciences du climat, les scientifiques sont déjà largement coutumiers de ces modèles mathématiques. Pour autant, ces programmes ne peuvent pas encore résoudre les enjeux environnementaux, notamment à cause des méconnaissances et des biais humains.
Nous nous sommes entretenues avec Christophe Denis. Il est maître de conférence en informatique à Sorbonne Université, chercheur associé à l’Institut d’histoire et de philosophie des sciences et des techniques (IHPST).
Comment les scientifiques collaborent-ils avec le machine learning ?
Christophe Denis — De manière pratico pratique, lors de l’encadrement d’une thèse, nous sommes plusieurs. En l’occurrence, je me charge de vérifier la partie mathématique et informatique, et suis accompagné de géophysiciens pour les questions climatiques. On confronte les résultats obtenus grâce au machine learning avec la théorie scientifique plus classique. Cela mène à des discussions passionnantes avec le ou la doctorante. Pour elle ou lui, cela nécessite des connaissances assez pointues, à la fois en géophysique et en informatique — un domaine qui évolue très vite et pour lequel il faut se tenir au courant. On ne peut pas séparer les deux disciplines, car l’informaticien risquerait de développer des scenarii bien trop éloignés de la réalité géophysique. Pour être honnête avec vous, c’est un peu un pari, selon l’affinité du ou de la doctorante avec ces méthodes.
D’autres courants développent la notion de science agnostique. Il s’agit d’utiliser le machine learning sur des phénomènes dont on ne maîtrise pas du tout, ou très peu le fonctionnement. Mais la difficulté, c’est qu’une fois qu’on tombe juste sur un phénomène, on a parfois du mal à expliquer les méthodes de calcul. Je prends un exemple pour vulgariser : un de mes étudiants voulait tester le fonctionnement du deep learning. Il a demandé à l’outil de distinguer un loup d’un husky. Les deux espèces de canidés se ressemblent beaucoup et l’humain peine parfois à les différencier à l’œil nu. Le système a appris raisonnablement. Jusqu’au jour où l’étudiant a mis une photo de loup en ville. L’algorithme l’a identifié comme un husky, parce qu’il s’était basé sur le contexte de l’image, en l’occurrence la présence ou non de neige, pour distinguer les deux espèces.
Donc pour l’instant, la vérification humaine est nécessaire pour comprendre les biais des algorithmes. On « marchote » encore. Pour contrôler ça, on fait des comités d’éthique et il faut questionner les méthodes et les techniques de simulation. Qu’est ce qu’on veut simuler ? Qu’est ce qu’on veut modéliser ? Ces questions passionnantes interrogent les fondements de l’informatique.
Justement, est-il aujourd’hui possible de simuler des scenarii pour enrayer le réchauffement climatique ?
Christophe Denis. Il y a deux types de modèles : ceux qui permettent de faire de la prédiction et ce que l’on appelle des méthodes d’apprentissage par renforcement. Cette dernière émet une variété de scénarii. Lorsqu’une nouvelle situation se présente, l’algorithme va prendre une décision basée sur le processus de décision markovien, c’est-à-dire qu’on prend une décision à l’instant T+1, en fonction de la connaissance que l’on a à l’instant T.
La difficulté, c’est que sur le climat, les effets sont cumulatifs : il faut connaître tout son historique pour bien analyser un phénomène, mais ce n’est pas toujours possible, alors on adopte des méthodes hybrides, entre machine learning et théorie scientifique classique. On connaît mal le fonctionnement des turbulences, par exemple, mais on connaît très bien d’autres phénomènes, qui peuvent être modélisés par des équations mathématiques, grâce à quoi on peut faire de la prédiction avec des réseaux de neurones.
Bien sûr, on introduit toujours des biais dans le choix des scenarii qu’on fait. Le machine learning établit parfois des corrélations entre des phénomènes que l’être humain ne peut pas faire, parfois qu’il s’interdit même — parce que, comme dit l’expression, on ne mélange pas des choux et des carottes. En réalité, la notion de causalité, chère à la physique, est une interprétation humaine. L’astrophysicien star Étienne Klein dit souvent que les grandes théories ont été découvertes en faisant abstraction de la réalité.
D’autres scientifiques pensent, à l’inverse, qu’on est arrivé à la limite de ce cheminement : la physicienne Sabine Hossenfelder, autrice du livre Lost in maths, estime que la physique s’est égarée dans l’élégance des équations mathématiques et que les scientifiques développent des théories très élaborées, mais qu’ils ne vérifient plus. Elle plaide pour un retour à l’expérience empirique.
Comment ces découvertes, et plus généralement l’usage de l’IA, influent-elles sur les décisions publiques environnementales ?
Christophe Denis. Je vais prendre un exemple. Un des doctorants dont je dirige la thèse au Sénégal s’est emparé d’un problème : évaluer les volumes de pêche. Les relevés se font, encore aujourd’hui, en comptant le nombre de pirogues sur les plages. Mais ce système ne permet pas l’analyse de données fiables en temps réel. Le doctorant a alors eu l’idée d’apprendre à des machines à détecter le nombre de pirogues sur des images prises par des drones ou des ULM. À terme, on pourrait même calculer leur taille et imaginer le volume qu’elles permettent de pêcher.
Ces informations servent dans le cadre des Objectifs de Développement Durable (ODD) de l’ONU, pour définir localement des politiques publiques sur la pêche, industrie majeure sur ce territoire. À un moment donné, il sera certainement demandé aux pêcheurs de restreindre les quantités qu’ils pêchent. Mais, vous voyez, si on arrive avec nos gros sabots, et que des décisions publiques sont prises alors que nous avons parfois du mal à expliquer les méthodes de calculs des algorithmes, (leur « boîte noire » en somme), cela pose un problème : qui prend la décision à la fin et comment s’assurer de la fiabilité de l’information ?
Cette question a été largement débattue en France, lors de la troisième révision des lois de bioéthiques en 2021. Il y avait tout un volet sur l’IA, et on était arrivé à statuer sur l’importance du principe de garantie humaine. Cela signifie qu’en médecine, lors d’un traitement thérapeutique, un humain doit approuver chacune des étapes. Imaginons qu’un médecin soit assisté d’un système informatique performant à 99,99 % sur le diagnostic d’une maladie. Le médecin va-t-il interroger suffisamment sur le résultat final ? Il y a deux cas de figure : soit le système a raison et le médecin devient un héros, soit il a tort et le médecin est quand même… un peu mal. En définitive, dès que le système se trompera, on voudra le débrancher.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !