On l’a vu avec le partenariat à plusieurs milliards de dollars conclu avec OpenAI : Microsoft met le paquet dans l’intelligence artificielle. L’entreprise américaine a par exemple intégré la dernière version de ChatGPT (avec GPT-4) dans Bing. Elle a aussi dévoilé Copilot. Elle a également ajouté un service de génération d’image à la volée, avec DALL-E.
Microsoft n’a, d’une certaine façon, pas le choix : ses rivaux (Google, Facebook et Amazon) sont aussi lancés dans la course à l’IA. Ne pas être dans le coup exposerait la firme de Redmond un risque de déclassement. Si elle n’avait rien à proposer, sa clientèle pourrait se tourner vers la concurrence, qui se ferait un plaisir de l’accueillir. Ce serait une catastrophe.
Mais il y a aussi des considérations stratégiques. Peut-être qu’avec l’IA, Microsoft a une occasion en or d’affaiblir Google, y compris dans la recherche en ligne, secteur où la firme de Mountain View domine tous les débats depuis vingt ans. C’est une vraie révolution qui se profile et Google sait que son avenir est menacé par l’IA et cela l’inquiète.
Faire tourner l’IA coûte cher. Extrêmement cher, même. En février, Forbes titrait « ChatGPT brûle des millions de dollars chaque jour ». Un montant réévalué en avril par un analyste, qui délivre une estimation moindre. La dépense quotidienne pour faire marcher l’agent conversationnel (chatbot) serait plutôt de l’ordre de 700 000 dollars. Cela reste très coûteux.
Ce n’est pas surprenant, néanmoins : l’IA nécessite des moyens informatiques colossaux pour qui désire lancer des services et des produits dont la portée est globale. Des moyens d’autant plus importants lorsque l’on s’adresse à des millions d’utilisateurs à travers le monde, et qui attendent tous des résultats instantanés ou presque.
Cette puissance est nécessaire pour la constitution des modèles sur lesquels les algorithmes vont être réglés, mais aussi pour toute la séquence d’entraînement à proprement parler (l’apprentissage automatique). À cela s’ajoute ensuite l’exécution des requêtes des internautes, qui peuvent être des millions, et qui sollicitent aussi massivement les ressources.
Le projet Athena de Microsoft pour des puces dédiées à l’IA
Dans ces conditions, il n’est pas surprenant d’apprendre que Microsoft travaille au développement de ses propres puces. Dans son édition du 18 avril, The Information annonce que Microsoft prépare un processeur permettant de contenir la hausse des coûts de l’apprentissage automatique. Ce projet a un nom de code, Athéna, et existe depuis 2019, selon le média américain.
Cette date, que confirment deux sources consultées par nos confrères, s’avère être aussi l’année du premier investissement conséquent de Microsoft dans OpenAI. À l’époque, le montant était d’un milliard de dollars. Une somme qui apparaît petite aujourd’hui, puisque le géant des logiciels a multiplié cette mise par dix, quatre ans plus tard.
D’après The Information, des premières puces sont disponibles pour Microsoft et OpenAI, afin de les tester. L’objectif des deux partenaires est de trouver un moyen de réduire les coûts de fabrication de ces composants, cruciaux, et par ailleurs d’en développer des modèles qui nécessitent une consommation électrique moindre. Car l’IA a aussi besoin de beaucoup d’énergie.
Ce qui est vrai pour OpenAI (qui a construit ChatGPT) et Microsoft l’est tout autant pour les autres entreprises lancées dans cette compétition. D’ailleurs, les grands rivaux de la tech américaine conçoivent aussi leurs propres puces. C’est le cas de Google, Amazon et Facebook. Ces groupes confient ensuite à l’industrie des puces le soin de les produire.
Le développement de puces plus performantes, moins coûteuses à développer et ayant une empreinte énergétique maîtrisée, voire moindre, apparaît comme l’un des grands enjeux à résoudre pour l’avenir du développement de l’IA. En la matière, la recherche fondamentale s’avère cruciale, en parallèle des innovations qui ont lieu dans l’industrie des puces.
Dans ce domaine, des avancées existent et la France affiche des résultats. Début mars par exemple, le Centre national de la recherche scientifique (CNRS) pointait les travaux d’une équipe associant des laboratoires du CNRS, le CEA Leti (Laboratoire d’électronique des technologies de l’information du Commissariat à l’énergie atomique) et la startup Hawai.tech.
Leurs recherches ont permis de bâtir un prototype de machine qui réalise une tâche d’IA (reconnaître un geste humain) en utilisant des milliers de fois moins d’énergie qu’une solution traditionnelle. Ici, une nouvelle technologie de nanocomposants, les memristors, a été utilisée afin de réduire les mouvements de données. Typiquement le genre de progrès qui intéressera le secteur de l’IA.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !