Aussi performant que le modèle OpenAI-o1 selon les premiers tests, DeekSeek-R1 a pour particularité de coûter 27 fois moins par requête, avec des coûts d’entrainement nettement inférieurs à ceux des grands groupes américains. DeepSeek ne compromet pas seulement la stratégie du créateur de ChatGPT, mais aussi celle des États-Unis.

Fondée en 2023, l’entreprise chinoise DeepSeek fait énormément parler d’elle depuis la fin du mois de décembre et la publication du modèle DeepSeek-V3, présenté comme un GPT-4o beaucoup moins cher et tout aussi performant. L’exploit de DeepSeek est d’avoir entraîné des modèles sophistiqués avec relativement peu d’argent (5,6 millions de dollars, contre plusieurs centaines de millions aux États-Unis) et du matériel considéré « ancien », le tout en open source et avec des API bien plus abordables que chez Google ou OpenAI.

Le 20 janvier 2025, un mois après V3, DeepSeek a publié son nouveau modèle d’avant-garde : DeepSeek-R1. L’entreprise chinoise attaque cette fois-ci o1, la version la plus performante de ChatGPT, qu’OpenAI présente comme « capable de réfléchir ». L’emballement est tel qu’il a permis à DeepSeek de détrôner ChatGPT sur l’App Store.

https://twitter.com/deepseek_ai/status/1881318130334814301

DeepSeek-R1 : un modèle qui simule une réflexion humaine pour 27 fois moins cher que ChatGPT-o1

Comme OpenAI o1, DeepSeek-R1 peut s’auto-interroger afin de proposer un raisonnement cohérent, pour proposer la meilleure réponse possible. Ses « réflexions » apparaissent à l’écran, ce qui permet à l’utilisateur de comprendre le fonctionnement de l’IA de manière transparente. Le modèle principal dispose de 671 milliards de paramètres, mais en active 37 milliards par passage (une architecture appelée « Mixture-of-Experts », qui permet à DeepSeek de consommer très peu de ressources). Il supporte jusqu’à 128k tokens par demande, contre 200k chez OpenAI.

Ce modèle open source, qui s’inspire lui-même du travail d’autres chercheurs (Meta AI notamment), est optimisé pour des problèmes compliqués, qui impliquent plusieurs hypothèses. Il excelle particulièrement en mathématiques et dans la génération de code, deux domaines sur lesquels les LLM classiques font souvent des erreurs. Une de ses particularités est de pouvoir s’auto-entraîner, ce qui réduit les coûts de développement.

Quand on expose un problème mathématique à DeepSeek-R1, il détaille son raisonnement étape par étape.
Quand on expose un problème mathématique à DeepSeek-R1, il détaille son raisonnement étape par étape, avant de répondre. // Source : Capture Numerama

Comme chez OpenAI, qui décline son modèle de réflexion en deux versions (o1 et o1-mini), DeepSeek propose plusieurs versions de R1, avec entre 1,5 milliard et 70 milliards de paramètres. Le moins sophistiqué coûte moins cher par utilisation, mais se trompe aussi plus souvent. L’intérêt est de pouvoir les faire tourner sur des ordinateurs simples, sans configuration graphique spécifique.

Selon des tests publiés par DeepSeek, le modèle R1 avec 32 milliards de paramètres est équivalent à o1-mini, pour beaucoup moins cher. En dessous, DeepSeek propose des services introuvables pour l’instant chez OpenAI, avec des modèles nettement supérieurs à GPT-4o, mais capables d’aller plus loin.

Plusieurs tests effectués par DeepSeek. Le modèle o1-mini est ici la cible.
Plusieurs tests effectués par DeepSeek. Le modèle o1-mini est ici la cible. // Source : DeepSeek

Toujours selon DeepSeek, l’utilisation de l’API DeepSeek-R1, qui permet aux développeurs d’intégrer l’IA à leur propre service (la SNCF pourrait, par exemple, lancer un chatbot qui utilise le modèle chinois), coûte 2,19 dollars par million de tokens. En comparaison, o1-mini coûte 12 dollars pour la même utilisation (mais de moins bons résultats), quand o1 dépasse 60 dollars pour une « réflexion » équivalent. DeepSeek proposerait donc un service considéré équivalent pour 27 fois moins d’argent.

Difficile de faire plus humiliant, d’autant plus que DeepSeek-R1 aurait coûté relativement peu à l’entrainement, avec une approche open source aux antipodes des visions fermées d’OpenAI et Google.

Les coûts d'utilisation de DeepSeek-R1 atomisent ceux d'OpenAI-o1.
Les coûts d’utilisation de DeepSeek-R1 atomisent ceux d’OpenAI-o1. // Source : DeepSeek

Quid de la rapidité des réponses ? Elle est logiquement assez moyenne pour les questions les plus complexes, puisque DeepSeek-R1 simule une réflexion pendant plusieurs minutes avant de répondre. Mais le modèle peut aller très vite quand la question est simple.

OpenAI-o3 : la réponse à DeepSeek arrive, mais les coûts vont s’envoler

Plus tard en 2025, OpenAI lancera o3 et plusieurs versions d’o3-mini. Ces modèles devraient, sauf surprise, dépasser largement DeepSeek-R1. La génération d’une réponse pourrait coûter plusieurs milliers d’euros à OpenAI dans la version la plus performante de l’IA, que l’entreprise présente comme le modèle le plus sophistiqué de l’histoire. o3 est capable de réflexions très poussées.

Le coût d'une requête par modèle, avec un o3 loin devant o1.
Le coût d’une requête par modèle, avec un o3 loin devant o1. // Source : Arcprize

La supériorité technique d’o3 sur DeepSeek-R1 ne fait quasiment aucun doute, mais le coût de son utilisation interroge sur l’approche choisie par OpenAI et les autres géants américains. Tous misent sur des centaines de milliards de dollars d’investissement, quand la Chine, avec un « petit » projet open source, arrive à faire aussi bien en cassant les prix. DeepSeek pourrait provoquer un changement de philosophie aux États-Unis en mettant l’efficacité et le coût au cœur du développement des futurs grands modèles.

DeepSeek - Assistant IA

DeepSeek – Assistant IA

Cet article existe grâce à

Les abonnés Numerama+ offrent les ressources nécessaires à la production d’une information de qualité et permettent à Numerama de rester gratuit.

Zéro publicité, fonctions avancées de lecture, articles résumés par l’I.A, contenus exclusifs et plus encore. Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+

Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.