Le nouveau modèle d'IA R1 de DeepSeek consommera beaucoup moins d'énergie

DeepSeek, qui a émergé de Chine et a conquis le monde et est présenté comme le plus grand concurrent de ChatGPT, peut porter sa consommation d'énergie déjà bonne à un niveau beaucoup plus élevé, selon de nouvelles nouvelles. Selon les rapports, le modèle R1 AI mis à jour de l'application d'intelligence artificielle a atteint un niveau qui peut fonctionner sur un seul GPU. Avec la sortie du DeepSeek-R1-0528-Qwen3-8B, une version plus petite du nouveau modèle R1, DeepSeek affirme que ce modèle surpasse les modèles de taille similaire dans certains tests de référence.
Basée sur le modèle Qwen3-8B lancé par Alibaba en mai, la version R1, plus petite et mise à jour, a obtenu de bien meilleurs résultats que le modèle Gemini 2.5 Flash de Google dans le test AIME 2025, qui consiste en des questions mathématiques difficiles.
DeepSeek-R1-0528-Qwen3-8B a obtenu presque les mêmes performances que le modèle Phi 4 récemment publié par Microsoft sur un autre test de compétences mathématiques, HMMT.
Les modèles dits réduits comme le DeepSeek-R1-0528-Qwen3-8B sont souvent moins performants que leurs homologues de taille normale, mais peuvent néanmoins se démarquer par leurs performances. Bien sûr, l’avantage le plus important de ces versions est qu’elles nécessitent beaucoup moins de ressources de calcul.
Selon la plateforme cloud NodeShift, Qwen3-8B nécessite un GPU (par exemple, un Nvidia H100) avec 40 Go à 80 Go de RAM pour fonctionner. Lorsque nous le comparons au nouveau R1 pleine taille, nous constatons que ce modèle nécessite environ une douzaine de GPU de 80 Go.
DeepSeek-R1-0528-Qwen3-8B est disponible sous une licence MIT permissive, ce qui signifie qu'il peut être utilisé commercialement sans restrictions. De nombreux distributeurs, dont LM Studio, proposent ce modèle via une API.
milliyet