Het nieuwe R1 AI-model van DeepSeek zal veel minder energie verbruiken

DeepSeek, een Chinees bedrijf dat inmiddels de wereld heeft veroverd en de grootste concurrent is van ChatGPT, kan zijn toch al goede stroomverbruik nog veel verder opvoeren, zo blijkt uit nieuw nieuws. Volgens berichten heeft het bijgewerkte R1 AI-model van de kunstmatige-intelligentietoepassing een niveau bereikt dat op één GPU kan draaien. Met de release van de DeepSeek-R1-0528-Qwen3-8B, een kleinere versie van het nieuwe R1-model, beweert DeepSeek dat dit model in bepaalde benchmarktests beter presteert dan modellen van vergelijkbare grootte.
Gebaseerd op het Qwen3-8B-model dat Alibaba in mei lanceerde, presteerde de kleinere en bijgewerkte R1-versie veel beter dan het Gemini 2.5 Flash-model van Google in de AIME 2025-test, die bestaat uit uitdagende wiskundige vragen.
DeepSeek-R1-0528-Qwen3-8B behaalde vrijwel dezelfde prestaties als het onlangs uitgebrachte Phi 4-model van Microsoft op een andere wiskundige vaardigheidstest, HMMT.
Zogeheten verkleinde modellen zoals de DeepSeek-R1-0528-Qwen3-8B zijn vaak minder krachtig dan hun grote tegenhangers, maar kunnen qua prestaties nog steeds uitblinken. Het belangrijkste voordeel van deze versies is natuurlijk dat ze veel minder computerkracht vergen.
Volgens cloudplatform NodeShift heeft de Qwen3-8B een GPU (bijvoorbeeld een Nvidia H100) met 40 GB - 80 GB RAM nodig om te kunnen werken. Als we het vergelijken met de nieuwe, grote R1, zien we dat dit model ongeveer twaalf GPU's van 80 GB nodig heeft.
DeepSeek-R1-0528-Qwen3-8B is beschikbaar onder een permissieve MIT-licentie, wat betekent dat het zonder beperkingen commercieel gebruikt kan worden. Veel distributeurs, waaronder LM Studio, bieden dit model aan via een API.
milliyet