O novo modelo de IA R1 da DeepSeek consumirá muito menos energia

O DeepSeek, que surgiu na China e conquistou o mundo, sendo apontado como o maior concorrente do ChatGPT, pode levar seu já bom consumo de energia a um nível muito mais alto, de acordo com novas notícias. Segundo relatos, o modelo R1 AI atualizado do aplicativo de inteligência artificial atingiu um nível que pode ser executado em uma única GPU. Com o lançamento do DeepSeek-R1-0528-Qwen3-8B, uma versão menor do novo modelo R1, a DeepSeek afirma que este modelo supera modelos de tamanho semelhante em certos testes de benchmark.
Com base no modelo Qwen3-8B lançado pela Alibaba em maio, a versão R1 menor e atualizada teve um desempenho muito melhor do que o modelo Gemini 2.5 Flash do Google no teste AIME 2025, que consiste em questões matemáticas desafiadoras.
O DeepSeek-R1-0528-Qwen3-8B obteve quase o mesmo desempenho que o modelo Phi 4 lançado recentemente pela Microsoft em outro teste de habilidade matemática, o HMMT.
Os chamados modelos reduzidos, como o DeepSeek-R1-0528-Qwen3-8B, geralmente são menos capazes do que seus equivalentes de tamanho normal, mas ainda podem se destacar pelo desempenho. Claro, a vantagem mais importante dessas versões é que elas exigem muito menos recursos computacionais.
De acordo com a plataforma de nuvem NodeShift, o Qwen3-8B requer uma GPU (por exemplo, uma Nvidia H100) com 40 GB a 80 GB de RAM para ser executado. Quando comparamos com o novo R1 em tamanho real, vemos que este modelo requer cerca de uma dúzia de GPUs de 80 GB.
DeepSeek-R1-0528-Qwen3-8B está disponível sob uma licença permissiva do MIT, o que significa que pode ser usado comercialmente sem restrições. Muitos distribuidores, incluindo o LM Studio, oferecem esse modelo por meio de uma API.
milliyet