Novo modelo de imagem Flash Gemini 2.5: aqui estão as atualizações para criação de imagens

O Google apresentou o novo modelo Gemini 2.5 Flash Image, que consiste em combinar várias imagens em uma única , mantendo a coerência dos caracteres que aparecem nela.
Ele também permite transformações específicas usando linguagem natural, tudo por meio do aplicativo Gemini e do Google AI Studio , para que os usuários tenham uma melhor experiência.
Este novo modelo foi lançado em abril de 2025 para a Vertex AI e foi projetado como uma opção híbrida que permite ativar ou desativar suas capacidades de raciocínio, a fim de encontrar o equilíbrio certo entre a qualidade de suas respostas , explicou a empresa.
O Gemini 2.5 Flash Image oferece uma melhor experiência de edição de imagens para desenvolvedores e usuários do aplicativo Gemini, apresentando resultados de maior qualidade e controle criativo mais poderoso.
O Google detalhou em uma postagem de blog que esses recursos foram implementados no "modo de criação" do Google AI Studio como um teste .

Esta nova atualização permite editar fotos sem perder a aparência original. Foto: iStock
Os desenvolvedores também podem remixar ou dar vida às suas ideias com uma única instrução em linguagem natural e, em seguida, compartilhar o resultado no Google AI Studio ou salvar o código no GitHub.
Além disso, o aplicativo atualizou a edição nativa de imagens no aplicativo Gemini para todos os usuários, a fim de melhorar os recursos de edição e manter a consistência.
É assim que funciona o Gemini 2.5 Flash Image Quem usa essa ferramenta e quer aprimorar suas fotos precisa simplesmente compartilhá-la com o Gemini e solicitar que "as novas configurações apareçam, mas mantenham a aparência original". Ela também oferece a opção de trocar de roupa sem perder a identidade.

Os usuários terão uma experiência melhor ao criar suas fotos. Foto: iStock
O Google também explicou que, com esta nova atualização, os usuários podem misturar e combinar designs, o que significa que podem aplicar o estilo de uma imagem a um objeto em outra. Por exemplo, usar a cor e a textura de pétalas de flores para botas de chuva.
“Esta atualização faz um trabalho muito melhor ao permitir uma edição mais fluida, e as saídas do modelo podem ser usadas para o que você quiser ”, explicou Nicole Brichtova, gerente de produto para modelos de geração visual no Google DeepMind, ao TechCrunch.
Mais notícias em EL TIEMPO EDITORIAL ALCANCE DIGITAL
eltiempo