O vídeo do ataque ao barco de drogas venezuelano foi feito com IA? Veja o que os especialistas pensam.

Os Estados Unidos continuam pressionando o regime de Maduro. Na noite de terça-feira, o presidente Donald Trump anunciou que forças americanas realizaram um ataque a um suposto barco de drogas pertencente ao grupo narcoterrorista Tren de Aragua. O governo também compartilhou um vídeo do ataque, no qual o barco explodiu e foi gravado com visão noturna. Poucas horas depois, a Venezuela questionou a autenticidade do documento, sugerindo que ele havia sido criado com inteligência artificial .
"Parece que Marco Rubio continua mentindo para seu presidente: depois de levá-lo a um beco sem saída, agora lhe oferece um vídeo com IA (assim comprovado) como 'prova'", afirmou o Ministro das Comunicações da Venezuela , Freddy Ñáñez , em seu canal do Telegram. Para chegar a essa conclusão, Ñáñez simplesmente enviou o vídeo para o aplicativo de inteligência artificial Gemini, criado pelo Google, e perguntou se "aquele vídeo foi feito com IA". A máquina lhe disse que era provável; mas poderia facilmente ter lhe dito o contrário.
"Fiz exatamente a mesma coisa com a gravação, e a Gemini me disse que não parece conteúdo sintético criado com inteligência artificial generativa", explicou Miguel Lucas, diretor global de inovação da empresa Llorente y Cuenca e especialista em IA, em conversa com a ABC. Porque é isso que acontece com essa tecnologia: é igualmente provável que ela diga uma coisa em um determinado momento, apenas para depois se retratar.
Lucas ressalta que " IA generativa como a Gemini não pode ser usada como evidência " porque "ela alucina, oferece dados errôneos ou os inventa". "Ela nunca deve ser usada dessa forma, porque assim como diz que algo poderia ter sido criado com IA, diz o oposto." Isso ocorre porque o aplicativo do Google, que funciona de forma semelhante ao ChatGPT, não foi projetado para determinar se o conteúdo foi ou não criado por uma máquina. Além disso, apesar das tentativas, nenhuma empresa de tecnologia conseguiu criar uma ferramenta de verificação confiável o suficiente para indicar diretamente que o conteúdo foi criado usando inteligência artificial.
O vídeo compartilhado pelo governo dos Estados Unidos também tem suas peculiaridades , pois é uma gravação em baixa definição, o que dificulta a verificação de sua autenticidade por uma máquina, ou mesmo por uma pessoa. "A resposta da Gemini não é confiável. Não se deve levar isso em conta para afirmar que se trata de um documento falso. Além disso, se você quer analisar seriamente a possibilidade de um vídeo adulterado, não use tecnologias comuns, como ChatGPT ou Gemini, que estão disponíveis para todos. Recorra a ferramentas dedicadas que não estão disponíveis para todos", conclui Lucas.
Sergio Álvarez-Teleña, CEO da SciTheWorld, uma das empresas de IA mais avançadas da Espanha, segue um caminho semelhante. Em declarações a este jornal, ele ressalta que a qualidade do vídeo explica por que a Gemini pode, em determinado momento, considerá-lo falso: "O vídeo é um tanto incomum para a Gemini, porque a ferramenta certamente foi treinada com vídeos de qualidade muito superior. A ferramenta está surpresa porque provavelmente não foi treinada com imagens de operações especiais desse tipo."
Embora, à primeira vista, nenhum especialista humano consultado veja qualquer sinal de falsificação no vídeo, eles alertam que, com o avanço da inteligência artificial, será cada vez mais difícil distinguir o que é real do que não é . "Isso vai se tornar constante, e só poderemos confiar no que vemos, nem mesmo no que os governos dizem, e isso só vai piorar", explica a este jornal Juan Ignacio Rouyet, professor e especialista em IA e Ética da Universidade Internacional de La Rioja.
ABC.es