Cuidado com as extensões de inteligência artificial: qual é a única que não coleta dados pessoais?

Um estudo da University College London revelou que os complementos de inteligência artificial (IA) mais populares para navegadores armazenam informações pessoais, desde histórico de navegação até dados médicos ou bancários . Mas há uma exceção.
Os pesquisadores enfatizaram que essas práticas ocorrem silenciosamente, sem que o usuário tenha como percebê-las ao instalar as extensões . Embora os termos e condições frequentemente existam, eles costumam ser redigidos de forma opaca e não refletem claramente o escopo da coleta de dados.
O relatório se soma a uma série de alertas de especialistas em segurança cibernética e proteção de dados da Europa e dos Estados Unidos: a inteligência artificial, em sua busca por oferecer mais "inteligência contextual", acaba precisando absorver informações sobre as atividades online dos usuários, o que abre caminho para usos opacos .
Extensões de navegador são amplamente utilizadas. Foto: Shutterstock
Extensões de inteligência artificial para Chrome, Edge e outros navegadores ganharam popularidade nos últimos meses. Ferramentas como ChatGPT, Copilot, Merlin e Monica prometem assistência na busca, resumos automáticos e respostas imediatas.
Vale lembrar que extensões são pequenos programas instalados no seu navegador para adicionar funcionalidades extras: desde bloquear anúncios até traduzir páginas ou, neste caso, incorporar inteligência artificial diretamente na sua experiência de navegação .
Para operar, eles geralmente exigem amplas permissões de acesso ao conteúdo que você vê na tela, e é justamente nessa área que surgem as maiores preocupações com privacidade.
No entanto, o que é anunciado como um benefício de produtividade tem um custo invisível: a perda de controle sobre a privacidade. Para funcionar, muitas dessas extensões solicitam permissões amplas do navegador e, em seguida, fazem uso extensivo dessas permissões, acessando mais informações do que o necessário para cumprir sua função principal.
Segundo especialistas, isso significa que alguém que esteja simplesmente tentando resumir um texto acadêmico ou traduzir um documento pode estar, sem querer, expondo tudo o que está aberto em seu navegador: de e-mails pessoais a sessões bancárias e registros médicos.
A facilidade com que essas extensões são instaladas também contribui para o problema. Ao contrário dos aplicativos tradicionais, os complementos para navegadores nem sempre passam por rigorosos processos de auditoria nas lojas oficiais, abrindo espaço para práticas abusivas de tratamento de dados.
A DeepSeek abalou o mundo da IA com o lançamento de seu sistema de baixo custo. Foto: New York Times
Entre os casos mais notáveis, a extensão Merlin chegou a capturar dados de formulários online, como credenciais financeiras ou de saúde. Sider e TinaMind, por sua vez, compartilharam consultas de usuários e endereços IP com plataformas externas como o Google Analytics, permitindo o rastreamento de anúncios entre sites.
A investigação também revelou que alguns desses complementos combinavam informações sensíveis com identificadores persistentes. Isso significa que os dados poderiam ser associados ao mesmo perfil de usuário ao longo do tempo, multiplicando o risco de exposição em caso de vazamento ou venda a terceiros.
O ChatGPT para Chrome, o Copilot da Microsoft e o Monica foram sinalizados por registrar atributos como idade, sexo, renda e interesses, dados que eles então usaram para personalizar as respostas em diferentes sessões de navegação. Segundo os pesquisadores, essa prática mostra como a lógica da publicidade direcionada está começando a se infiltrar no ecossistema da IA.
“Esses assistentes oferecem acesso sem precedentes ao comportamento online dos usuários em áreas de suas vidas que deveriam permanecer privadas”, explicou Anna Maria Mandalari, pesquisadora sênior da UCL.
O especialista alertou que a normalização dessas práticas pode acabar corroendo a confiança do público nas ferramentas de IA, mesmo aquelas que cumprem as normas de privacidade.
Perplexity, o mecanismo de busca com inteligência artificial. Foto: Reuters
A análise identificou apenas um caso sem evidências de coleta abusiva de dados: a extensão Perplexity AI . De acordo com o relatório, este serviço não apresentou nenhuma prática envolvendo a transmissão de informações confidenciais ou rastreamento oculto de usuários.
Os pesquisadores notaram que, pelo menos em seus testes, o Perplexity simplesmente forneceu resultados de pesquisa sem capturar mais informações do que o estritamente necessário.
Isso não significa, no entanto, que a Perplexity esteja imune a críticas. Alguns especialistas apontam que o fato de práticas abusivas não terem sido detectadas neste estudo específico não garante que elas não se repitam no futuro, visto que as políticas de privacidade e os modelos de negócios das empresas de tecnologia tendem a mudar rapidamente.
Para Mandalari, o problema vai além da publicidade direcionada: "Depois que as informações são coletadas, não sabemos onde elas vão parar ou se vão parar nas mãos de redes ilícitas que usarão nossas credenciais para cometer crimes".
Em sua opinião, a falta de transparência e a complexidade técnica tornam quase impossível para um usuário comum entender o que acontece com seus dados nesses ambientes.
O estudo traz o debate sobre privacidade digital e transparência de volta à tona, em um contexto em que cada vez mais ferramentas de IA estão sendo integradas à vida cotidiana a um preço difícil de mensurar: nossos dados pessoais.
Para os pesquisadores, a solução está em regulamentações mais rígidas, auditorias independentes e, acima de tudo, em informar claramente os usuários sobre os riscos das tecnologias que adotam.
Clarin