«Fornecedores de IA exploram a usabilidade das interfaces»

Esta semana, dois eventos foram dedicados à proteção e à violação de dados pessoais: o GDPR Day, realizado em Bolonha, com foco na conformidade regulatória (da Lei de Inteligência Artificial à NIS2), e a Privacy Week (que se estende até sexta-feira, 31 de outubro de 2025), um encontro em Milão que reuniu diversos especialistas para discutir a potencial colaboração entre humanos e inteligência artificial, respeitando a privacidade, a ética e a regulamentação. O tema é sensível e complexo, pois muitos fatores influenciam nossas vidas online, desde os benefícios do uso de nossos dados digitais até o fato de que esses benefícios acarretam riscos quando aceitamos (sem ler) os termos e condições de um aplicativo ou usamos dispositivos inteligentes de forma descuidada em casa ou no carro — contextos em que a consciência dos perigos (e, consequentemente, das medidas de proteção) diminui, abrindo caminho para agentes maliciosos.
Os riscos a que estamos expostos são diversos, desde ameaças conhecidas como ransomware e spyware até ameaças mais avançadas como deepfakes e deep voice , que são montagens sofisticadas de fotos e áudio capazes de personificar outra pessoa. Envolvem também o chamado " sharenting ", o compartilhamento de conteúdo de menores pelos pais. A casa inteligente , paradoxalmente, está se tornando um lugar onde podemos ser espionados pelos próprios dispositivos (câmeras de vigilância , principalmente, mas também assistentes digitais, TVs e outros dispositivos conectados) que deveriam nos garantir maior segurança ou, pelo menos, uma melhor qualidade de vida. Há ainda, é claro, a questão do reconhecimento facial em locais públicos e dos sistemas de policiamento preditivo baseados em inteligência artificial: a Lei de Inteligência Artificial, salvo uma mudança drástica, deve impedir seu uso na UE por um longo tempo.
Guido Scorza, membro do painel da Autoridade Italiana de Proteção de Dados (Garante della Privacy), foi um dos palestrantes no evento de Bolonha e, em entrevista ao Il Sole 24 Ore, analisou o progresso de duas importantes estruturas regulatórias de privacidade: a Lei de Inteligência Artificial (AI Act) e o GDPR. "Embora convirjam", explicou, "as duas regulamentações abordam áreas diferentes e visam garantir que as pessoas que vivem na Europa desfrutem do respeito aos direitos e liberdades fundamentais em uma sociedade de dados e algoritmos. Infelizmente, não estamos onde deveríamos estar e, portanto, não podemos falar em proteção completa da privacidade, porque a existência de regras é um pré-requisito necessário, mas não suficiente, para governar o impacto da inteligência artificial na sociedade."
Portanto, não faltam questões críticas relacionadas a esse tema, e é bastante claro que ainda há um longo caminho a percorrer para evitar o risco, destacado por Scorza, de a tecnocracia prevalecer sobre a democracia. De fato, não há dúvida de que as grandes empresas de tecnologia, os provedores de serviços de IA e os fornecedores de casas inteligentes coletam bilhões de pontos de dados sobre o comportamento digital das pessoas, abrindo caminho para que sejam "espionadas" ou, pelo menos, "cúmplices" em um sistema de criação de perfis com objetivos que podem ir além do lucro. Como podemos lidar com esse problema? "A ferramenta mais eficaz para resistir ao capitalismo de vigilância e à vigilância do capitalismo", explica o especialista, "é investir na educação das pessoas sobre o uso consciente dessas tecnologias e conscientizar a todos sobre suas regras e direitos. Mesmo nesse caso, porém, estamos atrasados, e na Itália mais do que no resto da Europa, ocupando a terceira posição de baixo para cima em termos de alfabetização digital básica."
Scorza destaca outro ponto crucial, que diz respeito aos provedores de serviços de IA, "que estão abusando da usabilidade de suas interfaces, nos convencendo de que são tão fáceis de usar que podemos fazê-lo de forma casual e descuidada, sem nos preocuparmos muito com as implicações para a privacidade". A referência explícita é à OpenAI e outros participantes do setor de IA generativa, uma ferramenta por meio da qual "cada usuário individual revela muito sobre si mesmo às empresas que fornecem esses serviços".
ilsole24ore


