Alerta con las extensiones de inteligencia artificial: cuál es la única que no recolecta datos personales

Un estudio del University College London reveló que los complementos de Inteligencia Artificial (IA) más populares para navegadores almacenan información personal, desde historiales de navegación hasta datos médicos o bancarios. Pero hay una excepción.
Los investigadores remarcaron que estas prácticas se dan de manera silenciosa, sin que el usuario tenga forma de advertirlo al instalar las extensiones. Aunque en muchos casos existen términos y condiciones, suelen estar redactados de manera opaca y no reflejan con claridad el alcance de la recolección de datos.
El informe se suma a una serie de advertencias que vienen realizando especialistas en ciberseguridad y protección de datos en Europa y Estados Unidos: la inteligencia artificial, en su afán de ofrecer más “inteligencia contextual”, termina necesitando absorber información de las actividades en línea de los usuarios, lo que abre la puerta a usos poco transparentes.
Las extensiones de los navegadores son muy usadas. Foto: Shutterstock
Las extensiones de inteligencia artificial para Chrome, Edge y otros navegadores crecieron en popularidad en los últimos meses. Herramientas como ChatGPT, Copilot, Merlin o Monica prometen asistencia en búsquedas, resúmenes automáticos y respuestas inmediatas.
Vale recordar que las extensiones son pequeños programas que se instalan en el navegador para sumar funciones extra: desde bloquear publicidades hasta traducir páginas o, en este caso, incorporar inteligencia artificial directamente en la navegación.
Para poder operar, suelen pedir permisos amplios de acceso a los contenidos que ves en pantalla, y es justamente en ese margen donde se abren las mayores preocupaciones sobre privacidad.
Sin embargo, lo que se plantea como un beneficio de productividad encierra un costo invisible: la pérdida de control sobre la privacidad. Para funcionar, muchas de estas extensiones solicitan permisos amplios al navegador y luego hacen un uso extensivo de esa autorización, accediendo a más información de la necesaria para cumplir su función principal.
De acuerdo con los expertos, esto significa que una persona que solo busca resumir un texto académico o traducir un documento puede estar exponiendo sin saberlo todo lo que tiene abierto en su navegador: desde correos electrónicos personales hasta sesiones bancarias o historiales médicos.
La facilidad con la que estas extensiones se instalan también contribuye al problema. A diferencia de las aplicaciones tradicionales, los complementos para navegadores no siempre pasan por procesos estrictos de auditoría en las tiendas oficiales, lo que deja espacio para que proliferen prácticas abusivas en el manejo de datos.
DeepSeek sacudió el mundo de la IA con el lanzamiento de su sistema de bajo costo. Foto: New York Times
Entre los casos más llamativos, la extensión Merlin capturaba incluso datos de formularios online, como credenciales financieras o de salud. Sider y TinaMind, por su parte, compartían consultas de los usuarios y direcciones IP con plataformas externas como Google Analytics, lo que permitía el rastreo publicitario entre sitios.
La investigación reveló también que algunos de estos complementos combinaban información sensible con identificadores persistentes. Esto significa que los datos podían ser asociados a un mismo perfil de usuario a lo largo del tiempo, lo que multiplica los riesgos de exposición en caso de filtraciones o ventas a terceros.
ChatGPT para Chrome, Copilot de Microsoft y Monica fueron señalados por registrar atributos como edad, sexo, ingresos e intereses, datos que luego utilizaban para personalizar las respuestas en distintas sesiones de navegación. Según los investigadores, esta práctica muestra cómo la lógica de la publicidad segmentada empieza a infiltrarse en el ecosistema de la inteligencia artificial.
“Estos asistentes ofrecen un acceso sin precedentes al comportamiento en línea de los usuarios en áreas de su vida que deberían permanecer privadas”, explicó Anna Maria Mandalari, investigadora principal del UCL.
La especialista advirtió que la normalización de estas prácticas puede terminar erosionando la confianza del público en las herramientas de IA, aun en aquellas que cumplen con las regulaciones de privacidad.
Perplexity, el buscador con IA. Foto: Reuters
La revisión identificó solo un caso sin evidencias de recopilación abusiva de datos: la extensión de Perplexity AI. Según el informe, este servicio no mostró prácticas de transmisión de información sensible ni rastreo oculto de los usuarios.
Los investigadores destacaron que, al menos en las pruebas realizadas, Perplexity se limitó a ofrecer resultados de búsqueda sin capturar más información de la estrictamente necesaria.
Esto no significa, sin embargo, que Perplexity esté libre de críticas. Algunos expertos remarcan que el hecho de no haber detectado prácticas abusivas en este estudio puntual no garantiza que no puedan aparecer en el futuro, dado que las políticas de privacidad y los modelos de negocio de las empresas tecnológicas suelen cambiar con rapidez.
Para Mandalari, el problema va más allá de la publicidad dirigida: “Una vez que la información se recopila, no sabemos a dónde va a parar ni si terminará en manos de redes ilícitas que usen nuestras credenciales para delinquir”.
En su opinión, la falta de transparencia y la complejidad técnica hacen que sea casi imposible para un usuario promedio comprender qué ocurre con sus datos en estos entornos.
El estudio vuelve a poner en el centro el debate sobre privacidad digital y transparencia, en un contexto en el que cada vez más herramientas de IA se integran a la vida cotidiana a cambio de un precio difícil de medir: nuestros datos personales.
Para los investigadores, la solución pasa por regulaciones más estrictas, auditorías independientes y, sobre todo, por informar con claridad a los usuarios sobre los riesgos de las tecnologías que adoptan.
Clarin