«Los proveedores de IA explotan la usabilidad de las interfaces»

Esta semana se celebraron dos eventos dedicados a la protección y el vulneración de datos personales: el Día del RGPD, en Bolonia, centrado en el cumplimiento normativo (desde la Ley de IA hasta la NIS2), y la Semana de la Privacidad (que se extiende hasta el viernes 31 de octubre de 2025), un encuentro en Milán que reunió a varios expertos para debatir la posible colaboración entre humanos e inteligencia artificial, respetando la privacidad, la ética y la normativa. El tema es delicado y complejo, ya que muchos factores influyen en nuestra vida digital, desde las ventajas de usar nuestros datos digitales hasta el hecho de que estas ventajas conllevan riesgos cuando aceptamos (sin leer) los términos y condiciones de una aplicación o usamos dispositivos inteligentes de forma descuidada en casa o en el coche; contextos en los que la concienciación sobre los peligros (y, con ella, las medidas de protección) disminuye, dejando vías de escape para los ciberdelincuentes.
Los riesgos a los que estamos expuestos son diversos, desde amenazas conocidas como el ransomware y el spyware hasta amenazas más sofisticadas como los deepfakes y el deep voice , que son montajes fotográficos y de audio avanzados capaces de suplantar la identidad de otra persona. También incluyen el llamado « sharenting », la difusión de contenido de menores por parte de los padres. El hogar inteligente , paradójicamente, se está convirtiendo en un lugar donde podemos ser espiados a través de los mismos dispositivos ( principalmente cámaras de vigilancia, pero también asistentes digitales, televisores y otros dispositivos conectados) que se supone que deberían garantizarnos mayor seguridad o, al menos, un mejor estilo de vida. Además, está, por supuesto, el tema del reconocimiento facial en lugares públicos y los sistemas de vigilancia predictiva basados en inteligencia artificial: la Ley de IA, salvo un cambio radical, debería impedir su uso en la UE durante mucho tiempo.
Guido Scorza, miembro del panel de la Autoridad Italiana de Protección de Datos (Garante della Privacy), fue uno de los ponentes en el evento de Bolonia y, en una entrevista con Il Sole 24 Ore, analizó el progreso de dos marcos regulatorios clave en materia de privacidad: la Ley de Inteligencia Artificial (AI Act) y el RGPD. «Aunque convergen», explicó, «ambas regulaciones abordan áreas diferentes y buscan garantizar que las personas que viven en Europa disfruten del respeto de sus derechos y libertades fundamentales en una sociedad de datos y algoritmos. Desafortunadamente, no hemos llegado a donde deberíamos estar y, por lo tanto, no podemos hablar de una protección completa de la privacidad, ya que la existencia de normas es un requisito necesario, pero no suficiente, para regular el impacto de la inteligencia artificial en la sociedad».
Por lo tanto, no faltan cuestiones críticas en torno a este tema, y resulta evidente que aún queda mucho camino por recorrer para evitar el riesgo, señalado por Scorza, de que la tecnocracia se imponga a la democracia. De hecho, no cabe duda de que las grandes tecnológicas, los proveedores de servicios de IA y los fabricantes de domótica recopilan miles de millones de datos sobre el comportamiento digital de las personas, lo que abre la puerta al espionaje o, al menos, a la complicidad en un sistema de elaboración de perfiles con objetivos que pueden ir más allá del mero beneficio económico. ¿Cómo podemos abordar este problema? «La herramienta más eficaz para resistir el capitalismo de vigilancia y la vigilancia del capitalismo», explica el experto, «es invertir en la educación de las personas sobre el uso consciente de estas tecnologías y concienciar a todos sobre sus normas y derechos. Sin embargo, incluso en este caso, nos estamos quedando atrás, y en Italia, más que en el resto de Europa, ocupamos el antepenúltimo lugar en cuanto a alfabetización digital básica».
Scorza destaca otro punto clave, relativo a los proveedores de servicios de IA, «que abusan de la usabilidad de sus interfaces, convenciéndonos de que son tan fáciles de usar que podemos hacerlo de forma despreocupada y sin pensar, sin preocuparnos demasiado por las implicaciones para la privacidad». La referencia explícita es a OpenAI y otros actores en el campo de la IA generativa, una herramienta mediante la cual «cada usuario revela mucha información personal a las empresas que prestan estos servicios».
ilsole24ore
%2520Is%252075%2525%2520Off%2520at%2520The%2520Home%2520Depot.png&w=3840&q=100)



