La privacidad y los derechos se ven amenazados por las tecnologías de vigilancia.

Ciudades con cámaras en cada esquina, electrodomésticos que nos escuchan, redes sociales que recopilan y venden nuestros datos, plataformas que explotan la inteligencia artificial para crear imágenes pornográficas de personas famosas: estos no son los escenarios de las series policiacas , sino la transposición de la realidad digital e interconectada en la que vivimos. Los nuevos niveles de exposición a los que nos conducen la inteligencia artificial, los dispositivos de seguridad y el cibercrimen son asuntos que deben ser monitoreados, ya que la privacidad y los derechos de millones de personas están en juego.
En lo que respecta a cámaras de vídeo y sistemas de reconocimiento facial, China es sin duda uno de los países líderes. Su infraestructura de vigilancia con inteligencia artificial, diseñada para la vigilancia masiva y el mantenimiento de la «estabilidad social», no es, sin embargo, la única en el mundo que opera con estos fines. Estados Unidos, Israel, Hungría, Turquía, Rusia, Japón y Corea del Sur están igualmente comprometidos en este ámbito, y las empresas estadounidenses , en primer lugar, desempeñan un papel clave en el suministro del hardware que sustenta estos sistemas de vigilancia inteligente. No obstante, todo el sector de la videovigilancia está experimentando una transformación, como lo confirma un reciente estudio global realizado por la empresa estadounidense Axis Communications.
Para más del 60 % de los expertos del sector, la IA y la IA generativa definirán significativamente el futuro de la industria en términos de seguridad, inteligencia empresarial (gracias al uso de datos sensoriales además de fuentes de vídeo) y eficiencia operativa. ¿Qué factores incrementarán la importancia y el impacto de los algoritmos y modelos de aprendizaje automático? El informe destaca dos elementos en particular: la acelerada transición a arquitecturas híbridas, que combinan las capacidades de procesamiento instantáneo basadas en cámaras de la IA en el borde con la escalabilidad a largo plazo de la nube, y el creciente uso de sistemas de reconocimiento facial, respaldado por regulaciones que buscan regular su aplicación de manera ética (al menos en teoría).
En Estados Unidos, la videovigilancia inteligente es un tema controvertido, reflejo de un enfoque fragmentado en la regulación de la privacidad (en gran medida en manos de cada estado) y un debate público que desde hace tiempo busca un equilibrio entre la necesidad de seguridad (especialmente en la prevención del delito y el terrorismo) y el riesgo de una posible militarización de la vigilancia. En este contexto, Nueva York se ha convertido en un ejemplo paradigmático del uso generalizado de cámaras de circuito cerrado de televisión equipadas con tecnología de reconocimiento facial (se estima que hay más de 25.000 instaladas, la mayoría en funcionamiento en los distritos de Brooklyn y el Bronx) para proteger el orden público y prevenir el delito. Las consecuencias para los derechos individuales son bien conocidas, al igual que la Autoridad Italiana de Protección de Datos, que intervino recientemente para multar a Clearview AI, una empresa que proporciona a las fuerzas del orden de todo el mundo una vasta base de datos de información recopilada a través de internet para cotejarla con imágenes captadas por cámaras y buscar coincidencias entre personas ya conocidas por la policía y posibles delincuentes reincidentes.
«El riesgo de abuso», explica Andrea Baldrati, socia fundadora de BSD Legal y fundadora de Privacy Week, «reside en la recopilación de datos sin el conocimiento de las personas y su agregación mediante sistemas algorítmicos para crear un perfil individual. Esto también puede ocurrir en contextos bélicos: se sabe, por ejemplo, que el ejército israelí lleva años utilizando aprendizaje automático, y recientemente modelos LLM, para monitorizar a las personas y su comportamiento. Esto abre la puerta a un uso indiscriminado de la tecnología que socava uno de los principios de la democracia: la presunción de inocencia y la protección frente a acusaciones de culpabilidad por un delito aún no cometido». En Europa, sin embargo, el caso más llamativo es el de Hungría, que la primavera pasada aprobó nuevas leyes (que en la práctica contradicen la Ley de Inteligencia Artificial) para ampliar el uso de la tecnología de reconocimiento facial y permitir la vigilancia de personas que asisten a manifestaciones pacíficas que no son del agrado del gobierno central, como las marchas del Orgullo LGBTQ+.
ilsole24ore



