Garante, detengan a Clothoff, la aplicación que desnuda a la gente

La Autoridad Italiana de Protección de Datos ha ordenado urgente e inmediatamente la restricción temporal del tratamiento de datos personales de usuarios italianos por parte de una empresa con sede en las Islas Vírgenes Británicas que opera la aplicación Clothoff, que permite desnudar a personas. Esta aplicación pertenece a las llamadas "apps de desnudez" o deepnude, una subcategoría de los deepfakes, imágenes falsas creadas artificialmente por IA que son muy difíciles de distinguir de las reales. Las apps de desnudez pueden mostrar una imagen falsa de un cuerpo desnudo, predominantemente de mujeres, para su uso en contenido sexual de cualquier tipo, incluida la pornografía. Muchos de estos sitios también permiten que la imagen generada por IA se muestre en posiciones sexualmente explícitas o realizando actos eróticos reales. Una persona puede ser "desnudada" artificialmente o su rostro puede ser insertado en el cuerpo de otra persona representada en cualquier situación sexual. En resumen, estamos hablando de la nueva frontera del abuso digital. Incluso en el caso de Clothoff, la Autoridad explica hoy que ofrece "un servicio de IA generativa que permite, de forma gratuita y con pago, la generación de imágenes de 'desnudos profundos', es decir, fotos y vídeos falsos que muestran a personas reales en poses desnudas, sexualmente explícitas o incluso pornográficas", continúa la Autoridad. "La aplicación permite a cualquier persona, incluidos menores de edad, crear fotografías y vídeos a partir de imágenes, incluso de menores, sin ningún medio para verificar el consentimiento de la persona retratada y sin ninguna advertencia sobre la naturaleza artificial de las fotos y los vídeos", explica la Autoridad. Además, los menores, incluso niños, y las mujeres son las víctimas más frecuentes de este tipo de falsificación de imágenes, un procedimiento que, según la Autoridad, genera una "verdadera alarma social". Por ejemplo, el año pasado, menores fueron objeto de una denuncia contra Bikinioff, otra aplicación de desnudos profundos, y posteriormente fueron investigados por acoso sexual tras tomar fotos de dos compañeras de clase y publicarlas en la aplicación. En este caso, como suele ocurrir, las fotos se compartieron a través del chat y las redes sociales y, en cuestión de horas, se viralizaron en el centro de Latina. Esta práctica, sumada al creciente número de noticias en los últimos meses sobre imágenes privadas e íntimas compartidas repetidamente en línea contra la voluntad de los sujetos, ha provocado un aumento de casos. Tanto es así que algunos países, como Gran Bretaña y Australia, ya han iniciado leyes contra este fenómeno. Algunas plataformas, como la propia Meta, han anunciado acciones legales contra estas aplicaciones, que luego explotan Facebook o Instagram para publicidad. Obviamente, el fenómeno tampoco pasa desapercibido en Italia. Alberto Barachini, subsecretario de la Presidencia del Consejo de Ministros responsable de información y publicaciones, al comentar la aprobación del proyecto de ley de IA del gobierno por parte del Senado en los últimos días, explicó: «La legislación italiana ahora complementa la Ley Europea de IA, ofreciendo a nuestro país salvaguardias innovadoras a nivel mundial, como el delito de deepfake, que, dados los últimos acontecimientos noticiosos de gran gravedad, es más necesario que nunca». Hoy, el bloqueo por parte del Garante, que no obstante ha iniciado una investigación para combatir todas las aplicaciones de desnudos, "se ha vuelto necesario", explica la autoridad, "debido a los altos riesgos que estos servicios pueden suponer para los derechos y libertades fundamentales, en particular para la protección de la dignidad humana, el derecho a la privacidad y la protección de los datos personales de quienes participan en este tipo de tratamiento, especialmente si se trata de menores. Esto lo confirman numerosas noticias italianas recientes, que muestran cómo se está extendiendo el abuso de estas imágenes artificiales, generando una verdadera alarma social".
ansa