Sydney Sweeney, ¿tu nueva profe de mates por IA?

Un clon digital de Sydney Sweeney explicando matemáticas se ha vuelto viral, desatando un debate sobre los límites de la IA. ¿Es un uso educativo inofensivo o una peligrosa violación de la identidad? Te explicamos la tecnología y sus consecuencias.
Recientemente, las redes sociales, en particular TikTok, se han visto inundadas por una serie de videos que muestran a la popular actriz Sydney Sweeney en un rol inesperado: como profesora de matemáticas. En los clips, distribuidos por la cuenta @onclocklearning, un clon digital de la actriz explica conceptos matemáticos de una manera amena y accesible. El realismo de estos videos es tan sorprendente que para muchos usuarios resulta difícil distinguir si el contenido es auténtico o una creación artificial.
La tecnología detrás de este fenómeno es el ‘deepfake’, una técnica de inteligencia artificial que utiliza el aprendizaje profundo para superponer imágenes y videos existentes sobre otros. Mediante modelos de aprendizaje automático, se imita no solo la apariencia física, sino también la voz, el tono y los gestos faciales de una persona, logrando un resultado extraordinariamente verosímil.
En este caso particular, el contenido se presenta con un propósito aparentemente educativo e inofensivo, lo que ha generado un intenso debate. Mientras algunos espectadores afirman haber entendido por fin conceptos que se les resistían, otros cuestionan la ética de utilizar la imagen de una celebridad sin su consentimiento, aunque sea para un fin «amable». Este caso se convierte en un ejemplo perfecto de cómo una tecnología puede ser percibida de formas radicalmente opuestas, abriendo una conversación crucial sobre sus límites.
El caso de Sydney Sweeney, con su fachada educativa, puede parecer un uso lúdico de la tecnología, pero es solo la punta del iceberg. La misma tecnología se está utilizando para fines mucho más oscuros y sin el consentimiento de los implicados, lo que ha llevado a acciones legales y denuncias públicas.
Un ejemplo contundente es el de la actriz Scarlett Johansson, quien emprendió acciones legales después de que su imagen fuera utilizada en un video deepfake con fines ideológicos sin su autorización. En una declaración a Vanity Fair, Johansson advirtió: «Debemos denunciar el mal uso de la IA, independientemente de su mensaje o corremos el riesgo de perder el contacto con la realidad».
De manera similar, la cantante Céline Dion denunció públicamente imitaciones de su voz creadas con IA, calificando las grabaciones de «falsas y no aprobadas». Estos casos demuestran el creciente problema del uso no consentido de la identidad de figuras públicas.
El potencial dañino de esta tecnología se manifiesta de forma aún más alarmante en casos como el ocurrido en Almendralejo, España, donde se utilizó una aplicación para crear imágenes de desnudos falsos de niñas menores de edad, evidenciando cómo el deepfake puede ser una herramienta para la violencia sexual.
El conflicto también ha llegado al ámbito laboral. El sindicato de actores de Hollywood, SAG-AFTRA, denunció a Epic Games, la empresa detrás del popular videojuego Fortnite, por recrear la voz del icónico personaje Darth Vader utilizando IA sin la negociación correspondiente con los actores de voz, sentando un precedente sobre la protección de los derechos laborales en la era digital.
La rápida evolución de la tecnología deepfake ha dejado a la legislación muy por detrás. Actualmente, existe un significativo vacío legal en la mayoría de los países, lo que dificulta la protección de las víctimas y la sanción a los responsables.
En Estados Unidos, se han comenzado a tomar medidas. Leyes como la TAKE IT DOWN Act, aprobada en 2025, buscan facilitar la eliminación de contenido íntimo no consensuado y deepfakes. Además, estados como California y Texas han aprobado legislaciones que criminalizan la creación de deepfakes con fines maliciosos, como la interferencia electoral o la pornografía no consentida.
Sin embargo, fuera de estas jurisdicciones, la protección es escasa. En América Latina y muchas otras partes del mundo, no existen marcos legales específicos para abordar este problema, dejando a los ciudadanos en una situación de alta vulnerabilidad frente a la manipulación de su identidad digital.
«Los deepfakes […] podrían causar angustia y efectos negativos a los destinatarios, aumentar la desinformación y el discurso de odio, e incluso podrían estimular la tensión política, inflamar al público, la violencia o la guerra».
Aunque los casos de celebridades son los que acaparan los titulares, los riesgos de la tecnología deepfake afectan a cualquier persona. El uso malicioso de la IA puede llevar a graves violaciones de la privacidad, campañas de difamación, acoso y estafas a gran escala.
Las herramientas de IA generativa pueden ser utilizadas para crear desnudos falsos y cometer delitos de «sextorsión», donde se amenaza a las víctimas con publicar imágenes manipuladas si no cumplen con ciertas demandas. También se pueden usar para suplantar la identidad en fraudes financieros o para crear pruebas falsas en disputas legales.
El problema fundamental que destapa el fenómeno deepfake es el colapso de la confianza contextual. Hasta ahora, un video o un audio eran considerados pruebas relativamente fiables de que algo ocurrió. Sin embargo, estamos entrando en una era de «realidad falsificable», donde ya no podremos confiar en lo que vemos y oímos sin una verificación externa rigurosa. Esto no solo impacta las noticias y la política, sino también las relaciones personales, los acuerdos comerciales y la seguridad jurídica en su conjunto. La amenaza no es solo la «noticia falsa», sino la erosión de la propia realidad como un concepto verificable
Recientemente, las redes sociales, en particular TikTok, se han visto inundadas por una serie de videos que muestran a la popular actriz Sydney Sweeney en un rol inesperado: como profesora de matemáticas. En los clips, distribuidos por la cuenta @onclocklearning, un clon digital de la actriz explica conceptos matemáticos de una manera amena y accesible. El realismo de estos videos es tan sorprendente que para muchos usuarios resulta difícil distinguir si el contenido es auténtico o una creación artificial.
La tecnología detrás de este fenómeno es el ‘deepfake’, una técnica de inteligencia artificial que utiliza el aprendizaje profundo para superponer imágenes y videos existentes sobre otros. Mediante modelos de aprendizaje automático, se imita no solo la apariencia física, sino también la voz, el tono y los gestos faciales de una persona, logrando un resultado extraordinariamente verosímil.
En este caso particular, el contenido se presenta con un propósito aparentemente educativo e inofensivo, lo que ha generado un intenso debate. Mientras algunos espectadores afirman haber entendido por fin conceptos que se les resistían, otros cuestionan la ética de utilizar la imagen de una celebridad sin su consentimiento, aunque sea para un fin «amable». Este caso se convierte en un ejemplo perfecto de cómo una tecnología puede ser percibida de formas radicalmente opuestas, abriendo una conversación crucial sobre sus límites.
El caso de Sydney Sweeney, con su fachada educativa, puede parecer un uso lúdico de la tecnología, pero es solo la punta del iceberg. La misma tecnología se está utilizando para fines mucho más oscuros y sin el consentimiento de los implicados, lo que ha llevado a acciones legales y denuncias públicas.
Un ejemplo contundente es el de la actriz Scarlett Johansson, quien emprendió acciones legales después de que su imagen fuera utilizada en un video deepfake con fines ideológicos sin su autorización. En una declaración a Vanity Fair, Johansson advirtió: «Debemos denunciar el mal uso de la IA, independientemente de su mensaje o corremos el riesgo de perder el contacto con la realidad».
De manera similar, la cantante Céline Dion denunció públicamente imitaciones de su voz creadas con IA, calificando las grabaciones de «falsas y no aprobadas». Estos casos demuestran el creciente problema del uso no consentido de la identidad de figuras públicas.
El potencial dañino de esta tecnología se manifiesta de forma aún más alarmante en casos como el ocurrido en Almendralejo, España, donde se utilizó una aplicación para crear imágenes de desnudos falsos de niñas menores de edad, evidenciando cómo el deepfake puede ser una herramienta para la violencia sexual.
El conflicto también ha llegado al ámbito laboral. El sindicato de actores de Hollywood, SAG-AFTRA, denunció a Epic Games, la empresa detrás del popular videojuego Fortnite, por recrear la voz del icónico personaje Darth Vader utilizando IA sin la negociación correspondiente con los actores de voz, sentando un precedente sobre la protección de los derechos laborales en la era digital.
La rápida evolución de la tecnología deepfake ha dejado a la legislación muy por detrás. Actualmente, existe un significativo vacío legal en la mayoría de los países, lo que dificulta la protección de las víctimas y la sanción a los responsables.
En Estados Unidos, se han comenzado a tomar medidas. Leyes como la TAKE IT DOWN Act, aprobada en 2025, buscan facilitar la eliminación de contenido íntimo no consensuado y deepfakes. Además, estados como California y Texas han aprobado legislaciones que criminalizan la creación de deepfakes con fines maliciosos, como la interferencia electoral o la pornografía no consentida.
Sin embargo, fuera de estas jurisdicciones, la protección es escasa. En América Latina y muchas otras partes del mundo, no existen marcos legales específicos para abordar este problema, dejando a los ciudadanos en una situación de alta vulnerabilidad frente a la manipulación de su identidad digital.
«Los deepfakes […] podrían causar angustia y efectos negativos a los destinatarios, aumentar la desinformación y el discurso de odio, e incluso podrían estimular la tensión política, inflamar al público, la violencia o la guerra».
Aunque los casos de celebridades son los que acaparan los titulares, los riesgos de la tecnología deepfake afectan a cualquier persona. El uso malicioso de la IA puede llevar a graves violaciones de la privacidad, campañas de difamación, acoso y estafas a gran escala.
Las herramientas de IA generativa pueden ser utilizadas para crear desnudos falsos y cometer delitos de «sextorsión», donde se amenaza a las víctimas con publicar imágenes manipuladas si no cumplen con ciertas demandas. También se pueden usar para suplantar la identidad en fraudes financieros o para crear pruebas falsas en disputas legales.
El problema fundamental que destapa el fenómeno deepfake es el colapso de la confianza contextual. Hasta ahora, un video o un audio eran considerados pruebas relativamente fiables de que algo ocurrió. Sin embargo, estamos entrando en una era de «realidad falsificable», donde ya no podremos confiar en lo que vemos y oímos sin una verificación externa rigurosa. Esto no solo impacta las noticias y la política, sino también las relaciones personales, los acuerdos comerciales y la seguridad jurídica en su conjunto. La amenaza no es solo la «noticia falsa», sino la erosión de la propia realidad como un concepto verificable.
La Verdad Yucatán