Los "deepfakes" pueden ser un delito: enseñar conocimientos sobre IA puede prevenirlo
La mejor defensa contra el abuso de la inteligencia artificial es la regulación y la educación.
Imagina que tienes 14 años. Como cualquier otra chica de tu edad, vas al colegio, haces deporte y sales con tus amigos. Lo que más te estresa es el ensayo que tienes que entregar la semana que viene, hasta que una mañana te despiertas y recibes mensajes de tus amigos preguntándote lo mismo:
¿Has visto la foto tuya desnuda en Snapchat?
Y así, sin más, tu mundo se pone patas arriba.
Esto le ocurrió a Elliston Berry hace dos años. Nunca se había hecho una foto desnuda, pero una compañera de clase había utilizado inteligencia artificial para "desnudar" una foto de su Instagram. Como dijo su madre: "La inocencia de mi hija se hizo añicos y sus ojos se abrieron a la realidad de lo cruel que puede ser una persona".
Crear un deepfake solía requerir conocimientos técnicos y herramientas específicas; hoy, cualquiera con una conexión a Internet puede utilizar la IA para convertir una foto en una imagen desnuda.
Con cada vez más niños que utilizan la IA para la escuela, los pasatiempos y el entretenimiento, la tecnología está redefiniendo la forma en que mi generación aprende e interactúa entre sí en todo el país. Pero a medida que la IA se hace más fácil de usar, también se hace más fácil abusar de ella. Como prueba, basta con ver el aumento de los deepfakes: Imágenes generadas por IA, a menudo explícitas, que se parecen a personas reales.
Aunque la creación de este tipo de contenido solía requerir conocimientos técnicos y herramientas especializadas, hoy en día cualquiera con una conexión a Internet puede utilizar la IA para convertir cualquier foto de anuario, selfies, fotos de las redes sociales... en una imagen de desnudo. De hecho, hay un inquietante número de aplicaciones disponibles para hacer precisamente esto. Se las conoce como aplicaciones de "nudificación", y con frecuencia se anuncian incluso a menores en plataformas convencionales como las de Meta, que son responsables del 90% del tráfico web a estas inquietantes herramientas. En respuesta, el Congreso aprobó recientemente la Ley TAKE IT DOWN, una legislación histórica que ayuda a las víctimas a eliminar el contenido explícito no consentido (tanto auténtico como generado por IA) de las plataformas de medios sociales. Esta legislación es un paso fundamental hacia la protección de los jóvenes, pero también es indicativa de la gravedad del problema.
Aunque las imitaciones no consentidas de celebridades como Taylor Swift han saltado a los titulares e incluso se han utilizado en anuncios de estas aplicaciones, este problema tiene repercusiones de mayor alcance para las personas normales que carecen de recursos para luchar contra estas burdas invasiones de la intimidad en Internet y en los tribunales. A principios de este año, un miembro descontento del personal de un colegio de Maryland hizo circular supuestamente un deepfake generado por IA del director profiriendo insultos racistas. No se trataba sólo de una broma, sino de un ataque con IA contra la carrera y la reputación de un colega. En otro incidente, alumnos de un instituto de Nueva Jersey utilizaron IA para crear y publicar imágenes de desnudos de sus compañeros. En Nueva York, unos chicos crearon pornografía con IA de una chica de su clase. Se han producido incidentes similares en Texas, Luisiana, Washington y otros lugares, y trágicamente, más de la mitad de las víctimas eran menores de 18 años. La militarización de la IA es un nuevo tipo de violencia, y no requiere que la víctima haya tomado o compartido nunca una foto explícita. El dicho "si no quieres que se filtre una foto, no la hagas" ya no se aplica. Cualquiera que haya publicado alguna vez una foto suya es una víctima potencial.
Al aprobar la Ley TAKE IT DOWN, el Congreso ha dado un primer paso importante para abordar esta crisis. La ley tipifica como delito publicar deepfakes sin consentimiento y exige a las empresas de redes sociales que retiren estas imágenes de sus plataformas en un plazo de 48 horas. En el mundo digital actual, donde las imágenes pueden hacerse virales en cuestión de segundos y vivir en Internet para siempre, cada segundo cuenta, y al exigir a las empresas que actúen, la ley proporciona un mecanismo para que las víctimas recuperen el control.
Es posible que muchos jóvenes no se den cuenta de que "trastear" con herramientas de IA para generar desnudos falsos de compañeros de clase u otras personas puede traspasar los límites legales, con consecuencias que alteran la vida.
Según la ley, los menores que creen imágenes altamente realistas y no consentidas de otros menores -ya sea mediante deepfakes de IA o con herramientas tradicionales de edición fotográfica como Photoshop- que muestren desnudos o simulen contenido sexual, podrían estar sujetos a las mismas penas que los delincuentes adultos, que incluso podrían incluir cargos por creación, posesión o distribución de material de abuso sexual infantil, dependiendo de la naturaleza del contenido.
Es posible que muchos jóvenes no se den cuenta de que "trastear" con herramientas de IA para generar desnudos falsos de compañeros de clase u otras personas puede traspasar los límites legales, con consecuencias que alteren sus vidas. Además de proteger a los chavales de las violaciones de la privacidad permitidas por la IA, también tenemos que asegurarnos de que entienden las consecuencias éticas, legales y emocionales del uso irresponsable de la IA; ahí es donde entra en juego la alfabetización en IA. Enseñar a los jóvenes cómo funcionan estas herramientas, de qué son capaces y las consecuencias reales de su uso indebido es esencial para la prevención. Sin esa base, se les deja navegar por una tecnología poderosa sin comprender apenas los riesgos.
Aunque algunos estados han empezado a integrar la alfabetización en IA en los planes de estudios escolares, dista mucho de ser universal. Esto significa que la responsabilidad no puede recaer únicamente en los educadores: todos tenemos un papel que desempeñar. Deberíamos hablar abiertamente de estas herramientas, de cómo se utilizan y de cómo pueden causar daños. La aprobación de la Ley TAKE IT DOWN es un paso importante, pero es sólo eso: un paso. Fomentar el uso seguro de la IA no consiste sólo en regular las plataformas o castigar a los infractores, sino en garantizar que los niños tengan los conocimientos necesarios para mantenerse a salvo en una era digital en la que hay más en juego que nunca.

Common Sense Media offers the largest, most trusted library of independent age-based ratings and reviews. Our timely parenting advice supports families as they navigate the challenges and possibilities of raising kids in the digital age.