Las nuevas herramientas hacen que la generación de contenidos falsos para adultos, sin consentimiento de la víctima, sea más fácil que nunca.
Johanna Villalobos es una conocida periodista, influencer y creadora de contenidos de Costa Rica, que esta semana fue víctima de un cuestionable uso de la tecnología. La joven denunció que una fotografía suya que se hizo viral en grupos de WhatsApp, en la que se la ve desnuda, es falsa y fue creada con inteligencia artificial.
“Alguien agarró una foto mía en la playa, que yo había subido a Instagram, le metieron inteligencia artificial… y me quitaron la ropa”, explico Villalobos en un video publicado en su cuenta de Twitter. Y agregó: “Es mi cara, pero no es mi cuerpo”,
El caso de Villalobos pone de manifiesto un tema que no es nuevo, pero que volvió a ser materia de debate y preocupación: el uso sin consentimiento de imágenes de celebridades para generar contenido falso para adultos.
Desde la aparición del Photoshop y la llegada al público masivo de programas de manipulación de imágenes, las fotos fake de famosos son moneda corriente en internet, en sitios y foros para adultos. Sin embargo, para generar esas escenas (e inclusive videos apócrifos) era necesario contar con algunos conocimientos mínimos sobre los software de edición.
Con el advenimiento de las herramientas de inteligencia artificial, esta tarea inmoral se ha vuelto mucho más rápida y sencilla. Y casi está al alcance de cualquiera con acceso a la red.
Este tipo de aplicaciones se ha desarrollado a tal punto de ser capaz de crear, no solamente piezas inéditas, sino que los más básicos generadores de imágenes ya pueden componer imágenes hiperrealistas falsas. Los ejemplos sobran: fotos del expresidente de Estados Unidos siendo arrestado, los virales del papa Francisco vistiendo ropa de diseñador y un camperón blanco, y ahora, el desnudo de la influencer de Costa Rica
Más allá de probar las herramientas de inteligencia artificial, llevarlas hasta lo imposible y sorprendernos con los resultados, su uso plantea de nuevo el dilema moral de si está bien compartir fotos falsas de personas reales.
Actualmente, la imagen tiene un poder sin precedentes. Sumado a los problemas de derechos, uso indebido de imágenes personales y demás cuestiones ligadas a la intimidad y dignidad de las personas, no son pocos quienes temen que la inteligencia artificial se convierta en una herramienta que sirva a la desinformación.
El desafió está planteado. La solución debería llegar desde el mismo sector: el problema lo deberá resolver la tecnología, para evitar que se llegue al punto en que no se pueda distinguir entre lo que es real y lo que no.
Por Rodrigo Álvarez_ TN