La facilidad para crear imágenes desde cero abrió el debate respecto al uso “peligroso” de la IA, definida como “un desafío existencial” para la humanidad.
El desarrollo de la inteligencia artificial (IA) permitió la creación de imágenes ultrarrealistas desde cero, a partir de herramientas fáciles de usar que están al alcance de todos. Esto favoreció a los propagadores de noticias falsas (“fake news”), una práctica peligrosa y extendida en la era de la información, como también a internautas que las utilizan para hacer memes.
En el ciberespacio se puede apreciar una versión del papa Francisco con una campera blanca o un traje negro bailando en un boliche. A Donald Trump detenido por agentes de policía o cumpliendo tiempo en prisión con el típico traje naranja de las cárceles estadounidenses (según Hollywood). También a un anciano con la cara ensangrentada luego de ser reprimido en una protesta contra la reforma previsional impulsada por el presidente de Francia, Emmanuel Macron.
A pesar de lo impactante que resulta la veracidad de las imágenes a simple vista, fueron creadas desde cero con programas que pueden crear un número infinito de imágenes, incluso de seres humanos que no existen, basados en una base de datos conformada por los pedidos de los usuarios y las combinaciones que se generan en consecuencia.
El nivel realismo que reflejan las imágenes a veces puede resultar confuso para algunos, en especial cuando están relacionadas a asuntos delicados para la opinión pública o cuestiones de política partidaria. Esto abre una puerta peligrosa a la expansión de la desinformación, que puede ser solventada únicamente al aprender a identificar estas imágenes.
Cómo detectar imágenes creadas con IA
Existen programas como Midjourney, DALL-E o Stable Diffusion que por lo sencillas se volvieron populares entre los internautas. Alcanza con escribir en un buscador las características de la imagen deseada para que el algoritmo genere una nueva imagen a partir de millones de imágenes de sus bases de datos, píxel a píxel.
Por ejemplo, el usuario de Twitter Eliot Higgins le pidió al software una imagen de Donald Trump simulando que es detenido por la policía, algo que nunca ocurrió. Lo hizo “mientras esperaba” a que el expresidente estadounidense compareciera ante un juez de Nueva York, donde quedó técnicamente detenido y fue imputado penalmente por falsificación de registros comerciales.
Si bien el resultado impacta por lo realista, hay algunos detalles que indican que no es una imagen real. Por ejemplo, puede haber marcas de agua que identifican a los software que crearon la imagen, como en el caso de DALL-E un rectángulo multicolor.
Sin embargo, estos detalles pueden ser eliminados por usuarios que quieran simular que la imagen es real. Para verificar la imagen, un usuario puede volver a buscarla en la barra de búsqueda para recuperar sus apariciones anteriores hasta la fuente original.
La importancia de los detalles
Otra forma de detectar imágenes falsas es prestando atención a los detalles. Las imágenes de IA por ejemplo no suelen reflejar adecuadamente reflejos o sombras. En general los fondos son genéricos y se suelen ver borrosos, el punto de grano de la imagen es distinto al de la realidad (parece mas una escena cinematográfica). Además, si en la imagen hay un texto, no suele tener sentido.
En el caso de Donald Trump, se ve que lo que está escrito en las gorras de los policías no tiene sentido. Otro detalle es que el magnata tiene una porra enganchada a su pantalón, como si fuese un policía mas.
“Hay que encontrar las incoherencias en los detalles. A menudo son fotos que, a primera vista, son muy realistas, pero cuando las miras más de cerca, suele haber problemas. Los textos son problemáticos, porque la IA no puede generarlos bien. Otra pista son las caras del fondo, que están bastante mal hechas. Son caras borrosas, no completamente formadas”, analizó Lise Kiennemann, periodista del área de verificación de información de la agencia AFP.
No es un dato menor mirar los rostros de las personas generadas por IA. En general suelen estar desproporcionados, como por ejemplo al tener las orejas a distintas alturas o los dientes, pelo e incluso los dedos con formas extrañas o malformaciones.
Más allá de estos detalles, el ritmo vertiginoso del avance de la IA proyecta abre la posibilidad de que el software se vaya puliendo y cada vez sea mas difícil diferenciar las imágenes.
La IA aún tiene margen de mejora, pero al ritmo al que evoluciona, muy pronto podría resultar imposible diferenciar entre las imágenes generadas por ella y las reales. “Podemos pensar que en unos años quizás, pero yo creo más bien que en unos meses, no seremos capaces de notar la diferencia”, explicó Guillaume Brossard, especialista en desinformación y fundador del sitio web Hoaxbuster.
El peligro de la desinformación
El despliegue de la inteligencia artificial abrió un mundo de posibilidades y de amenazas debido al uso indebido de las imágenes, en especial cuando se hace con fines políticos. A modo de ejemplo, la imagen de un anciano francés lastimado durante la represión de una protesta contra la reforma jubilatoria impulsada por Macron enardeció a los internautas.
La usuaria utilizó la imagen para criticar al presidente francés por su accionar contra lo que era una “manifestación pacífica”. “Compartí (la publicación) para mostrar lo que Macron ha hecho con nuestra democracia”, dice el texto que acompaña la imagen.
El tuit generó revuelo e indignación hasta que algunos usuarios comenzaron a cuestionar la veracidad de la imagen, en especial al detectar que los cascos de la policía no llevaban insignia institucional.
La confusión con las imágenes también pasó a la inversa, con el caso de la foto de una joven detenida en París que fue inmediatamente identificada como creación de IA hasta que el autor de la foto confirmó que era real. Para que le creyeran tuvo que presentar otras imágenes de la detención tomadas desde otro ángulo.
“Podemos creer que las imágenes reales son en realidad IA y podemos creer que las imágenes de IA son reales, así que los límites son ya muy difusos y lo serán aún más en los próximos meses. Pero hay una cosa que las IA no saben hacer y que no están a punto de saber hacer, creo, y es reproducir una escena desde varios ángulos y eso es una muy buena pista”, agregó Brossard.
Por otro lado, existen otras herramientas, como la aplicación Hugging Face, que sirven para determinar la probabilidad de que una imagen sea producto de IA, pero no es tan precisa, por lo que hasta el momento la mejor manera de chequear es buscando fotos tomadas desde otros ángulos.
A esto debe sumarse la responsabilidad de cada usuario de hacer el ejercicio de “cuestionar todo el tiempo” las imágenes que ve, y no tomarlas como una verdad absoluta. En especial aquellas utilizadas con fines políticos o para provocar una emoción. Esto último, en tanto, es una de las principales fuentes de desinformación. “En cuanto una imagen genera una emoción, es imperativo preguntarse si no está potencialmente adulterada de alguna manera”, subrayó Brossard.
La IA, un “desafío existencial” para la humanidad
Con la rápida mejora de la IA, no es seguro que sea suficiente para luchar contra la creciente influencia de las noticias falsas. “Hoy en día, la gente sólo cree lo que quiere creer. No les importa si lo que les mostramos es cierto o no y ese es el problema. Esto se parece un poco a lo que Trump teorizó sobre las verdades alternativas y la era de la posverdad. Estamos en medio de ella y tendremos que aprender a vivir con ella”, lamentó el fundador de Hoaxbuster.
Para contrarrestar la amenaza que representa el uso malicioso de esta herramienta, es fundamental la educación de la población. Sin embargo, el rápido desarrollo de la inteligencia artificial alerta hasta a líderes y magnates de la tecnología, como Elon Musk y Steve Wozniack, cofundador de Apple, quienes escribieron una carta abierta en la que piden una moratoria de seis meses para la IA, que consideran un “desafío existencial” para la humanidad.