Internautas tiene dificultades para distinguir entre una foto real y una generada por IA

Si recientemente tuviste problemas para determinar si una imagen de una persona es real o generada mediante inteligencia artificial (IA), no estás solo

La Inteligencia Artificial ha cobrado una gran relevancia en la generación de imágenes en el último año y es tal la calidad con la que las desarrolla que muchos internautas tienen dificultades para distinguir entre una imagen real y una creada por esa tecnología.

Un nuevo estudio realizado por investigadores de la Universidad de Waterloo, en Canadá, descubrió que las personas tienen más dificultades de las esperadas para distinguir entre una persona real y otra generada artificialmente.

Como parte del estudio, 260 participantes recibieron 20 imágenes sin etiquetar: 10 de ellas eran de personas reales obtenidas a partir de búsquedas en Google, y las otras 10 generadas por Stable Diffusion o DALL-E, dos programas de IA de uso común que generan imágenes.

Se pidió a los participantes que etiquetaran cada imagen como real o generada por IA y que explicaran por qué habían tomado esa decisión. Sólo el 61% de los participantes pudo distinguir entre las personas generadas por IA y las reales, muy por debajo del umbral del 85% que esperaban los investigadores.

“Las imágenes están diseñadas para engañar; cumplen la carga de realismo lo suficientemente bien como para engañar”, explicó a Metro Andreea Pocol, doctoranda en Informática de la Universidad de Waterloo y autora principal del estudio.

Pocol añadió que el ritmo extremadamente rápido al que se desarrolla la tecnología de IA hace especialmente difícil comprender el potencial de acción maliciosa o nefasta que plantean las imágenes generadas por IA.

La experta agrega que estas imágenes generadas por IA son particularmente amenazadoras como herramienta política y cultural, que podría ver a cualquier usuario crear imágenes falsas de figuras públicas en situaciones embarazosas o comprometedoras.

“Esto es especialmente preocupante para los menos alfabetizados/educados digitalmente, que se verán desproporcionadamente afectados por esta nueva herramienta de desinformación!”, concluye.

2014

fue el año en que los investigadores empezaron a utilizar GAN (generatice adversarial networks) para la síntesis de imágenes y vídeos, y el término ‘deepfakes’ surgió en 2017

Entrevista

Andreea Pocol,

doctoranda en Informática de la Universidad de Waterloo y autora principal del estudio.

P: ¿Por qué le interesaba estudiar si la gente puede distinguir a las personas generadas por inteligencia artificial de las personas reales?

–Este trabajo comenzó como un proyecto de investigación para un curso llamado The Art and Science of Empirical Computer Science, impartido por el doctor Jimmy Lin de la Universidad de Waterloo. Como se puede esperar por el nombre, era un curso fascinante, y una de las unidades era IA Responsable. Así que empecé a charlar con mi supervisora, Lesley Istead, sobre ideas para proyectos de curso, y nació esta idea. Sentíamos curiosidad por la ingenuidad de la gente y su susceptibilidad a caer en imágenes falsas. Era oportuna y pertinente a finales de 2022, cuando realizamos el estudio, y más aún ahora.

P: ¿Por qué la gente tiene problemas para distinguir quién es una persona real y quién es generada artificialmente?

–La tecnología subyacente de estas herramientas es la GAN (Generative Adversarial Network, red generativa adversarial), que esencialmente aprovecha dos actores adversarios: el “generador”, que produce una imagen, y el “discriminador”, que consulta su base de datos de personas reales conocidas y dice “no; puedo decir que es falsa por lo diferente que parece de lo que sé que es real”. El generador mejora su imagen de forma iterativa hasta que el discriminador la clasifica como real, y entonces envía la imagen al usuario. Cuanto mejor se entrenen estas redes y más datos se utilicen, más convincentes serán las imágenes producidas. Las imágenes están diseñadas para engañar; cumplen la carga de realismo lo suficientemente bien como para engañar a la red discriminadora, así que, por supuesto, engañarán a la gente que ingenuamente se deja llevar por la fatalidad e interioriza todo lo que consume en las redes sociales sin ningún filtro de escepticismo. Esto es especialmente preocupante para los menos alfabetizados/educados digitalmente, que se verán desproporcionadamente afectados por esta nueva herramienta de desinformación.

P: ¿Qué descubrieron tras el estudio?

–Nuestros resultados indican que los participantes tenían más probabilidades de clasificar correctamente imágenes de personas reales (utilizamos intervalos de confianza y una prueba ANOVA para determinar que existe una diferencia estadísticamente significativa entre la clasificación de los participantes de imágenes reales y falsas).

Las mujeres tenían una mayor precisión de clasificación que los hombres, y entre los 18 y los 24 años era el grupo de edad más hábil para discernir lo real de lo falso (tal vez son los que más tiempo pasan en Internet mirando contenidos en línea, así que tal vez eso tenga sentido), pero estas diferencias no resultaron ser estadísticamente significativas, por lo que es necesario seguir investigando en este sentido.

El análisis de la encuesta también nos permitió comprender mejor cómo piensa la gente y en qué se fija a la hora de clasificar una imagen como real o falsa. Analizamos las respuestas de los participantes mediante minería de textos y extracción de palabras clave, y creamos nubes de palabras para visualizar las justificaciones comunes que los participantes daban a las respuestas reales y falsas. Enseguida quedó claro que los ojos eran el indicador revelador de que una imagen probablemente había sido generada por IA. En general, descubrimos que a la IA Gen le cuesta producir ojos y dientes realistas. En particular, un signo común de que una imagen está generada por IA es la presencia de heterocromía. Otros indicadores comunes son los píxeles blancos alrededor de los ojos o un reflejo especular incorrecto. Los participantes también se fijaron en la boca, el pelo y las orejas de los sujetos.

Hay que tener en cuenta que estas imágenes se generaron en 2022, y la IA puede hacerlo mucho mejor ahora. Los deepfakes perfectamente reales y las imágenes generadas por IA están al caer, si es que no han llegado ya.

P: ¿Por qué considera que las imágenes generadas por IA son especialmente amenazadoras como herramienta política y cultural?

–La desinformación no es nueva, pero las formas de difundirla cambian constantemente. Los deepfakes pueden utilizarse no sólo para difundir desinformación -es decir, plantear que algo falso es cierto-, sino también para crear una negación plausible y plantear que algo cierto tal vez no lo sea (por ejemplo, “Ése no soy yo en el video de vigilancia lanzando el cóctel molotov; ¡es un deepfake!”).

Estas imágenes y videos pueden ser falsos, pero sus consecuencias son desastrosamente reales… La accesibilidad y asequibilidad de estas herramientas es lo que las hace tan peligrosas.

Los creadores de deepfakes se salen con la suya porque, como siempre que se trata de una tecnología que cambia rápidamente, la ley no se ha puesto al día. Incluso si pudiera, es difícil regular a un actor deshonesto.

P: ¿Cuáles podrían ser las herramientas necesarias para identificar las imágenes generadas por la IA y contrarrestarlas?

–Las estrategias que se discuten suelen ser los dos polos opuestos: congelar o detener la síntesis de imágenes de IA, o seguir como siempre (que es la escuela utilitaria de pensamiento). Pero creo que la educación es una poderosa herramienta que podemos utilizar para mitigar los riesgos asociados a los deepfakes. Será algo con lo que tendremos que convivir, y la posibilidad de que una imagen sea generada por la IA tendrá que estar presente en nuestras mentes como un filtro. Se necesita educación, concienciación y un sano escepticismo.

Algunas de las mayores empresas tecnológicas, como AWS, Facebook y Microsoft, han fomentado el desarrollo de algoritmos capaces de detectar deepfakes… Sin embargo, los algoritmos tradicionales de detección de deepfakes presentan varios inconvenientes. Suelen entrenarse con imágenes de alta resolución, por lo que pueden fallar en grabaciones de vigilancia de baja resolución o en imágenes en las que el sujeto está mal iluminado o posa de una forma determinada y no reconocida.

Google está trabajando en SynthID, una marca de agua incrustada en los píxeles de la imagen, invisible para el ojo humano, pero detectable para las herramientas de detección de deepfakes.

Según Andreea Pocol, los deepfakes y la IA Gen pueden utilizarse principalmente para:

Manipular elecciones: por ejemplo, el deepfake del presidente ucraniano Volodymyr Zelenskyy pidiendo a sus tropas que se rindan en 2022, el deepfake del temible general del ejército indonesio Suharto influyendo en los votantes este febrero, el clip generado por IA del alcalde de Londres Khan comentando cómo las marchas pro-palestinas deberían tener prioridad sobre el fin de semana del Recuerdo, el clip viral de Elizabeth Warren diciendo que los republicanos no deberían votar en 2023.

Humor: por ejemplo, la imagen viral del Papa vestido de Balenciaga.

Para arruinar vidas individuales: por ejemplo, el uso de deepfakes para generar porno de famosos.

Lo Último