ChatGPT
Tiempo de lectura: 5 minutos

En París, un conocido internauta de Twitter subió este martes tres fotos de Emmanuel Macron, el presidente de Francia, mientras corría entre policías antidisturbios y manifestantes, envuelto en nubes de humo. Las imágenes, vistas más de 3 millones de veces, eran falsas. Pero para quien no siga de cerca el desarrollo de los generadores de imágenes basados en inteligencia artificial, no era tan evidente. Siguiendo el ejemplo del usuario, “No Context French” (Francés sin contexto) no añadió ninguna etiqueta ni pie de foto. Y algunos creyeron que eran auténticas. Un compañero me cuenta que por lo menos un par de amigos de Londres que ejercen diversas profesiones se encontraron con las fotos y creyeron que eran fotos auténticas de las huelgas de esta semana, en ocasiones violentas, por la reforma del sistema de pensiones. Incluso uno de los amigos publicó la imagen en un chat de grupo y después le comunicaron que era falsa.

pic.twitter.com/0W7PGEHgSj Francés sin contexto ???????? (@nocontextfre) 21 de marzo de 2023

Desde hace años, que las redes sociales se vienen alistando para esta situación. Ya han alertado ampliamente sobre vídeos deepfake (falsificados) y son conscientes de que todo aquel que disponga de un software de edición es capaz de falsificar fotos controvertidas de políticos. Sin embargo, el auge actual de las herramientas de creación de imágenes, potenciadas por los denominados modelos generativos de inteligencia artificial, sitúa a plataformas como Twitter, Facebook y TikTok en un terreno insospechado.

Ahora, lo que antes se tardaba entre treinta minutos y una hora en crear con un programa tipo Photoshop, se puede lograr en unos 5 minutos o menos gracias a un programa como Midjourney (gratuito para las 25 primeras fotos) o Stable Diffusion (totalmente gratuito). Ambas herramientas no restringen la generación de imágenes de personajes públicos.

PUBLICIDAD

Yo utilicé el año pasado Stable Diffusion para crear “fotografías” de Donald Trump practicando golf con el líder norcoreano Kim Jung Un, aunque ninguna resultó del todo creíble. Pero desde entonces, los creadores de imágenes han evolucionado mucho. La más reciente versión de la tecnología de Midjourney es capaz de generar imágenes que resultan muy difíciles de diferenciar de la imagen real.

La persona detrás del identificador “No Context French” me dijo que usaron Midjourney para sus imágenes de Macron. Cuando les pregunté por qué no etiquetaron las imágenes como falsas, respondieron que cualquiera podía simplemente “ampliar y leer los comentarios para comprender que estas imágenes no son reales”.

Se mantuvieron firmes cuando les dije que algunas personas se habían enamorado de las imágenes. “Sabemos que estas imágenes no son reales debido a todos estos defectos”, agregaron, antes de enviarme, capturas de pantalla ampliadas de sus defectos digitales. Cuando les pregunté sobre la minoría de personas que no miran esos detalles, especialmente en la pequeña pantalla de un teléfono móvil, no respondieron.

PUBLICIDAD

Eliot Higgins, cofundador del grupo de periodismo de investigación Bellingcat, tomó una línea similar cuando tuiteó imágenes falsas el lunes que había generado del arresto de Donald Trump, jugando con las expectativas generalizadas de su detención. Las imágenes fueron vistas más de 5 millones de veces y no estaban etiquetadas. Posteriormente, Higgins dijo que se le había prohibido usar Midjourney.

Haciendo fotos de Trump siendo arrestado mientras esperamos el arresto de Trump. pic.twitter.com/4D2QQfUpLZ Eliot Higgins (@EliotHiggins) 20 de marzo de 2023

Si bien los detectives de Twitter han señalado las manos torcidas y las caras poco fiables de las imágenes generadas por IA, muchos usuarios principales aún son vulnerables a este tipo de falsificación. En octubre pasado, los usuarios de WhatsApp en Brasil se vieron inundados con información errónea sobre la integridad de su elección presidencial, lo que provocó que muchos se amotinaran en apoyo de la pérdida del expresidente Jair Bolsonaro. Es mucho más difícil detectar imperfecciones y falsificaciones cuando alguien en quien confías acaba de compartir una imagen, en el punto álgido del ciclo de noticias, en una pantalla pequeña. Y como una aplicación de mensajería completamente encriptada, WhatsApp puede hacer poco para vigilar las imágenes falsas que se vuelven virales cuando se comparten constantemente entre amigos, familiares y grupos.

Higgins y “No Context French” solo estaban tratando de crear un truco, pero su éxito en lograr que varias personas creyeran que sus publicaciones eran reales ilustra la escala de un desafío inminente para las redes sociales y la sociedad en general.

PUBLICIDAD

TikTok actualizó el martes sus pautas para prohibir los medios generados por IA que inducen a error. La política de Twitter sobre medios sintéticos, actualizada por última vez en 2020, dice que los usuarios no deben compartir imágenes falsas que puedan engañar a las personas, y que “puede etiquetar los tweets que contienen medios engañosos”. Cuando le pregunté a Twitter por qué no había etiquetado las imágenes falsas de Trump y Macron cuando se volvieron virales, la compañía dirigida por Elon Musk respondió con un emoji de caca, su nueva respuesta automática para los medios.

Algunos usuarios de Twitter que enmarcaron las imágenes de Trump como reales con hashtags llamativos como “BREAKING”, han sido señalados por las Notas de la comunidad del sitio, que les permite a los usuarios agregar contexto a ciertos tweets. Pero la postura cada vez más laissez-faire de Twitter hacia el contenido bajo Musk sugiere que las imágenes falsas podrían prosperar en su plataforma más que en otras.

Meta Platforms Inc. dijo en 2020 que eliminaría por completo los medios generados por IA destinados a engañar a las personas, pero la compañía no eliminó al menos una imagen de “arresto de Trump” publicada como noticia real por un usuario de Facebook el miércoles. Meta no respondió a una solicitud de comentarios.

PUBLICIDAD

Claramente, será más difícil para las personas distinguir lo falso de la realidad a medida que prosperen las herramientas generativas de inteligencia artificial como Midjourney y ChatGPT. El fundador de una de estas herramientas de IA me dijo el año pasado que la respuesta a este problema era simple: tenemos que adaptarnos. Ya me encuentro mirando fotos reales de políticos en las redes sociales, medio preguntándome si son falsas. Las herramientas de IA harán que muchos de nosotros seamos escépticos. Para aquellos que son más fáciles de persuadir, podrían encabezar una nueva crisis de desinformación.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com