Después de las ultrafalsificaciones, una nueva frontera del engaño con IA: caras falsas

Las imágenes generadas por un algoritmo están apareciendo cada vez más en campañas de bots y de medios noticiosos en línea.

A primera vista, “Alfonzo Macías parece común y corriente: barbudo, con gafas, con un corto pico de viuda. Pero sus gafas extrañamente distorsionadas y el fondo difuminado detrás de él insinúan una incómoda verdad: el Sr. Macías nunca existió.

Indetectable a simple vista, el rostro asombrosamente humano es, de hecho, la creación de un algoritmo, uno utilizado por el medio de comunicación pro-Trump TheBL para darle identidad a una de las numerosas cuentas falsas de Facebook que utiliza para dirigir el tráfico a su sitio web.

Aunque los rostros estáticos generados por inteligencia artificial (IA) llaman menos la atención que los vídeos virales ultrafalseados — los cuales han manipulado el discurso y las acciones de políticos y celebridades volviéndose populares durante los últimos años —, se están convirtiendo en una herramienta cada vez más común para difundir desinformación, según los expertos.

En lugar de hacer que las personas reales parezcan decir y hacer cosas que no han dicho o hecho, la técnica funciona generando personas completamente “nuevas de la nada.

Ya se han identificado caras falsas en campañas de bots de China y de Rusia, así como en medios de comunicación de derecha en línea y en negocios supuestamente legítimos. Su proliferación ha generado preocupaciones de que la tecnología pudiera representar una amenaza más omnipresente y apremiante que las ultrafalsificaciones, o “deepfakes , conforme las plataformas en línea se enfrentan a una creciente ola de desinformación antes de las elecciones estadounidenses.

“Hace un año, esto era una novedad , tuiteó Ben Nimmo, el director de investigaciones del grupo de inteligencia de medios sociales Graphika. “Actualmente parece que cada operación que analizamos intenta esto al menos una vez .

Al igual que las ultrafalsificaciones, los rostros generados por IA se crean utilizando una tecnología conocida como GAN, o redes generativas adversarias. Una red genera contenido, mientras que otra lo compara con rostros humanos, obligándola a mejorar hasta que no puede distinguir entre la imagen sintética y una cara real.

Las representaciones digitales de humanos ficticios han tenido una presencia cada vez mayor en línea durante los últimos años, con estrellas como la sensación del pop virtual, modelo y activista Miquela atrayendo a una gran cantidad de seguidores en Instagram y en Twitter. Pero lo que distingue a los rostros generados por GAN es su fotorrealismo: el nivel de detalle que les brinda a los personajes una extraña similitud a la realidad.

“Los modelos GAN más recientes [como el popular StyleGAN2 de Nvidia] ahora se pueden usar para crear imágenes sintéticas de rostros humanos increíblemente realistas, hasta en los más minúsculos detalles, en particular pieles y cabello , comentó Siwei Lyu, un profesor de informática en la Universidad de Albany, Universidad Estatal de Nueva York.

ThisPersonDoesNotExist, un sitio web que crea una cara StyleGAN2 cada vez que se actualiza, demuestra lo convincentes que estas imágenes pueden ser. Sin embargo, la técnica tampoco se limita a rostros humanos, con docenas de variantes que van desde automóviles hasta gatos.

Si bien las preocupaciones acerca de la desinformación impulsada por la IA se habían centrado principalmente en las ultrafalsificaciones políticas, aún no se había materializado un caso sustancial, señaló Henry Ajder, un investigador que se especializa en “deepfakes y en medios de comunicación sintéticos. “No ha habido el tipo de Trump agitando el botón nuclear rojo , agregó.

Sin embargo, casos de caras falsas generadas por GAN utilizadas para engañar han estado apareciendo desde junio pasado, cuando la agencia noticiosa Associated Press identificó una cuenta en LinkedIn que se estaba haciendo pasar por un empleado de un grupo de estudios.

El uso a mayor escala de la técnica fue identificado por primera vez en diciembre, cuando Graphika y el Laboratorio de Investigación Forense Digital (DFRLab, por sus siglas en inglés) del Consejo Atlántico publicaron un informe acerca de una red de más de 900 páginas, grupos y cuentas vinculadas al medio de comunicación de derecha Epoch Media Group. “Usaron estas caras falsas para reforzar su presencia en Facebook y distribuir sus mensajes a una audiencia más amplia , explicó Max Rizzuto, un investigador asociado del DFRLab.

Mientras tanto, los Estados-nación también han detectado el potencial de la tecnología. Graphika ha descubierto docenas de rostros generados por GAN utilizados en campañas vinculadas a China y a Rusia. En el caso de China, las imágenes generadas por GAN se utilizaron como imágenes de perfil en una campaña de Facebook, con cuentas falsas impulsando puntos de discusión a favor de Beijing en temas como Taiwán, el mar de China Meridional e Indonesia.

En cambio, las campañas rusas habían utilizado caras falsas para crear personajes de editores ficticios detrás de medios de comunicación políticos divisivos.

Giorgio Patrini, director ejecutivo de Sensity, la plataforma de detección de ultrafalsificaciones, dijo que las caras generadas por GAN también estaban apareciendo en el mundo corporativo, con ejemplos que incluyen una compañía de software que utilizó rostros falsos para los testimonios de sus clientes, y una compañía de mercadotecnia que utilizó la tecnología para generar fotos de su “equipo .

El primer paso para combatir el riesgo de los rostros generados por GAN fue difundir la conciencia de su existencia, dijo el Sr. Rizzuto. “Una vez que les dices a estas personas que en realidad es una falsificación, puedes observar este sentido evolucionado que tienen todos los humanos para detectar anomalías en una imagen .

A pesar del notable progreso detrás de StyleGAN2, había una serie de reveladores signos de ser una falsificación, afirmó el Sr. Rizzuto. Por ejemplo, la cabeza de un sujeto podía estar inclinada mientras que su nariz y dientes permanecían rectos. El algoritmo también puede tener dificultades cuando incorpora objetos de fondo y otras personas, a veces inadvertidamente creando desagradables espectáculos.

Otro posible indicio de falsificación observado por Graphika es que los ojos de los rostros generados por GAN aparecen todos en el mismo lugar dentro de la imagen, independientemente de la dirección en la que la cara del “sujeto esté mirando.

Mientras tanto, investigadores, organismos gubernamentales y compañías tecnológicas están construyendo y mejorando modelos para detectar caras falsas. El Sr. Lyu fue uno de los autores de un artículo sobre una de esas técnicas, la cual estudió las imágenes de objetos reflejados en los ojos de los sujetos para distinguir los rostros reales de los falsos.

El campo estaba en constante evolución, dijo el Sr. Rizzuto, refiriéndose a una investigación de ultrafalsificaciones realizada por Samsung el año pasado, la cual convirtió a la Mona Lisa en un realista busto parlante. Él dijo que la tecnología pudiera aplicarse algún día para crear perfiles falsos más realistas, creando imágenes con una variedad de ángulos y de expresiones.

“La capacidad potencial de engañar se ve, hasta cierto punto, sobrepasada por la cantidad de trabajo que se requeriría para tener éxito actualmente , dijo él. “En un futuro cercano, yo anticiparía ver que eso disminuya considerablemente .

Financial Times
Tags relacionados

Más de Labs

Compartí tus comentarios