Internacionales

Consejo técnico para detectar imágenes deepfakes generadas por IA

La suplantación de identidad mediante IA se está convirtiendo rápidamente en uno de los mayores problemas que enfrentamos en línea. La proliferación y el uso indebido de las herramientas de inteligencia artificial están provocando la difusión de imágenes, vídeos y audios engañosos.

Con los deepfakes de IA que muestran a todos, desde Taylor Swift hasta Donald Trump, apareciendo casi todos los días, cada vez es más difícil saber qué es real y qué no. Los generadores de imágenes y vídeos de OpenAI, como DALL-E, Midjourney y Sora, facilitan que personas sin conocimientos técnicos realicen deepfakes. Simplemente ingrese su consulta y el sistema la exportará. Estas imágenes falsas pueden parecer inofensivas.

Sin embargo, puede utilizarse para fraude, robo de identidad, propaganda y fraude electoral. En los primeros días del deepfake, la tecnología era imperfecta ya menudo había signos claros de falsificación. Los verificadores de datos han señalado imágenes con errores obvios, como una mano con seis dedos o gafas con lentes de diferentes formas. Sin embargo, a medida que la IA se desarrolló, se volvió mucho más difícil. Henry Ider, fundador de Latent Space Advisory y destacado experto en inteligencia artificial generativa, dice que algunos consejos comunes, como buscar patrones de parpadeo antinaturales entre personas en vídeos deepfake, ya no son válidos.

Muchas fotos de IA deepfake, especialmente aquellas con un brillo electrónico, tienen un «efecto suavizante estético» que hace que la piel luzca «muy brillante», dijo Ayder. Pero advirtió que las funciones creativas a veces pueden eliminar estos y muchos otros signos de manipulación de la IA. Comprueba la armonía de sombras y luces. A menudo, el sujeto parecerá enfocado y realista, pero es posible que los elementos del fondo no parezcan realistas ni pulidos. El intercambio de caras es una de las técnicas de deepfake más comunes.

Los expertos aconsejan mirar atentamente los bordes de la página. ¿El color de la piel de la cara coincide con el color del cabello o de otras partes del cuerpo? ¿Los bordes de tu cara están nítidos o borrosos? Si sospechas que un vídeo de alguien hablando es falso, mira su boca. ¿Los movimientos de tus labios coinciden perfectamente con los sonidos? Ayder sugiere mirar tus dientes. ¿Son claros o poco claros y de alguna manera inconsistentes con lo que vemos en la vida real? La empresa de ciberseguridad Norton dice que es posible que su algoritmo aún no sea perfecto para generar dientes individuales, por lo que la falta de contornos para los dientes individuales podría ser una pista.

A veces el contexto importa, piensa si lo que ves es cierto o no. El sitio web de periodismo Poynter advierte que si ve una figura pública actuando «exagerada, poco realista o fuera de lugar», lo más probable es que sea falsa. Por ejemplo, ¿realmente el Papa lleva una chaqueta acolchada, como en la famosa foto falsa? ¿Esto impide que se publiquen fotos o vídeos adicionales de fuentes legítimas? Otra forma es utilizar la IA para luchar contra la IA.
Microsoft ha desarrollado una herramienta de autenticación que puede analizar fotografías y vídeos para determinar si han sido alterados.

FakeCatcher del fabricante de chips Intel utiliza algoritmos para analizar los píxeles de una imagen y determinar si son reales o falsos. Existen herramientas en línea que detectarán falsificaciones si cargan un archivo o enlazan un material cuestionable. Sin embargo, algunas certificaciones, como las de Microsoft, no están disponibles para el público y solo están disponibles para determinados socios. Esto se debe a que los investigadores no quieren ocultar a los malos actores y darles una gran ventaja en una carrera armamentista falsa y seria.

El acceso abierto a las herramientas de detección puede dar a las personas la impresión de que son «tecnologías divinas que pueden subcontratarnos el pensamiento crítico» y, en cambio, deberíamos reconocer sus limitaciones, dijo Ajder.