Internacionales

La desinformación electoral mediante la IA es usada para engañar en todo el mundo

La desinformación electoral está aumentando cada vez más en todo el mundo debido al uso de la inteligencia artificial, cualquier persona con un teléfono inteligente puede crear contenido falso, pero convincente, para engañar a los votantes.

La diferencia entre la inteligencia artificial de hoy con respecto a años anteriores es muy notoria, debido a que las fotografías, videos o clips de audios requerían un equipo de personas con tiempo habilidades técnicas y dinero para lograr un gran resultado. Ahora los servicios de inteligencia artificial generativa gratuitos de fácil alcance y bajo costo como Google y OpenAI facilitan el trabajo, permitiendo a cualquier persona crear “deepfakes” con grandes resultados y calidad con solo escribir un simple mensaje de texto.

En Europa y Asia se ha identificado una gran ola de falsificaciones de IA vinculadas a las elecciones, que recorren a través de las redes sociales durante meses y han servido como advertencia para los más de 50 países que van a las urnas este año. Un destacado experto en IA generativa de Cambridge en Inglaterra, Henry Ajder, dice que para algunas personas claramente es difícil identificar si algo es real o no.

La cuestión vas más allá de si los “deepfakes” de IA afectan las elecciones, sino que tan influyentes podrían volverse, dijo Adjer, director de una consultora llamada Latent Space Advisory. El director del FBI, Christopher Wray, advierte de una creciente amenaza, en la que la IA generativa facilita a adversarios extranjeros a involucrarse en influencias malignas, a medida que la carrera presidencial de Estados Unidos se intensifica.

Los “deepfakes” de IA pueden difuminar o suavizar la imagen de un candidato, haciendo que los votantes puedan verse atraídos o alejados de los candidatos, podrían incluso evitar las urnas por completo. Los expertps dicen que la mayor amenaza para la democracia es una oleada de falsificaciones de IA, misma que podría erosionar con la confianza del público en lo que ve y oye.

Algunos ejemplos de los “deepfakes” de IA incluyen un video de la presidenta pro occidental de Moldavia apoyando a un partido político amigo de Rusia, un clip de audio del líder del partido liberal de Eslovaquia discutiendo sobre manipulación de votos y aumento del precio de la cerveza y otro video de la legisladora de la oposición en Bangladesh, nación de mayoría musulmana conservadora, en bikini.

Aunque sea difícil rastrear quién está detrás de los “deepfakes” de IA, por su alta sofisticación de tecnología, los expertos piden a las empresas y gobiernos ser capaces de detener el diluvio y hacer algo suficientemente rápido para resolver el problema. Es difícil encontrar respuestas definitivas sobre el contenido falso, a medida que la tecnología mejora, dijo Ajder.

Los “deepfakes” de audio son aún más difíciles de verificar al carecer de signos reveladores de contenido manipulado, a diferencia de las fotos y videos. En países más pobres, donde la alfabetización mediática es escasa, las falsificaciones de IA son más efectivas incluso las de baja calidad. Un ejemplo de ello fue el caso del legislador de la oposición Rumeen Farhana, crítico de partido gobernante, que fue falsamente representado usando bikini el año pasado. Un video viral que ocasionó la indignación en la nación conservadora de mayoría musulmana.