Un estudio de la Universidad Carlos III de Madrid (UC3M) ha analizado los patrones de los 'deepfakes' (vídeos con recreaciones hiperrealistas falsas) generados por inteligencia artificial (IA) que se propagan por redes sociales y ha comprobado que mayoritariamente están protagonizados por representantes políticos y artistas y suelen estar vinculados a los ciclos de la actualidad informativa.
En concreto, el estudio, publicado recientemente en la revista 'OberCom', analiza las características formales y de contenido de las desinformaciones virales en España surgidas por el uso de herramientas de IA con fines ilícitos. Para ello, el equipo investigador ha estudiado estos contenidos falsos a través de las verificaciones de organizaciones españolas de fact-checking.
Esta investigación, según ha indicado el centro universitario en un comunicado, representa un paso hacia la comprensión y mitigación de las amenazas que generan los bulos en nuestra sociedad.
"El objetivo era determinar una serie de patrones y características comunes en estos deepfakes virales, dar algunas claves para su identificación y hacer algunas propuestas de alfabetización mediática para que la ciudadanía pueda hacer frente a la desinformación", ha explicado una de las autoras, Raquel Ruiz Incertis, investigadora del Departamento de Comunicación de la UC3M, donde realiza un doctorado en comunicación europea.
Mujeres artistas relacionadas con la pornografía
Los investigadores han desarrollado una tipología de 'deepfakes', lo cual facilita su identificación y neutralización. Según los resultados del estudio, algunos líderes políticos (como Trump o Macron) eran los principales protagonistas de los contenidos que hacen referencia a consumo de drogas o actividades moralmente reprobables.
Según el trabajo, existe, además, una proporción considerable de deepfakes de carácter pornográfico que perjudican la integridad de las mujeres, y exponen especialmente a cantantes y actrices famosas. Generalmente son compartidos desde cuentas no oficiales y se difunden rápidamente por servicios de mensajería instantánea, apuntan los investigadores.
La proliferación de deepfakes o el uso frecuente de imágenes, vídeos o audios manipulados con herramientas de IA es un tema de candente actualidad. "Este tipo de bulos prefabricados es especialmente dañino en situaciones delicadas, como en períodos previos a procesos electorales o en tiempos de conflicto como el de Ucrania o Gaza que estamos viviendo. Es lo que llamamos 'guerras híbridas': la guerra no se libra solo en el campo físico, sino también en el plano digital, y las falsedades tienen mayor calado que nunca", ha explicado Ruiz Incertis.
Las aplicaciones de estas investigaciones son diversas, desde la seguridad nacional hasta la integridad de las campañas electorales. Los hallazgos sugieren que el empleo proactivo de la IA en plataformas de redes sociales podría revolucionar la manera en que mantenemos la autenticidad de la información en la era digital.
La investigación subraya la necesidad de una mayor alfabetización mediática y propone estrategias educativas para mejorar la capacidad pública de discernir entre contenido real y manipulado. "Muchos de estos deepfakes pueden identificarse a través de la búsqueda inversa de imágenes en buscadores como Google o Bing. Existen herramientas para que la ciudadanía pueda comprobar la veracidad del contenido en un par de clicks antes de difundir contenido de dudosa procedencia. La clave es enseñarles cómo hacerlo", ha apuntado Raquel Ruiz Incertis.
Además, en el trabajo se proporciona otros consejos para detectar deepfakes, como fijarse en la nitidez de los bordes de los elementos y en la definición del fondo de la imagen: si los movimientos están ralentizados en los vídeos o si existe algún tipo de alteración facial, desproporción corporal o juego extraño de luces y sombras, todo apunta que pueda ser un contenido generado por IA.
Los autores del estudio también consideran necesaria una legislación que obligue a las plataformas, aplicaciones y programas (como Midjourney o Dall-e) a establecer una "marca de agua" que los identifique y permita al usuario saber de un simple vistazo que esa imagen o vídeo ha sido modificado o creado íntegramente con IA.
El equipo investigador ha utilizado un enfoque multidisciplinar, combinando ciencia de datos y análisis cualitativo, para examinar cómo las organizaciones de verificación de hechos aplican la IA en su operativa. La metodología principal es un análisis de contenido de una treintena de publicaciones tomadas de las webs de los ya mencionados fact-checkers donde se desmienten estos contenidos manipulados o fabricados con IA.