El término inglés ‘deepfake’, que en español podría traducirse como “ultrafalso” o “falsificaciones profundas”, es un archivo de audio, una imagen o un vídeo creado con inteligencia artificial que parece real, pero no lo es.
La palabra apareció por primera vez en 2017 en un hilo de la red social Reddit, en el que se incluían archivos donde se habían incrustado sintéticamente caras de famosos en vídeos pornográficos, explica la Enciclopedia Británica. Sin embargo, se popularizó especialmente a raíz de una imagen distribuida en 2023 en la que aparecía el Papa Francisco vestido con un ostentoso abrigo de plumas blanco, supuestamente de Balenciaga, y que se distribuyó como la pólvora por todo Internet.
A partir de ese momento, los ‘deepfakes’ empezaron a poblar las redes sociales, a menudo con fines paródicos pero también con objetivos más oscuros, como atacar, desinformar, estafar o manipular.
Estos archivos suelen ser de personajes públicos que divulgan abundante información personal, lo cual facilita su falsificación. Pero a medida que las tecnologías de inteligencia artificial se han hecho más accesibles a través de programas o servicios en internet, los ataques con vídeos y audios falsos han empezado a afectar también a particulares.
En España, por ejemplo, fue especialmente sonado el caso de un grupo de niños de entre 12 y 14 años de edad que generaron imágenes falsas de desnudos de varias menores de su localidad. A nivel mundial destacó también la avalancha de falsas imágenes pornográficas de la cantante Taylor Swift que inundaron las redes sociales en enero de 2024. Y son solo dos muestras de un largo reguero de casos donde la manipulación de imágenes pone en juego la reputación de personas, entidades e incluso países enteros.
Aunque en sus inicios el término ‘deepfake’ se aplicó a archivos de foto o vídeo, el avance en la generación de audio sintético ha hecho que se extienda también a las voces, con clonaciones de alta calidad que en ocasiones son difícilmente distinguibles de las voces reales que imitan.
La proliferación de programas online de clonación a bajo coste o de software de código abierto gratuito ha impulsado las falsificaciones de audio en la esfera pública, en especial en el terreno político, marcado en 2024 por el gran número de elecciones convocadas a lo largo y ancho del planeta. Se trata de una poderosa arma de desinformación, que agrega confusión en momentos ya de por sí turbulentos en la interacción social.
Pero, además, afecta a cada vez más personas sin un perfil destacado. En Estados Unidos, por ejemplo, The Washington Post relata cómo los malhechores clonan las voces de jóvenes que encuentran en sus redes sociales y envían falsos mensajes de audio a sus abuelos solicitando dinero, alegando una situación de emergencia. Y se dan casos también en la empresa, con empleados que reportan haber recibido mensajes y audios falsos del supuesto director general de la compañía a través de WhatsApp con intenciones fraudulentas.