La inteligencia artificial (IA) está transformando el mundo que nos rodea, desde la automatización de tareas hasta la mejora de procesos industriales. Sin embargo, una de sus aplicaciones más controvertidas es el desarrollo de los deepfakes, una tecnología que utiliza IA para crear videos, imágenes o audios falsos, imitando a personas reales con una precisión sorprendente.
Aunque a menudo se ven este tipo de contenidos en contextos de humor o parodia, lo cierto es que la capacidad de suplantar a personas, ya sea en imagen o simulando sus voces, también puede utilizarse para difundir información falsa, manipular o desacreditar a estos individuos o a las instituciones que representan.
Un ejemplo que tuvo especial difusión fue el de la reconocida cantante Taylor Swift, cuya imagen fue utilizada para crear imágenes pornográficas falsas, las cuales se difundieron en las redes sociales a gran velocidad. Incluso la Casa Blanca se pronunció sobre este episodio. “Estamos alarmados por las noticias sobre la circulación de estas imágenes falsas. Desafortunadamente, con demasiada frecuencia, notamos que la falta de aplicación de la ley tiene un impacto desproporcionado en las mujeres y en las niñas, los principales blancos del acoso en línea”, dijo Karine Jean-Pierre, secretaria de prensa del presidente Joe Biden.
Y es que, con el avance de la tecnología, cualquier persona puede ser víctima de un montaje y ver vulnerada su reputación. En el caso del audio es incluso más sencillo, ya que con pocos minutos de la voz original es posible hoy día utilizar servicios online para suplantarla.
Según Europol, la agencia policial de la Unión Europea, estas también podrían: