top of page

Cuando la verdad está en crisis: deepfakes y erosión de la convivencia

ree

El término deepfake surge de la combinación de “deep learning” —aprendizaje profundo, un conjunto de técnicas que permiten a la IA reconocer patrones complejos— y “fake”, falso. Según Jiménez (2025), este neologismo designa una técnica de creación de imágenes humanas basada en IA generativa, que utiliza redes neuronales conocidas como GAN (Generative Adversarial Networks). Estas redes operan mediante aprendizaje no supervisado y están compuestas por dos modelos: uno genera contenido y el otro evalúa su autenticidad, lo que permite producir imágenes cada vez más realistas.


Esta técnica, presentada por investigadores de la Universidad de Montreal (Goodfellow et al., 2014), puede generar fotografías que parecen auténticas a observadores humanos. Las RGA se basan en dos redes neuronales artificiales que trabajan juntas para crear medios de aspecto real. Estas dos redes llamadas el generador y el discriminador se entrenan en el mismo conjunto de datos de imágenes, vídeos o sonidos. Luego, el primero intenta crear nuevas muestras que sean lo suficientemente buenas para engañar a la segunda red, que trabaja para determinar si los nuevos medios que ve son reales. De esa manera, se impulsan entre sí para mejorar. (García, 2021, p. 108)


Los deepfakes, también llamados ultrafalsificaciones muestran a personas diciendo o haciendo algo que nunca ocurrió. Su nivel de realismo es tan alto que, a simple vista u oído, resulta prácticamente imposible detectar la alteración. En la actualidad, su identificación exige análisis forenses especializados. Esto plantea dos desafíos centrales: reconocer la ultrafalsificación y, además, demostrar técnicamente su falsedad.


Aunque esta tecnología ha tenido impactos positivos en industrias como el entretenimiento y la medicina, también comporta riesgos significativos para la convivencia y los derechos humanos, pues presenta un nivel de complejidad que la diferencia de otras formas de desinformación.


Su rasgo central es la sofisticación técnica con la que pueden generarse, combinada con la creciente disponibilidad de herramientas que permiten a prácticamente cualquier persona producir contenido falso de alta calidad, “existen aplicaciones gratuitas para generar deepfakes de forma sencilla y fácilmente accesibles, que permiten a usuarios con pocas habilidades técnicas y sin ninguna experiencia editar vídeos, intercambiar caras, alterar expresiones y sintetizar el habla casi a la perfección” (García, 2021, p. 107) generando así publicación global instantánea.


De acuerdo con la UNESCO, no solo engañan, sino que debilitan los fundamentos que permiten que construyamos una comprensión común del mundo, afectando así la convivencia, el debate democrático y la vida social. Las siguientes situaciones reflejan este impacto.


Según DW, el 96% de los deepfakes corresponde a contenido pornográfico, lo que implica una grave vulneración de los derechos fundamentales de las personas afectadas. El uso no consentido de la imagen de celebridades para estos fines ha sido ampliamente documentado, con casos notorios como los de Emma Watson y Scarlett Johansson.


En las escuelas, los deepfakes también están siendo empleados para crear contenido acosador y sexualmente explícito de compañeros y docentes.


De igual modo, la clonación de voz mediante IA se ha utilizado para extorsionar. Los estafadores llaman a familiares o amigos recreando situaciones de emergencia muy convincentes que llevan a las víctimas a enviar dinero. Los expertos advierten que no se requieren grabaciones largas; con apenas unos segundos de audio es posible replicar la voz de una persona.


Este aspecto refuerza el fenómeno denominado «apocalipsis de la información» o «apatía por la realidad» (Westerlund, 2019), que derivaría en un agotamiento del pensamiento crítico. (…) En otras palabras, la mayor amenaza no reside en el hecho de que el receptor de la información sea engañado, sino en que la información misma pierda toda la credibilidad. (García, 2021, p. 111)


El uso indebido de los deepfakes deteriora los lazos de confianza y genera una atmósfera de hipervigilancia que afecta uno de los pilares fundamentales de la convivencia: la posibilidad de creer en la palabra y en la presencia del otro. Cuando no sabemos si lo que vemos o escuchamos es real, la respuesta auténtica se vuelve inviable y cada interacción queda sometida a un ejercicio previo de verificación. Incluso las imágenes y los videos genuinos empiezan a ser puestos en duda, porque en otros contextos la amenaza de ser engañado, estafado o violentado ha sido real. Surge así un escenario en el que, aun cuando la verdad se repita infinitas veces, puede no ser aceptada. Tal como ocurre con quien ha mentido reiteradamente, el dividendo del mentiroso —“la posibilidad de descartar incluso grabaciones auténticas alegando que podrían ser falsificaciones instala un doble vínculo donde ni la creencia ni la incredulidad pueden justificarse plenamente.” (Schiff et al., 2024, citado en Naffi, 2025)

 

REFERENCIAS

 

  • Naffi, N. (2025, octubre 1). Deepfakes and the crisis of the knowing. UNESCO.

  • García, F. (2021). Deepfakes: el próximo reto en la detección de noticias falsas. Anàlisi, 64.

  • Jiménez, I. (2025). La difícil convivencia entre la inteligencia artificial y los derechos fundamentales: la tecnología deepfake.

  • DW Español. (2020, marzo 9). ¿Qué son los deepfakes? Los trucos para detectar falsificaciones de videos. Deutsche Welle.

     

bottom of page