top of page

La otra cara de los deepfakes: violencia digital contra las mujeres


Entre 2022 y 2023, la cantidad de pornografía deepfake creada aumentó un 464%. Mientras que en 2022 se registraban alrededor de 3.725 videos de este tipo en internet, en 2023 la cifra escaló a 21.019. Este crecimiento no solo evidencia la rápida expansión de esta práctica, sino también su profundo sesgo de género: el 99% de los contenidos de pornografía deepfake presentan a mujeres como sujeto principal, frente a un escaso 1% que involucra a hombres (Home Security Heroes, 2023, citado en Becerra, Ortiz & Vergara, 2025, p. 41).


El uso indebido de los deepfakes plantea dilemas éticos de gran envergadura, especialmente en lo que respecta al consentimiento y la explotación de la imagen de las personas involucradas, en particular cuando se utilizan para crear contenido pornográfico. Estas tecnologías no solo transgreden los límites de la privacidad, sino que también se han convertido en instrumentos de extorsión, acoso y otras formas de violencia digital de género, profundizando las desigualdades y exponiendo a las víctimas a múltiples formas de revictimización.


Este fenómeno no es nuevo. Sus orígenes se remontan al año 2017, cuando en la red social Reddit un usuario, bajo el seudónimo deepfakes, comenzó a difundir imágenes y videos manipulados digitalmente en los que aparecían actrices y cantantes famosas en escenas sexuales o eróticas. A partir de ese momento, esta práctica se expandió vertiginosamente, generando un campo fértil para la vulneración de derechos en un entorno legal aún rezagado frente al avance de las tecnologías.


En la actualidad, existen numerosas aplicaciones que permiten crear contenidos deepfake con facilidad y sin requerir conocimientos técnicos especializados. Según Cuzcano y Gonzales (2025), estas herramientas han sido diseñadas con interfaces amigables y procesos automáticos que permiten generar resultados convincentes en cuestión de minutos. Los investigadores identificaron que más de la mitad de las aplicaciones analizadas fueron calificadas como "fáciles de usar", dado que cumplían con tres criterios esenciales: navegación intuitiva, facilidad para cargar imágenes o videos, y simplicidad en el proceso de generación de deepfakes.


A este panorama se suma el hecho de que muchas de estas aplicaciones ofrecen funciones básicas de forma gratuita. Aunque algunas herramientas más avanzadas requieren pagos, los usuarios pueden evadir estas limitaciones fácilmente mediante capturas de pantalla, grabaciones o la creación de múltiples cuentas. Incluso el contenido creado sin pagar puede ser altamente nocivo, al ser suficiente para vulnerar la privacidad de una persona y convertirla en víctima de violencia digital.


Las funcionalidades que ofrecen estas plataformas incluyen herramientas como el intercambio de rostros, el reconocimiento de expresiones faciales, la sincronización de labios o la conversión de texto en video. Estas funciones permiten colocar el rostro de cualquier persona —famosa o anónima— en un video sin su autorización. Además, Cuzcano y Gonzales (2025) identificaron opciones que permiten generar videos animados a partir de fotografías estáticas, crear clips con personas digitales que cantan o bailan, e incluso simular interacciones humanas íntimas, como abrazos, besos o escenas sexuales entre figuras generadas artificialmente.


Lo más preocupante de acuerdo con los autores es que todo esto se presenta bajo un lenguaje amigable, vinculado a la creatividad, la diversión y el entretenimiento. Las frases promocionales como “haz que tu cara baile” o “crea videos irresistibles” trivializan los riesgos y contribuyen a invisibilizar el daño que pueden generar estas prácticas. Esta narrativa despolitizada oculta que muchas de estas representaciones reproducen una fuerte cosificación del cuerpo femenino: se ofrecen figuras de mujeres con lencería, escotes o disfraces sexualizados como opciones predeterminadas. Como plantea Judith Butler (1993, citada en Cuzcano y Gonzales, 2025), los cuerpos no existen como entidades naturales previas al discurso social, sino que se constituyen a través de actos performativos. En ese sentido, estas aplicaciones no solo reproducen cuerpos; los fabrican y los inscriben en lógicas sexistas que refuerzan roles y expectativas de género.


Pese a todo, las plataformas suelen eludir su responsabilidad ética, desplazando la carga completamente hacia los usuarios. Aunque incluyen cláusulas legales sobre el uso del contenido, estas advertencias se encuentran en textos complejos, a menudo redactados en inglés y de difícil comprensión. Esta falta de transparencia constituye, en términos de Miranda Fricker (2007, citado en Cuzcano y Gonzales, 2025), una forma de injusticia hermenéutica: las víctimas no solo se enfrentan a un daño, sino también a la imposibilidad de nombrarlo, comprenderlo o comunicarlo en un marco conceptual claro. Esto agrava su aislamiento, impide la reparación y refuerza su vulnerabilidad.


Desde la ética dialógica, Adela Cortina (2006, citado en Cuzcano y Gonzales, 2025) sostiene que una tecnología que afecta negativamente a un grupo sin contar con su participación ni posibilidad real de rechazar su funcionamiento es éticamente ilegítima. Si las mujeres representadas en estos contenidos no pueden otorgar un consentimiento racional, informado y libre, entonces el uso de su imagen es moralmente insostenible. Incluso si existiera un consentimiento formal, este no puede considerarse válido si vulnera principios universales como el respeto a la dignidad humana. Aplicaciones que humillan, cosifican o exponen a las personas sin advertencias reales —aunque se amparen en términos de uso legales— infringen este principio fundamental y refuerzan formas estructurales de violencia digital.


En definitiva, los deepfakes no son solo una innovación tecnológica; son una manifestación del poder que ciertos grupos ejercen sobre los cuerpos, las imágenes y las voces de otros. Cuando una tecnología permite manipular la identidad de una persona sin su consentimiento, cuando simula su cuerpo y su sexualidad para el entretenimiento de otros, deja de ser una herramienta neutral y se convierte en un vehículo de dominación simbólica. Frente a ello, urge repensar el papel de la ética, la regulación y la alfabetización digital crítica. La tecnología no puede avanzar a costa del consentimiento ni de la dignidad.

 

REFERENCIAS


Cuzcano-Chavez, X., & González-Véliz, C. (2025). Análisis del abuso de aplicaciones deepfake y su impacto en la violencia digital de género en América Latina y el Caribe. Veritas, (61), 32-67.


Rangel, J. M. B., Quintero, E. A. O., & Llanos, J. C. V. (2025). Inteligencia artificial y creación de pornografía deepfake no consensuada: derechos humanos y perspectiva ético jurídico. Revista CES Derecho16(2), 38-60.

Comentarios

Obtuvo 0 de 5 estrellas.
Aún no hay calificaciones

Agrega una calificación
bottom of page