top of page

6 claves para reconocer desinformación generada por IA


Tal como señala García (2005), la desinformación impulsada por inteligencia artificial se ha convertido en un fenómeno global, capaz de adaptarse a distintos contextos sociopolíticos. Sus consecuencias son profundas: desde la erosión de la confianza en las instituciones, la polarización del debate público, hasta el debilitamiento de la democracia misma. En este escenario, los algoritmos de recomendación han desempeñado un papel crucial al facilitar la viralización de contenidos falsos, reforzando cámaras de eco y burbujas informativas que distorsionan la percepción de la realidad.


A esta dinámica se suma un cambio estructural en el modo en que las personas acceden a la información: las redes sociales se han convertido en el canal predominante. De acuerdo con García (2005), “esta transformación del ecosistema informativo ha desplazado el protagonismo desde los medios convencionales hacia las plataformas digitales, donde la lógica algorítmica y la viralización priman sobre la veracidad y el rigor” (p. 96).


En este contexto complejo, resulta paradójico que la inteligencia artificial represente tanto una amenaza como una posible solución. Por un lado, permite la producción masiva de desinformación; por otro, habilitas herramientas como el fact-checking automatizado, los sistemas de detección de patrones anómalos y las tecnologías forenses. No obstante, estas respuestas técnicas resultan insuficientes por sí solas. Para enfrentar eficazmente la desinformación generada con IA, es necesario avanzar en marcos regulatorios sólidos, establecer principios éticos en el diseño de algoritmos y promover políticas públicas orientadas a la alfabetización mediática y digital de la ciudadanía.


Principales narrativas desinformativas generadas con IA


Como señala García (2005) las narrativas desinformativas generadas mediante inteligencia artificial suelen centrarse en la manipulación de la imagen pública de figuras relevantes, con el objetivo de dañar su reputación o aprovecharse de ella. Predominan las imágenes falsas —fotografías o videos— en las que estas personas aparecen realizando acciones o pronunciando declaraciones que nunca ocurrieron.


Así mismo, se utiliza con frecuencia en contextos de conflicto armado, donde su función es doble: por un lado, demonizar al enemigo mediante representaciones atroces; por otro, minimizar las propias acciones y justificar la legitimidad del conflicto. También ha sido empleada para producir información falsa con fines económicos, especialmente en contenidos audiovisuales que promueven productos, inversiones engañosas o desinformación sobre salud, aprovechando el alto impacto emocional y la viralidad de este tipo de mensajes.


Este tipo de desinformación, tal como señala Ángel (2021), tiene un marcado predominio visual. Esto se debe a diversas razones. En primer lugar, las imágenes se difunden con mayor facilidad y velocidad a través del principal canal de acceso a la información en la actualidad: las redes sociales. Además, lo visual ha estado históricamente asociado con una mayor credibilidad, lo que refuerza su poder persuasivo. Las imágenes, a diferencia del texto, pueden adaptarse con rapidez a diferentes contextos, víctimas y entornos, lo que amplifica su impacto. En este sentido, la primacía de lo emocional sobre lo racional otorga a la imagen un rol protagónico frente al discurso textual (Hameleers et al., 2020, citado en Ángel, 2021). Las percepciones que las imágenes generan operan como mecanismos de manipulación inmediatos, explotando sesgos cognitivos tanto individuales como colectivos.


En el camino hacia una ciudadanía digital más consciente y crítica, ha sido fundamental el trabajo de expertos en desinformación, quienes han desarrollado metodologías para identificar este tipo de contenidos. Sin embargo, la ciudadanía en general requiere herramientas para identificarlos. En este sentido, García (2025) propone una serie de indicios clave que permiten reconocer cuándo se está frente a una narrativa desinformativa impulsada por IA.


1. Falta de autoría o procedencia clara


La desinformación generada por IA suele producirse de forma automatizada y anónima, sin intervención humana. Muchos contenidos creados no incluyen ninguna firma, enlace confiable ni trazabilidad de origen. La IA puede generar miles de contenidos sin autor, lo que dificulta verificar su fuente.


2. Titulares llamativos con carga emocional


Los modelos de lenguaje e IA generativa aprenden qué tipos de titulares son más virales, basándose en datos reales de internet. Esto les permite replicar patrones emocionales como el miedo, la indignación o la urgencia con gran eficacia, maximizando la viralización sin importar la veracidad del contenido. A diferencia de un redactor humano, la IA no evalúa las consecuencias sociales o éticas de estos titulares.


3.   Dificultad para identificar o ausencia de fuentes verificables

 

Estos modelos de lenguaje pueden “alucinar” fuentes (es decir, inventar citas, estudios, instituciones) que no existen o no corresponden con lo citado. Esta capacidad de simular precisión es especialmente peligrosa, porque el contenido puede parecer veraz, aunque no tenga ningún respaldo real. Esto es diferente de la desinformación humana, que a menudo omite fuentes, pero rara vez crea fuentes falsas de forma tan sofisticada.


4. Énfasis excesivo en la exclusividad


Los generadores automáticos de contenido pueden incluir frases manipuladoras como “solo aquí”, “información exclusiva” o “lo que nadie te contó”, simulando el estilo sensacionalista que maximiza clics. Estas expresiones son fáciles de programar o aprender por modelos entrenados con datos masivos y pueden ser insertadas de forma automática en múltiples contenidos para aumentar su alcance.


5. Diseños visuales manipuladores


La IA no solo genera texto: puede diseñar imágenes, videos o gráficos adaptados para captar atención. Herramientas de IA generativa permiten crear contenidos visuales artificiales con elementos llamativos, como colores intensos, tipografías agresivas o simulación de portales de noticias, con el objetivo de parecer creíbles a simple vista. Esta capacidad técnica supera, en escala y velocidad, a las estrategias manuales de desinformación tradicionales.


6. Contextos confusos o mal definidos


Puede reciclar contenidos fuera de contexto, combinando información verdadera con fechas, lugares o actores falsos. Además, los sistemas automáticos no comprenden el tiempo o la relevancia del contenido, por lo que fácilmente pueden generar o difundir noticias caducas como si fueran actuales, sin incluir metadatos, fecha de publicación o actualizaciones. Esto aumenta el riesgo de confusión en el lector.


La desinformación no surgió con la IA, pero ha elevado su sofisticación, velocidad y capacidad de engaño. Por eso, estos indicadores son más necesarios que nunca en un entorno mediado por tecnologías automatizadas.


Ahora bien, la pregunta es: ¿realmente consideramos estos elementos al momento de leer o compartir una noticia? En el entorno acelerado de las redes sociales, lo que más llama la atención suele ser el titular. Y como menciona Ángel (2025), si ese titular refuerza las creencias y sesgos del lector, su alcance y viralidad se multiplican.


Frente a esta realidad, se vuelve urgente dejar de ser simples consumidores de información para convertirnos en lectores críticos y conscientes. No obstante, el uso mayoritario de redes sociales con fines de entretenimiento dificulta esta transición, puesto que estas plataformas no fueron diseñadas para informar rigurosamente. Aún más preocupante es el rol de la imagen en estos entornos: por su carga emocional y aparente credibilidad, se ha convertido en un recurso ideal para el engaño.


Por ello, informarse adecuadamente implica acudir a medios cuyo propósito es precisamente informar, donde el formato escrito favorece la reflexión. El periodismo serio y riguroso enfrenta hoy múltiples desafíos, al punto que se ha vuelto necesario contar con profesionales especializados que verifiquen la información falsa que circula constantemente.

En este contexto, surgen los fact-checkers o agencias de verificación, medios dedicados a comprobar la veracidad del contenido difundido por terceros, así como a verificar el discurso de figuras públicas. Su labor consiste en analizar afirmaciones, datos o declaraciones, y determinar si son verdaderas, falsas o imprecisas. Para ello, utilizan herramientas tecnológicas como la búsqueda inversa de imágenes, el análisis de metadatos, la geolocalización y el análisis forense digital.


Este tipo de verificación se ha convertido en una acción indispensable para el sostenimiento de la democracia. Sin embargo, la responsabilidad no recae únicamente en los medios o en los expertos. La ciudadanía también cumple un rol central, puesto que al compartir contenido falso contribuye directa o indirectamente a su viralización y a amplificar sus efectos nocivos.


En ese sentido, la educación sigue siendo el medio fundamental para formar ciudadanos críticos, responsables y conscientes del tipo de información que reciben, consumen y reproducen.


En los próximos blogs, abordaremos estrategias concretas para fortalecer estas capacidades y construir, entre todos, una cultura digital frente a la desinformación.

 


Referencias


García-Marín, D. 4. Universo deepfake. Cartografía de la desinformación generada con IA. en la era de la IA, 79.


Gómez de Ágreda, Á., Feijoo González, C. A., & Salazar García, I. A. (2021). Una nueva taxonomía del uso de la imagen en la conformación interesada del relato digital. Deep fakes e inteligencia artificial. El Profesional de la información30(2), 1-24.

 

 

 

 

 

bottom of page