En un contexto donde las noticias fluyen a gran velocidad y rapidez su veracidad se vuelve fundamental. La llegada de la IA ha llevado a que la producción de contenido sea mayor y a su vez a un incremento de la desinformación. Por lo tanto, la necesidad en la actualidad de desarrollar habilidades críticas que nos permitan analizar lo que consumimos es mayor, ya que los medios transmiten hechos pero también narra una historia que determina cómo entendemos el mundo y por consiguiente cómo interpretamos la realidad.
Hoy en día ya hay herramientas (gratuitas y de pago) que permiten identificar si una información ha sido producida por IA, pero estas también pueden dar falsos positivos o negativos al clasificar como artificial lo que en realidad fue elaborado por humanos o viceversa. Por ende, más que buscar una respuesta única en la herramienta, debemos adoptar un cuestionamiento crítico y comparativo.
En texto
La diferencia entre texto humano, el generado por máquinas o una Inteligencia Artificial es cada vez más difícil. Una señal habitual es la estructura muy regular, sin matices ni irregularidades (excepciones), algo poco habitual en la escritura humana. Así como la reiteración de las ideas hasta el extremo de una mínima variación, sin que se incorpore información nueva. Así como el uso de un lenguaje genérico, sin descender a la profundidad ni interpretar. Y finalmente, textos que no citan sus fuentes, las cuales no ofrecen un contexto verificable o se mantienen en generalidades pueden ser señales de automatización o de baja fiabilidad (humana o no).
Existen herramientas para identificar estos patrones, pero se deben manejar con cuidado, ya que un texto puede tener un funcionamiento técnico que pueda dar la impresión de que se haya escrito automáticamente pero no lo sea. Como se ha mencionado al principio pueden dar resultados erróneos, por eso la mejor forma de comprobar si tenemos un texto expresivo o no, es comprobar si tiene fuentes verificables, contexto claro, datos concretos y si hay sesgos, de dónde provienen si es que los hay.
Como herramienta de apoyo se puede utilizar la herramienta de GPTinf (https://www.gptinf.com/detector) que se basa en la búsqueda de patrones de texto automatizado, cabe destacar que es importante tener en cuenta que hay herramientas que puede “humanizar” el texto y hace pasar el texto generado por IA como un hecho
/

En Imágenes/Videos
Las fotos y vídeos existentes han llegado a un grado de realismo difícil de identificar. La diferencia respecto a etapas previas (donde la calidad o los errores eran tan obvios que los potenciales soportes se hacían evidentes) está marcada por la aparición de signos en mínimos detalles e inconsistentes visuales. Elementos como manos, reflejos, sombras o proporciones pueden ser desiguales sin que, para el espectador cualquiera, se conviertan en evidencias.
Una imagen puede considerarse completamente real a nivel técnico, pero sospechosa cuando se analiza el contexto en que fue obtenida: lugar, tiempo, fuente de difusión o relación con otros hechos. Normalmente, el problema no es que la imagen sea falsa, sino que se encuentra fuera de su contexto o se reutiliza (lo que también es otra forma de desinformar).
En los vídeos, el trabajo se hace todavía más complicado por el movimiento. Pueden aparecer señales como rostros en tensión, cambios bruscos de visualización, pero los servicios de deepfake han reducido bastante (en su parte técnica) todo ello. Eso supone que el análisis no pueda centrarse solamente en lo visual, sino que también incorpore la narrativa y la verificación externa.
Para investigar esto, la herramienta Undetectable AI (https://undetectable.ai/es/ai-image-detector) y ZeroGPT (https://www.zerogpt.com/es/ai-image-detector), que analizan si una imagen pudo haber sido generada con IA. Aun así, su precisión varía, su uso requiere interpretación y no ofrece conclusiones definitivas.

En Audio
El audio sintético, incluyendo voces clonadas, representa uno de los mayores desafíos actuales. Algunos indicadores pueden ser: entonación demasiado uniforme o una falta de variación emocional genuina, pausas poco naturales o falta de respiración. El mayor desafío, no está en el audio en sí, sino en su contexto de circulación. Los audios falsos suelen difundirse de manera aislada, sin fuentes verificables o sin posibilidad de rastrear su origen. En estos casos, la verificación depende más del contraste con registros previos, declaraciones oficiales o evidencia adicional que del análisis técnico del sonido.
¿Dónde se puede consultar si no tenemos tiempo para hacerlo?
Una forma de verificar información es acudir a medios especializados en verificación de datos. Plataformas como AFP Factual Chequeado, Verificado y El Sabueso analizan contenido viral, contrastan fuentes y ayudan a entender no solo si una información es falsa o verdadera, también qué elementos son engañosos y por qué. Sin embargo, ninguna es infalible así que lo más recomendable es consultar varias fuentes, comparar enfoques y revisar la evidencia presentada.



