
¿Es posible identificar videos creados con Inteligencia Artificial?
10 de Septiembre de 2025
Saber si un video fue generado o manipulado con IA es posible, pero requiere aplicar técnicas especializadas de análisis forense digital, y aún así no hay garantía de detección 100% confiable.
Algunos métodos de detección de videos creados o manipulados con IA, combinan visión por computadora, análisis forense y modelos entrenados para identificar patrones típicos de IA.
Hay muchas “pistas” que podrían delatar que un video fue creado con IA, las más comunes son: parpadeo irregular, desalineación de labios y voz, sombras y reflejos inexactos, bordes borrosos en la cara o el cabello, cambios de iluminación no naturales entre frames.
Aunque lo cierto es que cada vez la IA generativa crea videos mucho mas realistas y por lo tanto muy difíciles de identificar como creados con IA.
Te comparto algunas opciones que podrías usar para detectar si un video fue creado con IA o no:
- Sensity AI es la más completa y robusta (aunque es de pago y requiere onboarding).
- Microsoft Video Authenticator es potente, pero solo se ofrece a medios/verificadores certificados.
- Deepware Scanner es útil, aunque limitado para videos largos o complejos.
- DetectFakes.ai sirve para aprender, no para escanear de forma automática.

En el caso particular de DetectFakes.ai, la herramienta se enfoca en el análisis de fotografías estáticas, no en videos. Aun así, puede resultar una experiencia interesante —e incluso desafiante— intentar distinguir entre una imagen real y una generada por inteligencia artificial.
Te invito a probarla: te sorprenderá lo difícil que puede ser, si no es que prácticamente imposible, notar la diferencia.
Sin embargo, la batalla no esta perdida, empresas de la talla de Adobe, Microsoft, Intel, entre otros, están trabajando en una coalición de nombre: Coalition for Content Provenance and Authenticity.
C2PA por sus siglas en inglés; esta coalición busca establecer un estándar abierto que sirva para garantizar el origen legítimo de un video, fotografías, audio y documentos, insertando metadatos firmados digitalmente.
Para verificar que un contenido multimedia proviene de una fuente legítima, se puede insertar un metadato en el archivo. Este metadato —es decir, un dato sobre el dato— incluye información que describe el contenido, su origen y sus características, como la fecha de creación, el autor, el dispositivo utilizado o si ha sido editado.
C2PA es una iniciativa global creada para combatir la desinformación digital y proteger la autenticidad del contenido, especialmente frente al auge del contenido generado o manipulado con IA.
Aunque existen herramientas robustas para detectar videos generados por IA (deepfakes y CGI con IA), ninguna garantiza una precisión total. La tendencia futura será confiar en sistemas de autenticación (como C2PA) que validen la procedencia del contenido, más que depender solo del análisis forense.