Los videos generados por inteligencia artificial pueden ser peligrosos, sobre todo cuando se usan para manipular información, por lo que es importante aprender a reconocerlos.
Nancy Valenzuela / NORO
En los últimos años, la inteligencia artificial (IA) ha avanzado a pasos agigantados, por lo que ha aumentado su capacidad para crear videos falsos que cada vez son más realistas. Sin embargo, esto también se ha convertido en un problema.
Y es que en redes sociales, y en la sociedad en general, algunos usuarios han llegado a compartir este tipo de productos audiovisuales al cree que es contenido real, pero en ocasiones pueden llegar a ser generados por la IA, lo que termina en generar la duda de lo que vemos es verídico o no.

Videos de inteligencia artificial se generan con herramientas especializadas
Los videos generados por IA son creados completamente mediante herramientas especializadas. Solo necesitas describir lo que imaginas y la inteligencia artificial lo transforma en un video que puede parecer real.
Una de las tecnologías más comentadas es Sora, desarrollada por OpenAI, creadores de ChatGPT. Aunque aún no está disponible para el público, sus demostraciones muestran resultados sorprendentemente realistas, salvo pequeños detalles como movimientos corporales poco naturales.
Cómo identificar un video hecho por inteligencia artificial
Detectar videos de inteligencia artificial será cada vez más complicado, pero existen señales que pueden ayudarte:
- Movimientos extraños o poco naturales: parpadeo irregular, gestos robóticos o desplazamientos corporales poco fluidos.
- Sincronización defectuosa entre labios y voz.
- Iluminación y sombras incoherentes con el entorno.
- Detalles anatómicos incorrectos como dedos adicionales, pupilas mal formadas o dientes extraños.
- Situaciones inverosímiles o imposibles en la vida real.

Además, si el video proviene de una fuente dudosa o sin contexto, lo mejor es verificar antes de compartirlo.
Plataformas que te ayudarán a verificar videos y detectar IA
Aunque no existen detectores infalibles, hay plataformas que ayudan a identificar contenido falso:
- Hive Moderation: analiza imágenes y videos para detectar si fueron creados con inteligencia artificial.
- InVID: herramienta para periodistas que verifica contenido sospechoso.
- Deepware Scanner: especializada en deepfakes.
- FotoForensics: examina metadatos y posibles alteraciones.
Estas herramientas son especialmente útiles ante la falta de detectores fiables para videos completos de inteligencia artificial.

IA para edición vs. videos generados por IA
No toda la inteligencia artificial en videos es engañosa. Muchas herramientas ayudan a editar contenido real, mejorando sonido o eliminando pausas, como Descript, Filmora o Adobe Premiere Pro. Otras generan elementos parciales como avatares o guiones, pero no un video completo, ejemplos son Pictory y Synthesia.
Con información de Go Winston, Excélsior y La Tercera










