Exclusivo
Actualidad

Imágenes íntimas de Alana Flores y Leidy Álvarez: ¿Cómo detectar si es deepfake?
Las imágenes y videos manipulados con IA son conocidos como deepfake. Usar herramientas de verificación es esencial para evitar los engaños digitales
La inteligencia artificial (IA) ha transformado la forma en que consumimos y compartimos. Sin embargo, junto con sus beneficios, también ha traído otras consecuencias como la proliferación de imágenes y videos manipulados, conocidos como deepfakes. Casos como las de la mexicana Alana Flores y la ecuatoriana Leidy Álvarez dan cuenta de este fenómeno que ha causado daño en su imagen.
(Te puede interesar: Bono 1000 días Ecuador 2025: link para registrar tu cuenta)
El 5 de mayo, Leidy Álvarez, conocida como la Chonera Bonita, publicó un comunicado en el que niega haber estado en situaciones comprometedoras. “Quiero aclararles que los vídeo inapropiados que está circulando en redes no soy yo, unos han sido editados y otros me vinculan solo por el color del cabello. Puedo decirles que los primeros videos fueron denunciados el 24 de julio del 2024 por mis padres por medio de la fiscalía”, enfatizó.
Asimismo, Alana Flores negó que haya hecho fotos sin ropa o tener cuenta en plataformas como Onlyfans. Sin embargo, las imágenes se hicieron virales en redes sociales.
Estas creaciones pueden parecer reales y se utilizan con fines que van desde el entretenimiento hasta la desinformación o el fraude. En este contexto, aprender a identificar contenidos alterados por IA se ha vuelto crucial para protegerse de noticias falsas y manipulaciones digitales.
¿Cómo detectar el deepfake?
Uno de los primeros pasos para detectar una imagen generada o modificada por inteligencia artificial es examinarla detenidamente en busca de anomalías visuales. Tener en cuenta las proporciones anatómicas erróneas, como manos con más o menos dedos, orejas mal alineadas o rostros asimétricos, suelen ser señales reveladoras.
También es común que la iluminación y las sombras no coincidan con la lógica natural de la escena. Texturas demasiado suaves, detalles desenfocados o patrones repetitivos —por ejemplo, árboles o ventanas duplicadas en el fondo— pueden indicar que la imagen fue generada artificialmente.
En el caso de los videos, el análisis se vuelve más complejo, pero existen pistas claras. Una de las más evidentes es la desincronización entre los movimientos de los labios y el audio. También puede observarse un parpadeo anormal o incluso la ausencia total del mismo, un fallo común en los deepfakes. Expresiones faciales rígidas o movimientos corporales robóticos, junto con artefactos visuales en los bordes del rostro, son indicios adicionales de que un video ha sido manipulado.
¿Qué aplicaciones sirven para detectar deepfakes?
Existen herramientas tecnológicas que permiten analizar contenido digital de manera más objetiva. Google Lens y otras plataformas de búsqueda inversa permiten rastrear el origen de una imagen, revelando si ha sido tomada de otro contexto. La extensión InVID-WeVerify, utilizada por periodistas y verificadores de datos, también permite inspeccionar metadatos y realizar análisis cuadro por cuadro de los videos.
También hay soluciones específicas para detectar contenido generado por IA. Herramientas como Undetectable AI o Video Authenticator emplean algoritmos que analizan la compresión de imágenes, metadatos y patrones de edición para identificar alteraciones. Otras técnicas como el análisis del nivel de error (Error Level Analysis) pueden revelar inconsistencias en la compresión de distintos sectores de una imagen, lo que sugiere una manipulación.
Expertos recomiendan revisar cualquier contenido viral, verificar la fuente, buscar la noticia en medios confiables, evitar compartir información sensacionalista son acciones clave para combatir la desinformación.
¿Quieres acceder a todo el contenido de calidad sin límites? ¡SUSCRÍBETE AQUÍ!