El huracán Helene, uno de los más destructivos que ha azotado los Estados Unidos desde el huracán Katrina en 2005, no solo ha dejado a su paso inundaciones y devastación, sino que también ha desatado una ola de desinformación en las redes sociales.
Entre las imágenes de los destrozos reales, han comenzado a circular imágenes manipuladas y generadas por inteligencia artificial, conocidas como deepfakes, que retratan supuestos momentos de sufrimiento humano que, a pesar de ser falsos, se han viralizado a gran velocidad.
Imágenes falsas del huracán Helene: el caso de la niña con el cachorro
Estas imágenes, como señala Forbes, presentan varias inconsistencias que las delatan como deepfakes. Por ejemplo, en una versión de la imagen, la niña lleva puesta una camisa diferente a la que aparece en otra versión casi idéntica. Además, el cachorro que sostiene tiene un pelaje ligeramente más oscuro en una de las versiones y el bote en el que se encuentra la niña cambia de forma y color. Estos pequeños detalles, que pueden pasar desapercibidos para la mayoría de los espectadores, son claras señales de que la imagen ha sido manipulada.
Incluso figuras públicas, como el senador Mike Lee de Utah, fueron engañadas por la imagen, compartiéndola en X con el comentario “Caption this photo” (“Pongan un título a esta foto”). Aunque posteriormente la eliminó tras recibir advertencias de que la foto era falsa, su difusión ya había alcanzado a miles de personas.
De manera similar, una usuaria de Facebook compartió la imagen con el texto “Dear God, help our babies and their families!” (“Dios mío, ayuda a nuestros bebés y sus familias”), mostrando la rapidez con la que estos deepfakes apelan a las emociones de los usuarios.
El peligro de los deepfakes en medio de desastres
Las consecuencias de la difusión de estas imágenes falsas van más allá de la confusión momentánea. Según Forbes, los deepfakes en situaciones de desastre pueden complicar gravemente los esfuerzos de respuesta y rescate, crear narrativas falsas y erosionar la confianza pública en un momento en el que la información precisa y confiable es crucial.
Estos deepfakes no solo desinforman, sino que también pueden ser utilizados para estafas, como la recolección de fondos fraudulentos para las víctimas, aunque hasta ahora no se ha comprobado que la imagen de la niña haya sido usada con ese propósito.
Un ejemplo reciente de la manipulación de imágenes con fines políticos fue la crítica a los esfuerzos de la FEMA (Agencia Federal para el Manejo de Emergencias), en la que partidarios de Donald Trump utilizaron imágenes y noticias falsas para desprestigiar los intentos de la agencia de auxiliar a los afectados por el huracán Helene.
Cómo identificar una imagen generada por IA
Distinguir entre una imagen real y una generada por inteligencia artificial puede ser difícil, sobre todo en momentos de crisis cuando la gente busca información rápidamente. Sin embargo, los forenses digitales sugieren algunos signos clave que pueden ayudar a identificar deepfakes:
- Inconsistencias visuales: como en el caso de la imagen de la niña con el cachorro, los deepfakes a menudo contienen pequeños detalles que no cuadran. Cambios sutiles en la ropa, el entorno o los animales presentes pueden ser indicios de que una imagen ha sido manipulada.
- Calidad de la imagen: las imágenes generadas por IA suelen tener zonas borrosas o pixeladas, especialmente en los bordes de objetos o personas. En algunos casos, los rasgos faciales pueden parecer artificiales o demasiado suaves, lo que puede ser una señal de que la imagen no es real.
- Anomalías en las extremidades o en las manos: un error común en los deepfakes es la representación incorrecta de las manos o los dedos. En una de las versiones de la imagen de la niña, se observa que tiene un dedo de más, lo que delata la manipulación.
- Verificación de la fuente: es importante siempre verificar la fuente original de una imagen antes de compartirla. Plataformas como Facebook han comenzado a etiquetar imágenes como “alteradas” cuando se detecta que han sido manipuladas, pero estas advertencias no siempre llegan a tiempo.
Fuente: Infobae