Cookie Consent by Free Privacy Policy Generator
Loading...
EN INVESTIGACIÓN 🔥 4 PISTAS

¿Qué son las deepfakes y cómo podemos detectarlas?

Publicada el 05/02/2025

Esta duda es sobre:

RESPUESTAS EXPERTAS
DE LA COMUNIDAD

4 PISTAS DE PERSONAS CON SUPERPODERES

Valoración aportada el 06-02-2025

¿Qué son? Imágenes, vídeos o audios creados o manipulados por inteligencia artificial para dar fe de "algo" que nunca ocurrió. 

¿Cómo detectarlas? Los expertos tienen herramientas para ayudar a su detección. A los demás no nos queda más remedio que utilizar las técnicas de nuestros mayores: fijarnos en los detalles y preguntar a otro. La IA, por ahora, no es perfecta y comete fallos mínimos que se pueden detectar si nos fijamos mucho (sombras, detallitos, incoherencias, borrosidad, etc.) y siempre nos queda verificar la fuente que nos la hace llegar. ¿Cómo sabían antes que un señor que va por la calle lleva peluquín o no?

Valoración aportada el 06-02-2025

Los deepfakes son imágenes, audios y/o vídeos que han sido creados utilizando herramientas como la IA para mostrar cosas y personas que no existen o modificar otras para que digan o hagan lo que nosotros queramos. Hay muchos ejemplos que nos permiten detectar cuándo se trata de un deepfake. 

Por un lado hay que usar el sentido común. Aparecieron hace meses unas fotografías del Papa vistiendo lujosos abrigos de conocidas marcas. Detectar las imperfecciones en los humanos sintéticos creados mediante IA: suelen parpadear menos o de manera rara, a veces solo se cambia una cara sobre otro cuerpo, como sucede en un reciente vídeo de Alejo Stivel y Joaquín Sabina. Uno muy bien hecho es un anuncio de Karlos Arguiñano donde sale muy joven o el de Lola Flores, que son más difíciles de detectar. 

Las bocas en los últimos anuncios de Trivago te hacen sentir que hay algo raro en la pantalla y es debido a que graban un solo anuncio y mediante IA modifican el movimiento de la boca de los actores para cada idioma al que traducen la publicidad. 

El problema de los deepfakes es que son una amenaza ya que se pueden utilizar de manera fraudulenta. Se puede emplear para simular la voz de un ser querido o enviarnos audios pidiendo dinero de manera urgente por una fatalidad. En estos casos es conveniente tener una palabra secreta con nuestros familiares para verificar que el remitente es quien dice ser. 

Valoración aportada el 06-02-2025

Desde hace ya un par de años la IA ha copado los titulares de muchos diarios y los roadmaps de desarrollo de muchas empresas de software que buscan incluir inteligencia artificial en sus productos, así como empresas que buscan estos productos para automatizar sus procesos. 

Sin embargo, la IA también viene con algunos usos no tan prometedores y entre ellos destacaba el Deepfake que básicamente son archivos de vídeo, imagen o sonido manipulados mediante software de inteligencia artificial y algoritmos de aprendizaje automático. El gran problema es que los archivos generados con deepfake, que normalmente se pensaron para entretenimiento, se han convertido en una fuente de desinformación y de engaños (estafas, extorsión) bastante peligrosas. 

Por ejemplo, para generar vídeos de personas en situaciones de pornografía o con discursos que esa persona no ha dicho en la vida real. Algunos usos no éticos (pero menos graves que los mencionados antes) es la creación de imágenes y vídeos de situaciones irreales que intentan engañar a las personas haciéndoles creer que son reales (por ejemplo en la fotografía y vídeos documentales). 

En general, aunque los resultados de las IA siguen siendo muy buenos y cada día mejoran notablemente, algunos errores siguen estando presentes ayudando a identificar los deepfakes (aunque cada vez tiende a ser más difícil y requiere mucha atención al detalle para identificarlos): 

- Las manos es un punto clave, se suelen ver extrañas, poco naturales, o incluso totalmente deformes. Algo similar pasa con los pies. 

- En los vídeos, especialmente cuando se intenta cambiar la voz, el movimiento de los labios tampoco se ve natural, incluso el color de los labios no suele ser consistente con el resto del rostro. 

- Las poses y movimientos de las personas/animales/objetos a veces son antinaturales o inconsistentes. 

- Las IA a veces no son muy buenas con los detalles, esto hace que en una imagen o un vídeo con elementos como gotas de agua podamos ver como las gotas aparecen y desaparecen de forma extraña, o como cambian de posición. También pasa con lunares, vello facial, sombras o el parpadeo 

- Un vídeo muy corto puede ser sospechoso, pues cuesta mucho en procesamiento para una IA la generación de un material de este tipo con una duración prolongada. 

Valoración aportada el 07-02-2025

3 recomendaciones para detectarlas: 

1. Si el titular afirma o da a entender que todos los miembros de un grupo: partido político, pueblo, equipo, empresa... han hecho algo malísimo, que van a acabar con el mundo, van a traer la desgracia o que todos han robado y otros pecados capitales, es falso. No compartir. 

2. Si un problema es complejo, hay muchas personas intentando resolverlo o llevan años de investigación y aún no se ha descubierto la solución, cualquier ocurrencia basada en la aplicación de un método casero o la compra de un producto común resuelve el problema es falso. No compartir.  

3. En noticias en las que se utilice para definir a otro con o una o varias de las siguientes palabras: invasión, amenaza, destrucción, adoctrinamiento, persecución, imposición, ruptura, peor, prohibir, romper o fracaso, poner en cuarentena. No compartir. Ser críticos y ver qué dice el otro sobre el mismo tema. 

OTRAS PISTAS
DE LA COMUNIDAD