deepfake

Deepfake, manipulación del contenido audiovisual

¿Podemos creer todo lo que nuestros ojos ven? Estamos acostumbrados a encontrarnos montajes fotográficos, tergiversación de los hechos o fake news en la red, pero hasta ahora los vídeos eran la fuente de información fiable.

Los contenidos audiovisuales, por su naturaleza, son más difíciles de modificar…al menos hasta ahora. Esto los hacía más seguros frente a la manipulación. Sin embargo, la tecnología, que tantos avances y beneficios ha traído a nuestras vidas, también presenta algunos inconvenientes como el deepfake.

Este anglicismo responde a la falsificación (fake) y al aprendizaje profundo (deep learning) desarrollado en torno a la inteligencia artificial. Aunque es una herramienta con poco recorrido, los expertos ya comienzan a vaticinar los problemas de manipulación que puede generar en el futuro.

Deepfake: qué es y por qué es peligroso

Cuando hablamos de deepfake nos referimos a una técnica que utiliza la inteligencia artificial para crear noticias falsas. En la mayoría de casos, se trata de vídeos manipulados de personas conocidas donde se intercambia el cuerpo, la cara o la voz.

El peligro que entraña este tipo de contenidos es la desinformación de aquellos que lo visualizan. Además, del perjuicio que puede suponer para las personas que son suplantadas. 

La Universidad Complutense de Madrid ha elaborado un estudio sobre el impacto de las noticias falsas en España. Los datos son abrumadores, ya que más del 80% de los españoles se cree las fake news. Y, aunque más del 50% piensa que sabe detectarlas, solo el 14% de la población consigue discernir entre el contenido verdadero y el que no lo es.

A pesar de no ser el país que más crea y distribuye noticias falsas (en este momento el primer puesto lo comparten…¡China y Rusia!), el 4% de la población española contribuye a generar este problema.

¿Cómo detectar si estamos ante un deepfake?

Descubrir si un vídeo es falso es una tarea compleja que la mayoría de usuarios son incapaces de lograr. Sin embargo, existen algunos trucos y consejos que pueden servir para poner a prueba este tipo de contenido multimedia.

La cara: ojos, boca y cuello

En primer lugar, en la parte superior, los ojos pueden darnos una pista. Fíjate en el parpadeo. Los humanos realizamos este movimiento una vez cada 2-8 aproximadamente, y el parpadeo dura entre 1-4 décimas de segundo.

No obstante, el algoritmo de los deepfake todavía no es capaz de imitar el parpadeo humano. Por lo tanto, como su velocidad es menor podemos detectar la manipulación.

En segundo lugar, podemos fijarnos en la boca; más concretamente en su interior. El software que se utiliza para crear deepfake es bastante efectivo con las caras, sin embargo no lo es tanto con esta área.

Por lo tanto, si aparece un desenfoque dentro de la boca puede significar que estamos ante un fake. También podríamos prestar atención a los dientes y la lengua.

Dentro del rostro, el último aspecto que podría delatar un contenido falso es el cuello. Es decir, el nexo de unión entre el cuerpo y la cara. Lo habitual es modificar la parte facial, ya que es más sencillo.

Por ello, debemos fijarnos también en las características que puedan mostrar que el cuerpo y la cara no pertenecen a la misma persona. Por ejemplo, tono de piel, musculatura, tatuajes o marcas,…

Algunas pistas para detectar el deepfake están en enalizar bien los rostros, un simple pestañeo menos puede hacerte saber que estás ante un contenido audiovisual falso.

La grabación: sonido y fuente

Otro de los aspectos a los que hay que atender es la grabación. Por una parte, el sonido debe ser analizado ya que puede haber una mala sincronización de los labios, por ejemplo.

Mientras que por otra parte, la fuente de la grabación, es decir, quién distribuye ese vídeo por primera vez es una gran pista. Una fuente oficial es más confiable que un perfil anónimo en cualquier red social.

Los pequeños detalles

Si estás decidido a detectar un contenido falso, cualquier detalle puede ser relevante. Reproducir más lento o más rápido es un método útil para comprobar si cambian los fondos o la propia imagen.

Buenas prácticas para el futuro de deepfake

Seguro que se te ocurren miles de acciones maliciosas e incluso te sientes un poco atemorizado porque se hagan realidad. Es cierto, el deepfake tiene muchos aspectos negativos que sobrepasan los límites éticos. Pero, ¿existen aspectos positivos en torno a esta técnica?

  • Investigación y medicina: la creación de avatares personales puede servir para detectar enfermedades a través de escáneres falsos que sirven para entrenar la inteligencia artificial.
  • Protección de identidad: es útil en entrevistas donde los participantes deben guardar su identidad oculta. También podría utilizarse para testimonios en juicios.
  • Industria de la moda: ¿te imaginas probarte ropa simplemente a través de una aplicación? Contar con un avatar propio para realizar compras podría suponer una revolución para el sector.
  • Industria audiovisual: esta tecnología puede utilizarse para agilizar los procesos de edición, reducir los costes, e incluso, personalizar la publicidad.

Resucitar a los muertos: ¿es compatible la nostalgia con la ética?

Hace apenas unos meses aparecía en nuestras televisiones la faraona hablando de empowerment. Seguro que más de uno se frotó los ojos para ver si estaba soñando o Lola Flores realmente estaba en su pantalla.

Este uso de la inteligencia artificial es una buena noticia para muchos nostálgicos pero ¿dónde están los límites éticos? ¿Hasta dónde queremos llegar? ¿Puede aplicarse esta tecnología también para uso privado?

¿Recuerdas las fotografías que aparecían en la saga Harry Potter? Reconocemos que alguna vez envidiamos tener una así, que pudiese captar el instante con movimiento.

Ahora es posible, bueno, más o menos. La compañía MyHeritage ha creado “Deep Nostalgia” donde da vida a fotografías antiguas, creando vídeos a través de la IA.

Aunque la empresa ha tenido problemas legales por la protección de los datos, la cuestión es que esta idea es revolucionaria ya que podría “revivir” a seres queridos o a personajes históricos.

Pero entonces surge una vez más la pregunta: ¿cuán ético o moral es este tipo de tecnología?