GRUPO PLAZA

MEDIAFLOWS / OPINIÓN

“¡Dientes, dientes…

30/07/2021 - 

… que eso es lo que les jode!”, decía La Pantoja a Cachuli en la época dorada de la corrupción marbellí (con permiso de Gil y compañía). Y sonreían con esa trabajada sonrisa de famoso, que no es igual que la de la gente normal. Los famosos, cuando ríen, enseñan un promedio de diez blancos dientes, no tienen huecos o corredores y muestran un arco menos curvado, paralelo al labio inferior, que les hace parecer más jóvenes. Estos y otros factores han estudiado y publicado recientemente cuatro investigadores de la Universidad de Sevilla.

Pues bien, hoy en día es muy fácil sustituir en cualquier vídeo la imagen de una persona por otra. Con un par de clics, podemos hacer que el acompañante de la popular tonadillera sea Obama, Gandhi o usted mismo. En este sentido, y de acuerdo a los últimos estudios, la dentadura es uno de los más eficaces indicadores biométricos para identificar las llamadas falsificaciones profundas o deepfake. La dentadura nos sirve para saber si el vídeo de una celebridad es verdadero o falso, bueno o malo (valgan símiles equinos).

Un deepfake es un vídeo hiperrealista, manipulado digitalmente para representar a personas que dicen o hacen cosas que en realidad nunca sucedieron. Para aquellos más geeks, les comentaré que su desarrollo se basa en Inteligencia Artificial (concretamente, en redes generativas antagónicas - GAN) y la novedad es que los crea directamente la máquina, sin apenas intervención humana.

Falta de detalles en la dentadura del deepfake de Brad Pitt. Recuperado de la base de datos Celeb-DF-v2. Fuente: Propia

Este tipo de representaciones sintéticas plantean una nueva vuelta de tuerca al actual escenario de desinformación. Si cada vez es más complicado para el lector distinguir entre la información real de la falsa, ahora ni siquiera un vídeo o audio puede considerarse como muestra de que algo haya sucedido. En EEUU, por ejemplo, se están replanteando si un documento audiovisual puede ya considerarse prueba ante un tribunal.

Los deepfake están optimizados para ser compartidos fácilmente en redes sociales o servicios de mensajería instantánea y así entrar por la puerta grande en el mundo de las conspiraciones, los rumores y la información errónea o deliberadamente falsa. Más leña al fuego, claro. Al mismo tiempo, el escenario de agotamiento del pensamiento crítico empuja a las personas a pensar que no pueden confiar en ninguna información a menos que provenga de familiares, amigos cercanos o parientes. De hecho, la mayoría estamos abiertos a cualquier información que confirme nuestros puntos de vista, incluso aunque sospechemos que pueda ser falsa.

Imagine que le llega un mensaje de voz de su jefa exigiéndole que modifique esta cuenta bancaria o pidiéndole acceso a la base de datos de clientes (un deepfake puede ser vídeo, pero también audio). El conocido Fraude del CEO (el de hace un par de años a la EMT) ahora es mucho más sofisticado.

Existen aplicaciones gratuitas para generar deepfake de forma sencilla y fácilmente accesibles (es probable que conozcan algunas), que permiten a usuarios con pocas habilidades técnicas y sin ninguna experiencia artística editar vídeos, intercambiar caras, alterar expresiones y sintetizar el habla casi a la perfección. Esto hace que su creación aumente de manera exponencial.

Un deepfake de 2018, creado por el cineasta de Hollywood Jordan Peele, presentaba al expresidente estadounidense Barack Obama discutiendo los peligros de las noticias falsas y burlándose del presidente Donald Trump. Ese mismo año, en un vídeo deepfake, Donald Trump ofreció consejos a la gente de Bélgica sobre el cambio climático. El vídeo fue creado por un partido político belga —el Partido Socialista Flamenco (SPA)— con el objetivo de generar un debate social. Hacia el final del vídeo, Trump dice: “Todos sabemos que el cambio climático es falso, al igual que este vídeo”. Sin embargo, la última frase no se tradujo en los subtítulos holandeses. El vídeo provocó indignación por la intromisión del presidente de un país extranjero en la política climática de Bélgica. En 2019, un vídeo alterado de la política estadounidense Nancy Pelosi se volvió viral y tuvo un alcance masivo. El vídeo se ralentizó para hacerla parecer intoxicada.

Barack Obama.

Si bien estos son ejemplos de influencia política limitada, otros deepfake pueden tener un impacto más duradero. En África Central, en 2018, un vídeo del presidente de Gabón, Ali Bongo, a quien se creía en mala salud o muerto, fue citado como el detonante de un fallido golpe de estado por parte del ejército gabonés. Y en Malasia un clip viral deepfake de la confesión de un hombre de haber tenido relaciones sexuales con un ministro del gabinete local provocó controversia política.

Basándonos en los estudios de Liv y Greenbaum, publicados en AJOB Neuroscience, un deepfake podría incluso utilizarse para crear falsos recuerdos, dada la maleabilidad de la memoria humana, e impactar directamente en la toma de decisiones de individuos con cargos de alta responsabilidad. Parece Ciencia Ficción, pero es Ciencia.

En este momento, uno de los principales retos tecnológicos persigue la detección automatizada de deepfake. Máquinas detectando falsificaciones realizadas por otras máquinas. Aquí estamos.

En este sentido, las principales plataformas tecnológicas (Google, Facebook o Baidu) están promoviendo competiciones con importantes premios en metálico para animar a la comunidad de desarrolladores a implementar métodos cada vez más fiables en la detección de vídeos falsificados mediante IA. En 2020 se consiguió una precisión en la detección automatizada de deepfake en torno al 80% de acierto. El proyecto Advanced Deep Learning for Computer Vision, de la Universidad Técnica de Múnich, logró una precisión del 81%. Por otro lado, el desarrollador Selim Seferbekov resultó ganador del Deepfakes Detection Challenge, con una precisión del 82%.

Los expertos en investigación digital forense han sugerido elementos sutiles para detectar deepfake, que parecen funcionar. Además de la dentadura, entre los indicadores biométricos utilizados encontramos (pónganse la gabardina de Blade Runner): la falta de respiración; dirección visual antinatural; frecuencia de parpadeo anormal; falta de rasgos faciales, como un lunar conocido en una mejilla; suavidad y peso de la ropa y el cabello; piel demasiado suave; falta de detalles de cabello o desalineación en la simetría facial, entre otros.

En cualquier caso, como los resultados de estos experimentos se publican, las técnicas para crear deepfake también se perfeccionan, por lo que cada vez las falsificaciones sintéticas son más difíciles de detectar.

En este sentido, no es descabellado imaginar el escenario en el que un deepfake genere una situación de crisis. No sabemos cuándo sucederá, pero es posible que ocurra. Cuando esto pase, acuérdense de observar los dientes del sujeto. La sonrisa también es el espejo de la no alma y quizá la singularidad de cada una de nuestras sonrisas nos proteja de falsificaciones profundas.

Es verano: sonría y que su sonrisa muestre la aleatoria cantidad de dientes que le hace único.

Francisco José García-Ull es profesor de la Facultad de Ciencias Sociales de la Universidad Europea de Valencia

Noticias relacionadas

next

Conecta con nosotros

Valencia Plaza, desde cualquier medio

Suscríbete al boletín VP

Todos los días a primera hora en tu email