Borrar
Jennifer Lawrence, con el rostro de Steve Buscemi en un vídeo 'deep fake' de los Globos de Oro.
Los bulos (III): La próxima generación. Los deep fakes

Los bulos (III): La próxima generación. Los deep fakes

Comenzaron por el porno y las bromas, pero empiezan a aparecer en política. Y con una mala noticia: cada vez son más fáciles de crear y más difíciles de detectar

Antonio G. Encinas

Valladolid

Miércoles, 25 de diciembre 2019

La tecnología juega en nuestra contra en el asunto de los bulos. Mientras el ciudadano lucha por evitar que le cuelen la siguiente patraña, los 'malos' ya trabajan en nuevas fórmulas de engaño. Lo próximo en llegar al mundo de los bulos serán los llamados 'deep fakes'. Es una tecnología capaz de colocar la cara de una persona sobre la de otra en un vídeo, asimilando sus gestos y hasta su voz con la ayuda de la inteligencia artificial. Algunas series con contenidos distópicos ya han mostrado algunos de los dilemas éticos que se pueden producir (The Blacklist, temporada 7, episodio 6, Dr. Lewis Powell).

La primera industria en producir esos contenidos ha sido la del porno, cambiando caras de actrices x por rostros de famosas, lo que ha llevado ya a la interposición de denuncias por atentar contra el honor de estas mujeres. Giorgio Patrini, de la empresa Deeptrace, explicaba en un artículo en el pasado mes de octubre que en los siete meses anteriores los vídeos 'deep fake' casi se habían duplicado hasta los 14.678. «Un incremento que se sustenta en la creciente comercialización de herramientas y servicios que bajan la barrera de acceso a la creación de 'deep fakes' para los no expertos», señala. La firma Deeptrace, fundada en 2018, se ha especializado en detectar vídeos falsos, asegura, para «proteger personas y empresas de vídeos falsos difamatorios» y actuar como verificador de los vídeos publicados por los medios de comunicación.

El porno ha sido el primer objetivo. «La pornografía no consentida con deepfakes es el 96% de los vídeos falsos de este tipo», aclara Patrini. «Las cuatro webs principales dedicadas a este tipo de porno recibieron más de 134 millones de visualizaciones en sus vídeos».

Todos hemos visto a Robert de Niro ante el espejo en Taxi Driver. ¿O era Al Pacino?

Alejandro Pérez, especialista en cine y efectos especiales que participó en el Congreso R-evolución de El Norte de Castilla, iba más allá. «¿Qué pasa en el momento en el que esto deje de ser un chiste y alguien con un bajo código moral empiece a trabajar con vídeos con otros fines?«

La industria del cine 'serio' puede ser la siguiente, para empezar. Circula un vídeo de Taxi Driver, con la legendaria escena de Travis Bickle ante el espejo, en el que Al Pacino replica exactamente los gestos del verdadero protagonista, Robert de Niro. ¿Cuánto tardaremos en ver estrenos con Charlie Chaplin como protagonista? ¿O con Marilyn Monroe? ¿Quién cobrará por esos trabajos? Los dilemas éticos que se presentan son casi incontables.

Los bulos políticos, sin embargo, van a ser el gran objetivo de esta tecnología. Permiten poner en boca de Donald Trump, Barack Obama, Pedro Sánchez o Pablo Casado frases que nunca han dicho, con un realismo tan grande que resulta complicadísimo detectar si es cierto o no. Patrini, de Deeptrace, ya advierte de esa realidad que viene. Hace referencia al caso de un vídeo en el que un el secretario de un ministerio confiesa tener una relación sexual con el ministro de asuntos económicos, Azmin Ali. En un país discriminatorio con los colectivos homosexuales, ha supuesto un gran escándalo, aunque los presuntos protagonistas han reiterado que se trata de un vídeo falso.

¿Ciencia ficción? La inteligencia artificial es una herramienta poderosa y ya ha permitido, por ejemplo, poner en boca de Barack Obama algo que jamás salió de sus labios.

No solo eso. Un proyecto mostrado en el International Documentary Film Festival Amsterdam el pasado 22 de noviembre convertía en realidad algo que nunca sucedió. Richard Nixon, presidente de Estados Unidos en el año 1969, tenía un discurso alternativo preparado por su gabinete por si los astronautas Armstrong y Aldrin no conseguían sobrevivir a la expedición lunar (Puedes ver el original en este enlace). Hasta ahí lo real del caso. "In event of moon disaster" ("En caso de desastre lunar"), se titula el falso documental que recrea la historia que no sucedió. Construye una película con el fracaso de la misión. Y aprovecha ese folio y medio de emergencia, de plan B, que acabó guardado en un cajón hasta que un biógrafo de Nixon lo descubrió 30 años después en un archivo. El discurso, las frases citadas, es real, pero nunca llegó a ser pronunciado. Ahora, la inteligencia artificial permite ver a Nixon anunciar el fallecimiento de los astronautas.

La herramienta utilizada para el vídeo aparece en los créditos del documental: Canny AI. En su propia web aparecen otros vídeos falsos que muestran a políticos como Boris Johson o Jeremy Corbin, o a famosos como Kim Khardasian. La empresa, israelí, asegura que entre otras cosas puede "reemplazar los diálogos en cualquier metraje" o realizar la "sincronización de labios con un doblaje en cualquier idioma".

En cuanto al audio, se ha utilizado Respeecher. De nuevo entra en acción la inteligencia artificial, que permite que la voz de una persona cualquiera se convierta en la voz de otro personaje, reproduciendo fielmente las pausas y la entonación del discurso original. El vídeo de demostración deja boquiabierto por su capacidad.

Por ahora, la tecnología no es del todo perfecta. Se pueden apreciar distorsiones cuando el movimiento es muy rápido, o si el protagonista del vídeo fuma, bebe, come o se lleva las manos al entorno de la boca. Alejandro Pérez apuntaba, por ejemplo, «ángulos extremos en distintas direcciones, y detalles más precisos que se perciben en los ojos y en los dientes».

Sin embargo, es cuestión de tiempo que la herramienta se perfeccione y acabe por hacer imposible que se pueda diferenciar un vídeo auténtico de uno falso. ¿Y qué haremos cuando en las próximas elecciones, en la jornada de reflexión, nos llegue un bulo en forma de vídeo con Pedro Sánchez -o Casado, o Abascal, o Arrimadas, o Iglesias- diciendo que si sale elegido presidente se proclamará emperador vitalicio de España y derogará la democracia? Y tú, ¿te lo creerás y lo compartirás o contribuirás a acabar con el bulo?

Noticia Relacionada

Noticia Relacionada

Este contenido es exclusivo para suscriptores

Publicidad

Publicidad

Esta funcionalidad es exclusiva para suscriptores.

Reporta un error en esta noticia

* Campos obligatorios

elnortedecastilla Los bulos (III): La próxima generación. Los deep fakes