Translate

miércoles, 8 de mayo de 2019

Deep fake: así será la manipulación del futuro

Un algoritmo empezó a jugar con imágenes de Obama, y ahí nació la propaganda del futuro: los vídeos manipulados que intentarán alterar (aún más) la realidad



George W. Bush, con la voz y los gestos manipulados por el investigador Justus Thies. Y Vladimir Putin junto a las imágenes de Matthias Niessmer, del Visual Computing Lab de la Universidad Técnica de Múnich.


Imagine un vídeo en el que usted está hablando. Es usted, es su voz, son sus palabras. Pero es falso. Lo ve, pero no se lo puede creer, porque sabe que es mentira. Que en ese momento usted no estaba diciendo eso. Incluso que no dijo jamás aquello que está viendo y oyendo. A eso se le llama deep fakes, los vídeos manipulados, la temible evolución de las fake news.

Y el problema no es que a usted le puedan mandar ese vídeo y gastarle una broma. El problema es que ese vídeo lo pueden ver otros y creerlo porque, al fin y al cabo, es usted el que habla y el que aparece en la imagen. ¿Por qué iba a ser mentira? O, mejor dicho: ¿cómo es posible que sea mentira?

La respuesta está en un algoritmo que se dio a conocer gracias a la Universidad de Washington, que presentó hace dos años el proyecto piloto Synthesizing Obama, en el que el personaje en cuestión era el ex presidente de EEUU Barack Obama. Se le puede ver en un lado de la pantalla decir una cosa, y en el otro lado, con otra ropa y en otro lugar, decir exactamente lo mismo.

Ese algoritmo es capaz de manipular vídeos sincronizando sonidos con movimientos faciales. Sobre todo los de los labios, pero también el arqueado de las cejas, las respiraciones, los ojos. Y sus posibilidades, más allá de lo lúdico, son peligrosas si se utilizan para manipular información.
El fenómeno empezó de manera un poco burda, adaptando movimientos de la boca a sonidos, pero se fue mejorando con una asombrosa calidad.

Algunas actrices famosas, como Scarlett Johansson, han sido ya víctimas de este tipo de vídeos, pero con una versión que no busca precisamente hacerle decir lo que no ha dicho. De hecho, se busca más la imagen que la palabra: pusieron su cara en vídeos porno, donde la actriz es real, pero le cambian la cara hasta hacerla parecer ella.

Y esto no ha hecho más que empezar. Ante la posibilidad de que se utilice con fines políticos o delictivos, ya hay quienes han dado la voz de alarma. La OTAN, por ejemplo. ¿Qué pasaría si en ese vídeo manipulado un líder político aparece diciendo barbaridades? ¿O si el tratamiento de la imagen mostrara a algún personaje muy relevante cometiendo un delito? Una vez que echara a rodar, la mentira sería imparable.


Un experto del Centro Criptológico Nacional (CCN), organismo que depende del CNI, explica a este periódico que los deep fakes «evolucionan muy rápido desde que se conocieron los vídeos pornográficos manipulados y el tema se puso en el disparadero tras ver los de Obama». [Concretamente, una versión maliciosa de aquel experimento en el que Obama decía que Trump era «un idiota»].

Sin embargo, este experto todavía ve latente la amenaza: «De momento suelen ser vídeos con poco movimiento en los que el solo parpadeo de los ojos puede hacer que se note que es falso. Aún faltan años para que se perfeccione la técnica y sea complicado detectar lo verdadero de lo falso. Y para cuando eso ocurra, seguramente YouTube, Facebook o WhatsApp tendrán mecanismos para controlarlo y los borrarán».

Este investigador del CCN explica que «la amenaza principal no está en los creadores de estos vídeos, sino en los difusores. ¿Quiénes pueden estar detrás de ello, quiénes pueden tener interés en difundirlo? La atribución es muy difícil, pero podría haber naciones interesadas en difundirlos. Para eso, el Estado ya está alerta hace tiempo ante todas las fake news, y para evitarlas hay una estrategia. Desde el CCN proponemos un decálogo de buenas prácticas para detectar las informaciones manipuladas».

Ya en ese informe sobre desinformación del CCN se habla de la doctrina Gerasimov, un general ruso que, a raíz de las Primaveras árabes, dice que «los métodos más utilizados en un conflicto están cada vez más relacionados con el uso de la información política y económica [...] Todo esto se complementa con medios militares de carácter oculto, que incluyen el uso de acciones informativas».

Ese mismo documento calcula, según diversos estudios, que «cerca del 90% de la población española de entre 16 y 65 años puede ser potencialmente víctima de un ataque de desinformación». La buena noticia es que España es uno de los países con más preocupación ciudadana sobre las fake news, según un estudio conjunto de la Universidad de Navarra y la Universidad de Oxford. Eso implica que parte del trabajo, que la población esté alerta para que no crea todo lo que ve o lee, ya está hecho.

La parte mala, en cambio, es que una de las principales consecuencias de la desinformación es la pérdida de confianza en las instituciones y en los medios de comunicación. Y esa desconfianza ya ha llegado: una encuesta realizada en 2018 por el Eldman Trust Barometer asegura que sólo el 44% de los españoles confía en la información que recibe de los medios.

Los medios, precisamente, son un objetivo claro para los creadores de fake news porque pueden servir de altavoz legítimo a una manipulación. Y en esta época en la que cualquier tontería de las redes sociales se convierte en noticia, ¿qué repercusión podrían tener los vídeos manipulados?

En la difusión, los propagandistas suelen contar con una red de medios propios, acompañada de sistemas de automatización que difunden el mensaje falso al máximo con un coste muy bajo. Todo eso ayuda a que sea muy difícil identificar el origen de la desinformación.

Por eso el CCN recomienda al lector, entre otros consejos, contrastar la fuente de la que proviene la información, desconfiar de los pantallazos recibidos a través de las redes o dudar de las cuentas de redes «supuestamente humanas», que en realidad son cuentas con apariencia de tener a alguien real detrás pero son falsas.
Aún faltan años para que se perfeccione la técnica y sea complicado detectar lo verdadero de lo falso
Centro Criptológico Nacional (CCN)
David Sancho, experto de la compañía de ciberseguridad Trend Micro, lo explica: «Para crear estos vídeos de momento hace falta tener mucho material previo de la persona objeto de la manipulación. Por eso la Universidad de Washington probó con Obama, porque había un archivo inmenso de imágenes suyas, con discursos, gestos, etcétera, y eso facilita mucho la tarea. También se han manipulado vídeos con imágenes de actrices famosas, porque también hay mucho material disponible».

Por eso el actor Steve Buscemi, George Bush o Vladimir Putin también han servido de cobayas para estos vídeos.

Para Sancho, las amenazas posibles son múltiples: «Aparte de las manipulaciones políticas, esto ofrece muchas posibilidades al atacante. Por ejemplo, se podrían alterar los precios de acciones en bolsa con un vídeo manipulado sobre empresas cotizadas, se podrían realizar timos y estafas, extorsionar... Eso sí, de momento esos vídeos deben usar una gran parte de material real, porque cuanto mayor sea la parte inventada o fabulada, más fácil será detectarlos. Pero ya hay casos en los que sólo se puede detectar si un vídeo es falso con técnicas de informática forense. Y si en vez de vídeo sólo se manipula audio, las posibilidades son infinitas, porque es mucho más fácil crear archivos falsos».

Brais Iglesias, experto en ciberseguridad, explica que «es muy difícil identificar las noticias falsas, al igual que los vídeos manipulados, porque estamos sobrecargados de información. Muchas veces, para cuando conseguimos contrastar la información, el daño ya está hecho y aun así siempre quedará la duda». Aunque ante la calidad media actual de los deep fakes, lo cierto es que todavía cuesta creerlos.

La propia Universidad de Washington explica en su página web cómo el proyecto Synthesizing Obama tiene diferentes calidades, según el tiempo al que se deje trabajar al algoritmo: en media hora o una hora, ya queda un vídeo relativamente apañado, aunque con muchos fallos de sincronización entre el sonido y los labios. Sin embargo, tras una noche de trabajo, es muy difícil distinguir el vídeo real del manipulado.

Desde la OTAN, fuentes oficiales aseguran a este periódico que para la organización «es muy preocupante la difusión de propaganda, y no debemos subestimar el impacto que tiene en nuestras sociedades abiertas. A largo plazo, puede erosionar la confianza pública en nuestras democracias y en nuestra prensa libre. Por eso estamos intensificando la cooperación con la Unión Europea y compartiendo análisis de noticias falsas dirigidas a nuestras instituciones».

Un cuartel general contra la desinformación


El reciente interés mundial en las 'fake news' se despertó en 2016 tras las elecciones presidenciales en EEUU. Desde entonces, hay estudios, grupos de trabajo, convenciones y políticas de Estado contra la manipulación.

La OTAN tiene en Riga (Letonia) el llamado Centro de Excelencia en Comunicaciones Estratégicas, uno de los lugares donde recientemente se ha alertado sobre las posibilidades de desinformación que ofrecen los 'deep fakes'. Hace dos años, en un foro sobre desinformación de la Universidad de Stanford, donde acudió el director de este centro de la OTAN en Riga, ya se avisó sobre las posibilidades tecnológicas en la propaganda: "Los gobiernos ya han comenzado a desarrollar tecnologías más avanzadas y técnicas de propaganda computerizada utilizando inteligencia artificial y algoritmos que pueden escribir y distribuir desinformación a un ritmo alarmante".


                                                                                           PABLO HERRÁIZ  Vía EL MUNDO

No hay comentarios:

Publicar un comentario