Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Todo lo que ves o escuchas podría ser mentira

Face2Face

David Sarabia

Madlipz es una aplicación que permite ponerle voz a una escena en concreto de una película o serie. Suma más de un millón de descargas en Google Play y otras tantas en iTunes. Si no fuera porque en la esquina inferior izquierda aparece la marca de la app, ante un buen doblaje sería difícil adivinar si es el original o uno falso.

Vivimos en la era del Photoshop, así que los vídeos no iban a ser menos. ¿Con Snapchat empezó todo? No lo sabemos, pero fue la popular app que una vez quiso comprar Mark Zuckerberg (CEO de Facebook) la que trajo humanos con hocico y orejas de perro, conejo o cervatillo. La app de los Millennials, a pesar de su último batacazo en bolsa, consiguió que vomitásemos arcoiris y hablásemos como aliens.

Una de las últimas actualizaciones de Snapchat utiliza la realidad aumentada para añadir nuevos filtros. Con esta técnica seríamos capaces de ver flores en un secarral, una nube que llora sobre la cabeza de la persona que tenemos delante o de añadir letras al espacio. Claro está, todo esto a través del teléfono móvil.

Si vamos un paso más allá, podemos trasladar esta falsa realidad al terreno de la información: ¿Cuántas noticias falsas hemos consumido últimamente? Las 'fake news' le han costado varios disgustos a Facebook y por eso ahora ha endurecido su política contra todos los que publican contenido.

La campaña electoral en EEUU estuvo plagada de noticias falsas, más en contra de Hillary Clinton que de Donald Trump. Pero eso ya es historia: las 'fake news' ahora ya no solo se leerán, sino que se podrán ver y oír.

Barack Obama dice lo que quieras que diga

La Universidad de Washington (EEUU) ha llevado a cabo un proyecto que se llama Synthesizing Obama (Sintetizando a Obama) en el que han conseguido, a partir de uno de sus discursos, hacer que diga lo que ellos quieren. Los investigadores fueron capaces de cambiar tanto el orden de las palabras como el lugar donde las decía.

“De un audio de Barack Obama, sintetizamos un vídeo de alta calidad suyo hablando con una sincronización muy precisa en sus labios”, explican en la web del proyecto. También utilizaron una red neuronal a la que entrenaron durante horas para que aprendiese a “escuchar su voz” y los movimientos de su boca.

“Teniendo en cuenta la forma de la boca en cada momento, sintetizamos en alta calidad su textura y la recomponemos en 3D para cambiar lo que parece estar diciendo”, dicen los científicos.

Cierra los ojos por Donald Trump

Parecido, aunque no igual, es el programa que la Universidad de Stanford (Reino Unido) ha desarrollado y que se llama Face2Face. El software es capaz de cambiar las expresiones faciales de una persona en un vídeo, en tiempo real.

Solo es necesaria otra “segunda cara” que haga las muecas a través de una webcam. Como si fuera magia, las expresiones de la segunda persona aparecen en la cara de la primera, con un resultado más que convincente.

Aunque no es capaz de cambiar ni la voz ni las palabras, si se conjuga con otro programa que sí sea capaz de hacerlo, el resultado puede ser un 'fake video' bastante realista.

Todo lo que la voz puede revelar

Una investigación en el año 2015 de la Universidad de Alabama en Birmingham (EEUU), demostró que un atacante podía crear una voz sintética a partir de una real que engañase a los sistemas biométricos de bancos y otros sistemas de seguridad.

Con tan solo un corte de sonido real de entre 3 y 5 minutos obtenido en directo o de YouTube, la investigación expuso que los patrones de nuestra voz pueden escanearse y reutilizarse para, a través de un software, engañar y falsificar sistemas biométricos.

Ya hay teléfonos móviles que usan nuestra voz para desbloquearse. Existen bancos que solo necesitan una confirmación de voz de los clientes para dar luz verde a ciertas operaciones, gimnasios que piden nuestra huella digital para entrar...

Lyrebird y el curioso caso de Iñigo Urkullu

Y como todo lo que puede servir para el bien puede servir para hacer el mal (y viceversa), una startup canadiense ha desarrollado una tecnología similar a la que advertía aquel estudio de la Universidad de Alabama en Birmingham.

Lyrebird puede “copiar la voz de cualquiera”, te permite diseñar la tuya propia, “generar una en tiempo real” y “controlar la emoción”. La empresa, que tiene un apartado en su página web dedicado a la “ética”, espera que “pronto, todo el mundo esté al tanto de que esta tecnología existe y que copiar la voz de alguien es posible”.

Bajo el pretexto de que las “grabaciones de voz son consideradas en la justicia de muchos países como pruebas fuertes”, esta compañía quiere precisamente lo contrario: “Llamar la atención sobre la falta de pruebas que una grabación de voz podría representar en un futuro cercano”. La app aún está en fase de desarrollo, pero ya se pueden hacer pruebas en la web.

Y como curiosidad final. Este año, el discurso del lehendakari Iñigo Urkullu se viralizó al circular varios audios en los que daba un speech diferente al original, con frases como “gora Euskadi askatasuna”.

En realidad, los clips de voz fueron creados por un programa experimental de la Universidad del País Vasco. Los audios fueron filtrados y se popularizaron. Al final, la UPV decidió retirar la aplicación ya que “no estaba a disposición pública y no se creó con esa intención”.

Etiquetas
stats