Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
Puigdemont estira la cuerda pero no rompe con Sánchez
El impacto del cambio de régimen en Siria respaldado por EEUU, Israel y Turquía
OPINIÓN | 'Pesimismo y capitalismo', por Enric González

Nuestra mente juega en contra para enfrentarse a los 'deepfakes'

La película '1984'

Esther Samper

A finales de 2017, el usuario Deepfakes publicó en la red social Reddit los resultados de un programa de inteligencia artificial que reemplazaba, de forma realista, los rostros de unas personas por otras. No era la primera vez que se hacía. Anteriormente, películas como Rogue One: una historia de Star Wars ya habían usado técnicas similares para mostrar la cara de una joven Carrie Fisher en otra actriz que interpretaba a la princesa Leia.

La diferencia es que Deepfakes desarrolló y empleó un software para implantar las caras de actrices famosas como Gal Gadot y Daisy Ridley sobre actrices de pornografía, creando vídeos sexuales en los que, aparentemente, estas celebridades participaban. Su ocurrencia popularizó unas herramientas accesibles para prácticamente cualquiera con una conexión a Internet, mínimos conocimientos informáticos y un ordenador sin grandes prestaciones. Manipular un vídeo para suplantar personas nunca había sido tan fácil, ni tan realista. El popular vídeo del falso Barack Obama ya nos mostraba en 2018 lo que eran capaces de hacer programas basados en inteligencia artificial, entrenados para sustituir caras:

En menos de dos años, esta tecnología ha mejorado considerablemente, aumentando su realismo. Expertos en el campo creen que es cuestión de menos de un año que la inteligencia artificial basada en algoritmos de aprendizaje consiga crear vídeos creíbles, que no levanten sospechas sobre su falso contenido entre la mayoría de las personas. Así, la incertidumbre sobre la veracidad de un vídeo se multiplica y la frontera entre lo que es real y lo que no se difumina a extremos nunca antes vistos. Hemos podido comprobar este hecho con el reciente vídeo de Seth Rogen que se transforma en Tom Cruise.

Ante este fenómeno, las empresas tecnológicas están realizando inversiones millonarias para desarrollar herramientas que ayuden a detectar vídeos falsos. Ya hay programas que registran si el pestañeo es anómalo o si el pulso sanguíneo de los vasos sanguíneos de las mejillas y el cuello coinciden para reconocer la falsificación. Sin embargo, esto es una carrera armamentística, y las inteligencias artificiales mejoran a la hora de falsificar vídeos tanto como las herramientas diseñadas para detectarlos.

Hasta ahora, esta tecnología para el reemplazo de caras se había centrado en el entretenimiento, en las bromas... Pero las compañías tecnológicas y diversas instituciones intuyen que es cuestión de tiempo que se use con fines mucho más peligrosos: difundir declaraciones falsas para manipular a la población, atacar a enemigos, influir en las elecciones... De hecho, los legisladores de Estados Unidos están preocupados de que puedan usarse vídeos 'deepfake' para influir en las elecciones de 2020. No es un miedo infundado. En una sociedad donde las redes sociales difunden con poco espíritu crítico 'fake news', los 'fake' vídeos pueden ser un arma poderosa. Como en la novela de 1984 de George Orwell, se puede fabricar las noticias, crear registros de sucesos que nunca han ocurrido con fines perversos. Es el comienzo de una época en la que es posible hacer que cualquier persona diga lo que nosotros queramos.

Desafortunadamente, nuestra mente juega en contra a la hora de enfrentarse a los vídeos 'deepfake' debido a ciertas características de nuestra psique:

Nuestra tendencia a fijarnos y seleccionar la información que respalda nuestras propias creencias o ideas preconcebidas, rechazando las contrarias, protegiéndonos de la disonancia cognitiva. De esta forma, es más probable que creamos o difundamos los vídeos manipulados que respaldan nuestra forma de ver el mundo. También es más difícil que lleguemos a enterarnos de que ese vídeo es falso, ya que las rectificaciones casi nunca tienen la viralidad y la capacidad de difusión de los bulos originales.

Como consecuencia de lo anterior, tendemos a crear nuestras propias “burbujas” de afinidad en Internet y las redes sociales. Es decir, solemos rodearnos de fuentes y personas que son afines a nuestras ideas e ideologías e ignoramos o nos apartamos de aquellas alejadas de nuestra forma de pensar. Los vídeos 'deepfake' tienen un gran potencial para diseminarse en burbujas afines porque retroalimentan o justifican las ideas o prejuicios de un grupo. Al mismo tiempo, si estas burbujas son lo bastante “impermeables”, las críticas o revelaciones de que dichos vídeos son falsos y que ocurran en otros espacios pueden ser incapaces de penetrar en estas burbujas para combatir los vídeos.

Aunque seamos conscientes de que cualquier vídeo puede ser potencialmente falso, siendo inicialmente incrédulos o cautos, esto no evita el efecto dañino de los vídeos falsos sobre nosotros. No se trata solo de que podamos creer que vídeos falsos sean reales, sino que también de que podemos creer que ciertos vídeos reales sean falsos. En esas circunstancias, la veracidad que le atribuimos a un vídeo depende mucho más de nuestros propios sesgos.

Como explica el neurocientífico Steven Novella, se puede manipular a la gente dejando recuerdos inconscientes en su memoria sobre una persona: “Digamos, por ejemplo, que ves un vídeo de una persona famosa cometiendo un crimen horrible o diciendo algo horrible. Incluso si sabes que esos vídeos son falsos, o escuchas la afirmación de que ese vídeo es falso, las imágenes podrían tener todavía un efecto emocional”.

Además, somos mucho mejores recordando aquellos hechos que hemos visto u oído que recordando dónde, cuándo, quién o cómo nos ha transmitido esa información o, incluso, si esos hechos eran verdaderos o no. Como explica Novella, ver un vídeo dramático de una persona haciendo algo horrible deja un “poso” en ti y será un recuerdo mucho más vívido que un frío y neutral análisis forense sobre la autenticidad del vídeo. De esta forma, podemos recordar hechos falsos a través de 'deepfakes', sin que con el tiempo recordemos cómo nos enteramos de ese hecho o si era cierto o no.

En una época en la que las 'fake news' se difunden con rapidez por Internet y redes sociales, los vídeos falsos con una capacidad mucho mayor para provocar sentimientos y respuestas pueden empeorar aún más la situación de desinformación actual. O aprendemos a detectar y combatir estos vídeos con rapidez y capacidad de difusión, o corremos el riesgo de hundirnos en una época de posverdad mundial sin precedentes.

Etiquetas
stats