Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Una inteligencia artificial crea porno falso con famosas y es tan preocupante como parece

David Sarabia

Hay quien programa inteligencias artificiales para que escriban textos de forma autónoma. También está quien las diseña para que pinten cuadros, ganen a los humanos al póker o reconozcan y etiqueten los objetos que aparecen en un vídeo. Las IAs que se mejoran a sí mismas ya son una realidad, como las que engañan al CAPTCHA de Google o las que hacen poesía. Podría decirse que todos son usos en pro de la ciencia con un beneficiario más o menos claro: el ser humano.

Pero la evolución es caprichosa, y así como los programadores desarrollan inteligencias artificiales cada vez más complejas y especializadas también hay quien utiliza sus conocimientos para crear otro tipo de programas, enfocados a un uso más amateur que empresarial y que paradójicamente cuentan con unas implicaciones futuras bastante peligrosas. En este caso se trata de un software que intercambia caras unas por otras en vídeos porno y desarrollado únicamente por una persona, según lo que cuenta Motherboard este martes.

El programa no tiene nombre porque no es un todo, sino la correcta aplicación de una serie de herramientas para conseguir el resultado final. Por ejemplo, Gal Gadot (la actriz que da vida a Wonder woman), ni ha mantenido relaciones sexuales con su hermano adoptivo ni aparece en ningún vídeo porno, pero deepfakes puede hacer que así sea. Su nombre (el alias que utiliza en el macroforo de Internet, Reddit) significa “engaños profundos”, exactamente el tipo de contenido que distribuye de forma gratuita a través de la web.

¿Con quién te lo quieres montar?

El software no es perfecto ni infalible, pero el resultado sí que consigue atraer la atención del que mira, que se pregunta si realmente la actriz que aparece en el vídeo ha llegado a grabar o no la escena. Gal Gadot no es la primera ni la última famosa con la que deepfakes experimenta, y en su lista se encuentran otras celebrities como Scarlett Johansson, Maisie Williams, Taylor Swift, Aubrey Plaza, entre otras. Tras el revuelo organizado, el usuario ha decidido eliminar el vídeo de Gadot, aunque no los demás.

Explica Motherboard que deepfakes ha creado el programa basándose “en múltiples librerías de código abierto, como Keras y Tensorflow”. Ambas herramientas se utilizan en el ámbito del machine learning (aprendizaje automático) para subir, almacenar y compartir código en Internet.

Para entrenar el algoritmo de identificación facial, el usuario utilizó vídeos de YouTube e imágenes de archivo, así como la función de búsqueda de fotos en Google. El de Reddit, que asegura a la publicación estadounidense que no es un “científico profesional, sino un programador al que le interesa el machine learning”, ha sido capaz de poner su algoritmo a la altura de los resultados que consiguió el equipo de Rogue one el año pasado, cuando “resucitó” al actor Peter Cushing en el spin-off de Star Wars.

“Simplemente, he encontrado una forma inteligente de cambiar caras”, dice deepfakes. “Con cientos de caras puedo generar fácilmente millones de imágenes distorsionadas para entrenar a la red”, continúa el desarrollador. Sobre la creación del algoritmo admite, en uno de sus muchos post en el foro, que se asemeja bastante a otro existente y que actualmente utiliza la empresa de gráficos Nvidia. Este software es capaz de cambiar un paisaje nevado por una estampa veraniega en un abrir y cerrar de ojos.

Cavando nuestro álbum de fotos

Hasta ahora solo habíamos visto utilizar técnicas similares a las grandes superproducciones de Hollywood, como a la hora de resucitar a Paul Walker para Fast and Furious 7, al ya mencionado Cushing o a la princesa Leia. La (inteligente) combinación de factores que ha dado como resultado el producto, en forma de algoritmo, acaba de sentar un precedente. “No hay que ser un lumbreras”, le dice un experto en inteligencia artificial a Motherboard.

Utilizar el programa es muy fácil. Lo único que necesita son fotos de la cara de alguien. Y cada día todos nos empeñamos un poco más en cultivar, a través de las redes sociales, esos inmensos álbumes. Pero cuidado: solo entre 2015 y 2016, 24.000 millones de fotografías se subieron a Google. De la misma forma, no son pocos los estudios que predicen que los millennials se sacarán en torno a 25.000 selfies durante toda su vida.

La existencia de este tipo de algoritmos abren el debate ético sobre qué es de quién y por qué. ¿Podrían denunciar Gal Gadot y el resto de mujeres al creador del software? ¿Tendría base su demanda? Si es su cara pero no su cuerpo el que aparece manteniendo relaciones sexuales con alguien, ¿dónde se situaría el límite del consentimiento? ¿Representa una violación de la privacidad? “Es una clara demostración de cómo algunos hombres ven a las mujeres, como meros objetos que pueden manipular a su antojo para que hagan lo que ellos quieran... Es una completa falta de respeto hacia los actores de esa película porno y también es una falta de respeto hacia la personas”, dice la expornostar Alia Janine.

El programa Face2Face es capaz de cambiar las expresiones faciales de una persona en un vídeo en tiempo real. Una herramienta de Adobe consigue hablar con tu voz tras escucharte 20 minutos y ahora, un algoritmo pone tu cara donde debería estar otra. Todavía no tenemos citas con robots, aunque el 27% de los millennials entrevistados por el Daily Mail británico han dicho que sí las tendrían. Que nadie diga después que no nos lo advirtieron.

Etiquetas
stats