Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Estas caras no existen: una web genera fotos artificiales que parecen reales cada vez que le das al F5

Esta persona no existe

David Sarabia

Esta persona no existe.

Ni esta.

Ni esta otra.

Ninguna de estas personas existen. Tampoco ninguna de las que aparecen cada vez que se refresca la página thispersondoesnotexist.com. La página, que fue creada el pasado 9 de febrero según who.is, utiliza redes neuronales antagónicas para generar las imágenes artificiales.

This Person Does Not Exist es obra del ingeniero de Uber Phillip Wang. ¿El motivo? “Demostrar de lo que son capaces las redes neuronales antagónicas”, GANs por sus siglas en inglés (que viene de Generative Adversarial Networks), dice. Wang ha utilizado código de la empresa tecnológica Nvidia, que publicó un paper en arXiv (todavía sin aprobar) el pasado 6 de febrero.

Las redes neuronales antagónicas se llaman así porque compiten entre ellas. Están compuestas de dos partes, un generador y un discriminador. El primero se encarga de crear imágenes nuevas a partir de las reales con las que ha sido alimentado, mientras que el discriminador, como su propio nombre indica, tiene que identificar si esas imágenes generadas son reales o falsas. El objetivo, tras miles de intentos, es engañar al discriminador: cuando este no consiga diferenciar entre una imagen artificial y otra real, entonces, las GANs funcionan al 100%.

Una breve historia de las GANs

This Person Does Not Exist genera caras aleatorias, todas únicas. Lo hace gracias a las GANs, que surgieron por primera vez en 2014. Al principio, la técnica era bastante precaria y era fácil saber si las caras estaban generadas por una máquina. No solo por culpa del pixelado, sino porque el montaje, por decirlo así, no estaban del todo bien hecho. Vayan por aquí algunos ejemplos:

Pero todo se perfecciona. Ya en octubre de 2017 los humanos nos encontramos en serias dificultades para discernir si la cara que veíamos era real o no gracias a este paper, también publicado en arXiv. Desde entonces, la técnica no ha hecho más que evolucionar.

Lo relevante del estudio publicado recientemente por Nvidia es que los investigadores han conseguido “copiar” los estilos de las caras originales a las caras de destino. Son copias de copias, por eso es tan difícil para un humano saber si esa imagen que ve es real o no. Salvo por algunos pequeños detalles.

Al margen las posibilidades que presenta esta nueva técnica en el campo de los videojuegos y el modelado 3D, donde la creación de caras nuevas y que no se repitan a lo largo de la historia sigue siendo una quimera para los desarrolladores, también implica algunos peligros: sería fácil crear cuentas falsas de Facebook, de Twitter o de otras redes sociales, que no tendrían la posibilidad de cotejar con un banco de imágenes si esa persona es un modelo o un usuario anónimo.

Por otro lado, conjugada con los Deepfakes, abre un paradigma en el que las fake news podrían pasar por más reales si la persona que se está dirigiendo a nosotros o de la que se está hablando no existe en ningún lugar del mundo, sino que es el resultado de una posibilidad determinada por un algoritmo.

Nuestro propio Test de Turing

Pero no todo está perdido. Como explicaba el programador Kyle McDonald en un post en Medium el pasado diciembre, hay algunas características presentes en estas fotografías que sí nos permiten distinguir si se trata de una imagen artificial o real.

El pelo es una de ellas, ya que es muy difícil de imitar para los algoritmos. “Si un mechón largo parece como si alguien lo hubiera manchado con un pegote de pintura acrílica”, dice Mc Donald, entonces es falso. El pelo desordenado también le trae problemas a estas redes neuronales. Además, el programador invita a fijarnos en las letras que aparezcan detrás de la foto: como las GANs tienen que comparar muchas veces una misma imagen, no son capaces de plasmar las letras de forma correcta.

El fondo es otro motivo por el que sospechar: si está borroso o es incoherente con el contexto de la foto, es falsa. Algunas imágenes artificiales también son asimétricas, ya que las redes neuronales antagónicas pueden ser buenas creando imágenes, pero no lo son tanto a la hora de crear puntos de fuga: si los ojos miran en la misma dirección o hay una oreja, un pendiente o una ceja más alta que la otra, la foto es fake.

McDonald habla, además, de los colores extraños que puede tener, por ejemplo, la camisa de alguien (si es blanca y tiene, de repente, tonos azules, sospecha). Si los dientes de la persona son demasiado grandes o están descompensados en relación a su cara es otro motivo para no creernos la foto. Y por último, como las GANs no pueden establecer diferencias entre hombres y mujeres, puede resultar que en una foto aparezca alguien con un pendiente, media barba, un ojo maquillado y otro sin maquillar. Por si acaso, sospeche siempre.

Etiquetas
stats