Las imágenes de Google amplifican y refuerzan los estereotipos machistas

El algoritmo de Google Imágenes sigue pensando como un humorista de los años 80. Para este motor de búsqueda, las personas que practican la enfermería son mujeres y los fontaneros no pueden ser otra cosa que hombres. Y no solo eso, sus resultados influyen en la visión de los usuarios y refuerzan estos estereotipos sexistas, al tiempo que los perpetúan a través de los sistemas de inteligencia artificial (IA) que los toman como fuente.  

Estas son algunas de las conclusiones obtenidas por el equipo de Douglas Guilbeault en un trabajo que se publica este miércoles en la revista Nature, para el que han analizado más de dos millones de imágenes del buscador y de otras plataformas como Wikipedia e IMDb y las han comparado con los resultados en texto. “Lo que vemos es que la fuerza del estereotipo es mayor en imágenes”, explica Guilbeault a elDiario.es. “Y el resultado de los experimentos nos lleva a pensar que estas no solo amplifican el sesgo de género de las personas, sino que lo refuerzan”.

El poder de la imagen

Esta es la primera vez que se comparan de una forma tan sistemática las diferencias entre lo que arrojan los resultados en texto con lo que ofrecen las imágenes, según los autores. “En trabajos anteriores solo se habían mirado algunas miles de fotos y no se comparaban con el texto, ni se medían los efectos psicológicos de los estereotipos”, explica el investigador principal, quien recuerda que la razón por la que querían fijarse en las imágenes era que en los últimos tiempos la comunicación diaria se ha movido casi en masa hacia lo visual, espoleada por el éxito de plataformas como Instagram y TikTok. 

Nuestros hallazgos son especialmente alarmantes dado que plataformas como Instagram, Snapchat y TikTok están acelerando la producción y circulación masiva de imágenes

“Las imágenes son más poderosas que el texto despertando recuerdos y reacciones emocionales, también influyendo en los juicios morales de las personas”, sostiene Guilbeault. “La prueba es que puedes leer un libro como Harry Potter y hacerte una idea del aspecto del personaje, pero en cuanto sale la película su imagen se sobrepone a cualquier impresión que tuvieras antes”.

Una “distorsión de la realidad”

Para el trabajo, los autores descargaron millones de imágenes y las clasificaron por categorías, mediante el criterio de más de 400 voluntarios y también con sistemas de aprendizaje automático. De este modo, analizaron los prejuicios de género asociados con casi 3.500 categorías sociales, incluidas profesiones como médico y abogado, o roles sociales como vecino, amigo y colega. El resultado fue que los hombres estaban mucho más sobrerrepresentados en los resultados de búsqueda por imágenes que en los textos: el 62% de resultados sesgados en Google Images frente al 56% de los textos de Google News

“Lo que hicimos a continuación fue examinar, entre todas las categorías, cuáles eran aquellas en las que era más probable que aparecieran hombres”, explica el investigador. Lo que vieron fue que las búsquedas de fontanero, jefe de policía y carpintero tenían más probabilidades de mostrar rostros masculinos, mientras que bailarinas de ballet, estilistas y enfermeras tenían más probabilidades de mostrar rostros femeninos. “De acuerdo a la búsqueda de imágenes de Google, la mayoría de las personas con determinadas profesiones son hombres, lo que sabemos que muchas veces es estadísticamente falso. Es realmente una representación distorsionada de la realidad”.

Paralelamente, los investigadores reclutaron un grupo separado de personas que actuó como grupo de control. “Les pedimos buscar descripciones de profesiones y tenían que bajarse la descripción en texto o en imagen”, relata Guilbeault. “Podían hacer esto, durante alrededor de 30 minutos más o menos, y después de eso les pedimos que valoraran el género”, prosigue. “Lo que vemos es que el sesgo de género era significativamente mayor entre quienes veían las imágenes de Google que en el grupo de control. Por eso decimos que las imágenes del buscador tienden a amplificar el sesgo de género de las personas. Porque si, por casualidad, una de estas personas hubiera estado en el grupo de control habrían registrado menos sesgo”.

El sesgo de género era significativamente mayor entre quienes veían las imágenes de Google, por eso decimos que el buscador lo amplifica

Los autores han hallado resultados que indican que la exposición prolongada a imágenes en línea también puede haber amplificado el sesgo de género implícito de los participantes y que este efecto permanece varios días. En particular, escriben, solo los participantes que habían examinado las imágenes exhibieron un sesgo implícito significativamente más fuerte que los participantes de control tres días después del experimento. “Solo lo probamos tres días después”, señala Guilbeault. “Es probable que despareciera en una semana, pero esto quiere decir que no es una cosa momentánea”.

“Nuestros hallazgos son especialmente alarmantes dado que las plataformas de redes sociales basadas en imágenes como Instagram, Snapchat y TikTok están ganando popularidad, acelerando la producción y circulación masiva de imágenes”, concluyen los investigadores. Por este motivo, sugieren que los sesgos de género en la IA multimodal pueden deberse en parte al hecho de que están entrenados en imágenes públicas de plataformas como Google y Wikipedia, que están plagadas de sesgos de género. “Se ha demostrado recientemente que algoritmos como Dall-E tienen sesgos de género”, apunta Guilbeault. “Probablemente porque las imágenes que lo alimentan vienen de ahí, de Google o Wikipedia; es este ecosistema el que perpetúa los sesgos”.

Cómo reconducir los sesgos

Encontrar soluciones a esta perpetuación de los sesgos será imposible sin colaboración de los responsables de Google. La compañía ya ha reaccionado con torpeza en situaciones anteriores: en 2015, ante la denuncia de que la búsqueda de la palabra “gorila” en Google Imágenes mostraba fotos de hombres negros, la solución fue limitar el etiquetado de estos animales en su aplicación, no mejorar los criterios de búsqueda. 

“Su argumento es que no quieren intervenir en lo que la gente busca”, asegura Guilbeault. “Nos dicen que si buscas enfermeras y encuentras más mujeres es porque hay más mujeres que son enfermeras, pero nosotros creemos que es un problema mucho mayor y una conversación pendiente en la sociedad. Porque este hecho de que haya más mujeres enfermeras es más resultado de discriminación a la hora de contratar y sesgos de género de la sociedad”. “No tengo la respuesta al problema —concluye—, pero creo que debería aumentar su interés para arreglarlo”.

Helena Matute, catedrática de la Universidad de Deusto, Bilbao, cree que es importantísimo investigar sobre los aspectos psicológicos de la tecnología, como hace este trabajo. Sobre el resultado, considera que es algo a lo que ya apuntaban investigaciones anteriores, pero este trabajo aporta buenas pruebas de esa ampliación del sesgo humano al interactuar con tecnología sesgada. “Además, muestra que unas tecnologías son peores que otras, unos formatos peores que otros”, asegura. “Esto aporta información muy necesaria para corregir el problema”.

Si te sales un poco del molde, y eres diferente, has desaparecido o tienes otro tipo de posición que no está en el centro

La doctora en informática Marta Beltrán dedicó su libro “Mr. Internet” (Next Door, 2023) a la falta de perspectiva de género en el diseño de la tecnología a raíz de una experiencia de este tipo con la plataforma de idiomas Duolingo, cuando su hijo estudiaba francés. “Según la profesión, la herramienta te decía que la forma femenina estaba mal porque esperaba que tradujeras el juez y no la jueza, por ejemplo, o que los pilotos solo podían ser hombres”, recuerda. A su juicio, la tecnología no es neutra porque está pensada desde la perspectiva de un hombre blanco heterosexual. “Si te sales un poco del molde, y eres diferente, has desaparecido o tienes otro tipo de posición que no está en el centro”, apunta.

Sobre el trabajo publicado en Nature, Beltrán cree que investigaciones como esta son muy necesarias para tener discusiones apoyadas en datos. También considera que es importante localizar la fuente del sesgo, si es la realidad o es el algoritmo quien lo introduce, así como las diferencias en los términos entre idiomas (en inglés existen fórmulas neutras que no hay en castellano, por ejemplo). El caso de Google Images le recuerda al que vivió la empresa Amazon con su algoritmo para seleccionar currículos, en el que si tomas datos de una realidad sesgada, el modelo ofrece resultados sesgados (en aquel caso se entrenaba a la IA con los datos de personas ya contratadas, que eran en su mayoría hombres).

La investigadora cree que sería legítimo introducir cambios, de forma consensuada y transparente, aunque siempre teniendo en cuenta que es peligroso que las empresas tecnológicas tomen estas decisiones. “Porque hoy pueden decidir que corrigen eso y mañana corrigen la búsqueda sobre términos antes de las elecciones”, señala Beltrán, “Si se hace, hay que dejar muy claro sobre qué punto de la cadena de sesgos se está actuando”.