Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

El algoritmo se comió mis escrúpulos: cómo lanzar campañas publicitarias para nazis y antisemitas en Google y Facebook

Nazis: un target publicitario como otro cualquiera

Marta Peirano

Google es la mayor agencia publicitaria del mundo. Facebook, el servicio más popular de internet. Los dos ofrecen una plataforma para que los anunciantes encuentren su público objetivo y diseñen campañas específicas y efectivas entre determinados segmentos de la población. Incluyendo, por ejemplo, una audiencia neonazi, antisemita o que haya manifestado abiertamente su desprecio hacia lo musulmán. 

El caso de Facebook fue denunciado por ProPublica el pasado martes. A lo largo de la investigación, descubrieron que la gran Red social permitía a los anunciantes vender sus productos a los casi 2.300 usuarios que salían vinculados al odio a los judíos, “cómo quemar judíos” o la “Historia de cómo los judíos arruinaron el mundo”. Para asegurarse, probaron a ejecutar una campaña de tres anuncios pagando 30 dólares para promocionar un contenido en el muro de ese segmento de usuarios. Facebook tardó 15 minutos en aprobarla, desmintiendo la promesa de Mark Zuckerberg  de que “no hay lugar para el odio en nuestra comunidad”

Poco después, BuzzFeed hizo una prueba parecida con Google, descubriendo que se pueden comprar campañas publicitarias específicas para personas que hayan usado el buscador para interesarse por asuntos obviamente racistas. Por ejemplo, frases como “parásito judío” o “Los negros lo estropean todo”. Curiosamente, al usar el buscador de audiencias de la herramienta, el sistema sugería nuevos términos racistas de su propia cosecha como “Los negros arruinan los barrios” o “El control judío de los bancos”.

La publicación generó unas campañas basadas en estos targets que fueron aceptadas por el sistema y funcionaron durante todo el tiempo que estuvieron contratadas. 

La culpa es del algoritmo

Cuando ProPublica se puso en contacto con Facebook para preguntar sobre el asunto, retiraron las campañas y echaron la culpa al algoritmo. “A veces surge contenido de nuestra plataforma que viola nuestros estándars -se justificaba Rob Leathern, director de producto.- En este caso, hemos retirado los campos con ese target en cuestión”. Aseguró que están trabajando en redes de seguridad para prevenir nuevos “incidentes” como este. Aludía quizá al escándalo de los 100.000 dólares en campañas durante las elecciones estadounidenses, aparentemente generadas por cuentas fraudulentas afiliadas con Rusia.

Cuando BuzzFeed contactó con Google, recibió una respuesta similar. El vicepresidente senior de publicidad y comercio Sridhar Ramaswamy dijo que “su objetivo era impedir que el buscador haga sugerencias ofensivas, y parar cualquier campaña ofensiva que aparece (...). En este caso, las campañas publicitarias no contenían palabras clave racistas y no captamos las sugerencias ofensivas (...). Ya hemos eliminado ese tipo de sugerencias y cualquier campaña que se colara, y trabajaremos más duro para evitar que ocurra de nuevo”. 

Google lo tiene más difícil: el sistema está diseñado para sugerir términos de búsqueda, pero basándose en las búsquedas de otros millones de usuarios. Si el mundo es racista, las sugerencias también lo serán. Google tendrá que enseñar a su algoritmo a ser mejor que sus usuarios. 

En el caso de Facebook, el problema no es el algoritmo sino el tipo de segmentación racial, religiosa, económica, cultural o sexual en el que está basado. El año pasado, ProPublica consiguió publicar un anuncio de una casa de manera que no pudieran verlo afroamericanos, hispanos ni asiáticos. Su negocio es separar a la población en grupos que sean significativos para sus anunciantes, desde madres solteras y vegetarianas que hacen yoga y hacen su propio kimchi a adolescentes con problemas de autoestima.

Dos días después de que ProPublica publicara su investigación, Slate consiguió hacer otra campaña usando exactamente el mismo método pero orientada “Matar Racicales Musulmanes” y al “Ku-Klux-Klan”. El algoritmo no refleja a los usuarios sino a los clientes de la Red Social. En otras palabras, el problema de Facebook es su modelo de negocio, algo que sus ingenieros pueden refinar pero no corregir. 

Etiquetas
stats