Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Algoritmos que hacen perder la cabeza: cuando al otro lado de la pantalla no hay un humano, sino una máquina

Nasim Aghdam

David Sarabia

Nasim Aghdam abría fuego el martes contra varias personas en la sede de YouTube en San Bruno, California (EEUU). La noche antes la había pasado durmiendo en su coche, en el párking de las oficinas centrales de la compañía. Hacía días que su familia no sabía nada de ella, así que optaron por denunciar su desaparición, que duró poco: el lunes, la policía californiana localizó a Aghdam en el mismo lugar donde 24 horas después protagonizaría un tiroteo dejando tres heridos. Luego se suicidaría.

La mujer, residente en San Diego, de 39 años y origen iraní, era youtuber. Gestionaba un canal en persa, otro en turco, otro en inglés y otro de manualidades, pero no sumaba más de 30.000 suscriptores entre todos. En la red social de los vídeos es un número bajo. También era una activista vegana y por los derechos animales, muy activa en Instagram, donde acumulaba más de 16.000 seguidores. Ambas cuentas, ya borradas, pueden visitarse a través del archivo de Internet. La tiradora de Mountain Views también tenía una página web, a estas horas ya eliminada.

Según el Programa para Partners de YouTube, “cuando tu canal consiga 4.000 horas de visualización en los últimos 12 meses y 1.000 suscriptores, lo revisaremos para comprobar que cumple los requisitos para participar en el programa”. Aghdam se quejó en numerosas ocasiones de que sus beneficios por las visitas de sus vídeos eran muy bajos y que muchos de ellos estaban siendo desmonetizados. Google solo incluye publicidad (lo que se conoce como “monetizar”) en los vídeos que cumplen los requisitos ya mencionados. Pero, ¿quién lo hace, un humano o una máquina?

Algoritmos prejuiciosos

“En general, es una combinación de aprendizaje automatizado y revisión manual”, explican fuentes de Google a eldiario.es. Añaden que “si un creador ve que su vídeo ha sido desmonetizado injustamente, puede apelar”. Aghdam, que incluso fue a practicar horas antes del ataque a un campo de tiro según la policía estadounidense, estaba obcecada con la red social. “Puede llegar a ser relativo”, dice Albert García, sociólogo e investigador en Cibersomosaguas de la Universidad Complutense de Madrid. “Hay sistemas de bots que generalmente gestionan denuncias de contenido, pero también puede haber políticas de la propia empresa para vetar algo a alguien”, continúa.

Aghdam estaba convencida de que YouTube la torpedeaba. Su padre declaró un día después de su muerte que estaba “enfadada” con la compañía y que la “odiaba”. Y las menciones en sus vídeos hacia “las personas” o “la persona” detrás de la red social eran constantes. La tiradora de San Bruno creía que alguien desmonetizaba sus vídeos a propósito y que los antiveganos habían intentado matarla. El 28 de enero grabó un vídeo (ya eliminado) donde comenzaba diciendo: “Estoy siendo discriminada y filtrada en YouTube, y no soy la única”.

Un algoritmo no puede bajar la guardia porque es implacable. Pero al final está programado por personas con prejuicios. García pone el foco sobre los creadores de esos algoritmos y duda de su supuesta neutralidad: “Las instituciones privadas como Facebook o YouTube son las que están gestionando casi todo el tráfico de Internet y ni siquiera sabemos cómo funcionan esos algoritmos. Si realmente son neutrales o si hay alguien detrás con unos intereses de patrocinadores que están diciendo 'esto va aquí, esto va allá'...”.

Si un software es código cerrado no podemos estar seguros de que hace lo que dice hacer ni que realmente sirva para eso que dice servir. El investigador de la UCM hace un símil parecido con los algoritmos que rigen a las grandes redes sociales como Facebook, Twitter o YouTube, y se pregunta: “¿Quién te dice a ti que no hay detrás una organización de censores que no quieren que se publique cierto contenido? ¿O que priman un contenido frente a otro? ¿O que directamente están construyendo algoritmos que están pensando en hacer eso?”.

El usuario, el producto, el capital

Evgeny Morozov explicaba recientemente a este diario la idea del estado del bienestar paralelo, por el que cada vez más empresas, abusando de la falta de transparencia, crean marcos empresariales propicios para sus propios intereses. García abunda en esta idea y explica que “al final, es lógico que no tengan que rendir cuentas a nadie y mucho menos al usuario, que en realidad no es el cliente, sino un producto”. El usuario se convierte así en quien “valora los vídeos, el que los ve, el que prima un contenido sobre otro y ellas [las multinacionales] usan la inteligencia colectiva como un capital más”.

Google utiliza a los usuarios para mejorar sus resultados de búsqueda constantemente. Los usó en el pasado para mejorar su CAPTCHA, el Test de Turing de las máquinas. “Y el último objetivo de todo esto es la caracterización de publicidad: están orientando por segmentos de población para luego venderte, a través de los sistemas de publicidad de esas plataformas, dónde pones el anuncio y sobre todo, a quién vendes el anuncio”, explica el investigador de Cibersomosaguas.

Cuanto más tiempo pases en Facebook, más dinero gana la plataforma. Cuando subes una foto de la fiesta del fin de semana, tus datos adquieren más valor. “Cuanto más tiempo de exposición, más tiempo de publicidad y más dinero para la red”, continúa García. De forma similar, YouTube, premia a los usuarios que tienen más suscriptores y más visualizaciones. Aghdam no era uno de esos. “Lo que hace es asociarse con varios partners que le interesan y crea una estructura piramidal de remuneraciones. La misma empresa tiene una política para fomentar que las espigas más altas crezcan más”, dice el investigador, que observa en la red social los mimbres propios del capitalismo: “YouTube fomenta el tema de la ultracompetitividad y la obsesión por la conexión constante”.

Etiquetas
stats