Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
Puigdemont estira la cuerda pero no rompe con Sánchez
El impacto del cambio de régimen en Siria respaldado por EEUU, Israel y Turquía
OPINIÓN | 'Pesimismo y capitalismo', por Enric González

Un exempleado de YouTube revela que las recomendaciones alientan los bulos

El programador Guillaume Chaslot, creador del algoritmo de YouTube, es uno de los más críticos con él

Aroa Fernández

Seguro que en más de una ocasión te has puesto a ver vídeos en YouTube y has ido encadenando varios hasta acabar preguntándote cómo has llegado hasta donde estás si empezaste con el último videoclip de moda. El culpable de esa espiral no es otro que el algoritmo que la red social emplea para recomendar un vídeo tras otro. Una inteligencia artificial que sugiere decenas de miles de millones de contenidos cada día y que, según se ha demostrado, fomenta las teorías conspiratorias y las noticias falsas.

El programador francés Guillaume Chaslot es uno de sus creadores. Durante los tres años que trabajó en Google, tuvo ocasión de experimentar con el sistema de recomendaciones para conseguir que los usuarios se quedaran cada vez más tiempo consumiendo los vídeos. Pronto se dio cuenta de que el camino que estaban tomando las sugerencias en base a rendimientos económicos no era el más aconsejable, al menos para el usuario, así que comenzó a proponer a los directivos medidas para asegurar la calidad de los contenidos sugeridos. Ninguna triunfó. En 2013 le despidieron alegando un bajo rendimiento.

Sin embargo, la batalla de Chaslot contra los graves sesgos de este algoritmo continúa. Ahora, junto a programadores y activistas, este joven de 36 años ha desarrollado un sistema para desvelar cómo funciona esta espiral de vídeos en YouTube.

Con este programa de código abierto han simulado la ruta de un usuario que comienza en un vídeo y luego sigue la cadena de recomendaciones. Lo hace sin historial de visualización, lo que garantiza que los vídeos que se detectan son sugerencias genéricas de YouTube y no personalizadas para un individuo concreto.

A partir de ahí, repite el proceso miles de veces, acumulando datos para crear una foto más o menos fija de las desviaciones de la inteligencia artificial. Los resultados de las búsquedas más llamativas se han publicado en la web algotransparency.org.

“La Tierra es plana” y el Papa “el anticristo”

Este proyecto ha demostrado que YouTube prioriza vídeos entre sus recomendaciones que afirman que “la Tierra es plana” o que “el calentamiento global es una gran mentira”. A su lado se sugieren contenidos que nada tienen que ver con la búsqueda pero recurren al morbo para tentar al usuario. Por ejemplo, entre las sugerencias para los interesados por el calentamiento global aparecen consejos para ligar. Cuando se busca información sobre un tiroteo en Orlando, surgen vídeos sobre celebridades transgénero.

Chaslot ha dado un paso más y, en su blog, ha comparado las recomendaciones de YouTube con las búsquedas directas en Google o en la propia red social para ilustrar lo diabólico del algoritmo. Así, vio que las sugerencias referentes al papa Francisco que lo calificaban de “demonio” o “anticristo” representaban el 85 % (mientras que las búsquedas al respecto no pasaban del 35 %) y que los vídeos sobre si Michelle Obama habrá nacido hombre suponían el 65 % de las recomendaciones (frente a un máximo del 45 % de las búsquedas).

En su prueba también desveló la importancia concedida por el algoritmo a teorías conspiratorias tan populares como el pizzagate, la cual en plena campaña por la presidencia de los Estados Unidos, en 2016, involucró falsamente a Hillary Clinton con una red de prostitución infantil en la trastienda de varios restaurantes. Un bulo que salió de la Red y provocó que un hombre la emprendiera a tiros en uno de los establecimientos señalados para, supuestamente, liberar a los niños secuestrados. A pesar de todas las evidencias de lo falso de la acusación, el 95 % de los vídeos recomendados por YouTube alentaban la mentira del pizzagate pizzagatecreada para dañar la imagen de Clinton.

En este sentido, Chaslot también investigó la implicación de YouTube en la lucha por la presidencia entre Trump y Clinton. En vísperas a las elecciones descubrió que más del 80 % de los vídeos recomendados eran favorables a Trumpmás del 80 % de los vídeos recomendados eran favorables a Trump, independientemente de que el usuario hubiera buscado inicialmente “Trump” o “Clinton”.

“YouTube tiene muchas maneras de cambiar sus algoritmos para suprimir noticias falsas y mejorar la calidad y diversidad de vídeos que ve la gente”, afirma Chaslot. “Yo intenté cambiar YouTube desde dentro, pero no pude”, se lamenta.

Algo más que preocupante si tenemos en que cuenta que la plataforma de vídeos suma en todo el mundo más de 1.500 millones de usuarios, una cifra que supera al número de hogares con televisión. Además, según los datos revelados recientemente por un responsable de la propia plataforma, el 70 % de los contenidos que los usuarios ven ha sido sugerido por el algoritmo. Así, no es descabellado suponer que cada vez son más quienes se informan a través de esta red social, que no solo no filtra la información falsa sino que la alienta.

YouTube no hace caso a sus usuarios

Al contrario que Facebook y Google, que parece que han sabido reaccionar a tiempo y ha integrado herramientas para perseguir los bulos, YouTube no toma el mismo camino.

Aunque en 2016 la plataforma de Google aseguró que iba a tener en cuenta la satisfacción de su público, y supuestamente empezó a tener en cuenta su opinión sobre los vídeos a la hora de seleccionar los resultados de búsqueda y las recomendaciones (entre otras cosas, para evitar la promoción de vídeos con “contenido polémico de carácter religioso o supremacista”), lo cierto es que, a la vista del experimento de Chaslot, los usuarios parecen seguir estando en un segundo plano.

Como él mismo asegura, los likes y dislikes tienen poco impacto en las sugerenciaslikesdislikes. “Por ejemplo, muchos vídeos que dicen que Michelle Obama era un hombre tienen más valoraciones negativas que positivas, pero aun así son muy recomendados por YouTube”, explica.

Además, afirma que la plataforma tiene más en cuenta el tiempo que los usuarios permanecen en el vídeo que su valoración. “Por tanto, si el vídeo de la Tierra es plana mantiene a los usuarios enganchados más tiempo que el de la Tierra es redonda, esta teoría se beneficiará del algoritmo de recomendación”, ejemplifica.

Esto hará que se generen más contenidos en torno a la conspiración. En cuanto uno de esos vídeos se vea favorecido por la inteligencia artificial, otros youtubers aprovecharán para subir nuevos contenidos al respecto que también podrían ser recomendados. “No lo están haciendo a propósito, es una consecuencia involuntaria del algoritmo”, matiza Chaslot. Aun así, la plataforma tiene en sus manos ponerle freno.

------------------

Las imágenes de este artículo son propiedad, por orden de aparición, de Pixabay, algotransparency.org, y Pexels

Etiquetas
stats