Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

¿Puede Facebook cambiar unas elecciones? Un macroestudio dice que el algoritmo no altera las opiniones políticas

El algoritmo de Facebook no altera las opiniones políticas de los usuarios

4

En la última década y media, el algoritmo de la red social Facebook se ha convertido en principal sospechoso de alterar el funcionamiento de muchas democracias en el mundo, incluida la estadounidense. Escándalos como el de Cambridge Analytica — por el que se usaron los datos de millones de usuarios para hacer propaganda política a favor de Donald Trump o del “Brexit”— pusieron en el ojo del huracán a la empresa de Mark Zuckerberg, que recibió duras sanciones por vulnerar la privacidad. 

Como respuesta, Facebook (hoy Meta) puso en marcha varias iniciativas para intentar limpiar su reputación. Una de ellas fue permitir que un grupo de 17 investigadores independientes de universidades de Estados Unidos tuvieran acceso a algunos datos del comportamiento de sus usuarios durante las elecciones presidenciales de Estados Unidos en 2020, con el compromiso de respetar su autonomía y responder a las cuestiones que les requirieran. Fruto de esta colaboración es el paquete de estudios que este jueves se publica simultáneamente en las revistas Science y Nature con los que se ha intentado responder a una pregunta que está desde hace tiempo en el aire: ¿puede un negocio que prioriza retener la atención del usuario mediante algoritmos suponer una amenaza para la democracia?

Intervención y observación

La manera de afrontar esta pregunta ha sido dividir el problema en partes. Los investigadores han realizado tres estudios de intervención, para los que reclutaron voluntarios a los que alteraron su experiencia en la red social durante tres meses y a los que después hicieron una serie de encuestas, y un gran estudio de observación para analizar el comportamiento de más de 200 millones de usuarios durante el periodo electoral entre septiembre y diciembre de 2020. 

Los tres trabajos experimentales consistieron, básicamente, en quitar una de las características fundamentales del “timeline” de la red social y comprobar qué pasaba. En los dos trabajos liderados por el investigador de la Universidad de Princeton Andrew M. Guess, publicados en Science, los autores anularon el sistema de priorización de contenidos del algoritmo (colocando, en su lugar, el orden cronológico), así como la posibilidad de ver contenidos “compartidos” por otros en Facebook y en Instagram (también de Meta). En el trabajo publicado en Nature y liderado por Brendan Nyhan, de la Universidad de Dartmouth, lo que se redujo fue la cantidad de contenido de fuentes “afines” en Facebook. 

La conclusión fue similar en los tres casos: eliminar las fuentes algorítmicas predeterminadas, la función de ver contenidos compartidos y la prevalencia de las fuentes afines redujo, en general, el tiempo que los usuarios pasaban en las plataformas de Meta, pero no cambió las actitudes políticas ni sus comportamientos fuera de la red. 

Segregación ideológica

El estudio observacional, liderado por la española Sandra González-Bailón, de la Universidad de Pennsylvania, abordó la cuestión de si Facebook induce la segregación ideológica en el consumo de noticias políticas. Para ello analizaron el flujo de contenido político: las ‘urls' de las noticias políticas en las que pinchaban 208 millones de usuarios de Facebook durante los tres meses alrededor de elecciones presidenciales. Esto incluía todo el contenido que los usuarios podrían ver potencialmente, el contenido que realmente vieron en los feeds (seleccionados selectivamente por los algoritmos de Facebook) y contenido con el que se interactúa a través de clics, compartir u otras reacciones. 

Lo que vimos fue que hay una fuerte segregación en el consumo de noticias, pero no hay un efecto claro en las opiniones de la gente

Sandra González-Bailón Universidad de Pennsylvania

“Lo que vimos fue que hay una fuerte segregación en el consumo de noticias”, explica González-Bailón a elDiario.es. “Pero nuestros resultados demuestran que no hay un efecto claro en las opiniones de la gente”. Un aspecto interesante fue la diferencia en el comportamiento entre usuarios liberales y conservadores: los usuarios políticamente conservadores estaban mucho más aislados en sus fuentes de noticias y expuestos a mucha más información errónea. 

“Hay una asimetría clarísima entre las audiencias”, subraya la investigadora. “Hay mucha más noticias políticas que son vistas de forma exclusiva por conservadores y la gran mayoría de noticias que fueron etiquetadas como falsas fueron vistas por más conservadores que liberales”. Un hecho que tiene que ver, apunta, con que los medios de carácter conservador explotan con mucha más frecuencia estas características de la red y son más activos que los liberales. 

'Usted ya venía así de casa'

Los resultados de este amplio despliegue en torno a los datos de Meta ofrecen una conclusión que contradice la creencia generalizada sobre el poder de la mano negra de los algoritmos. “Lo que indican estos resultados es que el algoritmo influye de forma clara en la experiencia en la plataforma y la información a la que te ves expuesto, pero no encuentran efectos en actitudes o comportamientos fuera de la plataforma”, expone González-Bailón. Es verdad que los cuatro trabajos vienen a confirmar que la red social está diseñada para generar “cámaras de eco” y es muy eficiente dividiendo a las audiencias en “cajitas”, admite, pero coinciden en señalar esta segmentación no cambia sus actitudes políticas. En otras palabras: “La culpa de sus posiciones ideológicas no es de Facebook, usted ya venía así de casa”. 

“Las razones de este resultado solo pueden ser varias y los datos no nos permiten discriminar el por qué”, reconoce la investigadora. “Una de las posibles razones es que los experimentos duran tres meses, que es un periodo mucho más largo de lo que se ha evaluado antes, así como que los usuarios están expuestos a información en otras plataformas”. “Otra consideración es que los medios estadounidenses y la sociedad fuera de Facebook están altamente polarizados”, apunta David García, de la Universidad de Constanza, en un análisis en Nature. “Cambios similares en los algoritmos podrían haber alterado las opiniones en países donde los medios masivos son menos partidistas y donde los ciudadanos no están tan polarizados”, asegura. Aparte de estos matices, lo que parece claro es que lo que uno piensa sobre la realidad es fruto de muchas otras interacciones con el entorno y de lo que considera como su identidad, más allá de lo que lea en las redes.

Asumir que porque un día ves un mensaje en Facebook te va a llevar a un cambio de voto, eso no ocurre

Gemma Galdón Auditora de algoritmos de Eticas Consulting

Gemma Galdón, especialista en la auditoría de algoritmos y fundadora de Eticas Consulting, coincide en que quizá hemos sobrevalorado el papel de las redes sociales en la opinión de la gente. En un trabajo anterior, en el que ella y su equipo analizaron el papel de TikTok respecto a los inmigrantes durante diferentes procesos electorales, vieron que la red social no era un actor político relevante. “El cambio de opción política es algo mucho más complejo y no es tan fácil cambiar el voto de una persona”, indica Galdón. “Asumir que porque un día ves un mensaje en Facebook te va a llevar a un cambio de voto, eso no ocurre”.  

¿Se puede descartar entonces que Facebook ayudara a alterar los resultados de elecciones pasadas? Los autores de los trabajos publicados este jueves no entran en el fondo del asunto. “Lo que hemos mostrado es que durante un periodo de tres meses de estudio este tipo de cambios que se habían propuesto no parecen tener impactos en las actitudes políticas”, explica uno de los coautores, Joshua Tucker. “Y lo hicimos durante una campaña electoral, porque es un periodo crucial, pero es posible que si hiciéramos un estudio en otro periodo u otro lugar hubiéramos tenido resultados diferentes”.

¿Un lavado de cara?

Aunque los trabajos están bien diseñados, y han sido elaborados por investigadores de prestigio sometidos a la revisión por pares, el resultado es tan favorecedor para Zuckerberg que induce a algunos a levantar la ceja. Las conclusiones coinciden casi palabra por palabra con la opinión que expresó el CEO de la plataforma en su propia red en plena polémica por su papel en en las elecciones. “Creo que la idea de que las noticias falsas que circulan en Facebook influyó de alguna manera en las elecciones es una locura”, aseguró. “Los votantes toman decisiones basadas en las experiencias que vivieron”.

Michael Wagner, profesor de la Universidad de Wisconsin–Madison y el relator elegido por las partes para estar presente durante todo el proceso como un garante de que todo fuera “limpio”, escribe un artículo de análisis en la propia revista Science que critica la presencia de la sombra de Meta en todas las decisiones. “Meta estableció la agenda de forma que afectó a la independencia general de los investigadores”, escribe. “Meta colaboró en las opciones de flujo de trabajo con los académicos externos, pero enmarcó estas opciones de manera que determinaran los estudios”. 

Meta estableció la agenda de formas que afectaron a la independencia general de los investigadores. Enmarcó las opciones de manera que determinaran los estudios

Michael Wagner Profesor de la Universidad de Wisconsin–Madison y relator independiente del megaestudio

Wagner recuerda que Facebook ya aportó información falsa a otros proyectos que nacieron con el mismo espíritu de supuesta trasparencia y es crítico con el procedimiento en general, aunque reconozca su limpieza. “Mi conclusión es que para que la investigación en ciencias sociales sobre los efectos de las plataformas de redes sociales y su uso sea verdaderamente independiente, los académicos externos no deben depender por completo de la industria colaboradora”, asegura. “Al final, la independencia por permiso no es independencia en absoluto”.

Para la periodista Marta Peirano, especialista en intersecciones entre tecnología y poder, el principal defecto del estudio es que analiza una red que ya no es el foco principal de polarización, porque su uso está a la baja. “El impacto de los algoritmos de Google y Facebook se ha trasladado a las plataformas de mensajería”, señala. “La mayor parte de la acción está ocurriendo en otra parte que es de Facebook que es Whatsapp (y también en Telegram), medios que no pueden ser monitorizados ni por la prensa ni por la justicia ni por la sociedad en general”.

Los experimentos sobre la red social no solo llegan tarde, cuando Facebook ha implementado cambios tras los escándalos y puede presentar la casa “recién barrida”, por así decirlo, sino que su diseño impediría ver otros efectos, como la influencia de determinados grupos de opinión. “Quizás el llamado feed algorítmico no 'causa' polarización, pero el dar una plataforma a actores hiperpartidistas que esparcen desinformación sin ninguna regulación sistemática, parece que sí”, asegura la investigadora de la Universidad Autónoma de Barcelona (UAB) Clara Pretus. En su opinión, medir la influencia del algoritmo colocando el feed cronológico en lugar del algorítmico es “un poco burdo para estudiar los efectos sobre la polarización, porque los efectos son múltiples y es difícil saber qué estamos cambiando exactamente a nivel psicológico”. 

Pretus participó en un trabajo reciente de la Universidad de Nueva York liderada por el investigador Steven Rathje en la que usaron otro tipo de intervención. El experimento fue en Twitter y pidieron a los usuarios que dejaran de seguir una lista de cuentas específicas hiperpartidistas durante un mes. “Los resultados preliminares de nuestro estudio demuestran que este pequeño cambio en las dietas informativas de los usuarios de Twitter reduce la polarización afectiva de forma robusta”, destaca. Es decir, existen otra serie de factores y grupos de presión que alteran los estados de ánimo y los climas de opinión a través de las redes sociales, aunque los efectos no se hayan detectado con el diseño de este estudio.

Aunque reconoce que hemos dado a los algoritmos un rol de “mano negra” que quizá no tienen, Gemma Galdón cree que la fuente de casi todos los problemas está en el diseño original de estas herramientas, pensadas únicamente para retener al usuario y segmentarlo con fines publicitarios, sin haber tenido en cuenta otros posibles usos perniciosos. “Hemos dejado a las empresas tecnológicas crear modelos de negocio sin tener en cuenta el impacto social de eso”, sostiene. “Ellos hacen grupos para personalizar lo que te venden, pero lo que nadie piensa es que al hacer eso estás creando cajones con perfiles muy específicos que te roban tu libertad de elegir”. Y eso es lo más grave, opina. “Porque puede que haya opciones o datos mejores, pero el diseño de la plataforma nos impide verlos”.

________________

Cómo frenar las mentiras

En la campaña del 23J ha quedado clara la tremenda importancia que tiene la prensa libre, que depende de sus lectores y no le debe nada a nadie más. La inmensa mayoría de los grandes medios son propiedad de bancos, de fondos y grandes grupos de comunicación. La gran mayoría de ellos han blanqueado a los ultras y están bajo el control de la agenda que marca la derecha.

Por eso te pedimos tu apoyo. Necesitamos crecer. Contratar a más periodistas. Reforzar nuestras ediciones locales frente a las mentiras de los gobiernos locales y autonómicos de la extrema derecha. Fichar a más reporteros de investigación. Nos hace falta llegar a más gente, construir un periódico más grande, capaz de contrarrestar la brutal ola de propaganda conservadora a la que nos vamos a enfrentar. Y que dejará pequeña la que hemos vivido en esta sucia campaña electoral.

Si te preocupa el futuro de este país, apóyanos. Hoy te necesitamos más que nunca porque nuestra labor es más necesaria que nunca. Hazte socio, hazte socia, de elDiario.es

Etiquetas
stats