El informe interno de Facebook que cita a España alerta de que sus equipos están sobrepasados por los casos de manipulación

Portada de Facebook

"He adoptado medidas que han llevado a la publicación de noticias internacionales en múltiples ocasiones". "He tomado decisiones personales sin supervisión que afectaban a presidentes nacionales". "He decretado tantas restricciones contra políticos prominentes que he perdido la cuenta". "En última instancia era yo quien tomaba la decisión de priorizar o no presionar más en cada caso". Son todas denuncias de Sophie Zhang, científica de datos y ex empleada del equipo de Facebook que persigue y elimina las manipulaciones de la plataforma y el comportamiento fraudulento organizado.

Zhang pasó tres años intentando cumplir esta misión en la red social fundada por Mark Zuckerberg. Fue despedida este mes. En su último día, redactó un memorando de 6.600 palabras destinado a la cúpula de la compañía en el que detalla los casos en los que ella, una empleada junior y sin autoridad dentro de Facebook, debía hacer frente a casos de manipulación que ocupaban portadas en todo el mundo. Un problema global que, alerta, los equipos de trabajadores de la red social no tienen recursos suficientes para atajar.

"El memorándum es un relato condenatorio de los fracasos de Facebook. Es la historia de Facebook abdicando la responsabilidad sobre actividades maliciosas en su plataforma que podrían afectar al destino político de naciones enteras", describen los periodistas de Buzzfeed Craig Silverman, Ryan Mac y Pravnav Dixit, que han sacado a la luz el informe de Zhang, que no estaba destinado a hacerse público.

El memorando cita casos de múltiples países. Uno de ellos es precisamente España, donde la irrupción de cientos de bots en la página oficial del Ministerio de Sanidad en Facebook provocó múltiples denuncias de manipulación contra el Gobierno. Zhang lo investigó, rastreó esos perfiles fraudulentos y descubrió una gigantesca red de 672.000 bots que había actuado en múltiples países, incluido EEUU. La desactivó, pero no pudo descubrir su origen. Tardó días, en los que la manipulación que causaron los bots intoxicó la esfera pública española, donde se cuestionaba su origen y motivación. Meses después, Facebook todavía no ha dado una explicación oficial al caso. Su única comunicación al respecto fue confirmar que el aviso inicial sobre la aparición de los bots vino del propio Gobierno español.

Sin embargo, esta manipulación languidece en comparación con otras en las que tuvo que actuar Zhang. Su informe "también es la historia de un empleado subalterno que ejerce poderes de moderación extraordinarios que afectaron a millones de personas sin ningún tipo de apoyo institucional real, y el tormento personal que siguió", avisan los periodistas de Buzzfeed. "Sé que tengo las manos manchadas de sangre", escribe ella en su texto.

Cuando un cambio en la moderación de Facebook puede suponer vidas humanas

Una de los asuntos en los que Zhang tomó decisiones y que pudieron derivar en la pérdida de vidas humanas fue el de Bolivia. Estados Unidos y Europa Occidental son las regiones "prioritarias" para el equipo de lucha contra la manipulación en Facebook. Fuera de ellas, deben decidir si le otorgan prioridad a la investigación de cada caso. En Bolivia, Zhang halló "actividad fraudulenta en apoyo al candidato presidencial de la oposición en 2019" pero decidió no considerarlo prioritario.

Meses después, la oposición boliviana elevó una denuncia sobre manipulación electoral contra Morales y dio un golpe de Estado que le obligó a salir del país. Partidarios del mandatario y de la oposición chocaron durante semanas en las calles, "dando lugar a protestas masivas con docenas de muertos" tras la inacción de Facebook, escribe Zhang a la cúpula de la red social. elDiario.es detalló entonces que la operación para expulsar a Morales tuvo una pata en Twitter, donde decenas de miles de nuevas cuentas lavaron la imagen del golpe de cara al exterior. Facebook ha confirmado este septiembre, casi un año después de los hechos, que una empresa estadounidense también manipuló su plataforma con este objetivo.

En esta línea, Zhang detalla cómo en muchas ocasiones la manipulación campa a sus anchas fuera de las zonas "prioritarias" para Facebook. Como en el caso de Bolivia con las protestas, su decisión de no priorizar determinadas campañas terminaban dando origen a explosiones de desinformación, como en Brasil o Ecuador. Cuando dejó pasar una acción del Gobierno de Azerbaiyán contra la oposición, terminó viendo como la situación escalaba y terminaba dando origen a una "intimidación masiva" contra los críticos por parte de las autoridades. El peso de la responsabilidad no la dejaba dormir, detalla en el memorando: "Se hizo imposible leer las noticias y monitorizar los eventos mundiales sin sentir el peso de mi propia responsabilidad".

En un comunicado oficial enviado a elDiario.es, un portavoz de Facebook ha reconocido que el de Zhang "es un trabajo que requiere un alto grado de involucración" y no ha negado los hechos que relata en su memorando. "Hemos formado equipos especializados, que trabajan con los principales expertos, para impedir que actores maliciosos abusen de nuestros sistemas", continúa. Facebook organizó estos equipos tras el escándalo de Cambridge Analytica y la manipulación rusa de las elecciones estadounidenses, destapado en 2018, ya que antes no tenía departamentos dedicados expresamente a esta función. Desde entonces, asegura que ha eliminado más de 100 redes de cuentas y perfiles fraudulentos por violar sus políticas de manera organizada.

Sobre la inacción de estos equipos de moderación fuera de las zonas "prioritarias", la portavoz de Facebook afirma: "Investigamos cada caso cuidadosamente, incluidos aquellos que trae a colación la señorita Zhang, antes de actuar y lanzar comunicados públicos como compañía".

Sin embargo, la incapacidad de Facebook para hacer frente a determinados casos de manipulación de su plataforma ha quedado patente en el pasado. Uno de los casos más graves ocurrió durante el genocidio contra los rohingya, en el que los investigadores de la ONU han documentado que la red social tuvo un papel clave en el llamamiento a la violencia étnica. La compañía reconoció que no tenía las herramientas ni el personal necesarios para detectar el discurso de odio en birmano, el idioma oficial de Myanmar.

Etiquetas
Publicado el
15 de septiembre de 2020 - 23:14 h

Descubre nuestras apps

stats