Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
ENTREVISTA
Jeff Horwitz

Este periodista es la peor pesadilla de Facebook: “Parece imposible que sigan comportándose así, pero lo hacen”

El escritor y periodista Jeff Howritz, autor de 'Código roto'

Cristina F. Pereda

15

Meta sabe que en las entrañas de Facebook se organizan miles de pederastas, como antes sabía que los cárteles del narco mexicano usaban sus grupos para reclutar a sicarios, que sus usuarios adolescentes denuncian problemas de salud tras interactuar en sus redes, que mujeres de Nepal o Filipinas fueron vendidas a través de Instagram como esclavas sexuales y cómo la explosión de los grupos de seguidores de Donald Trump derivó en el asalto del Capitolio. Meta también sabe que, tal y como están diseñados sus algoritmos, los usuarios no van a poder acabar con la desinformación ellos solos. 

Instagram conecta a una amplia red de pedófilos” es el último titular de ‘The Wall Street Journal’ que ha forzado a Mark Zuckerberg, presidente de Meta, a abrir una investigación interna. Como la serie anterior de los ‘Papeles de Facebook’, también está firmado por el periodista estadounidense Jeff Horwitz, el mismo que reveló que los responsables de Meta conocían que el diseño de la plataforma ha agravado estos problemas mientras defienden públicamente que, por encima de todo, Facebook sirve para crear conexiones positivas entre millones de personas de todo el mundo.

En este último escándalo, esa conexión es la que la red social ha creado entre usuarios interesados en contenidos de sexo con menores. Horwitz relata que hay cuentas que anuncian “menús” de contenidos pedófilos a la venta y que la búsqueda de Instagram recomienda activamente “términos relacionados con explotación sexual infantil”. En esta entrevista con elDiario.es, el autor reconoce que su cuenta “es un infierno” por todo el contenido que ha investigado: “Una ojeada fugaz a cuentas con nombres como ‘incesto con bebés’ bastaba para que Instagram empezase a incitar a los usuarios a conectar con ellas”. 

Su última exclusiva coincide con la publicación del libro ‘Código roto’ (Editorial Ariel, 2024), en el que Horwitz repasa los últimos escándalos de Facebook y el profundo contraste entre su imagen pública y los debates internos, que enfrentaron muchas veces a los ejecutivos de Meta con sus propios empleados. Aunque de manera desorganizada —los capítulos no siguen un orden cronológico y el autor regresa sobre los diferentes casos en varios puntos de la lectura—, la obra cuestiona si a Facebook le preocupa realmente la seguridad de los adolescentes acosados en la plataforma, las víctimas de porno vengativo o las mujeres esclavizadas tras ser captadas en perfiles de Instagram.

Y el resultado es que ninguno de los antecedentes descritos deja espacio para la esperanza de que esta crisis sea distinta a las demás y derive en cambios reales en la plataforma. Horwitz desveló el año pasado la existencia de un grupo de Facebook llamado, en español, ‘Secretos Oscuros de la Familia’. Servía a más de 200.000 pedófilos para compartir imágenes de menores, grabaciones de abusos sexuales o quedar para hablar de manera privada en WhatsApp, que pertenece a la misma empresa. “Los fallos de Meta en materia de seguridad infantil se parecían mucho al resto de sus problemas en otros ámbitos”, escribe el autor. “Como siempre, los empleados de Meta lo sabían”, pero según los ex trabajadores entrevistados por el autor, sus soluciones “habían sido descartadas alegando que eran demasiado severas”. 

El grupo que no hubiera existido sin la intervención de los algoritmos

Horwitz añade que grupos como éste “nunca hubieran existido sin las recomendaciones de los algoritmos” de Facebook, por cómo están configurados. “Una cosa es que aceptemos que está bien que una plataforma recomiende pornografía a una persona que busca exactamente esto, aunque sea terrible, pero la escala de lo que hemos descubierto es verdaderamente terrible”, dice el autor. El contenido ha sido recomendado a usuarios que no lo buscaban deliberadamente. “Necesitamos decidir qué recomendaciones automáticas son aceptables y cuáles no”, añade. 

Las más de 25.000 páginas de documentos internos que una ex empleada de la compañía filtró a Horwitz en 2021 demuestran que así es exactamente como funciona Facebook. La ingeniera Frances Hagen entregó registros de conversaciones y comunicados en los que los responsables de la compañía defienden que es mejor responder a un desastre antes que prevenirlo, incluso cuando saben que los incentiva la plataforma.

Hace ya cinco años que la BBC reveló que Instagram y otras aplicaciones servían para captar a mujeres de Nepal o Filipinas y llevarlas a Kuwait y Arabia Saudí con falsas promesas de empleo. Horwitz detalla en ‘Código roto’ el mecanismo con el que eran vendidas como esclavas. Apple y Google se comprometieron a eliminar de sus tiendas las aplicaciones utilizadas en la trama, e incluso enviaron documentación a Facebook con “numerosos ejemplos de ventas de empleadas domésticas”. Si Facebook no rectificaba, Apple estaba dispuesta a eliminar la aplicación de sus dispositivos. Entonces, “la compañía eliminó la friolera de 133.000 publicaciones, grupos y cuentas en pocos días”, escribe Horwitz. 

100%

Preguntado por la razón que lleva a Facebook a esperar a que salten estos escándalos para tomar medidas, el periodista dice que la empresa prefiere “equivocarse por dejar publicado el contenido de una persona importante antes que borrar por error lo que ha dicho alguien importante”. En este caso la persona importante eran los “socios” de los estados del Golfo: “La compañía había permitido anunciar y vender trabajadoras domésticas a empresas con una sede física”. 

“Parece imposible que una empresa valorada en un billón de dólares siga comportándose así, pero ocurre”, dice Horwitz. Y sucede porque, tal y como cuenta el periodista en ‘Código roto’, los responsables han justificado en reiteradas ocasiones que su prioridad es conseguir más usuarios que pasen cada día más minutos en la plataforma, y que esto no es compatible con más medidas de seguridad.

Meta se excusa además en otro factor. Según Horwitz, “uno de los conceptos equivocados sobre las redes sociales es que las tratamos como si fueran independientes, pero interactúan con tantos aspectos de nuestra vida, como la política, que es difícil determinar cuál sería esa responsabilidad exclusiva de la plataforma”.

Menos puntos por un emoji que por comentar

A pesar de que es difícil responsabilizar a Facebook por lo que ocurre fuera de la red, Meta se encuentra bajo una presión cada vez mayor por la gravedad de las crisis que se siguen cultivando en su interior. De la crisis en Filipinas al genocidio en Birmania, y desde el asalto al Capitolio o los grupos de pedófilos, cada una de ellas se ha gestado con el impulso de sus algoritmos, configurados tal y como quieren los responsables de la compañía.  

En ‘Código roto’, Horwitz describe cómo Facebook decide qué contenido mostrar a cada usuario. El algoritmo da puntos a cada tipo de reacción que sucede en la plataforma. En un determinado momento, compartir contenido tenía 30 veces más valor que un ‘me gusta’, los comentarios valían 15 veces más y las reacciones con emoji, cinco. “Lo que importaba no era el contenido del mensaje, sino el hecho de que hubiera un comentario”, escribe el autor. “El resultado fue que las publicaciones que obtenían más clics eran las que provocaban sentimientos negativos en los usuarios”.

Facebook también recompensa la creación de grupos y el envío de invitaciones a esos foros donde después se comparten y comentan contenidos. Esa es la fórmula que permitió que en 2020, en las semanas previas al asalto al Capitolio, la creación del grupo denominado “Stop The Steal” con el que Trump agitó las acusaciones de robo electoral, creciera a un ritmo de 10.000 usuarios por hora. En un día alcanzó los 360.000 miembros. Cuando Facebook lo eliminó aplicando “medidas extraordinarias”, cuenta el periodista, “tenía otros 2.1 millones de usuarios pendientes de admisión”.

Una auditoría posterior demostró que había ocurrido lo que ya habían advertido algunos ingenieros: la falta de límites a las invitaciones hizo que apenas el 0,3% de los participantes hubiera invitado al 30% de los miembros de “Stop the Steal”. “Facebook no quería que la gente consumiese discursos de odio en su plataforma, pero no estaba dispuesto a eliminar o revisar manualmente cualquier publicación”, escribe Horwitz. “La compañía había diseñado su plataforma de un modo que la hacía intrínsecamente escandalosa, inestable y proclive a la manipulación”.

Seis millones de usuarios VIP pueden saltarse las reglas

Esa manipulación o simplemente el incumplimiento de las normas de uso ha sido cometida a veces por personajes públicos. ‘Código roto’ documenta que la empresa no sólo es consciente, sino que creó deliberadamente una lista de más de seis millones de usuarios VIP que tienen un margen de tiempo extra antes de que Meta borre sus publicaciones. “Eso no es lo que la empresa ha dicho públicamente. Dijeron que no iban a tener favoritismos y esto claramente lo es”, explica el periodista.

Entre esos usuarios privilegiados están desde Donald Trump hasta todos los legisladores estadounidenses, además de futbolistas como Neymar Jr. En 2019, cuando fue acusado de violación, Neymar Jr. publicó vídeos en Facebook e Instagram en los que la denunciante salía desnuda. También incluyó su nombre y los mensajes que intercambiaron en WhatsApp. Horwitz revela que durante más de 24 horas, el sistema de ‘blindaje’ a las cuentas VIP de Facebook impidieron borrar el vídeo. Para entonces, 56 millones de usuarios habían visto un contenido que la empresa calificó internamente como “porno vengativo” y que sometió a la mujer a “un abuso continuado por parte de otros usuarios”.

Uno de los ejecutivos entrevistados por Horwitz admite en ‘Código roto’ que “construir cosas es más divertido que hacer que sean seguras. Hasta que no hay un ‘incendio’ —el término usado por los empleados para las crisis de relaciones públicas— por cuestiones de prensa o regulación, no lidias con ello”. Esos ‘incendios’, como la crisis de Cambridge Analítica que derivó en nuevas normas de privacidad o las normas contra la desinformación inspiradas por la pandemia, son los únicos que han motivado a Facebook a tomar medidas, según los documentos recopilados en ‘Código roto’.

Ese mismo desequilibrio en las reglas del juego también permitió que la campaña de Rodrigo Duterte, en Filipinas, pudiera crear en 2016 cuentas falsas masivas desde las que publicar “mentiras descaradas en páginas controladas por la campaña y amenazas de violencia coordinadas” contra los críticos del candidato. Pocos meses después, Facebook también supo que “las tácticas insurgentes parecían prosperar” en la plataforma para impulsar la campaña del Brexit en Reino Unido. Ambas campañas “habían recurrido en gran medida a Facebook para sembrar cizaña y difundir mentiras”, escribe Horwitz. 

Cuando el problema llegó a EEUU con la apuesta electoral de Trump, “Facebook estaba suministrando a sus usuarios información manifiestamente falsa a un ritmo mayor que cualquier otro medio de comunicación”, escribe Horwitz. Zuckerberg defendió aquel año que las ‘fake news’ era una parte “muy pequeña” de la plataforma y que la posibilidad de que hubieran condicionado el resultado era “una idea descabellada”. 

Ése era el relato de puertas afuera. Pero las conversaciones en los foros internos de Facebook revelan que sus empleados no estaban de acuerdo. Mientras los ingenieros descubrían que “interactuar con contenidos maliciosos provocaba que la plataforma difundiera el material reprobable a una audiencia más alta”, el consejero Andrew Bosworth justificó que “todo lo que hacemos en aras del crecimiento está justificado”. 

Facebook quiere que sea así

“Una de las cosas que menos entendemos es el nivel de control que tienen sobre su propia plataforma”, dice Horwitz. “Se han pasado muchos años diciendo que son escrupulosamente neutrales y que los comportamientos de las personas en la red son simplemente esas personas siendo ellas mismas”, añade. Pero los hábitos de los comportamientos son los que ha incentivado la plataforma por cómo está diseñada. “Una de las razones por las que la gente está tan enfadada como parece y por la que los contenidos que despiertan ira se viralizan tan rápido es porque funcionan muy bien”, añade.

Horwitz menciona en su libro declaraciones “inquietantes” de los trabajadores con los que habló del sistema de recomendaciones automáticas. Ellos sabían que “los intentos de impulsar el crecimiento habían favorecido de forma involuntaria el fanatismo político. Y la compañía sabía mucho más de lo que decía sobre las consecuencias negativas del uso de las redes sociales”.

En uno de esos documentos, políticos españoles reconocen que “se han dado cuenta de que atacar duramente a sus adversarios genera la máxima participación” y que “se encuentran atrapados en un ciclo inexorable de campañas negativas debido a las estructuras de incentivos de la plataforma”. El informe al que hace referencia Horwitz fue elaborado en abril de 2019 y se titula “Respuesta de partidos políticos a los cambios del algoritmo de 2018”. 

La respuesta que dio Facebook a todas estas crisis es muy parecida a la que ha dado ahora a la polémica por los grupos de pederastas que operan en la plataforma. Meta abre una investigación interna, promete mejorar la seguridad de sus usuarios y espera a que pase la tormenta. Meta no ha respondido a las preguntas de elDiario.es sobre las medidas de seguridad adoptadas por la compañía, por lo que se desconoce qué métodos van a emplear, más allá del cierre de grupos polémicos, para impedir que vuelva a ocurrir. Horwitz reconoce que ha elegido centrar su investigación en los casos de pedofilia para intentar “poner a prueba el límite de lo que está bien que nos recomiende Facebook automáticamente”. 

Para el periodista, la “difícil” respuesta a esa pregunta implica en gran parte a los usuarios, a la sociedad. “Apenas llevamos 20 años usando este producto”, dice el autor. Según su experiencia, los legisladores todavía tratan con las redes como si fueran una publicación impresa que no les gusta, “como si pudieran amenazarla por publicar mentiras”. Pero las redes sociales son un animal distinto. Además, dice Horwitz, “a Zuckerberg le da exactamente igual si cambia la opinión sobre la plataforma”. El dueño de Meta, asegura, “solo quiere construir el producto de mayor éxito”.

Etiquetas
stats