Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

The Guardian en español

Así trabajan los moderadores de Facebook: mal pagados y sin el apoyo psicológico necesario

"Cada día, cada minuto, eso es lo que ves. Gente decapitada", denuncia un moderador.

Olivia Solon

San Francisco (EEUU) —

“El trabajo no tenía nada, literalmente nada, de agradable. Llegaba a las 9 de la mañana, encendía el ordenador y veía a alguien decapitado. Cada día, cada minuto, eso es lo que ves. Gente decapitada”. Así describe su trabajo un antiguo moderador de contenidos en Facebook que prefiere no dar su nombre.

“Se nos pagaba mal y no se nos valoraba”, afirma el hombre, que ganaba unos 13 euros por hora por eliminar contenido terrorista de la red social, tras haber recibido un cursillo de entrenamiento de dos semanas.

Fotos, vídeos, perfiles y grupos son denunciados por otros usuarios o por algoritmos y pasan a revisión. Posteriormente, un equipo decide si deben ser eliminados. “Todos los días alguien tenía que ir al psicólogo. Algunos con problemas de insomnio o pesadillas”.

Los psicólogos dicen que el daño emocional que genera estar mirando imágenes extremas, ya sean de actos terroristas o de abuso sexual infantil, puede ser enorme. Los trabajadores expuestos a este tipo de contenidos deben tener entrenamiento extensivo para desarrollar resiliencia y además tener acceso a consejeros, similar al apoyo que reciben los servicios de emergencia. Sin embargo, los testimonios de aquellos que se encargan de eliminar las imágenes de decapitaciones, zoofilia y abuso sexual infantil de Facebook indican que el apoyo que reciben no es suficiente.

“El entrenamiento y el apoyo no eran, para nada, suficientes”, explica este analista que trabajó en una empresa contratada por Facebook para moderar contenidos. La empresa aseguró que ofrece entrenamiento continuado y que evalúa a los moderadores más allá de cursillo inicial de dos semanas.

Facebook es especialmente reservado respecto al entrenamiento y apoyo que ofrece a sus moderadores, aunque una portavoz de la empresa le declaró a the Guardian: “Nos damos cuenta de que este trabajo puede a menudo ser difícil. Por eso le ofrecemos apoyo psicológico y herramientas de bienestar a las personas que moderan el contenido de Facebook. Hemos trabajado con psicólogos para diseñar un programa que está específicamente indicado para ayudar a las personas que realizan este trabajo. El programa incluye acompañamiento, entrenamiento en resiliencia y programas de apoyo. A medida que aumentamos nuestro compromiso hacia el Equipo de Operaciones Comunitarias, más profundizamos la inversión en este área tan importante”.

El moderador de contenidos que habló con the Guardian aclaró que no le pusieron ninguna terapia obligatoria, aunque la empresa ofrecía sesiones de atención algunas veces al año y que, si lo pedía, podía ver a un terapeuta. Sin embargo, señaló que los contratados, muchos de los cuales eran inmigrantes recientes con poco conocimiento del inglés y que eran contratados para trabajar en su lengua materna, preferían buscar ayuda psicológica por su cuenta en lugar de pedirla a la empresa, por miedo a perder el empleo o que los pusiesen de baja y sin sueldo.

Facebook, por debajo de los estándares del sector

También existen indicios de que el enfoque que tiene Facebook de la tarea de moderación tiene estándares más bajos que los que se suelen manejar en la industria. Otras tres empresas que moderan contenidos ilegales o cuestionables tienen programas de entrenamiento y apoyo mucho más amplios que los que ofrece Facebook.

Tanto la Fundación Británica de Vigilancia de Internet (IWF, por sus siglas en inglés) y el Centro Nacional Estadounidense para los Niños Explotados y Desaparecidos (NCMEC) tienen equipos que monitorean contenido marcado como abuso sexual infantil. Por otro lado, el conocido foro de internet Reddit es una de las empresas que contrata a un asesor externo, el Proyecto por el Bienestar en el Trabajo, para ayudar a los empleados a lidiar con lo que conlleva estar mirando contenido ilegal en la plataforma.

El IWF, antes de contratar a un nuevo analista, lo hace evaluar por un psicólogo, que le pregunta su opinión sobre pornografía en general, le pregunta por su red de apoyo, cómo fue su infancia o qué puede alterarlo. Una vez que los candidatos pasan esta evaluación, se les entrevista por sus capacidades laborales, para luego pasar a la fase final, en la que son expuestos a imágenes de abuso sexual infantil.

Los candidatos se sientan junto a dos empleados de IWF y ven una serie de imágenes cada vez más atroces, viendo los peores tipos de violencia sexual contra menores de edad. Esta fase final apunta a ver cómo reaccionan los candidatos y se les permite decidir si quieren entrar a trabajar a la Fundación.

Una vez que aceptan el trabajo, se realiza una rigurosa verificación de antecedentes y luego comienzan un entrenamiento de seis meses, que incluye conocimiento sobre las leyes penales, la internet profunda y, sobre todo, cómo desarrollar resiliencia a la exposición de contenido traumático.

Una mujer de 46 años, madre de dos hijos, trabaja desde hace tres años como analista en IWF. Debe analizar 1.000 imágenes potencialmente ilegales por día, evaluando si muestran abuso sexual infantil y, en caso afirmativo, en qué categoría entran. Las categorías van desde fotografiar a niños en poses sexuales hasta penetración sexual, zoofilia o sadismo. “Lo más horroroso que he visto seguramente sean fotos de bebés recién nacidos siendo violados”, declara a the Guardian.

La moderadora explica que tiene que asistir a un terapeuta una vez por mes de forma obligatoria para desarrollar estrategias para lidiar con esas imágenes, como por ejemplo intentar permanecer indiferente hacia las víctimas y enfocarse en otros detalles de la foto, respirar de forma regular, hablar con compañeros de trabajo y meditar. También es evaluada anualmente por un psicólogo especialista en trauma y puede pedir ver a un terapeuta cuando quiera.

El sistema es similar en NCMEC, donde los analistas pasan por un entrenamiento de cuatro a seis meses. Se protege el bienestar mental de los analistas mediante un programa dirigido por Lanae Holmes. El programa comienza durante las entrevistas de trabajo y continúa incluso después de que el analista haya dejado el empleo.

Durante los primeros seis meses es obligatorio asistir a sesiones mensuales de terapia individual o grupal, para que los analistas aprendan a identificar qué les altera, reconozcan los síntomas de estrés traumático secundario y encuentren apoyo y técnicas para sobrellevar el trabajo. Después de los seis meses, las sesiones pasan a ser cada seis meses, pero pueden pedir sesiones adicionales cuando quieran, asegura Holmes.

“Mirar lo peor de la naturaleza humana”

“Aprendemos mucho de otros campos de trabajo de alto riesgo psicológico, como por ejemplo de los servicios de emergencia sanitaria,” afirma Holmes.

Igual que el programa de IWF, éste apunta a desarrollar resiliencia e identificar disparadores antes de que los miembros del equipo desarrollen una respuesta ante el estrés. El centro también ofrece apoyo para cónyuges y familiares para enseñarles de qué se trata el trabajo y que sepan reconocer signos de estrés.

“El trabajo implica mirar lo peor de la naturaleza humana, incluyendo traición y crueldad. Tenemos que compensar ese lado oscuro con conexiones humanas”, aclara Naheed Sheikh, cofundadora del Proyecto por el Bienestar en el Trabajo. Si los moderadores no están entrenados para lidiar de forma efectiva con cierto tipo de contenidos, el trabajo puede ser muy perturbador.

Para la analista de 46 años de IWF, las imágenes violentas que llegan por equivocación a la Fundación pueden ser especialmente perturbadoras. “Estoy entrenada para mirar imágenes de abuso sexual infantil, así que si un usuario reporta un sitio gore o una decapitación, me puede impactar mucho porque no me lo espero”, explica. El lado positivo que tiene trabajar en organizaciones como IWF y NCMEC, que colaboran con las fuerzas de seguridad, es la relación directa entre el trabajo del analista y la posibilidad de ayudar a las víctimas.

“He visto cómo cerraban algunos sitios web. Sé que he sido parte de ello y eso es reconfortante”, señala la analista de IWF. “También he recibido cartas de víctimas a las que he ayudado”, añade, explicando que a menudo menores de edad denuncian vídeos o fotos de ellos mismos que son subidos a internet como “porno vengativo”.

“El ambiente de trabajo es muy bonito. Sé qué esperar respecto del estrés y tengo una red de apoyo adecuada a mi alrededor”, asegura.

Holmes sugiere que trabajar para una organización con una misión humanitaria hace que el trabajo sea más gratificante, en comparación con el trabajo para una empresa proveedora de internet. “A diferencia de lo que sucede en una empresa de internet común, nosotros contratamos personas que tienen muy claro que su propósito al venir a trabajar es ayudar a los niños”, afirma.

En empresas que no tienen una misión tan clara, Sheikh recomienda rotar el personal que está en la línea de combate de forma que pase un tiempo en proyectos que no impliquen lidiar con contenido emocional. “Recomendamos que se emplee el personal en proyectos que estén más orientados a la parte cognitiva, como por ejemplo proyectos de investigación”.

Sin estas estrategias, la rotación de empleados aumentará, ya que las personas tendrán más problemas para lidiar con el contenido truculento y se marcharán.

“Puedes acabar quemado, como sucede en muchos empleos que te hacen utilizar tus recursos emocionales”, dice Sheikh. “Especialmente si uno no siente que el trabajo esté reconocido o recompensado”.

Traducido por Lucía Balducci

Etiquetas
stats