Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Los directivos de la empresa moderadora de TikTok alegan que las imágenes más violentas se revisaban fuera de España

Un móvil con la aplicación TikTok

elDiario.es Catalunya

Barcelona —
6 de octubre de 2025 17:49 h

0

Tres directivos de Majorel SP, empresa de Barcelona dedicada a moderar el contenido de TikTok, han alegado este lunes ante la jueza que las imágenes más violentas de la red social, como decapitaciones o agresiones brutales, no se revisaban desde su compañía, sino desde otro centro situado fuera de España, informa EFE.

Los tres directivos -uno de ellos de recursos humanos- han declarado este lunes como imputados ante la titular del juzgado de instrucción número 9 de Barcelona, que investiga la querella que presentó una extrabajadora, a quien representa el abogado Francesc Feliu, por las secuelas psicológicas le provocó el empleo de moderadora.

En su declaración como investigados, los responsables de la empresa moderadora se han escudado en que desde su centro de trabajo no se controlaba el contenido considerado como “altamente perturbador”, una labor que, según su versión, correspondía a otras empresas situadas fuera de España, cuyos nombres no han especificado.

Se trata de una estrategia de defensa dirigida a diluir la responsabilidad empresarial en las secuelas psicológicas que presenta la exmoderadora, toda vez que, para que la causa penal avance, las acusaciones deben probar la relación entre el trabajo de moderación y los problemas psíquicos.

Tampoco han aclarado los directivos de qué forma discernían el contenido sensible que sí podía ser revisado por sus trabajadores o el extremadamente violento que debía ser controlado desde fuera de España y se han remitido a cuestiones técnicas de la red social.

Esta versión choca tanto con la relatada por la moderadora como con las conclusiones de la Inspección de Trabajo, que constató que la empresa carecía de un plan de evaluación de riesgos psicosociales hasta el año 2021 y no contaba con un plan de apoyo psicológico a los trabajadores encargados de revisar el contenido más violento.

Los directivos han explicado que entre los años 2019 y 2020 TikTok era simplemente una aplicación de intercambio de vídeos musicales y que no fue hasta después de la pandemia cuando se popularizó como red en la que se publicaban todo tipo de contenidos, incluido de carácter violento y altamente sensible.

Asimismo, los investigados han reconocido que los trabajadores dedicados a revisar el contenido de TikTok habían sido contratados como teleoperadores, lo que han justificado porque en ese momento no estaba regulada en la normativa laboral la figura del moderador.

A raíz de los interrogatorios de este lunes, el abogado de los querellantes ha afirmado que planteará ante la jueza instructora nuevas imputaciones de directivos de la empresa. Además de los tres responsables que ya han comparecido, en la causa está imputado un responsable de recursos humanos de la empresa, que declarará el próximo 3 de noviembre, y TikTok, como responsable civil subsidiaria de eventuales indemnizaciones.

La jueza tomó declaración la semana pasada a la extrabajadora que presentó la primera querella y a otra exempleada, quien explicó que debían visionar cerca de 2.000 contenidos -entre vídeos y post-, algunos muy violentos, sin haber recibido previamente ningún tipo de formación sobre la labor que iban a desempeñar, hasta el punto de que hasta que no empezaron a trabajar en la empresa desconocían que iban a dedicarse a moderar contenidos para TikTok.

En su querella, la extrabajadora denunciante aseguró haber estado cuatro años revisando vídeos de asesinatos, pedofilia, decapitaciones o terrorismo, todo ello en unas condiciones laborales “inhumanas e inaguantables”.

La querellante, de origen alemán, empezó a trabajar en la empresa en 2019 filtrando contenidos en alemán y luego en español, pero no le advirtieron de que debería visualizar, de forma íntegra, entre 800 y 1.200 vídeos al día, algunos de hasta tres o cuatro minutos, que le sometían a “graves riesgos para su salud mental”.

Etiquetas
stats