Facebook asegura que solo el 0,1% de lo que ven sus usuarios es discurso de odio

Vista del logotipo de Facebook. EFE/ Mauritz Antin/Archivo

Facebook afirma que sigue refinando sus algoritmos para detectar y eliminar el discurso del odio de su plataforma. En el primer informe sobre la presencia de discurso de odio en Facebook a nivel mundial, publicado este jueves, la red social asegura que ya es capaz de borrar el 95% de esas publicaciones tóxicas antes de que sus usuarios lo vean y lo reporten. ¿Qué prevalencia tiene el 5% restante en el total de contenidos que circula por Facebook? Según la compañía, equivale al 0,1%.

"En otras palabras, de cada 10.000 visualizaciones de contenido en Facebook, de 10 a 11 incluían incitación al odio", ha afirmado en un comunicado Arcadiy Kantor, responsable de Integridad de la red social. "Medimos específicamente cuánto contenido dañino puede verse en Facebook e Instagram porque el número de veces que se ve cada publicación no se distribuye de manera uniforme. Un contenido podría volverse viral y ser visto por muchas personas en muy poco tiempo, mientras que otro contenido podría estar en Internet durante mucho tiempo y ser visto solo por un puñado de personas", detalla Kantor.

Dado que el discurso del odio depende del lenguaje y del contexto cultural, el método de la compañía para detectar su prevalencia entre el total de contenidos es enviar muestras de publicaciones seleccionadas al azar a equipos de revisores ubicados en diferentes partes del mundo. En su informe, Facebook cita específicamente el español como uno de los tres idiomas en los que ha mejorado la detección automática de discurso del odio, junto al inglés y al árabe. Según sus datos, su capacidad de detección automática ha mejorado 70 puntos desde 2017.

Sin embargo, los algoritmos de Facebook no hacen que estos contenidos desaparezcan sin más. Al contrario, en la mayoría de ocasiones los ponen en cuarentena para que sean revisados por un equipo de moderadores humanos. elDiario.es ha informado de las duras condiciones en las que estas personas realizan su trabajo, obligados a determinar en 30 segundos si un contenido viola las normas internas de la red social. En los centros de moderación, los 35.000 trabajadores que Facebook tiene dedicados a esta labor a lo largo del mundo visualizan las mutilaciones, insultos, drogas o abusos sexuales a los que los algoritmos echan el alto, y deciden si pueden publicarse en la plataforma o no. Las bajas por estrés postraumático son habituales.

Facebook afirma que estos equipos de moderadores son capaces de revisar contenidos en 50 idiomas. La compañía está ampliando su capacidad después de que la ONU considerara que la red social tuvo un papel clave en los llamamientos a la violencia contra los rohingya en Myanmar, que difundieron sin freno. Tras la investigación de Naciones Unidas, Facebook reconoció que fue incapaz de parar la avalancha porque no tenía suficiente personal capaz de revisar los contenidos en birmano, la lengua oficial del país.

1.300 peticiones de información desde España

Facebook también ha publicado este jueves su informe de transparencia semestral, en el que informa de las peticiones que le hacen los estados para acceder a información de los usuarios de la plataforma. En los seis primeros meses de 2020 España tramitó 1.353 solicitudes a la compañía referentes a 2.228 usuarios. Facebook reveló datos en un 63% de los casos.

El 98,9% de esas solicitudes de información provenientes de España eran parte de investigaciones legales, mientras que 15 fueron calificados de "procedimientos de urgencia". España tiene algunos mecanismos para hacer este tipo de peticiones administrativas a las plataformas digitales, como el canal de denuncia urgente de la Agencia Española de Protección de Datos, cuya misión es parar vídeos como el de la víctima de la manada antes de que se viralicen.

Etiquetas
Publicado el
19 de noviembre de 2020 - 20:45 h

Descubre nuestras apps

stats