Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
Peinado multiplica los frentes del ‘caso Begoña’ sin lograr avances significativos
El miedo “sobrenatural” a que el cáncer vuelva: “Sientes que no consigues atraparlo”
OPINIÓN | 'En el límite', por Antón Losada

The Guardian en español

Facebook defiende que permitir vídeos de suicidios y autolesiones puede ayudar

'13 Reasons Why', la serie de Netflix, generó un gran conflicto para Facebook

Nick Hopkins

Facebook permitirá a los usuarios emitir en directo sus intentos de autolesión porque “no quiere censurar o castigar a personas en peligro que están intentando suicidarse”, según apuntan los documentos filtrados. Sin embargo, las secuencias serán eliminadas “una vez que ya no haya ocasión de ayudar a esa persona” –a menos que el incidente sea de especial interés periodístico-.

Esta política fue ideada con el asesoramiento de especialistas, dicen los archivos, y refleja cómo la compañía está intentando lidiar con algunos de los contenidos más preocupantes de la red social. Según han informado a the Guardian, las preocupaciones por parte de Facebook sobre la manera en que la gente está utilizando la red social han aumentado en los últimos seis meses.

Por ejemplo, recientemente pidieron a los moderadores de Facebook que “escalasen” a sus superiores cualquier contenido relacionado con '13 Reasons Why' –una serie de Netflix sobre el suicidio de una estudiante de instituto– por el miedo a que pudiese inspirar comportamientos similares.

Las cifras distribuidas a los moderadores de Facebook parecen mostrar que los avisos de posibles autolesiones en la red social están aumentando. Un documento redactado el verano pasado dice que los moderadores informaron de 4.531 avisos de autolesiones en dos semanas.

Un total de 63 de estos avisos tuvieron que ser atendidos por el equipo de respuesta legal de Facebook, que sirve de enlace con la policía y otras autoridades importantes. Cifras de este año muestran 5.016 de estos avisos en un periodo de dos semanas y 5.431 en otro.

Los documentos también muestran cómo Facebook intentará contactar con agencias para activar un “control de protección” cuando parezca que alguien está intentando o esté a punto de intentar suicidarse.

Una actualización de la política compartida con los moderadores en los últimos meses explica también este cambio de criterio. “Ahora estamos viendo más contenidos de vídeos –que incluyen suicidios– compartidos en Facebook. No queremos censurar o castigar a personas en peligro que están intentando suicidarse. Los expertos nos han dicho que lo mejor para la seguridad de estas personas es dejarles seguir emitiendo mientras estén interactuando con los espectadores”.

“Sin embargo, por el miedo al contagio (algunas personas que ven suicidios son más propensas a considerar hacerlo) lo mejor para la seguridad de las personas que ven este tipo de vídeos es eliminarlos una vez que ya no hay lugar de ayudar a la persona. También necesitamos considerar el interés periodístico, puede haber momentos particulares o eventos públicos que son parte de una conversación pública más amplia que justificaría no hacerlo”.

A los moderadores se les ha dicho que “borren desde ahora todos los vídeos que plasmen suicidios a menos que estos vídeos tengan un interés periodístico, incluso cuando estos vídeos son compartidos por alguien que no sea la víctima, para aumentar la concienciación”. A los moderadores también se les dicen que ignoren las amenazas de suicidio cuando la “intención solo esté expresada a través de hashtags o emoticonos” o cuando el método propuesto tenga pocas probabilidades de tener éxito.

Cualquier amenaza de suicidarse en un futuro más alejado de cinco días también puede ser ignorada, apuntan los documentos. Uno de ellos dice: “Eliminar contenido sobre autolesiones del sitio puede hacer muy difícil que los usuarios consigan ayuda procedente del mundo real, de sus comunidades en la vida real”.

“Los usuarios comparten contenido autolesivo como una llamada de auxilio y eliminarlo puede hacer que esa llamada no llegue. Este es el principio que aplicamos a los posts suicidas desde hace un año, así lo aconsejan Lifeline y Samaritans, y ahora queremos extender este principio a otro tipo de contenidos que se comparten en la plataforma”.

Monika Bickert, directora de gestión de política global de Facebook, defendió que había que dejar algunas secuencias de suicidio en Facebook. “Ocasionalmente, vemos momentos concretos o acontecimientos públicos que son parte de una conversación ciudadana más amplia que justifican que se deje dicho contenido en nuestra plataforma”.

“Trabajamos con expertos para que nos ayuden a entender lo que son esos momentos. Por ejemplo, en el 11-S, algunos testigos compartieron vídeos de gente saltando de las torres gemelas. Si esto hubiera sido transmitido en Facebook puede que hubiera sido uno de esos momentos en los que no hubiésemos borrado el contenido ni durante ni después. Hace menos tiempo decidimos permitir un vídeo en el que se veía cómo un hombre egipcio se prendía fuego para protestar por el aumento de los precios por parte del gobierno”.

Y añadió: “En el caso de que alguien publique algún tipo de contenido sobre autolesiones o suicidios queremos asegurarnos de que sus amigos y familiares pueden proporcionar apoyo y ayuda”.

Traducido por Cristina Armunia Berges

Etiquetas
stats