Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

El algoritmo de Instagram bloquea por error a un grupo LGTBI que se autodenomina “marika”

Publicaciones de Movimiento Marika de Madrid en Instagram.

Carlos del Castillo

4

Al algoritmo de Instagram no le gusta la cuenta del Movimiento Marika de Madrid (MMM). Este grupo activista LGTBI ha visto cómo la moderación automática de esta red social, donde suma unos 7.500 seguidores, ha bloqueado su perfil hasta en cuatro ocasiones en tres meses. Las tres primeras veces solicitaron una revisión de la decisión de las máquinas y recuperaron el control del perfil a las pocas horas. Pero la última desactivación se extendió casi dos semanas y el grupo temió que fuera definitiva.

Instagram ha reactivado la cuenta después de que elDiario.es preguntara por los motivos del bloqueo. La red social reconoce que se ha tratado de “un error” y pide disculpas al grupo por los inconvenientes. Sin embargo, ante las preguntas de este medio, fuentes de la compañía no han querido confirmar por qué sus algoritmos elevan repetidamente la alarma sobre un perfil marcadamente activista y cuya actividad en estos dos últimos meses ha estado muy centrada en la convocatoria de protestas por el repunte de los ataques LGTBIfóbicos.

La red social tampoco ha dado ninguna explicación al grupo. “Tal y como pasó en anteriores ocasiones, no nos han dado a conocer de manera explícita el motivo del cierre de la cuenta y esta vez, incluso, nos amenazaron con cerrarla permanentemente si continuamos preguntando por dichos motivos”, revelan. No obstante, en el Movimiento Marika de Madrid sospechan cuál puede ser la causa: la reapropiación de la palabra “marika”, que Instagram tiene en su lista de términos de odio.

El MMM recuerda que uno de los bloqueos algorítmicos contra su cuenta llegó inmediatamente después de la viralización de su cartel convocando a manifestarse en repulsa del asesinato de Samuel. En él se leía “contra los nazis, marikonazos”. El temor a perder la cuenta de Instagram les llevó a autocensurarse y retirar el cartel, que sigue publicado en sus otras redes, como Twitter.

“Es cada vez más evidente que el algoritmo de Instagram tiene un sesgo que está siendo contraproducente para las personas pertenecientes a colectivos oprimidos. En el último año hemos visto en España cómo otros colectivos queer también han visto cómo sus cuentas han sido cerradas varias veces”, denuncia el grupo. “Mientras se cierran constantemente cuentas de individuos y grupos que utilizan Instagram para denunciar situaciones de racismo, machismo, transfobia, homofobia, gordofobia y demás opresiones estructurales, las cuentas que están creando realmente discursos de odio (como las que convocaron la manifestación de corte racista y homófobo en Chueca hace unas semanas) campan a sus anchas por la red social”.

La otra opción que el MMM apunta como posible desencadenante del bloqueo son las campañas de reportes masivos organizadas por la extrema derecha. “Si se ha llamado a una denuncia masiva de nuestra cuenta por parte de trolls que se aprovechan del sesgo del algoritmo, Instagram debería ser capaz de detectar la naturaleza de nuestra cuenta y no caer en la trampa de dichos trolls, vetando y censurando un contenido tan válido y necesario en los tiempos que corren”, expresa en un comunicado que se publicará este jueves y al que ha tenido acceso elDiario.es.

El algoritmo y la escala de grises

Los términos de uso de las redes sociales de Facebook permiten el uso de lenguaje de odio con objetivo de reapropiarse de los términos y desactivarlos. “Somos conscientes de que, a veces, las personas comparten contenido con expresiones que incitan al odio emitidas por otra persona con la intención de reprobarlas o concienciar a los demás”, dice su manual de moderación. “En otros casos, el lenguaje que, de otra manera, infringiría nuestras normas se puede usar de forma autorreferencial o motivadora”.

No obstante, sus reglas también dejan una advertencia: “Nuestras políticas están diseñadas para dar espacio a estos debates, aunque exigimos que la intención quede clara. De no hacerlo así, podemos eliminar el contenido”, enfatizan. El gran problema es que los algoritmos de moderación que Facebook, Instagram y el resto de redes sociales utilizan no son precisos cuando deben moverse en esa escala de grises, avisan los expertos.

Nuestras políticas están diseñadas para dar espacio a estos debates, aunque exigimos que la intención quede clara. De no hacerlo así, podemos eliminar el contenido

Facebook

Este debate tuvo un fuerte eco en Bruselas hace dos años. Cuando la UE preparó una adaptación de sus normas de copyright al actual contexto digital en 2019, la Comisión y un grupo de eurodiputados plantearon obligar a las grandes plataformas a instaurar filtros que detecten si lo que suben sus usuarios son contenidos protegidos con derechos de autor. Si es así, esos filtros debían censurarlo. Tecnólogos y organizaciones proderechos digitales avisaron de que esta tecnología de reconocimiento no está lo suficientemente madura como para evaluar el contexto de un contenido.

En aquella ocasión la queja era que los algoritmos serían incapaces de detectar si un contenido protegido se sube con un fin paródico o crítico, usos que los derechos de autor no pueden bloquear. La parodia y la crítica, como la reapropiación del lenguaje de odio, entran dentro de ese terreno gris y los algoritmos fallan al detectarlos. Un ejemplo reciente de su falibilidad en este ámbito se produjo cuando YouTube bloqueó un vídeo paródico del dúo cómico Pantomima Full sobre los negacionistas.

El dúo hacía afirmaciones paródicas sobre la efectividad de la mascarilla, de la vacuna o la existencia de una “plandemia”. El algoritmo de YouTube detectó que el vídeo “cuestiona explícitamente la eficacia de las directrices recomendadas por la OMS o las autoridades sanitarias o locales” y lo bloqueó. La cuenta de Pantomima Full solicitó una revisión, que volvió a salir negativa. Finalmente, tras varias horas y una notable polémica mediática, el personal de YouTube rectificó a sus máquinas.

“Debido al COVID-19, redujimos personal en determinados lugares y como resultado, hemos estado confiando mucho en las máquinas para identificar infracciones de políticas de contenido. Sabemos que esto supone el incremento de vídeos eliminados, incluso de vídeos que no violan nuestras políticas”, se justificó la plataforma de vídeo en un comunicado.

No podemos depender de un algoritmo sesgado y de posibles ataques de trolls aprovechándose de dicha coyuntura

Movimiento Marika de Madrid

Los filtros de contenido terminaron aprobándose en Bruselas, aunque España todavía debe incluirlos en su legislación. Desde el Movimiento Marika de Madrid piden una reflexión pública sobre cómo los algoritmos de las redes sociales pueden determinar el discurso público. El cierre de su cuenta activista en Instagram ha coincidido además con la comparecencia en el Senado de EEUU de Frances Haugen, una extrabajadora que ha elevado una alarma en el mismo sentido.

“Insistimos en que el debate sobre la moderación en Instagram se tiene que abrir porque esta reapertura de la cuenta es 'pan para hoy y hambre para mañana' y, en cualquier momento, nos la podrían volver a cerrar a nosotras y a otros grupos o personas activistas”, recalca el MMM: “No podemos depender de un algoritmo sesgado y de posibles ataques de trolls aprovechándose de dicha coyuntura”.

Etiquetas
stats