Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Así de fácil se saltan los negacionistas los controles antibulos de las redes sociales

Dos capturas de comentarios en Twitter que defienden que las vacunas contienen grafeno, tomadas este octubre por EU Disinfolab

Carlos del Castillo

40

Los estados están debatiendo cómo cerrar los espacios comunes a los antivacunas. En las redes sociales ese proceso comenzó casi a la vez que la pandemia se extendía por el mundo con el objetivo de parar la difusión de bulos sobre falsas curas, la inexistencia o levedad de la COVID-19 o la supuesta peligrosidad de la vacuna. Las plataformas emplean para ello a sus algoritmos de detección automática, cuya misión es analizar la conversación global y bloquear la desinformación o disminuir la visibilidad de los comentarios potencialmente peligrosos. Sin embargo, dos años después sigue siendo relativamente sencillo burlar a esas inteligencias artificiales.

Un nuevo estudio de la ONG EU DisinfoLab al que ha tenido acceso elDiario.es documenta cómo la técnica del camuflaje de palabras es suficiente para que los negacionistas puedan saltarse los controles de Instagram, Facebook, Twitter o YouTube. Al menos en lengua española. Consiste en alterar palabras clave como “vacuna”, “COVID-19” o “pandemia” lo suficiente como para que sigan resultando entendibles para el resto de usuarios, modificaciones sencillas que sin embargo las convierten en indetectables para los algoritmos.

De esta forma, escribir “b4kun4”, “v@kN4” o “nacuva” en vez de “vacuna”; “k0 B1T” o  “C(o(v(i(d” en vez de COVID-19 o “pl@πd€m1∆” o “@#plan#demia” en vez del término negacionista “plandemia” vale para que estos comentarios pasen bajo el radar, refleja el análisis de la ONG, especializa en rastrear cómo se comparte la desinformación en plataformas digitales.

La técnica no es masiva, recuerda EU DisinfoLab, al igual que no lo son los negacionistas. Pero les vale para seguir ocupando el espacio digital para intentar contagiar bulos entre el resto de usuarios. “Lo más preocupante es que los actores maliciosos van un paso por delante y ya han desarrollado estrategias para escapar de los sistemas de moderación de contenidos de las plataformas”, explica la ONG.

Muchas de las publicaciones que contienen palabras camufladas dentro de un mensaje de desinformación pasan totalmente desapercibidas para las redes

El estudio de la organización también muestra que lo que las redes sugieren ver a continuación, como en el caso de Facebook, son vídeos de supuestos médicos que ponen en cuestión la efectividad de las medidas sanitarias para controlar el virus.

En otras ocasiones, los investigadores han detectado que los algoritmos tienen problemas para detectar que las palabras clave disimuladas han sido insertadas en los vídeos adjuntos a las publicaciones a través de grafismos o texto añadido sobre las imágenes. Esto ha ocurrido en Instagram.

El crecimiento de la desinformación sanitaria de forma paralela a la extensión de la pandemia preocupa incluso a la Organización Mundial de la Salud, que lo ha denominado “infodemia”. La OMS reconoce que los bulos tienen la capacidad de impactar directamente en la salud pública, ya sea provocando daños personales derivados de las falsas curas con productos peligrosos o aumentando la inseguridad sobre la vacuna.

En su análisis, EU DisinfoLab recalca que “la moderación de contenidos por parte de Facebook, Instagram, Twitter y YouTube parece a veces azarosa, ya que la aplicación de las políticas de las plataformas tiene fallos, dejando fuera mucha desinformación”. “Según nuestras observaciones, muchas de las publicaciones que contienen palabras camufladas dentro de un mensaje de desinformación pasan totalmente desapercibidas”, añaden.

La opacidad de las redes en cuanto a su sistema de moderación no ayuda. Como recuerda la ONG, no tienen reglas comunes en cuanto a los contenidos que toleran, los que bloquean o a los que penalizan en cuestiones de visibilidad. En ocasiones esas reglas tampoco son totalmente públicas, como tampoco las características de los equipos humanos que deben vigilar el trabajo de los algoritmos. Twitter, Meta y YouTube se han negado a dar detalles sobre esos equipos ante peticiones de este medio en repetidas ocasiones. Tampoco responden a la pregunta de dónde están ubicados o cuál es su conocimiento del contexto sociocultural español.

elDiario.es se ha puesto en contacto con las diferentes redes citadas en el estudio de EU DisinfoLab. Twitter explica que sus algoritmos están centrados en perseguir aquellos comentarios que pueden suponer un daño en el mundo real. Añade que ha “cuestionado” 11.7 millones de cuentas desde junio de 2020, lo que significa que les planteó un reto para comprobar que no se trataba de bots. De ellas, suspendió más de 3.000. También ha eliminado “más de 63.010 piezas de contenido en todo el mundo, de acuerdo con la política de información engañosa COVID-19”.

En Twitter, observamos que muchos usuarios disfrazan palabras para desinformar, pero en general, sus posts son poco virales

YouTube, por su parte, refiere a su informe de transparencia sobre los vídeos que elimina cada trimestre y los motivos de ello. De julio a septiembre de este año la plataforma eliminó 6,2 millones de vídeos a nivel global (31.000 en España). La inmensa mayoría (5,9 millones) fueron desactivados de manera automática.

Desde EU Disinfolab detallan a este medio que YouTube es la red donde menos prevalencia tiene este tipo de práctica de camuflar palabras. “En Twitter, observamos que muchos usuarios disfrazan palabras para desinformar, pero en general, sus posts son poco virales. Es decir, mucha gente camuflando palabras con, de momento, poco impacto”, continúa Ana Romero, autora de la investigación.

Pese a que no es un problema masivo, desde la ONG piden a las plataformas que no lo pasen por alto: “La astucia de los desinformadores en el desarrollo de nuevas técnicas para seguir difundiendo sus mensajes no puede ser ignorada”.

Además de las consecuencias obvias en el contagio de desinformación, desdeñar estas prácticas puede tener derivadas perniciosas, como consolidar la identidad de grupo de los antivacunas. “Además de escapar a la de la moderación, el uso del camuflaje de palabras también refuerza la identidad del grupo, la idea de ser de ser parte de una comunidad que comparte el mismo código/lenguaje secreto y se opone al poder de las grandes empresas tecnológicas”, recuerda EU DisinfoLab.

“No hay soluciones únicas para detener la difusión de la desinformación, pero estamos comprometidos con la creación de nuevas herramientas y políticas que ayuden a que nuestras plataformas sean más seguras”, expone a elDiario.es un portavoz de Meta (nueva matriz de Facebook, Instagram y WhatsApp). La corporación defiende que ha eliminado más de 24 millones de contenidos de Facebook e Instagram a nivel mundial por violar sus normas sobre desinformación relacionada con la pandemia y 3.000 cuentas, páginas y grupos.

Etiquetas
stats