Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Investigadores españoles en las tripas de WhatsApp: “No quieren que les salpique el problema de Facebook con los bulos”

Whatsapp reafirma su lucha contra las noticias falsas en las elecciones de Brasil

Carlos del Castillo

En EEUU y Europa el problema de la desinformación se asocia a la política. Presidentes que ocupan el sillón tras valerse de tácticas sucias, partidos que mienten por redes sociales hasta que alguien les pilla, cuentas mercenarias que simulan ser ciudadanos anónimos cuando en realidad venden su opinión al mejor postor. El problema puede conllevar más gravedad (como promover el auge de la extrema derecha) o ser incluso gracioso (como supuestos cordobeses que apoyan a un partido con fotos de la ciudad argentina de Córdoba), pero suele quedar en una esfera lejana a lo local.

No ocurre lo mismo en todo el mundo. Un bulo compartido por redes sociales en México puede implicar que una turba queme vivas a dos personas inocentes, acusándolas de robar órganos a los niños. En La India los linchamientos de este tipo ya son habituales: en mayo, el mismo rumor que se extendió en México provocó la muerte de siete personas. En julio, otro bulo provocó el linchamiento hasta la muerte de cinco. 

Se registran casos de este tipo en Papúa Nueva Guinea, en Indonesia o en Brasil, aunque las consecuencias no han sido tan dramáticas como en la excolonia británica. Todos tienen un denominador común: WhatsApp. Este sistema de mensajería instantánea propiedad de Facebook es la red social más usada en estos países y el canal por el que se transmitieron los bulos.

El Gobierno de la la India pidió en julio a WhatsApp que actuara, y uno de los planes que la empresa puso en marcha fue una convocatoria mundial para analizar cómo se contagia la desinformación en su plataforma. “Hasta ahora WhatsApp tenía otros problemas de imagen, pero no este. Parece que tienen una preocupación sincera de que el problema con la desinformación que tienen en Facebook no les salpique también en Whatsapp”, afirma Pere Masip, responsable de un equipo de tres investigadores de la Universidad Ramón Llull premiados por WhatsApp con una línea de financiación para su investigación.

En su conversación con eldiario.es, Masip acaba de aterrizar tras unos días en San Francisco, donde WhatsApp ha mostrado algunas partes de su cámara secreta a los investigadores españoles, junto a otros 19 equipos de todo el mundo seleccionados. Entre todos se repartirán un millón de dólares que pone la compañía. A diferencia de otras iniciativas de este estilo por parte de las redes sociales, WhatsApp no reclamará la propiedad intelectual de sus hallazgos, por lo que se podrán hacer públicos. Eso sí: les ha hecho firmar acuerdos de confidencialidad para impedir que informen de lo que han visto en las tripas de la compañía. “Aunque fue más bien con un objetivo comercial”, explica Masip.

La mayoría de los proyectos vienen de la India, Brasil, o México. La red social ha priorizado a los investigadores de estos países, puesto que es en los que tiene un índice de implantación más alto y por lo tanto un mayor problema con la desinformación. En todos ellos, así como en España, WhatsApp está en cuotas de penetración del 90%. 

La Inteligencia Artificial no puede leer WhatsApp 

Comprender cómo se extiende la plaga de desinformación por la red es clave para frenarla, y más en WhatsApp: al ser un sistema de comunicación cifrado, no se puede instalar una Inteligencia Artificial que rastree qué comparten los usuarios. “Nos han repetido por activa y por pasiva que no tienen información de lo que sucede y por lo tanto no pueden bloquear contenidos. Pueden bloquear cuentas a partir de indicios: por ejemplo si desde una misma IP se crean muchos grupos de 200 personas en muy poco tiempo. Pero todo es en base a sospechas, no pueden saber si ha difundido contenido falso o no”, explica Masip. 

El cifrado no es lo único que diferencia la desinformación en WhatsApp de la de otras redes. “Hemos detectado que algunas conversaciones tienden a moverse desde entornos abiertos como Facebook o Twitter, donde puede haber mucho más insulto gratuito, a otros más cerrados, como WhatsApp o Telegram. En estos ámbitos la gente se siente más protegida”, explica el vicedecano de investigación de la Ramón Llull.

"En WhatsApp aumenta la sensación de confianza con el resto de gente con la que comparte ese espacio. Los usuarios se sienten un poco más protegidos de los algoritmos y la incidencia de la tecnología en la conversación, que caracteriza a las redes abiertas"

“En WhatsApp aumenta la sensación de confianza con el resto de gente que comparte ese espacio. Los usuarios se sienten un poco más protegidos de los algoritmos y la incidencia de la tecnología en la conversación, que caracteriza a las redes abiertas. Nuestra investigación pretende averiguar si los ciudadanos son conscientes de cómo se difunden la información errónea y los contenidos falsos y problemáticos, así cómo gestionan esos contenidos”.

Es falso, pero concuerda con lo que pienso 

Otro de los objetivos de las investigaciones será desentrañar hasta qué punto influye la necesidad de refuerzo de las propias creencias a la hora de compartir una información que, en el fondo, el usuario sabe que es falsa. 

“Cualquier ciudadano puede recibir a través de Whatsapp una información que puede ser falsa o no, y puede saberlo o no. A veces, de buena fe, sin saber que es falsa, la comparte. Pero a veces, sabiendo que es falsa, la comparte porque refuerza sus propias creencias”, revela Masip.

"Sabemos que hay una tendencia a que, por mucho que sepamos que es una noticia falsa, no lo aceptemos, porque es mucho más importante reforzar nuestras propias convicciones"

“Hay algunas investigaciones que van en esta dirección. Los votantes de Trump por ejemplo, una vez que se les demostraba que afirmaciones que habían recibido por redes eran falsas, seguían confiando en Trump y se mostraban dispuestos a distribuir esa información. Sabemos que hay una tendencia a que, por mucho que sepamos que es una noticia falsa, no lo aceptemos, porque es mucho más importante reforzar nuestras propias convicciones”.

¿Cómo impedir que alguien comparta un contenido falso, si ese persona lo hace sabiendo que es erróneo? Hasta que las investigaciones en marcha sean capaces de ofrecer respuestas, en España se puede consultar con Maldito Bulo, que cuenta con un chat abierto en WhatsApp donde se pueden rebotar contenidos dudosos y que precisan de un verificado. ¿Les traerá mucho trabajo que los partidos políticos hayan legalizado el spam electoral no consentido?

Etiquetas
stats