Odio en redes sociales: “Hay una estrategia de utilizar descalificaciones hacia mujeres para desvirtuar su rol en la sociedad”
Los mensajes de odio en redes sociales han aumentado. Aunque basta con echarles un vistazo, ya hay investigaciones que lo corroboran y analizan. La problemática preocupa y el Gobierno ha anunciado esta misma semana una herramienta que tratará de ponerle coto y acabar con la impunidad en redes sociales. Uno de los focos de los discursos de odio son las mujeres y, de hecho, el Monitor de Odio del grupo de investigación de UNIR Hatemedia, ya estudia el odio misógino como una de las cinco categorías en las que clasifica los mensajes de odio en redes sociales.
Esta investigación ha analizado, como explica Elías Said Hung, investigador principal del grupo Hatemedia, tanto los contenidos informativos de siete medios de comunicación y sus usuarios en la red social X como los comentarios alrededor de esos contenidos informativos compartidos por parte de terceros usuarios. 45.000 mensajes analizados que, según la comparativa de los períodos junio-diciembre de 2024 y junio-diciembre de 2025 confirman el aumento de los discursos de odio: “En solo un año han pasado del 38 al 40% de los mensajes analizados”.
Este grupo de investigación, que viene trabajando en esta cuestión desde 2020, ha desarrollado antes una librería de expresiones de odio. “Hay más de 7.000 lemas o palabras, simples y compuestas, en donde hemos asociado esas palabras a determinados tipos de odio”, explica Elías Said Hung. Después, han desarrollado tres algoritmos para facilitar la clasificación: odio, no odio, tipo de odio, intensidad de odio. Entre los tipos de odio, identifican un odio general, el mayoritario, “es el odio en el que no es claramente predominante sobre un determinado tipo de odio previo”, explica el investigador, y otros cinco tipos odio político, misógino, sexual, religioso y xenófobo.
Se normaliza un contexto dirigido a menoscabar la capacidad de competencia y generar estereotipos hacia las mujeres
El Monitor de Odio clasifica según el odio prevalente en cada mensaje, aunque, como advierte su investigador principal, “hay interseccionalidad entre odios”. Los algoritmos identifican el tipo más predominante, pero la revisión manual de los investigadores detecta la interseccionalidad. “No hay un odio puro”. Y lo explica con un ejemplo: “Yo puedo apelar a Ione Belarra con un odio misógino y no deja de ser político también”
Por eso, que el odio misógino represente un 9% de los mensajes de odio analizados representa, según advierte el investigador de UNIR, “un proceso de normalización, pues hay un promedio regular de ese tipo de odio”. “Se normaliza un contexto que va dirigido a menoscabar la capacidad de competencia y generar estereotipos hacia las mujeres”, explica Said Hung. “Hay mensajes que hemos identificado que van hacia la ministra de Trabajo y le llaman tontas u otros términos. ¿Por qué es un odio misógino? ¿Es por la misoginia o por lo que representa ella como figura de poder”.
Este odio no busca solo dañar a la figura pública que lo recibe. Según Said Hung, existe una instrumentalización: se utiliza a mujeres en posiciones de poder como un puente para alcanzar al conjunto de las mujeres. “Hay una relación dentro del contexto del odio, a través de menoscabar las capacidades como persona, en este caso de mujeres se intenta desvirtuar el rol político que ellas están teniendo o que pueden tener. Existe una estrategia que busca utilizar descalificaciones hacia mujeres para desvirtuar su rol en la sociedad”, detalla.
El odio “invisible”
El aumento de la agresividad hacia las mujeres se ve favorecido por lo que Said Hung define como “odio de baja intensidad”. Se trata de mensajes que buscan la “prevalencia de estereotipos y prejuicios” mediante un lenguaje que esquiva los controles: “Los sistemas de moderación automáticos no los detectan porque no utilizan términos soeces, sino un discurso muy cuidado”.
Esta impunidad coincide con un retroceso en la seguridad digital. El investigador advierte que, desde 2023, las plataformas han venido “descuartizando y desinstalando todos los programas de moderación”, amparándose en una libertad de expresión que ha servido para “desmontar los mecanismos que permitían un entorno seguro”, dejando ahora todo el peso de la regulación en el propio usuario. Para el experto, este fenómeno responde a una “guerra cognitiva”, una estrategia que busca el “condicionamiento de la opinión pública a favor de narrativas que legitiman una determinada acción”.
El riesgo es, sobre todo, generacional, ya que el “70% de los jóvenes se informan a través de las redes sociales”. En un entorno condicionado y con usuarios que buscan contenidos afines, donde los algoritmos premian el sesgo, Said Hung alerta de que nos enfrentamos a una sociedad donde “las plataformas condicionan nuestra opinión pública”. En este escenario y con estos datos, la misoginia y los discursos de odio amenazan con consolidarse como marco de pensamiento, especialmente para los más jóvenes.
0