2026 no ha empezado bien para muchas mujeres que habitan el entorno digital. Durante los primeros días del año, X, la red social propiedad de Elon Musk, se llenó de hombres solicitando a la inteligencia artificial generativa de la plataforma, Grok, que desnudara a mujeres sin su consentimiento.
Un sencillo prompt —“Hey @grok, put her in a bikini”—, acompañado de una fotografía, era todo lo que hacía falta para que, en cuestión de segundos, la plataforma generara un deepfake de esa mujer con las características solicitadas por el usuario. Durante esos primeros días de enero, y a pesar de que X no proporciona cifras oficiales, la investigadora independiente Genevieve Oh estimó en declaraciones para Bloomberg que, en los días con mayor actividad, se llegaron a generar hasta 6.500 imágenes por hora.
Tras varios días de denuncias públicas en redes sociales, y cuando la conversación ya había saltado a los medios de comunicación y había llamado la atención de las instituciones públicas, Elon Musk realizó un movimiento muy limitado: entre el 8 y el 9 de enero, la función gratuita de generación de imágenes con IA —en la que los usuarios etiquetan a Grok en una publicación de X con una solicitud— pasó a estar disponible únicamente a los suscriptores Premium. Sin embargo, esta restricción resultó fácilmente eludible accediendo desde el sitio web o desde la aplicación independiente de Grok. Es decir, en plena polémica, Musk aprovechó el momento para intentar captar más usuarios de pago.
Finalmente, más de dos semanas después de que comenzara el auge de deepfakes, X ha emitido un comunicado a través de su cuenta @Safety en el que ha anunciado “la implementación de medidas tecnológicas para impedir que la cuenta de Grok permita la edición de imágenes de personas reales con vestimenta reveladora, como bikinis”. El texto también se compromete a la retirada de “los contenidos prioritarios que infringen nuestras normas, incluidos los materiales de abuso sexual infantil y la desnudez no consentida”. Además, el comunicado anuncia que “la creación y edición de imágenes (…) ahora solo está disponible para suscriptores de pago” y que “esto añade una capa adicional de protección (…) para que los responsables puedan ser rastreados y responsabilizados”. En resumen: todo ello sin admitir responsabilidades, sin abordar la problemática en el punto de origen —la propia herramienta— y manteniendo la lógica de mercantilización.
Aunque no es la primera vez que ocurre una situación similar —en mayo del año pasado las mujeres ya experimentaron este mismo tipo de violencia en Grok—, no ha sido hasta que el fenómeno ha escalado a dimensiones que incluyen la generación de imágenes de niñas menores de edad —lo que en muchos casos encaja jurídicamente como pornografía infantil— que los gobiernos han comenzado a expresar una preocupación más explícita. En los últimos días, el Consejo de Ministros en España ha incluido el uso y difusión de deepfakes entre las conductas susceptibles de vulnerar el derecho al honor, con la aprobación del anteproyecto de ley de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen.
En Reino Unido, la Secretaria de Estado en Ciencia, Innovación y Tecnología, Liz Kendall, ha confirmado que “se presentará con carácter prioritario legislación para prohibir las herramientas de ‘nudificación’ con IA”. Además, no se descarta una prohibición total de X en el Reino Unido si Ofcom —el organismo regulador de las comunicaciones— concluye que se ha vulnerado la Ley de Seguridad Online británica.
En cualquier caso, la legislación no avanza al mismo ritmo que la creación de estas herramientas de inteligencia artificial generativa ni que su puesta a disposición masiva de los usuarios. Pero, mientras los organismos oficiales intentan ponerse al día, la pregunta es inevitable: ¿qué ocurre con todas las mujeres que ya están viviendo esta nueva forma de violencia digital? ¿Cuáles son las repercusiones para ellas y qué efectos tiene este fenómeno en el ecosistema digital en su conjunto?
El muro legal ante la violencia del deepfake
Durante años, la violencia digital ha sido tratada como una violencia de segundo orden. No solo desde el ámbito social, sino también desde las instituciones y los tribunales. El mensaje implícito era claro: si no querías exponerte, no debías subir fotos a internet. En los últimos años, se han producido algunos avances legislativos y judiciales, pero cuando se trata de violencias ejercidas mediante inteligencia artificial —especialmente en las grandes redes sociales comerciales—, el camino sigue estando lleno de vacíos, ambigüedades y obstáculos.
Ejercer violencia en internet —sobre todo en espacios como X o Instagram— genera una fuerte sensación de impunidad, alimentada por la opacidad con la que estas redes son gestionadas y por el anonimato que permiten a sus usuarios. “La situación de desprotección en la que nos encontramos frente a plataformas supranacionales absolutamente gigantescas y, además, absolutamente sectarias —normalmente en manos de hombres blancos con posiciones fascistas— es gigantesca”, explica Isaac Guijarro, cofundador de Olympe Abogados, un despacho con perspectiva feminista, LGTBIQ+ y antirracista. “Todo depende de que el perfil concreto que ha publicado ese contenido sea rastreable por la policía. Si no es rastreable y las propias redes sociales no facilitan la información —como ocurre en la gran mayoría de las ocasiones en las que se acude a ellas—, ni la víctima ni su abogado o abogada tienen herramientas reales para averiguar quién hay detrás”, continúa.
A esta opacidad estructural se suma la falta de un marco penal específico. A día de hoy —a falta de que se apruebe nueva legislación—, no existe en el Código Penal español un delito que recoja la generación de deepfakes como tal. Guijarro aclara que, en el caso de personas adultas, estas prácticas se están encajando de forma indirecta en el delito de injurias, algo que “solo es perseguible penalmente si se considera grave”. Esa gravedad depende, entre otros factores, de si el contenido se ha difundido de forma pública —hacerlo en una red social sí es perseguible frente a si se difunde en un grupo de WhatsApp, por ejemplo—, de la relación con la persona que lo ha difundido —como en el caso de una pareja o expareja—, de si la víctima es menor de edad o del propio contenido del deepfake. En la práctica, una imagen generada por IA que muestre a una mujer en bikini solo sería denunciable penalmente en determinados supuestos, lo que introduce barreras legales, económicas y materiales difíciles de sortear.
En cualquier caso, desde el despacho recomiendan que, si una persona descubre que se ha generado un deepfake sin su consentimiento, lo primero es “hacer capturas de todo: del perfil que lo haya publicado, de la propia imagen, de la fecha en la que se ha publicado y denunciarlo, ya sea ante la policía o el juzgado de guardia”. La rapidez resulta clave para intentar frenar la difusión y contener el daño. De hecho, en España, a raíz de la Ley “solo sí es sí”, se aprobó una modificación del artículo 13 de la Ley de Enjuiciamiento Criminal (LECrim), que establece que como primera diligencia lo que se debe hacer es el borrado de cualquier tipo de contenido delictivo en internet“, explica Guijarro. Una medida pensada para minimizar el daño, pero que, en la práctica, no siempre se está cumpliendo, entre otras razones, por la actual saturación de los juzgados.
Mientras no exista una mayor presión por parte de los Estados hacia estas empresas privadas por el incumplimiento de la normativa nacional, ni se doten de medios suficientes a la policía, el juzgado y la fiscalía para actuar con mayor proactividad en la persecución de la violencia digital, “lo que se genera es una sensación de impunidad gigantesca en los hombres y una sensación de vulnerabilidad y de frustración gigantesca en las mujeres”, concluye el abogado. Un clima que no afecta únicamente a las víctimas directas, sino que se extiende a todas las mujeres que habitan el ecosistema digital.
La ciberfísica sexista del poder
Publicar este tipo de deepfakes no es una cuestión sexual, sino de poder. Entender esto es fundamental para situar estos actos dentro de un marco más amplio en el que se busca someter y disciplinar los cuerpos de las mujeres. Esto es algo que tiene muy claro el colectivo Proyecto UNA, dedicado al activismo digital, que en su ensayo La viralidad del mal: Quién ha roto internet, a quién beneficia y cómo vamos a arreglarlo (Descontrol, 2024), acuñó el concepto ciberfísica sexista del poder.
El término nace a partir del trabajo de la investigadora Nerea Barjola sobre el crimen de Alcàsser y el modo en que los medios construyeron un relato de terror sexual que acabó disciplinando a niñas y mujeres adultas de toda una generación sobre los peligros de habitar el espacio público. En el contexto actual, ese disciplinamiento se ejerce a través del entorno digital: “Con las fotopollas y los mensajes privados y públicos llamándote fea y gorda. Como consecuencia de las amenazas que recibe una mujer gamer, pero también con los titulares que presentan la violencia online como un fenómeno inherente al medio”, escriben en su ensayo.
Si existe violencia contra las mujeres en internet es porque esa violencia existe también fuera de él. “Lo importante es darse cuenta de que las violencias que existen en las redes sociales no han nacido allí, sino que vienen de un contexto y una historia previa. En internet, simplemente, tienen su propio lenguaje, pero el mecanismo de la discriminación es el mismo”, explican desde Proyecto UNA. ¿Cómo se combate entonces este tipo de violencia? “Si dejamos de concebir la filtración de contenido íntimo —sea generado por IA o no— como algo humillante hacia la víctima, que debería avergonzarla, y lo entendemos como una acción repudiable por parte del perpetrador o perpetradores, que atenta contra la libertad sexual de las personas, tendremos la mitad del camino hecho”, continúan.
El colectivo señala también la falta de responsabilidad de las instituciones públicas frente a estas plataformas comerciales dirigidas y gestionadas por tecnomagnates. “Llevamos años viendo cómo las instituciones, en vez de cuestionar el poder de las grandes empresas del Big Tech o de apostar por infraestructura pública, las legitiman e incluso las financian de forma indirecta. Se ha alimentado este mito según el cual los estados y la legislación no pueden hacer nada ante un poder demasiado grande”, aseguran. Sin embargo, hay ejemplos que desmienten ese relato.
En 2025, el gobierno de Lula da Silva aprobó en Brasil una ley que amplía las obligaciones de las plataformas digitales como medida para proteger a los niños y adolescentes. La norma, que entra en vigor este año, impone mayores controles a las Big Tech, obliga a retirar los contenidos de aparente explotación y abuso sexual y a notificar a las autoridades. Un año antes, en 2024, la justicia brasileña llegó incluso a suspender temporalmente el uso de la red social X por ignorar decisiones judiciales relacionadas con la lucha contra la desinformación.
Todavía queda un largo camino por recorrer y mucho por exigir a las instituciones públicas, pero el horizonte no es únicamente defensivo. “Lo importante es ser capaces de imaginar y construir las comunidades digitales que queramos —algo en lo que se está trabajando desde el Fediverso, una red de plataformas descentralizadas y no comerciales—, porque el gran triunfo de los tecnomagnates ha sido hacernos creer que su internet comercial es el único posible”, concluyen desde Proyecto UNA.