Canarias Ahora Opinión y blogs

Sobre este blog

Jugando con la realidad (y con los derechos autor)

31 de diciembre de 2025 10:45 h

0

El 24 de diciembre de 2025, mientras buena parte del mundo entraba en una pausa colectiva por Navidad, la plataforma social X (antes Twitter) activó de forma silenciosa una nueva funcionalidad que marca un antes y un después en la relación entre creación, autoría e inteligencia artificial. Desde ese día, cualquier usuario puede editar imágenes ajenas publicadas en la red social mediante Grok —la IA generativa integrada en la plataforma— sin autorización expresa del autor original y sin mecanismos claros para impedirlo o rastrearlo.

No fue un experimento marginal ni una prueba técnica limitada. Fue una decisión estructural —aplicada por defecto—, alineada con la estrategia de su propietario, Elon Musk, y con su concepción de la plataforma como un espacio de experimentación tecnológica sin mediaciones. Un auténtico cambio de reglas impuesto unilateralmente, sin que el usuario tenga control efectivo sobre sus propias imágenes o creaciones.

Conviene decirlo desde el principio: esto no va solo de X. Va de qué ocurre cuando el trabajo creativo deja de ser una obra protegida y pasa a convertirse en materia prima editable, a golpe de clic, sin aviso previo al autor, sin mediación alguna y, por supuesto, sin reconocimiento ni remuneración, bajo las normas de grandes intermediarios digitales que actúan simultáneamente como escenario, árbitro y beneficiario de todo el proceso.

Un salto cualitativo en el conflicto entre IA y autoría

Durante los últimos años, el debate sobre inteligencia artificial y derechos de autor se ha centrado principalmente en el entrenamiento de modelos: el scraping masivo (recolección automatizada de millones de imágenes), los conjuntos de datos opacos y la discusión legal sobre el llamado uso transformativo. Era —y sigue siendo— un conflicto relevante, pero indirecto. Algo sistémico: un fenómeno estructural sin una víctima visible.

Lo ocurrido ahora es distinto. Aquí no hablamos de que una IA “aprenda a partir de” imágenes del pasado, sino de que la propia plataforma habilite la modificación directa, visible y rastreable de una obra concreta, publicada por una persona identificable, y lo haga en tiempo real.

Desde el punto de vista técnico, estamos ante procesos de image-to-image (img2img) ejecutados dentro de la plataforma. Esto implica que las herramientas de defensa pasiva que muchos artistas utilizan hoy —como Glaze o Nightshade—, diseñadas para “envenenar” el entrenamiento de modelos, resultan ineficaces ante esta edición directa. En el plano cultural, el desplazamiento es profundo: la obra deja de ser final para convertirse en provisional por defecto, incluso cuando el autor no lo desea.

De la autoría a la ‘sandboxificación’ de la cultura

Para quien no trabaja en ámbitos creativos, una imagen puede parecer simplemente “contenido”. Para un artista, un fotógrafo, un ilustrador o un creador visual, una imagen es una decisión cerrada: de encuadre, de intención, de relato y de responsabilidad pública. Una fotografía documental, una portada, una obra gráfica o una ilustración editorial no son borradores abiertos esperando ser remezclados; son posiciones tomadas.

La lógica que introduce X convierte todas estas obras en objetos de juego. La implementación es tan sutil como perversa: sobre la fotografía ajena aparece ahora la opción «Editar imagen» y, al hacer clic, se sobrepone un cuadro de texto con la ingenua palabra «Imagina» flotando sobre el original. Toda una invitación a distorsionar la realidad que banaliza el trabajo ajeno mediante una simple pulsación. No hablamos de colaboración ni de reinterpretación crítica —prácticas históricas del arte—, sino de una intervención automatizada, no solicitada y amplificada algorítmicamente.

Es lo que podríamos llamar la sandboxificación de la cultura: un modelo en el que las obras dejan de entenderse como creaciones con autoría y sentido propio para convertirse en piezas intercambiables dentro de una caja de arena, o patio de recreo digital, donde todo puede tocarse, modificarse o deformarse sin consecuencias claras. En este entorno, nada es definitivo, la integridad pierde valor y la atención —no la autoría— se convierte en la moneda principal.

Europa, frente al modelo de plataforma: un choque de principios

Desde una perspectiva europea —y especialmente española— este movimiento no es solo preocupante: es jurídicamente incompatible con los principios fundamentales del derecho de autor.

Nuestro marco legal reconoce los derechos morales que protegen el vínculo personal entre el creador y su obra. Entre ellos, el derecho a la integridad —recogido explícitamente en el artículo 14 de la Ley de Propiedad Intelectual española—, que permite al autor oponerse a cualquier deformación, modificación o atentado contra su creación que altere su sentido original o perjudique su reputación.

Este enfoque contrasta con el modelo anglosajón, más centrado en el copyright como derecho de explotación económica. En Europa, la obra no es únicamente un activo: es una extensión de la persona que la crea. Cuando una macroplataforma permite —y normaliza— la alteración de obras ajenas mediante IA, se sitúa como juez y parte. Hoy es X; mañana pueden ser otras grandes corporaciones digitales. El precedente que se abre afecta al conjunto del ecosistema cultural mundial.

IA con trazabilidad: cuando sí existen alternativas

Este escenario no es inevitable. Existen precedentes recientes que demuestran que la innovación tecnológica puede avanzar sin eliminar la autoría.

En los últimos años, Google ha impulsado criterios que refuerzan la citación del origen de la información en el posicionamiento web y la industria ha comenzado a impulsar estándares técnicos como la C2PA (Coalition for Content Provenance and Authenticity), apoyada por empresas como Adobe o Microsoft, o modelos de marcado invisible como el SynthID de Google. La lógica es clara: identificar las fuentes, reconocer la procedencia y hacer visible el rastro del proceso algorítmico, reforzando una nueva soberanía creativa, basada en la autoría, la trazabilidad y la responsabilidad.

No se trata de filantropía tecnológica, sino de asumir que la confianza digital exige responsabilidad estructural. Y demuestra que el problema no es técnico, sino político, cultural y ético, un terreno en el que todos —plataformas, legisladores, creadores y ciudadanía— debemos comenzar a actuar, tomar posicionamiento y exigir responsabilidades y cambios normativos.

No todo vale. Este no es un alegato contra la inteligencia artificial. Es una advertencia sobre el poder creciente de los intermediarios digitales cuando deciden unilateralmente redefinir qué es una obra, quién puede modificarla y bajo qué condiciones.

La humanidad se juega algo más que un debate tecnológico: se juega que la IA, en su despliegue acelerado, se lleve por delante los derechos de autor como pilar cultural, educativo y creativo. La pregunta final no es qué puede hacer la tecnología, sino quién establece los límites cuando la plataforma es juez, parte y beneficiaria del juego.

Porque innovar no debería significar el fin del autor. Y porque, en cultura, no todo vale.