Las plataformas tecnológicas dejan de distribuir noticias en 2026 para empezar a crearlas: Europa debe decidir las reglas

MMIAnalytics / Enrique Farez

Canarias —

0

Durante dos décadas, Europa ha observado cómo las grandes plataformas tecnológicas se convertían en los nuevos guardianes del acceso a la información. Google organizaba el tráfico, Meta distribuía conversaciones, TikTok marcaba modas. Los medios, resignados o pragmáticos, asumieron que dependían de esas autopistas para llegar a su público. Pero a finales de 2025 ocurrió algo que en 2026 será imposible ignorar: esas autopistas han empezado a generar su propio contenido, no solo a organizar el de los demás. Y en esa transición silenciosa, la relación entre tecnología y periodismo está cambiando de naturaleza.

La inteligencia artificial generativa no solo está transformando el modo en que buscamos información, sino también el modo en que se presenta, se filtra y se reconstruye. Los nuevos sistemas integrados en buscadores, asistentes y plataformas empiezan a ofrecer no ya enlaces, sino respuestas; no mapas del contenido, sino relatos sintéticos que sustituyen al recorrido tradicional por publicaciones diversas. España y Europa entran así en un territorio inédito: uno en el que empresas sin vocación editorial se ven obligadas a asumir responsabilidades propias de un medio de comunicación, aunque no estén preparadas para ello.

Las tensiones ya son visibles. En 2025, la versión remodelada del buscador de Google comenzó a mostrar resúmenes generados automáticamente sobre temas tan delicados como alimentación, salud o historia. Algunos errores fueron anecdóticos; otros, inquietantes. Mientras tanto, herramientas como ChatGPT Search, Perplexity o los asistentes integrados en sistemas operativos generaron respuestas que mezclaban datos reales con fragmentos inventados, atribuían citas a quien nunca las había pronunciado y reformulaban noticias sin respetar el trabajo de sus autores. En el ecosistema europeo, donde la protección de derechos de propiedad intelectual y la lucha contra la desinformación forman parte de la identidad regulatoria, estos desajustes no son asuntos menores: afectan a la confianza pública, al mercado de la información y al propio estado de derecho.

Pero lo que convierte este fenómeno en un punto de inflexión no es el error tecnológico, sino el cambio de rol. Hasta ahora, las plataformas se defendían asegurando que eran intermediarias: organizaban, recomendaban o alojaban contenidos. En 2026, esa frontera se desdibuja. Cuando una herramienta devuelve una respuesta sintetizada en lugar de mostrar una lista de fuentes, está tomando decisiones editoriales. Cuando reescribe lo que otros han investigado, está actuando como creadora. Cuando atribuye mal un dato o elimina el contexto, está incurriendo en fallos que cualquier periodista reconocería como graves. Y cuando lo hace a gran escala, el impacto se multiplica.

En España, donde los medios regionales y locales luchan por mantener su independencia financiera, la irrupción de plataformas capaces de “comerse” su contenido y devolverlo destilado plantea una amenaza existencial. No se trata solo de tráfico perdido: es la erosión de la relación directa con el lector. Del otro lado, las tecnológicas se ven arrastradas hacia una responsabilidad a la que nunca aspiraron y para la que no tienen cultura, ni estructura, ni supervisión pública.

La Unión Europea ya se está moviendo. El AI Act, que entra en aplicación progresiva a partir de 2026, obliga a las empresas a auditar riesgos, documentar modelos y garantizar trazabilidad. Pero la ley nació en una etapa previa de la IA, y se enfrenta ahora a sistemas que generan millones de respuestas diarias con implicaciones editoriales, éticas y legales. Las autoridades de protección de datos, competentes en casi todos los estados europeos, empiezan a estudiar si los asistentes vulneran derechos de privacidad al reconstruir información personal. Y las demandas por uso indebido de contenido periodístico abren el camino hacia un conflicto económico de largo recorrido: quién paga por la información que alimenta a los modelos.

Sin embargo, reducir este debate a una cuestión legal sería un error. El trasfondo es cultural y democrático. Si los ciudadanos dejan de visitar medios y reciben la actualidad remezclada por sistemas opacos, el pluralismo informativo se desvanece. Si los periodistas no pueden verificar cómo un modelo ha llegado a una afirmación, se debilita la capacidad de escrutar el discurso público. Si los algoritmos se convierten en el interlocutor primario entre ciudadanos e instituciones, la esfera pública se privatiza.

La pregunta para 2026 no es si la IA será parte del ecosistema informativo europeo, sino quién definirá sus reglas. Las plataformas presionan para avanzar rápido; los medios reclaman compensaciones y transparencia; los gobiernos observan con inquietud la aparición de un actor que no solo distribuye información, sino que la produce sin asumir responsabilidad plena.

En este contexto, España debe decidir si quiere ser espectadora o protagonista. El país cuenta con organismos expertos en regulación digital, una red de medios con tradición de investigación y un ecosistema tecnológico creciente. Pero necesitará algo más: un marco de corresponsabilidad entre quien crea, quien sintetiza y quien difunde; redacciones capaces de auditar los sistemas que reinterpretan su trabajo; instituciones dispuestas a exigir transparencia real a las plataformas.

En 2026, la línea que separaba a las tecnológicas de los medios se volverá porosa. Y la cuestión esencial será si Europa conseguirá que ese nuevo espacio híbrido responda a estándares democráticos o quedará gobernado exclusivamente por intereses corporativos. La lucha por la información —su origen, su tratamiento y su impacto— acaba de cambiar de escenario. Y nadie puede permitirse permanecer al margen.