No regular la IA es regular para unos pocos
Nos lamentamos día sí y día también de que Europa regula en exceso, y a eso le echamos la culpa de todas las demás carencias que tenemos, tanto en España como en el resto de los países de la Unión Europea. Por eso, se dice, nuestras empresas no innovan, pierden competitividad, no tenemos gigantes tecnológicos y, sobre todo, nos quedamos atrás en la carrera por liderar la IA. Es decir, como Europa regula, no pasamos de ser mediocres. Lo mediocre es este análisis, y una excusa. ¿Se imaginan quienes critican el Reglamento europeo de IA que en su lugar tuviésemos 27 leyes distintas, una por cada país de la Unión Europea?
Yo quiero que la IA se regule, como considero necesario que se regule la fabricación de los automóviles y su circulación o los medicamentos, desde la investigación hasta su comercialización. Para la aviación y la energía nuclear hay incluso una regulación global, y creo que nadie discute su necesidad. No veo que tengamos que ser más permisivos con la IA, teniendo en cuenta que está cambiando nuestras vidas, el trabajo, la educación, la salud, la fabricación de medicamentos y, por resumirlo, lo está cambiando todo.
China tiene claro que es necesario regular la IA, tanto internamente como a escala global. Por eso lleva algunos años aprobando regulaciones, con referencias muy concretas a los contenidos potencialmente dañinos o a la privacidad de los datos, algo que quizás no esperásemos. Es más, está comenzando a dar pasos para una gobernanza planetaria para la IA. En octubre de 2025, en una reunión del foro de Cooperación Económica Asia-Pacífico, Xi Jinping trasladó el objetivo de crear un sistema de gobernanza global para la IA a través de la creación de la Organización Mundial de Cooperación en Inteligencia Artificial (Waico, serían las siglas en inglés de este organismo).
No me cabe duda de que para China sería bueno tener una regulación mundial, más aún si lideran su desarrollo. Esto favorecería enormemente que los productos, servicios o aplicaciones basadas en IA y creadas en China pudiesen comercializarse con mayor facilidad en el resto de los países, algo que ahora no es fácil. China tiene un mercado interno inmenso y creciente en poder adquisitivo, pero no es suficiente para que su industria se proyecte al mundo y lidere el desarrollo y la comercialización de las tecnologías inteligentes. Dicho esto, que China se ponga a la cabeza en el intento por alcanzar una regulación global para la IA no debería restarle aplausos si lo logra.
Mientras tanto, asistimos a la paradoja de que EEUU no solo no tiene una regulación federal sobre IA, sino que en este momento la administración Trump está intentando bloquear la regulación de los estados norteamericanos e incluso desmontar la que algunos de ellos han aprobado. Al comienzo del actual mandato, Trump revocó una orden ejecutiva firmada por su antecesor, Joe Biden, cuyo objetivo era fundamentalmente garantizar la seguridad de la IA.
No fue una casualidad que en el acto de toma de posesión de Trump las primeras filas estuviesen ocupadas por los CEO de las compañías tecnológicas, especialmente preocupadas por las limitaciones que la regulación pueda poner a sus megalómanos sueños. Empresas y personas con gran capacidad de influencia y más dinero aún, destinan parte de este buscando influir en las elecciones de mitad de mandato para inclinar el Congreso de EE. UU. y varios estados hacia posiciones todavía más favorables a la industria de la IA. Al menos hay que reconocer que no esconden sus intereses.
Las empresas prefieren que el control de la IA quede en manos de la ética, la autorregulación o en la denominada legislación blanda, que no es legislación y más que blanda es poco útil. Se trata de recomendaciones, principios, códigos de conducta, directrices éticas y deseos recogidos en las más o menos rimbombantes declaraciones de organizaciones como la Unesco, la Ocde o la ONU. La intención es buena, por supuesto, y pretende servir de guía a países, empresas y todo tipo de organizaciones, pero realmente estas declaraciones no pasan de ser un brindis al sol en la mayor parte de las ocasiones. De hecho, quizá recuerden la “Declaración de Bletchley” sobre IA, un acuerdo internacional firmado en noviembre de 2023 durante la Cumbre de Seguridad de la Inteligencia Artificial celebrada en Bletchley Park (Reino Unido). En ella se reconocen los riesgos potenciales de la IA y las organizaciones y gobiernos firmantes de la misma se comprometieron a cooperar para desarrollarla de forma segura, ética y responsable. ¿Han vuelto a oír o leer algo relevante sobre el asunto? Desde luego no parece que Bletchley, un pequeño pueblo situado al noroeste de Londres, vaya a ser recordado por esta declaración. En todo caso, su nombre ya está escrito con letras de oro en la historia de la humanidad por haberse ganado allí una de las batallas más importantes de la Segunda Guerra Mundial. Una batalla que ganaron sin armas Alan Turing y su equipo al descubrir la forma en la que los alemanes cifraban cada día los mensajes que enviaban a sus tropas.
Europa ha tenido la valentía y el acierto de haber creado la primera regulación general para la IA, pero parece que ha empezado a rajarse, acobardada ante las presiones de Trump y de los gigantes tecnológicos norteamericanos. De hecho, ya a lo largo de 2025 ha aplazado o flexibilizado obligaciones de este reglamento.
Dar un margen razonable para cumplir la ley y pensar bien su desarrollo y aplicación para que, sin poner frenos innecesarios al progreso, clarifique, aporte certidumbre y proteja nuestros derechos y valores humanos y democráticos, está bien. Dar marcha atrás, no. Tener una ley única de obligado cumplimiento para todos los Estados miembros no solo es pertinente, sino la única oportunidad para tener un mercado único y una posición de fuerza en el desarrollo y uso de la IA. Eso sí, las posiciones de fuerza hay que saber ejercerlas y defenderlas.
1