Ibán García del Blanco: “La inteligencia artificial necesita reglas, controles y límites”
Ibán García del Blanco es una de las voces más autorizadas para hablar de regulación e inteligencia artificial. Eurodiputado entre 2019 y 2024, fue uno de los negociadores de la Ley de Inteligencia Artificial de la Unión Europea, considerada pionera a nivel mundial, participando en las negociaciones finales del reglamento europeo que regula el uso de esta tecnología y proteger los derechos fundamentales frente a los riesgos que contienen.
Actual director de la oficina de Bruselas de la consultora Lasker, este jueves 14 de mayo es uno de los invitados de los ‘Desayunos en clave', organizados por elDiario.es Asturias, cuya segunda edición tendrá lugar en el Hotel Abba Playa de Gijón, centrado en esta ocasión en la ética y la inteligencia artificial, con inscripciones abiertas.
Por ir a lo penúltimo de la actualidad sobre la inteligencia artificial, porque siempre parece que todos los días hay algo nuevo. Tenemos una IA, Claude Mythos, que es tan buena que se ha tenido que restringir su uso, ¿Empiezan a tener razón los agoreros sobre los problemas para la humanidad de esta tecnología?
Normalmente, en todo este tipo de noticias suele haber algo de “hype”, suele ser una forma con la que las compañías buscan llamar la atención por encima de sus competidores y atraer inversores (como San Altman, que siempre está “a punto” de conseguir el salto a la IA general). Pero hay algo que no es nuevo, independientemente del estadio evolutivo de la tecnología: la IA es una herramienta maravillosa, pero que crea unos enormes riesgos por su potencia, que necesitan ser enfrentados. No todo vale con la IA y hay que combatir la idea de un determinismo tecnológico, activo o pasivo, que como sociedades simplemente nos abocaría a aceptar las decisiones del entorno tecnológico. Se necesitan reglas, controles y límites.
La Unión Europea implementó una regulación para usos éticos de IA, en la que participó como uno de los eurodiputados que trabajaron el texto ¿Cómo está la situación actualmente?
El Reglamento de IA (RIA) se ha ido desarrollando en cada una de sus partes, comenzando por los usos prohibidos que entraron en vigor en febrero de 2025, y ahora en agosto de 2026 se cumplían el plazo de dos años a partir del que la mayor parte del contenido de la norma entraba en vigor. Pero, por el medio, en noviembre de 2025, la Comisión Europea presentó una propuesta de simplificación normativa, el “Ómnibus Digital” (OD), que acaba de ser negociado por Consejo y Parlamento, y que reduce preocupantemente algunos estándares de obligaciones y alarga algunos de los plazos de cumplimiento. Y mientras nosotros damos pasos hacia atrás, gran parte del mundo se sigue inspirando en lo que conseguimos con nuestro Reglamento.
Pero ya hemos tenido que actualizarnos para impedir los deepfakes sexuales, como los que ha sufrido Giorgia Meloni, ¿Vamos a tener que ir actualizando cada poco en función de sus novedades? La Ley de IA contemplaba un calendario de aplicación con varios hitos entre los años 2024 y 2026 pero la sensación generalizada es que se ha ralentizado mientras la tecnología avanza a toda marcha. También hemos conocido que se retrasan medidas como las marcar de agua de IA o la prohibición de los sistemas de IA de alto riesgo, ¿cuál es su opinión sobre esto?
EL RIA es una norma basada en el riesgo, que en principio está pensada para adaptarse a los cambios tecnológicos. No obstante, como cualquier norma, es susceptible siempre de ser mejorada para adaptarse a nuevas realidades y para ello contempla la existencia de órganos de análisis y diálogo público-privados. Con respecto a los deepfakes sexuales, se da la paradoja de que por una parte se propone la prohibición de comercialización de esas herramientas y por otra se ha diferido la obligación de etiquetado de los “outputs” de IA generativa otros 6 meses durante la negociación del OD. Y, por supuesto, la prohibición tampoco puede ser absoluta, dado que existe el uso adulto y consentido o su uso con fines artísticos (pensemos en películas en la que actores y actrices pueden llegar a ahorrarse tener que filmar escenas íntimas). Yo, que estoy a favor de restringir algunos usos de IA y desde luego lo referido a abusos de la intimidad y la propia imagen (sobre todo en vulnerables), sin embargo no estoy de acuerdo con la “regulación reactiva” frente a cada último escándalo.
Actualmente hay un movimiento, digámoslo así, desregulatorio en Europa ante los avances en Defensa y otros sectores frente a Estados Unidos, ¿Afectará esto a la IA y a su posible uso masivo en Defensa o vigilancia ciudadana? ¿Deben estar alerta los ciudadanos europeos?
EL RIA no regula los usos de seguridad nacional o defensa, debido a que se trata de competencias exclusivas de los Estados Miembros. Dicho esto, eso no significa que no deba haber regulación (al contrario, está tardando ya) y que mucha no pueda y deba armonizarse a escala europea y luego mundial. Los ciudadanos europeos no solo deben estar alerta, sino que deben exigir a sus gobernantes que se autolimiten con reglas claras sujetas a estándares éticos. Cosas como las que hemos visto que ha hecho Israel en Palestina, con el uso de drones autónomos asesinos sin control, no pueden ser toleradas en sociedades democráticas. Y eso no significa que limitemos nuestra capacidad de defensa, sino que hay cosas que no podemos hacer a los demás y tampoco a nosotros mismos.
En cuanto al uso de IA con fines de policía, en el RIA están contemplados como de alto riesgo (y por la tanto se obliga al cumplimiento de muchas obligaciones antes y durante su uso) o directamente prohibidos: vigilancia remota en tiempo real en espacios públicos, policía predictiva...
¿Europa debe poner toda la carne en el asador para impulsar sus propias IAs y tener independencia de las tech americanas o de China? ¿O ya hemos llegado tarde y debemos optar por otros caminos?
El Plan Continental de la IA, que presentó la Comisión Europea en 2024/25, prevé un desembolso gigantesco y el establecimiento de “gigafábricas” de IA en toda la UE, de forma coordinada (en España, Barcelona ya está aprobada para ello). Ese debe ser el plan, no podemos competir solos con los gigantes geo-tecnológicos, sino de forma cooperativa. Europa no ha de replicar los modelos americanos o chinos (China no lo hace con los americanos), sino buscar qué aplicacionese de IA le son útiles con sus capacidades endógenas. ChatGPT o Deepseek ya están inventados, no se trata de emularlos y no toda la IA es IA generativa.
Le he dicho a ChatGPT de forma muy sencilla que me diga qué dos preguntas le haría a usted sobre ética e IA. Son estas:
- «La Unión Europea ha apostado por una regulación pionera de la inteligencia artificial, pero grandes tecnológicas y parte del sector empresarial alertan de que Europa puede quedarse atrás frente a Estados Unidos o China. ¿Dónde cree que está el equilibrio real entre innovación y protección de derechos?»
Que en otros lugares no se regula o que existe una relación inversamente proporcional entre controles e innovación, es una falacia en sí mismo. Europa no ha tenido regulación digital y sin embargo ha ido perdiendo el paso desde los años 90 del pasado siglo, es una falacia fácilmente desmontable con una simple observación. Nuestro diferencial con EEUU o China es de inversión y de años de esfuerzo combinados, no de regulación. Si esto fuera así, China, un país hiper regulado, estaría en la edad de piedra. Por otro lado, en EEUU existe cada vez más presión para una regulación federal, frente al modelo Trump de sumisión a los magnates tecnológicos; de hecho, muchos Estados, demócratas y republicanos, han desarrollado o lo están haciendo, leyes sobre IA y derechos fundamentales: California, Texas, Connecticut, Tennessee... Creo que el RIA, con partes dedicadas al desarrollo industrial también, es una norma que en origen estaba muy equilibrada entre la precaución y la acción. Y, por cierto, hablando de trabas a la investigación y desarrollo, el RIA permite una libertad absoluta en eso, es sólo a partir de su posterior uso en el mercado cuando sus efectos comienzan.
- «Uno de los mayores temores sociales respecto a la IA es la manipulación informativa y la creación de contenidos indistinguibles de la realidad. ¿Considera que la legislación europea actual está preparada para afrontar un escenario de desinformación masiva generada por inteligencia artificial en campañas electorales o conflictos internacionales?»
Creo que ninguna sociedad está preparada para eso, aunque la UE es el lugar con la arquitectura regulatoria más sofisticada para su combate (RIA, Ley de Libertad de Medios, Ley de Publicidad Política, Ley de Servicios Digitales...). La lucha contra la desinformación tiene mucho más que ver con la ilustración digital y la formación de la población, que con que ningún gobierno o incluso juzgado nos tenga que decir qué es verdad o mentira. Éste es el mayor reto de nuestro tiempo y no estamos respondiendo adecuadamente como sociedad, la ilustración digital debería ser una prioridad absoluta de los planes públicos.
Pero mi pregunta en realidad es, ¿cree que tienen un sesgo contra usted o contra la legislación europea o las ve equilibradas?
¡Ja,ja,ja! Los seres humanos también tenemos sesgo y es lógico (y me honra) que me relacione con posiciones en favor de límites éticos al desarrollo de la tecnología. Diría que el mayor sesgo estriba en considerar que existe una relación entre regulación y desarrollo tecnológico, pero es un lugar común que algunos muy poderosos interesados se hartan de repetir (y por lo tanto, de desinformar). ChatGPT se nutre de lo que los humanos dejamos por la red y en eso hay muchas cosas buenas, pero también mucho material peligroso que deberíamos filtrar para que no se perpetúe y multiplique por la acción de la propia IA: racismo, machismo...
El magnate Elon Musk en el juicio por convertir OpenAI en una empresa con beneficios llegó a decir hace unos días que “el mayor riesgo sería que la IA nos matara a todos” hablando de una mala gestión. ¿Nos llegaremos a plantear nacionalizar una IA para una mayor seguridad?
Al principio lo decía, muchos de estos “tecnobros” simplemente buscan atraer la atención, normalmente con un fin que a veces es evidente y otras veces no. Como ser humano, me da mucho más miedo Elon Musk que un ChatGPT en un mundo en el que existan normas y límites. No sé si la solución es nacionalizar estos modelos, pero desde luego que debe haber controles garantizados sobre ellos desde lo público.