Ángel Gómez de Ágreda, coronel: “Queda muchísimo por salir a la luz de la IA que desarrollan China y EEUU”
El mundo está cambiando y la guerra está cambiando con él. “Hemos pasado de realizar operaciones psicológicas que apoyaban ataques físicos a hacer ataques físicos cuyo objetivo principal es generar un efecto psicológico”, dice Ángel Gómez de Ágreda.
Gómez de Ágreda (Salamanca, 1965) es coronel del Ejército del Aire y del Espacio español en reserva, piloto militar de transporte con más de 4.000 horas de vuelo y paracaidista con 624 saltos. Doctor en Ingeniería, ha sido analista jefe de geopolítica en el Ministerio de Defensa, jefe de cooperación en el Mando Conjunto de Ciberdefensa y agregado de Defensa en Corea del Sur y Japón. Especialista en ciberseguridad e inteligencia artificial, acaba de publicar Un mundo falaz. El nuevo orden global en la era de los algoritmos y la manipulación (Ariel).
En esta entrevista con elDiario.es, Gómez de Ágreda profundiza en conceptos como “la guerra cognitiva”, potenciada por la IA. Pero, también en cómo el poder de las grandes tecnológicas está extendiéndose también hasta los sistemas de defensa de los Estados, de la mano de empresas mucho menos oscuras: “Palantir puede no ser muy conocido para el gran público, pero el gran público es muy conocido para Palantir”.
De fondo, la carrera de la IA entre EEUU, China y una Europa que necesita actuar “para no perder su voz”. Un mundo en constante cambio y tensión, pero en el que el coronel anima a la sociedad civil a dar “un paso adelante” para “restringir esa bicefalia de grandes corporaciones y estados que opera en detrimento de los ciudadanos”.
Las herramientas de las grandes tecnológicas son claves en la guerra de Israel y Estados Unidos contra Irán. ¿Se está difuminando la barrera entre la tecnología civil y la militar?
Hasta ahora los ataques se han estado basando en inteligencia procesada en las nubes de Microsoft y de Google, especialmente en la de Microsoft. Con lo cual no solo se han convertido en parte del armamento que está utilizando el ejército, sino que además son una pieza fundamental para la recolección de inteligencia.
Anthropic es el único caso en el que ha habido algo de reticencia por parte de una empresa al uso de su tecnología, pero solo para algunos usos (vigilancia masiva o armas autónomas).
El caso de Anthropic puede haber tenido mucho de escenificación. Al fin y al cabo, en Irán EEUU sigue utilizando sus sistemas junto con Palantir y otras soluciones. Lo que ha supuesto esta maniobra es, por un lado, una campaña propagandística muy rentable para Anthropic, con un gran número de nuevos suscriptores. Por otro lado, creo que también demuestra que el debate sobre la ética de los sistemas civiles empleados con fines militares ha quedado reducido a algo que discuten las grandes empresas y la administración de Estados Unidos, mientras el resto nos quedamos fuera, esperando a ver qué deciden. Nos están apartando de la decisión sobre cómo se van a utilizar unos sistemas que, además, funcionan con nuestros datos: el 70% de los datos de personas, gobiernos y ejércitos del mundo están ahora mismo en las nubes de los hyperscalers (Microsoft, Google y Amazon). Están utilizando nuestros datos en su beneficio y son ellos quienes establecen las reglas sobre cómo podrán usarse.
¿Cree que la gente tiene capacidad de reacción ante esto? ¿O que es demasiado difuso para actuar?
Es tan difuso y aparentemente tan alejado del día a día que resulta invisible, cuando en realidad ocurre lo contrario: está metido tan transversalmente en cada aspecto de tu vida que ya has dejado de verlo. Es como el agua para los peces: es su medio natural. Ahora mismo nuestro medio natural es esta realidad sintética que se está generando, y, por eso, la mayor parte de la gente no solo no se resiste, sino que lo considera una ventaja porque le da comodidad para operar en el día a día.
Es importante que la sociedad civil dé un paso adelante para restringir esa bicefalia de grandes corporaciones y estados que opera en detrimento de los ciudadanos
La única salida, como decíamos, pasa por ese esfuerzo personal de identificar no tanto que te están engañando, sino que te están manipulando; que están actuando sobre tus emociones más que sobre tus percepciones. Y después algo que me parece fundamental: poner en común esas reflexiones individuales. El sentido común se genera en comunidad. Por eso es importante que la sociedad civil dé un paso adelante, probablemente en grupos pequeños al principio, para restringir esa bicefalia de grandes corporaciones y Estados que opera en detrimento de los ciudadanos.
¿Cuál sería el primer paso? ¿Qué recomendaría a alguien interesado en generar esas comunidades?
Hay que crear grupos de debate en torno a personas con capacidad de aglutinar a gente interesada en estas cuestiones. Eso puede ocurrir en la familia, en comunidades de vecinos, o, a nivel más amplio, en comunidades de interés. Pero no pueden ser digitales, en el sentido de las actuales redes sociales. No podemos ir al origen del problema para solucionar el problema. La prensa, por ejemplo, tiene un papel fundamental. Generar grupos de opinión en torno a medios: no tenemos que estar todos de acuerdo, pero sí debemos poder generar ese espíritu crítico. Me comentaba antes de la entrevista que elDiario.es tiene casi 120.000 socios, y eso me parece un modelo estupendo: cada uno de esos socios forma parte de una discusión interna orientada no a generar la realidad, sino a entenderla tal como es.
Hay que crear grupos de debate en torno a personas con capacidad de aglutinar a gente interesada en estas cuestiones, pero no puede ser en las redes sociales. No podemos ir al origen del problema para solucionar el problema
En el libro denomina a las grandes tecnológicas como “imperios del silicio”. Teniendo en cuenta esa integración de sus sistemas en la seguridad nacional, ¿le preocupa que los estados estén delegando su capacidad de defensa, de inteligencia, incluso su poder militar en empresas privadas?
Esto ya ocurrió antes. En el Imperio Romano se contrataron legiones enteras de mercenarios bárbaros para defender la frontera, y la cosa no acabó bien. Luego lo vimos con las compañías de Indias Orientales, como la británica, la holandesa o la francesa, que acabaron convirtiéndose en imperios paralelos. En Londres mandaba más la Compañía Británica de Indias que el Parlamento, porque era ella quien controlaba las colonias y de ahí llegaba la riqueza. Al final hubo que reabsorberlas dentro del Estado porque se habían convertido en virreinatos.
Pero el modelo al que parece que tendemos ahora no es el colonialista, sino el inverso: delegar a las empresas el control de las políticas y que esas empresas utilicen a los estados como proxies (apéndices). Es el modelo parecido al de la película RoboCop, no sé si la ha visto.
Me pilla algo lejana.
El trasfondo muestra a una compañía con tanto poder gracias a sus robots de seguridad que acaba usando al alcalde como legislador para favorecer sus propios intereses. Ahora estamos yendo hacia un modelo en el que las grandes tecnológicas utilizan a los estados como herramientas. Los países grandes apenas pueden ya controlarlas y cuando hablamos de países más pequeños, como Sri Lanka, Myanmar o Nepal, donde ha habido revueltas, muertos y caídas de gobiernos relacionadas con las redes sociales, el presidente del país era incapaz de conseguir que alguien de la oficina de Mark Zuckerberg le cogiera el teléfono.
Un ejemplo muy concreto: la base de datos de caras para reconocimiento facial del FBI tiene 3 millones de registros. La de Clearview tiene 10.000 millones, extraídos de Facebook y otras plataformas. No están ni en el mismo orden de magnitud. Clearview tiene los datos biométricos de prácticamente la mitad de la población mundial y, a partir de esos datos, puede inferir cómo piensas, lo que te hace mucho más fácil de manipular. Estas empresas además controlan las comunicaciones y alimentan las bases de datos de los estados, con lo cual generan el escenario y manipulan a los actores sin contar con ellos. Tener todos esos datos juntos te da mucho más poder que el que tiene Hacienda, Tráfico y cualquier otro organismo por separado, porque aquí está todo integrado y lo que construyen es una imagen en 3D de cada persona.
La base de datos de caras para reconocimiento facial del FBI tiene 3 millones de registros. La de Clearview tiene 10.000 millones, extraídos de Facebook y otras plataformas. No están ni en el mismo orden de magnitud. Clearview tiene los datos biométricos de prácticamente la mitad de la población mundial
El discurso suele pivotar sobre las grandes tecnológicas, pero como menciona hay actores menos conocidos para el público general que tienen un papel clave en esta militarización de las tecnologías civiles. Uno de ellos es Palantir, clave en los bombardeos de Gaza, en el sistema de deportación de migrantes en Estados Unidos, en el Pentágono, ahora también en Irán.
Palantir puede no ser muy conocido para el gran público, pero el gran público es muy conocido para Palantir. Es el sueño de cualquier organización de defensa. Pasa lo mismo que con Clearview: cuando un agente del ICE se acerca a un coche, no pide documentación, simplemente apunta con el móvil y ya sabe quién es el ocupante gracias a su tecnología. Han conseguido una capacidad de integrar datos y extraer conclusiones en tiempo real que es espectacular. Eso nos permite avanzar en muchísimos terrenos, pero también en los negativos: la manipulación.
Palantir puede no ser muy conocido para el gran público, pero el gran público es muy conocido para Palantir. Es el sueño de cualquier organización de defensa
Y hay que preguntarse en manos de quién estamos dejando todo esto. Los fundadores, Alex Karp y Peter Thiel, son filósofos. Ambos con ideas bastante radicales. Thiel podría calificarse de anarcocapitalista, de extrema derecha. Es coherente con su negocio, por otro lado, porque hace falta una determinada forma de pensar para montar estas empresas.
Esto se relaciona con otro de los conceptos centrales de su libro: la guerra cognitiva. ¿Podría explicar cómo es esa batalla que se libra en nuestras cabezas?
Es una se ha librado siempre. Desde la aparición del lenguaje, este se ha utilizado para sustituir, de alguna manera, a la realidad. Los conceptos no son la realidad; son lo que nosotros entendemos de ella. Son las sombras del mito de la caverna de Platón. El problema es que, desde que hemos empezado a estudiar cómo replicar las capacidades de la mente humana con la inteligencia artificial, hemos aprendido muchísimo sobre la propia mente: cómo funciona y cómo puede dirigirse en el sentido que nos interese.
Desde que hemos empezado a estudiar cómo replicar las capacidades de la mente humana con la inteligencia artificial, hemos aprendido muchísimo sobre la propia mente: cómo funciona y cómo puede dirigirse en el sentido que nos interese
¿Qué es lo que estamos haciendo? No hemos dejado de librar la guerra, pero sí hemos trasladado buena parte del conflicto del campo de batalla a la mente. En lugar de destruir cosas, las presentamos como destruidas. Generamos emociones. Por ejemplo, el bombardeo de Donald Trump durante su primer mandato contra una base en Siria: avisó dos días antes para que la evacuaran. Lanzó decenas de misiles Tomahawk, con un coste de millones de dólares cada uno. No hubo víctimas. ¿Para qué sirvió ese bombardeo? No para destruir la base, ya que no era necesario destruirla, sino para construir un relato: que Estados Unidos estaba implicado en esa guerra y tenía capacidad de acción.
Es decir, hemos pasado de realizar operaciones psicológicas que apoyaban ataques físicos a hacer ataques físicos cuyo objetivo principal es generar un efecto psicológico: que la gente se rinda, o que acepte determinadas condiciones. Lo vemos en los discursos políticos del propio Trump, pero también en ámbitos como la publicidad. Si a eso le añadimos las enormes capacidades de la inteligencia artificial para manipular percepciones, lo que estamos haciendo es facilitar que los humanos desarrollen empatía hacia las máquinas; en última instancia, para beneficiar a las empresas que las construyen.
Hemos pasado de realizar operaciones psicológicas que apoyaban ataques físicos a hacer ataques físicos cuyo objetivo principal es generar un efecto psicológico: que la gente se rinda, o que acepte determinadas condiciones
¿Ve el mismo patrón en los asesinatos selectivos de la cúpula iraní? ¿Un mensaje de “el régimen tiene las horas contadas”?
Ése es un error de cálculo, porque la cadena de mando en Irán está muy bien establecida: después del dos viene el tres, después del tres el cuatro. Eso no va a hacer caer al régimen. Lo que sí se está mandando es un mensaje a la población: “estamos eliminando los obstáculos que teníais”. Pero eso es propaganda tradicional, no guerra cognitiva en sentido estricto. Lo que sí se está viendo mucho es la batalla de relatos: yo estoy destruyendo todo, a mí no me están destruyendo nada. Como cuando Irán intentaba vender que había alcanzado un portaviones americano y los americanos lo negaban. Deepfakes, vídeos manipulados de alta calidad, jugar con los objetivos para afectar al comercio y la economía mundial, mucho más allá de lo que realmente esté ocurriendo sobre el terreno. Todo es manipulación, todo es guerra dentro de las emociones de la gente.
¿Hay alguna estrategia para protegerse de esa propaganda tan quirúrgica?
Para el ciudadano de a pie: confiar más en los propios sentidos y menos en los sensores; quedarte con lo que realmente estás viendo tú. Hay poco más que podamos hacer. Y el problema es que, desde el punto de vista institucional, la forma más cómoda y eficiente de combatir la desinformación del adversario es con desinformación propia o con censura, ninguna de las cuales favorece el juicio individual de las personas.
¿Como, por ejemplo, la censura de los medios rusos en Europa que vimos tras el comienzo de la guerra de Ucrania?
Exacto, y lo curioso es que fuimos nosotros los primeros en aplicarla. Fue el Occidente libre el que censuró los medios rusos, y el que tiene varias agencias de la OTAN y de la Unión Europea en ciudades clave como Helsinki o Riga con el único encargo de vigilar y contrarrestar la desinformación procedente de Rusia. EUvsDisinfo, el Centro de Excelencia de Guerra Híbrida de la OTAN... Son organismos específicamente creados para eso. Pero no son actores neutrales, no son árbitros: son protagonistas. Con lo cual lo que te cuenten puede ser tan falso como lo que están contrarrestando.
Otro de los temas clave del libro es la explicación de las diferentes estrategias de EEUU y China en la carrera de la inteligencia artificial. Hay una estadística muy llamativa que indica que la población china es la más optimista del mundo respecto al avance de la IA...
Cierto, y con bastante diferencia respecto a los países occidentales, además.
A pesar de que aquí no dejamos de advertir de que el Partido Comunista está utilizando esta tecnología para construir un aparato de vigilancia estatal orwelliano.
Es más parecido al de Un mundo feliz, de Aldous Huxley. Es más amable.
¿Por qué cree que está ocurriendo esto?
La explicación me parece clara. En Estados Unidos hay grandes empresas desarrollando modelos de negocio basados en inteligencia artificial, con muchísima inversión cruzada entre ellas, generando tecnología que muchas veces no llega al ciudadano más allá de los modelos de lenguaje que la gente usa para hacer un meme o echarse una novia digital. En China, en cambio, están utilizando tanto los desarrollos propios como los americanos para crear aplicaciones que el ciudadano ve cada día en su móvil y que le facilitan la vida. WeChat es desde hace años mil veces mejor que WhatsApp, no hay comparación. Las empresas chinas trabajan para llevar a la sociedad un producto y al Estado una herramienta, o un arma. Son dos modelos completamente distintos: uno tecnológico-económico y otro tecnológico-social, enfocado directamente en lo que usa el ciudadano. Y por eso en China la inteligencia artificial se percibe como mucho más útil: está ayudando a la gente todos los días en multitud de tareas.
Ha dado una clave: en China, cualquier desarrollo de IA puede ser tomado por el Estado para aplicación militar. ¿Cree que la actuación de Trump con Anthropic pretende ser ejemplarizante para corregir esa desventaja estratégica? ¿El hecho de que en EEUU las empresas sí pueden vetar el uso de su tecnología al Gobierno?
Tengo mis dudas. Lo que el caso Anthropic señala es una excepción, no la norma. Ha sido ejemplarizante precisamente porque ha sido noticia que una empresa no coopere sin restricciones con el gobierno, no al revés. No demuestra que haya una separación real entre los intereses de las grandes empresas y los del Estado, sino que en general son convergentes, y ha habido una que ha decidido salirse. Pero han sido los únicos: ¿qué está pasando entonces con todas las demás?
En China tuvimos el caso de Jack Ma, que en un momento se salió de la disciplina del partido y fue purgado, exiliado en Japón. Pero más allá de la retórica de la fusión cívico-militar en China frente a la teórica no-fusión en Estados Unidos, estamos viendo cómo las fuerzas armadas estadounidenses utilizan las nubes de los hyperscalers o Palantir con muy poca diferencia práctica respecto al modelo chino. La distinción real es esta: en China el Estado entra en la toma de decisiones de una empresa en cuanto es lo suficientemente grande. En Estados Unidos la empresa desarrolla modelos que después vende al Estado, con más libertad en la generación del negocio. Pero la utilización final por parte de los estados no se diferencia tanto, lo cual deja a los países que no tienen grandes empresas tecnológicas propias en una situación muy vulnerable.
¿Cree que China puede ganar la carrera de la inteligencia artificial?
A corto plazo, Estados Unidos sigue por delante en desarrollo de IA. Pero China está varias generaciones por encima en campos muy importantes: centrales nucleares —que aprendió de Francia y de Estados Unidos y ya los supera—, baterías, imanes permanentes, materiales críticos donde mantiene un oligopolio que Washington está intentando romper con acuerdos puntuales. Algunos campos los tiene muy desarrollados, y además cuenta con algo que Estados Unidos no tiene: una política coherente a largo plazo. De Trump a Biden y a Trump de nuevo, lo único en lo que se ponen de acuerdo es en que China es una amenaza. La forma de afrontarla cambia con cada administración. Xi Jinping lleva al frente desde 2012 o 2013, consolidando cada vez más su poder y dando continuidad a una estrategia.
Dicho esto, creo que nos queda muchísimo por ver de lo que tienen tanto China como Estados Unidos, tanto en desarrollos aplicados a defensa como a la sociedad. La mayor parte no han salido a la luz. Con lo cual, es muy difícil saber quién está realmente por delante. Lo que sí está claro es que China no es un rival lejano, sino, como dicen los mismos estadounidenses, un competidor cercano.
Están guardando sus cartas.
Exacto, y esto es algo que ya ocurre mucho, por ejemplo, en ciberseguridad, con la atribución de los ataques. Si tú me atacas, para poder señalarte necesito herramientas de atribución, pero si las revelo, pierdo la ventaja porque tú estudiarás como evitar que te detecte. Entonces lo que se hace es decir: “sé que has sido tú, confiad en mí”, pero sin explicar cómo lo sé. Aquí está pasando algo parecido. Estamos viendo ovnis cognitivos, de alguna manera: cosas que suceden y no sabemos cómo porque nadie nos está contando todos los adelantos que tienen. Igual que, por un lado, se disfrazan algunas capacidades de la IA haciéndolas parecer mayores de lo que son, por interés comercial o de seguridad nacional, por otro lado, también se disfrazan para hacerlas desaparecer.
Igual que, por un lado, se disfrazan algunas capacidades de la IA haciéndolas parecer mayores de lo que son, por interés comercial o de seguridad nacional, por otro lado, también se disfrazan para hacerlas desaparecer
En medio de todo esto se encuentra Europa. ¿Cree que puede encontrar su hueco basándose en la regulación de la IA, como ha intentado hasta ahora?
No. Si Europa no es un actor relevante industrial y tecnológico, tampoco le van a dejar serlo jurídicamente. Ya lo estamos viendo: hay enormes presiones desde Estados Unidos para impedir que la regulación europea se aplique en toda su extensión a las empresas americanas. Sin autonomía estratégica, industrial y tecnológica, Europa cae en la irrelevancia también en el ámbito regulatorio.
Para ser relevante, Europa primero tiene que diseñar y fabricar sus propios sistemas. Y la clave son los estándares: esa es la gran batalla entre Estados Unidos y China, la misma que se libró con Huawei y el 5G. Quien establece los estándares, manda. Europa tiene muchísimo talento y, a diferencia de Estados Unidos o China, genera menos animosidad en el Sur Global. Tenemos que aprovechar esa posición para ser nosotros quienes fijemos esos estándares. Si lo conseguimos, podremos regular de verdad. Si no, podremos escribir normas, pero el estándar seguirá siendo el de otros y el funcionamiento por debajo seguirá siendo el mismo.
El clima de guerra a nivel internacional ha hecho que por primera vez en la UE se empiecen a vincular los discursos de soberanía tecnológica y de defensa, con nuevos fondos para desarrollar estas capacidades.
El gobierno aprobó el paquete de 1.300 millones recientemente [finalmente fueron 1.129 millones]. Es muchísimo. Pero ¿sabe cuánto vale una fábrica de semiconductores?
Por las cifras de la que iba a construir Intel en Alemania, unos 30 o 40.000 millones.
Exacto. 1.300 millones es una salvajada, pero estamos a varios órdenes de magnitud de lo necesario. Draghi hablaba de 800.000 millones de inversión para Europa, no de 1.300. Lo que tenemos que hacer es cambiar absolutamente de registro y dejar de pensar en términos de los últimos 80 años, porque ese mundo ya no existe. No es que esté cambiando: ya ha dejado de ser así. Estamos en una transición hacia un nuevo orden global, y si queremos tener algo que decir en su diseño, tenemos que ser relevantes. Para eso necesitamos nuestros propios estándares y nuestra propia voz. Sin ella, seremos incapaces de defender nuestros propios valores.
¿Defender nuestra propia voz significa más inversión en defensa?
Significa más inversión en autonomía tecnológica e industrial, que después deriva en mayores capacidades de defensa. Pero no sirve de nada aumentar el gasto en defensa si no se hace sobre una base tecnológica e industrial propia que te dé autonomía real a la hora de utilizar esos medios.
0