Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

La inteligencia artificial militar, una inversión que atrae cada vez más fondos como el de Pablo Casado

CasadoIA

Carlos del Castillo

42

La primera guerra en Europa en dos décadas. La ofensiva total de Israel contra la franja de Gaza. El intercambio de bombardeos entre Irán y Paquistán. Los ataques a cargueros. La militarización de la frontera sur de EEUU. La amenaza china de recuperar Taiwán por la fuerza. La tensión bélica en el mundo se dispara y eso siempre son buenas noticias para las empresas de armamento. También, cada vez más, para las empresas de tecnología e inteligencia artificial.

Este lunes se ha presentado oficialmente Hyperion Fund FCR para explotar ese nicho de mercado. Se trata de un fondo encabezado por el exsecretario general del PP Pablo Casado, Ricardo Gómez-Acebo Botín —sobrino de la presidenta del Banco Santander, Ana Patricia Botín— y dos expertos de la industria de armamento para invertir en tecnología militar como de “doble uso”, termino empleado para el material militar que puede aplicarse también en contextos civiles.

Hyperion se autodenomina “el primer fondo de capital riesgo en España enfocado en los ámbitos aeroespacial, de ciberseguridad e inteligencia artificial”. Se trata de tres ramas de la industria tecnológica que, por separado, llevan mucho tiempo habituadas a que sus empresas se conviertan en contratistas militares. Los drones, los equipos de hardware y software dedicados a la ciberguerra o la evolución del armamento autónomo son terrenos en los que el avance civil y el militar van de la mano.

El gran salto que ha tenido lugar en el último año, a la par que se desarrollaban las inteligencias generativas del ámbito civil, es la integración de la tecnología aeroespacial, la de ciberseguridad y la de IA, en una sola herramienta militar. Sistemas de algoritmos de aprendizaje automático capaces de recoger datos de muy diversas fuentes, analizarlos, interpretarlos y tomar decisiones estratégicas en base a ellos.

El mejor ejemplo de esta nueva tecnología es el sistema que Israel denomina “El Evangelio”. Se trata de una herramienta que su ejército está utilizando para que le seleccione de manera constante personas y lugares a atacar en La Franja. “Una máquina que produce cantidades enormes de datos con más eficacia que cualquier humano, y los traduce en objetivos para el ataque”, presumía antes de la guerra Aviv Kochavi, comandante en jefe de las Fuerzas Armadas israelíes hasta enero de 2023.

“Cada brigada dispone ahora de un sofisticado aparato de inteligencia similar al de la película Matrix, que proporciona inteligencia en tiempo real”, continuaba Kochavi en una entrevista: “Es la guerra del futuro”. Aunque el funcionamiento de El Evangelio es secreto, los analistas presumen que analiza datos recogidos por drones y por herramientas de ciberespionaje como Pegasus para detectar patrones de conducta tanto de individuos como de grandes grupos de personas y relacionarlos con Hamás. Gracias a ello los bombarderos israelís tienen una lista de 100 objetivos al día en vez de 50 al año, según Kochavi.

Al igual que ocurre con la IA generativa del mundo civil, las decisiones de este tipo de inteligencia artificial militar no resultan transparentes ni para sus propios desarrolladores. El ejército israelí asegura el sistema causa “un daño mínimo a los no combatientes”, pero las imágenes de Gaza y las cifras de fallecidos, que ya superan las 25.000, lo contradicen.

“No pueden decirte cómo han escogido a los objetivos. No pueden decir si hay algún error, si se podría afinar el sistema, si se podría corregir. Son preguntas para las que no tienen respuesta”, denuncia Tica Font, fundadora del Centre Delàs d'Estudis per la Pau. “Para convertirlo en un arma totalmente autónoma solo es necesario dar al sistema la capacidad de lanzar un dron armado y disparar. Así el sistema informático habría marcado un objetivo, hecho un seguimiento, tomado la decisión y atacado sin intervención humana”, avisa.

De ChatGPT al Pentágono

El fondo de Pablo Casado quiere captar 150 millones de euros para empezar a impulsar las inversiones en este campo, priorizando las que se den en el entorno español. “Las tecnologías en las que invertirá Hyperion están experimentando un gran crecimiento en todo el mundo”, afirma el fondo, que dice tener “muy avanzada una cartera de proyectos con una alta rentabilidad estimada, que constituye para los potenciales inversores una oportunidad de diversificación financiera y de diferenciación sectorial, al ser uno de los primeros fondos europeos en esta vertical”.

La inversión en IA se ha convertido en una de las más atractivas para inversores de todo el mundo. Microsoft acaba de convertirse en la empresa más valiosa del mundo gracias a su apuesta por esta tecnología y su alianza con OpenAI, la desarrolladora de ChatGPT. Una organización que nació como un laboratorio de investigación sin ánimo de lucro pero que ahora está centrada en rentabilizar al máximo sus productos y que acaba de cambiar sus estatutos para habilitar su uso militar.

La compañía, que promociona cada uno de sus avances como claves en el desarrollo de la humanidad, llevó a cabo la modificación en silencio. Hasta hace dos semanas, las políticas de uso de OpenAI prohibían una lista de “actividades con alto riesgo de daño físico”, que incluían el “desarrollo de armas” y el uso “militar y bélico” de ChatGPT y el resto de sus herramientas. En la nueva política las referencias a “militar y bélico” han desaparecido, así como la lista de actividades prohibidas.

“No utilices nuestros servicios para hacerte daño a ti mismo o a otros. Por ejemplo, no utilices nuestros servicios para promover el suicidio o autolesionarte, desarrollar o utilizar armas, herir a otros o destruir propiedades, o participar en actividades no autorizadas que violen la seguridad de cualquier servicio o sistema”, es la nueva redacción.

Tan solo unos días después de este cambio, OpenAI confesaba que ha empezado a colaborar con el Pentágono. Oficialmente, para desarrollar “herramientas de ciberseguridad”, afirmó Anna Makanju, vicepresidenta de la organización. Sobre el cambio de políticas, aseguró que se debe a que “mucha gente pensaba que prohibiría este tipo de casos de uso, que la gente cree que están muy alineados con lo que queremos ver en el mundo”. Se trata de la misma empresa cuyo CEO firmó un manifiesto alertando de que la IA tiene un potencial nocivo para la humanidad comparable al de la bomba nuclear.

Auge de la IA militar sin regulación

OpenAI no es ni mucho menos la única startup de Silicon Valley en la que el Departamento de defensa de EEUU ha puesto sus ojos. Empresas como Mach Industries, que desarrolla vehículos militares y municiones propulsadas por hidrógeno para el ejército; o Anduril Industries, que desarrolla sistemas de IA y robots enfocados a las armas autónomas, han cerrado millonarias rondas de financiación en los últimos meses.

“En materia de regulación, prácticamente todos los debates que se han dado se refieren al uso civil de la inteligencia artificial”, dice Tica Font. Excluyendo las armas autónomas, todos los demás ámbitos militares a los que puede aplicarse esta tecnología se encuentran en un limbo normativo. “Puede que incluso los militares estén incómodos con esta situación, porque es un ordenador el que les dice a quien hay que matar y ni siquiera ellos saben por qué”, expone.

“El problema está en los estados. La posición que están tomando en estos debates es la de no regular, porque quien invente el prototipo de éxito se va a quedar con el negocio económico y con la ventaja militar. Así que no hay disposición de hacer avances”, lamenta la especialista en economía de defensa y comercio de armas.

Etiquetas
stats