Las élites de Silicon Valley acatan la orden de Trump y abren la IA militar a “cualquier propósito legal”
El Pentágono ha dado un paso clave para neutralizar que el intento de Anthropic para establecer límites éticos al uso militar de inteligencia artificial se extienda. El organismo ha llegado a un acuerdo con la plana mayor de la industria de la IA, incluyendo a SpaceX, OpenAI, Google, Nvidia, Microsoft, Amazon y Oracle, para implementar esta tecnología en “cualquier uso operacional amparado por la ley”. En el caso de EEUU, este concepto incluye extremos como la vigilancia masiva, habilitada a través de leyes posteriores al 11S como la Patriot Act o la Ley de Vigilancia Extranjera.
También ahonda en el vacío legal en el que se mueven las armas autónomas. Washington no ha ratificado la iniciativa internacional para el Uso Responsable de la Inteligencia Artificial en el Ámbito Militar (REAIM, por sus siglas en inglés), que intenta asegurar que sea obligatorio que siempre haya “una persona en el bucle” y prohibir los sistemas que puedan atacar sin supervisión humana. Decenas de países, incluida España, han firmado este compromiso, pero no EEUU, Rusia o China.
“Vigilancia masiva interna” y “armas totalmente autónomas” fueron precisamente los dos casos que puso encima de la mesa la startup de IA Anthropic para negarse a aceptar la cláusula de “cualquier uso operacional amparado por la ley” que intentó imponer el Pentágono al comienzo de la guerra de Irán. “En un número limitado de casos, creemos que la IA puede socavar, en lugar de defender, los valores democráticos. Algunos usos también están simplemente fuera del alcance de lo que la tecnología actual puede hacer de forma segura y fiable”, justificó Dario Amodei, cofundador y director ejecutivo de la empresa.
El resultado fue que la compañía fue apartada y declarada “un riesgo para la cadena de suministro”, lo que implica que ni ella ni ninguna otra empresa que tenga relación con ella puede ser contratada por la administración. Posteriormente, una jueza federal suspendió cautelarmente la decisión y Anthropic está negociando su reintegración en los sistemas del Departamento de Guerra.
Por el momento, se desconoce si la startup aceptará derribar esos dos límites de seguridad que impuso en febrero.
Las operaciones con IA serán material clasificado
La decisión de Anthropic de no levantar los dos guardarraíles de seguridad que había establecido para su IA provocaron una reacción furibunda de Donald Trump. Aunque el presidente estadounidense ha hecho declaraciones alabando a la empresa, lo sucedido espoleó un debate en Silicon Valley sobre los límites éticos de la IA militar. “Quieren dictar cómo nuestro gran ejército lucha y gana guerras”, expresó Trump.
A la posición de Anthropic se habían sumado activistas y trabajadores de la meca tecnológica estadounidense. El posicionamiento más claro fue el de un grupo de 560 empleados de Google, entre los que había una veintena de vicepresidentes y directores generales, que pedían a la alta dirección que no se plegara a las condiciones que la Casa Blanca exigía para la IA.
El anuncio del acuerdo del Pentágono con los gigantes de la IA sobre el precepto de “cualquier uso operacional amparado por la ley” es la respuesta de las élites de Silicon Valley, Trump y el Departamento de Guerra para neutralizar el debate. “El Departamento de Guerra y sus socios estratégicos comparten la convicción de que el liderazgo estadounidense en IA es indispensable para la seguridad nacional. Este liderazgo depende de un ecosistema nacional sólido de desarrolladores de modelos capacitados que permitan el uso pleno y eficaz de sus capacidades en apoyo de las misiones del Departamento”, asevera el comunicado.
Uno de los puntos que criticaban los empleados de Google es el hecho de que las operaciones con inteligencia artificial pasarán a ser material clasificado. “Queremos que la IA beneficie a la humanidad, y no que se utilice de forma inhumana o extremadamente dañina”, pedía la carta, enviada al CEO de la empresa, Sundar Pichai. “Esto incluye armas autónomas letales y vigilancia masiva, pero va más allá”, señalaban, recogiendo las premisas de Anthropic: “La única forma de garantizar que Google no se asocie con tales perjuicios es rechazar cualquier carga de trabajo clasificada. De lo contrario, tales usos podrían ocurrir sin nuestro conocimiento ni la capacidad de impedirlos”.
En un memorando interno a los empleados tras la firma del acuerdo, Kent Walker, presidente de Asuntos Globales de Alphabet, ha afirmado que “mantener el diálogo con los gobiernos, incluso en materia de seguridad nacional, ayudará a que las democracias se beneficien de tecnologías responsables”. “Hemos trabajado con orgullo con los departamentos de defensa desde los primeros días de Google y seguimos creyendo que es importante apoyar la seguridad nacional de una manera reflexiva y responsable”, prosigue la comunicación, distribuida por medios como Financial Times.
Entre el resto de empresas, solo OpenAI ha dado algunos detalles sobre los límites de su acuerdo con los militares. Los de Sam Altman aseguran que han fijado tres “líneas rojas”: vigilancia masiva doméstica, armas autónomas y decisiones automatizadas de alto riesgo. El comunicado del Pentágono no hace referencia a esas restricciones.
Combate, inteligencia y operaciones internas
El comunicado del Pentágono detalla que introducirá los sistemas de IA de estas empresas en entornos “IL6 e IL7”, que se corresponden con redes militares con información clasificada de nivel “Secret” y superior. Además, explica que se centrará en “tres pilares fundamentales: operaciones de combate, inteligencia y operaciones internas”.
En este último grupo es donde se incluyen la logística, la gestión del personal militar y civil del Departamento de Guerra o sus permisos. Por otro lado, los dos primeros puntos suponen la integración definitiva de la inteligencia artificial en el núcleo de las actividades militares de EEUU. Agilizará la síntesis de datos, mejorará la comprensión de la situación y potenciará la toma de decisiones de los combatientes en entornos operativos complejos“, desglosa.
Es decir, la IA decidirá o recomendará a quién atacar, cuándo y cómo, procesando en tiempo real información de inteligencia clasificada. “El acceso a un conjunto diverso de capacidades de IA provenientes de la sólida infraestructura tecnológica estadounidense proporcionará a los combatientes las herramientas necesarias para actuar con confianza y proteger a la nación ante cualquier amenaza”, concluye el Pentágono.