De “locos izquierdistas” a “muy inteligentes y útiles”: qué está pasando entre Trump y la startup de IA Anthropic
En la boyante industria de la inteligencia artificial es difícil seguir la pista de todos los actores si no se es un usuario habitual de sus herramientas. Sobre Anthropic, una de las startups más punteras del negocio, la primera referencia que tuvo parte de la opinión pública llegó de una gran bronca de Donald Trump. Una “empresa de izquierda radical y woke” dirigida por “locos izquierdistas” cuyo “egoísmo está poniendo en riesgo vidas estadounidenses” y que aspira, según el presidente estadounidense, a “dictar cómo nuestro gran ejército lucha y gana guerras”.
El motivo que desencadenó el rapapolvo fue la guerra de Irán. El fin de semana en el que comenzaron los bombardeos estadounidenses sobre el país, Anthropic se negó a levantar algunas restricciones que pesaban sobre el uso militar de su IA. Según informó la empresa y medios estadounidenses, esos límites eran, en concreto, dos: el que impide que se use para dirigir armamento autónomo y el que la bloquea para realizar vigilancia masiva sobre la población.
Eso ocurrió hace dos meses. Esta semana, Trump se ha referido a la startup como “un grupo de gente muy inteligente”, que “pueden ser de gran utilidad”. “Me gusta la gente con alto coeficiente intelectual, y ellos sin duda tienen un alto coeficiente intelectual”, dice ahora el republicano sobre la cúpula de Anthropic. “Tienden a ser de izquierdas, de izquierda radical, pero nos llevamos bien con ellos”, admite: Creo que se están encarrilando“.
¿Qué ha ocurrido entre ambas declaraciones? Según Trump, una reunión en la Casa Blanca en la que mantuvieron “conversaciones muy buenas” con Anthropic. Pero hay algo más que el republicano no cita: la salida a la luz de un modelo de inteligencia artificial que podría llevar la ciberseguridad mundial a un nuevo nivel. O ser la peor pesadilla de cualquier sistema informático, dependiendo de quién la controle.
El antes y después de Claude Mythos
La última semana de marzo, Anthropic comunicó que había desarrollado Claude Mythos, un modelo de inteligencia artificial que, asegura, posee una capacidad sin precedentes para identificar y explotar vulnerabilidades en los principales sistemas operativos y navegadores web mejor que los humanos más habilidosos.
Por este motivo, su lanzamiento se restringió a un puñado de empresas de confianza debido a estos riesgos, con el objetivo de que pudieran analizar su ciberseguridad e impedir que Claude Mythos desencadenara una campaña de ataques informáticos a gran escala. Primero fueron las grandes tecnológicas estadounidenses, después los bancos del país, y más recientemente los bancos británicos.
Hasta el momento, esa lista de socios no ha dado apenas detalles sobre el funcionamiento de Claude Mythos. Amazon, Microsoft o Google (inversores directos de Anthropic) o bancos como Goldman Sachs, JPMorgan, Citigroup o Bank of America se han limitado a dar declaraciones estratégicas sobre la importancia de la ciberseguridad.
La única que ha dado cifras es Mozilla, la fundación que desarrolla el navegador Firefox, que este lunes publicó un parche para 271 vulnerabilidades detectadas por Mythos. “Las vulnerabilidades informáticas son finitas, y estamos entrando en un mundo donde finalmente podremos encontrarlas todas”, ha afirmado sobre las capacidades de este tipo de modelos.
Las vulnerabilidades informáticas son finitas, y estamos entrando en un mundo donde finalmente podremos encontrarlas todas
“Lo único que se sabe es que es una herramienta superpotente”, explica Rafael López, investigador de ciberseguridad de la firma Checkpoint. “Si antes tú podías tardar un mes en encontrar vulnerabilidades de un producto, aquí estamos hablando de horas”, continúa.
“Puede sacar los colores a más de una aplicación y más de un sistema de seguridad, pero no es tan fuegos artificiales como lo han querido vender”, cuestiona el especialista: “Seguirán haciendo falta personas que revisen que todo lo que está diciendo es correcto, aunque está claro que va a ayudar muchísimo y puede hacer que todo sea mucho más fácil”.
Esa falta de detalles sobre las capacidades reales de Mythos ha espoleado las suspicacias acerca de si todo lo que está sucediendo a su alrededor podría tener un componente propagandístico. Y uno de los primeros que ha apuntado en esa dirección es Sam Altman, director ejecutivo de OpenAI, que también ha sido acusada múltiples veces de utilizar a su favor el marketing del miedo.
“Es una estrategia de marketing increíble decir: 'Hemos construido una bomba, estamos a punto de lanzarla sobre tu cabeza, te venderemos un refugio antibombas por 100 millones de dólares que necesitas para resguardar todas tus pertenencias, pero solo si te elegimos como cliente'”, ha afeado Altman, que hace dos años comparó el desarrollo de la IA con el Proyecto Manhattan, que derivó en la creación de la bomba atómica.
La ética de Anthropic y la desventaja estratégica con China
Cuando Trump cargó contra Anthropic hace dos meses, su golpe no se quedó en la dialéctica. También ordenó etiquetar a la startup como “un riesgo para la cadena de suministro”, lo que implica que ni ella ni ninguna otra empresa que tenga relación con ella puede ser contratada por la administración. En la práctica, equivale a un asesinato corporativo.
Anthropic llevó la decisión a los tribunales y consiguió frenarla de manera cautelar. Puede que la irrupción de Claude Mythos haya recordado a Trump de los riesgos de condenar a una de sus empresas de IA más punteras. Pero para entender por qué su reacción inicial fue tan contundente, hay que mirar a China.
En el gigante asiático no se concibe que una empresa pueda poner límites al uso militar de su tecnología, como hizo Anthropic. “El sistema chino parte de la premisa de que cualquier desarrollo civil tiene una aplicación militar desde el primer día, y viceversa”, explica Claudio Feijóo, catedrático de la Universidad Politécnica de Madrid especializado en la economía y tecnología chinas.
En Occidente, explica el experto, se suele hablar de “tecnologías duales” cuando pueden emplearse en ambos campos. En China, en cambio esa conexión se da por hecha y está integrada en la propia ley estatal a través del concepto de la “fusión civil-militar”. “Se aplica a todos los niveles de la sociedad”, continúa Feijóo, involucrando directamente tanto a “las universidades” y a “las empresas punteras de tecnología”.
Es bajo este prisma donde la reacción furibunda inicial de Donald Trump cobra sentido estratégico. El temor de fondo en la Casa Blanca es el “efecto contagio”: el miedo a que la rebelión ética de Anthropic sirva de ejemplo para que los empleados de otras corporaciones clave se nieguen a colaborar con el Pentágono, como ocurrió en el pasado en multinacionales como Google.
Como advierte Feijóo, se trata de una prueba más de que el mundo se está “chinificando”, al colocar “la seguridad nacional está por encima de cualquier otra cosa”. Cuando el Estado invoca la carta de la seguridad, “se pierde la racionalidad” y el mensaje a las empresas es claro: “todos en fila y a cumplir lo que hace falta para el país”.
Un acuerdo que nadie quiere firmar
Si bien la asimetría entre el Partido Comunista Chino y la Casa Blanca en el control que pueden ejercer de sus empresas tecnológicas es real, el problema radica en la desconfianza mutua de las dos superpotencias. En el ámbito de la defensa existe desde hace años una iniciativa internacional para el Uso Responsable de la Inteligencia Artificial en el Ámbito Militar (REAIM, por sus siglas en inglés) que busca garantizar que haya siempre “una persona en el bucle”. El objetivo es que ningún sistema autónomo ataque sin supervisión humana.
El acuerdo fue impulsado por Corea del Sur y Países Bajos y ha sido ratificado por decenas de países, entre ellos España. Pero en la lista no están Washington, ni Pekín, ni Moscú. “Nadie quiere firmarlo porque nadie se fía de que los otros lo estén cumpliendo”, explica Feijóo. “Cuando la gente no quiere firmar un acuerdo que tiene que ver con controlar la inteligencia artificial en el sector de defensa”, concluye, “lo que te hace pensar es que ya lo están haciendo”.
0