Qué es Anthropic, la startup que planta cara a Trump y su “estilo dictador” por el uso de IA en la guerra

Anthropic es uno de los mejores ejemplos de cómo funciona el autobombo en la industria de la inteligencia artificial. Esta startup suele ser una gran desconocida fuera del sector. ChatGPT, Google e incluso algunos modelos chinos acaparan más atención que ella. Algo que contrasta con lo que ocurre de puertas adentro en eventos como el Mobile World Congress celebrado esta semana en Barcelona, donde un alto ejecutivo de una gran teleco europea reconocía en privado que lo que está haciendo Anthropic es “de lo más impresionante” que ha visto en toda su carrera.

En esos círculos especializados, afirmar que dentro de 10 años Anthropic será considerada la gran ganadora de la revolución de la IA ni siquiera se considera una apuesta demasiado arriesgada. Al menos así era hasta esta semana, después de que Donald Trump se haya propuesto acabar con ella tras denunciar que está dirigida por “locos de izquierda” que intentan “dictar” cómo el “gran Ejército de Estados Unidos lucha y gana guerras”.

El motivo es que en el momento clave de la ofensiva contra Irán, Anthropic se negó a ceder a las exigencias del Pentágono para utilizar sus modelos de inteligencia artificial sin restricciones. El gobierno estadounidense exigía usar su tecnología para “todos los propósitos legales”, pero la startup se opuso al considerar que los “guardarraíles” establecidos en su contrato de 200 millones de dólares con el Departamento de Guerra eran fundamentales para impedir que la IA tome decisiones equivocadas con armas autónomas o se use para la vigilancia masiva de su propia población.

La reacción de la Casa Blanca ha sido furibunda y ejemplarizante. No solo ha impedido que Anthropic pueda volver a contratar con la administración, sino que quiere etiquetarla como un “riesgo para la cadena de suministro”. Esto implicaría que ninguna empresa que contrate los servicios de la startup podría tener relaciones con el Estado. En la práctica, es un asesinato corporativo.

La disputa permanece abierta y el resultado será una prueba de fuego sobre los límites de seguridad de la tecnología más potente del mundo. Anthropic cree que si Trump se impone, se habrá iniciado la cuenta atrás para el primer gran desastre bélico de la era de la inteligencia artificial.

Dario Amodei, el evangelista de la IA General y la seguridad

No es casualidad que en medio de toda esta situación esté Dario Amodei, el cofundador y director ejecutivo de Anthropic. Este empresario e investigador de 43 años fue el vicepresidente de OpenAI hasta 2021, cuando abandonó la organización al considerar que no estaba poniendo las suficientes medidas de seguridad para evitar el mal uso o descarrilamiento de una tecnología que considera tan poderosa. Junto a su hermana Daniela y otros exmiembros de OpenAI, fundó Anthropic con el objetivo de desarrollar IA verdaderamente segura.

Desde entonces, la obsesión de los Amodei ha sido que la inteligencia artificial “se alinee con los valores humanos”. Dario se ha convertido en una de las voces más influyentes en los debates sobre los riesgos de esta tecnología y cómo deberían imponerse métodos de control. Ha publicado varios ensayos al respecto. En el último, La Adolescencia de la Tecnología, publicado en enero, pide que la IA se rija por una “constitución” que permita todas sus decisiones puedan ser interpretables por humanos.

También alerta sobre el peligro de que la IA sea capturada por regímenes autoritarios y se convierta en una herramienta de vigilancia masiva. “La humanidad está a punto de recibir un poder casi inimaginable, y es profundamente incierto si nuestros sistemas sociales, políticos y tecnológicos poseen la madurez para ejercerlo”, escribe: “Entrenar modelos de IA es más un arte que una ciencia, más parecido a 'cultivar' algo que a 'construirlo'. Ahora sabemos que es un proceso donde muchas cosas pueden salir mal”.

La humanidad está a punto de recibir un poder casi inimaginable, y es profundamente incierto si nuestros sistemas sociales, políticos y tecnológicos poseen la madurez para ejercerlo

Su figura, no obstante, es controvertida incluso entre los especialistas que comparten esta postura. Amodei no es solo uno de los mayores evangelistas sobre la seguridad de la IA. También lo es sobre la inminencia de la Inteligencia Artificial General, esa máquina autoconsciente y capaz de mejorarse a sí misma que puede generar un peligro existencial para la raza humana. Durante años, aseguró que este momento llegaría a “finales de 2026”. En entrevistas más recientes ha empezado a retrasarlo hasta 2027-2029.

Sus creencias casi religiosas sobre la IA General, unidas a la postura determinista sobre el potencial de esta tecnología (para él, es la pieza clave sobre la que pivota el futuro de la humanidad), ha hecho que muchos expertos consideren que forma parte de su propio autobombo. Amodei ha convertido la IA segura y ética en la estrategia de mercado de Anthropic. Algo que la había hecho una de las preferidas para los clientes corporativos ante de Trump amenazara con sacarla del mapa precisamente por anteponer sus prioridades éticas a la seguridad nacional.

Cómo Anthropic ha llegado a ser tan importante

El discurso de Amodei está reflejado en los estatutos de Anthropic. La startup está constituida como una corporación de beneficio público. Esto significa que, legalmente, la empresa no está obligada a priorizar solo el beneficio económico de sus accionistas, sino también construir “sistemas de IA que sean controlables, interpretables y seguros”.

Esto la ha convertido en un socio muy fiable para el sector corporativo. “Han sido los que mejor han entendido que las empresas no solo necesitaban un chatbot de usuarios, sino un producto que se pusiera mucho foco en la seguridad, la privacidad y el control de los datos”, explica Diego Méndez, director ejecutivo de la firma de software española Tailor Hub.

“Pero lo interesante es que no es solo un producto, sino una apuesta por una forma diferente de desarrollar software”, detalla Méndez. Y es aquí donde conecta con posicionamientos como los que expresaban los grandes ejecutivos del Mobile World Congress y el entusiasmo con Anthropic en los círculos especializados. Su herramienta Claude Code está cambiando las reglas del juego para los desarrolladores de software.

Lo interesante es que Claude Code no solo es un producto, sino una apuesta por una forma diferente de desarrollar software

En lugar de sugerir código línea a línea, como hacen la mayoría de asistentes actuales, Claude Code puede asumir tareas completas de desarrollo y ejecutarlas de principio a fin. Funciona como un agente autónomo que opera directamente desde la terminal o el navegador del usuario al que se le pueden dar instrucciones en lenguaje natural. Esto facilita que personas con pocos conocimientos técnicos puedan abordar tareas sencillas, como crear prototipos de apps o páginas web, aunque sigue siendo necesaria cierta supervisión.

En entornos profesionales, encargos como crear funciones nuevas dentro de una aplicación, corregir errores detectados por los usuarios o integrar un determinado programa con otros servicios digitales pueden realizarse con órdenes sencillas. “Para nosotros se ha convertido en un compañero de trabajo indispensable”, expone el responsable de Tailor Hub. El cambio de la herramienta de Anthropic es estructural, permitiendo que los desarrolladores pasen de ser “picadores de código” a “orquestadores de agentes”, con ritmos de trabajo muy superiores.

En este sector, la asimilación ha sido extremadamente rápida. Según un informe de SemiAnalysis, Claude Code es el responsable del 4% de todo el código que se sube a GitHub, una red social y repositorio donde los programadores guardan, comparten y trabajan juntos en el código de sus aplicaciones.

Es una revolución que las empresas de software están aplicando ya a campos fuera de la programación “como finanzas o administración” y que avisan que terminará llegando a todos los sectores. El terremoto ya tiene efecto en las cuentas de Anthropic, que ha multiplicado sus ingresos por veinte en apenas un año, pasando de apenas mil millones a principios de 2025 a rozar los veinte mil millones de dólares en marzo de 2026.

Qué pasa si Anthropic cede

Una herramienta que permite automatizar procesos de manera segura es un importante recurso militar para el Pentágono. Por eso Amodei piensa que la bravata de la Casa Blanca se debe a que “no le hemos dado elogios al estilo dictador a Trump”, en contraste con el jefe de OpenAI, Sam Altman. Así lo expresó en una carta enviada a sus empleados este jueves.

Sin embargo, este viernes el Departamento de Guerra ha pulsado el botón. Los productos de Anthropic ya son considerados por el Gobierno estadounidense como un riesgo para la cadena de suministro. “Bueno, despedí a Anthropic. Anthropic está en problemas porque los despedí como perros”, ha declarado Donald Trump. Con todo, informaciones de Bloomberg y otros medios apuntan a que las negociaciones entre la startup y el Pentágono para reconducir la situación continúan.

De no conseguirlo, ambas partes perderían. La startup sería liquidada, pero para EEUU perder a Anthropic no solo implicaría no tener acceso a Claude Code, sino también a uno de sus mayores activos estratégicos en el desarrollo de inteligencia artificial.

El gran problema de todo esto es China, donde las empresas no pueden imponer este tipo de salvaguardas al gobierno. Es una desventaja estratégica

“El gran problema de todo esto es China, donde las empresas no pueden imponer este tipo de salvaguardas al gobierno. Es una desventaja estratégica”, expresa Jesús Alcalde, jefe de Tecnología de la firma de ciberseguridad española Flameera. “Lo que no quieren es que si mañana hay un conflicto por Taiwán, Estados Unidos llegue con Anthropic capado mientras el Ejército chino dispone de todos sus modelos liberados y sin problemas”.

“Al final estamos en una guerra armamentística”, continúa el especialista. “Todos estamos de acuerdo en que no queremos armamento nuclear, pero como el vecino lo tiene, pues entonces yo también lo quiero para poder defenderme”.

Pero la batalla de Anthropic por mantener sus medidas de seguridad no solo afecta a esta empresa y al Ejército de EEUU. Si la startup termina perdiendo su disputa con Trump y deja caer esas protecciones, sentará un precedente en el que se habrá impuesto el “todo vale” para esta tecnología. En cuestiones como la ciberseguridad, esto implica que la IA liberada pueda convertirse en un “gran amplificador del crimen”, capaz de diseñar los mejores ataques y virus capaces de reprogramarse a sí mismos en tiempo real.

¿Cómo acabará esto? “En mi opinión, es como intentar tapar una fuga de agua en presa con las manos”, confiesa Alcalde. “Con otro tipo de armas, como las nucleares, puedes generar cuellos de botella. Tienes que tener acceso a determinados materiales y maquinaria. Pero la IA es información. Si no lo haces tú, al final lo va a terminar haciendo otro”.