Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
'Odisea Atlántica': el crucero de lujo que acabó en una crisis sanitaria internacional
Farga Beiby, la colonia textil ocupada que acoge a trans, migrantes y familias
Opinión - 'El fiasco del show ultra de Ayuso en México', por Rosa María Artal
LOS LANZALLAMAS

Musk vs. Altman, la Inteligencia Artificial pierde el juicio

Elon Musk.
8 de mayo de 2026 22:22 h

1

No han faltado artículos y reseñas sobre la serie Succession que señalaran su vínculo con la tragedia shakespeariana, principalmente El rey Lear, en la que está en juego la herencia de las tierras del reino entre sus hijas y sus maridos. La misma relación se puede establecer con los usos y costumbres del poder en Silicon Valley, aunque el adjetivo no surge esta vez desde un medio sino desde el mismo corazón del sistema: la competencia entre las empresas del sector de la IA es shakespeariana, dijo, un alto ejecutivo de OpenAI y lo dejó claro: “Las reglas normales del juego ya no se aplican”. 

El juicio que acaba de comenzar en Estados Unidos en el cual Elon Musk demanda a Sam Altman, director general de OpenAI, está demostrando que ese adjetivo se ajusta a la realidad. El propietario de SpaceX acusa a Altman de enriquecerse convirtiendo una organización sin fines de lucro en una empresa que persigue solo los beneficios. 

Tanto uno como el otro exponen en el tribunal un juego psicótico con el único matiz de que a Musk, como ha demostrado en su paso por la Casa Blanca, poco le importa ocultarlo; por el contrario, lo deja al desnudo, como muchos personajes del bardo inglés.

La historia de este desencuentro se remonta a los orígenes de OpenAI y se supone que tanto Musk como Altman eran jóvenes progresistas, perfil mucho más arraigado en este último, quien, hasta ayer mismo, no se cansó de afirmar que el avance de la IA “podría resolver el cambio climático, curar el cáncer, desarrollar una superinteligencia benevolente más allá de la comprensión humana” y crear lo que él denomina “riqueza extrema universal”. 

OpenAI nace en 2015 con las mejores intenciones, impulsada por Altman, quien estimula a Musk con la creación de una organización sin ánimo de lucro para generar una IA benévola y contrarrestar así el impulso que en ese momento exhibía DeepMind, el modelo de Google. Es curioso que Altman tuviera por entonces la plena intención de crear una empresa propia de energía nuclear, tan es así, que denominaba Proyecto Manhattan a la planificación de OpenAI, en su afán de emular la carrera de Oppenheimer. Once años después, IA mediante, Palantir publica su manifiesto de La República Tecnológica en el que Alex Karp asegura que la IA sustituirá a la energía nuclear como arma hegemónica. ¿No es esta la más alta expresión del aceleracionismo? 

En este sentido, la velocidad, clave en el desarrollo tecnológico, depende de una constante financiación sin límites para crecer y es por eso que, en 2018, Altman crea una filial con ánimo de lucro para que OpenAI pueda seguir avanzando. En ese momento comienza el conflicto con Musk, que seguía creyendo en el proyecto inicial y la lucha se resuelve con su partida. El siguiente movimiento es el acercamiento de Microsoft y la inyección de 1.000 millones de dólares. 

“Fui un idiota que les proporcionó dinero gratis para montar una start-up. Les di 38 millones de dólares para crear lo que acabaría siendo una empresa de 800.000 millones de dólares”, dijo Musk en el inicio del juicio. Ocurre que, cuando nació el proyecto, el dueño de Tesla, además de ser el sostén económico, dejó todo en manos de Altman. El magnate se siente estafado en su buena fe y le acusa de haber ocultado sus verdaderas intenciones reclamando 134.000 millones de dólares (115.000 millones de euros) en concepto de daños y perjuicios. 

Vinod Koshla, un inversor de peso en Silicon Valley y uno de los primeros en apostar por OpenAI, declaró en una entrevista que la intención original de Musk era acabar siendo el director general de la compañía, tomarla como un feudo privado y contar con el equipo técnico como rehenes, Sam Altman incluido. Tiene muy difícil Musk proyectar su perfil humanitario en el juicio. 

Cuando sus abogados expusieron, antes de los interrogatorios y sin la presencia del jurado, que “todos podríamos morir” por culpa de la IA, la jueza Yvonne González Rogers prohibió a los letrados y al propio Musk hacer tales declaraciones alarmantes ante el jurado y más aún siendo Musk propietario de xAI, su propia empresa con, por supuesto, ánimo de lucro. “Sospecho que hay muchas personas que no quieren poner el futuro de la humanidad en manos del señor Musk pero aquí no vamos a entrar en esos temas”, les dijo la jueza. 

Regresando a Shakespeare, hasta aquí puede que todo haya sonado un poco a comedia (de la mala). Ahora pasamos a la tragedia.

El último relato del marketing corporativo es el propósito. Toda compañía debe tener uno y conceptualmente todos los propósitos, tanto de una empresa de refrescos como de otra que se dedica al fracking, es hacer un mundo mejor. En el caso de OpenAI, su premisa fundacional era reducir el riesgo existencial del invento más poderoso y peligroso para la humanidad. 

En una entrada de su blog en 2024, Altman destacó que gracias a su tecnología “solucionar el cambio climático, establecer una colonia espacial y el descubrimiento de toda la física, acabará siendo algo habitual”. Mientras tanto, el director general de OpenAI preparaba una oferta pública inicial con una valoración potencial de un billón de dólares y cerraba contratos con diferentes países estableciendo normas para utilizar la IA en el control de inmigración, la vigilancia interna y el armamento autónomo en zonas de guerra.

Existe un control denominado alineación de Inteligencia Artificial que garantiza su seguridad y su utilidad además de evitar que la herramienta tome decisiones perjudiciales para las personas o contrarias a sus intenciones. Este control es clave, más aún para el desarrollo de la inteligencia general artificial (AGI, por sus siglas en inglés), un sistema capaz de realizar cualquier tarea intelectual humana. OpenAI está enfocada en este proyecto y por eso reclama inversiones billonarias. Pues bien, su sistema de alineación parece ser muy débil o inexistente. Después de lanzar ChatGPT-4, Jan Leike, uno de los técnicos de la compañía, envió un correo a los miembros del consejo advirtiendo que OpenAI había abandonado su misión enfocada en la seguridad: la prioridad ahora era el producto y los ingresos.

En 2023 Sam Altman testificó ante el Comité Judicial del Senado y propuso la creación de una agencia federal para supervisar los modelos avanzados de IA: “si esta tecnología falla, lo puede hacer a lo grande”. Al mismo tiempo que decía esto, presionaba con éxito a la Unión Europea para debilitar un proyecto de supervisión y se oponía a un plan de seguridad en California. 

Los cálculos de Altman giran en torno a la captación de entidades con capacidad para gastar cien mil millones de dólares a su antojo. En la lista está el gobierno de Estados Unidos, las cuatro o cinco mayores empresas tecnológicas de Silicon Valley, los saudíes y los emiratíes. En Emiratos Árabes Unidos impulsa un proyecto, ChipCo para la construcción de enormes fábricas de microchips y centros de datos ubicados, en su mayoría, en Oriente Medio. La idea es apostar por la capacidad de la IA para sustituir al petróleo y al uranio enriquecido como recurso que determina el poder mundial. Dice Altman que la potencia informática es “la moneda del futuro” (otro encuentro inquietante con La República Tecnológica).

Cuando Trump asumió su segunda legislatura, Altman le propuso anunciar una versión de ChipCo, programada de tal modo que el presidente se pudiera atribuir el mérito. Poco después Altman y Trump visitaron juntos la corte saudí para reunirse con el príncipe Mohamed Bin Salmán, el mismo que Trump defendió en una comparecencia en la Casa Blanca ante un periodista que preguntó a Bin Salman por el asesinato del periodista Jamal Khashoggi.

Mientras tanto, los compromisos de seguridad del sector ya forman parte del pasado y de las actas fundacionales de OpenAI. Si hacía falta un apoyo institucional al despropósito, este lo dio el vicepresidente J.D. Vance en París, en una conferencia en la A.I. Action Summit (antes se llamaba A.I. Safety Summit: eliminaron la seguridad para pasar a la acción). Allí dijo Vance: “El futuro de la IA no se va a ganar lamentándose en la seguridad”. Bajo el ruido de los aplausos, Altman acotó que el efecto desregulador de Trump es “un cambio muy refrescante”.

Un grupo de investigadores de distintas universidades, incluidas Harvard, Stanford y el MIT, presentaron en febrero el borrador de un artículo científico bajo el título Agents of Chaos [Agentes del Caos]. El estudio afirma que los agentes de inteligencia artificial fallan de maneras previsibles y potencialmente devastadoras. Los agentes no son simples chatbots: pueden planificar y ejecutar tareas complejas encadenadas, utilizando herramientas externas sin supervisión constante.

La prueba se hizo solo con seis agentes comprometiendo cuentas de correos, chats, diferentes aplicaciones y acceso al almacenamiento de un grupo de usuarios. La investigación revela la vulnerabilidad de los correos y las cuentas bancarias, entre otros datos privados y cierta falta de criterio en ejecutar órdenes o rechazarlas. El sistema comete errores pero también se detecta que a veces los intenta evitar y fracasa. La investigación está hecha con los agentes de IA convencionales, los mismos que actualmente facilitan las tecnológicas para su uso comercial o doméstico. Hay un equilibrio entre los aciertos y los fallos, con lo cual, se deduce que no solo se trata de que el modelo “piensa mal”, sino que se ha diseñado sin los frenos suficientes. El sistema no falla puntualmente; se trata de un problema estructural porque adolece de una alineación de IA que realice un control de seguridad aceptable. 

Ese criterio es el que, al parecer, alienta OpenAI y naturaliza la actual administración americana. Como abundan los lectores de ciencia ficción en el Silicon Valley, las consecuencias trágicas de esta deriva seguro que se adjudican a los astros. Lo advirtió, por cierto, Shakespeare en El rey Lear: la estupidez, la falta de razón, no acontece por coacción celeste.

Etiquetas
stats