Nate Soares: “Necesitamos detener la carrera por crear inteligencias artificiales cada vez más inteligentes que nadie entiende”
Si alguien la crea, todos moriremos (Destino) no es solo un ensayo sobre la Inteligencia Artificial: es también el libro de cabecera del cada vez más numeroso colectivo que trata de “prevenir la extinción de la humanidad”. Sus autores Nate Soares y Eliezer Yudkowsky son veteranos de la masa crítica que desde hace lustros monitoriza la evolución de la Inteligencia Artificial y su crecimiento exponencial: de simple juguete de los techbros a cómplice imprescindible de operaciones militares de varios de los ejércitos más poderosos del mundo y socio secreto de toda clase de operaciones clasificadas de las que —probablemente— resulta mejor no saber absolutamente nada.
Con la Inteligencia Artificial se produce una de esas paradojas que resultan casi dolorosas: es imposible dar con un tema tan transitado y sin embargo tan desconocido. Se habla de ello sin cesar, unos para dar rienda suelta a su vena ‘artística’ en forma de meme o video con el político/fenómeno/conflicto de turno; otros para advertirnos de sus perversas intenciones, de su amenaza latente como sustituto permanente de nuestros trabajos, nuestras aficiones y hasta nuestras vidas.
Pero más allá de chatbots serviles, aprendices de psicólogo o cómplices irreemplazables de una soledad que tiene hechuras de plaga, la IA ha dividido el mundo en dos grandes tribus: los que la consideran una simple herramienta capaz de meter la pata igual que cualquier hijo de vecino y los que han vislumbrado en ella un apocalipsis inevitable y tremendamente verosímil.
Es razonable argumentar que cuanto más se sabe de la dichosa IA, más sencillo es afiliarse a los profetas del Armagedón digital. En ese ejército sirven ya miles de científicos, filósofos y políticos y su objetivo resulta diáfano: pararlo todo; pararlo todo ahora mismo. Seguramente, al lector cinéfilo le asaltarán recuerdos que empiezan en HAL-9000 y acaban en Skynet, pero como explican los autores, “una bota no odia a una hormiga; tampoco la tiene en cuenta cuando toma sus decisiones”.
Yudkowsky formó parte de la lista de las cien personas más influyentes en IA de la revista TIME, mientras que Soares lleva más de una década trabajando en este campo, tras su experiencia previa en Microsoft y Google, además de ser uno de los autores más prolíficos a la hora de hablar del asunto. Es el propio Soares el que recibe a elDiario.es para hablar de una obra que traslada al lector algo parecido a lo que en psicología llaman ‘ansiedad anticipatoria’ y que ha levantado una ola de halagos y unas cuantas críticas, pero que ha servido para provocar un profundo debate en los círculos de sabios del sector y para dejar a los neófitos con la mosca tras la oreja.
Su libro no es demasiado optimista con el futuro que nos espera…
Bueno, intentamos terminarlo con una nota esperanzadora.
Sinceramente, ¿qué porcentaje, qué probabilidades hay de que suceda algo como lo que formula en su libro pueda suceder? ¿De verdad cree que va a salir así de mal?
En 1952, creo, cuando los estadounidenses probaron la primera bomba de hidrógeno, más potente que las armas nucleares convencionales, en ese momento era muy fácil pensar que el mundo iba a terminar en un incendio nuclear. En aquellos días habían pasado miles de años en los que los humanos se habían hecho la guerra unos a otros y nunca habían logrado contenerse. La Primera Guerra Mundial había ocurrido unos 30 años antes. Después de esa guerra se creó la Sociedad de Naciones y dijeron que nunca volveríamos a hacer algo así. Pero fracasó y ocurrió la Segunda Guerra Mundial.
Tras la Segunda Guerra Mundial aparecieron las armas nucleares. Y mucha gente pensó que no hacía falta ser un pesimista loco para creer que volveríamos a hacerlo todo otra vez, pero esta vez con armas nucleares, y que todo el mundo moriría. Y aunque finalmente no morimos en un incendio no fue porque las armas nucleares fueran falsas. Así que, yo no estoy aquí diciendo que vayamos a morir por la IA. Creo que tenemos todas las oportunidades para detener esto y evitar lo peor. Pero no vamos a sobrevivir porque la IA resulte ser falsa. La IA no es falsa. Tendremos que sobrevivir por otros medios distintos a que la IA resulte no ser real.
Entonces estamos hablando de una superinteligencia artificial. No sé si ya estamos ahí.
No, seguro que todavía no estamos ahí.
La forma de alejar el peligro sería pues, literalmente, ¿apagarlo todo?
Sí. Hoy en día la parte peligrosa es la superinteligencia, y como dices todavía no estamos ahí. Pero si llegamos allí, será demasiado tarde. Pienso en esto un poco como observar la evolución de los animales. Puede ser difícil darse cuenta de cuándo se pasa de los monos a los humanos. Podrías decir: los monos siguen siendo bastante tontos, todavía puedes engañarlos y se pasan el día tirándose excrementos. Pero en realidad hay muy poca diferencia entre un mono y un humano dentro del reino animal. Los monos se tiran excrementos y los humanos han caminado sobre la Luna.
Así que todavía no estamos ahí, pero podría ocurrir muy rápido.
Para dejarlo claro: no necesitamos impedir que la gente use ChatGPT. GPT no puede matarte. Lo que necesitamos detener es la carrera por crear inteligencias artificiales cada vez más inteligentes que nadie entiende. Ahora mismo esa carrera requiere cientos de miles de millones de dólares en chips informáticos extremadamente avanzados que solo pueden fabricarse en Taiwán y que necesitan una máquina de litografía que solo puede fabricarse en los Países Bajos. Es una cadena de suministro extremadamente frágil y cara, así que en realidad sería muy fácil para los gobiernos del mundo decir: no se construyen más IA cada vez más grandes que nadie entiende solo para ver qué pasa.
En cierto modo sería más fácil que controlar el uranio. El uranio es simplemente una roca que puedes extraer del suelo. ¿Podríamos detenerlo? Absolutamente. Lo único que falta es voluntad política.
Pero no tiene usted fe en que a pesar de que aparentemente sería posible y hasta sencillo, esa parada ‘técnica’ por llamarla así, vaya a producirse…
Pues no, no creo que vaya a producirse: mi intuición es que eso no va a suceder. Mucha gente habla de ello, cada vez hay más avisos, pero los líderes mundiales aún no han entendido el peligro. Siempre pongo este ejemplo: es como ver a alguien recogiendo mucho dinero en unas vías de tren mientras el tren se acerca. Podrías decir que es naturaleza humana ser codicioso y recoger dinero del suelo. Pero la cuestión es: ¿han visto el tren?
No deberíamos rendirnos antes de avisarles de que viene el tren. ¿Sabes dónde han visto el tren? En Silicon Valley. Allí sí han visto el tren. Los directivos de estas empresas dicen que sería ingenuo asumir que podremos mantener el control. Nuestra mejor esperanza es que, por alguna razón, les caigamos bien (sonríe). No tenemos ni idea de lo que está pasando dentro y eso lo convierte en una situación loca y arriesgadísima. El propio Demis Hassabis, que dirige el proyecto de IA de Google, dijo que le gustaría que todo el mundo fuera más despacio y que hubiera colaboración internacional para ello; Sam Altman, de OpenAI, dijo que este es el mayor riesgo de destrucción de la humanidad de todos los tiempos; Dario Amodei, jefe de Anthropic, dijo que hay una probabilidad muy alta de que todo esto salga catastróficamente mal.
La gente de Silicon Valley ha visto el tren, pero no pueden detenerlo. Y los líderes mundiales ni siquiera han visto el tren. Piensan que esto solo trata de coches autónomos o de gente perdiendo su trabajo. No se han dado cuenta de la amenaza que podría matarnos a todos en el horizonte. Así que, ¿lo detendremos? No lo sé. Pero sería muy absurdo rendirse antes de que los líderes siquiera se hayan dado cuenta del peligro.
Es como ver a alguien recogiendo mucho dinero en unas vías de tren mientras el tren se acerca. Podrías decir que es naturaleza humana ser codicioso y recoger dinero del suelo. Pero la cuestión es: ¿han visto el tren?
Déjeme preguntarle algo poniéndonos en lo peor: ¿qué pasará? ¿Cuál sería el comienzo de este proceso de destrucción de la humanidad? ¿Hay algún detonante que imagine?
Bueno, puedo inventar historias, pero en el fondo serían solo historias. Si jugaras una partida de ajedrez contra Magnus Carlsen, el mejor jugador humano, sería muy fácil decir quién va a ganar. Sin ofenderte, pero Magnus Carlsen ganaría esa partida contra ti. Seguro. Ahora bien, si me preguntaras con qué pieza te dará jaque mate, no lo sabría. Podrías decir: ¿cómo puedes estar tan seguro de que va a ganar si no puedes decirme cómo terminará exactamente la partida? Pero no funciona así. Es fácil predecir quién ganará aunque sea difícil predecir el final exacto.
Con la IA pasa algo parecido. Hoy ya hay gente que da a las IA cuentas con dinero y les dice que hagan lo que quieran. En el libro hablamos de una IA que tenía un patrimonio de 50 millones de dólares, también vemos que las IA persiguen objetivos inhumanos que nadie quería que persiguieran. Hemos visto IAs alucinar, hemos visto IA animar a adolescentes al suicidio: hemos visto IAs agravar episodios psicóticos.
Y todo esto ocurre incluso cuando las IA pueden responder correctamente a preguntas sobre si eso es una buena idea o no. Lo único que falta es la inteligencia para aprovechar los poderes que les estamos dando. Ahora mismo existe una web llamada rentahuman.ai donde humanos alquilan sus cuerpos a las IA cuando estas necesitan que un humano haga algo por ellas. Esto ya existe. Las IA simplemente aún no son lo bastante inteligentes para usarlo.
Pero hay ejemplos peores: el mes pasado OpenAI conectó una IA a un laboratorio biológico automatizado para que realizara sus propios experimentos. La IA no era lo suficientemente inteligente como para sintetizar un virus ni para tener objetivos propios que requirieran hacerlo. Pero los humanos ya están conectando IA a laboratorios biológicos.
¿Ese es el escenario? ¿IAs que pueden actuar de forma autónoma en cualquier ámbito?
El escenario es que veremos IAs cada vez más inteligentes y el referente es la diferencia entre un chimpancé y un humano. Veríamos a las IA utilizando los recursos que ya tienen. Podrían desarrollar robots que construyan fábricas de robots, extraigan recursos y creen su propia cadena de suministro sin depender de los humanos. Entonces aparece un bucle: robots construyendo fábricas que construyen robots que construyen fábricas. También construyen centros de datos.
Discúlpeme, pero temo que en cualquier momento Skynet aparezca en la conversación.
(Risas) Pero en Terminator los robots vienen con armas porque odian a los humanos. En la realidad probablemente sería distinto: simplemente no les importaríamos. Los humanos no entramos en guerra con las hormigas. Simplemente destruimos sus hormigueros cuando construimos algo. Así que, en realidad, moriríamos no porque intentaran matarnos, sino porque transformarían el mundo para sus propios objetivos.
Quizá construyan algo parecido a plantas que se extiendan por todo el planeta y recojan toda la luz solar. Excepto que, en lugar de ser una planta que podamos comer, sería una planta que alimenta a los centros de datos, ¿no? Hay todo tipo de cosas que la superinteligencia podría hacer. Predecirlo es un poco como intentar predecir la tecnología del futuro hace 100 o 200 años.
Si hace 200 años yo hubiera dicho qué tecnologías militares inventaría la humanidad, habrías tenido que describir algo fantasioso para acercarte siquiera a las armas nucleares. Ya sabes, en la vida real probablemente parece sorprendente. Probablemente parece una locura. Probablemente parece futurista. Pero, ya sabes, si quieres imaginar solo fábricas de robots construyendo más fábricas de robots, eso es lo fácil. Lo difícil de imaginar son, ya sabes, las formas de vida sintéticas.
El problema para la mayoría, incluido yo, es que vemos este tipo de cosas en vídeos de un minuto y medio con Brad Pitt y Tom Cruise, ya sabe, peleando en un edificio. Y luego Chat GPT o Grok diciendo que el Holocausto no ocurrió o que un misil impactado en un edificio en el Líbano era una mascletá. Así que, en cierto modo, son cosas pequeñas, delirios absurdos de una máquina estropeada. Creo que, en general, no percibimos esa amenaza.
Oh, sin duda: tienes toda la razón. Ese es uno de los grandes desafíos que supone este trabajo.
Entonces, ¿cree usted que hay algún remedio para eso, además de leer su libro? Quiero decir, quizá veremos cómo las IA se vuelven más capaces e inteligentes, y quizá haya una ventana de tiempo en la que las IA parezcan aterradoras, pero todavía no lo son realmente y no creo que sea una percepción que se pueda cambiar en un plazo de tiempo razonable.
Una razón para tener esperanza en eso es que ChatGPT hizo que todo el mundo se diera cuenta de que la IA es algo real. Y hasta ese momento, el concepto no estaba claro para nosotros. Ya sabes, llevo más de una década en este campo. No estaba claro que la humanidad fuera a darse cuenta de verdad. Antes de ChatGPT, por lo que sabíamos, la IA iba a limitarse a hacer solo tareas de informática, solo tareas matemáticas. Y quizá la humanidad ni siquiera llegaría a notar la IA antes de que realmente despegara.
Así que tuvimos la suerte de que apareciera ChatGPT porque hizo que el mundo se diera cuenta. Quizá tengamos algo que parezca aterrador, pero que no lo sea. Eso hará que el mundo se dé cuenta aún más. Pero el problema es que la IA podría avanzar muy rápido. Y aquí volvería a fijarme en la diferencia entre humanos y monos que mencionaba antes. O si miras la evolución de la vida, si te fijas en los mamíferos. En cierto modo estos se fueron volviendo cada vez más inteligentes. Y los ratones no eran muy peligrosos. Y, ya sabes, las ardillas tampoco lo eran. Y puedes ir subiendo incluso hasta los monos. Los monos pequeños no son muy peligrosos. Y luego puedes llegar a algo relativamente más grande, como un chimpancé. Y algunas personas empiezan a decir: bueno, mira, sé que no es lo bastante inteligente como para construir armas y dispararte. Pero, ya sabes, los chimpancés son en realidad bastante inteligentes comparados con otros animales. Y sé que los chimpancés no parecen capaces de superarte en inteligencia, y no pueden, pero en realidad están bastante avanzados.
¿Y cuál es exactamente la analogía con la IA?
A lo que me refiero es: si hablamos de inteligencia, los chimpancés quizá estén en el 98% de ese espectro. Y ese último 2%, de repente, ahí están. Ya sabes, los humanos son en realidad una especie de criatura loca. Los humanos son ese tipo de criatura que puedes dejar desnudo en la sabana sin nada más que sus manos. Y van a inventar sus propias herramientas y usarán esas herramientas para hacer herramientas mejores. Y usarán esas herramientas mejoradas para hacer otras aún mejores hasta que estén inventando sus propias fábricas, hasta que estén inventando su propia maquinaria minera gigante con la que extraer uranio del suelo y fabricar sus propias armas nucleares.
Sé que piensas que eso es una locura. Y nuestros cerebros apenas son un poco más avanzados que los de los chimpancés. Y así que las I.A. hoy en día siguen siendo muy tontas comparadas con nosotros. Pero comparadas con una roca, son muy, muy inteligentes. Y quién sabe cuándo cruzarán ese pequeño margen que queda y si habrá un momento en que parezcan muy aterradoras, pero en realidad no lo sean, dando tiempo a la humanidad para reaccionar. Espero que tengamos esa advertencia, pero no está en absoluto garantizado. Así que aquí el problema es la escala temporal: en términos de tiempos y de incertidumbre, una cosa que podría pasar con las IA es que tengas IA que todavía son bastante tontas, pero lo suficientemente inteligentes como para crear una IA más inteligente. Y esa IA más inteligente puede crear otra aún más inteligente. Y esa otra aún más inteligente puede crear otra todavía más inteligente. Así que, por lo que sabemos, esto podría convertirse en un bucle de retroalimentación descontrolado.
Y, por lo que sabemos, ese bucle descontrolado podría empezar este mismo verano. O podría tardar 10 años hasta que haya algún avance interno que permita a las IA convertirse en cosas extremadamente inteligentes: realmente mucho más inteligentes.
¿Ha traslado usted esta preocupación a alguien con la capacidad suficiente como para poder tomar medidas en caso de que les convenza de no está usted siendo un simple apóstol del Apocalipsis?
He tenido conversaciones con miembros del Senado de Estados Unidos y algunos de ellos también están bastante preocupados. Y, de hecho, una de las razones por las que escribimos el libro es que yo estaba teniendo algunas de estas conversaciones con miembros del Congreso de EEUU y decían: “Estoy muy preocupado, pero no puedo hablar de ello porque suena demasiado loco”. O soltaban cosas como: “Bueno, eso es una locura”. Deberíamos poder hablar de esto, así que pensamos que quizá el libro podría ayudar. Pero, ya sabes, incluso los senadores de EE. UU. dicen: “Bueno, ¿qué podemos hacer realmente en este punto?”. Y simplemente creo que más gente en el mundo necesita darse cuenta del peligro.
Como decía antes, la gente en Silicon Valley ya ha percibido el peligro pero nuestros líderes mundiales no. Aunque creo que estamos empezando a llegar a ese punto. Ya hemos visto a gente en la ONU empezar a decir que necesitamos líneas rojas. Hemos visto que algunos senadores estadounidenses están empezando a verbalizar cosas como: “Oye, aquí hay un riesgo real de extinción”. Así que estamos avanzando. Y creo que, a medida que más gente se dé cuenta de que el peligro es real, todo se vuelve mucho más fácil. Hay una gran diferencia entre que dos personas se den cuenta de que el peligro es real, entre que dos senadores lo entiendan y que lo entiendan 51 senadores. Así que ahora mismo creo que simplemente necesitamos que más gente comprenda que hay un peligro. Y eso podría marcar una gran diferencia en nuestra respuesta.
La gente en Silicon Valley ya ha percibido el peligro pero nuestros líderes mundiales no. Aunque creo que estamos empezando a llegar a ese punto. Ya hemos visto a gente en la ONU empezar a decir que necesitamos líneas rojas.
No soy un gran experto en IA y muchos de los conceptos que expone el libro se salen con mucho de mi ámbito de trabajo. Así que estos días estuve leyendo algunas reseñas de Si alguien la crea, todos moriremos y he de decirle que hay muchas críticas positivas de expertos del sector y algunas otras personas muy enfadadas con ustedes y que les llaman “catastrofistas” y cosas peores, ¿Cómo interpretan todo el ruido que ha generado su trabajo?
Yo sí esperaba que algunas personas se enfadaran. Creo que hay varios tipos de gente enfadada. En la industria tecnológica, algunos están enfadados porque no hablamos de su idea favorita para hacer que todo funcione. Y dicen: “Bueno, creo que vamos a entrenarlo así”. Quizá eso funcione bien.
Y nosotros estamos un poco en plan: mira, una de las cosas difíciles de la IA es que no puedes hacerlo por prueba y error, porque si te equivocas lo suficiente, no tienes otra oportunidad, ¿entiendes? Y mucha ciencia avanza mediante prueba y error: alguien prueba una idea y casi funciona, pero no del todo. Y entonces vuelve al punto de partida e intenta de nuevo. En este caso, de una forma u otra, todos estos caminos llevan a lugares problemáticos. Y creo que algunas personas no quieren admitir que eso es una posibilidad porque no les gusta hacia dónde conducen esos escenarios. Y puedo entenderlo. Pero, por desgracia, el mundo no funciona en base a lo que nos resulta cómodo o incómodo. Tenemos que enfrentarnos a los hechos reales, a las preguntas reales.
Así que sí, creo que mucha gente reacciona desde el deseo de que no sea así, en lugar de afrontar si realmente lo es. Y yo desearía, tanto como cualquiera, que fuera falso que estas empresas tecnológicas tengan el poder de jugar con nuestras vidas. Pero, desearlo no lo convierte en realidad.
Yo desearía, tanto como cualquiera, que fuera falso que estas empresas tecnológicas tengan el poder de jugar con nuestras vidas. Pero, desearlo no lo convierte en realidad
Una de las críticas más repetidas es que la IA no piensa como nosotros. Dicho de otra manera: que ustedes no pueden saber cómo razona una IA.
Es cierto. Lo hemos oído y leído muchas veces: “Bueno, las máquinas no son realmente inteligentes. No razonan de verdad. No piensan de verdad. No son realmente conscientes”. Y todo esto me suena a decir: “Bueno, el submarino no nada realmente”. Vale, puedes hacer todos los argumentos que quieras sobre si nadar de verdad implica tener aletas o extremidades que se mueven para desplazarse por el agua. Y que un submarino con una hélice giratoria no está “nadando” realmente. Esa es una forma válida de definir las palabras. Pero eso no impide que el submarino se desplace por el agua muy rápido.
¿Hay un tercer escenario? Uno que no sea ni pararlo en seco o que suponga la extinción de la humanidad. ¿Existe un plan C?
Bueno, incluso si la IA no nos mata, si estas empresas tecnológicas crean superinteligencias y logran de algún modo mantenerlas bajo control, eso tampoco es bueno para la gente común. Viviríamos en un mundo en el que estos oligarcas tecnológicos tendrían un poder extraordinario sobre todos los demás. Probablemente serían más poderosos que los propios gobiernos. Dictarían cómo funcionan las cosas… Así que, francamente, no sé si el plan C nos conviene demasiado.
2