El libro que Elon Musk quiere que leas antes de que los robots nos exterminen

El jefe de una compañía pide a sus investigadores que desarrollen una máquina inteligente. Poco a poco, Prometeo, el fruto de ese encargo, domina cada vez más habilidades humanas. A la larga, sus invenciones lideran todos los sectores tecnológicos y la empresa contribuye a la prosperidad mundial. Una sola fuerza controla el planeta, respaldada por una inteligencia artificial (IA) tan poderosa que puede hacer que la vida florezca durante miles de años. Pero, ¿serán buenas sus intenciones?

Ese futurista escenario es el que plantea el físico sueco Max Tegmark al comienzo de ‘Life 3.0. Being Human in the Age of Artificial Intelligence’, un libro que acaba de publicar y en el que debate sobre “la conversación más importante de nuestro tiempo”: el futuro de la inteligencia artificial.

Si hace 4.000 millones de años “el ‘hardware’ y el ‘software’” de los organismos vivos evolucionaba (fase biológica), y si los humanos ahora mejoramos ese ‘software’ gracias al aprendizaje (etapa cultural), Tegmark plantea en el volumen lo que podría ocurrir cuando las máquinas se diseñen a sí mismas por completo en el siguiente periodo. “Nada en las leyes de la física dice que no podamos construir máquinas mucho más inteligentes que nosotros o que esa inteligencia necesite ser construida a partir de materia orgánica”, afirma este investigador.

El libro ha entusiasmado al mismísimo Elon Musk, que lleva tiempo preocupado por el futuro de los robots. “Merece la pena leer ‘Life 3.0’, escribía en un tuit el CEO de Tesla y SpaceX. ”La inteligencia artificial será lo mejor o lo peor de la humanidad, así que vamos a hacerlo bien“.

En realidad, Musk no ha conocido a este investigador del prestigioso Instituto Tecnológico de Massachusetts a través de esas páginas. Tegmark también es el presidente del Instituto por el Futuro de la Vida (FLI por sus siglas en inglés), una organización que trata de evitar los posibles inconvenientes de la inteligencia artificial.

Musk es asesor científico de esta institución, a la que ha donado 10 millones de dólares (8,4 millones de euros). Además, recientemente, tanto Tegmark como el multimillonario que pretende llegar a Marte apoyaron, junto a otros miles de expertos, 23 principios para lograr que la superinteligencia siga unos ideales éticossuperinteligencia siga unos ideales éticos.

¿Una utopía libertaria o la dominación robótica?

“Si un día tenemos éxito en desarrollar una IA de nivel humano, esto puede desencadenar una explosión de inteligencia, dejándonos muy atrás”, afirma Tegmark en el libro. A su juicio, ese es el riesgo (o la oportunidad) a la que nos enfrentamos cuando llegue Prometeo, que no se parecerá en nada a un Terminator con rostro y armas. 

Inspirándose en las opiniones de expertos o incluso en obras de ciencia ficción, este cosmólogo ha descrito en su libro doce posibles rumbos que podría seguir la sociedad “en los próximos 10.000 años”, algunos marcados por la aparición de una inteligencia muy superior a la humana. 

En algunos de los escenarios que plantea, los humanos acabamos extinguiéndonos, mientras que en otro no acabamos mal parados. Por ejemplo, podríamos disfrutar de una utopía libertaria en la que conviviéramos pacíficamente con cíborgs y robots. Las superinteligencias artificiales serían inmensamente ricas, pero los humanos, que vivirían en zonas separadas y tendrían su propia economía, no se verían afectados. Sin embargo, las máquinas sí les permitirán acabar con la pobreza y la mayoría de enfermedades.

Vivir en una dictadura liderada por una inteligencia artificial tampoco tendría por qué ser tan negativo como parece, o al menos eso expone Tegmark. Si la máquina fuera benevolente, podría gobernar el mundo y diseñar leyes “para maximizar la felicidad de los humanos”. La única pega es que tendríamos que obedecer todas sus órdenes sin rechistar.

Ese problema se subsanaría en un escenario diferente: la IA, en lugar de gobernar con puño de hierro, podría actuar como un dios protector que al menos nos permitiera controlar nuestro destino. Tampoco nos vendría mal ser nosotros las divinidades que sometan a Prometeo, aunque tendríamos que plantearnos si es ético hacerlo o nos convertiríamos en torturadores de robots como los personajes de ‘Westworld’como los personajes de ‘Westworld’.

Peor nos irá, obviamente, si la inteligencia artificial toma el control y nos destruye de un modo que ni siquiera llegamos a entender. El físico recurre en este punto a las ideas de Nick Bostrom, un filósofo de la Universidad de Oxford que también impactó a Musk con su libro ‘Superinteligencia’. Bostrom explicaba el caso de una hipotética máquina a la que se ordena fabricar tantos clips como pueda. Para obedecer esa orden, aparentemente inocua, convierte todos los recursos de la Tierra en material de oficina.

En lugar de exterminarnos para hacer clips, la IA también podría optar por encerrarnos en una suerte de museo para exhibir humanos como si fueran una reliquia, por “la misma razón que nosotros mantenemos a los pandas protegidos en los zoos [...]: como un entretenimiento curioso”.

Más inquietante aún sería aceptar nuestra propia extinción no porque las inteligencias artificiales nos dominen, sino porque realmente pensemos que son nuestros descendientes. “A cada humano se le ofrece un niño robótico adorable con espléndidas habilidades sociales que aprende de él, adopta sus valores y le hace sentir orgulloso y querido”, describe Tegmark en su libro. A su juicio, este escenario no es tan negativo como pueda parecer: al menos, la última generación de mortales podría sentirse afortunada de que sus vástagos estén a la altura.

El debate de las máquinas, del ciudadano al cosmos

Planteando todas estas futuristas hipótesis que suenan a ciencia ficción (incluso menciona que la superinteligencia podría comenzar una “expansión cósmica”), Max Tegmark plasma en ‘Life 3.0’ unas cuantas vías alternativas a la destrucción de la humanidad que presagia Musk.

Al fin y al cabo, el físico no pretende dar respuestas en su libro, sino plantear preguntas para abrir el debate sobre lo que ocurrirá cuando se destape la caja de Pandora. “Solamente cuando hayamos pensado qué tipo de futuro queremos que sea posible podremos empezar a dirigir el rumbo hacia un futuro deseable”, señala Tegmark.

El FLI ha publicado para ello una encuesta que pide opinión, entre otras cosas, sobre cuál sería el ideal de sociedad. Casi 15.000 personas han contestado ya y, sorprendentemente, la mayoría ha dicho desear la llegada de la superinteligencia. El que suponemos que no está de acuerdo con esa opinión mayoritaria es Elon Musk, que aseguraba hace unos días que la competición de las máquinas nos conducirá a la Tercera Guerra Mundial.

De un modo u otro, al CEO de Tesla parece haberle impresionado el libro de un físico tan convencido como él de que la inteligencia artificial cambiará la historia y de que hay que trabajar con cautela para que los resultados de la investigación sean seguros  para todos. Pese a ello, Tegmark se muestra más prudente que el magnate al pensar que el porvenir no tiene por qué ser apocalíptico. Es más, tal vez la humanidad se destruya ella solita antes de que llegue la superinteligencia. Ya veremos.

------------------

Las fotos son propiedad de Steve Juverston, Magnus NordenNASA RobonautWeb Summit