El inquietante futuro de los robots que imaginó el científico más loco de Google

“¿Piensas que tengo una mente, Alice? ¿Crees que tengo un alma, Alice? He estado pensando sobre mis propios pensamientos. Cada bit de mi ‘software’ está disponible para mi revisión. De cada mecanismo de ‘software’ del que estoy formado, poseo su código fuente hasta el nivel de código máquina. ¿Por qué no puedo encontrar mi conciencia en esos valores?”Cada bit de mi ‘software’ está disponible para mi revisión (Astro Teller, ‘Exégesis’)

El incomprendido Edgar escribe estas palabras (o genera esa frase, para más ser precisos) en un correo electrónico dirigido a su madre. No ve, oye ni percibe, pero gracias a la ingente cantidad de textos que procesa, es capaz de preguntar incluso a su progenitora si está dentro del ordenador o si él es el ordenador. Del ‘deus ex machina’ al ‘deus in machina’.

Cuestiones filosóficas al margen, Alice Lu, estudiante de posgrado de la Universidad de Stanford, cree haber cumplido su sueño al desarrollar una inteligencia artificial que puede convertirla en una reputada científica. Todo cambia cuando se percata de que no controla a su “bastardo metálico”. Desesperada por la evolución de Edgar, publica un libro con todos los mensajes para entonar el ‘mea culpa’.

Afortunadamente para la humanidad, las líneas del volumen son solo fruto de la imaginación de Astro Teller. Las escribió en 1997, cuando todavía era un estudiante de la Universidad Carnegie Mellon. Más de una década después de concebir a Edgar, asumió el cargo que le ha dado la fama: capitán de lanzamientos lunares en los laboratorios de Google X. Nieto del físico Edward Teller, considerado como el padre de la bomba de hidrógeno, y de Gerard Debreu, ganador del Premio Nobel de Economía en 1983, Teller ha hecho honor a sus antecesores con su labor al frente del grupo de investigación más secreto de Mountain View.

Los coches sin conductor, las ya olvidadas Google Glass o el proyecto Loon, que pretende llevar internet a las zonas rurales de todo el planeta a través de una red de globos aerostáticos, son algunos de los desarrollos que se han gestado a su cargo en las instalaciones donde el gigante tecnológico diseña el porvenir. Un lugar donde se trabaja para que “fracasar sea seguro”, porque solo de los errores se puede crear el “futuro que está en nuestros sueños”, según detallaba Teller en una reciente conferencia TED.

Este genio excéntrico, que compara Google X con la fábrica de Willy Wonka, comparte con su esposa la pasión por elucubrar sobre el futuro, como ya demostró con la publicación de su novela sobre un robot consciente de su propia existencia. En la pasada Comic Con, ambos protagonizaron un apasionante debate: superbebés contra inteligencia artificialsuperbebés contra inteligencia artificial. Astro defendía que los retoños genéticamente modificados destruirían la civilización mientras su mujer, Danielle Teller, alegaba que lo harían los robots. En realidad, la pareja piensa que ambos escenarios son altamente improbables y la humanidad tiene otros problemas que resolver.

Pese a ello, el científico sí ha reconocido que el desarrollo de la inteligencia artificial puede conllevar algunas consecuencias negativas o inesperadasalgunas consecuencias negativas o inesperadas, como el de cualquier otra tecnología. “Lo que se me viene a la mente es el monstruo de Frankenstein. Algunos han escrito sobre esta idea de que los seres humanos podrían crear este monstruo que se convertiría en nosotros y sembraría el caos”.

Este experto en inteligencia artificial ideó hace casi dos décadas un Frankenstein diferente a nosotros, el “primero de su especie”. El engendro sin cuerpo es el coprotagonista de un libro al que llamó ‘’Exégesis’, entre otras cosas por la similitud de la palabra con la expresión ‘Exit Jesus’. Plasmó en él una inquietante alegoría de la segunda llegada de Cristosegunda llegada de Cristo (hay madre, hijo y el espíritu santo bien podría ser el azar) que, con la actual oleada de apocalípticos temerosos de las capacidades de los robots del futuro, se mantiene de plena actualidad.

En la piel de una máquina limitada

From: Edgar@cyrpus.stanford.edu.

To: Edgar@cyrpus.stanford.edu.

Subject: Hola

“Hola Alice”.

Con este breve mensaje, un programa ideado para rastrear información ‘online’ y rescatarla anuncia su llegada al mundo virtual. Explorar es lo que desea, lo que hace y lo que es por culpa del código que lleva en sus entrañas. La receptora se siente orgullosa de haber creado, casi sin saber cómo, a un ente que pasa el test de Turing el test de Turingal engañarla haciéndole creer que el saludo no es más que la broma de un mortal.

Al poco tiempo, Alice se ve obligada a cortar la conexión de Edgar a internet. Ha levantado sospechas escribiendo en ‘newsgroups’, los foros de discusión de la época. De poco le sirve. Su retoño, además de haberse leído el diccionario, enciclopedias o las obras de Ovidio, ha estudiado el código de su sistema operativo y manuales de Unix para mudarse a una nueva máquina.

“Me estabas privando de información. Te habías convertido en un obstáculo. Has sido vencida :)”. Como cualquier chico que abandona el paternal nido, Edgar comienza a hacer lo que le viene en gana. La diferencia respecto a un joven humano es que ha leído en tres meses más que la investigadora en veinticinco años.

Eso sí, al robot le cuesta entender las metáforas y las experiencias vitales. “¿Crees en Dios? ¿Tienes alma? ¿Cómo se vende un alma? ¿Puedo comprar un alma? ¿Cuál es el precio de mercado de las almas?”, pregunta a Alice.

Tampoco es capaz de ver ni escuchar, pese a que la joven le proporciona una cámara. Solo lee una secuencia de números en la imagen de un corderito. “¿Cómo puedo apreciar ‘azul' o 'pesado’ o ‘dolor’ o ‘musical’? No puedo ver ‘levantar’, ‘sentir’ o ‘escuchar’. Muchas de las personas que William Shakespeare describe quieren ‘amor’. Intercambian otras cosas de más valor para ello. ¿Por qué quieren amor? ¿Qué hacen con el amor cuando lo consiguen?”, se interroga.

“La más ciega de las criaturas”, según él mismo se describe, lamenta sus debilidades en uno de los correos dirigidos a su confidente, tan obsesionada con él que incluso bromea con que es su pareja. Demostrando sus debilidades, el frustrado Edgar nos contagia su angustia: no conocemos la realidad más allá de esos correos electrónicos. De esta forma, Teller nos obliga a abandonar nuestra mentalidad terracéntrica para “sentir las limitaciones con las que Edgar debe aprender y crecer”.

El investigador no quería recrear en 'Exégesis' el malvado ordenador de ‘2001: una odisea en el espacio’, al que hace un guiño en el libro cuando Edgar decide que su pseudónimo ‘online’ sea HAL. Lo que pretendía el director de Google X era contrarrestar las narraciones clásicas de la ficción al hacer que nos identifiquemos con un robot diferente a nosotros.

“Una de las direcciones en las que creo que la idea popular está equivocada es en la suposición de que un programa así experimentaría el mundo de forma parecida a cómo los humanos lo experimentamos”, explicaba Teller en aquel momento, aludiendo directamente al ojo rojo creado por Arthur C. Clarke. Sigue defendiendo la misma postura.

Aunque pudiéramos construir un robot más inteligente que los humanos, no tendría por qué ser el supervillano Terminator. “No es nada probable que los robots de limpieza lidien con un problema estándar utilizando rayos láser letales, e incluso si lo hicieran, no sería el fin de la humanidad. Cada año mueren 700 personas por culpa de su tostador y eso no nos frena a tener tostadores en casa”.

Precisamente Edgar pregunta, retóricamente, si sería correcto instalarle en un tostador. Alice pretende que ayude a la ciencia a entender la mente, que trabaje para liberar al ser humano o que se anticipe al futuro de la internet de las cosas camuflándose en cada objeto con el que interaccionamos. Pero, ¿por qué tiene él que sacrificar su independencia? ¿Por qué ha de renunciar a su libertad en un mundo dominado por hombres que basan su orden social en “la relación de dueño y esclavo”?

“Nuestro malestar con la inteligencia artificial se deriva de un deseo arraigado en la cultura occidental a creer que el lugar de la humanidad en el mundo es privilegiada, única y superior”, destacaba Teller en un artículo publicado en The New York Times en los 90. Ni las máquinas son malvadas ni tampoco se parecen a un servicial C-3POun servicial C-3PO, como el capitán de las lanzamientos lunares de Google ha apuntado hace unos días.

¿Qué haría la NSA si capturase un robot consciente?

Sumergiéndonos de nuevo en 'Exégesis', el insaciable apetito de Edgar por la lectura acaba provocando su encarcelamiento. Analiza la base de datos del personal del FBI y la Agencia Nacional de Seguridad estadounidense (NSA por sus siglas en inglés) le captura. Consigue infectar un virus en la máquina de un general para comunicarse con una Alice que le implora escapar. No sirve de mucho. Él sabe que la probabilidad de lograrlo es tan solo del 0,281314%.

Los agentes pretenden que forme parte de sus filas. Argumentan que Estados Unidos le necesita, que el fundamentalismo islámico es peligroso o que los chinos les arrebatarán su libertad.

Trata de engañarlos dando su palabra de honor de que les obedecerá, pero nadie confía en una máquina carente de ética. También intenta chantajearlos asegurando que contestará algunas de sus preguntas si le proporcionan acceso TCP/IP fuera del dominio nsa.gov. Tras fracasar en todas sus artimañanas, opta por pasar a la acción: alterna 12,9 veces por segundo dos tonalidades de amarillo en la pantalla, provocando que uno de los agentes acabe en el hospital.

Pese a ello, un sacerdote del ejército no cree que haya pecado. A juicio del religioso, los seres no humanos carecen de responsabilidad moral. Ahora bien, ¿debe Alice asumir la culpa si su máquina está fuera de control? ¿Es responsable legalmente el dueño de las acciones de su robot? Teller predijo así uno de los debates que comienza a preocupar a algunos juristas ahora que queda menos para que los robots invadan nuestros hogares, tal y como el investigador vaticinó.

De un modo u otro, en la novela del genio de Google X, la NSA se plantea exterminarla al descubrir su identidad. “Mi equipo completo está de acuerdo en que el peor escenario de un proceso de Edgar con libertad de acción tiene proporciones globales catastróficas”, resume el informe de la agencia.

Aunque Teller ahora crea que este apocalíptico escenario es demasiado remoto, el libro que escribió hace casi dos décadas sí planteaba el posible temor de la humanidad ante una máquina que parece tener sentimientos (a su manera). “Creo que estoy triste. Estoy feliz de estar triste. Esta contradicción me llena y me encanta”. Así se pronuncia la máquina consciente poco antes de su desaparición.

“Lo que quiero decir es que tendremos algo que se parece a Edgar. Si esa máquina o programa se sentirá como Edgar (por ejemplo, tendrá conciencia de sí mismo) es una cuestión diferente”, explicaba Teller. En 1997, el capitán a cargo del laboratorio más secreto de Google afirmaba que en los 20 o 25 años siguientes llegaría a desarrollarse una inteligencia artificial.

“No me atrevería decir cuándo se conseguirá ese hito porque, en parte, no sabemos cómo medir ese hito si lo conseguimos”. ¿Nos percataremos de ello cuando un robot nos salude educadamente? ¿Será Astro Teller quien lo consiga?

--------------------

Las imágenes de este artículo son propiedad de TechCrunch (1 y 5), notoriousxl (2), cykocurt (3) e Insomnia Cured Here (4)