eldiario.es

9

INTERNACIONAL

Opinión

Ya es demasiado tarde para prohibir los robots asesinos

Pedir a las empresas fabricantes de armas que no hagan robots asesinos es como pedir a los productores de refrescos que no hagan limonada

La guerra siempre ha utilizado la tecnología más avanzada posible; la caja de Pandora se abrió con la fundición del acero, si no antes

Los 'killer robots' sustituirán a los humanos en el campo de batalla

Los robots asesinos llevan en el imaginario colectivo el mismo tiempo que los propios robots.

Una respuesta a la petición de los expertos en robótica e inteligencia artificial de prohibir los “robots asesinos” –Sistemas Autónomos de Armas Letales (Laws, por sus siglas en inglés) en el lenguaje de los tratados internacionales– es la siguiente: ¿no lo deberíais haberlo pensado antes?

Personalidades como el consejero delegado de Tesla, Elon Musk, están entre los 116 especialistas que piden esa prohibición. “No tenemos mucho tiempo para actuar”, sostienen. “Una vez que se abra esta caja de Pandora, será difícil cerrarla”.

Pero se puede decir que estos sistemas ya están aquí, como el “vehículo aéreo de combate no tripulado” Taranis, desarrollado por BAE (British Aerospace) y otros. O el SGR-A1, un arma desarrollada por Samsung que apunta y dispara automáticamente a sus objetivos detectados mediante sensores e instalada ya en la frontera surcoreana. Además, se está trabajando en tanques autónomos, y el control humano de drones letales es una cuestión gradual.

Aun así, los robots asesinos han estado presentes en espíritu con nosotros tanto como los propios robots. Karel Čapek nos dio a conocer la palabra robot en su obra de 1920 RUR (Robots Universales Rossum), que en checo significa “peón”. Sus robots humanoides, fabricados por la empresa del mismo nombre para trabajos industriales, se rebelan y masacran a la raza humana. Lo han estado haciendo desde entonces, desde los Cybermen de la serie Doctor Who hasta Terminator. Pocas veces acaban bien las historias de robots.

Incluso es difícil pensar en los problemas planteados por Musk y sus cosignatarios sin un inminente apocalipsis robótico de fondo. Aunque el fin de la humanidad no está en riesgo, sabemos que en algún momento una de estas máquinas funcionará mal y habrá terribles consecuencias, como en el caso del robot policial de Omni Consumer Products en Robocop.

Un T-800 atrapado en el tiempo

Podría parecer que tales referencias restan importancia a un tema serio y letal. Vale, es cierto que un Armagedón causado por robots no sea exactamente algo frívolo, pero estas historias, por su fuerte inspiración en temores humanos profundamente arraigados, son puro entretenimiento. Sin embargo, es muy fácil resolver un debate como este basándose en la polarización de buenas y malas tecnologías. Las películas de ciencia ficción fomentan esta polarización y la idea implícita de que mientras evitemos las malas tecnologías, todo irá bien.

Los problemas, tal y como reconocen sin ninguna duda los especialistas en Laws, son más complejos. Por un lado, afectan al problema más amplio y urgente de la ética robótica. Por otro, son problemas de la propia naturaleza de la guerra y su mercantilización.

¿Cómo hacemos sistemas tecnológicos autónomos seguros y éticos? Evitar el daño a humanos infligido por robots fue el problema que exploró Isaac Asimov en Yo, robot, una colección de pequeños relatos tan influyentes que las tres leyes de robótica de Asimov a veces se discuten como si tuviesen la fuerza de las leyes de Newton. La ironía es que las historias de Asimov trataban en su mayoría de cómo tales leyes bienintencionadas podrían verse superadas por las circunstancias.

En cualquier caso, los asuntos éticos no pueden formularse fácilmente como principios iguales para todos. El historiador Yuval Noah Harari ha indicado que los coches sin conductor necesitarán algunos principios sobre cómo actuar cuando se enfrenten a un posible, inevitable y peligroso choque: ¿a quién intenta salvar el robot? Quizá, sostiene Harari, se nos ofrezcan dos modelos: el Egoísta (que da prioridad al conductor) y el Altruista (que da preferencia a los otros).

117 Países debaten sobre los "robots asesinos" y su utilización cada vez mayor

Un informe de 2012 sobre robots asesinos de Human Rights Watchestudia los peligros de estos conceptos de ciencia ficción. “Distinguir entre un civil con miedo y un combatiente enemigo amenazante requiere que un soldado comprenda las intenciones tras las acciones humanas, algo que un robot no puede hacer”, indica el informe.

Además, y a diferencia de los humanos, “los robots no están limitados por las emociones y por la capacidad de compasión, que pueden ser un freno importante a la muerte de civiles”. Pero la primera afirmación es una declaración de fe: ¿no sería mejor una evaluación de un robot mediante la biométrica que la de un soldado asustado mediante su instinto? Respecto a lo segundo, uno piensa: claro, a veces. Otras veces los humanos en las guerras violan y masacran de forma indecente.

Esto no pretende poner en duda las reflexiones del informe sobre los robots soldados autónomos que yo, por una parte, comparto. Más bien nos devuelve a la cuestión clave, que no es sobre tecnología, sino sobre guerra.

Nuestros sentimientos sobre la ética de la guerra ya son arbitrarios. “El uso de armas totalmente autónomas plantea serias cuestiones sobre la rendición de cuentas, lo que debilitaría otra herramienta para la protección de civiles”, afirma el informe de Human Rights Watch. Y es un argumento válido, pero imposible de enmarcar en cualquier contexto ético congruente mientras las armas nucleares sigan siendo legales en el derecho internacional. Aparte hay un debate continuo sobre la guerra de drones, las tecnologías de mejora de soldados y Laws que no se puede simplificar en “el hombre contra la máquina”.

Esta cuestión de tecnologías militares automatizadas está vinculada estrechamente con la naturaleza cambiante de la guerra que, en una era de terrorismo e insurgencia, ya no tiene un comienzo o un final, campos de batalla ni ejércitos. Como indica el analista estadounidense en estrategia Anthony Cordesman: “Una de las lecciones de la guerra moderna es que la guerra ya no se puede llamar guerra”. Como quiera que abordemos este asunto, ya no va a parecerse a los desembarcos del Día D.

La guerra siempre ha utilizado la tecnología más avanzada posible y los “robots asesinos” no son algo diferente. La caja de Pandora se abrió con la fundición del acero, si no antes (y prácticamente nunca ha sido la mujer quien ha abierto la caja). Puedes estar seguro de que alguien se ha beneficiado de ello.

Intentemos frenar por todos los medios nuestros peores impulsos por convertir herramientas de uso civil en armas, pero decir a una empresa fabricante de armas que no puede hacer robots asesinos es como decir a los productores de refrescos que no pueden hacer limonada.

Traducido por Javier Biosca Azcoiti

Muy Bien, has hecho Like

¿Qué tipo de error has visto?
¿La sugerencia que quieres realizar no está entre estas opciones? Puedes realizar otro tipo de consultas en eldiario.es responde.
Error ortográfico o gramatical Dato erróneo

¡Muchas gracias por tu ayuda!
El equipo de redacción de eldiario.es revisará el texto teniendo en cuenta tu reporte.

Comentar

Enviar comentario

Comentar

Comentarios

Ordenar por: Relevancia | Fecha