Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Las consecuencias de mandar a la guerra a 'robots asesinos'

Maqueta de un robot utilizada en una acción por la campaña Stop Killer Robots / FLICKR STOP KILLER ROBOTS

Jesús Travieso

La posibilidad de que participen robots autónomos en las guerras ha trascendido al cine. Que una máquina sin control humano acabe en el campo de batalla es una preocupación que comparten varios sectores y organizaciones sociales. Tanto que dicha cuestión forma parte de los debates de la Convención sobre Armas Convencionales de la ONU, que esta semana ha discutido en Ginebra los pasos a dar y cuál es la postura a adoptar frente a esta tecnología.

El principal peligro, según denuncian voces contrarias al desarrollo de los Lethal Autonomous Weapons Systems (LAWS), también conocidos como 'robots asesinos', está en que puedan llegar a tener la capacidad de seleccionar a los objetivos y atacar a estos por su cuenta en un conflicto. Lo mismo ocurriría si participasen en operaciones policiales, al considerar que es imposible que tengan la capacidad de aplicar la proporcionalidad y de discernir quién debe ser detenido de sus acciones y quién no.

Las reuniones de la Convención sobre Armas Convencionales ya cuentan con un precedente de prohibición de un arma que estaba siendo desarrollada por la industria militar: los láser cegadores. Fue en 1995 cuando la ONU logró un acuerdo internacional para vetar su uso en conflictos, evitando así “que miles de combatientes y de población civil se quedase ciega”, según explican desde Amnistía Internacional.

En este encuentro, marcado por un amplio debate impulsado desde sectores de la ciencia y las organizaciones de derechos humanos, los investigadores desplazados a Ginebra han ofrecido sus estudios para advertir del peligro que podría suponer que las denominadas “armas inhumanas” no sean controladas o incluso prohibidas. El motivo es que algunos países como Estados Unidos, Rusia o China ya utilizan robots semiautónomos, donde una persona es requerida para dar la orden final. Como denuncian desde la campaña Stop Killers Robots, si estos países dan un paso más hasta la autonomía completa, “otros abandonarían las políticas de moderación, iniciándose una carrera armamentística robótica”.

Entre los puntos a favor del desarrollo de estos robots está que enviarles a las guerras evitaría que los humanos participasen en las mismas, evitando las muertes militares causadas por el conflicto. También, al no caer bajo el influjo de la rabia, el miedo o la ira, estas máquinas no cometerían violaciones ni crímenes de guerra. Solo estarían programadas con un objetivo concreto que sería su base para tomar decisiones y ejecutarlas. “Siempre será una tentación reemplazar soldados por máquinas, ya que son más económicos y seguramente serían favorables a la opinión pública”, explica Camilo Serna, de la Campaña contra los 'robots asesinos', que matiza que “darle toda la responsabilidad a una máquina sobre decisiones éticas nos pondría en una situación de inferioridad frente a este tipo de aparatos”.

La acción autónoma de un prototipo podría provocar que no hubiese un responsable de su acción, según las organizaciones de derechos humanos. Esto conllevaría que un posible crimen quedase sin ser juzgado, al no estar clara la autoría intelectual de lo que ha hecho la máquina. “La rendición de cuentas, el derecho internacional, obliga a que haya responsables de las acciones y a que se recompense a las víctimas. Con un robot se rompería, ya que una máquina no es responsable de matar a alguien”, sostiene Miguel Ángel Calderón, de Amnistía Internacional. Desde Human Rights Watch, Bonnie Docherty insiste en que es “altamente improbable” que los LAWS “puedan cumplir con el derecho internacional, por no hablar de las violaciones del mismo”.

Su nula capacidad para sentir empatía y no saber identificar quién es una amenaza de quién no, al carecer de las percepciones humanas, es una de las críticas principales a esta tecnología. ¿Podrían los robots saber si alguien que dispone de un arma puede poner en peligro a otras personas? ¿Serían capaces de determinar que esa persona en realidad está herida y protegida por el derecho internacional? ¿O llegarían a diferenciar que simplemente porta una pistola o un fusil por habérsela encontrado en una zona de conflicto? Para Concepción A. Monje, investigadora del Robotics Lab de la Universidad Carlos III de Madrid, “programarles como si fueran uno de nosotros son palabras mayores”.

Según explica Monje, se les podría programar “para que dispongan de unas reglas por las que vayan guardando el histórico de lo que ven y procesan, para que así aprenda consecuencias y sepa en la próxima interacción lo que hacer”. Pero la conciencia, según la experta, es algo que ni se contempla con los robots: “Al final es una máquina que hace lo que tú le dices. Estamos muy lejos de que puedan replicar la proporcionalidad, ya que se necesita mucha información para depurar esas acciones”. Una visión que comparte Manuel González Bedia, profesor de Informática e Ingenieria de Sistemas en la Universidad de Zaragoza: “Las máquinas chequean continuamente, pero a través de un proceso mecánico, no pueden empatizar como los humanos. Pueden diferenciar en aspectos descriptivos, pero no de lo que se debería hacer moralmente”.

Otro de los riesgos, según los investigadores, es que cualquier máquina puede fallar. De esto no se librarían ni unos superrobots de millones de euros destinados a combatir y programados con algoritmos que incluyan hasta la Convención de Derechos Humanos de Ginebra. “No vamos a tener por ahora un robot que nos desobedezca. Un sistema puede fallar, y esto puede ser culpa del humano también. Hoy en día, si fallan, claramente la responsabilidad sería de una persona”, apunta la investigadora Monje. Para González Bedia, “no hay efectividad 100%, ya que los materiales que lo conforman van deteriorándose por el propio uso, además de que pueden tropezar o chocar con otros objetos”. El profesor apunta que “el principio de precaución nos dice que un error de una máquina en este caso puede tener consecuencias mucho más graves, ya que en una guerra pueden ser mortales”.

La capacidad de la ONU para impulsar un veto de los LAWS a los países que conforman la Convención de Armas Convencionales es lo que determinará su desarrollo o no. “Se puede hacer, siempre que exista un instrumento legal que prohíba su fabricación o uso con fines bélicos”, argumenta Camilo Serna. Para Miguel Ángel Calderón, el hecho de que se celebre una reunión de este tipo “demuestra que hay cierto interés de las naciones, lo cual es positivo”. El portavoz de AI apunta que en este caso se podría convencer sobre los efectos desproporcionados de los robots tal y como se hizo con los láser cegadores.

El problema está en que los países y la industria podrían no hacer caso a un posible rechazo de la ONU y lanzarse a desarrollarlos. Ahí entrarían los investigadores, que tendrían un papel determinante en si quieren formar parte del desarrollo de unas máquinas tan particulares. “La decisión de fabricar un 'robot asesino' no es solo técnica. Hay un dilema para el profesional si éste va a ir a una guerra sin control humano, y la decisión es personal”, indica Manuel González Bedia. Otro posible efecto del desarrollo de los mismos es que, si un país dispone de ellos, “podrían tener un efecto disuario para sus enemigos”, según el profesor. Las críticas de las organizaciones sociales están destinadas especialmente a la industria militar, que tendría intereses económicos en el desarrollo de estos robots, según denuncian.

“Nada nos asegura que esas mismas máquinas a las que les estamos dando la posibilidad de atacar un ejército enemigo no ataquen un ejército amigo o incluso el propio ejército al que están defendiendo”, dicen desde Stop Killer Robots, que insiste en que en un futuro de película como el que traería esta tecnología “no se cumplirían en las guerras las leyes de la guerra”.

stats