Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
El ataque limitado de Israel a Irán rebaja el temor a una guerra total en Oriente Medio
El voto en Euskadi, municipio a municipio, desde 1980
Opinión - Vivir sobre un polvorín. Por Rosa María Artal

Autómatas y cíborgs, territorio sin ley: ¿quién paga si un robot comete un delito?

En Europa y Estados Unidos se están comenzando a plantear los futuros problemas legales

Cristina Sánchez

Un robot no hará daño a un ser humano, deberá obedecer las órdenes de los seres humanos y protegerá su propia existencia, siempre que cada ley no entre en conflicto con las anteriores. Las famosas leyes de la robótica que propuso Isaac Asimov siguen formando parte del terreno de la ciencia ficción, pero nadie se ha puesto a elaborar otras que se apliquen a los casos reales.

No hay ninguna normativa específica en Europa o Estados Unidos que regule la responsabilidad de los robots, aunque alguien tiene que pagar siempre por las consecuencias de sus actos. “Se aplica lo mismo que a otro producto defectuoso, no hay diferencia porque sea un robot, una antena o unos zapatos. Si hay un fallo, se aplica la misma normativa de responsabilidad del fabricante”, explica a HojaDeRouter.com Alejandro Sánchez del Campo, abogado y editor del blog Replicante Legal.

Así están las cosas, pero cuando un robot decida comprar pastillas de éxtasis porque sus programadores le han dejado solo en el mercado de la internet profunda (este experimento ya se ha llevado a cabo, como parte de un proyecto artístico), un coche autónomo se estrelle contra un motorista por evitar atropellar a un peatón o un humanoide con dotes de enfermero controle hasta nuestro azúcar en sangre, habrá que replantearse las implicaciones legales de los robots.

“Hasta ahora no se ha planteado porque eran máquinas tontas, dedicadas a ejecutar cosas para las que estaban programadas”, detalla Sánchez del Campo. “Los robots se están normalizando, ahora es el momento de empezar a pensar acerca de ellos”, sostiene por su parte Ryan Calo, profesor en la Escuela de Derecho de la Universidad de Washington. Denuncia además que las regulaciones en materia de drones y coches inteligentes se están elaborando sin la debida ayuda de expertos en robótica.

¿QUIÉN ES EL RESPONSABLE DE UN ROBOT?

Los artistas que programaron el 'bot' drogadicto han acabado suscitando un interesante debate legal. Calo opina que sus creadores sabían que estaban haciendo algo ilícito, por lo que podrían ser considerados responsables de la adquisición de sustancias ilegales, aunque no siempre estaría tan claro. “La persona que utiliza o ha diseñado un 'bot' que termina comprando algo ilegal o que, como en un caso, emite una aparente amenaza de muerte, es complicado. Por un lado, puso algo en movimiento que infringió la ley. Por otro lado la ley, al menos en Estados Unidos, busca la intención de cometer un delito, que puede estar ausente si el comportamiento no fue anticipado”, explica Calo.

“El 'chatbot' no es responsable: es solo una herramienta que está siendo utilizada con malos propósitos”, defiende Andrea Bertolini, uno de los autores del informe Robolaw publicado hace unos meses. Financiado por la Comisión Europea, este proyecto debate las implicaciones éticas y legales de los robots y proporciona una serie de reglas generales para una posible futura regulación.

Los autores de Robolaw no creen que haya que adoptar una definición única de robot (un término que proviene de la ciencia ficción y que no creen sea útil desde una perspectiva jurídica) y abogan por un estudio caso por caso. “No puedes tratar las prótesis robóticas como los coches inteligentes, son muy diferentes los unos de los otros, son problemas diferentes con soluciones diferentes”, asegura Bertolini, investigador de la Scuola Superiore Sant'Anna de Pisa.

Cuando la responsabilidad de un accidente de tráfico deje de ser del conductor porque los coches autónomos circulen por las carreteras, ¿quién será el responsable? ¿El fabricante o el desarrollador del 'software'? ¿Y si un humano ha modificado las características del 'software', ya sea un ciberatacante o incluso el propietario? “Generalmente, la compañía que desarrolla el producto es responsable cuando algo se vuelve inseguro. El truco está cuando una compañía ha fabricado el robot pero otra ha programado las aplicaciones”, explica Ryan Calo.

Antes de que las aseguradoras acepten los nuevos retos del vehículo sin conductor, habrá que determinar la seguridad que se va a exigir al fabricante para que ese coche pueda siquiera circular. “Si tú le pides al fabricante que el coche autónomo no falle jamás, nunca va a ser comercial, porque le has puesto el listón tan alto que es difícil que lo cumpla. Si pones el listón muy alto, congelas la tecnología”, defiende Sánchez del Campo, que considera necesario evitar la creación de reglas tan estrictas en materia robótica que acaben perjudicando la innovación.

Si una compañía desarrolla una mano robótica que consigue el marcado CE pero después resulta defectuosa, la responsabilidad recae sobre el fabricante, pero ¿no sería negativo para toda la sociedad que decida cerrar su chiringuito y nadie siga investigando esa prótesis? “Una solución es crear nuevos estándares tecnológicos que aseguren mejor que el producto es seguro antes de venderlo en el mercado. Necesitaríamos un mejor sistema que no necesite la directiva de responsabilidad de producto defectuoso, sino reglas alternativas que no castiguen tanto al productor del dispositivo”, explica Bertolini.

SI EL ROBOT TIENE AUTONOMÍA, ¿SE DEBE CREAR UNA PERSONALIDAD ROBÓTICA?

Los expertos van más allá de los avances actuales y se plantean los retos legales que surgirán con los robots capaces de aprender por sí mismos, reprogramarse y tomar decisiones que el fabricante no había previsto. El informe Robolaw recoge para estos casos la eventual creación de una “personalidad electrónica” para los robots.

“Habría diferentes partes: la de responsabilidad de los fabricantes, la de los dueños [igual que el dueño de una mascota es responsable de ella] o esta figura que es una idea más utópica que es dotar a los robots de cierta responsabilidad no jurídica, para intentar que respondan por los daños causados”, detalla Jorge Camba, abogado experto en tecnología del bufete Écija.

Si un robot destinado a la seguridad fuera capaz de tomar sus propias decisiones y optara por disparar a una persona, habría que debatir las alternativas antes de meter al robot entre rejas. “¿Quién es el responsable? ¿El fabricante, la empresa de seguridad propietaria del robot, el propio robot?”, se interroga Camba.

Sánchez del Campo también se muestra a favor de dotar una responsabilidad 'ad hoc' a esos robots capaces de aprender por sí mismos y tomar decisiones. “Se podría asignar, por ejemplo, personalidad mecánica o personalidad robótica a ciertos robots que tengan ciertas capacidades, y deberías poder juzgar a ese robot. Si ese robot resulta que por ejemplo ha matado a tres personas, habrá que destruirlo”.

UN ROBOT VIVE EN TU CASA... Y SABE TODO SOBRE TI

Robear, un gigante oso blanco robótico, es por el momento un prototipo de autómata japonés para ayudar a los enfermeros a levantar pacientes de la cama y sentarlos en su sillas de ruedas. Pepper, otro de esos simpáticos robots sociales, ya trata incluso de leer nuestras emociones. Pero por muy bien que nos caigan estos robots, si se instalan en nuestros hogares, podrían llegar a saber demasiado sobre nuestras vidas.

Uno de los planteamientos que incluye el proyecto de Reglamento Europeo de Protección de Datos es la 'privacy by design', la privacidad por diseño. Se trata de “construir un dispositivo conforme a la normativa de protección de datos y no construir un dispositivo y luego pensar cómo podemos hacer para que el dispositivo cumpla, sino que el propio dispositivo vele por proteger la privacidad del usuario”, explica Camba.

En el caso de los robots cuidadores, la privacidad cobra especial importancia. “Ese robot sabe perfectamente qué medicamentos estoy tomando o si estoy mejorando, quién viene a mi casa a verme... Es un tema bastante polémico”, prosigue. “La invasión de la intimidad de estos aparatos es mucho más alta y hay que sancionarla más, no me vale el 'aceptaste unos términos y condiciones'”, asegura Sánchez del Campo, que cree que el robot debería permitirnos cambiar su configuración en todo momento.

¿UNA LEY PARA CÍBORGS?

Las modificaciones del cuerpo humano tampoco están reguladas. Aunque de momento los cíborgs son una clara minoría, el artista Neil Harbisson, que sufre una disfunción congénita que le impide distinguir más tonalidades que el blanco y el negro, ya se ha convertido en el primero reconocido por un estado: luce en la foto de su pasaporte de Reino Unido el dispositivo que se ha implantado en la cabeza para ver los colores. Por ello, Robolaw propone abrir un debate social sobre los límites de las modificaciones. “Si tú vas mejorando tu cuerpo, ¿sigues siendo humano?”, plantea Sánchez del Campo sobre este no tan futuro debate legal y bioético.

La autodeterminación, la dignidad humana y la igualdad son tres principios que podrían ayudar a dirimir qué comportamientos están permitidos en cada circunstancia cuando se trate de dispositivos que llevan a los humanos más allá de sus capacidades, según Andrea Bertolini. Este investigador opina que “la modificación de uno mismo no debería estar permitida porque la dignidad humana tiene que ser entendida como un límite objetivo a nuestra libertad”, aunque considera que habría que estudiar el problema caso por caso.

“La manera será: como no está claro, vamos a poner unos principios; por ejemplo, el ser humano no puede implantarse tecnología que le transforme en otra cosa, las personas que estén sanas no se pueden implantar dispositivos que les hagan tener capacidades por encima de la media”, opina Sánchez del Campo.

¿Qué pasará si solo las personas con alto poder adquisitivo pudieran 'mejorarse' gracias a la tecnología? ¿Acabaría la moda cíborg creando ciudadanos de primera y de segunda no solo a nivel económico, sino también físico o intelectual? ¿Deberían poner límites los reguladores para evitar esta situación? El debate está servido.

REGULAR O NO REGULAR... HE AHÍ LA CUESTIÓN

Aunque no se vaya a aprobar una ley que regule los robots de forma inmediata, los legisladores deberían al menos tratar de entender la tecnología para no prohibirla desde un primer momento. Esa es la opinión de Sánchez del Campo, que además no considera buena idea redactar una ley específica ahora mismo. De momento, los legisladores se pueden seguir basando en los principios generales del derecho.

“Yo creo que vamos a empezar a ver propuestas legislativas en Estados Unidos y seguramente en Japón, y en base a cómo regulen los demás y a los cambios estableceremos cómo abordarlo”, defiende Camba, que cree que en el futuro podrían aprobarse directivas para establecer leyes de mínimos en todos los países de la Unión Europea.

La propuesta de Ryan Calo es otra: ha pedido que en Estados de Unidos se cree una Comisión Federal Robótica de expertos que no legisle todavía sobre robots - opina que “sería prematuro” -, pero que sí sirva para dar algunas pautas a los jueces y supervise el desarrollo de aplicaciones seguras.

Sin duda el gran reto, y no solo legal, se planteará si en un futuro los robots llegan a desarrollar una inteligencia muy superior a la humana. “No sé si eso llegará a pasar, pero si ocurre, tendremos que rehacer nuestras leyes e instituciones”, concluye Calo. ¿Solucionaremos ese hipotético futuro elaborando nuevas normas o serán los robots los que resuelvan los dilemas legales de un plumazo?

-------------------------------------

Las imágenes de este artículo son propiedad, por orden de aparición, de Scott Lynch, Kenny Louie, Sam Churchill, Wikimedia Commons, Sids 1, re:publica

Etiquetas
stats