eldiario.es

Síguenos:

Boletines

Boletines

Menú

Derecho de algoritmos 101

En las universidades, un código numérico de tres cifras suele identificar las asignaturas, refiriéndose al curso al que pertenecen y a lo avanzado de la materia.

Todavía nadie ha planteado que el funcionamiento de los sistemas informáticos deba estudiarse en facultades de derecho, y la verdad, ya estamos tardando.

- PUBLICIDAD -

Al comenzar a teclear este artículo, pensé en comenzar por un complicado ejemplo de accidente de un coche con funciones de conducción autónoma. Luego me enteré de que el asunto ya ha sido tratado en la magnífica “The Good Wife”, en el séptimo capítulo de su última temporada, titulado “Driven”, que todavía tengo pendiente de ver. Y por supuesto, la realidad no tardó en imitar al arte, ya tenemos el primer caso de un flamante Tesla Model S involucrado en un accidente mortal mientras su ¿conductor? veía una película. 

¿Me voy a meter hoy con la rebelión de las máquinas? No exactamente. Lo que reflejan estos incidentes es la problemática jurídica que provoca una máquina tan avanzada que llega a sustituir al ser humano en actos que implican toma de decisiones complejas. ¿Quién es el responsable, el humano o la máquina? En realidad, mientras no empecemos a considerar la emancipación jurídica de las inteligencias artificiales, es una disyuntiva bastante tramposa: la responsabilidad, por definición, sólo puede corresponder a un ser humano con conciencia y voluntad, que toma una decisión.

Pero refleja un problema que ya está entre nosotros. Cada vez más, la tecnología condiciona nuestra realidad jurídica. Dependemos de tal forma de sistemas informáticos, que llegan a sustituirnos en la toma de decisiones, que dilucidar la responsabilidad jurídica de determinadas acciones va a llevarnos a tener que examinar el código informático que subyace a esas acciones. Obviamente, llevar eso a juicio requerirá el concurso de un perito informático que pueda explicar semejante galimatías a un juez.

Sin embargo, eso no siempre va a ser posible. Hay sistemas informáticos tan complejos que ni siquiera existe alguien que pueda entender y desentrañar la totalidad de su funcionamiento al detalle. En otras ocasiones, lo que sucede es que el sistema evoluciona, aprende y queda, en cierta medida, fuera del control de su creador humano, cual monstruo de Frankenstein. El ejemplo perfecto es el de los vehículos autónomos: las técnicas de machine learning desarrolladas para que sus sistemas aprendan sobre la marcha, y sean capaces de enfrentarse a un entorno tan cambiante y complejo como la circulación, hacen que ya sea complicado detectar cómo y por qué se produjo el fallo.

Pero no hace falta volar tan alto para avistar los problemas que se nos avecinan. En nuestro día a día tenemos ejemplos perfectos de problemas jurídicos generados por las entrañas de un sistema informático que nadie comprende por completo.

Verán, cuando una mujer acude a una comisaría de policía a interponer una denuncia por violencia de género, se realiza una valoración del riesgo para la víctima. En resumen, de los datos que va aportando la denunciante, se van llenando ítems en un programa informático llamado VPR (Valoración Policial del Riesgo), que arroja uno de cinco resultados posibles, como explica este excelente artículo: no apreciado, bajo, medio, alto o extremo. Ahora bien, quien completa el cuestionario y da a “enviar”, es un agente de policía, y por lo tanto, es quien tiene la última palabra. El responsable del que hablábamos antes. Cabe que, a la vista del resultado, dicho agente considere que la valoración es incorrecta, así que puede repetir el proceso. Sin embargo, por lo que me cuentan los familiarizados con el sistema, el resultado sólo puede ser un grado mayor de riesgo, nunca uno inferior. Parece ser un mecanismo de seguridad similar al bisel giratorio unidireccional de los relojes de buceo: al medir el tiempo de inmersión, en caso de que el mecanismo se mueva por error, siempre advertirá al buceador de que lleva más tiempo que el real, nunca menos. Ahora bien, la valoración del riesgo es uno de los factores que los jueces de violencia sobre la mujer tendrán en cuenta a la hora de adoptar una resolución jurídica llamada “orden de protección”. Y a pesar de su eufemístico nombre, en realidad se trata de un auto de medidas cautelares que va a restringir los derechos del investigado: se le prohibirá acercarse a ciertos lugares o personas, comunicarse con ellas por cualquier medio, no podrá solicitar la custodia compartida de los hijos comunes en un proceso de divorcio…

Ya saben que, tratándose de derecho penal, ante la duda siempre hay que decidir en favor del sospechoso. Sin embargo, este sistema informático del que hablamos está aplicando la máxima contraria: ante la duda, la valoración más restrictiva. Y lo mismo me dicen que sucede con el software empleado para la progresión o regresión de grado de los internos en centros penitenciarios: en caso de repetir el informe, sólo puede resultar en una clasificación peor para el reo, nunca más favorable. Imagino que los respectivos abogados defensores tendrían algo que alegar al respecto, pero eso va a implicar valorar un código informático.

Como verán, he empleado expresiones como “me cuentan que”, “parece ser”, y no es casual. No es que se trate de inteligencias artificiales de la complejidad de un coche autónomo, es que se trata de software cerrado, privativo, cuyo código no es accesible. Por eso, cuando los partidarios del software libre dan la matraca, y se les ignora como si fueran una especie de iluminados con gorrito de papel de aluminio, los que tendríamos que hacérnoslo mirar somos todos los demás. 

¿Quieren un ejemplo todavía más inquietante? La grabación de las conversaciones telefónicas en el marco de una investigación criminal. Se realizan a través del tan nombrado como desconocido SITEL, un sistema informático inicialmente parido por Ericsson, del que no se conoce su funcionamiento interno. Ni jueces, ni fiscales, ni por supuesto abogados defensores, tienen la posibilidad de conocer las interioridades de su funcionamiento y plantear su funcionamiento en juicio. 

¿Y por qué querrían hacer algo así? Si recuerdan el juicio por el ataque DoS a la página de la Junta Electoral Central, el de la “cúpula de Anonymous”, una de las cuestiones previas que planteó la defensa para pedir la nulidad de actuaciones fue la captación de comunicaciones telefónicas entre uno de los abogados y su cliente. Me parece incomprensible que se pueda producir tal cosa, que no haya forma de prevenir algo así. Desde el momento en que un letrado asume la defensa de un sospechoso, sus datos quedan registrados en el juzgado, el mismo que debe autorizar las escuchas. En consecuencia, debería ser relativamente sencillo programar una función que desactive la escucha cuando el número telefónico del sospechoso establece comunicación con el de su abogado. Porque esa es una conversación protegida por el sacrosanto derecho de defensa, y no debería de haberse incorporado a las actuaciones. Pero como se trata de software privativo, código cerrado a cal y canto, si esto es posible o no, nunca lo sabremos.

Así que recuerden, el debate sobre el uso de software libre por las Administraciones Públicas no es cosa que solo ataña a frikis melenudos: la posibilidad de conocer, de que alguien pueda auditar cómo funcionan esos programas, es uno de los derechos más importantes que debemos conquistar en el futuro. Porque esos sistemas informáticos son los que van a afectar al resto de nuestros derechos como ciudadanos.

- PUBLICIDAD -

Comentar

Enviar comentario

Enviar Comentario

Comentarios

Ordenar por: Relevancia | Fecha