Javier de la Cueva (Madrid, 1962) es uno de los protagonistas anónimos del Internet español. Su nombre aparece en casos clave como la anulación del primer canon digital en el Tribunal de Justicia de la Unión Europea; la absolución de Pablo Soto, que más tarde sería concejal del Ayuntamiento de Madrid, por desarrollar una aplicación para compartir archivos por la que se le exigieron 13.000 millones de euros, o la sentencia del Tribunal Supremo que anuló las tarifas que las entidades de gestión de derechos de autor cobraban a las universidades.
Muchas de esas batallas son casi desconocidas para el gran público. Incluso aunque hayan tenido repercusiones tan importantes como impedir que la Wikipedia tenga publicidad en todo el mundo.
La última victoria de este abogado tampoco ha acaparado titulares a pesar de que establece una jurisprudencia potencialmente histórica. En los albores de la inteligencia artificial, el Tribunal Supremo ha dictaminado que todos los sistemas de decisión automática que se usen en las Administraciones Públicas deben ser transparentes para el ciudadano. Su código debe estar disponible para todos, incluidos los tribunales, como una herramienta más para fiscalizar lo público.
De la mano de la Fundación Civio, De la Cueva recordó al Alto Tribunal que la sociedad conectada necesita una “guía” para impedir que la maraña de software que la sostiene se convierta en una caja negra indescifrable. El resultado ha sido una sentencia que habla por primera vez de “democracia digital” y de la transparencia como un “derecho fundamental” asociado a ella.
Esta sentencia del Tribunal Supremo es un hito. ¿Cuáles son sus implicaciones concretas para el Estado de Derecho en la era digital?
Lo que dice la sentencia es que si la Administración Pública utiliza un algoritmo como sistema de decisión para otorgar o retirar derechos, ese sistema debe ser transparente para el ciudadano. Es decir, tenemos derecho a acceder al código con el que se imponen esos derechos y obligaciones. Hasta ahora, nuestra sociedad se regía por normas sociales (cómo comportarse en la mesa), religiosas (si pecas, vas al infierno) y jurídicas (si cometes una infracción, recibes una penalización). Sin embargo, quedaba por definir qué hacer con un nuevo tipo de norma: las normas técnicas. El Tribunal Supremo resuelve esta duda al sentenciar que esta norma técnica, escrita en lenguaje de programación, debe ser transparente y entregarse al ciudadano que la pida de manera que la pueda entender.
¿La sentencia establece cómo debe ser esa transparencia?
El Supremo establece que debe entregarse el código fuente. En cuanto haya un programa informático que utilice la Administración Pública para tomar una decisión, ese código fuente la ciudadanía tenemos derecho a conocerlo.
¿Quiere decir que esto acaba con la posibilidad de que la Administración Pública utilice algoritmos conocidos como “cajas negras”, que nadie sabe bien cómo funcionan?
Sí.
¿Esto se podría aplicar al algoritmo que utiliza Hacienda para luchar contra el fraude, por ejemplo?
Por supuesto.
¿Y a los de diagnóstico médico, de la sanidad pública?
Sí.
¿Qué ocurre cuando esos algoritmos de “caja negra” sean propiedad de un tercero? Las empresas son reacias a revelar los detalles de estos sistemas. ¿Podría implicar que la Administración tenga dificultades para contratar programas de inteligencia artificial?
Ese podría ser un efecto secundario, pero el Tribunal Supremo también ha tapado ese agujero. La sentencia resuelve este problema porque dice que cuando haya una decisión automatizada por parte de la Administración Pública, la ciudadanía tiene derecho a conocer ese código. Por lo tanto, veda a la Administración Pública la contratación de cajas negras. Si la Administración contrata a un tercero, este debe proporcionar un algoritmo con código fuente accesible para que los ciudadanos puedan ejercer su derecho a la transparencia.
La sentencia veda a la Administración Pública la contratación de algoritmos que sean 'cajas negras'
Pero además, cuidado, no solamente para la ciudadanía. La sentencia también garantiza que los tribunales puedan auditar el código para verificar si la actuación de la Administración es conforme a derecho, cumpliendo así con su mandato constitucional de control. Esta sentencia también da herramientas a la judicatura, a los jueces y a los tribunales.
En su argumentación, los magistrados introducen el concepto de “democracia digital”. ¿Había hecho esto antes el Supremo?
Es la primera vez que lo utiliza. ¿Y por qué lo hace? Porque al final de mi locución en la vista oral, lo que les pedí es que nos guiaran en la transición que estamos haciendo. Estamos pasando de un sistema donde las normas se escribían en lenguaje natural, como el que usamos para hablar, a uno donde las normas se escriben en lenguajes formales, como el código de programación. Mi petición fue: 'Guíennos sobre cómo debe ser el Estado de Derecho en esta nueva realidad'.
No es la primera vez que esto ocurre. Lo definió bien Norberto Bobbio con las etapas de los derechos humanos, que cité al final. Bobbio dice que, primero, los derechos humanos son solo ideas que están buscando instituciones que las hagan suyas y las desarrollen. Luego, instituciones como la Revolución Francesa o la Bill of Rights norteamericana las 'cristalizan' y las hacen formales. Eso es exactamente lo que ha hecho el Tribunal Supremo aquí: ha formalizado, en una síntesis muy buena, el concepto de 'democracia digital'.
El Supremo, con el término 'democracia digital', ha condensado la idea de que estas nuevas normativas e instituciones, que solo existen a través del software, deben ser transparentes
¿Y en qué consiste? En una democracia fundamentada en estas nuevas normas escritas en lenguajes formales. De eso va todo esto. Ejercemos nuestros derechos a través de herramientas digitales, y el Tribunal Supremo, con el término 'democracia digital', ha condensado la idea de que estas nuevas normativas e instituciones, que solo existen a través del software, deben ser transparentes. Le dice a la Administración que debe seguir el espíritu de la Ilustración: si antes las normas debían ser comprensibles para garantizar la seguridad jurídica, ahora los algoritmos deben ser transparentes.
Dentro de esa democracia digital, el Supremo establece que la transparencia debe ser “un derecho fundamental”. ¿Lo había definido así antes?
No, definitivamente no con la rotundidad que lo hace esta sentencia. Digamos que los hilos ya existían, pero el Tribunal Supremo ahora los ha tejido. La lógica que sigue el Tribunal, y que es la que defendimos en la vista oral, es una cadena muy clara: si no tienes información, no puedes tener libertad de pensamiento. Tu pensamiento se limita a la información que recibes. Y si no hay libertad de pensamiento, ¿qué clase de libertad de expresión puedes tener? ¿O cómo puedes participar en los asuntos públicos? Todo se empobrece: el pensamiento, la expresión, la libertad de prensa, la participación.
Por eso, el Supremo hace algo fundamental: toma el derecho a la transparencia, que en la Constitución estaba en un artículo mucho más allá de los derechos fundamentales, y lo trae 'a la parte principal'. Lo hace a través del artículo 10.2, que dice que los derechos fundamentales que están en tratados internacionales forman parte del ordenamiento jurídico español. Lo que nos dice es que la transparencia es un prius, un requisito previo. Es la base para poder pensar, expresarse, participar y, en última instancia, para construir un sistema democrático. Si no hay transparencia, no puede haber una democracia real.
¿Cree que una derivada de la sentencia puede ser que todo el software desarrollado por la Administración sea considerado un bien público y por tanto de código abierto?
No necesariamente, porque habrá supuestos en los cuales la seguridad nacional, por ejemplo, tenga mucho que decir. Y esos supuestos tendrán que tener la protección de la falta de transparencia, porque si no, no serían seguros. Es lógico que la seguridad nacional —siempre y cuando sea efectivamente seguridad nacional— sea uno de los límites de la transparencia, así como la protección de las minorías. Otro de los límites serán los datos sensibles. Imaginemos que tenemos una base de datos de rohingyás... Tendrá que hacerse una valoración caso por caso para ver si la tensión entre el interés público y el software es una tensión en la que tengamos que elegir lo público. Pero, en principio, lo que nos viene a decir es que la regla general es que es público, y luego ya la Administración Pública tendrá que batallar por qué razón un determinado código debe ser secreto.
Hablando de batallas. El Gobierno ha peleado durante siete años para no desvelar el código de Bosco (la herramienta informática que calcula si un ciudadano tiene derecho al bono social eléctrico), mientras firmaba declaraciones de derechos digitales y hablaba de la importancia de la transparencia. ¿A qué cree que se debe?
A que todavía no tenemos una cultura democrática lo suficientemente profunda en la sociedad española. Nos encontramos con que hay gente en la Administración con una personalidad acorde a la democracia, pero también hay otros que actúan bajo la premisa de “el Estado soy yo”. Su mentalidad es: “Este código lo he hecho yo, es mío y no se lo voy a enseñar a nadie”. Esa intolerancia, la idea de que la ciudadanía no tiene derecho a mirar lo que hacen, es algo que tenemos que derribar para alcanzar una verdadera cultura democrática.
Esto ocurre en todos los niveles: ayuntamientos, universidades, ministerios. Pero, por otro lado, también hay gente maravillosa que sí lo entiende. Un gran ejemplo es el Instituto Geográfico Nacional, que tiene clarísimo que los mapas que elaboran pertenecen a la ciudadanía y que su trabajo es un servicio público. Esa es la mentalidad correcta: entender que lo que uno hace como funcionario se enmarca dentro de un sistema democrático y es por el bien común. El problema es que en muchos otros sitios, sobre todo en algunos ministerios, te encuentras con barreras brutales.
En este caso, el Ministerio de Transición Ecológica recurrió a los dos paradigmas clásicos para evitar la difusión de información: la seguridad y la propiedad intelectual. El Supremo ha tumbado las dos.
Así es, el Tribunal Supremo se carga directamente las dos excusas. Con la propiedad intelectual, lo primero que dice es que se trata de un software que no tiene explotación comercial. Además, los fines de la Administración Pública son el bien común. Es de lógica, ¿cuál es el problema por enseñar un código que ha hecho y maneja la propia Administración? Y en cuanto a la seguridad, el Supremo ve muy claras las milongas que contaron en primera instancia, aquello de que si se abría el código fuente se podían hacer verdaderas barrabasadas. El tribunal lo desmonta diciendo: 'vamos a ver, cuidado, que los datos personales no los tiene el programa'. El software es solo una herramienta; para acceder a datos personales, tendría que conectarse con Hacienda mediante un convenio. Por tanto, es evidente que el programa en sí no tiene datos personales, por mucho que dijeran lo contrario el subdirector general del Ministerio o incluso el CNI.
El Tribunal Supremo deja claro que si vienes con esas alegaciones, tienes que demostrarlas. De hecho, hay un informe del relator de las Naciones Unidas que señala que la excusa de la seguridad nacional se usa en todos los países para cualquier cosa. Al final, es una excusa muy barata, muy manida y con poco recorrido.
Con el acceso al código de Bosco vendrá una auditoría. ¿Qué es lo que podemos encontrar ahí?
Lo primero que podríamos encontrar es un código de una calidad muy deficiente. Una de las tesis que manejamos, aunque sin pruebas hasta ahora, es que podría ser lo que se conoce como 'código espagueti': un código absolutamente chapucero. De esos que funcionan y se dejan estar, pero que están mal escritos, con comentarios incomprensibles y técnicamente defectuosos.
Es lógico pensar que el código es defectuoso porque sabemos que hacía mal la traslación de la ley. Cuando aplicaba los supuestos reconocidos en la norma para otorgar el bono social, el resultado no era el que la ley decía que debía ser. Así que esperamos poder encontrar y señalar dónde están exactamente esos errores.
La ejecución de este tipo de sentencias suele ser problemática. Es común que tarden mucho en entregarte la información, a veces por simple desgana o porque les molesta haber perdido el caso
Ahora bien, veremos. La ejecución de este tipo de sentencias suele ser problemática. Es común que tarden mucho en entregarte la información, a veces por simple desgana o porque les molesta haber perdido el caso. En un caso anterior, el Ministerio de Defensa tardó un año en darnos una simple tabla Excel con los pasajeros de los vuelos oficiales, y solo lo hizo cuando el juzgado les amenazó con acciones penales. Así que es posible que aquí ocurra lo mismo y tengamos que seguir apretando a través del juzgado para que cumplan la sentencia.
Otra de las principales problemáticas en cuanto a los algoritmos es quién se hace responsable cuando toman una decisión equivocada y ocasionan un daño. ¿Qué ocurre con los algoritmos que utiliza la Administración?
En España ya existe mucha jurisprudencia sobre la responsabilidad patrimonial de la Administración Pública, y esta sentencia abre la puerta a aplicarla aquí. Evidentemente, aquellas personas a las que se les negó el bono social de forma incorrecta pueden reclamar a la Administración, porque con el código en la mano podremos demostrar dónde se estaba cometiendo el error.
De hecho, la cuestión de la responsabilidad fue uno de los argumentos centrales que usamos en nuestro recurso para solicitar el código fuente. Hicimos hincapié en dos puntos. En primer lugar, saber quién es el responsable: al analizar el código, podemos identificar quién es el responsable de un posible fallo o negligencia. Y segundo, interpretar los cambios: cuando tienes acceso a diferentes versiones de un código, puedes comparar los cambios para entender la intención detrás de ellos. Es como cuando se modifica una ley: si se aumenta la pena por un delito, puedes interpretar que ha habido una problemática social que lo justifica. De la misma manera, si comparas dos versiones de un algoritmo y ves que han cambiado algo muy básico, te puede estar evidenciando que alguien hizo algo de forma muy negligente. Esta capacidad de interpretación es fundamental para poder derivar responsabilidades.
La sentencia abre la puerta a hacer auditorías en masa de los algoritmos. ¿Cree que estamos preparados o que será un derecho que se pase por alto?
Yo creo que sí. Pienso que hay gente muy buena, pero está muy oculta porque no busca la notoriedad. Si algo tiene esta sociedad española es un tejido social buenísimo que nunca está en primera línea, y hay que desconfiar mucho de quienes siempre están ahí. La resistencia francesa durante la Segunda Guerra Mundial era buena precisamente porque no era notoria.
Si algo tiene esta sociedad española es un tejido social buenísimo que nunca está en primera línea
Vivimos en una sociedad obsesionada con ser visible, con que todo el mundo te conozca, pero hay que reivindicar el papel de la invisibilidad. Hay gente fantástica en las universidades y en las administraciones públicas. Detrás de Civio, por ejemplo, hay una cantidad de personas impresionante, y el recurso de casación que ha provocado esta sentencia es producto de muchísimas conversaciones con gente muy valiosa.
Lo importante es tener las herramientas, como esta sentencia. Tejido social hay, y mucho. El tejido del software libre en España también es muy interesante, pero es un tejido que no es notorio porque no llama la atención y lo mediático no está entre sus prioridades. No necesitan salir en la televisión ni en los periódicos. Nosotros preferimos tener una resolución judicial como esta a salir en toda la prensa del mundo. Lo que queremos es trabajar.