La portada de mañana
Acceder
Denigrar a España para desgastar a Sánchez, por Esther Palomera
La sexta ola ha enredado los datos de la pandemia
OPINIÓN | La caspa del decano, por Elisa Beni

España vigilará la Inteligencia Artificial como a los fármacos o los alimentos

Un sistema de reconocimiento facial, señalado por los expertos como uno de los usos de la Inteligencia Artificial que entraña más riesgos para los derechos fundamentales

El problema ya está bastante definido. Investigadores, tecnólogos o la ONU llevan varios años señalando que detrás del nombre comercial de "Inteligencia Artificial" hay algoritmos que pueden ser tan discriminadores como aquellos que los programan: sistemas opacos que bajo una falsa sensación de neutralidad matemática pueden ser tan injustos como un jefe explotador o tomar decisiones directamente desde el machismo estructural. Con las pruebas en la mano, llega la hora de la política.

Cuatro experimentos muestran cómo los algoritmos influyen para elegir pareja o candidato político

Cuatro experimentos muestran cómo los algoritmos influyen para elegir pareja o candidato político

Los presupuestos para 2022, aprobados definitivamente este martes, incluyen la creación de una Agencia Estatal para la Supervisión de la Inteligencia Artificial, independiente y con presupuesto propio. La misión del organismo será "minimizar los riesgos" de los algoritmos que se extienden por toda la sociedad, desde las redes sociales al entorno laboral, pasando por los Siri, Alexa y otros asistentes virtuales que han aterrizado en las casas a los que actúan para distribuir los recursos públicos o las ayudas.

La creación de este ente, conocido ya como la Agencia de Algoritmos, llega a través de una enmienda de Más País-Equo pactada con el Gobierno. El acuerdo incluye poco más que las líneas generales de la Agencia y su partida inicial, que será de cinco millones de euros. Un pacto que ha sido bienvenido por los especialistas, que piden que no se quede en lo cosmético y se meta de lleno en la "auditoria de algoritmos" que impida que sus efectos nocivos pasen desapercibidos.

No es una misión fácil. Se suele decir que los sistemas de Inteligencia Artificial son "cajas negras" porque todas las empresas, desde los gigantes digitales a la más pequeña startup, son muy reacias a revelar cómo funcionan. Es su patrimonio inmaterial: los detalles del buscador de Google, del reparto de tareas entre repartidores de Glovo o de encontrar el próximo contenido de moda de TikTok valen miles de millones. Antes solo había una fórmula de la Coca-Cola, ahora cada compañía digital tiene la suya.

A nadie le entra en la cabeza que una farmacéutica se niegue a que se sus productos se analicen para comprobar que no son peligrosos. Con la Inteligencia Artificial debe pasar lo mismo

Héctor Tejero Más País

"Hay que respetar la propiedad intelectual de las empresas, pero a nadie le entra en la cabeza que una farmacéutica o una empresa alimenticia se nieguen a que sus productos se analicen para comprobar que no son peligrosos. Con la Inteligencia Artificial debe pasar lo mismo", expone Héctor Tejero, coordinador político de Más País, en conversación con este medio.

"Creemos que la Agencia de Auditoría de Algoritmos debe trabajar de forma similar a cómo lo hacen las autoridades de salud pública: si tu quieres sacar un producto al mercado debes demostrar que no es perjudicial y cumplir toda una normativa de control", abunda: "El mejor ejemplo es la ley rider, que obliga a las empresas a permitir que los trabajadores accedan a los algoritmos. Si la ley que se redacta para crear esta Agencia establece criterios similares, estaríamos en el buen camino".

Crear escuela

La formación de Íñigo Errejón está en conversaciones con la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) para la redacción de la ley que debe definir las funciones de esta Agencia estatal. Parte del trabajo estará inspirado desde Bruselas, puesto que la UE ultima un Reglamento de Inteligencia Artificial que tendrá la auditoría de algoritmos como eje central. En julio la SEDIA propuso a las instituciones comunitarias que España sea el campo de pruebas para el Reglamento.

Convencer a las empresas de que permitan el examen público de sus algoritmos no será el único reto que enfrentará la nueva Agencia. También deberá establecer cómo llevar a cabo ese análisis, un terreno absolutamente inexplorado en la administración pública. Organismos como la Agencia de Protección de Datos, con la que se planea que trabaje conjuntamente, acumulan en comparación una trayectoria que se acerca ya a las tres décadas.

"Ahora mismo no hay ningún protocolo de qué es auditar un algoritmo, qué pasos hay que seguir, etc. La Agencia tendrá que crear un estándar", reconoce Tejero. "España se puede convertir en una pequeña potencia en este campo", dice.

Otra de las aspiraciones de la Agencia es que la de que las administraciones públicas den ejemplo y auditen los algoritmos que utilizan.

"La administración empieza con mal pie"

La creación de la Agencia de Algoritmos está llena de buenas intenciones. No obstante, lo cierto es que las administraciones públicas tienen una larga trayectoria a la hora de dificultar que los ciudadanos auditen los sistemas que ellas emplean. Hasta el punto de llegar a los tribunales para intentar impedirlo.

Actualmente el Tribunal Supremo tiene pendiente una recurso contencioso administrativo sobre la transparencia del bono social energético, las ayudas para familias vulnerables, presentado por la fundación a favor de la transparencia Civio. El Ministerio de Transición Ecológica se niega a entregar el código del algoritmo, pese a que el Consejo de Transparencia le instó a ello.

Ya tenemos muchas guías de buenas prácticas. Lo que necesitamos son herramientas concretas, indicaciones claras y modelos de cumplimiento

Gemma Galdón Eticas Consulting

"Es evidente que la administración pública empieza con mal pie", afea Gemma Galdón, directora de Eticas, una consultora especializada en analizar el impacto de la Inteligencia Artificial. "Nosotros hemos estado cuatro años insistiéndole al Ministerio de Interior para que permita la auditoría de VioGen [el algoritmo que analiza el riesgo de los casos de violencia de género] y no lo han permitido. Al final hemos decidido hacerlo de forma externa. Lo mismo que con RisCanvi [algoritmo que predice el riesgo de reincidencia de los presos de las cárceles catalanas]", indica.

La creación de la Agencia "es una buena noticia", pero "lo importante es que se le dote de mecanismos concretos". "Ya tenemos muchas guías de buenas prácticas genéricas, lo que necesitamos son cosas concretas, herramientas, indicaciones claras y modelos de cumplimiento", pide la experta.

Etiquetas

Descubre nuestras apps

stats