Cómo reclamar cuando un algoritmo vulnera derechos: así opera el “laberinto” al que se enfrentan los consumidores
En los últimos años, los algoritmos han pasado de ser herramientas invisibles a convertirse en árbitros cotidianos de decisiones que afectan al día a día: desde hacer un examen a pasar un control adicional en el aeropuerto. Pero cuando algo sale mal, cuando un sistema automatizado discrimina, niega un servicio o trata datos sin garantías, empieza un recorrido que los expertos describen como un laberinto.
Un avance del informe de Political Watch, presentado bajo el paraguas de IA ciudadana —una plataforma integrada por 17 organizaciones que trabajan por los derechos humanos en el entorno digital—, concluye que quienes sufren daños por sistemas de inteligencia artificial se enfrentan a normas fragmentadas, autoridades con competencias difusas y procedimientos que no garantizan su reparación.
El informe, que analiza qué ocurre cuando un sistema automatizado vulnera derechos, mapea por primera vez las vías de reclamación existentes y señala los puntos en los que el proceso se atasca. Tal y como apunta la portavoz de Political Watch y representante de IA ciudadana, Celia Zafre, “el problema no es ciencia ficción”. Se trata de la primera fase de un trabajo que busca diagnosticar los obstáculos actuales antes de proponer soluciones, explica.
Un sistema pensado para supervisar, no para reparar
Cuando una persona se ve perjudicada por un algoritmo, esta tiene derecho a reclamar. Pero en la práctica, según el documento adelantado, hacerlo implica recorrer un entramado institucional y legal complejo en el que no existe una “ventanilla clara” a la que acudir.
El análisis revisa el marco internacional, europeo y español aplicable y concluye que, pese a la abundancia de normas, la regulación resulta fragmentada. “Una misma vulneración algorítmica puede quedar cubierta por varias normas a la vez o, por el contrario, no encajar plenamente en ninguna” explica Zafre.
Según el informe, el diseño institucional actual prioriza el cumplimiento regulatorio por parte de empresas y administraciones, pero no siempre ofrece mecanismos efectivos para reparar a quienes sufren el daño. “Está pensado más para regular el mercado que para reparar a quien sufre el daño”, añade.
Detectar que el daño y falta de indemnizaciones
Desde la parte técnica, la investigadora Mireia Orra subraya que el primer obstáculo aparece incluso antes de iniciar cualquier reclamación: identificar que el perjuicio proviene de un sistema de inteligencia artificial. “Es muy difícil para una persona que no se dedica a temas de tecnología detectar de dónde proviene el daño”, apunta.
El informe recoge que la aplicación de tecnología afecta a derechos fundamentales que ya cuentan con garantías —como el derecho a no ser discriminado—, pero no siempre está claro si la persona afectada debe acudir a una autoridad de protección de datos, a una inspección sectorial o a ambas vías, lo que genera incertidumbre.
Otro de los puntos críticos, según la investigadora, es la fase de resolución. Las autoridades pueden determinar que se ha vulnerado un derecho y sancionar a la entidad responsable, pero no tienen potestad para fijar indemnizaciones, lo que obliga a iniciar nuevos procedimientos para reclamar compensaciones.
El informe advierte además de la dificultad para cuantificar daños como los derivados de vulneraciones de protección de datos, un terreno en el que no existen criterios claros y en los que “habrá un dilema para establecer una indemnización”, señala Orra.
También se documentan casos en los que entidades sancionadas continúan utilizando sistemas cuestionados, lo que —según el diagnóstico— evidencia que no siempre se corrigen los efectos de estas tecnologías. Como es el caso de la Universitat Oberta de Catalunya (UOC) que pese a ser multada por utilizar reconocimiento facial en los exámenes, sigue utilizando ese sistema.
Plazos de prescripción y falta de coordinación
El informe subraya que es necesario revisar cómo funcionan los procedimientos, porque el plazo para reclamar puede agotarse mientras la autoridad aún está resolviendo el caso. Esto puede dejar a las personas afectadas sin opción de pedir una compensación incluso cuando se reconoce una vulneración. Como ejemplo, cita la sanción a Aena por el uso de reconocimiento facial en sus aeropuertos sin garantías adecuadas, donde el trámite del expediente no interrumpió el plazo de prescripción, por lo que ningún usuario ha sido indemnizado por ello.
El documento también identifica problemas de coordinación entre organismos, ya que al menos tres autoridades pueden recibir reclamaciones —como la Agencia Española de Protección de Datos, la Comisión Nacional de los Mercados y la Competencia (CNMC) o la autoridad competente en inteligencia artificial—. Cada una de las distintas autoridades con criterios propios, lo que puede provocar conflictos sobre quién debe tramitar una reclamación.
Orra concluye que “tenemos derechos digitales sobre el papel, pero no tenemos una ventanilla clara donde una persona pueda decir que un sistema de IA le ha perjudicado”.
0