Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Interior prepara un sistema de reconocimiento facial para identificar sospechosos

Cámara

elDiario.es

4

El Ministerio del Interior está probando un sistema de reconocimiento facial para identificar sospechosos. El programa utiliza un algoritmo de inteligencia artificial desarrollado por la compañía francesa Thales, especializada en tecnología militar. Según han revelado fuentes policiales a El País, el objetivo es ponerlo a disposición de la Policía Nacional, la Guardia Civil y los cuerpos regionales durante los próximos meses.

Las fuerzas de seguridad utilizarán el programa ABIS (siglas en inglés de sistema automático de identificación biométrica) para investigaciones en curso y no para la vigilancia, según ha asegurado Interior al citado medio. El sistema permitirá a los agentes cotejar las imágenes que hayan podido obtener de una cámara de seguridad, por ejemplo, con las fotografías de la base de datos de personas que ya estaban fichadas por los cuerpos policiales. En este momento una parte de los trabajos se centra en armonizar esos repositorios, que contienen millones de imágenes, para permitir que ABIS los analice. No se utilizará información procedente de otros registros, como las fotografías del DNI.

La Agencia Española de Protección de Datos (AEPD) se encuentra en contacto con Interior para analizar el desarrollo del programa y su posible impacto en los derechos de los ciudadanos. Cuestiones como durante cuánto tiempo podrá usarse la fotografía de un sospechoso para buscar coincidencias biométricas con las imágenes procedentes de la investigación de un delito están aún por dilucidar. La tecnología de reconocimiento facial está considerado uno de los usos más peligrosos de la inteligencia artificial por su gran capacidad de provocar graves perjuicios a personas que no han cometido ningún delito si el sistema se equivoca.

La UE ultima un nuevo reglamento para la inteligencia artificial que encuadra los sistemas de reconocimiento biométrico, donde se incluye el facial, entre los de riesgo más alto. Esto evitará que se puedan usar para la vigilancia indiscriminada o sin una autorización especial, en caso de que sea un agente privado el que quiera desplegarlos. Sin embargo, el texto deja la puerta abierta para su uso policial al autorizar su aplicación con “fines de prevención, detención o investigación de crímenes graves o terrorismo”.

A estos problemas se suma el hecho de que se trata de sistemas en los que se han descubierto sesgos notables para personas racializadas. En occidente, los algoritmos que utilizan estos programas han sido entrenados con bases de datos donde existe una predominancia de sujetos caucásicos, lo que hace que su margen de error escale notablemente cuando deben identificar a personas de otras características. Su sesgo racista quedó destapado durante las protestas del movimiento Black Lives Matter, tras las cuales se aplicaron moratorias a la venta de esta tecnología y se vetó su uso policial.

Desde Interior aseguran que ABIS se limita a ofrecer una serie de candidatos con el mayor parecido físico con el de una imagen introducida en el sistema, pero que siempre corresponderá a un agente llevar a cabo la identificación definitiva y decidir si se investiga a una persona o no. En cualquier caso, las dudas sobre el reconocimiento artificial también han afectado a este proyecto, que se ha retrasado varias veces y ya lleva más de tres años investigándose.

Junto al ADN o las huellas dactilares

El sistema de reconocimiento facial español se prueba en la Sección de Antropología Forense de la Comisaría General de Policía Científica de Madrid. Esta unidad trabaja habitualmente con dos posibles líneas de investigación en cada delito: el ADN y las huellas dactilares. El objetivo de Interior es que el reconocimiento facial se convierta en la tercera para de su trabajo.

La principal ventaja es que se trataría de una línea que no requeriría que los agentes cuenten con evidencias físicas del sospechoso, como el material genético o los rastros de huellas necesarios en sus investigaciones tradicionales. El problema es que los sistemas de reconocimiento facial tienen un índice de error mucho mayor que las pruebas de ADN o el cotejo de huellas dactilares.

“Cuando le presentas una imagen de una persona, el sistema te ordena las fotografías de reseña policial [unos cinco millones, según interior] desde la que más se parece a la que menos. Entonces el operador recorre las primeras posiciones en busca de una coincidencia”, declara el inspector a cargo del desarrollo a El País. “Mi equipo haría un estudio uno a uno del sujeto ofrecido por la herramienta automática. Se busca una fiabilidad muy alta, porque nuestra pericial puede condicionar una sentencia, y para eso hace falta mucha calidad de imagen”, añade.

Transparencia

En países como China o Rusia se usa la tecnología de identificación biométrica para la vigilancia masiva de los ciudadanos, un uso que la UE ha prohibido por atentar gravemente contra los derechos humanos. Sin embargo, estados europeos como Reino Unido, Países Bajos, Francia o Alemania tienen en marcha sistemas de reconocimiento facial de uso policial o se encuentran en fase piloto.

En el caso de ABIS, Interior explica que aún faltan unos meses para pensar en su aplicación definitiva por lo que aún quedan detalles por perfilar. Uno de ellos será si el programa se usa de manera centralizada por una unidad experta o si se distribuye como una herramienta más entre otras unidades.

Además de las cuestiones legales que está analizando la AEPD, los especialistas en este tipo de sistemas remarcan que la clave es la transparencia y la capacidad de auditar el trabajo de los algoritmos de manera externa. Esto no se cumple en otros algoritmos utilizados por la Policía, como el famoso VioGén, que decide el nivel de riesgo que corre una víctima de violencia machista. Interior se ha negado en repetidas ocasiones a facilitar un análisis independiente a pesar de que el sistema ha fallado y ha asignado riesgos bajos a mujeres que denunciaron y terminaron asesinadas, lo que supuso una menor protección policial y la desestimación de otras medidas especiales de distanciamiento.

Etiquetas
stats