El gran proyecto de control por reconocimiento facial en Reino Unido tropieza con un sesgo racial que cuestiona su fiabilidad: los blancos salen mejor parados

Los datos comparativos revelaron porcentajes de error muy distintos entre grupos poblacionales

Héctor Farrés

0

Un agente detuvo a un hombre tras una alerta automática en un dispositivo policial. El sistema había señalado una coincidencia facial que parecía concluyente, aunque el arrestado negó los hechos y la comprobación posterior mostró que la identificación era errónea. El fallo activó un procedimiento interno porque la detención se basó en una herramienta digital que debía reducir errores humanos, de modo que la situación generó dudas operativas inmediatas. Esa cadena de decisiones provocó revisiones internas sobre cómo se estaban usando los algoritmos en actuaciones reales.

El despliegue del reconocimiento facial en el Reino Unido avanzó mientras los datos revelaron problemas de fiabilidad asociados a determinados grupos de población. La información publicada por The Guardian situó el debate en el centro de la política de seguridad al detallar que el sistema nacional incorporaba sesgos medibles que afectaban a la identificación policial, con consecuencias importantes en controles y detenciones.

Los ensayos de laboratorio destaparon diferencias claras según el perfil analizado

Las pruebas del National Physical Laboratory indicaron que la herramienta de reconocimiento facial retrospectivo tendía a incluir de forma incorrecta a algunos grupos demográficos en los resultados de búsqueda. El laboratorio detectó que el rendimiento variaba según el origen racial, lo que obligó a documentar los márgenes de error y a advertir sobre su uso operativo sin salvaguardas suficientes.

La expansión de sistemas de vigilancia en zonas urbanas y la planificación de archivos nacionales siguieron adelante

En ese escenario de márgenes de error documentados, Londres destacó por el nivel de vigilancia ya desplegado, con una densidad estimada de unas 599 cámaras por kilómetro cuadrado y el uso de furgonetas equipadas con reconocimiento facial conectado a listas policiales. El Ministerio del Interior respaldó esa línea con financiación a siete fuerzas metropolitanas adicionales, mientras organizaciones civiles advertían del almacenamiento previsto de millones de imágenes de ciudadanos sin antecedentes.

El análisis técnico concretó las diferencias con cifras: la tasa de falsos positivos para personas blancas fue del 0,04%, frente al 4,0% en personas asiáticas y el 5,5% en personas negras. La Association of Police and Crime Commissioners explicó en un comunicado enviado a The Guardian que “esto ha significado que en algunas circunstancias sea más probable que se empareje de forma incorrecta a personas negras y asiáticas que a sus homólogos blancos”.

El aumento de cámaras y bases de datos avanza mientras crecen las advertencias sociales

Las advertencias internas se sumaron a las críticas externas. Comisionados policiales de menor rango señalaron que el informe “arroja luz sobre un sesgo incorporado preocupante”, mientras la ministra de Policía, Sarah Jones, había calificado la tecnología como “el mayor avance para atrapar delincuentes desde la coincidencia de ADN”. Charlie Whelton, responsable de políticas y campañas en la organización Liberty, afirmó que “el sesgo racial de estas estadísticas muestra los efectos reales dañinos de permitir el uso policial del reconocimiento facial sin salvaguardas adecuadas”.

El Gobierno abrió una consulta pública de 10 semanas para revisar el marco regulatorio y de privacidad, incluida la posibilidad de cruzar listas policiales con bases de datos de pasaportes y permisos de conducir. Pese a ese proceso, los compromisos ministeriales para ampliar el sistema siguieron su curso, y el diseño de una base de datos nacional avanzó mientras persistían las dudas sobre controles efectivos y uso proporcional de la tecnología.

Etiquetas
stats