Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

IBM abandona la tecnología de reconocimiento facial por su potencial para discriminar personas por su perfil racial

Una de las imágenes del proyecto 'Gender Shades', que en 2018 avisó de los sesgos en cuanto a raza y género que detectó en la mayoría de sistemas de reconocimiento facial, incluido el de IBM.

Carlos del Castillo

1

La multinacional tecnológica IBM ha comunicado que dejará de investigar, desarrollar u ofrecer a sus clientes soluciones tecnológicas basadas en el reconocimiento facial, debido a su potencial para establecer sistemas de vigilancia que discriminen a personas en función de su perfil racial. En una carta enviada a varios senadores estadounidenses, el presidente ejecutivo de la empresa ha comunicado la medida como parte de sus propuestas “en busca de la justicia y equidad racial”.

“IBM ya no ofrece software de análisis o reconocimiento facial”, afirma en la misiva el CEO de la multinacional, Arvind Krishna. “IBM se opone firmemente y no tolerará el uso de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, el perfilado racial, las violaciones de los derechos humanos y las libertades básicas, o cualquier propósito que no sea coherente con nuestros valores y principios de confianza y transparencia”, añade.

El anuncio de IBM llega en medio del debate sobre la violencia policial en EEUU y las protestas masivas por la muerte de George Floyd, un hombre negro que falleció tras ser asfixiado durante varios minutos a través de una maniobra de inmovilización practicada por un agente local de Mineápolis (Minesota). El policía ha sido acusado de asesinato y se le ha impuesto una fianza de 1,25 millones de dólares. 

Los sistemas de reconocimiento facial, incluido el de IBM, han sido señalados por varios estudios independientes por sus sesgos raciales. Eso no ha evitado que sean utilizados por varios cuerpos policiales, no solo de EEUU sino también europeos, como la Policía de Londres. Una de las últimas investigaciones, publicada en diciembre de 2019 y elaborada por el instituto federal de investigación tecnológica de EEUU, halló “evidencias empíricas de la existencia de un alto rango de precisión para detectar diferencias demográficas en la mayoría de los algoritmos de reconocimiento facial actuales que fueron evaluados”.

La muerte de Floyd y las manifestaciones contra el racismo institucional que se han dado en todo el mundo a raíz de los hechos han derivado en el abandono de esta tecnología por parte de IBM, una de sus principales desarrolladores. “Creemos que ahora es el momento de comenzar un diálogo nacional sobre si las agencias nacionales deberían emplear la tecnología de reconocimiento facial y cómo”, afirma Krishna. “La Inteligencia Artificial es una herramienta poderosa que puede ayudar a la policía a mantener seguros a los ciudadanos. Pero sus vendedores tienen la responsabilidad compartida de garantizar que se evalúen sus sesgos, en particular cuando se utiliza en la aplicación de la ley”, añade en la carta a los senadores.

España es uno de los dos únicos países de Europa, junto a Bélgica, donde no está autorizado el uso de reconocimiento facial por parte de la policía o en investigaciones judiciales, según un análisis de la organización Algorithm Watch de diciembre de 2019. No obstante, en Marbella se prueba una tecnología denominada “reconocimiento corporal”: “Estos sistemas utilizan el estilo de caminar o la ropa de las personas para rastrearlos. Podrían reconocer caras, pero la función está deshabilitada por ahora, a la espera de una autorización legal para activarla”, explicó la organización.

Etiquetas
stats