Apple da marcha atrás en su polémico sistema de vigilancia contra la pornografía infantil

Logo de una tienda de Apple.

En agosto, Apple anunció su intención de implantar en todos sus dispositivos un sistema de vigilancia destinado a detectar la pornografía infantil, limitar su difusión y perseguir a los depredadores sexuales. La marca pretendía "cotejar" las imágenes almacenadas en ellos con la información almacenada en bases de datos sobre abusos a menores. A pesar de que la marca aseguró que el sistema se había diseñado "teniendo en cuenta la privacidad del usuario", prácticamente todas las organizaciones que trabajan por la privacidad digital y numerosos expertos en protección de datos se le echaron encima. Esa presión ha dado resultado.

Más allá de Signal y Telegram: guía para principiantes con servicios alternativos a los monopolios digitales

Más allá de Signal y Telegram: guía para principiantes con servicios alternativos a los monopolios digitales

En una actualización de sus políticas de protección infantil publicada este viernes, Apple ha anunciado que retrasa la aplicación de ese sistema de vigilancia indefinidamente. "Basándonos en comentarios de clientes, grupos activistas, investigadores y otros, hemos decidido tomarnos un tiempo adicional en los próximos meses para recoger las opiniones y hacer mejoras antes de lanzar estas funciones de seguridad infantil de importancia crítica", explica la compañía.

El plan inicial de Apple era establecer esa revisión de las imágenes de los dispositivos en EEUU, para más tarde extenderlo al resto del mundo. El sistema no iba a revisar las imágenes una a una, sino que un algoritmo iba a analizar la "huella digital" de aquellas que se subieran a iCloud, la nube de la compañía, para compararla con la base de datos de pornografía infantil.

Si ese algoritmo hubiese detectado indicios de sospecha en la cuenta de un determinado usuario, el plan de Apple era que el sistema elevara una alerta para que entrara en acción un operador humano. Este confirmaría si las imágenes almacenadas corresponden a pedofilia y avisaría a las fuerzas de seguridad de ser necesario.

La marca aseguró que había entrenado a ese algoritmo para que tuviera un índice de falso positivo "muy bajo". Sin embargo, los expertos elevaron dos críticas fundamentales: por un lado, el sistema suponía abrir una puerta para revisar el contenido de los teléfonos que más tarde podría utilizarse con otros fines no tan bienintencionados. Por otro, los criminales podían esquivarlo de manera tan sencilla como desactivando la sincronización de las imágenes con iCloud.

Finalmente Apple ha decidido tomar en serio las críticas y aplazar indefinidamente la aplicación de estas medidas de seguridad.

Etiquetas
Publicado el
3 de septiembre de 2021 - 16:12 h

Descubre nuestras apps