<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:media="http://search.yahoo.com/mrss/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:atom="http://www.w3.org/2005/Atom"  xmlns:content="http://purl.org/rss/1.0/modules/content/" version="2.0">
  <channel>
    <title><![CDATA[elDiario.es - Reconocimiento facial]]></title>
    <link><![CDATA[https://www.eldiario.es/temas/reconocimiento-facial/]]></link>
    <description><![CDATA[elDiario.es - Reconocimiento facial]]></description>
    <language><![CDATA[es]]></language>
    <copyright><![CDATA[Copyright El Diario]]></copyright>
    <ttl>10</ttl>
    <atom:link href="https://www.eldiario.es/rss/category/tag/1002987/" rel="self" type="application/rss+xml"/>
    <item>
      <title><![CDATA[Multa de 10 millones a Aena por hacer reconocimiento facial a los pasajeros "sin justificar su necesidad"]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/multa-10-millones-aena-reconocimiento-facial-pasajeros-justificar-necesidad_1_12796042.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/66331fdd-3a20-4321-8629-1583376b1a39_16-9-discover-aspect-ratio_default_1050971.jpg" width="596" height="335" alt="Multa de 10 millones a Aena por hacer reconocimiento facial a los pasajeros &quot;sin justificar su necesidad&quot;"></p><div class="subtitles"><p class="subtitle">Protección de Datos suspende el tratamiento biométrico en los aeropuertos al constatar que el gestor aeroportuario creó una base de datos centralizada para identificar viajeros cuando existían alternativas menos intrusivas</p><p class="subtitle">Un alcalde monta su 'Gran Hermano' en Mallorca: más de 50 cámaras en un pueblo para controlar hasta los bares
</p></div><p class="article-text">
        La Agencia Espa&ntilde;ola de Protecci&oacute;n de Datos (AEPD) ha impuesto una sanci&oacute;n de 10.043.002 euros a Aena por su sistema de reconocimiento facial en los aeropuertos espa&ntilde;oles. El regulador ha ordenado adem&aacute;s la suspensi&oacute;n temporal de todo tratamiento de datos biom&eacute;tricos por parte del gestor aeroportuario, al concluir que implement&oacute; una tecnolog&iacute;a de alto riesgo para los derechos de los ciudadanos sin justificar que fuera realmente necesaria ni proporcional para el fin perseguido, que era agilizar el embarque.
    </p><p class="article-text">
        <a href="https://www.aepd.es/documento/ps-00431-2024.pdf" target="_blank" data-mrf-recirculation="links-noticia" class="link">La resoluci&oacute;n</a> carga contra la premisa de que la &ldquo;experiencia de usuario&rdquo; justifica cualquier despliegue tecnol&oacute;gico. La AEPD considera que Aena recopil&oacute; y almacen&oacute; datos biom&eacute;tricos de m&aacute;s de 62.000 pasajeros de forma centralizada sin haber realizado una Evaluaci&oacute;n de Impacto v&aacute;lida, un requisito obligatorio para desplegar este tipo de tecnolog&iacute;as invasivas.
    </p><p class="article-text">
        El organismo que dirige Lorenzo Cotino califica la falta de diligencia de la empresa p&uacute;blica como &ldquo;grave&rdquo;. Seg&uacute;n el expediente, Aena era consciente de que su programa de reconocimiento facial implicaba un tratamiento de categor&iacute;a especial y alto riesgo. Sin embargo, la compa&ntilde;&iacute;a sigui&oacute; adelante con el despliegue a pesar de haber recibido dos informes desfavorables previos de la propia Agencia durante la fase de consulta.
    </p><h2 class="article-text">Vigilancia centralizada</h2><p class="article-text">
        El n&uacute;cleo de la infracci&oacute;n no es el uso de la biometr&iacute;a, sino c&oacute;mo se dise&ntilde;&oacute; la arquitectura del sistema. Aena opt&oacute; por un modelo de &ldquo;identificaci&oacute;n biom&eacute;trica uno-a-varios&rdquo; con almacenamiento centralizado. En t&eacute;rminos t&eacute;cnicos, esto significa que la cara del pasajero no se coteja &uacute;nicamente contra su documentaci&oacute;n en el momento del paso del control, sino que se almacena en una base de datos central controlada por Aena.
    </p><p class="article-text">
        La AEPD determina que este enfoque vulnera las leyes de privacidad, que estipulan que el tratamiento de datos debe ajustarse al m&iacute;nimo imprescindible. El organismo regulador estipula que exist&iacute;an alternativas mucho menos intrusivas para lograr el mismo objetivo de seguridad y fluidez, como la autenticaci&oacute;n biom&eacute;trica local o, simplemente, el sistema tradicional de comprobaci&oacute;n visual humana que ha funcionado durante d&eacute;cadas.
    </p><p class="article-text">
        La resoluci&oacute;n afirma que el nuevo sistema implicaba &ldquo;almacenar muchos m&aacute;s datos personales&rdquo; (incluyendo detalles de la tarjeta de embarque y la identidad del viajero) en los servidores de Aena durante un periodo de hasta dos a&ntilde;os. Unas bases de datos que, para la AEPD, no eran necesarias con los m&eacute;todos tradicionales ni con arquitecturas biom&eacute;tricas m&aacute;s respetuosas con la privacidad.
    </p><h2 class="article-text">Aena recurrir&aacute;: &ldquo;Es una cuesti&oacute;n formal&rdquo;</h2><p class="article-text">
        Aena ha anunciado que recurrir&aacute; la sanci&oacute;n ante los tribunales, expresando su &ldquo;respetuosa discrepancia&rdquo; con ella. En un comunicado emitido tras conocerse la multa, la empresa defiende que la sanci&oacute;n se basa en una &ldquo;supuesta infracci&oacute;n de una obligaci&oacute;n formal&rdquo;, refiri&eacute;ndose a las deficiencias se&ntilde;aladas en su Evaluaci&oacute;n de Impacto.
    </p><p class="article-text">
        El gestor aeroportuario sostiene que los pasajeros prestaron su consentimiento &ldquo;voluntariamente&rdquo; e informado para acceder al embarque biom&eacute;trico. Sin embargo, en el &aacute;mbito de la protecci&oacute;n de datos, el consentimiento &ldquo;no valida&rdquo; un tratamiento si este es &ldquo;desproporcionado o innecesario desde su dise&ntilde;o&rdquo;, le recuerda la AEPD.
    </p><p class="article-text">
        Aena tambi&eacute;n ha querido recalcar que la seguridad de los datos nunca estuvo comprometida: &ldquo;No se ha producido ninguna brecha de seguridad y, por tanto, no ha habido ninguna filtraci&oacute;n de datos de los usuarios&rdquo;. La compa&ntilde;&iacute;a argumenta que su &uacute;nico objetivo era &ldquo;proporcionar a los pasajeros una mejor experiencia&rdquo; y asegura que trabajar&aacute; para reiniciar el programa &ldquo;tan pronto como sea posible&rdquo;.
    </p><h2 class="article-text">Suspensi&oacute;n inmediata</h2><p class="article-text">
        Hasta que Aena no demuestre que puede gestionar estos datos cumpliendo estrictamente con el Reglamento General de Protecci&oacute;n de Datos (RGPD), el reconocimiento facial se queda en tierra. La suspensi&oacute;n dictada por la AEPD se mantendr&aacute; hasta que la empresa realice una evaluaci&oacute;n de riesgos que contemple realmente los peligros para los derechos y libertades de los viajeros.
    </p><p class="article-text">
        Esta medida correctiva no afectar&aacute; a la operativa de los vuelos, ya que el sistema biom&eacute;trico conviv&iacute;a con los controles documentales tradicionales, que seguir&aacute;n operando como hasta ahora.
    </p><p class="article-text">
        La multa a Aena se suma a una tendencia creciente de los reguladores europeos de poner coto al uso indiscriminado de la biometr&iacute;a en espacios p&uacute;blicos, donde a menudo se prioriza la eficiencia operativa o comercial por encima de la privacidad de los ciudadanos. Al tratarse de una infracci&oacute;n muy grave cometida por una gran empresa &mdash;con un volumen de negocio superior a los 5.000 millones de euros&mdash;, la cuant&iacute;a de la sanci&oacute;n se ha graduado acorde a la magnitud de la entidad y el n&uacute;mero de afectados.
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/multa-10-millones-aena-reconocimiento-facial-pasajeros-justificar-necesidad_1_12796042.html]]></guid>
      <pubDate><![CDATA[Tue, 25 Nov 2025 16:59:42 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/66331fdd-3a20-4321-8629-1583376b1a39_16-9-discover-aspect-ratio_default_1050971.jpg" length="37186" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/66331fdd-3a20-4321-8629-1583376b1a39_16-9-discover-aspect-ratio_default_1050971.jpg" type="image/jpeg" fileSize="37186" width="596" height="335"/>
      <media:title><![CDATA[Multa de 10 millones a Aena por hacer reconocimiento facial a los pasajeros "sin justificar su necesidad"]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/66331fdd-3a20-4321-8629-1583376b1a39_16-9-discover-aspect-ratio_default_1050971.jpg" width="596" height="335"/>
      <media:keywords><![CDATA[Reconocimiento facial,Biometría,Agencia Española de Protección de Datos,Aena,Aeropuertos,Protección de datos]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Así es cómo las abejas podrían reconocer tu rostro]]></title>
      <link><![CDATA[https://www.eldiario.es/spin/abejas-reconocer-rostro-pm_1_12766584.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/9ed16fbf-5204-451a-9796-2d0ba16854d1_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Así es cómo las abejas podrían reconocer tu rostro"></p><div class="subtitles"><p class="subtitle">El poder visual de las abejas y lo que revela sobre la inteligencia animal
</p><p class="subtitle">Las abejas demuestran una sorprendente habilidad arquitectónica al construir sobre cimientos mal hechos
</p></div><p class="article-text">
        &iquest;Pueden los insectos reconocer un rostro humano? La respuesta, al menos en el caso de ciertas abejas, es sorprendentemente afirmativa. Diversos estudios han demostrado que las abejas pueden aprender a distinguir rostros humanos cuando <strong>se las entrena con recompensas</strong>, pese a que su cerebro es diminuto y nunca evolucion&oacute; para tal tarea. Experimentos con la especie <em>Apis mellifera</em> revelan que, mediante el aprendizaje visual, estos insectos son capaces de identificar patrones complejos como la disposici&oacute;n de los rasgos faciales.
    </p><p class="article-text">
        El experimento fundamental fue realizado por Adrian G. Dyer, Lars Chittka y colaboradores en 2005, y publicado en <a href="https://www.researchgate.net/publication/7442267_Honeybee_Apis_mellifera_vision_can_discriminate_between_and_recognise_images_of_human_faces" target="_blank" data-mrf-recirculation="links-noticia" class="link"><em>The Journal of Experimental Biology</em></a>. En &eacute;l, las abejas fueron entrenadas para volar hacia una fotograf&iacute;a de un rostro humano asociada con una recompensa azucarada y evitar otra sin premio. Sorprendentemente,<strong> lograron reconocer la imagen correcta</strong> m&aacute;s del 80 % de las veces, incluso cuando ya no hab&iacute;a recompensa.
    </p><p class="article-text">
        Para entender c&oacute;mo lo consiguen, un<a href="https://www.sciencedaily.com/releases/2010/01/100129092010.htm" target="_blank" data-mrf-recirculation="links-noticia" class="link"> estudio </a>posterior de 2010, firmado por Aurore Avargu&egrave;s-Weber, Dyer y Martin Giurfa, explor&oacute; si las abejas reconocen los rostros por rasgos individuales (ojos, nariz, boca) o por la <em>configuraci&oacute;n global</em> de esos elementos. Los resultados mostraron que las abejas distinguen <strong>patrones faciales </strong>incluso en dibujos esquem&aacute;ticos, siempre que los elementos mantengan la disposici&oacute;n t&iacute;pica del rostro humano. Cuando los rasgos se reorganizaban, el reconocimiento se desvanec&iacute;a, lo que sugiere un procesamiento &ldquo;configural&rdquo;.
    </p><h2 class="article-text">Implicaciones desafiantes sobre inteligencia y percepci&oacute;n</h2><p class="article-text">
        Estos hallazgos desaf&iacute;an la idea de que el reconocimiento facial requiere un cerebro grande y especializado. Dyer y sus compa&ntilde;eros subrayan que el cerebro de una abeja contiene<strong> menos del 0,01% del n&uacute;mero de neuronas de un humano</strong>, y aun as&iacute; logra ejecutar tareas visuales complejas. Esto sugiere que la percepci&oacute;n de configuraciones espaciales no depende tanto del tama&ntilde;o cerebral como de la eficiencia de las redes neuronales.
    </p><p class="article-text">
        M&aacute;s all&aacute; de la curiosidad biol&oacute;gica, estos estudios tienen implicaciones tecnol&oacute;gicas. La forma en que las abejas procesan y simplifican la informaci&oacute;n visual podr&iacute;a inspirar <strong>algoritmos de inteligencia artificial </strong>m&aacute;s eficientes, basados en sistemas compactos y de bajo consumo. La biolog&iacute;a, una vez m&aacute;s, ofrece claves para innovar en inteligencia artificial.
    </p><p class="article-text">
        Sin embargo, los cient&iacute;ficos insisten en <strong>una distinci&oacute;n esencial</strong>: que las abejas puedan reconocer im&aacute;genes de rostros no significa que comprendan lo que es una &ldquo;persona&rdquo;. Su aprendizaje es puramente perceptivo y no implica conciencia del significado detr&aacute;s de lo que observan.
    </p><p class="article-text">
        Un reciente art&iacute;culo de<a href="https://www.theguardian.com/environment/2023/apr/02/bees-intelligence-minds-pollination" target="_blank" data-mrf-recirculation="links-noticia" class="link"> </a><a href="https://www.theguardian.com/environment/2023/apr/02/bees-intelligence-minds-pollination" target="_blank" data-mrf-recirculation="links-noticia" class="link"><em>The Guardian</em></a> a&ntilde;ade una capa importante al debate: las abejas no solo pueden resolver tareas cognitivas complejas, sino que podr&iacute;an experimentar estados emocionales an&aacute;logos al <strong>optimismo o la frustraci&oacute;n</strong>. Esto refuerza la idea de que son criaturas con una vida mental mucho m&aacute;s rica de lo que solemos pensar.
    </p><p class="article-text">
        En definitiva, los estudios sobre la percepci&oacute;n de las abejas invitan a pensar los l&iacute;mites de la inteligencia animal. Si un cerebro del tama&ntilde;o de una semilla puede reconocer un rostro humano, quiz&aacute; debamos reconsiderar<strong> cu&aacute;nto subestimamos</strong> la mente de los seres m&aacute;s peque&ntilde;os que nos rodean.
    </p>]]></description>
      <dc:creator><![CDATA[Inma Moraleda]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/spin/abejas-reconocer-rostro-pm_1_12766584.html]]></guid>
      <pubDate><![CDATA[Sun, 16 Nov 2025 11:00:53 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/9ed16fbf-5204-451a-9796-2d0ba16854d1_16-9-discover-aspect-ratio_default_0.jpg" length="443662" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/9ed16fbf-5204-451a-9796-2d0ba16854d1_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="443662" width="1200" height="675"/>
      <media:title><![CDATA[Así es cómo las abejas podrían reconocer tu rostro]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/9ed16fbf-5204-451a-9796-2d0ba16854d1_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Abejas,Inteligencia,Reconocimiento facial]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Multa de 160.000 euros a la cadena de gimnasios Supera por imponer el acceso a través de reconocimiento facial]]></title>
      <link><![CDATA[https://www.eldiario.es/economia/multa-160-000-euros-cadena-gimnasios-supera-imponer-acceso-traves-reconocimiento-facial_1_12517505.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/6e0d3bc5-9d0a-488d-a13e-63ea031cc926_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Imagen de archivo sobre sistemas de reconocimiento facial."></p><div class="subtitles"><p class="subtitle">La Agencia Española de Protección de Datos (AEPD) considera el sistema desproporcionado y detecta varias infracciones, que la empresa ha reconocido para reducir la sanción a los 96.000 euros</p><p class="subtitle">Multas de 220.000 euros a una empresa de Alicante por usar reconocimiento facial con sus trabajadores para fichar
</p></div><p class="article-text">
        La Agencia Espa&ntilde;ola de Protecci&oacute;n de Datos (AEPD) ha sancionado con 160.000 euros al grupo Sidecu, especializado en deporte y que gestiona la cadena de gimnasios Supera, por imponer a sus socios un sistema de acceso a trav&eacute;s de reconocimiento facial, con el que infringi&oacute; varias garant&iacute;as de la legislaci&oacute;n sobre protecci&oacute;n de datos personales. La compa&ntilde;&iacute;a se ha acogido a los descuentos por &ldquo;pago voluntario&rdquo; y al &ldquo;reconocimiento de la responsabilidad&rdquo; de la infracci&oacute;n, por lo que la multa ha quedado finalmente en 96.000 euros, seg&uacute;n la resoluci&oacute;n a la que ha accedido elDiario.es.  
    </p><p class="article-text">
        Este nuevo sistema de acceso fue implantado a partir de verano de 2023 en varios gimnasios de la cadena Supera (Entrepuentes de Sevilla, San Diego de Coru&ntilde;a, La Lanera de Palencia, Palero Superior de Valladolid, y Guadalquivir de Sevilla), tras otro previo que utilizaba la huella dactilar de los usuarios. El reconocimiento facial se impuso al inicio de manera obligatoria para acceder a sus instalaciones, sin alternativa posible. 
    </p><p class="article-text">
        Varios socios se quejaron de este m&eacute;todo, por considerarlo muy invasivo y que vulneraba su intimidad, y algunas de ellas llegaron a la AEPD, que ha sancionado a la compa&ntilde;&iacute;a y obligado a suspender temporalmente y de manera inmediata esta forma de control de entradas. La AEPD recibi&oacute; en total nueve reclamaciones de socios, as&iacute; como dos denuncias contra el sistema, presentadas por la asociaci&oacute;n de consumidores Facua y por un particular. 
    </p><h2 class="article-text">Son datos personales &ldquo;de alto riesgo&rdquo;</h2><p class="article-text">
        El grupo Sidecu rechazaba las quejas de los clientes al considerar que el nuevo sistema ni siquiera trataba datos personales, ya que el reconocimiento facial no almacenaba los datos f&iacute;sicos de los clientes sino un patr&oacute;n num&eacute;rico que se asocia a los rostros de los usuarios. 
    </p><p class="article-text">
        La Agencia Espa&ntilde;ola de Protecci&oacute;n de Datos tumba la tesis de la cadena deportiva y da la raz&oacute;n a los usuarios, concluyendo que los datos biom&eacute;tricos utilizados para el acceso de los socios son datos personales y, no solo eso, sino &ldquo;de categor&iacute;a especial y de alto riesgo&rdquo;. 
    </p><p class="article-text">
        Seg&uacute;n el Reglamento de protecci&oacute;n de datos, &ldquo;para que exista un tratamiento de datos biom&eacute;tricos de car&aacute;cter personal se requiere, precisamente, que se aplique sobre la informaci&oacute;n biom&eacute;trica tomada en bruto (imagen digital de la huella, cara, grabaci&oacute;n de voz&hellip;etc) un procesamiento t&eacute;cnico (<em>software </em>o programa como el utilizado en el presente supuesto) del que se obtenga un 'patr&oacute;n biom&eacute;trico' de las muestras recogidas. Por ello, el patr&oacute;n biom&eacute;trico o plantilla biom&eacute;trica es verdaderamente el dato biom&eacute;trico de car&aacute;cter personal&rdquo;, argumenta la resoluci&oacute;n. 
    </p><p class="article-text">
        Ese patr&oacute;n num&eacute;rico es el que se asocia a los rasgos f&iacute;sicos de la persona en cuesti&oacute;n y permite identificarla, por lo que se trata de datos personales. Este tipo de datos, adem&aacute;s, est&aacute;n tipificados por la legislaci&oacute;n como datos personales de categor&iacute;a especial, &ldquo;cuyo tratamiento est&aacute; generalmente prohibido&rdquo;, recuerda la Agencia, salvo que concurran algunas excepciones, que adem&aacute;s considera que no se cumplen en este caso. 
    </p><p class="article-text">
        En cualquier caso, dado esa categor&iacute;a especial de los datos, su tratamiento hubiera requerido de unos an&aacute;lisis previos y ciertas obligaciones legales &ndash;como una evaluaci&oacute;n de impacto (EIPD)&ndash; que la compa&ntilde;&iacute;a no realiz&oacute;, por lo que tambi&eacute;n se sanciona a la empresa.
    </p><h2 class="article-text">Medida desproporcionada: hay alternativas menos invasivas</h2><p class="article-text">
        La Agencia de Protecci&oacute;n de Datos detalla varias irregularidades de la implantaci&oacute;n de este sistema de reconocimiento facial por parte de la cadena de gimnasios. Por ejemplo, advierte de que no respeta las reglas del consentimiento, entre otros motivos por la falta de libertad de los usuarios. &ldquo;Aara que se pueda considerar libre el consentimiento a un m&eacute;todo de acceso que implique el tratamiento de datos biom&eacute;tricos, el responsable del tratamiento debe establecer un m&eacute;todo alternativo para poder realizar el control de acceso, sin tener ninguna consecuencia para la persona que no quiera utilizar el control de acceso mediante un tratamiento de datos biom&eacute;tricos&rdquo;, recoge la resoluci&oacute;n. 
    </p><p class="article-text">
        Adem&aacute;s, destaca que &ldquo;se entiende que el tratamiento realizado no superar&iacute;a este triple juicio de proporcionalidad&rdquo;. La AEPD concluye que no parece &ldquo;necesario ni proporcional&rdquo; el reconocimiento facial, que supone la utilizaci&oacute;n de datos biom&eacute;tricos personales de caracter especial, &ldquo;dada la existencia de medios menos intrusivos y la relaci&oacute;n entre ventajas y desventajas&rdquo;. &ldquo;Existen otros posibles m&eacute;todos alternativos de control de acceso igual de eficaces que permitir&iacute;an cumplir con la finalidad del tratamiento, que ya se emplean en la actualidad o han sido empleados en el pasado por la reclamada, por lo que existen evidencias de que el tratamiento implantado no supera tampoco la evaluaci&oacute;n o triple juicio de proporcionalidad&rdquo;, argumenta el organismo p&uacute;blico. 
    </p>]]></description>
      <dc:creator><![CDATA[Laura Olías]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/economia/multa-160-000-euros-cadena-gimnasios-supera-imponer-acceso-traves-reconocimiento-facial_1_12517505.html]]></guid>
      <pubDate><![CDATA[Wed, 06 Aug 2025 10:38:25 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/6e0d3bc5-9d0a-488d-a13e-63ea031cc926_16-9-discover-aspect-ratio_default_0.jpg" length="61167" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/6e0d3bc5-9d0a-488d-a13e-63ea031cc926_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="61167" width="1200" height="675"/>
      <media:title><![CDATA[Multa de 160.000 euros a la cadena de gimnasios Supera por imponer el acceso a través de reconocimiento facial]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/6e0d3bc5-9d0a-488d-a13e-63ea031cc926_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Reconocimiento facial,Agencia Española de Protección de Datos,Protección de datos,Gimnasios]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Multas de 220.000 euros a una empresa de Alicante por usar reconocimiento facial con sus trabajadores para fichar]]></title>
      <link><![CDATA[https://www.eldiario.es/comunitat-valenciana/multas-220-000-euros-empresa-alicante-reconocimiento-facial-trabajadores-fichar_1_11978815.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/17c5b8b1-5587-4930-a178-07b1d80ff90c_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Multas de 220.000 euros a una empresa de Alicante por usar reconocimiento facial con sus trabajadores para fichar"></p><div class="subtitles"><p class="subtitle">La Agencia Española de Protección de Datos alerta de los "altos riesgos para los derechos y libertades fundamentales" de la tecnología biométrica</p><p class="subtitle">Hemeroteca - Multada una fábrica de Alicante por hacer reconocimiento facial a sus empleados sin avisarles </p></div><p class="article-text">
        La Agencia Espa&ntilde;ola de Protecci&oacute;n de Datos (AEPD) ha impuesto dos multas, por un importe total de 220.000 euros, a una empresa de Banyeres de Mariola (Alicante), por usar tecnolog&iacute;a de <a href="https://www.eldiario.es/temas/reconocimiento-facial/" target="_blank" data-mrf-recirculation="links-noticia" class="link">reconocimiento facial</a> en el sistema de fichaje de sus trabajadores. Un empleado de Cartonajes Ba&ntilde;eres SA formul&oacute; una solicitud de derecho de acceso el 29 de agosto de 2022 sin que, finalmente, recibiera respuesta formal de la empresa. Un mes y medio despu&eacute;s, el trabajador recurri&oacute; a la AEPD, denunciando que &ldquo;como empleado&rdquo;, la empresa &ldquo;le obliga a fichar en la entrada a su puesto de trabajo con un dispositivo de reconocimiento facial, sin alternativa de uso de otro medio distinto&rdquo;. 
    </p><p class="article-text">
        Se trataba de un terminal de reconocimiento facial 3D que captaba varias im&aacute;genes de la cara y generaba un patr&oacute;n biom&eacute;trico mediante un algoritmo matem&aacute;tico. Los datos biom&eacute;tricos se almacenaban en una base de datos del 'software' de control horario ubicado en el servidor de las instalaciones de la empresa. 
    </p><p class="article-text">
        En la copia del consentimiento sobre el tratamiento de datos personales de los empleados, aportada a la AEPD, solo se alud&iacute;a a la huella digital para el &ldquo;control del cumplimiento de la jornada laboral&rdquo;. Adem&aacute;s, seg&uacute;n el apartado de hechos probados de la resoluci&oacute;n, el documento &ldquo;no lleva ning&uacute;n apartado para seleccionar el consentimiento afirmativo, o negarlo, ni opci&oacute;n alguna para revocar el consentimiento, ni en definitiva invitaci&oacute;n alguna a aceptar una operaci&oacute;n de tratamiento&rdquo;. 
    </p><p class="article-text">
        En una visita de inspecci&oacute;n la AEPD constat&oacute; que Cartonajes Ba&ntilde;eres SA hab&iacute;a sido adquirida por el Grupo Saica el 7 de julio, un mes y medio antes de la solicitud de acceso del trabajador a cuenta del reconocimiento facial. 
    </p><p class="article-text">
        El Comit&eacute; de Protecci&oacute;n de Datos del Grupo Saica, tras la integraci&oacute;n de la filial alicantina, analiz&oacute; el sistema de fichaje y recomend&oacute; que se sustituyera &ldquo;de forma inmediata&rdquo;. A pesar de ello, &ldquo;consta acreditado&rdquo; que la empresa sigui&oacute; usando el sistema de tratamiento biom&eacute;trico facial hasta el 29 de mayo de 2023. Posteriormente, recurri&oacute; a un sistema de fichajes con tarjetas individualizadas de los empleados, propio del resto de plantas de la empresa matriz.&nbsp; 
    </p><p class="article-text">
        La AEPD comprob&oacute; durante su inspecci&oacute;n que los datos del registro de fichajes de los trabajadores, anteriores al cambio del sistema, se conservaban en un fichero y los 'hash' (el patr&oacute;n biom&eacute;trico) almacenados hab&iacute;an sido destruidos. 
    </p><p class="article-text">
        Cartonajes Ba&ntilde;eres SA se escud&oacute; en que el trabajador hab&iacute;a prestado su consentimiento expreso para el tratamiento de sus datos, entre ellos tambi&eacute;n para el biom&eacute;trico &ldquo;de la huella dactilar&rdquo; para el &ldquo;control de cumplimiento de la jornada laboral&rdquo;.&nbsp;La empresa tambi&eacute;n aleg&oacute; que el sistema de reconocimiento facial se instaur&oacute; en 2016, cuando, a su juicio, no le era de aplicaci&oacute;n la normativa estatal y europea de protecci&oacute;n de datos. La firma consideraba que se hab&iacute;a aplicado de manera retroactiva una normativa &ldquo;que no era aplicable cuando acontecieron los hechos sancionados&rdquo;.  
    </p><p class="article-text">
        La resoluci&oacute;n de la AEPD, por el contrario, recuerda que &ldquo;los hechos constitutivos de la infracci&oacute;n y que han sido probados se producen&rdquo; desde la entrada en vigor del Reglamento General de Protecci&oacute;n de Datos, una norma europea de &ldquo;plena aplicaci&oacute;n&rdquo;. 
    </p><p class="article-text">
        La empresa multada tambi&eacute;n consideraba que la agencia hab&iacute;a incurrido en una falta de proporcionalidad de la sanci&oacute;n, al no haber aplicado atenuante alguno. Sin embargo, la resoluci&oacute;n tiene en cuenta el &ldquo;grado de intencionalidad, descuido o negligencia que revele la conducta&rdquo;. 
    </p><h2 class="article-text">Nuevos escenarios con &ldquo;m&uacute;ltiples riesgos&rdquo;</h2><p class="article-text">
        La AEPD tambi&eacute;n argumenta que el tratamiento de reconocimiento facial con herramientas biom&eacute;tricas de lectura y registro &ldquo;presenta altos riesgos para los derechos y libertades fundamentales&rdquo;. 
    </p><p class="article-text">
        &ldquo;Antes de implantar un proyecto de tratamiento de datos, siempre y cuando sea probable que el mismo suponga un riesgo significativo para los derechos y libertades de las personas, como es este caso, es preciso auditar su funcionamiento, no de forma aislada sino en el marco del tratamiento concreto en que se va a emplear&rdquo;, afirma la resoluci&oacute;n. En todo caso, los responsables del uso de esta tecnolog&iacute;a deben considerar, de entrada, &ldquo;medios menos intrusivos para lograr su objetivo leg&iacute;timo de tratamiento&rdquo;. 
    </p><p class="article-text">
        El tratamiento biom&eacute;trico, recuerda la AEPD, &ldquo;conjuga&rdquo; productos tecnol&oacute;gicos que evolucionan muy r&aacute;pidamente, &ldquo;influyendo sin duda en las esencias de las operaciones de tratamiento, traslad&aacute;ndose a nuevos escenarios la exposici&oacute;n a los m&uacute;ltiples riesgos que precisan continuas reevaluaciones a los que las organizaciones deben responder a nivel t&eacute;cnico y organizativo&rdquo;. 
    </p><p class="article-text">
        Sin embargo, la empresa no aport&oacute; la Evaluaci&oacute;n de Impacto de Protecci&oacute;n de Datos Personales (EIPD) &mdash;la herramienta prevista por el reglamento europeo&mdash; que &ldquo;deber&iacute;a haber superado para llevar a cabo de tratamiento que realiz&oacute;&rdquo;. 
    </p><p class="article-text">
        &ldquo;El hecho de que la reclamada considere que no ha de llevar a cabo una EIPD&rdquo;, concluye la resoluci&oacute;n, &ldquo;no disminuye la obligaci&oacute;n general de los responsables de aplicar medidas para gestionar adecuadamente los riesgos para los derechos y libertades de los interesados&rdquo;. 
    </p><h2 class="article-text">Un &ldquo;contexto de desequilibrio de poder&rdquo;</h2><p class="article-text">
        La AEPD tambi&eacute;n considera que la situaci&oacute;n afectaba a &ldquo;todos los empleados&rdquo; (no solo al trabajador que reclam&oacute;) y, adem&aacute;s, se mantuvo la &ldquo;falta de la obligaci&oacute;n exigible&rdquo; desde que se incorpor&oacute; al reglamento europeo, en mayo de 2018. Se trata, en definitiva, de una &ldquo;infracci&oacute;n que persiste en el tiempo&rdquo;.  
    </p><p class="article-text">
        Por otro lado, la resoluci&oacute;n tambi&eacute;n destaca que la recogida y el tratamiento de datos se produce entre la empresa y los trabajadores, &ldquo;lo que implica un contexto de desequilibrio de poder entre las partes, asociado a la deficiente informaci&oacute;n del tratamiento de sus datos&rdquo;. La AEPD recuerda que la empresa indicaba a sus empleados que ten&iacute;an que &ldquo;otorgar el consentimiento expreso para el tratamiento de sus datos, incluyendo los de reconocimiento facial, cuando no se le daba otra opci&oacute;n&rdquo;. 
    </p><p class="article-text">
        La resoluci&oacute;n, <a href="https://www.aepd.es/documento/ps-00361-2023.pdf" target="_blank" data-mrf-recirculation="links-noticia" class="link">publicada el pasado viernes</a>, se convierte en &ldquo;ejecutiva&rdquo; (firme) una vez superado el plazo de un mes para interponer un recurso potestativo de resoluci&oacute;n. Adem&aacute;s, la empresa sancionada tambi&eacute;n pude plantear un recurso de reposici&oacute;n ante la directora de la agencia o un recurso contencioso-administrativo ante la Audiencia Nacional. El Grupo Saica, actual propietario de la firma sancionada, afirma que recurrir&aacute; la resoluci&oacute;n.  
    </p>]]></description>
      <dc:creator><![CDATA[Lucas Marco]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/comunitat-valenciana/multas-220-000-euros-empresa-alicante-reconocimiento-facial-trabajadores-fichar_1_11978815.html]]></guid>
      <pubDate><![CDATA[Mon, 20 Jan 2025 21:39:17 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/17c5b8b1-5587-4930-a178-07b1d80ff90c_16-9-discover-aspect-ratio_default_0.jpg" length="91063" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/17c5b8b1-5587-4930-a178-07b1d80ff90c_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="91063" width="1200" height="675"/>
      <media:title><![CDATA[Multas de 220.000 euros a una empresa de Alicante por usar reconocimiento facial con sus trabajadores para fichar]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/17c5b8b1-5587-4930-a178-07b1d80ff90c_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Comunitat Valenciana,País Valenciano,Agencia Española de Protección de Datos,Alicante,Reconocimiento facial,Biometría]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Entrenan un algoritmo para detectar enfermedades por los cambios en la temperatura de la cara]]></title>
      <link><![CDATA[https://www.eldiario.es/sociedad/algoritmo-detectar-enfermedades-cambios-temperatura-cara_1_11493959.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/bd6bdae5-36bf-4bd6-8523-8601206ea0e8_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Entrenan un algoritmo para detectar enfermedades por los cambios en la temperatura de la cara"></p><div class="subtitles"><p class="subtitle">Investigadores chinos hallan una relación entre algunos trastornos metabólicos como diabetes y el hígado graso y cambios en la temperatura facial que podrían detectarse de forma temprana con inteligencia artificial</p><p class="subtitle">Hemeroteca - Dos pacientes sin habla consiguen comunicarse gracias a implantes cerebrales y a la inteligencia artificial</p></div><p class="article-text">
        Las temperaturas en diferentes regiones del rostro est&aacute;n asociadas con varias enfermedades cr&oacute;nicas, como la diabetes y la hipertensi&oacute;n arterial, seg&uacute;n un estudio liderado por la investigadora china <a href="https://cqb.pku.edu.cn/hanlab/info/1032/1161.htm" target="_blank" data-mrf-recirculation="links-noticia" class="link">Jing-Dong Jackie Han</a> publicado este martes <a href="https://cell.com/cell-metabolism/fulltext/S1550-4131(24)00188-8" target="_blank" data-mrf-recirculation="links-noticia" class="link">en la revista </a><a href="https://cell.com/cell-metabolism/fulltext/S1550-4131(24)00188-8" target="_blank" data-mrf-recirculation="links-noticia" class="link"><em>Cell Metabolism</em></a>. Los autores han entrenado una inteligencia artificial para detectar<strong> </strong>patrones de temperatura espec&iacute;ficos en el rostro de los pacientes mediante una c&aacute;mara t&eacute;rmica y concluyen que este m&eacute;todo simple y no invasivo se podr&iacute;a utilizar en un futuro para la detecci&oacute;n temprana de este tipo de enfermedades.
    </p><p class="article-text">
        Para el trabajo, los autores analizaron las temperaturas faciales de m&aacute;s de 2.800 participantes chinos de entre 21 y 88 a&ntilde;os y utilizaron la informaci&oacute;n para entrenar modelos de inteligencia artificial que pudieran predecir la edad t&eacute;rmica de una persona. Mediante este cribado, identificaron varias regiones faciales clave donde las temperaturas estaban significativamente relacionadas con la edad y la salud, incluidas la nariz, los ojos y las mejillas. Una nariz m&aacute;s fr&iacute;a y unas mejillas m&aacute;s c&aacute;lidas, por ejemplo, pueden ser un signo revelador de un aumento de la presi&oacute;n arterial.
    </p><h3 class="article-text">Edad y temperatura</h3><p class="article-text">
        El planteamiento de partida del equipo era analizar la estructura facial 3D para predecir la edad biol&oacute;gica de las personas, lo que indica c&oacute;mo est&aacute; envejeciendo el cuerpo. Su intenci&oacute;n era saber si la temperatura de la cara podr&iacute;a ayudarles a predecir la tasa de envejecimiento y el estado de salud de las personas, un dato relevante dado que la edad biol&oacute;gica est&aacute; estrechamente relacionada con el riesgo de enfermedades, entre ellas el c&aacute;ncer y la diabetes.&nbsp;
    </p><p class="article-text">
        Los autores constataron que la temperatura de la nariz disminuye con la edad a un ritmo m&aacute;s r&aacute;pido que otras partes de la cara, lo que significa que las personas con narices m&aacute;s c&aacute;lidas tienen una edad t&eacute;rmica m&aacute;s joven y que la temperatura alrededor de los ojos tiende a aumentar con la edad.
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">Las personas con trastornos metabólicos como diabetes y enfermedad del hígado graso tenían un envejecimiento térmico más rápido</p>
          </div>

  </blockquote><p class="article-text">
        En el proceso los investigadores tambi&eacute;n descubrieron que las personas con trastornos metab&oacute;licos como diabetes y enfermedad del h&iacute;gado graso ten&iacute;an un envejecimiento t&eacute;rmico m&aacute;s r&aacute;pido y tend&iacute;an a tener temperaturas m&aacute;s altas en el &aacute;rea de los ojos que sus hom&oacute;logos sanos de la misma edad. Las personas con presi&oacute;n arterial elevada tambi&eacute;n ten&iacute;an temperatura m&aacute;s alta en las mejillas.
    </p><h3 class="article-text">Relacionado con la inflamaci&oacute;n</h3><p class="article-text">
        Al analizar las muestras de sangre de los participantes, los autores observaron que el aumento de la temperatura en la zona de los ojos y las mejillas se deb&iacute;a principalmente a un aumento de las actividades celulares relacionadas con la inflamaci&oacute;n y la lucha contra las infecciones. &ldquo;Desarrollamos el m&eacute;todo <em>ThermoFace</em> para procesar y analizar im&aacute;genes autom&aacute;ticamente y luego generamos modelos de predicci&oacute;n de enfermedades y edad t&eacute;rmica&rdquo;, escriben. La diferencia entre la edad prevista y la cronol&oacute;gica &mdash;a&ntilde;aden&mdash; est&aacute; altamente asociada con los par&aacute;metros metab&oacute;licos, el tiempo de sue&ntilde;o y es modificable mediante el ejercicio.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/b3b115eb-e4e9-4055-a083-e9d0094197ff_source-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/b3b115eb-e4e9-4055-a083-e9d0094197ff_source-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/b3b115eb-e4e9-4055-a083-e9d0094197ff_source-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/b3b115eb-e4e9-4055-a083-e9d0094197ff_source-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/b3b115eb-e4e9-4055-a083-e9d0094197ff_source-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/b3b115eb-e4e9-4055-a083-e9d0094197ff_source-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/b3b115eb-e4e9-4055-a083-e9d0094197ff_source-aspect-ratio_default_0.jpg"
                    alt="Una de las figuras del estudio, en la que se distingue el patrón de temperatura por sexo y por edades"
                >

            
            </picture>

            
            
                            <figcaption class="image-footer">
            <span class="title">
                Una de las figuras del estudio, en la que se distingue el patrón de temperatura por sexo y por edades                            </span>
                                    </figcaption>
            
                </figure><p class="article-text">
        Han, que trabaja como investigadora de la Universidad de Pek&iacute;n, cree que esta herramienta tiene el potencial de promover un envejecimiento saludable y ayudar a las personas a vivir sin enfermedades, ya que vieron que al grupo de personas a las que hicieron ejercicio diario redujo su edad t&eacute;rmica. Ahora quiere explorar si pueden utilizar im&aacute;genes faciales t&eacute;rmicas para predecir otras enfermedades, como trastornos del sue&ntilde;o o problemas cardiovasculares, ya que esta aproximaci&oacute;n, asegura, &ldquo;tiene un potencial significativo para el diagn&oacute;stico y la intervenci&oacute;n temprana de enfermedades&rdquo;.
    </p><h3 class="article-text">La cara como espejo de la salud</h3><p class="article-text">
        No es la primera vez que se utiliza el reconocimiento facial y la inteligencia artificial para el diagnostico de s&iacute;ndromes o enfermedades. En 2019, por ejemplo, se present&oacute; una aplicaci&oacute;n llamada Face2Gene que utilizaba el aprendizaje profundo para <a href="https://www.nature.com/articles/s41591-018-0279-0" target="_blank" data-mrf-recirculation="links-noticia" class="link">detectar posibles trastornos cong&eacute;nitos y del desarrollo neurol&oacute;gico</a> a partir del an&aacute;lisis de&nbsp;17.000 im&aacute;genes&nbsp;de rostros de ni&ntilde;os ya diagnosticados de 216 s&iacute;ndromes distintos. Y el hospital Johns Hopkins&nbsp;trabaja desde hace tiempo en algoritmos que<a href="https://www.wsj.com/articles/ai-and-facial-recognition-may-be-able-to-spot-stroke-and-other-diseases-6ac5d965" target="_blank" data-mrf-recirculation="links-noticia" class="link"> detecten el ictus de forma temprana</a> mediante el an&aacute;lisis de los rasgos faciales.
    </p><p class="article-text">
        <a href="https://web.unican.es/portal-investigador/personal-investigador/detalle-investigador?i=1C46D2F7BB0DDF39" target="_blank" data-mrf-recirculation="links-noticia" class="link">Domingo Gonz&aacute;lez Lamu&ntilde;o</a>, m&eacute;dico del Hospital Universitario Marqu&eacute;s de Valdecilla (Cantabria)&nbsp;experto en enfermedades metab&oacute;licas, cree que se trata de un art&iacute;culo bien estructurado y bien planteado. &ldquo;Los autores buscan tasas metab&oacute;licas ligadas a obesidad/actividad f&iacute;sica, diabetes, resistencia a la insulina o s&iacute;ndrome metab&oacute;lico&rdquo;, se&ntilde;ala. &ldquo;En general este tipo de datos equivale a ver a alguien congestionado o abotargado, pero con la IA puedes asignarlo a riesgo metab&oacute;lico&rdquo;.
    </p><p class="article-text">
        En su opini&oacute;n, usar este tipo de im&aacute;genes t&eacute;rmicas quiz&aacute; sirva tambi&eacute;n para identificar el riesgo de enfermedad cardiovascular y tal vez pueda predecir el riesgo de muerte o envejecimiento prematuro. &ldquo;Pero tambi&eacute;n puede haber un problema de confidencialidad&rdquo;, apunta. &ldquo;Aunque es probable que en China sea m&aacute;s aplicable que en otros entornos donde la privacidad est&aacute; m&aacute;s protegida&rdquo;.&nbsp;
    </p><p class="article-text">
        <a href="https://www.csic.es/es/investigaci%C3%B3n/investigadoreslara-lloret-iglesias" target="_blank" data-mrf-recirculation="links-noticia" class="link">Lara Lloret Iglesias</a>, investigadora del Instituto de F&iacute;sica de Cantabria (IFCA-CSIC) especialista en IA aplicada a la medicina, cree que el art&iacute;culo es muy interesante y presenta una manera nueva, barata y f&aacute;cil de monitorizar la salud. &ldquo;Los resultados obtenidos son prometedores, y todo indica que hay informaci&oacute;n valiosa en las im&aacute;genes t&eacute;rmicas que permite predecir ciertas enfermedades o incluso la edad&rdquo;, explica a <a href="http://eldiario.es/" target="_blank" data-mrf-recirculation="links-noticia" class="link">elDiario.es</a>. Sin embargo, considera que necesita m&aacute;s trabajo y verificaci&oacute;n, porque las variaciones t&eacute;rmicas pueden deberse a muchos factores externos no relacionados con nuestra salud.&nbsp;
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">El estudio representa un primer paso muy valioso que abre el camino para una línea de investigación con mucho potencial</p>
                <div class="quote-author">
                        <span class="name">Lara Lloret Iglesias</span>
                                        <span>—</span> Especialista en IA aplicada a la medicina del Instituto de Física de Cantabria (IFCA-CSIC)
                      </div>
          </div>

  </blockquote><p class="article-text">
        &ldquo;Aunque los investigadores han intentado homogeneizar la manera en que se tomaron los datos para eliminar el ruido causado por factores como haber subido unas escaleras o salir de un ambiente m&aacute;s o menos c&aacute;lido, es necesario estudiar en m&aacute;s detalle c&oacute;mo estas variaciones influyen en las predicciones&rdquo;, indica Lloret. &ldquo;Adem&aacute;s, el estudio se realiz&oacute; solo con individuos de una &uacute;nica etnia, los chinos Han. Por lo tanto, antes de sacar conclusiones generalizables, ser&iacute;a necesario realizar estudios con otras cohortes para ver si los resultados son compatibles&rdquo;. Pero en general, valora, el estudio &ldquo;representa un primer paso muy valioso que abre el camino para una l&iacute;nea de investigaci&oacute;n con mucho potencial&rdquo;.
    </p><p class="article-text">
        <a href="https://x.com/LuisAldamizEch" target="_blank" data-mrf-recirculation="links-noticia" class="link">Luis Aldamiz-Echevarr&iacute;a</a>, investigador de la Fundaci&oacute;n Instituto de Investigaci&oacute;n Sanitaria de Santiago [IDIS] experto en enfermedades metab&oacute;licas, cree que otra limitaci&oacute;n del estudio, adem&aacute;s de que los datos solo se hayan cogido pacientes chinos, es que las condiciones para registrar el rostro del paciente son casi de laboratorio m&aacute;s que de la pr&aacute;ctica cl&iacute;nica. &ldquo;Requiere que la persona tiene que estar en calma, relajada y con una temperatura controlada entre 20-25 grados, que no es lo que uno siempre tiene en la consulta&rdquo;, se&ntilde;ala.&nbsp;
    </p><p class="article-text">
        En general, y a pesar de otras debilidades metodol&oacute;gicas, el especialista cree que este tipo de aproximaciones podr&aacute;n tener una utilidad en el futuro, cuando se mejoren las herramientas, pero no para el diagn&oacute;stico &mdash;que a&uacute;n queda muy lejos&mdash;, sino como sistemas de seguimiento en pacientes cuya enfermedad ya se conoce. &ldquo;Imag&iacute;nate que tienes un sujeto con una enfermedad ya reconocida, como diabetes, hipertensi&oacute;n o h&iacute;gado graso&nbsp;y lo puedes monitorizar&rdquo;, explica. &ldquo;Si ves un cambio en la temperatura sabes si hay mejor&iacute;a o empeoramiento o si el tratamiento est&aacute; funcionando&rdquo;.
    </p>]]></description>
      <dc:creator><![CDATA[Antonio Martínez Ron]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/sociedad/algoritmo-detectar-enfermedades-cambios-temperatura-cara_1_11493959.html]]></guid>
      <pubDate><![CDATA[Tue, 02 Jul 2024 15:01:41 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/bd6bdae5-36bf-4bd6-8523-8601206ea0e8_16-9-discover-aspect-ratio_default_0.jpg" length="104180" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/bd6bdae5-36bf-4bd6-8523-8601206ea0e8_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="104180" width="1200" height="675"/>
      <media:title><![CDATA[Entrenan un algoritmo para detectar enfermedades por los cambios en la temperatura de la cara]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/bd6bdae5-36bf-4bd6-8523-8601206ea0e8_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Salud,Enfermedades,Pruebas diagnósticas,Tecnología,Reconocimiento facial,Medicina]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Marbella implanta el control biométrico a sus empleados contra el criterio de la Agencia de Protección de Datos]]></title>
      <link><![CDATA[https://www.eldiario.es/andalucia/malaga/marbella-implanta-control-biometrico-empleados-criterio-agencia-proteccion-datos_1_10862356.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/68645e31-db28-45d4-b3a7-e7110b7aca89_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Marbella implanta el control biométrico a sus empleados contra el criterio de la Agencia de Protección de Datos"></p><div class="subtitles"><p class="subtitle">El consistorio, que acaba de extender el sistema a la Policía Local, se propone sancionar a quienes se nieguen a ceder sus datos, a pesar de que una guía reciente de la AEPD restringe la aplicación de estos sistemas</p><p class="subtitle">La política laboral del Ayuntamiento de Marbella: 4,3 millones para contratos en fraude de ley y sanción por cargar decenas de miles de horas extra
</p></div><p class="article-text">
        Cada d&iacute;a, miles de personas pasan en Marbella (156.295 habitantes) un reconocimiento facial o ponen su dedo sobre un lector de huellas para fichar en el trabajo. El <a href="https://www.marbella.es/" target="_blank" data-mrf-recirculation="links-noticia" class="link">ayuntamiento marbell&iacute;</a>, gobernado por &Aacute;ngeles Mu&ntilde;oz (PP) recopila desde el a&ntilde;o pasado datos biom&eacute;tricos de sus trabajadores, sean funcionarios o contratados, para controlar que cumplen su jornada laboral. En total, hay unos 4.000 empleados p&uacute;blicos en el consistorio.
    </p><p class="article-text">
        Despu&eacute;s de aplicarlo a la mayor&iacute;a de las dependencias municipales, este enero ha empezado a hacerlo en la Polic&iacute;a Local, donde est&aacute; generando resistencia: varios agentes se han negado, y otros que hab&iacute;an prestado consentimiento han solicitado que se cancele el acceso a sus datos. El ayuntamiento les ha denegado la petici&oacute;n, y tampoco parece tener intenci&oacute;n de cancelar el sistema, a pesar de que <a href="https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/la-aepd-publica-una-guia-sobre-la-utilizacion-de-datos" target="_blank" data-mrf-recirculation="links-noticia" class="link">una gu&iacute;a de la Agencia Espa&ntilde;ola de Protecci&oacute;n de Datos (AEPD)</a> subraya desde noviembre la irregularidad de estos controles salvo que cumplan unos estrictos criterios de necesidad y est&eacute;n autorizados por una norma con rango de ley. 
    </p><p class="article-text">
        &ldquo;Yo me he negado a dar mis datos. Y muchos compa&ntilde;eros no est&aacute;n de acuerdo, porque entendemos que hay normativa que proh&iacute;be el uso tan de datos tan importantes como huella y reconocimiento facial&rdquo;, explica por tel&eacute;fono Sergio Ruiz, delegado de en la Polic&iacute;a Local del Sindicato de Empleados P&uacute;blicos de Marbella (SEPMA). Este sindicato ha denunciado ante el <a href="https://www.ctpdandalucia.es/" target="_blank" data-mrf-recirculation="links-noticia" class="link">Consejo de Transparencia y Protecci&oacute;n de Datos de Andaluc&iacute;a</a> la implantaci&oacute;n generalizada del control biom&eacute;trico, que el ayuntamiento <a href="https://protecciondedatos.marbella.es/registro-de-actividades-de-tratamiento/contenido/29-control-y-registro-de-jornada-de-trabajo-del-personal-funcionario-y-del-personal-laboral-al-servicio-del-ayuntamiento-de-marbella.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">aprob&oacute; por Decreto en diciembre de 2022</a>. 
    </p><p class="article-text">
        En abril de 2023 el Consejo admiti&oacute; a tr&aacute;mite la denuncia de SEPMA, y se dio un plazo de 18 meses para resolver. Desde entonces, Marbella ha seguido recopilando datos de trabajadores de Urbanismo, V&iacute;a P&uacute;blica, servicios centrales y, ahora, la Polic&iacute;a Local. Tambi&eacute;n ha abierto expedientes disciplinarios a al menos dos trabajadores del servicio de Parques y Jardines que se negaron a facilitar los datos, seg&uacute;n ha podido comprobar elDiario.es Andaluc&iacute;a.
    </p><p class="article-text">
        El ayuntamiento de Marbella no ha contestado a las preguntas formuladas por este medio. &nbsp;
    </p><h3 class="article-text">Nueva gu&iacute;a de la AEPD</h3><p class="article-text">
        Los datos biom&eacute;tricos entran dentro de la categor&iacute;a de datos personales protegidos por el art&iacute;culo 18.4, y el Tribunal Constitucional ha subrayado que el derecho fundamental garantiza que toda persona debe poder controlar el uso y destino de sus datos.
    </p><p class="article-text">
        La insistencia del consistorio marbell&iacute; parece chocar con la nueva gu&iacute;a sobre &ldquo;tratamientos de control de presencia mediante sistemas biom&eacute;tricos&rdquo;, <a href="https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/la-aepd-publica-una-guia-sobre-la-utilizacion-de-datos" target="_blank" data-mrf-recirculation="links-noticia" class="link">publicada por la AEPD el pasado 23 de noviembre</a>. En ella se fijan los criterios de uso de la tecnolog&iacute;a tanto con fines laborales como no laborales. La utilizaci&oacute;n de datos biom&eacute;tricos supone un tratamiento de categor&iacute;as especiales de &ldquo;datos de alto riesgo&rdquo;, seg&uacute;n subraya la agencia p&uacute;blica, que impone l&iacute;mites &ldquo;estrictos&rdquo; para tratar estos datos y superar los an&aacute;lisis de &ldquo;idoneidad, necesidad y proporcionalidad&rdquo;. La nueva gu&iacute;a pretende adaptar la pr&aacute;ctica espa&ntilde;ola a las directrices del Comit&eacute; Europeo de Protecci&oacute;n de Datos, bajo un criterio general de prohibici&oacute;n del tratamiento de estos datos, con excepciones tasadas. 
    </p><p class="article-text">
        A diferencia de otros pa&iacute;ses europeos, hasta noviembre el criterio era que el sistema se consideraba v&aacute;lido si se limitaba a casos donde era necesario. Ahora, la AEPD considera que no hay autorizaci&oacute;n gen&eacute;rica en la legislaci&oacute;n espa&ntilde;ola, de modo que para el registro de jornada y control de acceso con fines laborales, &ldquo;el responsable [de los datos, aqu&iacute; el ayuntamiento de Marbella] debe contar con una norma con rango de ley que autorice espec&iacute;ficamente utilizar datos biom&eacute;tricos para dicha finalidad&rdquo;, se&ntilde;ala la agencia. El consentimiento no puede levantar la prohibici&oacute;n, &ldquo;al existir un desequilibrio entre la persona a la que se somete al tratamiento y quien lo est&aacute; llevando a cabo&rdquo;. 
    </p><h3 class="article-text">Propuestas de sanci&oacute;n y negativa a cancelar datos</h3><p class="article-text">
        Tras la publicaci&oacute;n de la gu&iacute;a, <a href="https://www.elforodelabos.es/2023/12/como-deben-aplicar-las-empresas-el-nuevo-criterio-sobre-registro-de-jornada-y-datos-biometricos/" target="_blank" data-mrf-recirculation="links-noticia" class="link">interpretada un&aacute;nimemente como una restricci&oacute;n al sistema de &ldquo;fichaje&rdquo; con datos biom&eacute;tricos</a> en empresas e instituciones, el ayuntamiento no ha variado su plan de acci&oacute;n. Al contrario, acaba de extender el sistema a la Polic&iacute;a Local. A mediados de diciembre, el Intendente Jefe dirigi&oacute; una instrucci&oacute;n a toda la plantilla convoc&aacute;ndola a la toma de datos biom&eacute;tricos. Y el 29 de diciembre avis&oacute; de que a partir del 1 de enero se implantar&iacute;a el sistema de control horario. 
    </p><p class="article-text">
        Seg&uacute;n SEPMA, quienes se niegan a pasar por el aro est&aacute;n siendo presionados. El verano pasado, el ayuntamiento abri&oacute; expediente al menos a dos trabajadores adscritos al servicio de Parques y Jardines por negarse a fichar &ldquo;mediante los medios habilitados por el Ayuntamiento&rdquo;. Les acus&oacute; de negarse a realizar la biometr&iacute;a facial. Ambos reclamaban seguir fichando mediante el sistema de firmas, pero les informaron de que ya no estaba vigente. Y aunque aportaron la hoja de firmas, la instructora consider&oacute; que estaban &ldquo;evadiendo&rdquo; los sistemas de control horarios y les imput&oacute; una falta grave, seg&uacute;n los pliegos de cargos a los que ha accedido este medio. Se enfrentan a una posible suspensi&oacute;n de empleo y sueldo de hasta tres a&ntilde;os. El ayuntamiento no ha aclarado si ha resuelto el expediente.
    </p><p class="article-text">
        El acceso, rectificaci&oacute;n, supresi&oacute;n, limitaci&oacute;n y oposici&oacute;n al tratamiento de los datos son derechos esenciales y recogidos por la norma municipal que regula el registro. Sin embargo, el consistorio marbell&iacute; desestimado en al menos una ocasi&oacute;n la solicitud de supresi&oacute;n de datos biom&eacute;tricos instada por un agente de Polic&iacute;a. En esa resoluci&oacute;n, el ayuntamiento razona que cumple una de las excepciones a la prohibici&oacute;n general, ya que el reconocimiento facial o dactilar ser&iacute;a &ldquo;necesario&rdquo; para hacer cumplir los horarios. 
    </p><h3 class="article-text">Sanciones de la AEPD y renuncias en otras instituciones</h3><p class="article-text">
        La insistencia del ayuntamiento marbell&iacute; en mantener el sistema contrasta con las adaptaciones o renuncias de otras instituciones. Jos&eacute; Luis Guti&eacute;rrez, secretario general de SEPMA, explica que el ayuntamiento de la vecina Estepona desisti&oacute; de su prop&oacute;sito tras una reuni&oacute;n que mantuvo con el alcalde Jos&eacute; Mar&iacute;a Garc&iacute;a Urbano (PP). En la Diputaci&oacute;n de Sevilla se va a dejar de usar en las pr&oacute;ximas semanas &ldquo;por la nueva gu&iacute;a&rdquo;. &ldquo;Lo dejamos de usar por la nueva gu&iacute;a. Los criterios que aporta ahora la AEPD romp&iacute;an con la opini&oacute;n mantenida hasta el momento, y limitan el uso para fines de control horario&rdquo;, explican fuentes de la administraci&oacute;n provincial. All&iacute; implantaron simult&aacute;neamente la huella dactilar y la tarjeta de proximidad, que ser&aacute; el &uacute;nico m&eacute;todo a partir del 16 de febrero.&nbsp;
    </p><p class="article-text">
        El pasado agosto (antes, por tanto, de la nueva gu&iacute;a), <a href="https://www.aepd.es/documento/ps-00544-2022.pdf" target="_blank" data-mrf-recirculation="links-noticia" class="link">la AEPD oblig&oacute; a la Diputaci&oacute;n de Cuenca</a> a suspender el control por huella dactilar al menos hasta que realizara una evaluaci&oacute;n del impacto que tome en cuenta &ldquo;los riesgos para los derechos y libertades de los empleados&rdquo;. Esa evaluaci&oacute;n de impacto no se ha hecho en Marbella. &ldquo;Siempre terminan obligando a que se elimine&rdquo;, advierte Guti&eacute;rrez, que lamenta que la denuncia ante el Consejo de Transparencia tarde tanto tiempo en resolverse. El sindicato est&aacute; participando tambi&eacute;n en una queja conjunta ante el Defensor del Pueblo, en la que van a participar al menos siete agentes.&nbsp;
    </p><p class="article-text">
        La pol&iacute;tica de recursos humanos en el ayuntamiento de Marbella hace tiempo que est&aacute; en cuesti&oacute;n. Este medio ha contado que se han destinado fondos europeos a contratos en fraude de ley, que <a href="https://www.eldiario.es/andalucia/malaga/721-horas-mes-lio-horas-extra-limpieza-ayuntamiento-marbella_1_6135203.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">carg&oacute; 50.000 horas extra en un mes</a> (con algunos empleados del &aacute;rea de Limpieza cargando 721 horas, m&aacute;s de las que tiene el mes) o que los tribunales obligaron al consistorio a <a href="https://www.eldiario.es/andalucia/malaga/ayuntamiento-de-marbella-planes-de-empleo-fraude-europa_1_1160929.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">hacer indefinidos a cientos de trabajadores</a> tras contratarlos en fraude de ley para tareas ordinarias. Un juzgado de instrucci&oacute;n abri&oacute; <a href="https://www.eldiario.es/andalucia/malaga/juicio-presunto-enchufismo-limpieza-marbella_1_1154400.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">diligencias de investigaci&oacute;n por el presunto enchufismo en Limpieza</a> (luego archivadas) y ha habido al menos un <a href="https://www.eldiario.es/andalucia/malaga/traje-medida-ayuntamiento-marbella-plaza-publica-sabia-perfectamente-habia-creado-concurso-ad-hoc_1_9206548.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">caso de &ldquo;traje a medida&rdquo;</a>, declarado as&iacute; por sentencia judicial.  
    </p><p class="article-text">
        Igual que en el anterior mandato, el concejal responsable de Recursos Humanos es Jos&eacute; Eduardo D&iacute;az, que tambi&eacute;n controla las &aacute;reas de Urbanismo, Industria, V&iacute;a P&uacute;blica y Seguridad Ciudadana. Es, por tanto, responsable directo de la Polic&iacute;a Local. D&iacute;az es un concejal muy pr&oacute;ximo a Mu&ntilde;oz. Tambi&eacute;n era de confianza para el hijastro de Mu&ntilde;oz Joakim Broberg, procesado por narcotr&aacute;fico y blanqueo de capitales por la Audiencia Nacional. <a href="https://www.eldiario.es/politica/alcaldesa-marbella-aumenta-concejales-cuidaban-hijastro-narco_1_10313716.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Tal y como desvel&oacute; elDiario.es, Broberg recurri&oacute; a D&iacute;az</a> para ofrecerle un posible adjudicatario de un local, en una llamada intervenida por la Polic&iacute;a que consta en el sumario. El concejal le dice que no puede hacer nada porque no tiene competencias, pero promete cuidarle. &ldquo;Me cuidas, eh&rdquo;, le dice Broberg a D&iacute;az. &ldquo;Eso siempre&rdquo;, responde &eacute;l.&nbsp;D&iacute;az tambi&eacute;n aparece mencionado en un correo en el que un exdirector de un medio de comunicaci&oacute;n narra a Mu&ntilde;oz que <a href="https://www.eldiario.es/politica/correo-director-medio-marbella-alcaldesa-equipo-hizo-girar-facturas-falsas-cobrar_1_9698031.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">D&iacute;az y otra concejala hab&iacute;an pagado publicidad en su medio con facturas falsas</a>.&nbsp;
    </p>]]></description>
      <dc:creator><![CDATA[Néstor Cenizo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/andalucia/malaga/marbella-implanta-control-biometrico-empleados-criterio-agencia-proteccion-datos_1_10862356.html]]></guid>
      <pubDate><![CDATA[Sun, 28 Jan 2024 21:03:49 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/68645e31-db28-45d4-b3a7-e7110b7aca89_16-9-discover-aspect-ratio_default_0.jpg" length="548124" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/68645e31-db28-45d4-b3a7-e7110b7aca89_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="548124" width="1200" height="675"/>
      <media:title><![CDATA[Marbella implanta el control biométrico a sus empleados contra el criterio de la Agencia de Protección de Datos]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/68645e31-db28-45d4-b3a7-e7110b7aca89_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Ayuntamiento de Marbella,Huella digital,Reconocimiento facial]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Protección de Datos cambia de criterio y deja en el alambre a las empresas que usan huella dactilar o reconocimiento facial]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/proteccion-datos-cambia-criterio-deja-alambre-empresas-huella-dactilar-reconocimiento-facial_1_10727830.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/249ec6f1-a163-4acb-b5f1-6dbf8ed45d43_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Protección de Datos cambia de criterio y deja en el alambre a las empresas que usan huella dactilar o reconocimiento facial"></p><div class="subtitles"><p class="subtitle">El regulador de privacidad considerará ilegales los sistemas biométricos usados para el control de entrada o registro horario salvo en circunstancias excepcionales</p><p class="subtitle">Una sentencia pionera obliga a indemnizar a un trabajador por vigilarlo con reconocimiento facial sin permiso</p></div><p class="article-text">
        La imposici&oacute;n del uso de la huella dactilar o el reconocimiento facial como m&eacute;todo de entrada o control horario por parte de las empresas puede tener los d&iacute;as contados. La Agencia Espa&ntilde;ola de Protecci&oacute;n de Datos (AEPD) ha cambiado su criterio respecto al uso de los sistemas de biometr&iacute;a para el control de acceso, tanto con fines laborales como no laborales (como en gimnasios o clubes privados). A partir de ahora, el organismo los considerar&aacute; sistemas prohibidos salvo que exista una circunstancia excepcional que justifique su uso por delante de m&eacute;todos que no usen datos &ldquo;de alto riesgo&rdquo;.
    </p><p class="article-text">
        La Agencia <a href="https://www.aepd.es/documento/guia-control-presencia-biometrico-nov-2023.pdf" data-mrf-recirculation="links-noticia" class="link" target="_blank">ha publicado</a> este cambio de criterio en su reciente &ldquo;Gu&iacute;a Tratamientos de control de presencia mediante sistemas biom&eacute;tricos&rdquo;, que detalla la interpretaci&oacute;n que har&aacute; a partir de ahora para valorar si estos m&eacute;todos se ajustan a la normativa de protecci&oacute;n de datos. Una actualizaci&oacute;n que justifica en que la r&aacute;pida evoluci&oacute;n de esta tecnolog&iacute;a que ya &ldquo;permite incluso recoger informaci&oacute;n sin la cooperaci&oacute;n de la persona&rdquo; o su conocimiento, as&iacute; como que la inteligencia artificial &ldquo;puede utilizarse para inferir informaci&oacute;n adicional sobre las personas&rdquo;.
    </p><p class="article-text">
        El principal cambio respecto al anterior criterio es que deja de considerar el visto bueno de las personas que lo usan como una legitimaci&oacute;n suficiente para implantar un sistema de acceso basado en la huella o la cara. El regulador afirma que ese consentimiento no se otorga de forma libre si no existe en la empresa otra forma de entrar o de fichar. 
    </p><p class="article-text">
        &ldquo;El consentimiento no puede levantar la prohibici&oacute;n o ser una base para determinar la licitud de este, al existir un desequilibrio entre la persona a la que se somete al tratamiento y quien lo est&aacute; llevando a cabo&rdquo;, argumenta la AEPD. Cuando estos sistemas se imponen como control horario o presencial en las empresas, &ldquo;se produce un desequilibrio de poder entre empleado y empleador que hace que este consentimiento no se proporcione libremente&rdquo;, contin&uacute;a.
    </p><h3 class="article-text">Da igual que sea m&aacute;s barato o m&aacute;s sencillo</h3><p class="article-text">
        Hasta ahora la Agencia Espa&ntilde;ola hab&iacute;a considerado ese visto bueno del usuario como una base legal suficiente para el uso de biometr&iacute;a. Su postura oficial era &ldquo;desaconsejar&rdquo; el uso de la huella o la cara si otros m&eacute;todos de menor impacto estaban disponibles, pero el consentimiento del usuario final unido a argumentos como que el sistema biom&eacute;trico es m&aacute;s barato o sencillo de implantar consegu&iacute;an pasar el filtro. Tambi&eacute;n el de que evita irregularidades como la de que un empleado pueda fichar por otros, algo que permiten m&eacute;todos como las tarjetas de radiofrecuencia.
    </p><p class="article-text">
        A partir de ahora, no ser&aacute; as&iacute;. El regulador recuerda que &ldquo;el tratamiento de datos biom&eacute;tricos, tanto para identificaci&oacute;n como para autenticaci&oacute;n&rdquo; es &ldquo;un tratamiento de alto riesgo que incluye categor&iacute;as especiales de datos&rdquo;. Por tanto, &ldquo;para poder tratar esas categor&iacute;as es necesario que exista una circunstancia que levante la prohibici&oacute;n de su tratamiento y, adem&aacute;s, una condici&oacute;n que lo legitime&rdquo;. Un rango en el que la ventaja econ&oacute;mica o sencillez de implantaci&oacute;n no ser&aacute;n aceptados. 
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">En la ley española no hay autorización alguna para considerar necesario el uso de datos biométricos para el control horario de la jornada de trabajo</p>
                <div class="quote-author">
                        <span class="name">AEPD</span>
                                  </div>
          </div>

  </blockquote><p class="article-text">
        &iquest;Y cu&aacute;les s&iacute; lo estar&aacute;n? &ldquo;No es f&aacute;cil contestar a esa pregunta: si hacemos caso en todo a la AEPD&nbsp;lo han dejado muy dif&iacute;cil&rdquo;, expone Jorge Garc&iacute;a Herrero, abogado especialista en protecci&oacute;n de datos. La Agencia no abunda demasiado en esas excepciones. &ldquo;El responsable tiene la obligaci&oacute;n de valorar muy seriamente y con diligencia si tiene una raz&oacute;n s&oacute;lida para tratar categor&iacute;as especiales&nbsp;de datos&rdquo;, afirma en la Gu&iacute;a, aunque s&iacute; espec&iacute;fica que casos no considerar&aacute; excepciones: el control horario de las jornadas de los trabajadores ni la necesidad de ejecutar ning&uacute;n tipo de contrato.
    </p><p class="article-text">
        &ldquo;En la actual normativa legal espa&ntilde;ola no se contiene autorizaci&oacute;n suficientemente espec&iacute;fica alguna para considerar necesario el tratamiento de datos biom&eacute;tricos con la finalidad de un control horario de la jornada de trabajo&rdquo;, zanja la AEPD.
    </p><h3 class="article-text">Sistemas alternativos</h3><p class="article-text">
        La otra v&iacute;a que la AEPD habilitaba para usar biometr&iacute;a tambi&eacute;n queda cerrada. Esta consist&iacute;a en habilitar un sistema alternativo al que todos los usuarios puedan acogerse sin ceder sus datos biom&eacute;tricos. Para entrar a un espacio, por ejemplo, esa alternativa pod&iacute;a ser simplemente un timbre y la presencia de alguien en todo momento para abrir la puerta, sin que la persona est&eacute; obligada a usar su huella o su cara para entrar.
    </p><p class="article-text">
        En el caso de existir ese sistema, la AEPD reconoce que el consentimiento del trabajador s&iacute; podr&iacute;a ser considerado como otorgado libremente y por lo tanto v&aacute;lido. Sin embargo, es ese mismo sistema alternativo el que ahora tumba la posibilidad de que se utilice biometr&iacute;a con el nuevo criterio m&aacute;s estricto: si se pueden establecer v&iacute;as funcionales para que los empleados no usen biometr&iacute;a, entonces la opci&oacute;n biom&eacute;trica no es estrictamente necesaria y no cumple bajo la nueva interpretaci&oacute;n.
    </p><p class="article-text">
        &ldquo;Si existen alternativas disponibles al tratamiento de datos biom&eacute;tricos que impliquen menor riesgo para los derechos y libertades de las personas cuyos datos personales se van a tratar, que permitan que en un momento dado todos los trabajadores opten por otras alternativas, el procesamiento de datos biom&eacute;tricos deja de ser necesario&rdquo;, sostiene el organismo en la Gu&iacute;a. 
    </p><h3 class="article-text">El giro: los empleados podr&iacute;an exigir indemnizaciones </h3><p class="article-text">
        El cambio de criterio de la AEPD tiene un &uacute;ltimo giro asociado que no depende directamente del organismo. Se trata de la <a href="https://www.eldiario.es/tecnologia/sentencia-pionera-obliga-empresa-indemnizar-trabajador-vigilarlo-reconocimiento-facial-permiso_1_10542328.html" data-mrf-recirculation="links-noticia" class="link">pionera sentencia que public&oacute; elDiario.es</a> que reconoci&oacute; el derecho de un trabajador a recibir una indemnizaci&oacute;n de su empresa tras aplicarle biometr&iacute;a de manera ilegal. En aquel caso, un sistema de reconocimiento facial.
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">Esta guía ha puesto, de la noche a la mañana, en situación de incumplimiento por infracción muy grave a miles de empresas españolas</p>
                <div class="quote-author">
                        <span class="name">Jorge García Herrero</span>
                                        <span>—</span> abogado especialista en protección de datos
                      </div>
          </div>

  </blockquote><p class="article-text">
        &ldquo;Esta gu&iacute;a ha puesto, de la noche a la ma&ntilde;ana, en situaci&oacute;n de incumplimiento por infracci&oacute;n muy grave a miles de empresas espa&ntilde;olas&rdquo;, avisa Jorge Garc&iacute;a Herrero. Estas &ldquo;pueden afrontar expedientes de la AEPD con sanciones en el entorno de los 20.000 euros, pero tambi&eacute;n y sobre todo, podr&iacute;an llegar a ver como cada uno de sus empleados (o incluso los de sus contratas) les exigen indemnizaciones de da&ntilde;os y perjuicios por v&iacute;a laboral&rdquo;, contin&uacute;a, recordando que en la citada sentencia el juzgado consider&oacute; ese uso ileg&iacute;timo de datos biom&eacute;tricos como una &ldquo;falta muy grave&rdquo; que lleva aparejada una sanci&oacute;n m&iacute;nima de <a href="https://www.eldiario.es/tecnologia/sentencia-pionera-obliga-empresa-indemnizar-trabajador-vigilarlo-reconocimiento-facial-permiso_1_10542328.html" data-mrf-recirculation="links-noticia" class="link">6.251 euros</a>.
    </p><p class="article-text">
        El jurista ha recomendado a su clientes que estudien la sustituci&oacute;n de estos sistemas (en especial, los controles biom&eacute;tricos de fichaje) por opciones no biom&eacute;tricas. &ldquo;Si bien existen v&iacute;as para legitimar controles de acceso biom&eacute;tricos, parece muy arriesgado sostener su validez en todos los casos y para todos los trabajadores&rdquo;, expone.
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/proteccion-datos-cambia-criterio-deja-alambre-empresas-huella-dactilar-reconocimiento-facial_1_10727830.html]]></guid>
      <pubDate><![CDATA[Wed, 29 Nov 2023 21:15:41 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/249ec6f1-a163-4acb-b5f1-6dbf8ed45d43_16-9-discover-aspect-ratio_default_0.jpg" length="661151" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/249ec6f1-a163-4acb-b5f1-6dbf8ed45d43_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="661151" width="1200" height="675"/>
      <media:title><![CDATA[Protección de Datos cambia de criterio y deja en el alambre a las empresas que usan huella dactilar o reconocimiento facial]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/249ec6f1-a163-4acb-b5f1-6dbf8ed45d43_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Agencia Española de Protección de Datos,Protección de datos,Reconocimiento facial,Biometría,Horas extra,Empresas,Seguridad]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Feijóo ni sopla ni sorbe: no se entera de la situación económica]]></title>
      <link><![CDATA[https://www.eldiario.es/blog/contraoferta/feijoo-sopla-sorbe-no-entera-situacion-economica_132_10551191.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/b7c3043d-9363-44de-ac8a-80d359833c28_16-9-discover-aspect-ratio_default_1081705.jpg" width="2870" height="1614" alt="Feijóo ni sopla ni sorbe: no se entera de la situación económica"></p><div class="subtitles"><p class="subtitle">Apúntate aquí al boletín de economía -  ¿Quieres recibir 'Contraoferta'?  </p></div><p class="article-text">
        &iexcl;Buenos d&iacute;as!
    </p><p class="article-text">
        &iquest;C&oacute;mo llevas la semana de la investidura fallida de Alberto N&uacute;&ntilde;ez Feij&oacute;o? En elDiario.es nos hemos volcado en la cobertura de lo que, en un principio, parec&iacute;a un intento serio por alcanzar la presidencia del pa&iacute;s por parte del candidato de la derecha, pero luego ha devenido en una moci&oacute;n de censura sin ninguna fuerza.&nbsp;&nbsp;
    </p><p class="article-text">
        Una de las cosas m&aacute;s preocupantes del discurso del l&iacute;der del PP fue su escaso bagaje de propuestas econ&oacute;micas. Pas&oacute; de puntillas por la pol&iacute;tica industrial, se ci&ntilde;&oacute; a dar una visi&oacute;n catastrofista de la situaci&oacute;n econ&oacute;mica sin mucho fundamento y retorci&oacute; los datos para entrar en una espiral contradictoria en la que atacaba al Gobierno de coalici&oacute;n por sus decisiones y, a la vez, recuperaba parte de las propuestas econ&oacute;micas del Ejecutivo de Pedro S&aacute;nchez. As&iacute;, propuso&nbsp;prorrogar o ampliar la mayor&iacute;a&nbsp;de&nbsp;<a href="https://www.eldiario.es/economia/gobierno-no-descarta-prorrogar-medidas-anti-inflacion-2024_1_10542413.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">las medidas que el Gobierno de coalici&oacute;n mantiene actualmente</a>&nbsp;para luchar contra la inflaci&oacute;n o anunci&oacute; que&nbsp;situar&iacute;a el salario m&iacute;nimo en el 60% del sueldo medio, <a href="https://www.eldiario.es/economia/gobierno-culmina-cinco-anos-subida-historica-salario-minimo-beneficia-2-5-millones-trabajadores_1_9912547.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">una meta que ya&nbsp;alcanz&oacute; el Gobierno de coalici&oacute;n</a>.&nbsp;
    </p><p class="article-text">
        Toda la propuesta econ&oacute;mica de Feij&oacute;o se condens&oacute; en el ofrecimiento de un&nbsp;Pacto de Estado con el que lograr&nbsp;&ldquo;el saneamiento de la econom&iacute;a&rdquo;. &iquest;En qu&eacute; consiste ese pacto? Nadie lo sabe, porque el presidente del PP no dio detalles ni lanz&oacute; medidas concretas. Apunt&oacute; un objetivo: un crecimiento del PIB del 2,5% anual en los pr&oacute;ximos diez a&ntilde;os, adem&aacute;s de las tradiciones rebajas del IRPF a los que ganen menos de 40.000 euros y del IVA de carne y pescados. <a href="https://www.eldiario.es/economia/feijoo-seguidismo-gobierno-asume-ahora-subida-salario-minimo-aceptar-reforma-laboral_1_10546297.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Aqu&iacute; te explicamos la escasa visi&oacute;n econ&oacute;mica de Alberto N&uacute;&ntilde;ez Feij&oacute;o</a>.
    </p><p class="article-text">
        Lo que resulta realmente preocupante del planteamiento del l&iacute;der del PP es su escaso conocimiento de la coyuntura actual y a corto plazo. No hay ning&uacute;n organismo o servicio de estudios que <a href="https://www.eldiario.es/economia/banco-espana-confirma-economia-liderara-crecimiento-europa-2023-2024_1_10525818.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">eleve por encima del 2% el crecimiento econ&oacute;mico de Espa&ntilde;a en 2024</a>. Vamos a ser la econom&iacute;a de la Uni&oacute;n Europea que m&aacute;s crezca el a&ntilde;o que viene pero se empiezan a percibir nubarrones. Por un lado, en 2024 <a href="https://www.eldiario.es/economia/bruselas-plantea-recuperar-reglas-fiscales-plan-carta-27-sistema-sanciones-gradual_1_10152337.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">entran en vigor otra vez las reglas fiscales de la UE</a>, con lo que habr&aacute; m&aacute;s control sobre el d&eacute;ficit. La disyuntiva es clara: si se rebajan impuestos no se podr&aacute;n prorrogar las medidas contra la inflaci&oacute;n o viceversa, adem&aacute;s de rebajar la deuda y mantener el poder adquisitivo de las pensiones. No se puede soplar y sorber. &nbsp;
    </p><p class="article-text">
        Por otro lado, cada vez se ven m&aacute;s claramente los efectos&nbsp;de la pol&iacute;tica monetaria contractiva&nbsp;del BCE para luchar contra la inflaci&oacute;n.&nbsp;En julio, el n&uacute;mero de hipotecas concedidas se hundi&oacute; un 18,8% respecto al mismo mes del a&ntilde;o pasado, tras una racha de 6 meses consecutivos de retrocesos seg&uacute;n los datos publicados por el INE (Instituto Nacional de Estad&iacute;stica). En agosto, los pr&eacute;stamos bancarios a empresas se redujeron un&nbsp;4,1%, siguiendo una estela de&nbsp;ocho meses consecutivos de ca&iacute;das, seg&uacute;n&nbsp;datos del Banco de Espa&ntilde;a. En este enlace te contamos c&oacute;mo <a href="https://www.eldiario.es/economia/caida-negocio-bancario-presiona-bce-termine-subidas-tipos-interes_1_10549136.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">la ca&iacute;da del negocio bancario presiona al BCE para que termine con las subidas de los tipos de inter&eacute;s</a>.
    </p><p class="article-text">
        Con estas premisas es m&aacute;s que preocupante la escasa visi&oacute;n econ&oacute;mica del l&iacute;der de la oposici&oacute;n.&nbsp;Tambi&eacute;n puede ser que le d&eacute; todo igual y prometa lo que ya sabe que no va a cumplir.
    </p><figure class="embed-container embed-container--type-embed ">
    
            <br>
<iframe title="La mayor caída interanual de los préstamos a empresas desde 2019" aria-label="Gráfico de columnas" id="datawrapper-chart-J5ukC" src="https://datawrapper.dwcdn.net/J5ukC/1/" scrolling="no" frameborder="0" style="width: 0; min-width: 100% !important; border: none;" height="500" data-external="1"></iframe><script type="text/javascript">!function(){"use strict";window.addEventListener("message",(function(a){if(void 0!==a.data["datawrapper-height"]){var e=document.querySelectorAll("iframe");for(var t in a.data["datawrapper-height"])for(var r=0;r<e.length;r++)if(e[r].contentWindow===a.source){var i=a.data["datawrapper-height"][t]+"px";e[r].style.height=i}}}))}();</script>
<br>
    </figure><h3 class="article-text">El Dato</h3><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">6.521 euros</p>
          </div>

  </blockquote><p class="article-text">
        Es la indemnizaci&oacute;n que le ha tenido que pagar la empresa Plastic Forte a un empleado al que&nbsp;vigil&oacute; con un sistema de reconocimiento facial sin informarle ni solicitar su consentimiento.&nbsp;El Juzgado de lo Social n&uacute;mero 2 de Alicante ha dictado&nbsp;una sentencia pionera ya que&nbsp;reconoce por primera vez&nbsp;el derecho a una indemnizaci&oacute;n por parte del trabajador por haber sido sometido a reconocimiento facial de manera irregular. <a href="https://www.eldiario.es/tecnologia/sentencia-pionera-obliga-empresa-indemnizar-trabajador-vigilarlo-reconocimiento-facial-permiso_1_10542328.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">En este enlace te explicamos esta sentencia novedosa</a>.
    </p><p class="article-text">
        No ha sido la &uacute;nica informaci&oacute;n de tribunales relevante de esta semana.&nbsp;El Tribunal Supremo ha dictado una sentencia en la que proh&iacute;be a las empresas que hagan fichar a sus trabajadores por sus visitas al ba&ntilde;o como parte de su descanso reconocido para comer. Los jueces dan la raz&oacute;n a CCOO frente a una empresa de contact center que hac&iacute;a que sus empleados ficharan las visitas al ba&ntilde;o como parte de su hora de la comida. <a href="https://www.eldiario.es/economia/supremo-prohibe-empresas-descuenten-jornada-laboral-visitas-bano-empleados_1_10548694.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Aqu&iacute; puedes leer todo lo relevante a esta informaci&oacute;n</a>.&nbsp;&nbsp;
    </p><h3 class="article-text">El Gr&aacute;fico</h3><figure class="embed-container embed-container--type-embed ">
    
            <br>

<iframe title="El pluriempleo en España, entre el 2% y 3% de los ocupados" aria-label="Interactive line chart" id="datawrapper-chart-KMmW2" src="https://datawrapper.dwcdn.net/KMmW2/1/" scrolling="no" frameborder="0" style="width: 0; min-width: 100% !important; border: none;" height="500" data-external="1"></iframe><script type="text/javascript">!function(){"use strict";window.addEventListener("message",(function(a){if(void 0!==a.data["datawrapper-height"]){var e=document.querySelectorAll("iframe");for(var t in a.data["datawrapper-height"])for(var r=0;r<e.length;r++)if(e[r].contentWindow===a.source){var i=a.data["datawrapper-height"][t]+"px";e[r].style.height=i}}}))}();</script>

<br>
    </figure><p class="article-text">
        Ha sido una de las pol&eacute;micas de la semana. Otro falso debate creado alrededor del mercado laboral espa&ntilde;ol. El enganche ha sido el anuncio de la aprobaci&oacute;n por parte del&nbsp;Gobierno conservador griego de una reforma laboral&nbsp;que permite ampliar las horas de trabajo de las personas con dos empleos,&nbsp;<a href="https://www.eldiario.es/internacional/gobierno-conservador-grecia-quiere-jornada-laboral-13-horas-diarias_1_10536823.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">hasta 13 diarias</a>, entre otras medidas lesivas para los trabajadores. D&iacute;az sali&oacute; a <a href="https://twitter.com/Yolanda_Diaz_/status/1705613833908195821" target="_blank" data-mrf-recirculation="links-noticia" class="link">criticar la reforma laboral griega&nbsp;en Twitter</a>&nbsp;y el ministro de Trabajo griego, Adonis Georgiadis, le <a href="https://twitter.com/AdonisGeorgiadi/status/1705872762978394565" target="_blank" data-mrf-recirculation="links-noticia" class="link">respondi&oacute;</a>.
    </p><p class="article-text">
        R&aacute;pidamente, la red social se llen&oacute; de <em>trolls,&nbsp;</em>que atacaron a la ministra de Trabajo asegurando que desconoc&iacute;a que en Espa&ntilde;a se puede contratar sin l&iacute;mite de hora en varios empleos. Pero, &iquest;c&oacute;mo est&aacute; realmente el pluriempleo en Espa&ntilde;a? En elDiario.es hemos realizado una radiograf&iacute;a que indica que&nbsp;algo menos del 3% de las personas trabajadoras est&aacute; pluriempleada, unas 580.000, seg&uacute;n los datos del segundo trimestre del a&ntilde;o de Eurostat. <a href="https://www.eldiario.es/economia/radiografia-pluriempleo-espana-aumento-alcanza-3-trabajadores_1_10546320.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">En esta informaci&oacute;n te damos m&aacute;s datos y comparamos a Espa&ntilde;a, en t&eacute;rminos de pluriempleo, con el resto de pa&iacute;ses de Europa</a>.&nbsp;
    </p><h3 class="article-text">Cada vez que habla sube el pan</h3><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">La resolución de la FTC tendría como resultado menos productos entre los que elegir, precios más elevados, entregas más lentas para los consumidores y menos opciones para las pequeñas empresas</p>
                <div class="quote-author">
                        <span class="name">Amazon</span>
                                  </div>
          </div>

  </blockquote><p class="article-text">
        Esta ha sido la reacci&oacute;n del gigante del comercio electr&oacute;nico Amazon&nbsp;ante la demanda interpuesta en un juzgado federal de Seattle (EEUU) por la&nbsp;Comisi&oacute;n Federal de Comercio estadounidense (FTC)&nbsp;&nbsp;y 17 fiscales estatales. Aunque no est&aacute; tan claro ante las graves acusaciones que pesan sobre el sitio de comercio online.&nbsp;&ldquo;El patr&oacute;n continuo de conducta ilegal de Amazon bloquea la competencia, lo que le permite ejercer un poder de monopolio para inflar los precios, degradar la calidad y minar la innovaci&oacute;n para los consumidores y las empresas&rdquo;, explic&oacute; el organismo regulador estadounidense. No es la primera vez que la empresa de Jeff Bezos tiene problemas por sus posiciones comerciales. En nuestro pa&iacute;s,&nbsp;<a href="https://www.eldiario.es/tecnologia/multa-194-millones-apple-amazon-acuerdo-secreto-perjudicar-competencia-e-inflar-precios-espana_1_10388182.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">la Comisi&oacute;n Nacional del Mercados y la Competencia (CNMC) le impuso una sanci&oacute;n de 143,6 millones de euros a Apple y otra de 50,5 millones a Amazon</a> por llegar a una serie de acuerdos secretos para perjudicar a sus competidores en la web oficial de la multinacional de comercio electr&oacute;nico. En Bruselas,&nbsp;<a href="https://www.eldiario.es/tecnologia/amazon-cambiara-practicas-comerciales-evitar-multa-millonaria-bruselas-abuso-posicion-dominante_1_9809934.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Amazon tuvo que&nbsp;modificar sus pr&aacute;cticas comerciales</a> para evitar una multa millonaria por abuso de posici&oacute;n dominante.&nbsp;Ahora se inicia una batalla legal que puede provocar cambios en uno de los mayores gigantes tecnol&oacute;gicos del mundo. <a href="https://www.eldiario.es/economia/estados-unidos-demanda-amazon-mantener-ilegalmente-monopolio_1_10547327.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Aqu&iacute; te lo contamos</a>.&nbsp;
    </p><h3 class="article-text">Letras que son un tesoro</h3><figure class="embed-container embed-container--type-embed ">
    
            <p><img style="border: 10px solid white;" src="https://static.eldiario.es/clip/1d35cc39-ad5d-49fb-af00-e8084dd2dbe3_source-aspect-ratio_default_0.jpg" alt="100%" width="250" align="left" data-title="" /></p>
    </figure><p class="article-text">
        Esta semana recomendamos un libro de uno de los columnistas econ&oacute;micos m&aacute;s influyentes del mundo. Se trata de Martin Wolf,&nbsp;analista jefe de Econom&iacute;a del <em>Financial Times</em>. En su libro 'La crisis del capitalismo democr&aacute;tico'&nbsp;(<a href="https://www.planetadelibros.com/libro-la-crisis-del-capitalismo-democratico/379549" target="_blank" data-mrf-recirculation="links-noticia" class="link">Editorial Deusto</a>), Wolf admite que se ha equivocado es muchas de sus opiniones anteriores, pero sigue siendo un defensor del sistema capitalista y las democracias liberales como elementos indisoluble frente a la amenaza del&nbsp;&ldquo;auge del capitalismo demag&oacute;gico, autocr&aacute;tico y totalitario&rdquo;.&nbsp;Frente a las derechas cl&aacute;sicas cuyo pol&iacute;tica econ&oacute;mica no va m&aacute;s all&aacute; de la bajada de impuestos, Wolf avisa de que habr&aacute; que pagar m&aacute;s impuestos para mejorar los servicios p&uacute;blicos atendiendo a que &ldquo;la primera preocupaci&oacute;n de los Estados democr&aacute;ticos es el bienestar de sus ciudadanos&rdquo;. Con una pol&eacute;mica visi&oacute;n sobre la inmigraci&oacute;n (&ldquo;los ciudadanos tienen derecho a decidir a qui&eacute;n se permite venir y trabajar en sus pa&iacute;ses&rdquo;), en el &aacute;mbito corporativo&nbsp;avisa de que es necesario &ldquo;mejorar la transparencia de lo que hacen las empresas&rdquo; y &ldquo;reconsiderar la remuneraci&oacute;n de los ejecutivos&rdquo; as&iacute; como reforzar la responsabilidad de sus actos. Merece la pena leerlo aunque sea para confirmar que sigue equivocado.
    </p><h3 class="article-text">Entrepreneur</h3><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/a7b33c26-1be6-4eae-a757-fd3df0c83b3f_16-9-aspect-ratio_50p_1081763.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/a7b33c26-1be6-4eae-a757-fd3df0c83b3f_16-9-aspect-ratio_50p_1081763.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/a7b33c26-1be6-4eae-a757-fd3df0c83b3f_16-9-aspect-ratio_75p_1081763.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/a7b33c26-1be6-4eae-a757-fd3df0c83b3f_16-9-aspect-ratio_75p_1081763.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/a7b33c26-1be6-4eae-a757-fd3df0c83b3f_16-9-aspect-ratio_default_1081763.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/a7b33c26-1be6-4eae-a757-fd3df0c83b3f_16-9-aspect-ratio_default_1081763.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/a7b33c26-1be6-4eae-a757-fd3df0c83b3f_16-9-aspect-ratio_default_1081763.jpg"
                    alt="El presidente de BME, Jos Dijsselhof, junto a Javier Hernani Burzako, consejero delegado de BME."
                >

            
            </picture>

            
            
                            <figcaption class="image-footer">
            <span class="title">
                El presidente de BME, Jos Dijsselhof, junto a Javier Hernani Burzako, consejero delegado de BME.                            </span>
                                    </figcaption>
            
                </figure><p class="article-text">
        Esta semana en nuestra secci&oacute;n 'Entrepreneur' no nos quedamos en el an&aacute;lisis de un empresario o directivo, sino que nos atrevemos con un mercado burs&aacute;til, BME Growth. En este mercado salen a cotizar peque&ntilde;as y medianas empresas. La gesti&oacute;n de BME Growth corresponde a Bolsas y Mercados Espa&ntilde;oles (BME), propiedad de la suiza Six desde 2020. El presidente de BME es&nbsp;Jos Dijsselhof, mientras que Javier Hernani Burzako&nbsp;es el consejero delegado (ambos en la foto).&nbsp;Hasta aqu&iacute;, poca cosa. Donde empiezan los sorpresas es cuando se comprueba que la Comisi&oacute;n Nacional del Mercado de Valores (CNMV) solo supervisa los posibles abusos de mercado, pero nada de informaci&oacute;n financiera o estado de cuentas de las compa&ntilde;&iacute;as cotizadas en el BME Growth. Estos asuntos los controla, en teor&iacute;a, BME y otros asesores externos (bancos y consultoras). Los fiascos han sido sonados. <a href="https://www.eldiario.es/economia/creciente-lista-fiascos-mercado-bursatil-pymes-le-faltan-controles_1_10548553.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Aqu&iacute; te explicamos los grandes batacazos, quiebras incluidas, de empresas cotizadas en el&nbsp;BME Growth</a>.&nbsp;&nbsp;
    </p><h3 class="article-text">Bien p&uacute;blico</h3><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/7c0c17f4-2214-44ec-8bb2-11ac8b5589b1_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/7c0c17f4-2214-44ec-8bb2-11ac8b5589b1_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/7c0c17f4-2214-44ec-8bb2-11ac8b5589b1_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/7c0c17f4-2214-44ec-8bb2-11ac8b5589b1_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/7c0c17f4-2214-44ec-8bb2-11ac8b5589b1_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/7c0c17f4-2214-44ec-8bb2-11ac8b5589b1_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/7c0c17f4-2214-44ec-8bb2-11ac8b5589b1_16-9-aspect-ratio_default_0.jpg"
                    alt=" "
                >

            
            </picture>

            
            
                            <figcaption class="image-footer">
            <span class="title">
                                             </span>
                                    </figcaption>
            
                </figure><p class="article-text">
        Diputado y rentista. &iquest;Por qu&eacute; no? Esta semana en&nbsp;'Bien p&uacute;blico', la secci&oacute;n donde aparecen los reportajes de investigaci&oacute;n y las informaciones m&aacute;s elaboradas, os traemos un reportaje donde analizamos que intereses inmobiliarios tienen los diputados y senadores.&nbsp;Seg&uacute;n&nbsp;las declaraciones de los 350 diputados y los 254 senadores,&nbsp;casi uno de cada cinco representantes en las Cortes cuenta con ingresos procedentes de rentas inmobiliarias. En total, 115 diputados y senadores declaran ingresos extra por el alquiler de inmuebles de su propiedad. En este caso, el bipartidismo tiene un enorme peso:&nbsp;98 de los 115 representantes de la soberan&iacute;a nacional que tienen rentas inmobiliarias en las dos c&aacute;maras son del PP (58) y del PSOE (40). <a href="https://www.eldiario.es/economia/parlamentario-rentista-115-diputados-senadores-declaran-ingresos-extra-alquiler-inmuebles-propiedad_1_10515639.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Aqu&iacute; tienes m&aacute;s datos e informaci&oacute;n de esta investigaci&oacute;n de&nbsp;Diego Larrouy y Elena Herrera&nbsp;sobre los parlamentarios rentistas</a>. 
    </p><h3 class="article-text">Nos gusta la competencia</h3><p class="article-text">
        Ahora te ofrecemos una selecci&oacute;n de informaciones de otros medios que nos han parecido interesantes:
    </p><div class="list">
                    <ul>
                                    <li><a href="https://cincodias.elpais.com/companias/2023-09-25/los-neobancos-superan-los-9-millones-de-clientes-en-espana-gracias-al-tiron-de-los-depositos.html" target="_blank" data-mrf-recirculation="links-noticia">Los neobancos superan los 9 millones de clientes en Espa&ntilde;a gracias al tir&oacute;n de los dep&oacute;sitos</a>.&nbsp;Las entidades aprovechan el inmovilismo de la banca en la remuneraci&oacute;n del ahorro para captar dep&oacute;sitos y clientes. (Cinco D&iacute;as)</li>
                                    <li><a href="https://www.elsaltodiario.com/agrotoxicos/ola-criticas-plan-comision-europa-extender-uso-glifosato" target="_blank" data-mrf-recirculation="links-noticia">Ola de cr&iacute;ticas al plan de la Comisi&oacute;n Europea para extender el uso del glifosato diez a&ntilde;os m&aacute;s</a>. El pol&eacute;mico herbicida, calificado de &ldquo;posible cancer&iacute;geno&rdquo; por la OMS y sospechoso de ser disruptor endocrino en humanos y t&oacute;xico para la vida acu&aacute;tica, podr&iacute;a ser autorizado hasta 2034 en la UE. (El Salto)</li>
                                    <li><a href="https://www.expansion.com/empresas/distribucion/2023/09/23/650ed08ce5fdeaf4278b460a.html" target="_blank" data-mrf-recirculation="links-noticia">El pr&oacute;ximo gran producto de los s&uacute;per ser&aacute;n nuestros datos</a>. La publicidad personalizada, tanto en el terreno online como en las tiendas, podr&iacute;a resultar muy rentable para las cadenas de distribuci&oacute;n. (Financial Times para Expansi&oacute;n)</li>
                                    <li><a href="https://www.epe.es/es/activos/20230925/600-empresarios-condenados-penalmente-2022-92531340" target="_blank" data-mrf-recirculation="links-noticia">600 empresarios fueron condenados penalmente en 2022 por explotar a trabajadores</a>. Entre las razones, se encuentran tener empleados 'en B' o negarles cuestiones b&aacute;sicas como las vacaciones m&iacute;nimas reconocidas por ley. (El Peri&oacute;dico de Espa&ntilde;a)</li>
                                    <li><a href="https://www.elconfidencial.com/empresas/2023-09-26/telefonica-amenaza-instalar-fibra-multa-cnmc_3741780/" target="_blank" data-mrf-recirculation="links-noticia">Telef&oacute;nica frena una multa de la CNMC (6 M) alegando que, de pagarla, no podr&iacute;a desplegar fibra en zonas rurales</a>. La operadora esgrime un informe ante la Audiencia Nacional en el que advierte de que pagar ahora una sanci&oacute;n que le impuso Competencia supondr&iacute;a una reducci&oacute;n de la capacidad inversora y no podr&iacute;a desplegar fibra en 35.000 viviendas de Espa&ntilde;a. (El Confidencial)</li>
                                    <li><a href="https://alternativaseconomicas.coop/opinion/si-necesitan-desempleo-y-lo-provocan-deliberadamente" target="_blank" data-mrf-recirculation="links-noticia">S&iacute;, necesitan desempleo y lo provocan deliberadamente</a>. Crear paro y escasez es lo que vienen haciendo los gobiernos desde hace d&eacute;cadas para dar m&aacute;s poder a los m&aacute;s poderosos y m&aacute;s beneficios a los m&aacute;s ricos. (Alternativas Econ&oacute;micas)</li>
                            </ul>
            </div><p class="article-text">
        Aqu&iacute; se acaba este bolet&iacute;n. La semana que viene m&aacute;s y mejor. Si tienes una idea o propuesta nos puedes escribir a contraoferta@eldiario.es.
    </p><p class="article-text">
        &iexcl;Buena semana!
    </p><figure class="embed-container embed-container--type-embed ">
    
            <style>
  .our-newsletters {
    padding: 23px 30px;
    font-family: "Encode Sans", Verdana, serif;
    display: flex;
    flex-direction: column;
  }

  .our-newsletters .our-newsletters__title {
    margin: 20px 0;
    font-size: 16px;
    font-weight: 600;
    font-stretch: normal;
    font-style: normal;
    line-height: 1.5;
    letter-spacing: normal;
    text-align: left;
    color: #4a90e2;
  }

  .our-newsletters .our-newsletters__img--normal {
    max-width: 100%;
    height: auto;
    margin-bottom: 20px;
  }

  .our-newsletters .our-newsletters__img--mobile {
    width: 100%;
    display: none;
    height: auto;
    margin-bottom: 20px;
  }

  .our-newsletters .newsletter-form form {
    margin-bottom: 40px;
  }

  .our-newsletters .newsletter-form .newsletter-form__input {
    padding: 13px 24px;
    border: solid 1px #8e8e93;
    background-color: #fff;
    /** text **/
    font-size: 16px;
    font-weight: 500;
    font-stretch: normal;
    font-style: normal;
    line-height: 1.38;
    letter-spacing: normal;
    text-align: left;
    color: rgba(60, 60, 67, 0.5);
  }

  .our-newsletters .newsletter-form .newsletter-form__input:focus {
    color: #000;
    transition: all 0.8ms;
    outline: none;
    border: 2px solid #4a90e2;
  }

  .our-newsletters .newsletter-form .newsletter-form__submit {
    height: 50px;
    padding: 12px 22px;
    background-color: #4a90e2;
    border: none;
    /** text **/
    font-size: 16px;
    font-weight: 600;
    font-stretch: normal;
    font-style: normal;
    line-height: 1.38;
    letter-spacing: normal;
    text-align: center;
    color: #fff;
    transition: all 0.1s;
    cursor: pointer;
  }

  .our-newsletters .newsletter-form .newsletter-form__submit:hover {
    opacity: 0.65;
  }


  @media (min-width: 320px) {

    .our-newsletters {
      padding: 20px 24px;
      max-width: 100%;
      width: 100%;
    }

    .our-newsletters .our-newsletters__img--normal {
      display: none;
    }

    .our-newsletters .our-newsletters__img--mobile {
      display: block;
    }

    .our-newsletters .newsletter-form form {
      display: block;
    }

    .our-newsletters .newsletter-form .newsletter-form__input {
      width: 100%;
      margin-bottom: 10px;
    }

    .our-newsletters .newsletter-form .newsletter-form__submit {
      width: 100%;
    }

  }

  @media (min-width: 500px) {

    .our-newsletters .our-newsletters__img--normal {
      display: block;
    }

    .our-newsletters .our-newsletters__img--mobile {
      display: none;
    }
  }

  @media (min-width: 768px) {

    .our-newsletters {
      max-width: 640px;
      margin: 0 auto;
    }

    .our-newsletters .newsletter-form form {
      display: flex;
      flex-direction: row;
      justify-content: space-between;
    }

    .our-newsletters .newsletter-form .newsletter-form__input {
      width: 380px;
    }

    .our-newsletters .newsletter-form .newsletter-form__submit {
      margin-left: 10px;
      width: 180px;
    }

  }

  .email_check {
    display: flex;
    flex-direction: column;
  }

  a {
    font-family: 'Encode Sans';
    color: #007bff;
    text-decoration: none;
    background-color: transparent;
    -webkit-text-decoration-skip: objects;
  }

  .check {
    font-family: 'Encode Sans';
    display: flex;
    gap: 5px;
    align-items: center;
    clear: both;
  }

  .check label {
    width: auto;
    float: none;
    line-height: 1em;
    margin: unset;
    font-size: 0.8em;
  }
</style>

<section class="our-newsletters">
  <h6 class="our-newsletters__title">
    Apúntate a Contraoferta, todos los jueves en tu buzón
  </h6>
  <img class="our-newsletters__img--normal"
    src="https://static.eldiario.es/eldiario/public/content/file/original/2022/0215/12/contraoferta-cabecera-normal-f861035.svg"
    alt="our-newsletter-normal" />
  <img class="our-newsletters__img--mobile"
    src="https://static.eldiario.es/eldiario/public/content/file/original/2022/0215/12/contraoferta-cabecera-mobile-68e91de.svg"
    alt="our-newsletter-mobile" />
  <div class="newsletter-form">
    <form action="https://eldiario.us6.list-manage.com/subscribe?u=c69ba1ef3f044e29f01e39064&id=8c23f89f7d"
      method="post" id="mc-embedded-subscribe-form" name="mc-embedded-subscribe-form" class="validate"
      style="border-radius: 4px" target="_blank">
      <div class="email_check">
        <input type="email" value="" name="EMAIL" class="newsletter-form__input" placeholder="Tu correo electrónico"
          style="border-radius: 4px" oninvalid="this.setCustomValidity('Debes introducir un email valido')"
          oninput="this.setCustomValidity('')" required />
        <div class="check">
          <input id="check" type="checkbox" name="check" value="check"
            oninvalid="this.setCustomValidity('Debes aceptar las condiciones de uso y privacidad')"
            oninput="this.setCustomValidity('')" required>
          <label for="check">Acepto las <a href="https://www.eldiario.es/aviso_legal/" target="_blank">condiciones de
              uso y privacidad</a></label>
        </div>
      </div>
      <button type="submit" class="newsletter-form__submit" style="border-radius: 4px">Apúntate</button>
    </form>
  </div>
</section>
    </figure>]]></description>
      <dc:creator><![CDATA[Rodrigo Ponce de León]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/blog/contraoferta/feijoo-sopla-sorbe-no-entera-situacion-economica_132_10551191.html]]></guid>
      <pubDate><![CDATA[Thu, 28 Sep 2023 06:40:52 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/b7c3043d-9363-44de-ac8a-80d359833c28_16-9-discover-aspect-ratio_default_1081705.jpg" length="1009066" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/b7c3043d-9363-44de-ac8a-80d359833c28_16-9-discover-aspect-ratio_default_1081705.jpg" type="image/jpeg" fileSize="1009066" width="2870" height="1614"/>
      <media:title><![CDATA[Feijóo ni sopla ni sorbe: no se entera de la situación económica]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/b7c3043d-9363-44de-ac8a-80d359833c28_16-9-discover-aspect-ratio_default_1081705.jpg" width="2870" height="1614"/>
      <media:keywords><![CDATA[Alberto Núñez Feijóo,PP - Partido Popular,PIB,Impuestos,BCE - Banco Central Europeo,Tipos de Interés,Banca,Hipotecas,Créditos,Tribunal Supremo,Reconocimiento facial,Mercado laboral,Yolanda Díaz,Amazon,Competencia,Capitalismo,Pymes,Bolsa,Diputados,Senadores,Mercado inmobiliario,Alquiler]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Una sentencia pionera obliga a una empresa a indemnizar a un trabajador por vigilarlo con reconocimiento facial sin permiso]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/sentencia-pionera-obliga-empresa-indemnizar-trabajador-vigilarlo-reconocimiento-facial-permiso_1_10542328.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/1401ffb2-7f19-4cd1-a6a7-162a5797ef8b_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Una sentencia pionera obliga a una empresa a indemnizar a un trabajador por vigilarlo con reconocimiento facial sin permiso"></p><div class="subtitles"><p class="subtitle">El fallo de un juzgado de Alicante abre la puerta a que los empleados sean compensados si se les vigila con sistemas de identificación biométrica que no respetan la ley</p><p class="subtitle">Sobre esta información se ha recibido una solicitud de rectificación del representante legal de la empresa Albero Forte Composite S.L.</p><p class="subtitle">Qué es el derecho de rectificación y por qué publicamos notas de rectificación en elDiario.es</p></div><p class="article-text">
        Sentencia pionera en Espa&ntilde;a sobre el uso de identificaci&oacute;n biom&eacute;trica irregular sobre los trabajadores. El Juzgado de lo Social n&uacute;mero 2 de Alicante ha reconocido el derecho de un empleado a ser indemnizado por su antigua empresa, que lo vigil&oacute; con un sistema de reconocimiento facial sin informarle ni solicitar su consentimiento. El fallo, al que ha tenido acceso elDiario.es, califica los hechos como una falta muy grave contra la intimidad del trabajador y ordena que se le compense con 6.251 euros.
    </p><p class="article-text">
        La condenada es Albero Forte Composite SL, propietaria de la f&aacute;brica de pl&aacute;sticos Plastic Forte, que en 2022 solicit&oacute; una fotograf&iacute;a al denunciante. En el documento que detallaba los prop&oacute;sitos de esa imagen inclu&iacute;a &ldquo;la publicaci&oacute;n en su p&aacute;gina web, redes sociales, campa&ntilde;as, revistas, folletos, publicidad corporativa y dem&aacute;s materiales de apoyo&rdquo;. Es decir, no inform&oacute; en ning&uacute;n momento de que ser&iacute;a usada para nutrir la base de datos de un sistema de vigilancia que se utiliz&oacute; para el fichaje de los trabajadores.
    </p><p class="article-text">
        La propia Plastic Forte reconoci&oacute; haber aplicado este reconocimiento facial sobre los trabajadores en un proceso paralelo abierto por la Agencia Espa&ntilde;ola de Protecci&oacute;n de Datos (AEPD). Como tambi&eacute;n inform&oacute; en primicia este medio, <a href="https://www.eldiario.es/tecnologia/multada-fabrica-alicante-reconocimiento-facial-empleados-avisarles_1_10152700.html" data-mrf-recirculation="links-noticia" class="link">la empresa fue multada en abril con 20.000 euros</a> por el regulador de la privacidad por utilizar biometr&iacute;a de manera irregular, ya que no inform&oacute; a los trabajadores y no haber hecho la preceptiva evaluaci&oacute;n de los posibles riesgos del sistema. Este tipo de sistemas de identificaci&oacute;n en base a rasgos f&iacute;sicos de las personas est&aacute;n desaconsejados si es posible aplicar m&eacute;todos alternativos menos invasivos. 
    </p><p class="article-text">
        Ahora el fallo del Juzgado de Alicante se une a la tesis de la AEPD y se convierte en pionera al reconocer el derecho a una indemnizaci&oacute;n por parte del trabajador por haber sido sometido a reconocimiento facial de manera irregular. La Fiscal&iacute;a ha apoyado tambi&eacute;n las reclamaciones del trabajador.
    </p><p class="article-text">
        &ldquo;Al analizar la proporcionalidad de un sistema biom&eacute;trico propuesto, es preciso considerar previamente si el sistema es necesario para responder a la necesidad identificada, es decir, si es esencial para satisfacer esa necesidad, y no solo el m&aacute;s adecuado o rentable&rdquo;, recuerda la sentencia. &ldquo;Si el beneficio es relativamente menor, como una mayor comodidad o un ligero ahorro, entonces la p&eacute;rdida de intimidad no es apropiada&rdquo;, expone.
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">Si el beneficio es relativamente menor, como una mayor comodidad o un ligero ahorro, entonces la pérdida de intimidad no es apropiada</p>
          </div>

  </blockquote><p class="article-text">
        &ldquo;En nuestro caso, no consta que se ofrecieran al actor otras opciones sobre el modo de fichaje, pudiendo hab&eacute;rsele ofrecido la posibilidad de fichar con tarjeta&rdquo;, incide el juez, que recalca que la empresa s&iacute; que ofreci&oacute; este m&eacute;todo de identificaci&oacute;n a dos trabajadoras gemelas de la empresa.
    </p><p class="article-text">
        La sanci&oacute;n de 6.251 euros impuesta por el juez corresponde a la cifra m&aacute;s baja para las infracciones calificadas como &ldquo;muy graves&rdquo; en la anterior redacci&oacute;n de la Ley sobre Infracciones y Sanciones en el Orden Social. El demandante, &Aacute;lvaro Alarc&oacute;n, hab&iacute;a solicitado 20.000 euros. &ldquo;Creo que la sentencia viene a defender al ciudadano frente al que parece un avance imparable de las tecnol&oacute;gicas. Hay que sensibilizarse y proteger nuestra informaci&oacute;n m&aacute;s personal frente a empresas e instituciones&rdquo;, ha opinado sobre el fallo en conversaci&oacute;n con elDiario.es.
    </p><p class="article-text">
        Durante el juicio, la defensa de Plastic Forte recurri&oacute; a la misma argumentaci&oacute;n que emple&oacute; en el proceso de la AEPD: que el fichaje de trabajadores no se encuentra en los supuestos en los que la ley exige hacer una evaluaci&oacute;n de riesgos de los sistemas. El Juzgado de Alicante, a su vez, ha empleado el mismo razonamiento que el regulador de privacidad para desestimarla: &ldquo;No estamos ante una lista exhaustiva, sino que ha de valorarse la complejidad del proceso de gesti&oacute;n de riesgo, teniendo en cuenta no el tama&ntilde;o de la entidad, la disponibilidad de recursos, la especialidad o sector de esta, sino el posible impacto de la actividad de tratamiento sobre los interesados y la propia dificultad del tratamiento&rdquo;. 
    </p><p class="article-text">
        Albero Forte va a recurrir la sentencia ante el Tribunal Superior de Justicia de la Comunidad Valenciana, seg&uacute;n ha adelantado la empresa elDiario.es. La compa&ntilde;&iacute;a tambi&eacute;n recuerda que no se ha cometido ning&uacute;n delito contra la intimidad del trabajador &ldquo;ya que no se trata de una sentencia penal, sino que es una sentencia dictada en el &aacute;mbito laboral&rdquo;. En el momento de la denuncia Plastic Forte ten&iacute;a unos 470 trabajadores, pero la compa&ntilde;&iacute;a tampoco ha confirmado a cu&aacute;ntos aplic&oacute; reconocimiento facial sin permiso.
    </p><h3 class="article-text">Una jurisprudencia para el reconocimiento facial</h3><p class="article-text">
        El reconocimiento facial es uno de los usos m&aacute;s pol&eacute;micos de la inteligencia artificial, ya que permite la identificaci&oacute;n autom&aacute;tica de personas en espacios abiertos. Su capacidad de usarse en procesos de vigilancia masiva indiscriminada lo ha colocado en el punto de mira de las organizaciones de protecci&oacute;n de derechos digitales.
    </p><p class="article-text">
        Sin embargo, fue su falibilidad la que termin&oacute; derivando en una moratoria en su aplicaci&oacute;n a gran escala sobre &eacute;l <a href="https://www.eldiario.es/tecnologia/tecnologia-reconocimiento-colocado-protestas-raciales_1_6025319.html" data-mrf-recirculation="links-noticia" class="link">a ra&iacute;z de las protestas del movimiento Black Lives Matter</a>, que mostraron que ten&iacute;a una ratio de acierto mucho m&aacute;s baja cuando deb&iacute;a evaluar a personas no cauc&aacute;sicas.
    </p><p class="article-text">
        Estas cuestiones han provocado que la UE se est&eacute; planteando prohibir su uso en entornos abiertos y valore permitirlo solo en situaciones en las que se use para identificar a una persona que mira directamente a c&aacute;mara a corta distancia. Estas conversaciones se dan en el contexto del nuevo Reglamento de Inteligencia Artificial que la UE quiere aprobar antes de 2024.
    </p><p class="article-text">
        En Espa&ntilde;a solo ha habido un gran proceso judicial en el que el reconocimiento facial se haya colocado en el centro de la disputa. Tuvo su origen en el intento de Mercadona de usarlo como sistema de vigilancia en sus tiendas para identificar y prohibir la entrada a las personas que ya hab&iacute;an sido condenadas por robar en ellas. La Audiencia Provincial de Barcelona <a href="https://www.eldiario.es/politica/justicia-impide-mercadona-use-reconocimiento-facial-detectar-clientes-orden-alejamiento-tiendas_1_8025896.html" data-mrf-recirculation="links-noticia" class="link">sentenci&oacute;</a> que la medida &ldquo;en modo alguno resulta proporcional, necesaria ni asimismo id&oacute;nea&rdquo; y la AEPD termin&oacute; multando a Mercadona con <a href="https://www.eldiario.es/tecnologia/mercadona-paga-multa-2-5-millones-proteccion-datos-sistema-reconocimiento-facial_1_8161764.html" data-mrf-recirculation="links-noticia" class="link">2,5 millones de euros</a>.
    </p><p class="article-text">
        ----------------------
    </p><h3 class="article-text">Nota de rectificaci&oacute;n remitida por Albero Forte Composite S.L. a elDiario.es</h3><p class="article-text">
        En cumplimiento de la ley Org&aacute;nica 2/1984, de 26 de marzo, reguladora del derecho de rectificaci&oacute;n, publicamos esta nota enviada por el representante legal de la empresa Albero Forte Composite S.L. a la redacci&oacute;n de elDiario.es:
    </p><p class="article-text">
        <em>PRIMERO.- Que la noticia resulta inexacta en algunos aspectos, por cuanto la Sentencia dictada por el Juzgado de lo Social N&ordm; 2 de Alicante el d&iacute;a 15 de septiembre de 2023 no obliga a la empresa a indemnizar a un trabajador por &ldquo;vigilarlo con reconocimiento facial sin permiso&rdquo;, sino por utilizar su imagen como sistema de control de entrada y salida en la empresa (fichaje). A este respecto se&ntilde;alar que no consta en la sentencia que la empresa &ldquo;vigilara&rdquo; al trabajador.</em>
    </p><p class="article-text">
        <em>SEGUNDO.- Tambi&eacute;n es inexacta la referencia a que la Sentencia diga que &ldquo;la empresa no inform&oacute; en ning&uacute;n momento de que la fotograf&iacute;a del denunciante ser&iacute;a usada para nutrir la base de datos de un sistema de vigilancia que se utiliz&oacute; para el fichaje de los trabajadores&rdquo;, pues tal afirmaci&oacute;n no se contiene en el texto de la Sentencia. En ning&uacute;n apartado de la Sentencia se menciona que la empresa haya utilizado la fotograf&iacute;a del denunciante para nutrir la base de datos de un sistema de vigilancia que se utiliz&oacute; para el fichaje de los trabajadores.</em>
    </p><p class="article-text">
        <em>TERCERO.- Asimismo resulta inexacta la afirmaci&oacute;n de que &ldquo;&hellip; la empresa fue multada en abril con 20.000 euros por el regulador de la privacidad por utilizar biometr&iacute;a de manera irregular, ya que no inform&oacute; a los trabajadores y no haber hecho la preceptiva evaluaci&oacute;n de los posibles riesgos del sistema&rdquo;. La resoluci&oacute;n de la Agencia Espa&ntilde;ola de Protecci&oacute;n de Datos (AEPD) sancion&oacute; a la empresa por carecer de un requisito exclusivamente t&eacute;cnico, pero no sancion&oacute; por no haber informado a los trabajadores.</em>
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/sentencia-pionera-obliga-empresa-indemnizar-trabajador-vigilarlo-reconocimiento-facial-permiso_1_10542328.html]]></guid>
      <pubDate><![CDATA[Mon, 25 Sep 2023 20:06:03 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/1401ffb2-7f19-4cd1-a6a7-162a5797ef8b_16-9-discover-aspect-ratio_default_0.jpg" length="462093" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/1401ffb2-7f19-4cd1-a6a7-162a5797ef8b_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="462093" width="1200" height="675"/>
      <media:title><![CDATA[Una sentencia pionera obliga a una empresa a indemnizar a un trabajador por vigilarlo con reconocimiento facial sin permiso]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/1401ffb2-7f19-4cd1-a6a7-162a5797ef8b_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Reconocimiento facial,Inteligencia artificial,Derechos laborales]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Denuncian a Ryanair por forzar a los pasajeros que no compran el vuelo en su web a someterse a reconocimiento facial]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/denuncian-ryanair-forzar-pasajeros-no-compran-someterse-reconocimiento-facial_1_10410131.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/c08791e9-596b-4936-b864-10910906515a_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Denuncian a Ryanair por forzar a los pasajeros que no compran el vuelo en su web a someterse a reconocimiento facial"></p><div class="subtitles"><p class="subtitle">La ONG Noyb acusa a la aerolínea de usar este proceso "invasivo" para embarrar la venta de vuelos a través de agencias de viajes y promover el uso de su web oficial, donde no es necesaria esta identificación</p><p class="subtitle">Multada una fábrica de Alicante por hacer reconocimiento facial a sus empleados sin avisarles</p></div><p class="article-text">
        La ONG de derechos digitales Noyb ha interpuesto una reclamaci&oacute;n contra Ryanair ante la Agencia Espa&ntilde;ola de Protecci&oacute;n de Datos (AEPD) por forzar a algunos pasajeros a pasar por un sistema de reconocimiento facial con el &uacute;nico prop&oacute;sito de confirmar su correo electr&oacute;nico. Los &uacute;nicos clientes de la aerol&iacute;nea que deben pasar por este proceso son aquellos que compran sus vuelos a trav&eacute;s de agencias de viajes como eDreams, denuncia la organizaci&oacute;n, que entiende &ldquo;no hay ninguna justificaci&oacute;n razonable para utilizar este sistema&rdquo; y que el objetivo de Ryanair es promover la compra de vuelos en su propia web, donde tiene m&aacute;s posibilidades de aumentar su beneficio con ofertas de reservas de veh&iacute;culos y hoteles.
    </p><p class="article-text">
        &ldquo;Esta reserva se ha hecho a trav&eacute;s de una agencia de viajes externa que no tiene ninguna relaci&oacute;n comercial con Ryanair para vender nuestros vuelos&rdquo;, informa la aerol&iacute;nea a los pasajeros que reservan sus vuelos con terceros: &ldquo;Es necesario que verifiques esta reserva para poder gestionarla por ti mismo/a&rdquo;.   Durante ese proceso de verificaci&oacute;n la compa&ntilde;&iacute;a obliga a los pasajeros a someterse a reconocimiento facial, explica Noyb. 
    </p><p class="article-text">
        La &uacute;nica alternativa para no hacer es acudir al aeropuerto con mucha m&aacute;s antelaci&oacute;n y, adem&aacute;s, pagar un extra. &ldquo;Si no completas la verificaci&oacute;n y la facturaci&oacute;n en l&iacute;nea, tendr&aacute;s que acudir al mostrador de Ryanair al menos 2&nbsp;horas antes de la salida y facturar en el aeropuerto pagando una tasa&rdquo;, avisa a los clientes de agencias de viajes antes de comenzar el proceso de verificaci&oacute;n. 
    </p><p class="article-text">
        La compa&ntilde;&iacute;a asegura que esta pol&iacute;tica se debe a que las agencias &ldquo;impiden que Ryanair se asegure de que a los pasajeros se les notifican nuestros protocolos de seguridad y salud p&uacute;blica&rdquo;; le &ldquo;proporcionan datos de contacto incorrectos&rdquo; y &ldquo;utilizan sus propias tarjetas de cr&eacute;dito&rdquo;, lo que le &ldquo;dificulta&rdquo; hacer los reembolsos a los pasajeros afectados por alteraciones en los vuelos.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/a24ae46f-3032-4490-b89d-c90277e69ee6_source-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/a24ae46f-3032-4490-b89d-c90277e69ee6_source-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/a24ae46f-3032-4490-b89d-c90277e69ee6_source-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/a24ae46f-3032-4490-b89d-c90277e69ee6_source-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/a24ae46f-3032-4490-b89d-c90277e69ee6_source-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/a24ae46f-3032-4490-b89d-c90277e69ee6_source-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/a24ae46f-3032-4490-b89d-c90277e69ee6_source-aspect-ratio_default_0.jpg"
                    alt="Mensaje de Ryanair sobre los motivos del proceso de verificación que incluye reconocimiento facial."
                >

            
            </picture>

            
            
                            <figcaption class="image-footer">
            <span class="title">
                Mensaje de Ryanair sobre los motivos del proceso de verificación que incluye reconocimiento facial.                            </span>
                                    </figcaption>
            
                </figure><p class="article-text">
        Para Noyb, exigir a los clientes que se sometan a reconocimiento facial para confirmar que el correo electr&oacute;nico que les ha proporcionado la agencia de viajes es v&aacute;lido es &ldquo;invasivo&rdquo; y desproporcionado. &ldquo;Tu direcci&oacute;n de correo electr&oacute;nico no est&aacute; impresa en tu cara ni en tu pasaporte&rdquo;, afean. 
    </p><p class="article-text">
        Adem&aacute;s, recuerdan que el hecho de que aquellos pasajeros que reservan a trav&eacute;s de la web oficial de Ryanair no tengan que pasar por esta identificaci&oacute;n biom&eacute;trica revela que el objetivo es embarrar las reservas a trav&eacute;s de otros canales para &ldquo;obtener una ventaja competitiva&rdquo;: &ldquo;La informaci&oacute;n proporcionada por Ryanair es tan confusa que los viajeros pueden llegar a pensar que su reserva no es v&aacute;lida. Al empujar a los clientes a pasar por su invasivo proceso de reconocimiento facial, la aerol&iacute;nea consigue tanto violar la privacidad de sus clientes como asegurarse de que no vuelvan a reservar a trav&eacute;s de proveedores externos&rdquo;.
    </p><p class="article-text">
        El conflicto de Ryanair con las agencias de viajes viene de lejos. Cuando este tipo de servicios y comparadores de precios de vuelos empezaban a despegar en la primera d&eacute;cada de siglo, la compa&ntilde;&iacute;a intent&oacute; prohibir que vendieran sus vuelos, pero una sentencia de la Audiencia de Barcelona ratific&oacute; su derecho a ofrecerlos. La batalla comenz&oacute; de nuevo en 2021, cuando la Asociaci&oacute;n Corporativa de Agencias de Viajes Especializadas (Acave) se querell&oacute; contra Ryanair por un delito de injurias por asegurar que su venta de billetes no estaba consentida y que las agencias de viajes reten&iacute;an cantidades pagadas por la compa&ntilde;&iacute;a en concepto de reembolso a clientes por retrasos, cancelaciones y devoluciones. Un juzgado de Barcelona sobresey&oacute; la querella en abril, pero Acave ha recurrido el auto ante la Audiencia Provincial de la capital catalana.
    </p><h3 class="article-text">A cuenta de un tercero</h3><p class="article-text">
        La encargada de realizar el reconocimiento facial de los pasajeros no es la propia Ryanair sino una empresa subcontratada, GetID. Seg&uacute;n explica esta &uacute;ltima, las agencias &ldquo;utilizan bots para completar el proceso de reserva&rdquo;, por lo que el reconocimiento facial &ldquo;permite a Ryanair asegurarse de que un pasajero ha recibido informaci&oacute;n importante de Ryanair y ha completado la facturaci&oacute;n personalmente&rdquo;.
    </p><p class="article-text">
        El hecho de que sea un tercero el que lleve a cabo la identificaci&oacute;n biom&eacute;trica agrava la situaci&oacute;n, denuncia Noyb, ya que &ldquo;significa que los clientes tienen que confiar sus datos biom&eacute;tricos a una empresa de la que nunca han o&iacute;do hablar y con la que no han firmado ning&uacute;n contrato&rdquo;.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/9ee7b145-138d-4c78-8a83-efed8d2633f4_source-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/9ee7b145-138d-4c78-8a83-efed8d2633f4_source-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/9ee7b145-138d-4c78-8a83-efed8d2633f4_source-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/9ee7b145-138d-4c78-8a83-efed8d2633f4_source-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/9ee7b145-138d-4c78-8a83-efed8d2633f4_source-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/9ee7b145-138d-4c78-8a83-efed8d2633f4_source-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/9ee7b145-138d-4c78-8a83-efed8d2633f4_source-aspect-ratio_default_0.jpg"
                    alt="Ryanair asegura que necesita hacer reconocimiento facial a los clientes de agencias de viajes para confirmar su correo electrónico"
                >

            
            </picture>

            
            
                            <figcaption class="image-footer">
            <span class="title">
                Ryanair asegura que necesita hacer reconocimiento facial a los clientes de agencias de viajes para confirmar su correo electrónico                            </span>
                                    </figcaption>
            
                </figure><p class="article-text">
        La pol&iacute;tica de la Agencia de Protecci&oacute;n de Datos en lo referente a los sistemas de reconocimiento facial y otros sistemas de identificaci&oacute;n biom&eacute;trica es clara. El regulador destaca que estas tecnolog&iacute;as tienen un &ldquo;impacto en&nbsp;los derechos y libertades de las personas&rdquo; y &ldquo;conllevan riesgos, tanto para el individuo como para la sociedad&rdquo;, por lo que su implementaci&oacute;n debe responder a necesidades claras que no puedan satisfacerse con otros sistemas menos invasivos. 
    </p><p class="article-text">
        Ryanair ha defendido esta pr&aacute;ctica en un comunicado enviado a elDiario.es. &ldquo;Las agencias de viajes online extraen el inventario de Ryanair y en muchos casos venden nuestros vuelos y servicios adicionales de forma incorrecta, a&ntilde;adiendo recargos ocultos y proporcionando informaci&oacute;n de contacto y detalles de pago incorrectos. Como resultado, y para proteger a los clientes, cualquier cliente que reserve a trav&eacute;s de ellas debe completar un sencillo proceso de verificaci&oacute;n del cliente y puede optar por una verificaci&oacute;n biom&eacute;trica o, alternativamente, completar un formulario de verificaci&oacute;n digital, ambos cumplen completamente con todas las regulaciones del GDPR&rdquo;, ha expresado un portavoz de la compa&ntilde;&iacute;a.
    </p><p class="article-text">
        &ldquo;Esto es para asegurar que ellos (como pasajeros) realicen las declaraciones de seguridad necesarias y se informen directamente sobre todos los protocolos de seguridad y regulaciones requeridas al viajar, como es exigido por la ley&rdquo;, han continuado las mismas fuentes.
    </p><h3 class="article-text">De Facebook a Ryanair</h3><p class="article-text">
        Noyb es una ONG fundada por <a href="https://www.eldiario.es/tecnologia/teme-max-schrems-ue-brega-evitar-vuelva-tumbar-envio-datos-personales-eeuu_1_9750930.html" data-mrf-recirculation="links-noticia" class="link">el joven abogado austr&iacute;aco Max Schrems</a>, conocido por haber tumbado en dos ocasiones el acuerdo bilateral entre la UE y EEUU para la transferencia de datos personales entre ambos bloques. Estos tratados regulan un negocio que mueve miles de millones de euros al a&ntilde;o y resultan vitales para las grandes tecnol&oacute;gicas estadounidenses.
    </p><p class="article-text">
        El argumento que Schrems expres&oacute; en las dos denuncias que present&oacute; ante el Tribunal de Justicia de la UE fue el mismo: los datos de los europeos que Facebook env&iacute;a a EEUU son accesibles por las agencias de seguridad e inteligencia del pa&iacute;s sin permiso judicial, lo que viola las leyes de la UE. El hecho de que Facebook continuara estas transferencias de informaci&oacute;n despu&eacute;s de la sentencia del alto tribunal le ha acarreado una de las multas m&aacute;s altas de la historia de la UE, <a href="https://www.eldiario.es/tecnologia/historica-multa-1-200-millones-euros-meta-enviar-datos-europeos-eeuu_1_10225583.html" data-mrf-recirculation="links-noticia" class="link">de 1.200 millones de euros</a>, impuesta el pasado mayo. Meta (su matriz) ha recurrido la decisi&oacute;n.
    </p><p class="article-text">
        En los &uacute;ltimos tiempos Noyb <a href="https://www.eldiario.es/tecnologia/proteccion-datos-investiga-si-google-analytics-ajusta-reglas-ue_1_8752537.html" data-mrf-recirculation="links-noticia" class="link">ha aumentado sus acciones en el resto de Europa</a> contra otras empresas, como muestra la reclamaci&oacute;n que ha presentado este jueves contra Ryanair. Considerando que Ryanair factur&oacute; 10.780 millones de euros en 2022, la AEPD podr&iacute;a imponerle una multa de hasta 430 millones de euros (4% de sus ingresos globales).
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/denuncian-ryanair-forzar-pasajeros-no-compran-someterse-reconocimiento-facial_1_10410131.html]]></guid>
      <pubDate><![CDATA[Thu, 27 Jul 2023 05:00:00 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/c08791e9-596b-4936-b864-10910906515a_16-9-discover-aspect-ratio_default_0.jpg" length="2963250" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/c08791e9-596b-4936-b864-10910906515a_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="2963250" width="1200" height="675"/>
      <media:title><![CDATA[Denuncian a Ryanair por forzar a los pasajeros que no compran el vuelo en su web a someterse a reconocimiento facial]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/c08791e9-596b-4936-b864-10910906515a_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Ryanair,Aerolíneas,Vuelos,Reconocimiento facial,Agencia Española de Protección de Datos,Políticas de privacidad,Protección de datos]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Multada una fábrica de Alicante por hacer reconocimiento facial a sus empleados sin avisarles]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/multada-fabrica-alicante-reconocimiento-facial-empleados-avisarles_1_10152700.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/c8dd986e-706b-4faf-9c37-f92e303a4ed2_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Multada una fábrica de Alicante por hacer reconocimiento facial a sus empleados sin avisarles"></p><div class="subtitles"><p class="subtitle">La empresa pidió una foto a los trabajadores y la utilizó para llevar a cabo un control horario con esta tecnología, calificada como "de alto riesgo" por los reguladores</p><p class="subtitle">Protección de Datos veta que la policía fotografíe DNI con móviles personales</p></div><p class="article-text">
        El reconocimiento facial est&aacute; considerado uno de los usos de &ldquo;alto riesgo&rdquo; de la inteligencia artificial. Mientras la UE finaliza las normas que determinar&aacute;n <a href="https://www.eldiario.es/tecnologia/industria-digital-acerca-gobierno-rol-clave-proximas-leyes-europeas_1_10132541.html" data-mrf-recirculation="links-noticia" class="link">c&oacute;mo puede desplegarse</a> esta tecnolog&iacute;a en los pr&oacute;ximos a&ntilde;os, los reguladores de privacidad del continente han pedido que solo se emplee cuando no haya opciones m&aacute;s seguras disponibles. Tambi&eacute;n que se haga de forma transparente para las personas a las que se vigila, dos preceptos que se incumpl&iacute;an en una empresa de Alicante que ha usado reconocimiento facial para hacer el registro horario de sus empleados sin informarles.
    </p><p class="article-text">
        La Agencia Espa&ntilde;ola de Protecci&oacute;n de Datos (AEPD) ha multado esta semana con 20.000 euros al fabricante de productos de pl&aacute;stico Plastic Forte, que cuenta con una plantilla de unas 470 personas, por hacer una fotograf&iacute;a a sus trabajadores y ocultarles que uno de sus usos ser&iacute;a la creaci&oacute;n de una plantilla biom&eacute;trica para su reconocimiento facial. En el documento de consentimiento, la empresa solo refer&iacute;a que las im&aacute;genes &ldquo;podr&iacute;an ser utilizadas y difundidas para la publicaci&oacute;n en su p&aacute;gina web, redes sociales, campa&ntilde;as, revistas, folletos, publicidad corporativa y dem&aacute;s materiales de apoyo&rdquo;.
    </p><p class="article-text">
        La resoluci&oacute;n se produce a ra&iacute;z de la denuncia de un trabajador que solicit&oacute; a la compa&ntilde;&iacute;a informaci&oacute;n sobre los datos personales que esta manejaba. Pese a disponer de un registro horario de los per&iacute;odos en los que el empleado estuvo en las instalaciones, en la documentaci&oacute;n aportada por la compa&ntilde;&iacute;a no se citaba la posesi&oacute;n de los datos biom&eacute;tricos de la plantilla.
    </p><p class="article-text">
        Plastic Forte aleg&oacute; ante la AEPD que la ley le obliga a llevar un registro horario del tiempo de trabajo de cada empleado por lo que, al ser esa &ldquo;la &uacute;nica finalidad&rdquo; de los datos biom&eacute;tricos, no se consideraba a obligada a notificar el empleo de esta tecnolog&iacute;a. Sin embargo, ante la apertura del expediente por parte del regulador de privacidad, decidi&oacute; reconocer su responsabilidad y renunciar a presentar alegaciones, lo que implica la reducci&oacute;n de la multa en un 20%. Con el pronto pago, consigui&oacute; otra reducci&oacute;n de otro 20% y dejar la sanci&oacute;n en los 12.000 euros.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/2b249c4c-60e0-474d-8e4c-e12d6aef6337_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/2b249c4c-60e0-474d-8e4c-e12d6aef6337_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/2b249c4c-60e0-474d-8e4c-e12d6aef6337_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/2b249c4c-60e0-474d-8e4c-e12d6aef6337_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/2b249c4c-60e0-474d-8e4c-e12d6aef6337_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/2b249c4c-60e0-474d-8e4c-e12d6aef6337_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/2b249c4c-60e0-474d-8e4c-e12d6aef6337_16-9-aspect-ratio_default_0.jpg"
                    alt="Factoría de Plastic Forte en Alicante"
                >

            
            </picture>

            
            
                            <figcaption class="image-footer">
            <span class="title">
                Factoría de Plastic Forte en Alicante                            </span>
                                    </figcaption>
            
                </figure><p class="article-text">
        <a href="https://www.aepd.es/es/documento/ps-00597-2022.pdf" data-mrf-recirculation="links-noticia" class="link" target="_blank">En la resoluci&oacute;n </a>la AEPD recuerda que el empleo de reconocimiento facial para el control horario es &ldquo;un sistema de identificaci&oacute;n novedoso y muy intrusivo para los derechos y libertades fundamentales de las personas&rdquo;. Su uso no est&aacute; prohibido, pero requiere de una evaluaci&oacute;n de impacto y la comunicaci&oacute;n al comit&eacute; de empresa de c&oacute;mo, cu&aacute;ndo y qui&eacute;n despliega la tecnolog&iacute;a biom&eacute;trica.
    </p><p class="article-text">
        Dicha evaluaci&oacute;n debe incluir un an&aacute;lisis de &ldquo;la necesidad y la proporcionalidad&rdquo; de esos sistemas, as&iacute; como &ldquo;las medidas previstas para afrontar los riesgos&rdquo; que lleva a aparejado el reconocimiento facial, como las brechas de seguridad o la desviaci&oacute;n de la informaci&oacute;n biom&eacute;trica a &ldquo;bases de datos centralizadas&rdquo; menos seguras, recuerda la AEPD. 
    </p><p class="article-text">
        En caso de que a&uacute;n as&iacute; se decida implementar el sistema de reconocimiento facial, el organismo recalca que se debe tener en cuenta cu&aacute;ntos datos de la cara se recogen e intentar minimizarlos. &ldquo;Por una parte, el tama&ntilde;o de la plantilla debe ser lo bastante grande para gestionar la seguridad (evitando solapamientos entre los diferentes datos biom&eacute;tricos, o sustituciones de identidad) y, por otra, no deber&aacute; ser demasiado grande a fin de evitar los riesgos de reconstrucci&oacute;n de los datos biom&eacute;tricos&rdquo;, se&ntilde;ala. 
    </p><p class="article-text">
        elDiario.es ha contactado con Plastic Forte para incluir su valoraci&oacute;n en esta informaci&oacute;n. La empresa ha rechazado el ofrecimiento y ha amenazado con acciones legales &ldquo;civiles y penales&rdquo; contra este medio si no refleja de forma &ldquo;fehaciente&rdquo; el contenido del dictamen de la AEPD.
    </p><h3 class="article-text">Vigilancia no consentida de trabajadores</h3><p class="article-text">
        Una de las l&iacute;neas habituales de las resoluciones de la AEPD tiene que ver con los sistemas de vigilancia desplegados sobre los trabajadores sin su consentimiento. El registro de im&aacute;genes o audio de manera opaca es <a href="https://www.eldiario.es/tecnologia/multa-despedir-empleada-conversacion-clienta-grabada-motivo_1_9642939.html" data-mrf-recirculation="links-noticia" class="link">fuente habitual de sanciones</a> y apercibimientos por parte del organismo de privacidad espa&ntilde;ol.
    </p><p class="article-text">
        Este mi&eacute;rcoles la instituci&oacute;n ha multado a otra empresa con 5.000 euros por instalar un sistema de videovigilancia capaz de retransmitir en tiempo real el audio de un establecimiento sin informar a los trabajadores, ni tampoco a los clientes. &ldquo;Se entiende desproporcionada la captaci&oacute;n de la voz tanto de los trabajadores como de clientes de la parte reclamada para la funci&oacute;n de videovigilancia pretendida. Se tiene en cuenta que la captaci&oacute;n de voz supone una mayor intromisi&oacute;n en la intimidad&rdquo;, expone <a href="https://www.aepd.es/es/documento/ps-00389-2022.pdf" data-mrf-recirculation="links-noticia" class="link" target="_blank">la resoluci&oacute;n</a>.
    </p><p class="article-text">
        En este caso, la denuncia lleg&oacute; por parte de otra trabajadora que descubri&oacute; que estaba siendo escuchada cuando su responsable le pregunt&oacute; a trav&eacute;s del grupo de WhatsApp del negocio por lo que se escuchaba en el local. &ldquo;Qu&eacute; tienes puesto de fondo? Por qu&eacute; no hay m&uacute;sica?&rdquo;, inquiri&oacute;: &ldquo;Entr&eacute; en la c&aacute;mara y se escuchaban las noticias&rdquo;, afirm&oacute; en una conversaci&oacute;n que la empleada aport&oacute; como prueba. 
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/multada-fabrica-alicante-reconocimiento-facial-empleados-avisarles_1_10152700.html]]></guid>
      <pubDate><![CDATA[Wed, 26 Apr 2023 20:26:05 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/c8dd986e-706b-4faf-9c37-f92e303a4ed2_16-9-discover-aspect-ratio_default_0.jpg" length="144497" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/c8dd986e-706b-4faf-9c37-f92e303a4ed2_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="144497" width="1200" height="675"/>
      <media:title><![CDATA[Multada una fábrica de Alicante por hacer reconocimiento facial a sus empleados sin avisarles]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/c8dd986e-706b-4faf-9c37-f92e303a4ed2_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Reconocimiento facial,Inteligencia artificial,Agencia Española de Protección de Datos,Empleo,Empleados,Trabajo,Trabajadores]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Identificación por las venas: la nueva frontera de los datos personales]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/identificacion-venas-nueva-frontera-datos-personales_1_9840199.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/7eb1ac93-7f8b-46f0-91fa-bdfd40f5c2f3_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Identificación por las venas: la nueva frontera de los datos personales"></p><div class="subtitles"><p class="subtitle">La tecnología de reconocimiento de personas por sus patrones venosos promete ser más precisa y ética que otros sistemas biométricos, pero los expertos avisan de que puede utilizarse para la vigilancia de poblaciones vulnerables, como los migrantes</p><p class="subtitle">La startup que 'occidentaliza' el acento de las personas planea extender su tecnología al español
</p></div><p class="article-text">
        Pasar la palma de la mano por un lector infrarrojo o simplemente sacarse una foto del antebrazo con el m&oacute;vil. Un programa de inteligencia artificial que compara esa imagen con una base de datos de sujetos y listo: la persona ha sido identificada por la geometr&iacute;a de sus venas. Se trata del reconocimiento vascular, la nueva frontera de la biometr&iacute;a apoyada en algoritmos. Sus partidarios defienden que es un m&eacute;todo de identificaci&oacute;n mucho m&aacute;s preciso que otros en los que se ha investigado m&aacute;s en los &uacute;ltimos a&ntilde;os, como los que usan los rasgos de la cara. 
    </p><p class="article-text">
        Las venas no cambian a lo largo de los a&ntilde;os, no tienen sesgos raciales y es imposible cambiar sus patrones o falsificarlos, ya que estos m&eacute;todos requieren presi&oacute;n sangu&iacute;nea. 
    </p><p class="article-text">
        Sin embargo, sus detractores avisan de que se trata de un m&eacute;todo invasivo que puede comprometer a&uacute;n m&aacute;s la privacidad personal, especialmente la de los grupos vulnerables.
    </p><p class="article-text">
        Los dispositivos de reconocimiento vascular est&aacute;n avanzando a pasos agigantados. Investigadoras del Instituto de Microelectr&oacute;nica de Sevilla (Universidad de Sevilla-CSIC)&nbsp;acaban de presentar un sistema para hacerlo con cualquier m&oacute;vil de gama media. &ldquo;Hoy en d&iacute;a, la biometr&iacute;a basada en patrones venosos como rasgo es una t&eacute;cnica prometedora. Los patrones venosos satisfacen los requisitos de universalidad, distintividad, permanencia, rendimiento y protecci&oacute;n contra la elusi&oacute;n&rdquo;, explican en su estudio, publicado en la revista cient&iacute;fica <a href="https://www.mdpi.com/2076-3417/12/7/3522" data-mrf-recirculation="links-noticia" class="link" target="_blank">Applied Sciences</a>.
    </p><p class="article-text">
        Su m&eacute;todo toma una imagen de la mu&ntilde;eca del sujeto y aplica un contraste infrarrojo para detectar las venas y los capilares. La hemoglobina presente en la sangre absorbe m&aacute;s luz infrarroja que el resto de tejidos, lo que permite trazar con exactitud el recorrido de los vasos sangu&iacute;neos sin tener en cuenta los rasgos cut&aacute;neos. Esa geometr&iacute;a de venas y capilares es propia de cada individuo, con lo que un algoritmo especializado puede identificar a cualquier persona partir de esas im&aacute;genes.
    </p><p class="article-text">
        Con todo, lo novedoso de la investigaci&oacute;n espa&ntilde;ola es que presenta una forma de captar esas im&aacute;genes de las redes de vasos sangu&iacute;neos a bajo coste. Era uno de los dos problemas que tiene la biometr&iacute;a vascular en comparaci&oacute;n con el reconocimiento facial o la huella dactilar, ya que los sistemas de captaci&oacute;n de las im&aacute;genes son caros y complejos. 
    </p><p class="article-text">
        El segundo reto de esta tecnolog&iacute;a es la disponibilidad de im&aacute;genes para entrenar a los algoritmos de inteligencia artificial. Para ser fiables, estos sistemas necesitan analizar primero los patrones de las venas de los seres humanos a partir de enormes bases de datos de c&oacute;mo se dibujan las venas de las personas. Millones de im&aacute;genes, a ser posible.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/1dd472be-52cb-428d-96a0-aade4d206427_source-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/1dd472be-52cb-428d-96a0-aade4d206427_source-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/1dd472be-52cb-428d-96a0-aade4d206427_source-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/1dd472be-52cb-428d-96a0-aade4d206427_source-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/1dd472be-52cb-428d-96a0-aade4d206427_source-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/1dd472be-52cb-428d-96a0-aade4d206427_source-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/1dd472be-52cb-428d-96a0-aade4d206427_source-aspect-ratio_default_0.jpg"
                    alt="Mapa de las arterias de la mano"
                >

            
            </picture>

            
            
                            <figcaption class="image-footer">
            <span class="title">
                Mapa de las arterias de la mano                            </span>
                                    </figcaption>
            
                </figure><p class="article-text">
        El acceso a ese material de entrenamiento ya ha sido un tema controvertido en otros sistemas biom&eacute;tricos, especialmente el reconocimiento facial. Gran parte de las fotograf&iacute;as de caras que han usado los algoritmos de las principales empresas que disponen de estos servicios se sacaron de Internet sin el permiso de las personas que las subieron. Algunas compa&ntilde;&iacute;as incluso ofrecen reconocimiento facial de pago comparando la foto suministrada con las im&aacute;genes disponibles de forma p&uacute;blica en Internet. <a href="https://www.eldiario.es/tecnologia/ucrania-usara-reconocimiento-facial-polemica-firma-multada-ue-detectar-infiltrados-rusos_1_8828338.html" data-mrf-recirculation="links-noticia" class="link">ClearView</a>, una de las m&aacute;s famosas, fue multada en 2022 con 20 millones de euros en Francia por este motivo.
    </p><p class="article-text">
        Las im&aacute;genes de la disposici&oacute;n de los vasos sangu&iacute;neos, al contrario que las fotograf&iacute;as de caras, no son tan comunes en la red. El gigante chino Tencent (la <a href="https://www.eldiario.es/tecnologia/china-pone-firmes-tecnologicas-partido-comunista-carrera-eeuu_1_8287080.html" data-mrf-recirculation="links-noticia" class="link">segunda multinacional tecnol&oacute;gica</a> del pa&iacute;s por detr&aacute;s de Alibaba) ha tenido varias iniciativas para intentar formar ese banco de im&aacute;genes con los que entrenar a su inteligencia artificial. Una de ellas es ofrecer refrescos por un c&eacute;ntimo, siendo ese c&eacute;ntimo la excusa para que sus usuarios registren la estructura vascular de su mano como forma de pago, ha revelado <a href="https://www.technologyreview.com/2022/11/15/1063218/whats-next-biometrics-palm-print-recognition-tencent-we-chat-pay/" data-mrf-recirculation="links-noticia" class="link" target="_blank">MIT Technology Review</a>.
    </p><p class="article-text">
        No es casualidad que la gran tecnol&oacute;gica asi&aacute;tica sea una de las primeras que se ha lanzado a desarrollar biometr&iacute;a vascular. China es uno de los pa&iacute;ses m&aacute;s avanzados en reconocimiento facial. Es uno de los principales ingredientes del estado de hipervigilancia basado en el cr&eacute;dito social. Un sistema en el que juega un papel muy importante WeChat, propiedad de Tencent. Se trata de una <em>superapp</em> de uso masivo en el pa&iacute;s que acumula las funciones de sistema de mensajer&iacute;a, plataforma de pago o red social, y en la que el r&eacute;gimen tiene libre acceso a los datos. El nuevo sistema para pagar con las venas de la mano es un proyecto de WeChat Pay.
    </p><p class="article-text">
        China tambi&eacute;n es una de las m&aacute;s avanzadas en el estudio de la biometr&iacute;a vascular en el contexto acad&eacute;mico. &ldquo;Puedo decirles, muy honestamente, que hemos estado trabajando en el reconocimiento de huellas palmares durante m&aacute;s de 20 a&ntilde;os.&nbsp;Ya est&aacute; listo&rdquo;, asegura David Zhang, profesor de la Universidad China de Hong Kong.&nbsp;&ldquo;El reconocimiento de las huellas palmares combina [las ventajas de identificar] el detalle de las huellas dactilares, la textura del iris y la informaci&oacute;n geom&eacute;trica de los rostros&rdquo;, explica.&nbsp;Las investigaciones de su equipo muestran que las tasas de precisi&oacute;n de las identificaciones por las venas de la mano es hasta diez veces mayor que usando huellas dactilares o rostros.
    </p><p class="article-text">
        Sin embargo, no todos los usuarios chinos parecen conformes con ceder esos datos a Tencent a cambio de saltarse una cola o tener refrescos gratis. &ldquo;&iquest;As&iacute; que ya han terminado de recopilar todos los dem&aacute;s datos biom&eacute;tricos y pasan a las huellas de la palma de la mano? El iris ser&aacute; lo siguiente, y luego el ADN&rdquo;, comentaba uno en Douyin, el TikTok chino, en un comentario recogido por la citada revista tecnol&oacute;gica del MIT.
    </p><h3 class="article-text">Datos sensibles y sistemas de riesgo</h3><p class="article-text">
        La biometr&iacute;a es un sistema de identificaci&oacute;n en auge porque una de las ambiciones de las compa&ntilde;&iacute;as tecnol&oacute;gicas es dejar atr&aacute;s las contrase&ntilde;as. Las claves d&eacute;biles son mayor&iacute;a entre los usuarios y uno de los eslabones m&aacute;s sensibles de la cadena de ciberseguridad. Pero se trata de una tecnolog&iacute;a que lleva aparejada una traba estructural: si se filtra o hackea una contrase&ntilde;a, se puede configurar una nueva. Pero si se inventa un m&eacute;todo para copiar una identificaci&oacute;n biom&eacute;trica, el usuario no puede cambiar su cara o su patr&oacute;n vascular.
    </p><p class="article-text">
        Es por esto que el uso de biometr&iacute;a est&aacute; controlado a nivel legal en Europa. Por una parte, los datos biom&eacute;tricos &ldquo;relativos a las caracter&iacute;sticas f&iacute;sicas, fisiol&oacute;gicas o conductuales de una persona que permitan o confirmen su identificaci&oacute;n&rdquo; est&aacute;n considerados como &ldquo;datos sensibles&rdquo; por el Reglamento General de Protecci&oacute;n de Datos de la UE. Esto impide recopilarlos sin el consentimiento expreso del usuario, aunque la norma deja la puerta abierta a que los cuerpos de seguridad o autoridades sanitarias los usen si existe &ldquo;un inter&eacute;s p&uacute;blico esencial&rdquo;.
    </p><p class="article-text">
        Sin embargo, la explosi&oacute;n de la biometr&iacute;a en los &uacute;ltimos a&ntilde;os, especialmente del reconocimiento facial, ha hecho que las autoridades comunitarias se planteen tomar m&aacute;s medidas sobre su uso. Este tipo de algoritmos ser&aacute;n declarados &ldquo;de alto riesgo&rdquo; en el nuevo Reglamento de Inteligencia Artificial que la UE tiene en el horno. Comisi&oacute;n, Parlamento y Consejo europeos se han mostrado de acuerdo en vetar su uso en &ldquo;entornos abiertos&rdquo;, es decir, para la vigilancia de personas al estilo chino. Sin embargo, el texto tambi&eacute;n vuelve a contemplar la posibilidad de que la polic&iacute;a lo emplee de esta forma ante riesgos concretos de seguridad o en protecci&oacute;n de fronteras. Este es uno de los puntos que a&uacute;n est&aacute; abierto a debate.
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">El problema no es la tecnología sino el contexto en el que se aplique</p>
                <div class="quote-author">
                        <span class="name">Ana Valdivia</span>
                                        <span>—</span> profesora de la Universidad de Oxford
                      </div>
          </div>

  </blockquote><p class="article-text">
        Con todo, ninguna de las dos normas menciona de forma espec&iacute;fica la biometr&iacute;a vascular. &ldquo;Es cierto que con estos m&eacute;todos pasa como con la identificaci&oacute;n por huella dactilar, que tienen menos riesgos &eacute;ticos que sistemas como el reconocimiento facial porque este te lo pueden hacer por la calle sin que te des cuenta&rdquo;, explica Ana Valdivia, profesora del Internet Institute de la Universidad de Oxford especializada en la intersecci&oacute;n entre Inteligencia Artificial, Gobierno y Pol&iacute;tica. &ldquo;Pero el problema no es la tecnolog&iacute;a, sino el contexto en el que se aplique&rdquo;, avisa.
    </p><p class="article-text">
        Valdivia estudi&oacute; uno de estos sistemas de identificaci&oacute;n que fue implementado para el control de fronteras en el Reino Unido, uno de sus primeros usos en Europa. <a href="https://arxiv.org/pdf/2112.11193.pdf" data-mrf-recirculation="links-noticia" class="link" target="_blank">Su conclusi&oacute;n</a> fue que si la pol&iacute;tica de aplicaci&oacute;n de ese sistema de identificaci&oacute;n es discriminatoria, da igual que la tecnolog&iacute;a tenga mayor base &eacute;tica que otras. &ldquo;Si t&uacute; implementas un algoritmo, como en este caso el que lee las venas de la palma de la mano, y fuerzas al migrante a que te d&eacute; la palma por un tema de legislaci&oacute;n, porque lo que quieres es identificar a esa persona para que no cruce a Francia, da igual que el sistema sea m&aacute;s justo. Si el contexto de aplicaci&oacute;n es injusto, todo ser&aacute; injusto&rdquo;, concluye.
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/identificacion-venas-nueva-frontera-datos-personales_1_9840199.html]]></guid>
      <pubDate><![CDATA[Fri, 06 Jan 2023 21:16:08 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/7eb1ac93-7f8b-46f0-91fa-bdfd40f5c2f3_16-9-discover-aspect-ratio_default_0.jpg" length="28891" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/7eb1ac93-7f8b-46f0-91fa-bdfd40f5c2f3_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="28891" width="1200" height="675"/>
      <media:title><![CDATA[Identificación por las venas: la nueva frontera de los datos personales]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/7eb1ac93-7f8b-46f0-91fa-bdfd40f5c2f3_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Protección de datos,Reconocimiento facial,Inteligencia artificial]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Interior prepara un sistema de reconocimiento facial para identificar sospechosos]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/interior-prepara-sistema-reconocimiento-facial-identificar-sospechosos_1_9711509.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/d318bcc3-0545-4cd9-b2a6-ace8f2038d79_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Interior prepara un sistema de reconocimiento facial para identificar sospechosos"></p><div class="subtitles"><p class="subtitle">La Policía prueba una tecnología de identificación biométrica para la investigación de delitos, uno de los usos de más riesgo de la inteligencia artificial</p><p class="subtitle">Las autoridades de privacidad de la UE piden el veto “inmediato” del reconocimiento facial en lugares públicos
</p></div><p class="article-text">
        El Ministerio del Interior est&aacute; probando un sistema de reconocimiento facial para identificar sospechosos. El programa utiliza un algoritmo de inteligencia artificial desarrollado por la compa&ntilde;&iacute;a francesa Thales, especializada en tecnolog&iacute;a militar. Seg&uacute;n han revelado fuentes policiales a <a href="https://elpais.com/tecnologia/2022-11-15/la-policia-espanola-usara-una-herramienta-automatica-de-reconocimiento-facial.html" data-mrf-recirculation="links-noticia" class="link" target="_blank">El Pa&iacute;s</a>, el objetivo es ponerlo a disposici&oacute;n de la Polic&iacute;a Nacional, la Guardia Civil y los cuerpos regionales durante los pr&oacute;ximos meses.
    </p><p class="article-text">
        Las fuerzas de seguridad utilizar&aacute;n el programa ABIS (siglas en ingl&eacute;s de sistema autom&aacute;tico de identificaci&oacute;n biom&eacute;trica) para investigaciones en curso y no para la vigilancia, seg&uacute;n ha asegurado Interior al citado medio. El sistema permitir&aacute; a los agentes cotejar las im&aacute;genes que hayan podido obtener de una c&aacute;mara de seguridad, por ejemplo, con las fotograf&iacute;as de la base de datos de personas que ya estaban fichadas por los cuerpos policiales. En este momento una parte de los trabajos se centra en armonizar esos repositorios, que contienen millones de im&aacute;genes, para permitir que ABIS los analice. No se utilizar&aacute; informaci&oacute;n procedente de otros registros, como las fotograf&iacute;as del DNI.
    </p><p class="article-text">
        La Agencia Espa&ntilde;ola de Protecci&oacute;n de Datos (AEPD) se encuentra en contacto con Interior para analizar el desarrollo del programa y su posible impacto en los derechos de los ciudadanos. Cuestiones como durante cu&aacute;nto tiempo podr&aacute; usarse la fotograf&iacute;a de un sospechoso para buscar coincidencias biom&eacute;tricas con las im&aacute;genes procedentes de la investigaci&oacute;n de un delito est&aacute;n a&uacute;n por dilucidar. La tecnolog&iacute;a de reconocimiento facial est&aacute; considerado uno de los usos m&aacute;s peligrosos de la inteligencia artificial por su gran capacidad de provocar graves perjuicios a personas que no han cometido ning&uacute;n delito si el sistema se equivoca.
    </p><p class="article-text">
        La UE ultima un nuevo reglamento para la inteligencia artificial que encuadra los sistemas de reconocimiento biom&eacute;trico, donde se incluye el facial, entre los de riesgo m&aacute;s alto. Esto evitar&aacute; que se puedan usar para la vigilancia indiscriminada o sin una autorizaci&oacute;n especial, en caso de que sea un agente privado el que quiera desplegarlos. Sin embargo, el texto deja la puerta abierta para su uso policial al autorizar su aplicaci&oacute;n con &ldquo;fines de prevenci&oacute;n, detenci&oacute;n o investigaci&oacute;n de cr&iacute;menes graves o terrorismo&rdquo;.
    </p><p class="article-text">
        A estos problemas se suma el hecho de que se trata de sistemas en los que se han descubierto sesgos notables para personas racializadas. En occidente, los algoritmos que utilizan estos programas han sido entrenados con bases de datos donde existe una predominancia de sujetos cauc&aacute;sicos, lo que hace que su margen de error escale notablemente cuando deben identificar a personas de otras caracter&iacute;sticas. Su sesgo racista qued&oacute; destapado durante las protestas del movimiento Black Lives Matter, tras las cuales se aplicaron moratorias a la venta de esta tecnolog&iacute;a y se vet&oacute; su uso policial.
    </p><p class="article-text">
        Desde Interior aseguran que ABIS se limita a ofrecer una serie de candidatos con el mayor parecido f&iacute;sico con el de una imagen introducida en el sistema, pero que siempre corresponder&aacute; a un agente llevar a cabo la identificaci&oacute;n definitiva y decidir si se investiga a una persona o no. En cualquier caso, las dudas sobre el reconocimiento artificial tambi&eacute;n han afectado a este proyecto, que se ha retrasado varias veces y ya lleva m&aacute;s de tres a&ntilde;os investig&aacute;ndose.
    </p><h3 class="article-text">Junto al ADN o las huellas dactilares</h3><p class="article-text">
        El sistema de reconocimiento facial espa&ntilde;ol se prueba en la Secci&oacute;n de Antropolog&iacute;a Forense de la Comisar&iacute;a General de Polic&iacute;a Cient&iacute;fica de Madrid. Esta unidad trabaja habitualmente con dos posibles l&iacute;neas de investigaci&oacute;n en cada delito: el ADN y las huellas dactilares. El objetivo de Interior es que el reconocimiento facial se convierta en la tercera para de su trabajo. 
    </p><p class="article-text">
        La principal ventaja es que se tratar&iacute;a de una l&iacute;nea que no requerir&iacute;a que los agentes cuenten con evidencias f&iacute;sicas del sospechoso, como el material gen&eacute;tico o los rastros de huellas necesarios en sus investigaciones tradicionales. El problema es que los sistemas de reconocimiento facial tienen un &iacute;ndice de error mucho mayor que las pruebas de ADN o el cotejo de huellas dactilares.
    </p><p class="article-text">
        &ldquo;Cuando le presentas una imagen de una persona, el sistema te ordena las fotograf&iacute;as de rese&ntilde;a policial [unos cinco millones, seg&uacute;n interior] desde la que m&aacute;s se parece a la que menos. Entonces el operador recorre las primeras posiciones en busca de una coincidencia&rdquo;, declara el inspector a cargo del desarrollo a El Pa&iacute;s. &ldquo;Mi equipo har&iacute;a un estudio uno a uno del sujeto ofrecido por la herramienta autom&aacute;tica. Se busca una fiabilidad muy alta, porque nuestra pericial puede condicionar una sentencia, y para eso hace falta mucha calidad de imagen&rdquo;, a&ntilde;ade.
    </p><h3 class="article-text">Transparencia</h3><p class="article-text">
        En pa&iacute;ses como China o Rusia se usa la tecnolog&iacute;a de identificaci&oacute;n biom&eacute;trica para la vigilancia masiva de los ciudadanos, un uso que la UE ha prohibido por atentar gravemente contra los derechos humanos. Sin embargo, estados europeos como Reino Unido, Pa&iacute;ses Bajos, Francia o Alemania tienen en marcha sistemas de reconocimiento facial de uso policial o se encuentran en fase piloto. 
    </p><p class="article-text">
        En el caso de ABIS, Interior explica que a&uacute;n faltan unos meses para pensar en su aplicaci&oacute;n definitiva por lo que a&uacute;n quedan detalles por perfilar. Uno de ellos ser&aacute; si el programa se usa de manera centralizada por una unidad experta o si se distribuye como una herramienta m&aacute;s entre otras unidades. 
    </p><p class="article-text">
        Adem&aacute;s de las cuestiones legales que est&aacute; analizando la AEPD, los especialistas en este tipo de sistemas remarcan que la clave es la transparencia y la capacidad de auditar el trabajo de los algoritmos de manera externa. Esto no se cumple en otros algoritmos utilizados por la Polic&iacute;a, como el famoso VioG&eacute;n, que decide el nivel de riesgo que corre una v&iacute;ctima de violencia machista. Interior se ha negado en repetidas ocasiones a facilitar un an&aacute;lisis independiente a pesar de que el sistema ha fallado y <a href="https://www.eldiario.es/tecnologia/victimas-denuncian-fallos-viogen-algoritmo-violencia-genero_1_8815201.html" data-mrf-recirculation="links-noticia" class="link">ha asignado riesgos bajos a mujeres que denunciaron y terminaron asesinadas</a>, lo que supuso una menor protecci&oacute;n policial y la desestimaci&oacute;n de otras medidas especiales de distanciamiento.
    </p>]]></description>
      <dc:creator><![CDATA[elDiario.es]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/interior-prepara-sistema-reconocimiento-facial-identificar-sospechosos_1_9711509.html]]></guid>
      <pubDate><![CDATA[Tue, 15 Nov 2022 09:53:44 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/d318bcc3-0545-4cd9-b2a6-ace8f2038d79_16-9-discover-aspect-ratio_default_0.jpg" length="37742" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/d318bcc3-0545-4cd9-b2a6-ace8f2038d79_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="37742" width="1200" height="675"/>
      <media:title><![CDATA[Interior prepara un sistema de reconocimiento facial para identificar sospechosos]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/d318bcc3-0545-4cd9-b2a6-ace8f2038d79_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Reconocimiento facial,Ministerio del Interior,Policía Nacional,Guardia Civil]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Ucrania usará el reconocimiento facial de una polémica firma multada en la UE para detectar infiltrados rusos]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/ucrania-usara-reconocimiento-facial-polemica-firma-multada-ue-detectar-infiltrados-rusos_1_8828338.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/776b6bf4-e2d7-4b5e-94e2-b7710ba488d4_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Ucrania usará el reconocimiento facial de una polémica firma multada en la UE para detectar infiltrados rusos"></p><div class="subtitles"><p class="subtitle">Kiev utilizará los servicios de Clearview AI, que ha formado sin permiso una base de datos con 10.000 millones de fotografías sacadas de Internet y a la que Italia acaba de multar con la máxima cuantía que permiten las leyes europeas</p><p class="subtitle">Análisis - Qué capacidad tiene el ejército de Ucrania y qué papel juegan las armas de Occidente</p></div><p class="article-text">
        Detectar agentes rusos infiltrados, reconocer a personas fallecidas, luchar contra la desinformaci&oacute;n o facilitar la identificaci&oacute;n de refugiados sin documentaci&oacute;n. Ucrania ha llegado a un acuerdo con la firma estadounidense Clearview AI para utilizar de manera gratuita su sistema de reconocimiento facial, cuya base de datos son unos 10.000 millones de im&aacute;genes recogidas de Internet sin permiso de las personas que aparecen en ellas. Este sistema ha sido denunciado por organizaciones de privacidad y acaba de acarrearle una multa de 20 millones de euros en Italia, que ha ordenado a Clearview AI detener inmediatamente el procesamiento de fotograf&iacute;as de italianos.
    </p><p class="article-text">
        El acuerdo entre Ucrania y Clearview AI fue adelantado por Reuters y ha sido confirmado por elDiario.es. Seg&uacute;n la agencia, el Ministerio de Defensa ucraniano utiliza los servicios de la empresa desde este s&aacute;bado y pr&oacute;ximamente se le unir&aacute;n otros departamentos del Gobierno que dirige <a href="https://www.eldiario.es/internacional/historia-detras-zelenski-heroe-no-accidental_1_8795854.html" data-mrf-recirculation="links-noticia" class="link">Volod&iacute;mir Zelenski</a>. &ldquo;Me complace confirmar que Clearview AI ha proporcionado su innovadora tecnolog&iacute;a de reconocimiento facial a los funcionarios ucranianos para que la utilicen durante la crisis a la que se enfrentan&rdquo;, expresa en un comunicado remitido a esta redacci&oacute;n Hoan Ton-That, su fundador y presidente.
    </p><p class="article-text">
        La tecnolog&iacute;a de Clearview AI permite identificar a una persona a trav&eacute;s de las im&aacute;genes que ha dejado atr&aacute;s en Internet, principalmente en redes sociales y plataformas de v&iacute;deo. Meta (matriz de Facebook, Instagram o WhatsApp), YouTube, Twitter o LinkedIn le exigieron que dejara de recopilar sus im&aacute;genes y m&aacute;s de 40 organizaciones de derechos civiles han criticado sus m&eacute;todos, pese a lo cual Clearview AI es un contratista habitual de las fuerzas de seguridad de EEUU. Entre sus clientes se encuentran el FBI, el Departamento de Seguridad Nacional y numerosos cuerpos policiales locales y estatales.
    </p><p class="article-text">
        Fue Ton-That el que ofreci&oacute; personalmente sus servicios al Gobierno ucraniano, recordando que su empresa tambi&eacute;n cuenta con una amplia base de datos de ciudadanos rusos gracias a <a href="https://www.eldiario.es/tecnologia/gref-kiriyenko-junior-oligarcas-controlan-red-rusa-putin_1_8821706.html" data-mrf-recirculation="links-noticia" class="link">VK,</a><a href="https://www.eldiario.es/tecnologia/gref-kiriyenko-junior-oligarcas-controlan-red-rusa-putin_1_8821706.html" data-mrf-recirculation="links-noticia" class="link"><em> el Facebook ruso</em></a><a href="https://www.eldiario.es/tecnologia/gref-kiriyenko-junior-oligarcas-controlan-red-rusa-putin_1_8821706.html" data-mrf-recirculation="links-noticia" class="link">.</a> &ldquo;La base de datos de Clearview AI contiene fotos de todo el mundo, y una gran parte de las redes sociales rusas, como Vkontakte. Tenemos m&aacute;s de 2.000 millones de im&aacute;genes de la red social Vkontakte en la base de datos Clearview AI&rdquo;, explic&oacute; en una carta a la que tambi&eacute;n ha tenido acceso elDiario.es.
    </p><p class="article-text">
        La primera utilidad que enumeraba para su tecnolog&iacute;a es la de descubrir a agentes rusos infiltrados. &ldquo;Con solo una foto de la persona o incluso de su tarjeta de identidad, ser&aacute;n capaces de ver su nombre real, socios, amigos, familia y los enlaces a cualquier informaci&oacute;n p&uacute;blica que haya online sobre esa persona&rdquo;, detall&oacute;. &ldquo;Los posibles infiltrados que se hagan pasar por partidarios de Ucrania pueden ser investigados instant&aacute;neamente. Por ejemplo, algunos infiltrados podr&iacute;an tener cuentas p&uacute;blicas en VK con fotos con el uniforme del ej&eacute;rcito ruso&rdquo;. 
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">Algunos infiltrados podrían tener cuentas públicas en VK con fotos con el uniforme del ejército ruso</p>
                <div class="quote-author">
                        <span class="name">Hoan Ton-That</span>
                                        <span>—</span> fundador y presidente de Clearview AI
                      </div>
          </div>

  </blockquote><p class="article-text">
        Adem&aacute;s de para prop&oacute;sitos militares, Thon-That detalla que su tecnolog&iacute;a tambi&eacute;n puede ser &uacute;til en Ucrania para identificar cad&aacute;veres, especialmente cuando sacar una huella dactilar sea m&aacute;s complicado que una fotograf&iacute;a. &ldquo;Clearview AI funciona eficazmente independientemente de los da&ntilde;os faciales que pueda sufrir una persona fallecida&rdquo;, asegura. Tambi&eacute;n sugiere que se puede usar para el reconocimiento de refugiados que no est&eacute;n en posesi&oacute;n de su documentaci&oacute;n.
    </p><p class="article-text">
        El fundador de la compa&ntilde;&iacute;a afirma que el servicio tambi&eacute;n puede resultar &uacute;til para que Ucrania desmienta la desinformaci&oacute;n rusa cuando esta implica directamente a personas o grupos concretos. Desde el comienzo de la invasi&oacute;n se han viralizado en redes sociales v&iacute;deos que aseguraban provenir de soldados capturados por uno y otro bando. Tras atacar la maternidad de Mari&uacute;pol, Rusia difundi&oacute; sin pruebas que una de las v&iacute;ctimas embarazadas que aparecieron en las im&aacute;genes era una <a href="https://www.eldiario.es/internacional/rusia-dice-pruebas-victimas-maternidad-mariupol-son-actrices-maquillaje-realista_1_8819904.html" data-mrf-recirculation="links-noticia" class="link">&ldquo;actriz con maquillaje muy realista&rdquo;</a>.
    </p><p class="article-text">
        El uso del reconocimiento facial en un contexto de guerra y sus posibles consecuencias han elevado las alarmas de los expertos. &ldquo;Es muy preocupante&rdquo;, expresa a elDiario.es Ella Jakubowska, asesora de European Digital Rights (EDRi), una red de ONG y fundaciones europeas de derechos digitales. &ldquo;Incluso un sistema que es muy preciso en condiciones de laboratorio no funcionar&aacute; con la misma precisi&oacute;n en una zona de guerra, con resultados potencialmente fatales&rdquo;, avisa.
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">Estamos abriendo la caja de pandora para que tecnologías que han sido declaradas incompatibles con los derechos de las personas se desplieguen en situaciones de vida o muerte</p>
                <div class="quote-author">
                        <span class="name"> Ella Jakubowska</span>
                                        <span>—</span> EDRi
                      </div>
          </div>

  </blockquote><p class="article-text">
        La experta recuerda que el uso de reconocimiento facial en espacios p&uacute;blicos ha sido criticado por la <a href="https://www.eldiario.es/tecnologia/bruselas-quiere-prohibir-sistemas-identificacion-biometrica-regulacion-inteligencia-artificial_1_7844664.html" data-mrf-recirculation="links-noticia" class="link">Comisi&oacute;n Europea</a>, por <a href="https://www.eldiario.es/tecnologia/onu-alerta-expansion-sistemas-peligrosos-inteligencia-artificial-pide-paralizar_1_8308860.html" data-mrf-recirculation="links-noticia" class="link">Naciones Unidas</a> o por <a href="https://www.eldiario.es/tecnologia/autoridades-privacidad-ue-piden-veto-inmediato-reconocimiento-facial-lugares-publicos_1_8060192.html" data-mrf-recirculation="links-noticia" class="link">todos los reguladores europeos de privacidad</a>. Clearview AI es uno de los sospechosos habituales: &ldquo;Sus sistemas tienen un sesgo racial documentado, han facilitado varias detenciones traum&aacute;ticas de personas inocentes en todo el mundo y sus t&eacute;cnicas de rastreo de Internet violan los derechos humanos de las personas a la privacidad y la protecci&oacute;n de datos&rdquo;, se&ntilde;ala Jakubowska.
    </p><p class="article-text">
        &ldquo;&iquest;Qu&eacute; ocurrir&aacute; cuando Clearview AI decida ofrecer sus servicios a fuerzas militares con las que no estamos de acuerdo? El potencial de abuso &ndash;el riesgo de vigilancia masiva biom&eacute;trica&ndash; es simplemente demasiado grande&rdquo;, contin&uacute;a. &ldquo;Estamos abriendo la caja de pandora para que tecnolog&iacute;as que han sido declaradas incompatibles con los derechos de las personas se desplieguen en situaciones de vida o muerte&rdquo;.
    </p><h3 class="article-text">M&aacute;xima multa en Italia, investigada en m&aacute;s pa&iacute;ses</h3><p class="article-text">
        El modelo de negocio de Clearview AI que ahora utilizar&aacute; Ucrania es incompatible con las leyes de la UE. &ldquo;Los datos personales en poder de la empresa, incluida la informaci&oacute;n biom&eacute;trica y de geolocalizaci&oacute;n, se trataron ilegalmente sin una base jur&iacute;dica adecuada&rdquo;, ha expuesto el Garante per la Protezione dei Dati Personali, el regulador italiano de privacidad. El organismo detect&oacute; que la empresa tiene im&aacute;genes de italianos en sus bases de datos, por lo que ha procedido a multarla con 20 millones de euros, la sanci&oacute;n m&aacute;xima que le permit&iacute;an las normas comunitarias. Tambi&eacute;n le ha ordenado que borre las fotos de inmediato y que no vuelva a recopilarlas. 
    </p><blockquote class="twitter-tweet" data-lang="es"><a href="https://twitter.com/X/status/1501586990344683530?ref_src=twsrc%5Etfw"></a></blockquote><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script><p class="article-text">
        Los reguladores de protecci&oacute;n de datos de Francia, Alemania, Suecia, Austria, Grecia y Reino Unido tambi&eacute;n est&aacute;n investig&aacute;ndola tras ser denunciada por varias organizaciones como Privacy International. Las agencias gala y germana tambi&eacute;n han ordenado a Clearview AI que elimine las im&aacute;genes de sus nacionales, mientras que la sueca ha descubierto que la Polic&iacute;a nacional estaba usando sus servicios &ldquo;ilegalmente&rdquo;, ha revelado la ONG. Reino Unido emitir&aacute; su resoluci&oacute;n a mediados de este a&ntilde;o y la empresa tambi&eacute;n se arriesga a la sanci&oacute;n m&aacute;xima.
    </p><p class="article-text">
        La compa&ntilde;&iacute;a ha negado que tenga negocios en la UE ni clientes que operen desde su territorio, por lo que afirma que no deber&iacute;a estar sometida a sus normas de privacidad. &ldquo;Solo recogemos datos p&uacute;blicos de Internet y cumplimos todas las normas de privacidad y de la ley.&nbsp;Estoy desconsolado por la mala interpretaci&oacute;n que se ha hecho en Italia&rdquo;, afirma su fundador en un comunicado remitido a este medio: &ldquo;Mis intenciones y las de mi empresa siempre han sido ayudar a las comunidades y a sus habitantes a vivir mejor y m&aacute;s seguros&rdquo;.
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/ucrania-usara-reconocimiento-facial-polemica-firma-multada-ue-detectar-infiltrados-rusos_1_8828338.html]]></guid>
      <pubDate><![CDATA[Mon, 14 Mar 2022 22:05:09 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/776b6bf4-e2d7-4b5e-94e2-b7710ba488d4_16-9-discover-aspect-ratio_default_0.jpg" length="13088162" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/776b6bf4-e2d7-4b5e-94e2-b7710ba488d4_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="13088162" width="1200" height="675"/>
      <media:title><![CDATA[Ucrania usará el reconocimiento facial de una polémica firma multada en la UE para detectar infiltrados rusos]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/776b6bf4-e2d7-4b5e-94e2-b7710ba488d4_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Crisis Ucrania,Reconocimiento facial,Ucrania]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[ONGs de derechos humanos piden que no se reactive la tecnología "racista" que vigila la frontera con Marruecos]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/ong-derechos-humanos-piden-no-reactive-tecnologia-racista-vigila-frontera-marruecos_1_8649056.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/19a40c9b-2f8e-4f4a-ad99-e75154cd4d77_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="ONGs de derechos humanos piden que no se reactive la tecnología &quot;racista&quot; que vigila la frontera con Marruecos"></p><div class="subtitles"><p class="subtitle">Más de 40 organizaciones recuerdan al Gobierno que los algoritmos de reconocimiento facial bajan su efectividad cuando trabajan con personas no caucásicas y pueden producir discriminaciones y falsos positivos</p><p class="subtitle">La ONU alerta de la expansión de sistemas peligrosos de inteligencia artificial y pide paralizar su uso</p></div><p class="article-text">
        La expansi&oacute;n del reconocimiento facial y la vigilancia de personas con inteligencia artificial ha quedado muy acotada en las ciudades europeas, despu&eacute;s de que la UE se&ntilde;alara estos sistemas como <a href="https://www.eldiario.es/tecnologia/expertos-apoyan-veto-reconocimiento-facial-espacios-publicos_1_7891456.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">de alto riesgo</a> y la ONU avisara de que son una amenaza para los derechos humanos. Sin embargo, las fronteras exteriores del continente se rigen por otras normas. Espa&ntilde;a, por ejemplo, utiliza el reconocimiento facial para registrar la cara de las personas que atraviesan los pasos fronterizos de Ceuta y Melilla y rastrear sus movimientos. El Ministerio del Interior lo denomina &ldquo;frontera inteligente&rdquo;.
    </p><p class="article-text">
        Ante la posible reapertura de la frontera terrestre con Marruecos tras la crisis sanitaria, m&aacute;s de 40 ONG y asociaciones de apoyo a las personas migrantes piden al Gobierno que no reactive este tipo de sistemas peligrosos. &ldquo;La aplicaci&oacute;n de la 'frontera inteligente' como un elemento de lucha contra el terrorismo supone un peligro de discriminaci&oacute;n y criminalizaci&oacute;n y la convierte en un nuevo dispositivo racista dentro del Estado Espa&ntilde;ol&rdquo;, denuncian en una carta publicada este jueves a la que ha tenido acceso elDiario.es.
    </p><p class="article-text">
        Las organizaciones recuerdan que los algoritmos de reconocimiento facial bajan su efectividad cuando trabajan con personas no cauc&aacute;sicas, debido a que son minor&iacute;a en las bases de datos con las que se entrenan estas inteligencias artificiales. Un mayor porcentaje de falsos positivos en los sistemas de vigilancia fronteriza &ldquo;podr&iacute;a suponer graves consecuencias para personas identificadas err&oacute;neamente como sospechosas de actos terroristas&rdquo;, avisan.
    </p><p class="article-text">
        <a href="https://fronterasdigitales.wordpress.com/" target="_blank" data-mrf-recirculation="links-noticia" class="link">La petici&oacute;n</a>, rubricada por Oxfam Intermon, Rights International o Caminando Fronteras, tambi&eacute;n destaca que este tipo de controles vulneran el derecho a la privacidad de las personas que cruzan la frontera, que ven como los datos de su cara o sus huellas dactilares se recogen y almacenan en ficheros sobre los que no tienen control. &ldquo;Los datos biom&eacute;tricos son datos intr&iacute;nsecos a las personas. Su recopilaci&oacute;n sin pasaporte europeo no cumple con el principio de proporcionalidad&rdquo;, avisa la carta.
    </p><h3 class="article-text">Transparencia</h3><p class="article-text">
        Para evitar estos efectos perniciosos, las organizaciones piden al Gobierno que habilite mecanismos de transparencia y control externo. Estos deben permitir tanto a las personas afectadas como a organizaciones de la sociedad civil evaluar si los algoritmos de Inteligencia Artificial funcionan como las autoridades publicitan o, por el contrario, &ldquo;suponen un peligro de vulneraci&oacute;n de derechos humanos, discriminaci&oacute;n, criminalizaci&oacute;n y violaci&oacute;n de la privacidad&rdquo; para los que cruzan las fronteras de Ceuta y Melilla.
    </p><p class="article-text">
        A su vez, solicitan la &ldquo;incorporaci&oacute;n sistem&aacute;tica de observadores de derechos humanos en las actuaciones en frontera&rdquo; que puedan dar cuenta de lo que sucede en las tripas de esos sistemas de vigilancia, as&iacute; como eliminar de las normas europeas la excepci&oacute;n que permite utilizar el reconocimiento facial en contextos de seguridad. 
    </p><h3 class="article-text">Vigilar a la m&aacute;quina vigilante</h3><p class="article-text">
        La Inteligencia Artificial aplicada a contextos de vigilancia de personas queda cada vez m&aacute;s en entredicho. Desde hace dos a&ntilde;os se han producido movimientos sociales destinados a sacarla de circulaci&oacute;n por los problemas de sesgo y efectividad que lleva aparejados. Uno de los primeros se desencaden&oacute; en las protestas en torno a Black Lives Matter y consigui&oacute; que se impusieran moratorias a la venta de esta tecnolog&iacute;a a la polic&iacute;a por parte de las empresas que la desarrollan, como Amazon o IBM.
    </p><p class="article-text">
        Este tipo de reclamaciones se basan en el trabajo de especialistas como <a href="https://www.eldiario.es/tecnologia/proxima-revolucion-politica-control-algoritmos_128_1864351.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Cathy O'Neal</a> (en su libro <em>Armas de destrucci&oacute;n matem&aacute;tica</em>) o <a href="https://www.eldiario.es/tecnologia/virginia-eubanks-si-no-disenamos-inclinarse-justicia-social-algoritmos-ampliaran-brechas-sociales_128_7927546.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Virginia Eubanks</a> (en <em>La automatizaci&oacute;n de la desigualdad</em>), que alertaron de c&oacute;mo la Inteligencia Artificial se reviste de una &ldquo;falsa neutralidad matem&aacute;tica&rdquo; y esquiva el escrutinio al que s&iacute; se somete a las decisiones humanas. La realidad, avisaron, es que puede ser tan racista, machista o clasista como las empresas o programadores que la desarrollan. 
    </p><p class="article-text">
        Espa&ntilde;a ha tomado cartas en este sentido con una <a href="https://www.eldiario.es/tecnologia/espana-vigilara-inteligencia-artificial-farmacos-alimentos_1_8615818.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Agencia para la Supervisi&oacute;n de la Inteligencia Artificial </a>que se crear&aacute; este 2022 tras ser incluida en los presupuestos. Su misi&oacute;n es auditar el funcionamiento de estos sistemas. No obstante, como explicaron algunos expertos a este medio, uno de sus mayores retos ser&aacute; aplicar esta l&oacute;gica de transparencia a los algoritmos que utiliza la administraci&oacute;n p&uacute;blica y que, como en el caso de las fronteras de Ceuta y Melilla, pueden ser tan opacos como los que usan las empresas privadas. 
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/ong-derechos-humanos-piden-no-reactive-tecnologia-racista-vigila-frontera-marruecos_1_8649056.html]]></guid>
      <pubDate><![CDATA[Thu, 13 Jan 2022 08:07:37 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/19a40c9b-2f8e-4f4a-ad99-e75154cd4d77_16-9-discover-aspect-ratio_default_0.jpg" length="131424" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/19a40c9b-2f8e-4f4a-ad99-e75154cd4d77_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="131424" width="1200" height="675"/>
      <media:title><![CDATA[ONGs de derechos humanos piden que no se reactive la tecnología "racista" que vigila la frontera con Marruecos]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/19a40c9b-2f8e-4f4a-ad99-e75154cd4d77_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Melilla,Valla de Melilla,Ceuta,Valla de Ceuta,Reconocimiento facial,Inteligencia artificial]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[España vigilará la Inteligencia Artificial como a los fármacos o los alimentos]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/espana-vigilara-inteligencia-artificial-farmacos-alimentos_1_8615818.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/6e0d3bc5-9d0a-488d-a13e-63ea031cc926_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="España vigilará la Inteligencia Artificial como a los fármacos o los alimentos"></p><div class="subtitles"><p class="subtitle">Los presupuestos de 2022 destinan 5 millones de euros a la creación de una Agencia para la Supervisión de la Inteligencia Artificial que investigue sus efectos peligrosos</p><p class="subtitle">La ONU alerta de la expansión de sistemas peligrosos de inteligencia artificial y pide paralizar su uso</p></div><p class="article-text">
        El problema ya est&aacute; bastante definido. Investigadores, tecn&oacute;logos o la ONU llevan varios a&ntilde;os se&ntilde;alando que detr&aacute;s del nombre comercial de &ldquo;Inteligencia Artificial&rdquo; hay algoritmos que pueden ser tan discriminadores como aquellos que los programan: sistemas opacos que bajo una falsa sensaci&oacute;n de neutralidad matem&aacute;tica pueden ser tan injustos <a href="https://www.eldiario.es/sociedad/high-technology-fuera-precariedad_130_6137641.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">como un jefe explotador</a> o tomar decisiones directamente <a href="https://www.eldiario.es/tecnologia/si-hombre-lleva-martillo-si-mujer-secador-actuan-sesgos-inteligencia-artificial_1_6210120.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">desde el machismo estructural</a>. Con las pruebas en la mano, llega la hora de la pol&iacute;tica.
    </p><p class="article-text">
        Los presupuestos para 2022, <a href="https://www.eldiario.es/politica/congreso-aprueba-definitivamente-presupuestos-2022_1_8615502.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">aprobados definitivamente este martes</a>, incluyen la creaci&oacute;n de una Agencia Estatal para la Supervisi&oacute;n de la Inteligencia Artificial, independiente y con presupuesto propio. La misi&oacute;n del organismo ser&aacute; &ldquo;minimizar los riesgos&rdquo; de los algoritmos que se extienden por toda la sociedad, desde las <a href="https://www.eldiario.es/tecnologia/estudios-extrabajadores-redes-sociales-dan-razon-ada-colau_1_7797537.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">redes sociales</a> al entorno laboral, pasando por los Siri, Alexa y otros asistentes virtuales que han aterrizado en las casas a los que act&uacute;an para distribuir los recursos p&uacute;blicos o las ayudas. 
    </p><p class="article-text">
        La creaci&oacute;n de este ente, conocido ya como la Agencia de Algoritmos, llega a trav&eacute;s de una enmienda de M&aacute;s Pa&iacute;s-Equo pactada con el Gobierno. El acuerdo incluye poco m&aacute;s que las l&iacute;neas generales de la Agencia y su partida inicial, que ser&aacute; de cinco millones de euros. Un pacto que ha sido bienvenido por los especialistas, que piden que no se quede en lo cosm&eacute;tico y se meta de lleno en la &ldquo;auditoria de algoritmos&rdquo; que impida que sus efectos nocivos pasen desapercibidos. 
    </p><p class="article-text">
        No es una misi&oacute;n f&aacute;cil. Se suele decir que los sistemas de Inteligencia Artificial son <a href="https://www.eldiario.es/tecnologia/informe-alerta-inteligencia-artificial-estudiar-emociones-humanas-pseudociencia_1_7183168.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">&ldquo;cajas negras&rdquo;</a> porque todas las empresas, desde los gigantes digitales a la m&aacute;s peque&ntilde;a startup, son muy reacias a revelar c&oacute;mo funcionan. Es su patrimonio inmaterial: los detalles del buscador de Google, del reparto de tareas entre repartidores de Glovo o de encontrar el pr&oacute;ximo contenido de moda de TikTok valen miles de millones. Antes solo hab&iacute;a una f&oacute;rmula de la Coca-Cola, ahora cada compa&ntilde;&iacute;a digital tiene la suya.
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">A nadie le entra en la cabeza que una farmacéutica se niegue a que se sus productos se analicen para comprobar que no son peligrosos. Con la Inteligencia Artificial debe pasar lo mismo</p>
                <div class="quote-author">
                        <span class="name">Héctor Tejero</span>
                                        <span>—</span> Más País
                      </div>
          </div>

  </blockquote><p class="article-text">
        &ldquo;Hay que respetar la propiedad intelectual de las empresas, pero a nadie le entra en la cabeza que una farmac&eacute;utica o una empresa alimenticia se nieguen a que sus productos se analicen para comprobar que no son peligrosos. Con la Inteligencia Artificial debe pasar lo mismo&rdquo;, expone H&eacute;ctor Tejero, coordinador pol&iacute;tico de M&aacute;s Pa&iacute;s, en conversaci&oacute;n con este medio.
    </p><p class="article-text">
        &ldquo;Creemos que la Agencia de Auditor&iacute;a de Algoritmos debe trabajar de forma similar a c&oacute;mo lo hacen las autoridades de salud p&uacute;blica: si tu quieres sacar un producto al mercado debes demostrar que no es perjudicial y cumplir toda una normativa de control&rdquo;, abunda: &ldquo;El mejor ejemplo es la ley rider, que obliga a las empresas a permitir que los trabajadores accedan a los algoritmos. Si la ley que se redacta para crear esta Agencia establece criterios similares, estar&iacute;amos en el buen camino&rdquo;.
    </p><h3 class="article-text">Crear escuela </h3><p class="article-text">
        La formaci&oacute;n de &Iacute;&ntilde;igo Errej&oacute;n est&aacute; en conversaciones con la Secretar&iacute;a de Estado de Digitalizaci&oacute;n e Inteligencia Artificial (SEDIA) para la redacci&oacute;n de la ley que debe definir las funciones de esta Agencia estatal. Parte del trabajo estar&aacute; inspirado desde Bruselas, puesto que la UE ultima un Reglamento de Inteligencia Artificial que tendr&aacute; la auditor&iacute;a de algoritmos como eje central. En julio la SEDIA propuso a las instituciones comunitarias <a href="https://www.eldiario.es/tecnologia/gobierno-propone-espana-pais-piloto-auditoria-algoritmos-planea-ue_1_8153288.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">que Espa&ntilde;a sea el campo de pruebas</a> para el Reglamento. 
    </p><p class="article-text">
        Convencer a las empresas de que permitan el examen p&uacute;blico de sus algoritmos no ser&aacute; el &uacute;nico reto que enfrentar&aacute; la nueva Agencia. Tambi&eacute;n deber&aacute; establecer c&oacute;mo llevar a cabo ese an&aacute;lisis, un terreno absolutamente inexplorado en la administraci&oacute;n p&uacute;blica. Organismos como la Agencia de Protecci&oacute;n de Datos, con la que se planea que trabaje conjuntamente, acumulan en comparaci&oacute;n una trayectoria que se acerca ya a las tres d&eacute;cadas. 
    </p><p class="article-text">
        &ldquo;Ahora mismo no hay ning&uacute;n protocolo de qu&eacute; es auditar un algoritmo, qu&eacute; pasos hay que seguir, etc. La Agencia tendr&aacute; que crear un est&aacute;ndar&rdquo;, reconoce Tejero. &ldquo;Espa&ntilde;a se puede convertir en una peque&ntilde;a potencia en este campo&rdquo;, dice.
    </p><p class="article-text">
        Otra de las aspiraciones de la Agencia es que la de que las administraciones p&uacute;blicas den ejemplo y auditen los algoritmos que utilizan.  
    </p><h3 class="article-text">&ldquo;La administraci&oacute;n empieza con mal pie&rdquo;</h3><p class="article-text">
        La creaci&oacute;n de la Agencia de Algoritmos est&aacute; llena de buenas intenciones. No obstante, lo cierto es que las administraciones p&uacute;blicas tienen una larga trayectoria a la hora de dificultar que los ciudadanos auditen los sistemas que ellas emplean. Hasta el punto de llegar a los tribunales para intentar impedirlo. 
    </p><p class="article-text">
        Actualmente el Tribunal Supremo tiene pendiente una recurso contencioso administrativo sobre la transparencia del bono social energ&eacute;tico, las ayudas para familias vulnerables, presentado por la fundaci&oacute;n a favor de la transparencia Civio. El Ministerio de Transici&oacute;n Ecol&oacute;gica se niega a entregar el c&oacute;digo del algoritmo, pese a que el Consejo de Transparencia le inst&oacute; a ello.
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">Ya tenemos muchas guías de buenas prácticas. Lo que necesitamos son herramientas concretas, indicaciones claras y modelos de cumplimiento</p>
                <div class="quote-author">
                        <span class="name">Gemma Galdón</span>
                                        <span>—</span> Eticas Consulting
                      </div>
          </div>

  </blockquote><p class="article-text">
        &ldquo;Es evidente que la administraci&oacute;n p&uacute;blica empieza con mal pie&rdquo;, afea Gemma Gald&oacute;n, directora de Eticas, una consultora especializada en analizar el impacto de la Inteligencia Artificial. &ldquo;Nosotros hemos estado cuatro a&ntilde;os insisti&eacute;ndole al Ministerio de Interior para que permita la auditor&iacute;a de VioGen [el algoritmo que analiza el riesgo de los casos de violencia de g&eacute;nero] y no lo han permitido. Al final hemos decidido hacerlo de forma externa. Lo mismo que con RisCanvi [algoritmo que predice el riesgo de reincidencia de los presos de las c&aacute;rceles catalanas]&rdquo;, indica.
    </p><p class="article-text">
        La creaci&oacute;n de la Agencia &ldquo;es una buena noticia&rdquo;, pero &ldquo;lo importante es que se le dote de mecanismos concretos&rdquo;. &ldquo;Ya tenemos muchas gu&iacute;as de buenas pr&aacute;cticas gen&eacute;ricas, lo que necesitamos son cosas concretas, herramientas, indicaciones claras y modelos de cumplimiento&rdquo;, pide la experta.
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/espana-vigilara-inteligencia-artificial-farmacos-alimentos_1_8615818.html]]></guid>
      <pubDate><![CDATA[Tue, 28 Dec 2021 21:12:48 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/6e0d3bc5-9d0a-488d-a13e-63ea031cc926_16-9-discover-aspect-ratio_default_0.jpg" length="61167" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/6e0d3bc5-9d0a-488d-a13e-63ea031cc926_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="61167" width="1200" height="675"/>
      <media:title><![CDATA[España vigilará la Inteligencia Artificial como a los fármacos o los alimentos]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/6e0d3bc5-9d0a-488d-a13e-63ea031cc926_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Reconocimiento facial,España]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La ONU alerta de la expansión de sistemas peligrosos de inteligencia artificial y pide paralizar su uso]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/onu-alerta-expansion-sistemas-peligrosos-inteligencia-artificial-pide-paralizar_1_8308860.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/52604721-bda4-4f0e-bdee-9a9b4cf93ea2_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="La ONU alerta de la expansión de sistemas peligrosos de inteligencia artificial y pide paralizar su uso"></p><div class="subtitles"><p class="subtitle">Naciones Unidas pide a los estados y empresas "aumentar drásticamente la transparencia" de estos algoritmos por los riesgos para los derechos humanos que implican</p><p class="subtitle">Un nuevo informe alerta del uso de Inteligencia Artificial para detectar emociones humanas: "Es pseudociencia"</p></div><p class="article-text">
        &ldquo;La capacidad de la inteligencia artificial para servir a la poblaci&oacute;n es innegable, pero tambi&eacute;n lo es su capacidad de contribuir a violaciones de derechos humanos en gran escala, de manera casi indetectable&rdquo;, avisa la Alta Comisionada de las Naciones Unidas para los Derechos Humanos, Michelle Bachelet. Su Oficina ha publicado esta semana un informe que alerta de que los estados no est&aacute;n prestando la suficiente atenci&oacute;n a la expansi&oacute;n de esta tecnolog&iacute;a, a pesar de los graves riesgos que entra&ntilde;a. Por ello, pide que se imponga una moratoria en la venta y aplicaci&oacute;n de algunos de estos sistemas, como los de reconocimiento de emociones, identificaci&oacute;n biom&eacute;trica o aquellos que necesitan una recolecci&oacute;n masiva de datos personales.
    </p><p class="article-text">
        La ONU recoge m&uacute;ltiples investigaciones que han mostrado que la IA refleja los sesgos de sus programadores y puede tomar decisiones clasistas, machistas o racistas. Sin embargo, avisa que los gobiernos est&aacute;n incorporando la inteligencia artificial a sus sistemas de seguridad, judiciales o de concesi&oacute;n de ayudas sociales sin las debidas garant&iacute;as.
    </p><p class="article-text">
        Adem&aacute;s de la paralizaci&oacute;n de los sistemas m&aacute;s peligrosos para los derechos humanos, <a href="https://www.ohchr.org/EN/HRBodies/HRC/RegularSessions/Session48/Documents/A_HRC_48_31_AdvanceEditedVersion.docx" target="_blank" data-mrf-recirculation="links-noticia" class="link">el informe</a> incluye una serie de recomendaciones a los estados. Entre ellas destaca el deber de &ldquo;aumentar dr&aacute;sticamente la transparencia de su uso de la IA, incluso informando adecuadamente al p&uacute;blico y a las personas afectadas y permitiendo una auditor&iacute;a independiente y externa de los sistemas automatizados&rdquo;.
    </p><p class="article-text">
        La investigaci&oacute;n recoge ejemplos de todo el mundo y sus recomendaciones son globales. No obstante, Espa&ntilde;a no es una excepci&oacute;n en la tendencia que contrasta Naciones Unidas. El uso m&aacute;s extendido es la detecci&oacute;n biom&eacute;trica. Los servicios de seguridad de estaciones y aeropuertos emplean reconocimiento facial y algoritmos de la forma del cuerpo para identificar individuos sospechosos. Este a&ntilde;o Renfe lleg&oacute; a sacar a concurso la contrataci&oacute;n de un sistema <a href="https://www.eldiario.es/tecnologia/renfe-cancela-contratacion-sistema-detectar-edad-genero-etnia-tipo-ropa-animo-viajeros_1_7226541.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">capaz de detectar la etnia, el tipo de vestimenta o estado de &aacute;nimo de los viajeros</a>, aunque se vio obligada a cancelarlo por la pol&eacute;mica generada.
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">Las tecnologías biométricas, que se están convirtiendo en un comodín para los Estados y las empresas, necesitan urgentemente más directrices de derechos humanos</p>
          </div>

  </blockquote><p class="article-text">
        La tendencia va m&aacute;s all&aacute; de las fuerzas p&uacute;blicas de seguridad. Un n&uacute;mero creciente de empresas privadas analizan las posibilidades de esta tecnolog&iacute;a. Mercadona puso en marcha en pruebas un sistema de reconocimiento facial que analizaba a todos los clientes de sus establecimientos solo para detectar a aquellos a los que la justicia hab&iacute;a impuesto &oacute;rdenes de alejamiento (un total de 37 personas en toda Espa&ntilde;a). La Agencia de Protecci&oacute;n de Datos <a href="https://www.eldiario.es/tecnologia/mercadona-paga-multa-2-5-millones-proteccion-datos-sistema-reconocimiento-facial_1_8161764.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">mult&oacute; a la empresa de Juan Roig con 2,5 millones</a> de euros al fallar el pasado julio que el sistema era &ldquo;desproporcionado&rdquo;. Ante las dudas legales sobre el mecanismo, la compa&ntilde;&iacute;a decidi&oacute; abandonar el proyecto.
    </p><p class="article-text">
        El de los reconocimientos biom&eacute;tricos es uno de los &aacute;mbitos que m&aacute;s preocupa a Naciones Unidas y por el que que ha pedido que se paralice la implantaci&oacute;n de la inteligencia artificial, &ldquo;al menos hasta que las autoridades responsables puedan demostrar el cumplimiento de las normas de privacidad y protecci&oacute;n de datos y la ausencia de problemas significativos de precisi&oacute;n e impactos discriminatorios&rdquo;. &ldquo;Las tecnolog&iacute;as biom&eacute;tricas, que se est&aacute;n convirtiendo en un comod&iacute;n para los Estados, las organizaciones internacionales y las empresas de tecnolog&iacute;a, necesitan urgentemente m&aacute;s directrices de derechos humanos&rdquo;, a&ntilde;ade.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/221862c3-1ecf-4348-965c-a26960461512_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/221862c3-1ecf-4348-965c-a26960461512_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/221862c3-1ecf-4348-965c-a26960461512_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/221862c3-1ecf-4348-965c-a26960461512_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/221862c3-1ecf-4348-965c-a26960461512_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/221862c3-1ecf-4348-965c-a26960461512_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/221862c3-1ecf-4348-965c-a26960461512_16-9-aspect-ratio_default_0.jpg"
                    alt="Campaña Reclaim your face (Reclama tu cara), que pide la prohibición de la vigilancia biométrica en la UE."
                >

            
            </picture>

            
            
                            <figcaption class="image-footer">
            <span class="title">
                Campaña Reclaim your face (Reclama tu cara), que pide la prohibición de la vigilancia biométrica en la UE.                            </span>
                                    </figcaption>
            
                </figure><p class="article-text">
        La UE tambi&eacute;n est&aacute; negociando <a href="https://www.eldiario.es/tecnologia/bruselas-quiere-prohibir-sistemas-identificacion-biometrica-regulacion-inteligencia-artificial_1_7844664.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">una moratoria como la que pide Naciones Unidas</a> para los sistemas de reconocimiento biom&eacute;trico. No obstante, en el borrador que ha presentado Bruselas se a&ntilde;ade una excepci&oacute;n para situaciones que afecten a la seguridad, lo que da v&iacute;a libre a su uso por parte de polic&iacute;as y cuerpos de seguridad. 60 organizaciones de la sociedad civil de toda Europa han organizado una campa&ntilde;a para pedir a la Comisi&oacute;n Europea que endurezca las normas europeas contra &ldquo;los usos de la biometr&iacute;a que puedan dar lugar a una vigilancia masiva ilegal&rdquo;. <a href="https://reclaimyourface.eu/es/" target="_blank" data-mrf-recirculation="links-noticia" class="link">Hasta el momento la han suscrito 60.600 ciudadanos</a>. 
    </p><h3 class="article-text">Tecnolog&iacute;as sin base cient&iacute;fica </h3><p class="article-text">
        El reconocimiento emocional es un derivado del reconocimiento facial. Parte de la industria de la inteligencia artificial defiende que sus sistemas pueden detectar y predecir los sentimientos de una persona a partir de su cara y sus gestos. Su objetivo es venderlos como programas &uacute;tiles para, por ejemplo, la protecci&oacute;n de fronteras, donde puede elevar alertas sobre personas en las que detecte ansiedad o culpa.
    </p><p class="article-text">
        El problema es que ese tipo de reconocimiento carece de base cient&iacute;fica, <a href="https://www.eldiario.es/tecnologia/informe-alerta-inteligencia-artificial-estudiar-emociones-humanas-pseudociencia_1_7183168.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">seg&uacute;n cada vez m&aacute;s estudios e investigadores</a>. Naciones Unidas ha recogido esa alerta y encuadra la tecnolog&iacute;a de reconocimiento emocional en el grupo de inteligencias artificiales que pide paralizar: &ldquo;Los sistemas de emociones operan bajo la premisa de que es posible inferir autom&aacute;tica y sistem&aacute;ticamente el estado emocional de los seres humanos a partir de sus expresiones faciales, lo cual carece de una base cient&iacute;fica s&oacute;lida&rdquo;. 
    </p><p class="article-text">
        En este sentido, la ONU pide que deje de utilizarse el reconocimiento emocional para calificar a los empleados en su puesto de trabajo o para evaluar su val&iacute;a para un determinado puesto, otros dos de los usos m&aacute;s extendidos. Recalca adem&aacute;s que, junto al reconocimiento facial, el emocional es el que supone una mayor amenaza de recolecci&oacute;n masiva e indiscriminada de datos e im&aacute;genes de personas que no son sospechosas de ning&uacute;n delito.
    </p><h3 class="article-text">Ayudas sociales decididas por m&aacute;quinas</h3><p class="article-text">
        Otro de los usos de la inteligencia artificial sobre el que el informe de Naciones Unidas llama la atenci&oacute;n a los estados son los procesos de concesi&oacute;n de ayudas sociales. &ldquo;Se utilizan cada vez m&aacute;s para ayudar a la prestaci&oacute;n de servicios p&uacute;blicos, a menudo con el objetivo declarado de desarrollar sistemas m&aacute;s eficientes&rdquo;, explica. Sin embargo, la opacidad del m&eacute;todo de decisi&oacute;n hace que puedan convertirse en injustos &ldquo;y una distop&iacute;a de cibervigilancia&rdquo;.
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">Una de las principales preocupaciones en relación con el uso de la inteligencia artificial para los servicios públicos es que puede ser discriminatoria, en particular con respecto a los grupos marginados</p>
          </div>

  </blockquote><p class="article-text">
        La ONU recuerda el caso de los Pa&iacute;ses Bajos, que ha servido de ejemplo internacional por una sentencia judicial que prohibi&oacute; un sistema algor&iacute;tmico cuya misi&oacute;n era detectar el fraude con las ayudas sociales. Los jueces neerlandenses consideraron que infring&iacute;a el derecho a la intimidad de los solicitantes, puesto que recopilaba un gran n&uacute;mero de datos sobre ellos. El peligro que acarrean estos sistemas es el de imponer una doble pena a aquellos que se ven obligados a solicitar prestaciones, puesto que ven su privacidad violada y se &ldquo;socavan la autonom&iacute;a y la capacidad de elecci&oacute;n individuales&rdquo;, dice el informe.
    </p><p class="article-text">
        En Espa&ntilde;a se conoce el uso de varios de estos algoritmos en los servicios p&uacute;blicos, pero se ha cuestionado la transparencia de todos ellos. La Polic&iacute;a usa el conocido VioGen, que eval&uacute;a el riesgo que corren las denunciantes de violencia de g&eacute;nero. El Ministerio del Interior se ha negado a abrir el algoritmo para que sea auditado por organizaciones independientes. Otro caso es el del programa BOSCO, que otorga o deniega el derecho a recibir la ayuda del bono social de la luz. El Gobierno se ha negado a revelar su c&oacute;digo fuente ante una petici&oacute;n de transparencia de Civio y actualmente <a href="https://civio.es/acceso-a-bono-social/" target="_blank" data-mrf-recirculation="links-noticia" class="link">el caso se encuentra en los tribunales</a>. 
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/onu-alerta-expansion-sistemas-peligrosos-inteligencia-artificial-pide-paralizar_1_8308860.html]]></guid>
      <pubDate><![CDATA[Sun, 19 Sep 2021 20:47:06 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/52604721-bda4-4f0e-bdee-9a9b4cf93ea2_16-9-discover-aspect-ratio_default_0.jpg" length="2308966" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/52604721-bda4-4f0e-bdee-9a9b4cf93ea2_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="2308966" width="1200" height="675"/>
      <media:title><![CDATA[La ONU alerta de la expansión de sistemas peligrosos de inteligencia artificial y pide paralizar su uso]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/52604721-bda4-4f0e-bdee-9a9b4cf93ea2_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Reconocimiento facial,Ayudas sociales]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Las autoridades de privacidad de la UE piden el veto "inmediato" del reconocimiento facial en lugares públicos]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/autoridades-privacidad-ue-piden-veto-inmediato-reconocimiento-facial-lugares-publicos_1_8060192.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/5d5f5ff5-0544-4aaa-9637-9bf6d27b597b_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Las autoridades de privacidad de la UE piden el veto &quot;inmediato&quot; del reconocimiento facial en lugares públicos"></p><div class="subtitles"><p class="subtitle">Los supervisores de protección de datos alertan de los "riesgos extremadamente elevados" de los sistemas de identificación biométrica en base a la cara, la forma de andar, las huellas dactilares o la voz</p><p class="subtitle">Bruselas quiere prohibir "sistemas de identificación biométrica remota en espacios públicos" en su regulación de la inteligencia artificial</p></div><p class="article-text">
        &ldquo;El despliegue de sistemas de identificaci&oacute;n biom&eacute;trica a distancia en espacios de acceso p&uacute;blico supone el fin del anonimato en esos lugares. Aplicaciones como el reconocimiento facial en tiempo real interfieren con los derechos y libertades fundamentales&rdquo;, han manifestado este lunes el Supervisor Europeo de Protecci&oacute;n de Datos y el Comit&eacute; Europeo de Protecci&oacute;n de Datos. Las dos organizaciones, responsables de vigila el respeto de la privacidad en la UE, han emitido <a href="https://edps.europa.eu/press-publications/press-news/press-releases/2021/edpb-edps-call-ban-use-ai-automated-recognition_en" target="_blank" data-mrf-recirculation="links-noticia" class="link">un comunicado</a> en el que solicitan la prohibici&oacute;n preventiva &ldquo;inmediata&rdquo; de este tipo de usos de la inteligencia artificial, que ya han sido puestos en pr&aacute;ctica en muchos pa&iacute;ses comunitarios. 
    </p><p class="article-text">
        Entre los sistemas que deber&iacute;an quedar fuera de la legalidad por sus &ldquo;riesgos extremadamente elevados&rdquo;, las dos instituciones de protecci&oacute;n de datos (EDPS y EDPB, por sus siglas en ingl&eacute;s) citan el reconocimiento facial, la forma de andar, las huellas dactilares, el ADN, la voz, las pulsaciones de teclas y otras se&ntilde;ales biom&eacute;tricas o de comportamiento &ldquo;en cualquier contexto&rdquo;. Tambi&eacute;n piden que se proh&iacute;ba que la IA utilice ese tipo de par&aacute;metros para clasificar personas en funci&oacute;n de su g&eacute;nero, origen &eacute;tnico, orientaci&oacute;n pol&iacute;tica o sexual. 
    </p><p class="article-text">
        La otra alerta del EDPS y del EDPB son los sistemas de reconocimiento de emociones con IA, muy criticados por los cient&iacute;ficos por<a href="https://www.eldiario.es/tecnologia/informe-alerta-inteligencia-artificial-estudiar-emociones-humanas-pseudociencia_1_7183168.html" target="_blank" data-mrf-recirculation="links-noticia" class="link"> carecer de base emp&iacute;rica</a> y ser &ldquo;pseudociencia&rdquo;. Inspirados en el sistema de control social chino, algunos sistemas de vigilancia han implantado este tipo de sistemas para detectar a personas que est&aacute;n &ldquo;nerviosas&rdquo; o clasificarlas seg&uacute;n su estado de &aacute;nimo. En febrero, Renfe cancel&oacute; la contrataci&oacute;n de un desarrollo de este tipo para sus estaciones por la pol&eacute;mica generada tras la salida a la luz del concurso. &ldquo;El uso de la IA para inferir las emociones de una persona f&iacute;sica es muy indeseable y debe prohibirse&rdquo;, recalcan las dos autoridades de privacidad europeas. 
    </p><p class="article-text">
        Este posicionamiento va en l&iacute;nea con la postura adoptada por Bruselas en abril, cuando propuso <a href="https://www.eldiario.es/tecnologia/bruselas-quiere-prohibir-sistemas-identificacion-biometrica-regulacion-inteligencia-artificial_1_7844664.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">vetar los sistemas de reconocimiento biom&eacute;trico masivos</a> en calles, parques, edificios y otros lugares p&uacute;blicos. No obstante, exponen que el hecho de que ya est&eacute;n aplic&aacute;ndose en muchos lugares &ldquo;exige una aplicaci&oacute;n inmediata del enfoque preventivo. Una prohibici&oacute;n general del uso del reconocimiento facial en zonas de acceso p&uacute;blico es el punto de partida necesario si queremos preservar nuestras libertades y crear un marco jur&iacute;dico de la IA centrado en el ser humano&rdquo;, afirman los responsables del EDPS y del EDPB en su comunicado.
    </p><p class="article-text">
        Adem&aacute;s, recomiendan a la Comisi&oacute;n Europea que especifique que cualquier sistema de vigilancia y discriminaci&oacute;n de personas basado en algoritmos deber&aacute; respetar la regulaci&oacute;n de privacidad de la UE, que da derecho al ciudadano a saber qu&eacute; datos personales se captan, durante cuanto tiempo se almacenan y con qu&eacute; prop&oacute;sitos; as&iacute; como a disponer de una v&iacute;a sencilla para oponerse a la recolecci&oacute;n y tratamiento de esos datos.
    </p><p class="article-text">
        Las alertas de los expertos en el funcionamiento de este tipo de sistemas se acumulan en los &uacute;ltimos meses. En marzo, una carta a la que ya se han adherido m&aacute;s de un centenar de catedr&aacute;ticos, investigadores y profesionales especializados <a href="https://www.eldiario.es/tecnologia/70-catedraticos-expertos-piden-gobierno-suspenda-sistemas-reconocimiento-facial_1_7338528.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">solicit&oacute; al Gobierno espa&ntilde;ol que elevara una moratoria</a> en el uso de este tipo de tecnolog&iacute;as &ldquo;por sus graves deficiencias y riesgos&rdquo;.
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/autoridades-privacidad-ue-piden-veto-inmediato-reconocimiento-facial-lugares-publicos_1_8060192.html]]></guid>
      <pubDate><![CDATA[Mon, 21 Jun 2021 15:52:06 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/5d5f5ff5-0544-4aaa-9637-9bf6d27b597b_16-9-discover-aspect-ratio_default_0.jpg" length="142873" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/5d5f5ff5-0544-4aaa-9637-9bf6d27b597b_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="142873" width="1200" height="675"/>
      <media:title><![CDATA[Las autoridades de privacidad de la UE piden el veto "inmediato" del reconocimiento facial en lugares públicos]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/5d5f5ff5-0544-4aaa-9637-9bf6d27b597b_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Reconocimiento facial,Inteligencia artificial]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La Justicia impide que Mercadona use el reconocimiento facial para detectar a dos ladrones condenados]]></title>
      <link><![CDATA[https://www.eldiario.es/politica/justicia-impide-mercadona-use-reconocimiento-facial-detectar-clientes-orden-alejamiento-tiendas_1_8025896.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/8977fd84-9ec1-4008-bf39-1550cc3ad00c_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="La Justicia impide que Mercadona use el reconocimiento facial para detectar a dos ladrones condenados"></p><div class="subtitles"><p class="subtitle">La Audiencia Provincial de Barcelona deniega a la compañía la autorización para utilizar un sistema de reconocimiento facial con el que pretendían conocer si dos personas condenadas por robo, que tenían una orden de alejamiento sobre un centro en concreto, accedían a cualquier establecimiento de la compañía</p><p class="subtitle">Protección de Datos investiga el sistema de reconocimiento facial de Mercadona</p></div><p class="article-text">
        La Justicia rechaza el sistema de reconocimiento facial <a href="https://www.eldiario.es/economia/mercadona-instala-personas-alejamiento-establecimiento_1_6073879.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">propuesto por Mercadona</a> para detectar si personas con orden de alejamiento en vigor contra sus tiendas o trabajadores entran en alguno de sus centros. La Audiencia Provincial de Barcelona se ha pronunciado sobre un caso particular y ha denegado a la compa&ntilde;&iacute;a la autorizaci&oacute;n para utilizar un sistema de reconocimiento facial con el que pretend&iacute;an conocer si dos personas condenadas por robo, que ten&iacute;an una orden de alejamiento sobre un centro en concreto, acced&iacute;an a cualquier establecimiento de la compa&ntilde;&iacute;a.&nbsp; 
    </p><p class="article-text">
        En un novedoso auto, al que ha accedido elDiario.es, la Audiencia Provincial de Barcelona ha determinado que con estas medidas no se est&aacute; &ldquo;protegiendo el inter&eacute;s p&uacute;blico&rdquo;, &ldquo;sino m&aacute;s bien, los intereses privados o particulares de la empresa en cuesti&oacute;n&rdquo;, expone el tribunal en la resoluci&oacute;n emitida el pasado 15 de febrero. En este escrito tambi&eacute;n consideran que el sistema propuesto por Mercadona vulnera &ldquo;las garant&iacute;as adecuadas en orden a la protecci&oacute;n de los derechos y libertades de los interesados, no ya s&oacute;lo de los que han sido penados y cuya prohibici&oacute;n de acceso les incumbe, sino del resto de personas que acceden al citado supermercado&rdquo;. Para el tribunal &ldquo;existe una violaci&oacute;n de la privacidad&rdquo; en la tecnolog&iacute;a desarrollada por la empresa presidida por Juan Roig.&nbsp;
    </p><p class="article-text">
        En enero de 2018 dos personas fueron condenadas por un robo con violencia a un a&ntilde;o de prisi&oacute;n, entre las penas tambi&eacute;n se les impuso la prohibici&oacute;n de acceder a una tienda de Mercadona concreta situada en el municipio de Sant Boi de Llobregat (Barcelona) &ldquo;por tiempo de dos a&ntilde;os&rdquo;. Un a&ntilde;o despu&eacute;s, en mayo de 2019, la cadena de supermercados inst&oacute; a que se le permitiese &ldquo;el uso de medios electr&oacute;nicos, consistentes en la detecci&oacute;n de entrada [de los dos condenados] a los establecimientos de esta cadena&rdquo;, a trav&eacute;s de &ldquo;un sistema autom&aacute;tico&rdquo; que detectar&iacute;a la llegada de los penados con un &ldquo;circuito cerrado de videograbaci&oacute;n&rdquo;. La compa&ntilde;&iacute;a argumentaba que esta propuesta estaba amparada en &ldquo;el inter&eacute;s p&uacute;blico en virtud del art&iacute;culo 14 de la Ley de Seguridad Privada y el inter&eacute;s leg&iacute;timo de la mercantil de asegurar el cumplimiento de las resoluciones judiciales&rdquo;.
    </p><h3 class="article-text">Uno de los condenados defendi&oacute; que la medida era &ldquo;desproporcionada&rdquo;</h3><p class="article-text">
        La defensa de uno de los condenados se opuso a esta petici&oacute;n alegando que era &ldquo;desproporcionada e inaceptable&rdquo; y destacando que &ldquo;la protecci&oacute;n de imagen&rdquo; de su cliente &ldquo;no pod&iacute;a ser vulnerada por el simple capricho de la mercantil&rdquo;. Adem&aacute;s, recordaba que &ldquo;los penados no ten&iacute;an prohibido el acceso a ning&uacute;n otro supermercado&rdquo;.&nbsp;
    </p><p class="article-text">
        Ante este posicionamiento, en septiembre de 2019 un juzgado de lo penal de Barcelona deneg&oacute; la autorizaci&oacute;n a Mercadona &ldquo;para la utilizaci&oacute;n de medios automatizados de captaci&oacute;n de datos biom&eacute;tricos de los penados en orden a poder detectar su entrada en cualquier establecimiento de dicha cadena&rdquo;. Esta decisi&oacute;n fue recurrida por la compa&ntilde;&iacute;a casi un a&ntilde;o despu&eacute;s, volviendo a recibir una respuesta negativa en febrero de 2021. El auto dictado hace unos meses es firme y no cabe sobre &eacute;l &ldquo;recurso alguno&rdquo;, exponen los magistrados.
    </p><p class="article-text">
        En una detallada argumentaci&oacute;n, citando las normas que regulan el uso de datos biom&eacute;tricos y resoluciones de la Agencia Espa&ntilde;ola de Protecci&oacute;n de Datos, los magistrados destacan que &ldquo;no todo vale en materia de derechos fundamentales&rdquo; porque &ldquo;estas tecnolog&iacute;as pueden ser realmente intrusivas&rdquo;, por lo tanto &mdash;contin&uacute;a el auto&mdash; su utilizaci&oacute;n requiere &ldquo;de un debate &eacute;tico y jur&iacute;dico sosegado, toda vez que pueden tener efectos muy adversos en los valores fundamentales y la integridad humana&rdquo;.
    </p><h3 class="article-text">Se preguntan &ldquo;de d&oacute;nde sacan&rdquo; las im&aacute;genes para el reconocimiento</h3><p class="article-text">
        Sobre la medida propuesta, los jueces defienden que deber&iacute;a preguntarse &ldquo;de d&oacute;nde sacan [en alusi&oacute;n a la compa&ntilde;&iacute;a] im&aacute;genes para el reconocimiento facial, con qu&eacute; consentimiento&rdquo; y &ldquo;por qu&eacute; mantienen una base de datos de fotograf&iacute;as de gente&rdquo;. Y recuerdan que el reglamento de protecci&oacute;n de datos &ldquo;contempla la obligatoriedad de que el usuario d&eacute; su consentimiento para procesar sus datos personales&rdquo;.&nbsp;
    </p><p class="article-text">
        Mercadona argument&oacute; que la medida propuesta no &ldquo;lesiona en ning&uacute;n momento la protecci&oacute;n de datos de los sujetos, puesto que, aunque se procesen los datos biom&eacute;tricos de todo usuario que entre en uno de los establecimientos, el sistema detecta instant&aacute;neamente (en 0,3 segundos) aquellos individuos que han sido condenados con una prohibici&oacute;n de entrada al citado establecimiento a trav&eacute;s de la sentencia firme en un proceso judicial; en consecuencia, no permanecer&aacute; en el sistema ning&uacute;n dato biom&eacute;trico de persona que no haya sido condenada y ser&aacute; inmediatamente borrado y jam&aacute;s utilizado&rdquo;.&nbsp;
    </p><p class="article-text">
        Ante esta argumentaci&oacute;n, los magistrados consideran que &ldquo;resulta, no obstante, cuanto menos sorprendente que se amparen en la &lsquo;rapidez&rdquo;. &ldquo;Por muy r&aacute;pido que sea, existe una violaci&oacute;n de la privacidad. Tanto el argumento de la rapidez como el no tratamiento de datos caen por su propio peso&rdquo;, apunta el tribunal.&nbsp;
    </p><p class="article-text">
        &ldquo;Debemos recordar que los condenados gozan de todos los derechos fundamentales reconocidos en la Constituci&oacute;n, a excepci&oacute;n de los que se vean expresamente limitados por el contenido del fallo condenatorio, el sentido de la pena y la ley penitenciaria&rdquo;, recoge el auto de la Audiencia Provincial de Barcelona.
    </p><h3 class="article-text">La medida no &ldquo;resulta proporcional&rdquo; ni &ldquo;necesaria&rdquo;</h3><p class="article-text">
        Finalmente consideran que la propuesta de Mercadona &ldquo;en modo alguno resulta proporcional, necesaria ni asimismo id&oacute;nea&rdquo;. Adem&aacute;s, destacan que &ldquo;no consta&rdquo; que los dos condenados que impulsaron esta causa &ldquo;quebrantasen la correspondiente prohibici&oacute;n de acceso al centro comercial&rdquo;.&nbsp; Por lo tanto, desestiman el recurso presentado por la compa&ntilde;&iacute;a para imponer una medida que detecte la entrada de estas dos personas a &ldquo;cualquier establecimiento de dicha cadena&rdquo;.
    </p><p class="article-text">
        Mercadona anunci&oacute; el pasado mes de julio que hab&iacute;an implantado un sistema de detecci&oacute;n de personas con orden de alejamiento del establecimiento. La compa&ntilde;&iacute;a asegur&oacute; que la medida estaba activa aproximadamente en 40 tiendas de Mallorca, Zaragoza y Valencia y que se encontrar&iacute;a &ldquo;debidamente identificadas con carteler&iacute;a informativa&rdquo;. A pesar de que el auto que rechaza la utilizaci&oacute;n de datos biom&eacute;tricos se ha emitido en Barcelona, fuentes de la compa&ntilde;&iacute;a aseguran que esta vigilancia nunca estuvo vigente en los centros de Catalunya.&nbsp;
    </p><p class="article-text">
        Estas mismas fuentes aseguran que &ldquo;el proyecto se inici&oacute; en pruebas&rdquo; y que actualmente no est&aacute; funcionando en ninguno de sus supermercados, porque &ldquo;la prueba se ha ido finalizando tienda a tienda&rdquo;. Adem&aacute;s, desvinculan este fallo judicial del hecho de que ya no est&eacute;n utilizando esta medida y aseguran &ldquo;que m&aacute;s de 40 juzgados han dado autorizaci&oacute;n para instalar el sistema en las tiendas donde se realizaron las pruebas&rdquo;. Tras hacerse p&uacute;blica la utilizaci&oacute;n de los datos biom&eacute;tricos en los centros comerciales de Mercadona, <a href="https://www.eldiario.es/tecnologia/proteccion-datos-investiga-sistema-reconocimiento-facial-mercadona_1_6084814.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">la Agencia Espa&ntilde;ola de Protecci&oacute;n de Datos </a>abri&oacute; una &ldquo;investigaci&oacute;n de oficio&rdquo;. Actualmente este procedimiento &ldquo;sigue en curso&rdquo;, aseguran desde la instituci&oacute;n p&uacute;blica. 
    </p>]]></description>
      <dc:creator><![CDATA[Laura Galaup]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/politica/justicia-impide-mercadona-use-reconocimiento-facial-detectar-clientes-orden-alejamiento-tiendas_1_8025896.html]]></guid>
      <pubDate><![CDATA[Thu, 10 Jun 2021 20:28:11 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/8977fd84-9ec1-4008-bf39-1550cc3ad00c_16-9-discover-aspect-ratio_default_0.jpg" length="4345441" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/8977fd84-9ec1-4008-bf39-1550cc3ad00c_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="4345441" width="1200" height="675"/>
      <media:title><![CDATA[La Justicia impide que Mercadona use el reconocimiento facial para detectar a dos ladrones condenados]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/8977fd84-9ec1-4008-bf39-1550cc3ad00c_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Protección de datos,Reconocimiento facial,Tecnología]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[70 catedráticos y expertos piden al Gobierno que actúe ante el reconocimiento facial "por sus graves deficiencias y riesgos"]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/70-catedraticos-expertos-piden-gobierno-suspenda-sistemas-reconocimiento-facial_1_7338528.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/1c4b59d6-93ca-416e-98f0-eb801824c821_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="70 catedráticos y expertos piden al Gobierno que actúe ante el reconocimiento facial &quot;por sus graves deficiencias y riesgos&quot;"></p><div class="subtitles"><p class="subtitle">Solicitan al Ejecutivo que impulse una comisión de investigación para aplicar "una moratoria" en su uso de esta tecnología por parte de instituciones públicas y empresas privadas</p><p class="subtitle">Un nuevo informe alerta del uso de Inteligencia Artificial para detectar emociones humanas: "Es pseudociencia"</p></div><p class="article-text">
        Un grupo de 70 expertos en inteligencia artificial ha enviado una carta al Gobierno para solicitarle que suspenda cuanto antes el empleo de sistemas de reconocimiento facial <a href="https://www.eldiario.es/politica/defensa-instala-hospital-militar-sistema-fichaje-reconocimiento-facial-personal-sanitario_1_7236374.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">por parte de organismos p&uacute;blicos</a> y privados. Los firmantes, entre los que hay catedr&aacute;ticos, investigadores y profesionales especializados, recuerdan que esta tecnolog&iacute;a todav&iacute;a tiene &ldquo;graves deficiencias y riesgos&rdquo;, como la ausencia de evidencia cient&iacute;fica para algunas de sus categorizaciones, su alto &iacute;ndice de error, la opacidad sobre por qu&eacute; toman cada una de sus decisiones o su potencial discriminador. &ldquo;Est&aacute;n en juego cuestiones fundamentales de justicia social, dignidad humana, equidad, igualdad en el trato e inclusi&oacute;n&rdquo;, avisan <a href="https://biko.typeform.com/to/EY1Oid0g" target="_blank" data-mrf-recirculation="links-noticia" class="link">en la misiva</a>.
    </p><p class="article-text">
        Los sistemas de reconocimiento facial se est&aacute;n extendiendo por todo el mundo como m&eacute;todos de vigilancia basados en inteligencia artificial capaces, seg&uacute;n sus desarrolladores, de hacer predicciones sobre el comportamiento que tendr&aacute;n las personas analizadas. Entre las caracter&iacute;sticas que dicen poder detectar se encuentran aspectos como el estado de &aacute;nimo, aplicable al nivel de nerviosismo de un sujeto ante un control de seguridad, la frustraci&oacute;n de los clientes de una tienda o la atenci&oacute;n de los alumnos en una clase. Estos sistemas tambi&eacute;n se est&aacute;n empleando en aplicaciones como detectores de mentiras o en recursos humanos, para medir la adecuaci&oacute;n de un candidato a un puesto de trabajo. 
    </p><p class="article-text">
        Esta implantaci&oacute;n cada vez m&aacute;s extensiva del reconocimiento facial choca contra la evidencia cient&iacute;fica. &ldquo;No hay modelos cient&iacute;ficos aceptados en psicolog&iacute;a, antropolog&iacute;a o sociolog&iacute;a que indiquen que un tipo de nariz, un rictus particular o una manera de andar sean predictores adecuados de comportamientos individuales futuros&rdquo;, destacan los investigadores. Pese a que estos problemas que implica el uso de esta tecnolog&iacute;a han sido &ldquo;ampliamente documentados y discutidos por la comunidad cient&iacute;fica&rdquo;, se corre el riesgo de que cuando los poderes p&uacute;blicos quieran actuar ya sea tarde. 
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">Nos parece necesario que el Gobierno intervenga de manera rápida antes de que estos sistemas continúen expandiéndose</p>
          </div>

  </blockquote><p class="article-text">
        &ldquo;Nos parece necesario que el Gobierno intervenga de manera r&aacute;pida antes de que estos sistemas contin&uacute;en expandi&eacute;ndose y se conviertan en est&aacute;ndares de facto, a pesar de la intromisi&oacute;n que suponen en la esfera privada de las personas sin su consentimiento expl&iacute;cito&rdquo;. Por ello, piden al Ejecutivo que impulse una comisi&oacute;n de investigaci&oacute;n que analice la posibilidad de imponer una moratoria en su uso y comercializaci&oacute;n. Una pr&oacute;rroga que impida que el reconocimiento facial se siga extendiendo &ldquo;hasta que las Cortes Generales y las instituciones legislativas europeas debatan cu&aacute;les, de qu&eacute; manera, en qu&eacute; condiciones, con qu&eacute; garant&iacute;as y con qu&eacute; objetivos debe permitirse, si cabe, el uso de estos sistemas&rdquo;.
    </p><h3 class="article-text">Evitar que casos como el de Renfe pasen desapercibidos </h3><p class="article-text">
        Como ejemplo a evitar, los firmantes de la carta citan lo ocurrido recientemente con Renfe. La operadora ferroviaria abri&oacute; un concurso p&uacute;blico para contratar un sistema de vigilancia para detectar si los viajeros llevan mascarilla, el aforo o la distancia interpersonal entre unos y otros. No obstante, tambi&eacute;n solicitaba a las empresas que quisieran hacerse con los m&aacute;s de 700.000 euros del concurso que su software pudiera interpretar &ldquo;conductas antisociales&rdquo; o predecir &ldquo;comportamientos an&oacute;malos&rdquo; de los usuarios del servicio, as&iacute; como su etnia o el tipo de ropa que usan. Renfe tuvo que retirar el pliego de condiciones solo unas horas despu&eacute;s de que saliera a la luz <a href="https://www.eldiario.es/tecnologia/renfe-cancela-contratacion-sistema-detectar-edad-genero-etnia-tipo-ropa-animo-viajeros_1_7226541.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">&ldquo;para revisarlo&rdquo;</a>.
    </p><p class="article-text">
        El objetivo que persegu&iacute;a la empresa p&uacute;blica con su sistema de vigilancia puede agravar pr&aacute;cticas de seguridad discriminatorias, en especial contra colectivos que ya la sufren, recuerdan los firmantes. &ldquo;Hay suficientes evidencias que indican que asociar posturas, gestos, rasgos faciales, colores de piel, peinados o prendas de vestir a posibles comportamientos 'problem&aacute;ticos', capacidades intelectuales o econ&oacute;micas puede resultar en clasificaciones racistas, clasistas y/o sexistas&rdquo;. Por otro lado, &ldquo;que una persona sea clasificada en una categor&iacute;a o perfil determinados no determina su comportamiento futuro, esto viola la idea fundamental de que los seres humanos tenemos libre albedr&iacute;o&rdquo;, recalcan.
    </p><p class="article-text">
        Los firmantes exponen a su vez que esta tecnolog&iacute;a adolece de otros problemas asociados al panorama digital actual, como la opacidad de sus algoritmos (lo que hace imposible fiscalizarlos), o su poca capacidad de adaptaci&oacute;n a contextos que no estaban presentes en su entrenamiento.
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">Hay suficientes evidencias que indican que asociar posturas, gestos, rasgos faciales, colores de piel, peinados o prendas de vestir a posibles comportamientos &#039;problemáticos&#039; puede resultar en clasificaciones racistas, clasistas y/o sexistas</p>
          </div>

  </blockquote><p class="article-text">
        Las conclusiones de la carta no son ni mucho menos in&eacute;ditas. Ya en 2019 el Instituto AI Now de la Universidad de Nueva York, una de las instituciones de referencia en el estudio de la Inteligencia Artificial, pidi&oacute; a las autoridades que <a href="https://www.eldiario.es/tecnologia/cientificos-inteligencia-artificial-prohibir-sostienen_1_1159452.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">prohibieran algunos de los usos</a> que se le dan a esta tecnolog&iacute;a. Entre ellos, todos los que se centraban en una &ldquo;predicci&oacute;n del comportamiento&rdquo;. Otro estudio m&aacute;s reciente, elaborado por la organizaci&oacute;n Article19, avisaba que este tipo de sistemas de vigilancia se est&aacute; extendiendo gracias a empresas chinas que los desarrollan con su gobierno como financiador y cliente, a pesar de que<a href="https://www.eldiario.es/tecnologia/informe-alerta-inteligencia-artificial-estudiar-emociones-humanas-pseudociencia_1_7183168.html" target="_blank" data-mrf-recirculation="links-noticia" class="link"> &ldquo;son pseudociencia&rdquo;</a>.
    </p><p class="article-text">
        Por el momento, el Gobierno no ha expresado voluntad de impedir el uso del reconocimiento facial m&aacute;s all&aacute; de las actuales leyes de privacidad y protecci&oacute;n de datos. El Ministerio de Defensa, de hecho, <a href="https://www.eldiario.es/politica/defensa-instala-hospital-militar-sistema-fichaje-reconocimiento-facial-personal-sanitario_1_7236374.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">acaba de imponerlo en un hospital militar </a>para controlar el horario de los trabajadores, pese a que los sindicatos lo consideran una &ldquo;tecnolog&iacute;a desproporcionada&rdquo;. La Estrategia Nacional de Inteligencia Artificial, presentada por Pedro S&aacute;nchez el pasado mes de diciembre, tampoco hace <a href="https://www.eldiario.es/tecnologia/estrategia-nacional-inteligencia-artificial-presenta-lineas-inclusiva-sostenible_1_6475221.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">ninguna referencia</a> al reconocimiento facial.
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/70-catedraticos-expertos-piden-gobierno-suspenda-sistemas-reconocimiento-facial_1_7338528.html]]></guid>
      <pubDate><![CDATA[Wed, 24 Mar 2021 08:32:26 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/1c4b59d6-93ca-416e-98f0-eb801824c821_16-9-discover-aspect-ratio_default_0.jpg" length="412163" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/1c4b59d6-93ca-416e-98f0-eb801824c821_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="412163" width="1200" height="675"/>
      <media:title><![CDATA[70 catedráticos y expertos piden al Gobierno que actúe ante el reconocimiento facial "por sus graves deficiencias y riesgos"]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/1c4b59d6-93ca-416e-98f0-eb801824c821_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Reconocimiento facial,Inteligencia artificial,Gobierno]]></media:keywords>
    </item>
  </channel>
</rss>
