<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:media="http://search.yahoo.com/mrss/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:atom="http://www.w3.org/2005/Atom"  xmlns:content="http://purl.org/rss/1.0/modules/content/" version="2.0">
  <channel>
    <title><![CDATA[elDiario.es - Javier Sánchez Monedero]]></title>
    <link><![CDATA[https://www.eldiario.es/autores/javier_sanchez_monedero/]]></link>
    <description><![CDATA[elDiario.es - Javier Sánchez Monedero]]></description>
    <language><![CDATA[es]]></language>
    <copyright><![CDATA[Copyright El Diario]]></copyright>
    <ttl>10</ttl>
    <atom:link href="https://www.eldiario.es/rss/category/author/517907" rel="self" type="application/rss+xml"/>
    <item>
      <title><![CDATA[Los límites estadísticos de la vigilancia masiva: no sirve para detectar individuos sino criminalizar colectivos]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/limites-estadisticos-vigilancia-masiva_1_1159454.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/4924dc27-e965-40c7-8d76-9fa839328c00_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Los límites estadísticos de la vigilancia masiva: no sirve para detectar individuos sino criminalizar colectivos"></p><div class="subtitles"><p class="subtitle">Las herramientas de detección preventiva de individuos poco frecuentes como terroristas que se hacen pasar por inmigrantes son imprecisas</p><p class="subtitle">La resistencia a estas tecnologías se plantea a menudo desde los derechos sociales, pero rara vez usamos una razón estadística: es imposible que la mayoría de estas propuestas funcionen</p><p class="subtitle">Las herramientas de vigilancia y big data, más que predecir comportamientos de personas sirven para la gestión de los recursos de seguridad</p></div><p class="article-text">
        Despu&eacute;s de los atentados del 11-S de 2001,&nbsp;Estados Unidos inaugur&oacute; la senda del espionaje masivo de la ciudadan&iacute;a en busca de potenciales terroristas. La premisa, mantenida e impulsada como mantra gracias al avance del big data, era y es: cuantos m&aacute;s datos tengamos en n&uacute;mero y variedad m&aacute;s probabilidades tendremos de detener a los terroristas antes de que act&uacute;en. Desde entonces, en el debate respecto a herramientas de vigilancia y estrategias preventivas de seguridad se introdujo una salvaguarda narrativa en forma de dilema inevitable: seguridad o libertad. Y ese dilema ha servido para calmar las resistencias a una agenda pol&iacute;tica que normaliza el controla y la vigilancia, adem&aacute;s de criminalizar a grupos sociales.
    </p><p class="article-text">
        La&nbsp;oposici&oacute;n a estos despliegues se plantea a menudo desde los derechos sociales y humanos, pero rara vez incorporamos al debate p&uacute;blico un an&aacute;lisis estad&iacute;stico que nos demuestra que es imposible que la mayor&iacute;a de estas propuestas funcionen para el que se supone que es su prop&oacute;sito.&nbsp;Es decir, no hay ning&uacute;n&nbsp;dilema seguridad-libertad que resolver.
    </p><p class="article-text">
        Desde hace a&ntilde;os, la Uni&oacute;n Europea cuenta con varios sistemas tecnol&oacute;gicos para el control de&nbsp;<a href="https://www.eldiario.es/desalambre/datos-inmigrantes-refugiados-ceden-fronteras_0_907110190.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">personas refugiadas y migrantes</a> mientras los estados miembro y la propia UE no paran de financiar o implementar planes piloto de vigilancia de sus ciudadanos. Por ejemplo, Gales puso en marcha en 2017 un sistema de reconocimiento facial para evitar el acceso a potenciales criminales a eventos deportivos.
    </p><p class="article-text">
        El objetivo era detectar personas que pudieran suponer un peligro entre las asistentes a estos eventos. Sin embargo, cuando el sistema se despleg&oacute; en varios eventos deportivos, como la final de la Champions League, su rendimiento fue mucho menor que en las pruebas de laboratorio: <a href="https://www.theguardian.com/uk-news/2018/may/05/welsh-police-wrongly-identify-thousands-as-potential-criminals" target="_blank" data-mrf-recirculation="links-noticia" class="link">un 92% de las 2,297 personas detectadas como criminales, y a las que se les impidi&oacute; acceder al espacio</a>, no ten&iacute;an antecedentes. El problema de los falsos positivos con el reconocimiento facial tambi&eacute;n dio que hablar en EEUU cuando <a href="https://www.eldiario.es/tecnologia/reconocimiento-Amazon-criminales-Congreso-EEUU_0_797220603.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">el sistema reconocimiento de Amazon identific&oacute; a 28 congresistas como delincuentes</a>.
    </p><p class="article-text">
        En las mismas fechas, un equipo de investigaci&oacute;n de la Universidad de Granada (UGR)&nbsp;<a href="https://canal.ugr.es/noticia/efecto-pinocho-termografia-persona-miente/" target="_blank" data-mrf-recirculation="links-noticia" class="link">presentaba un detector de mentiras basado en la monitorizaci&oacute;n de la temperatura de la nariz</a>. Entre los ejemplos de aplicaci&oacute;n los inventores propon&iacute;an su uso en campos de refugiados para saber &ldquo;<em>cu&aacute;l es el objetivo real de las personas que tratan de cruzar las fronteras entre pa&iacute;ses</em>&rdquo;. El art&iacute;culo asegura alcanzar una tasa de detecci&oacute;n de mentirosos del 85%.
    </p><p class="article-text">
        Obviando la&nbsp;<a href="https://doi.org/10.17226/10420" target="_blank" data-mrf-recirculation="links-noticia" class="link">unanimidad cient&iacute;fica</a> en que no existe ninguna base te&oacute;rica o experimental para pensar que ser&iacute;a posible construir un detector de mentiras y que tampoco podemos dise&ntilde;ar un experimento s&oacute;lido de validaci&oacute;n (todos los trabajos que proponen detectores de mentiras estudian su rendimiento con personas que interpretan un papel), estas noticias son un ejemplo perfecto del mencionado falso dilema. Bajo este, se reducen las resistencias a someter a un grupo social a una prueba claramente criminalizadora con la promesa de detectar terroristas de forma eficaz y avalada por instituciones acad&eacute;micas.
    </p><p class="article-text">
        Pero incluso en el caso de que estos detectores de mentiras funcionasen y di&eacute;ramos por buenas sus pruebas de laboratorio, as&iacute; como la hip&oacute;tesis de que en los campos de refugiados se esconden terroristas, &iquest;qu&eacute; pasar&iacute;a si pudi&eacute;ramos demostrar que es altamente improbable, por no decir imposible, que muchas de estas propuestas funcionen? La estad&iacute;stica nos da herramientas para ello.
    </p><p class="article-text">
        Volviendo al detector basado en el <em>Efecto Pinocho</em>, &iquest;tiene sentido la propuesta del investigador para detectar personas que se hagan pasar por refugiadas? Para esto necesitamos primero entender los resultados de laboratorio y despu&eacute;s contextualizarlos en el problema real.
    </p><h3 class="article-text">El experimento</h3><p class="article-text">
        Antes de comenzar, es importante se&ntilde;alar que el hecho de que una persona mienta es un evento, mientras que el hecho de que el detector diga que miente es otro evento separado. El experimento de laboratorio, con un grupo de estudiantes que interpretaban unos roles, arroj&oacute; unos resultados de 85% de detecci&oacute;n de mentirosos y 75% de detecci&oacute;n de personas que dicen la verdad. Esto significa que el 15% de las personas que mienten no son detectadas y que el 25% de las que dicen la verdad son clasificadas como mentirosas. A simple vista parecen unos resultados prometedores, pero ser&iacute;a interesante saber si en la pr&aacute;ctica real los resultados de rendimiento se mantendr&iacute;an.
    </p><p class="article-text">
        La estad&iacute;stica nos da herramientas que nos sirven para contextualizar el comportamiento de una prueba como el detector de mentiras teniendo en cuenta c&oacute;mo de frecuente es el evento que queremos detectar. Por ejemplo, si tenemos 1.000 personas de las cuales 100 mienten, &iquest;qu&eacute; har&aacute; nuestro detector de mentiras? Si hacemos las cuentas, 85 de las personas mentirosas ser&aacute;n detectadas y 15 no, y de las 900 personas honestas el detector dir&aacute; que 675 dijeron la verdad y que 225 ment&iacute;an. En este punto, cabe destacar que el detector habr&aacute; clasificado 310 personas (85 + 225) como mentirosas, y que mirando s&oacute;lo el detector de mentiras no podemos saber nada m&aacute;s, de modo que habr&iacute;a que investigar a estas personas para encontrar a las que de verdad mienten, que se espera que sean un 27% de todas las clasificadas como mentirosas. Formalmente a esta correcci&oacute;n sobre el rendimiento se le conoce como <em>valor predictivo positivo</em> o <em>probabilidad posterior</em> y es imprescindible para valorar utilizar una prueba en un contexto real.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/b4317e75-97ad-44b9-bd7c-bf2df9d5f81f_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/b4317e75-97ad-44b9-bd7c-bf2df9d5f81f_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/b4317e75-97ad-44b9-bd7c-bf2df9d5f81f_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/b4317e75-97ad-44b9-bd7c-bf2df9d5f81f_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/b4317e75-97ad-44b9-bd7c-bf2df9d5f81f_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/b4317e75-97ad-44b9-bd7c-bf2df9d5f81f_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/b4317e75-97ad-44b9-bd7c-bf2df9d5f81f_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        Podemos repetir este an&aacute;lisis para saber si el detector de mentiras de la Universidad de Granada podr&iacute;a encontrar terroristas haci&eacute;ndose pasar por refugiados. Para ello utilizaremos los datos del <em>think tank</em> de extrema derecha Heritage, que asegura que 44 demandantes de asilo, de entre 4 millones, estuvieron relacionados con alg&uacute;n evento de terrorismo en Europa entre 2014 y 2017, esto es el 0.0001% del total. Repitiendo los c&aacute;lculos anteriores, 978.886 personas ser&iacute;an clasificadas como mentirosas, entre las cuales estar&iacute;an 36 terroristas y el resto ser&iacute;an personas inocentes. Es decir, habr&iacute;a que investigar a casi 1 mill&oacute;n de personas en extrema vulnerabilidad para encontrar a esos 36 terroristas. Si calculamos el valor predictivo positivo este nos da un 0,0037%, una cifra que impresiona menos que el 85% de precisi&oacute;n anunciada por la UGR.
    </p><p class="article-text">
        Es importante destacar que en nuestro an&aacute;lisis hemos hecho una serie de asunciones que representan el mejor de los casos para la propuesta de la UGR: los detectores de mentiras existen, los experimentos de laboratorio se parecen al entorno real de pruebas y por tanto el rendimiento se mantiene, hemos sobreestimado la cifra de refugiados implicados en terrorismo y hemos dado por hecho que los terroristas no adoptar&iacute;an ninguna medida para evitar ser detectados.
    </p><p class="article-text">
        Despu&eacute;s de nuestro an&aacute;lisis queda claro que la propuesta es inviable, no s&oacute;lo para la b&uacute;squeda de terroristas sino para la b&uacute;squeda de muchos otros eventos, ya que para alcanzar un valor predictivo positivo de m&aacute;s del 50% el evento que buscamos tendr&iacute;a que cumplirse en al menos el 25% de la poblaci&oacute;n. Sin embargo, cualquiera que haya le&iacute;do la nota de prensa de la UGR habr&aacute; concluido que la entidad propone, con el aval de la (pseudo)ciencia, que hacer pasar por una prueba criminalizadora a los refugiados es una buena idea.
    </p><p class="article-text">
        La historia de los detectores de mentiras est&aacute; plagada de casos fallidos lo cual no ha impedido que, recurrentemente, pa&iacute;ses de la UE o la propia Comisi&oacute;n Europea financien programas piloto, de los que, casualidad, casi nunca encontramos informaci&oacute;n sobre los resultados pr&aacute;cticos. Esto ha sucedido con la implantaci&oacute;n de AVATAR en EEUU y Hungr&iacute;a para entrevistar a migrantes, el proyecto de la Universidad de Bradford y QinetiQ en 2011 para buscar defraudadores en las ayudas sociales, y m&aacute;s recientemente con iBorderCtrl, que, financiado con 4,4 millones de euros por la UE promete agilizar el paso fronterizo sometiendo a personas sin un visado a un detector de mentiras supuestamente basado en inteligencia artificial.
    </p><p class="article-text">
        Ahora que sabemos que estos sistemas no son fiables, y demostrado estad&iacute;sticamente que no pueden funcionar en la b&uacute;squeda de eventos poco frecuentes, cabe preguntarnos qu&eacute; l&oacute;gicas persigue la UE con estos pilotos: &iquest;responden a una creciente criminalizaci&oacute;n de las migraciones? &iquest;Son una herramienta tecnoburocr&aacute;tica que pretende deshacerse de migrantes bajo el supuesto aval de objetividad que otorga la ciencia? &iquest;Tienen que ver con una industria de la seguridad parasitaria de Bruselas? Por lo pronto, European Dynamics, la empresa detr&aacute;s de iBorderCtrl y muchos otros proyectos financiados por la UE, sigue sin publicar las memorias completas de los proyectos, incluyendo los documentos del comit&eacute; asesor de &eacute;tica, y ya tiene en marcha otro proyecto europeo que promete detectar comportamientos de riesgo en migrantes que cruzan las fronteras. Ser&iacute;a interesante saber por qu&eacute; la Comisi&oacute;n Europea ha calificado como &ldquo;caso de &eacute;xito&rdquo; el detector de iBorderCtrl cuando sabemos que se basa en pseudociencia y ser&iacute;a muy dif&iacute;cil que aportase alguna utilidad incluso con todas las hip&oacute;tesis en su favor. Ser&iacute;a oportuno analizar por qu&eacute; hay consultor&iacute;as dedicadas en exclusiva a escribir proyectos de investigaci&oacute;n y tambi&eacute;n ser&iacute;a interesante seguir el rastro del dinero, pero eso ser&iacute;a otro tipo de art&iacute;culo.
    </p>]]></description>
      <dc:creator><![CDATA[Javier Sánchez Monedero]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/limites-estadisticos-vigilancia-masiva_1_1159454.html]]></guid>
      <pubDate><![CDATA[Sat, 16 Nov 2019 20:24:21 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/4924dc27-e965-40c7-8d76-9fa839328c00_16-9-discover-aspect-ratio_default_0.jpg" length="363811" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/4924dc27-e965-40c7-8d76-9fa839328c00_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="363811" width="1200" height="675"/>
      <media:title><![CDATA[Los límites estadísticos de la vigilancia masiva: no sirve para detectar individuos sino criminalizar colectivos]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/4924dc27-e965-40c7-8d76-9fa839328c00_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Vigilancia masiva]]></media:keywords>
    </item>
  </channel>
</rss>
