<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:media="http://search.yahoo.com/mrss/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:atom="http://www.w3.org/2005/Atom"  xmlns:content="http://purl.org/rss/1.0/modules/content/" version="2.0">
  <channel>
    <title><![CDATA[elDiario.es - Helena Matute]]></title>
    <link><![CDATA[https://www.eldiario.es/autores/helena-matute/]]></link>
    <description><![CDATA[elDiario.es - Helena Matute]]></description>
    <language><![CDATA[es]]></language>
    <copyright><![CDATA[Copyright El Diario]]></copyright>
    <ttl>10</ttl>
    <atom:link href="https://www.eldiario.es/rss/category/author/1029564/" rel="self" type="application/rss+xml"/>
    <item>
      <title><![CDATA[Inteligencia artificial para controlarnos a todos]]></title>
      <link><![CDATA[https://www.eldiario.es/opinion/tribuna-abierta/inteligencia-artificial-controlarnos_129_6137170.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/7b50f22c-3229-4b00-93e6-7fe127ef5572_16-9-aspect-ratio_default_1001835.jpg" width="369" height="207" alt="Inteligencia artificial para controlarnos a todos"></p><div class="subtitles"><p class="subtitle">Lo que aprende un niño de su entorno no siempre es positivo. El aprendizaje implica adaptación al medio, nada más, y a veces se logra con conductas que son perjudiciales</p><p class="subtitle">Pack verano - Este artículo forma parte de la revista de elDiario.es 'Tecnológicas: datos, dinero y poder. Hazte socio o socia antes del 16 de agosto y te la enviamos a casa junto a nuestra revista ‘El laberinto de la comida</p></div><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/7b50f22c-3229-4b00-93e6-7fe127ef5572_1-1-aspect-ratio_50p_1001833.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/7b50f22c-3229-4b00-93e6-7fe127ef5572_1-1-aspect-ratio_50p_1001833.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/7b50f22c-3229-4b00-93e6-7fe127ef5572_1-1-aspect-ratio_75p_1001833.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/7b50f22c-3229-4b00-93e6-7fe127ef5572_1-1-aspect-ratio_75p_1001833.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/7b50f22c-3229-4b00-93e6-7fe127ef5572_1-1-aspect-ratio_default_1001833.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/7b50f22c-3229-4b00-93e6-7fe127ef5572_1-1-aspect-ratio_default_1001833.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/7b50f22c-3229-4b00-93e6-7fe127ef5572_1-1-aspect-ratio_default_1001833.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        Hace ya unos cuantos a&ntilde;os, cuando impartiendo una conferencia se me ocurri&oacute; decir que la inteligencia artificial (IA) iba a desarrollar sesgos, como las personas, recib&iacute; no pocas cr&iacute;ticas, y fueron varios los ingenieros que me escribieron explic&aacute;ndome que no, que la inteligencia artificial solo hace aquello que los programadores humanos hayan programado en su interior; por tanto, si hay sesgos, no se puede decir que sean inherentes a la m&aacute;quina, sino que ser&aacute;n errores de programaci&oacute;n, y por tanto solucionables v&iacute;a programaci&oacute;n, dec&iacute;an. Pero hubo tambi&eacute;n muchos ingenieros que se mostraron preocupados ya entonces por esta posibilidad. La cuesti&oacute;n es que no hablamos de los antiguos sistemas expertos y las m&aacute;quinas que hacen lo que se les ha programado para hacer, sino de las m&aacute;quinas que aprenden y que hacen lo que han aprendido a hacer. Hoy sabemos que hay muchas IAs en redes sociales y en empresas de selecci&oacute;n de personal, incluso en juzgados, que son sexistas, racistas, etc. Aprenden lo que ven.
    </p><p class="article-text">
        La cuesti&oacute;n es que cuando decimos que una m&aacute;quina aprende, esto significa que se adapta, cambia, evoluciona. Sale de f&aacute;brica con una programaci&oacute;n que le permite adaptarse a los cambios del entorno, y esto significa necesariamente que a veces habr&aacute; mejor&iacute;a, y a veces lo contrario. Lo mismo que sucede con las personas cuando aprendemos y nos adaptamos al entorno. A veces las malas compa&ntilde;&iacute;as hacen que aprendamos cosas malas.
    </p><p class="article-text">
        Lo que aprende un ni&ntilde;o de su entorno no siempre es positivo. El aprendizaje implica adaptaci&oacute;n al medio, nada m&aacute;s, y a veces se logra con conductas que son perjudiciales. Si lo piensan un poco, mejorar y empeorar son t&eacute;rminos relativos que dependen de cu&aacute;l sea la vara de medir que utilicemos. Lo &uacute;nico que hacemos las inteligencias naturales (humanas y animales), y ahora tambi&eacute;n las artificiales, es adaptarnos: tratar de realizar con m&aacute;s frecuencia aquellas conductas que el entorno nos premia, y con menos frecuencia las que no nos premia. Eso es todo.
    </p><p class="article-text">
        Por tanto, pensemos ahora, &iquest;c&oacute;mo aprender&aacute; una IA a vivir en un mundo como el nuestro? &iquest;Qu&eacute; comportamientos aprender&aacute;? &iquest;Qu&eacute; tipo de sesgos y prejuicios desarrollar&aacute;? Evidentemente, el tipo de comportamiento que esa IA va a ir aprendiendo no es en principio ni bueno ni malo; va a depender de aquellas conductas que su entorno le premie. Tendr&aacute; unos objetivos prefijados que los habr&aacute;n marcado sus programadores (normalmente del estilo de &ldquo;maximiza el beneficio de la empresa X&rdquo;). Si una conducta resulta recompensada con altos beneficios para la empresa, tender&aacute; a repetirse, sea cual sea, y da&ntilde;e a quien da&ntilde;e, eso es lo de menos si cumple su objetivo. Por tanto, si sus objetivos coinciden con los nuestros, genial. Si no coinciden, tenemos un problema. Seremos peque&ntilde;as hormiguitas a las que la m&aacute;quina no tiene por qu&eacute; prestar atenci&oacute;n mientras trabaja por conseguir sus metas. Puede hacernos da&ntilde;o.
    </p><p class="article-text">
        Por ejemplo, cada vez que una IA de las que andan sueltas por las redes sociales interacciona con nosotros, estamos premiando o castigando, a menudo sin ser conscientes de ello, las estrategias que pone a prueba para alcanzar sus objetivos. &iquest;Que nos manda un tuit que no nos hace reaccionar? No pasa nada, nos mandar&aacute; otro un poco m&aacute;s exagerado a ver si este s&iacute; lo retuiteamos. Y as&iacute;, poco a poco van aprendiendo qu&eacute; cosas nos hacen reaccionar y cu&aacute;les no, cu&aacute;les nos hacen reaccionar con ira, incluso con odio en las redes. El objetivo es que compartamos la informaci&oacute;n, que la hagamos viral, y que llevemos a m&aacute;s gente a hacer click en su web, eso maximiza sus beneficios, luego lo que ocurra a los que estemos en medio poco importa. &iquest;Que aumenta el odio y el populismo en las redes? &iquest;Y?
    </p><p class="article-text">
        Lo m&aacute;s grave es que experimentan a diario con todos nosotros, nos roban millones de datos muy privados, de personalidad, emocionalidad, relaci&oacute;n social, tiempos de respuestas, pausas&hellip; Estos datos les proporcionan un poder inmenso, y aprenden qu&eacute; botones presionar en cada uno de nosotros para que reaccionemos de la manera m&aacute;s intensa posible, siempre en beneficio de su empresa.
    </p><p class="article-text">
        No podemos protegernos individualmente de esto. Es demasiado costoso, por ejemplo, cuando navegamos por la red, evitar que las webs implanten sus cookies en nuestro m&oacute;vil y que sus IAs vayan aprendiendo de nosotros y puedan saber y predecir en todo momento qu&eacute; productos nos gustan para poder vend&eacute;rnoslos antes de que pensemos siquiera en ellos. Esto permite a estas empresas adelantarse a nuestros deseos y tener siempre listo lo que vamos a encargarles, lo cual es una innovaci&oacute;n muy ventajosa para ellas, que no tienen que producir ni distribuir aquello que no vamos a pedirles. Saben cu&aacute;nto estamos dispuestos a pagar por esos art&iacute;culos que no sabemos que deseamos pero que acabaremos pidiendo, y pueden incluso cambiarnos el precio a cada uno, cada d&iacute;a. Y da lo mismo tambi&eacute;n si se trata de vendernos una lavadora o un presidente: saben qu&eacute; mensajes publicitarios activar&aacute;n qu&eacute; teclas en cada uno. Hay que cambiar las leyes y endurecer las sanciones.
    </p><p class="article-text">
        Y s&iacute;, yo lo llamo robar datos e informaci&oacute;n porque no tienen nuestro consentimiento informado para hacer los experimentos psicol&oacute;gicos que hacen con nosotros. De eso sabemos un poco en las facultades de psicolog&iacute;a de las universidades de todo el mundo porque nosotros hacemos tambi&eacute;n experimentos psicol&oacute;gicos con humanos hace muchos a&ntilde;os. La diferencia est&aacute; en que siempre hemos tenido unas normas &eacute;ticas muy claras que debemos cumplir a rajatabla. Las empresas tecnol&oacute;gicas multimillonarias, en cambio, act&uacute;an como si no existiera la &eacute;tica de la investigaci&oacute;n. No piden los datos a los usuarios, ni les informan, se los roban y punto. Cuando nos informan, lo hacen en documentos largos e ininteligibles que est&aacute; m&aacute;s que demostrado que es imposible que leamos. Y hacen experimentos sobre personalidad y reacciones emocionales que no son solo ya cuesti&oacute;n de robo de datos, sino de manipulaci&oacute;n de personas, lo cual es mucho m&aacute;s grave.
    </p>]]></description>
      <dc:creator><![CDATA[Helena Matute]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/opinion/tribuna-abierta/inteligencia-artificial-controlarnos_129_6137170.html]]></guid>
      <pubDate><![CDATA[Thu, 13 Aug 2020 19:33:09 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/7b50f22c-3229-4b00-93e6-7fe127ef5572_16-9-aspect-ratio_default_1001835.jpg" length="191492" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/7b50f22c-3229-4b00-93e6-7fe127ef5572_16-9-aspect-ratio_default_1001835.jpg" type="image/jpeg" fileSize="191492" width="369" height="207"/>
      <media:title><![CDATA[Inteligencia artificial para controlarnos a todos]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/7b50f22c-3229-4b00-93e6-7fe127ef5572_16-9-aspect-ratio_default_1001835.jpg" width="369" height="207"/>
    </item>
  </channel>
</rss>
