<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:media="http://search.yahoo.com/mrss/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:atom="http://www.w3.org/2005/Atom"  xmlns:content="http://purl.org/rss/1.0/modules/content/" version="2.0">
  <channel>
    <title><![CDATA[elDiario.es - Machine learning]]></title>
    <link><![CDATA[https://www.eldiario.es/temas/machine-learning/]]></link>
    <description><![CDATA[elDiario.es - Machine learning]]></description>
    <language><![CDATA[es]]></language>
    <copyright><![CDATA[Copyright El Diario]]></copyright>
    <ttl>10</ttl>
    <atom:link href="https://www.eldiario.es/rss/category/tag/1014875/" rel="self" type="application/rss+xml"/>
    <item>
      <title><![CDATA[La UNIA activa un paquete de másteres y diplomas para profundizar en la Transformación Digital]]></title>
      <link><![CDATA[https://www.eldiario.es/andalucia/unia/unia-activa-paquete-masteres-diplomas-profundizar-transformacion-digital_132_9556873.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/7eab00ad-7dd4-4b2c-9481-47030e7eabd7_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="La UNIA activa un paquete de másteres y diplomas para profundizar en la Transformación Digital"></p><div class="subtitles"><p class="subtitle">El listado de propuestas abarcan la Ciencia de Datos y la Inteligencia Artificial, con citas para analizar el futuro y el presente digital desde distintas perspectivas</p><p class="subtitle">Diez posgrados para especializarte en inteligencia artificial, gestión de datos y digitalización</p></div><p class="article-text">
        El universo digital, en alza en todos los sentidos, se abre en la Universidad Internacional de Andaluc&iacute;a a un importante cat&aacute;logo de m&aacute;steres y diplomas de especializaci&oacute;n, cuyo plazo de admisi&oacute;n de alumnado se encuentra abierto en estos momentos.
    </p><p class="article-text">
        La idea es analizar todo lo referente a la Transformaci&oacute;n Digital, en un listado de propuestas que abarcan la Ciencia de Datos y la Inteligencia Artificial.&nbsp; 
    </p><p class="article-text">
        Se tata de unos itinerarios formativos realizados por reputados expertos en la materia con el fin de abordar la necesidad de profesionales que demanda el mercado actual, que han dise&ntilde;ado un listado en el que se encuentran el m&aacute;ster en Inteligencia Artificial y Aprendizaje Autom&aacute;tico; la tercera edici&oacute;n del m&aacute;ster en Big Data, el diploma de Especializaci&oacute;n en Energ&iacute;a Digital, diploma de especializaci&oacute;n en Data Science e Inteligencia Empresarial para la toma de decisiones, m&aacute;ster en T&eacute;cnicas de an&aacute;lisis de datos para la investigaci&oacute;n en humanidades y Ciencias sociales, diploma de Especializaci&oacute;n en Protecci&oacute;n de Datos en la Sociedad Digital (tercera edici&oacute;n), y diploma de Especializaci&oacute;n en Marketing Digital y Creaci&oacute;n de E-Commerce.
    </p><h3 class="article-text"><strong>El potencial empleador de las IA</strong></h3><p class="article-text">
        Sebasti&aacute;n Ventura ultima el M&aacute;ster en Formaci&oacute;n Permanente y Aprendizaje Autom&aacute;tico de la UNIA, que repasa las principales t&eacute;cnicas y aplicaciones asociadas a esta tecnolog&iacute;a, al tiempo que ha sido uno de los responsables del cat&aacute;logo formativo que se pone al servicio de los alumnos en estos d&iacute;as.
    </p><p class="article-text">
        Y no es balad&iacute;. A la hora de hablar de Inteligencia Artificial, recuerda que se estima que &ldquo;crear&aacute; un mill&oacute;n de empleos en los pr&oacute;ximos a&ntilde;os&rdquo;, como se&ntilde;ala este catedr&aacute;tico de Ciencia de la Computaci&oacute;n e Inteligencia Artificial y vicerrector de la <a href="http://www.uco.es/" target="_blank" data-mrf-recirculation="links-noticia" class="link">Universidad de C&oacute;rdoba.</a>
    </p><p class="article-text">
        Como recuerda, aunque su impacto suele asociarse a entornos tecnol&oacute;gicos y corporativos, va mucho m&aacute;s all&aacute;, porque &ldquo;desde el quir&oacute;fano hasta las explotaciones ganaderas, la digitalizaci&oacute;n avanza a marchas forzadas&rdquo;, y todo ello desde el aval de su labor como subdirector del <a href="https://dasci.es/es/#:~:text=DaSCI%20surge%20como%20una%20iniciativa,de%20Datos%20e%20Inteligencia%20Computacional." target="_blank" data-mrf-recirculation="links-noticia" class="link">Instituto Andaluz Interuniversitario en DataScience (DaSCI).</a>
    </p><p class="article-text">
        Las posibilidades de los modelos, explica, son muy amplias, como atestigua el abanico de proyectos en los que participa el Instituto: desde la detecci&oacute;n precoz de la dislexia a la identificaci&oacute;n autom&aacute;tica de materiales, o la medicina personalizada.&nbsp;
    </p><p class="article-text">
        Actualmente, el investigador trabaja en lo que denomina &ldquo;mantenimiento predictivo&rdquo; de veh&iacute;culos. En &eacute;l, &ldquo;el modelo extrae informaci&oacute;n del ordenador del veh&iacute;culo, como la temperatura del motor o el estado de los frenos, y la analiza en busca de valores an&oacute;malos para hacer una predicci&oacute;n de aver&iacute;a a corto plazo, alertando al usuario&rdquo;.&nbsp;
    </p><p class="article-text">
        &ldquo;Otro campo con much&iacute;simo desarrollo es la digitalizaci&oacute;n agraria&rdquo;, remarca Ventura. &ldquo;Ya hay modelos que monitorizan el cultivo, detectando el grado de madurez del fruto o las necesidades h&iacute;dricas. Tambi&eacute;n en la ganader&iacute;a, donde el sistema detecta enfermedades como heridas o cojeras en el ganado que pueden afectar a la producci&oacute;n&rdquo;.&nbsp;
    </p><p class="article-text">
        Su m&aacute;ster se realiza en colaboraci&oacute;n con el Instituto Andaluz Interuniversitario de Ciencia de Datos e Inteligencia Computacional.&nbsp;
    </p><h3 class="article-text"><strong>Datos para las humanidades y las ciencias sociales</strong></h3><p class="article-text">
        Otra de las propuestas de la <a href="https://www.unia.es/es/" target="_blank" data-mrf-recirculation="links-noticia" class="link">UNIA</a> para el inicio del oto&ntilde;o es el m&aacute;ster en T&eacute;cnicas de an&aacute;lisis de datos para la investigaci&oacute;n en humanidades y Ciencias sociales, que dirige Mar&iacute;a Marcos, historiadora del arte que defiende la formaci&oacute;n en competencias digitales de investigadores en Humanidades y Ciencias Sociales.
    </p><p class="article-text">
        Como ella misma recuerda, es una parte de la ciencia que permite &ldquo;trabajar con un gran volumen de datos y abordar estudios con mayor profundidad, m&aacute;s cualitativos, que lo que podr&iacute;amos hacer hasta ahora&rdquo;.&nbsp;
    </p><p class="article-text">
        Sistemas de Informaci&oacute;n Geogr&aacute;fica (SIG), cartograf&iacute;a multimedia, modelado 3D, an&aacute;lisis cualitativos, machine learning&hellip; son algunas de las aplicaciones que detalla esta profesora de la <a href="https://www.ugr.es/" target="_blank" data-mrf-recirculation="links-noticia" class="link">Universidad de Granada</a>, que se&ntilde;ala que, en la actualidad, &ldquo;el abanico de herramientas es suficientemente amplio para que todas las disciplinas puedan encontrar uno adecuado para cada estudio&rdquo;.
    </p><p class="article-text">
        Marcos conoce de primera mano este potencial. Su propia investigaci&oacute;n, centrada en el arte isl&aacute;mico tardomedieval, se vio reforzada por el uso de sistemas de informaci&oacute;n geogr&aacute;fica para &ldquo;rastrear la presencia de elementos tan singulares como los moc&aacute;rabes&rdquo;, que presentan variaciones en funci&oacute;n del per&iacute;odo y la cultura, a lo largo del Mediterr&aacute;neo.&nbsp;
    </p><p class="article-text">
        As&iacute;, su trabajo constat&oacute; una abrumadora mayor&iacute;a de moc&aacute;rabes sun&iacute;es frente a la minor&iacute;a chi&iacute;ta en la cuenca mediterr&aacute;nea. M&aacute;s a&uacute;n, las herramientas le permitieron inferir &ldquo;la distribuci&oacute;n de ideas pol&iacute;ticas y credos&rdquo;.&nbsp;
    </p><p class="article-text">
        Junto al ingeniero y profesor de la <a href="https://www.ujaen.es/" target="_blank" data-mrf-recirculation="links-noticia" class="link">Universidad de Ja&eacute;n</a> Antonio Garrido, Marcos dirige desde este oto&ntilde;o el M&aacute;ster en cuesti&oacute;n: &ldquo;Existen cursos y seminarios, pero no hab&iacute;a un M&aacute;ster que recogiera de forma global y espec&iacute;fica los distintos sistemas&rdquo;, subraya Marcos.&nbsp;
    </p><p class="article-text">
        La inscripci&oacute;n se encuentra abierta <a href="https://unia.es/es/transformacion-digital" data-mrf-recirculation="links-noticia" class="link" target="_blank">en la web oficial de la UNIA</a>, donde tambi&eacute;n se puede consultar el programa de becas a la excelencia.
    </p>]]></description>
      <dc:creator><![CDATA[Fermín Cabanillas]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/andalucia/unia/unia-activa-paquete-masteres-diplomas-profundizar-transformacion-digital_132_9556873.html]]></guid>
      <pubDate><![CDATA[Wed, 21 Sep 2022 14:59:09 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/7eab00ad-7dd4-4b2c-9481-47030e7eabd7_16-9-discover-aspect-ratio_default_0.jpg" length="251428" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/7eab00ad-7dd4-4b2c-9481-47030e7eabd7_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="251428" width="1200" height="675"/>
      <media:title><![CDATA[La UNIA activa un paquete de másteres y diplomas para profundizar en la Transformación Digital]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/7eab00ad-7dd4-4b2c-9481-47030e7eabd7_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Machine learning,Andalucía,Universidad]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La RAE pacta con las tecnológicas para que la inteligencia artificial "hable español y lo hable bien"]]></title>
      <link><![CDATA[https://www.eldiario.es/cultura/rae-dara-certificados-calidad-maquinas-hablen-espanol_1_8059496.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/888ff47e-c7a5-4082-855f-6dae928660b6_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="La RAE pacta con las tecnológicas para que la inteligencia artificial &quot;hable español y lo hable bien&quot;"></p><div class="subtitles"><p class="subtitle">La institución dará "certificados de calidad" a las máquinas que usen la lengua correctamente: Alexa, por ejemplo, no va a decir "espero que estés contento hoy" sino "espero que estés de buen humor"</p><p class="subtitle">¿Qué es la inteligencia artificial?</p></div><p class="article-text">
        Aunque el proceso es &ldquo;lento y largo&rdquo;, la Real Academia Espa&ntilde;ola (RAE) se ha propuesto que la Inteligencia Artificial &ldquo;hable espa&ntilde;ol y que lo hable bien&rdquo; y, para eso, cuando se logre, &ldquo;aspira&rdquo; a dar &ldquo;certificados de calidad&rdquo; a las tecnol&oacute;gicas cuando las m&aacute;quinas empleen nuestra lengua como lo hace un &ldquo;humano&rdquo;. As&iacute; lo ha manifestado su director de la RAE, Santiago Mu&ntilde;oz Machado, durante el encuentro sobre Lengua Espa&ntilde;ola e Inteligencia Artificial celebrado esta ma&ntilde;ana y al que han acudido representantes de Telef&oacute;nica, Microsoft, Amazon y Google.
    </p><p class="article-text">
        &ldquo;Cuando la RAE tenga la seguridad de que las m&aacute;quinas emplean nuestra lengua como un humano que maneja el espa&ntilde;ol, con solvencia, aspira a dar certificados del buen uso del espa&ntilde;ol y acreditar que los criterios ling&uuml;&iacute;sticos de esta casa se cumplen&rdquo;, ha se&ntilde;alado Mu&ntilde;oz Machado hoy en la sede de la Academia. &ldquo;Pretendemos que la IA hable espa&ntilde;ol y que lo hable bien, que las m&aacute;quinas parlamentes se adec&uacute;en a los c&aacute;nones que la RAE ha establecido hace ya 300 a&ntilde;os. Nos resulta m&aacute;s dif&iacute;cil imponerlo a las m&aacute;quinas, pero queremos convencer a las empresas que usen las herramientas de la RAE para entrenar a las m&aacute;quinas y las hagan hablar conforme a ese canon de la RAE al que se atienen m&aacute;s de 600 millones de personas en el mundo&rdquo;, ha a&ntilde;adido.
    </p><p class="article-text">
        Un proceso &eacute;ste en el que se ha &ldquo;avanzado mucho&rdquo; pero que es tambi&eacute;n &ldquo;lento y largo&rdquo;, ha agregado al tiempo que ha reconocido que, al tratarse de un &ldquo;campo enorme&rdquo;, no se puede reservar s&oacute;lo al &aacute;mbito de la RAE, sino que hay que ampliarlo a todos los &ldquo;dominios&rdquo;. En este sentido, David Carmona, director general de IA en Microsoft Corporation, ha explicado que el momento del espa&ntilde;ol en la inteligencia artificial &ldquo;no puede ser m&aacute;s perfecto&rdquo;, ya que en la actualidad se est&aacute; viviendo &ldquo;un momento de transformaci&oacute;n digital&rdquo;.
    </p><p class="article-text">
        Una reflexi&oacute;n compartida por el resto de participantes en esta jornada, como lo ha explicado Chema Alonso, director de la unidad global de Consumo Digital de Telef&oacute;nica y director t&eacute;cnico del proyecto Lengua Espa&ntilde;ola e Inteligencia Artificial (LEIA). &ldquo;Hay que decir que ha habido una aperturismo de la RAE en cuanto a todos los recursos que ha cedido para que se pudiera entrenar y validar que los aprendizajes de la IA son los adecuados&rdquo;, ha matizado.
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">Nos resulta más difícil imponerlo a las máquinas, pero queremos convencer a las empresas que usen las herramientas de la RAE</p>
          </div>

  </blockquote><p class="article-text">
        En este sentido, Marie Mulot, gerente general de Amazon Alexa en Espa&ntilde;a, ha contado c&oacute;mo con su asistente de voz Alexa han pretendido &ldquo;dar un paso m&aacute;s all&aacute;&rdquo; para que &ldquo;hablara un espa&ntilde;ol correcto y natural&rdquo;. &ldquo;Alexa puede dar definiciones del diccionario de la RAE, sin&oacute;nimos y deletrear palabras, y creemos que con el proyecto LEIA podemos llegar a millones de personas&rdquo;, ha apuntado. Asimismo, Ester Marinas, responsable de marca y reputaci&oacute;n de Google Espa&ntilde;a y Portugal, tambi&eacute;n ha calificado de &ldquo;natural&rdquo; la manera de expresarse de su asistente de voz, quien tambi&eacute;n habla los distintos dialectos del espa&ntilde;ol y es capaz de dar definiciones, refranes o recitar poes&iacute;as.
    </p><p class="article-text">
        En cuanto a los cambios &ldquo;m&aacute;s importantes&rdquo; a los que se enfrenta la IA respecto al uso del espa&ntilde;ol, Carmona ha destacado que en el &ldquo;coraz&oacute;n&rdquo; de estos cambios est&aacute; el que la IA &ldquo;razone&rdquo; sobre el lenguaje de manera &ldquo;parecida&rdquo; a la que lo hace un humano. &ldquo;Nuestra apuesta es garantizar que el espa&ntilde;ol es el primer lenguaje y en igualdad con otros idiomas&rdquo;, ha destacado el  director general de IA en Microsoft Corporation.
    </p><p class="article-text">
        Respecto a los desaf&iacute;os gramaticales para que cada vez sea m&aacute;s perfecto el espa&ntilde;ol que hablan las m&aacute;quinas, &eacute;stos expertos han destacado que los principales son los &ldquo;sesgos&rdquo; de g&eacute;nero y de edad para que este lenguaje de las m&aacute;quinas sea tambi&eacute;n &ldquo;inclusivo&rdquo;. &ldquo;La IA tiene que reflejar los avances de nuestra &eacute;poca y limitar el sesgo de edad y g&eacute;nero porque hoy en d&iacute;a lo estamos resolviendo de manera mec&aacute;nica. Alexa, por ejemplo, no va a decir &rdquo;espero que est&eacute;s contento hoy&ldquo; sino &rdquo;espero que est&eacute;s de buen humor&ldquo;. Tenemos que proponer cosas que sean m&aacute;s naturales&rdquo;, ha explicado la gerente general de Amazon Alexa en Espa&ntilde;a.
    </p><p class="article-text">
        As&iacute;, desde Microsoft, su representante en esta jornada ha esgrimido que para salvar estas situaciones no se le puede echar &ldquo;la culpa a los datos&rdquo;; &ldquo; tenemos que crear una IA que no solo utilice datos, sino conocimientos humanos (...) el lenguaje natural se va a convertir en la pieza central del entrenamiento&rdquo;. 
    </p><p class="article-text">
        Este coloquio ha sido clausurado por la secretaria de Estado de Digitalizaci&oacute;n e Inteligencia Artificial, Carmen Artigas, quien ha coincidido tambi&eacute;n con los participantes en que estamos en un &ldquo;momento decisivo&rdquo; en nuestro pa&iacute;s para el desarrollo futuro de la IA como un &ldquo;gran elemento integrador&rdquo; de la econom&iacute;a espa&ntilde;ola. &ldquo;La IA va a jugar un papel muy importante en la reconstrucci&oacute;n de este pa&iacute;s. Un 30% de las ayudas de los presupuestos del Estado va dirigido a la transformaci&oacute;n digital&rdquo;, ha concluido.
    </p>]]></description>
      <dc:creator><![CDATA[EFE]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/cultura/rae-dara-certificados-calidad-maquinas-hablen-espanol_1_8059496.html]]></guid>
      <pubDate><![CDATA[Mon, 21 Jun 2021 12:00:52 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/888ff47e-c7a5-4082-855f-6dae928660b6_16-9-discover-aspect-ratio_default_0.jpg" length="2971201" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/888ff47e-c7a5-4082-855f-6dae928660b6_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="2971201" width="1200" height="675"/>
      <media:title><![CDATA[La RAE pacta con las tecnológicas para que la inteligencia artificial "hable español y lo hable bien"]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/888ff47e-c7a5-4082-855f-6dae928660b6_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Machine learning]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[¿Qué es la inteligencia artificial?]]></title>
      <link><![CDATA[https://www.eldiario.es/red/que-es/inteligencia-artificial_1_6247596.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/5809e0ac-c94b-4b9f-a085-a30fc7242aae_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="¿Qué es la inteligencia artificial?"></p><div class="subtitles"><p class="subtitle">Cada vez que decimos "Ok, Google" u "Oye, Siri", hay una inteligencia artificial detrás de la respuesta. La experta en Tencología Ana Jiménez nos explica en qué consiste y cuáles serán sus aplicaciones en el futuro</p></div><p class="article-text">
        Como muchas veces pasa con la ciencia ficci&oacute;n, las m&aacute;quinas que piensan (casi) como humanos han pasado de las p&aacute;ginas de las novelas a la realidad cotidiana. Esta tecnolog&iacute;a, basada en algoritmos y procesos matem&aacute;ticos, es capaz de obtener patrones a partir de datos para ayudarnos a evitar el tr&aacute;fico, catalogar informaci&oacute;n, componer una sinfon&iacute;a o pintar un cuadro. Actualmente la inteligencia artificial est&aacute; operativa en pr&aacute;cticamente todas las &aacute;reas en las que hay procesos con datos involucrados: econom&iacute;a, medicina, sistemas de comunicaciones, transportes o procesos industriales.
    </p><p class="article-text">
        Hablamos con Ana Jim&eacute;nez, socia en el &aacute;rea de Technology Consulting en EY, para conocer a fondo en qu&eacute; consiste exactamente la inteligencia artificial, cu&aacute;l es el futuro de la tecnolog&iacute;a y c&oacute;mo se ha convertido en un elemento de nuestra vida cotidiana.
    </p><p class="article-text">
        <strong>&iquest;Qu&eacute; es la inteligencia artificial?</strong>
    </p><p class="article-text">
        La inteligencia artificial es una rama de la computaci&oacute;n como puede ser la traumatolog&iacute;a en la medicina. Dentro de esta rama lo que encontramos es un conjunto de algoritmos, de recetas matem&aacute;ticas y l&oacute;gicas que tratan de simular comportamientos inteligentes. Hay varias &aacute;reas dentro de la inteligencia artificial: para tratar de procesar el lenguaje, reconocer y analizar im&aacute;genes, predecir bas&aacute;ndonos en datos, segmentar ciertas fuentes de informaci&oacute;n, etc.
    </p><p class="article-text">
        <strong>&iquest;Cu&aacute;les son las principales &aacute;reas de aplicaci&oacute;n?</strong>
    </p><p class="article-text">
        Las principales &aacute;reas podr&iacute;an ser&nbsp; cualquiera, realmente. Todos aquellos sitios donde necesitemos automatizar una serie de procesos, segmentar ciertas fuentes de informaci&oacute;n, predecir, analizar el lenguaje, analizar im&aacute;genes&hellip; B&aacute;sicamente puedes usar la inteligencia artificial en cualquier &aacute;rea.
    </p><p class="article-text">
        <strong>&iquest;Qu&eacute; es el machine learning? &iquest;Y el deep learning?</strong>
    </p><p class="article-text">
        Son dos &aacute;reas dentro de la inteligencia artificial. El machine learning es un &aacute;rea donde la m&aacute;quina aprende a partir de unos datos. Este aprendizaje consiste en encontrar los patrones ocultos que tenemos en los datos. El deep learning es una derivaci&oacute;n del machine learning, donde se usan unos algoritmos llamados redes de neuronas, que tienen un comportamiento que nos permite analizar patrones complejos en los datos, patrones m&aacute;s sutiles.
    </p><p class="article-text">
        <strong>&iquest;Qu&eacute; avances podremos ver en los pr&oacute;ximos a&ntilde;os?</strong>
    </p><p class="article-text">
        En los pr&oacute;ximos a&ntilde;os la inteligencia artificial va a evolucionar principalmente en dos l&iacute;neas: en el procesamiento del lenguaje natural, para permitirnos extraer m&aacute;s informaci&oacute;n y entender mejor el lenguaje humano, y, por otro lado, en el an&aacute;lisis de los sistemas complejos, para permitirnos precisamente extraer los patrones m&aacute;s complejos que podamos tener en los datos. Sin embargo, aunque la inteligencia artificial evolucione en estas dos l&iacute;neas, todav&iacute;a hay varios retos que tenemos por delante. La calidad de los datos es uno de los principales problemas que encontramos.
    </p><p class="article-text">
        <strong>&iquest;Alg&uacute;n d&iacute;a las m&aacute;quinas podr&aacute;n pensar como las personas?</strong>
    </p><p class="article-text">
        No. Las personas somos capaces de relacionar conceptos desde distintas &aacute;reas, cosa que la inteligencia artificial no puede hacer. Se habla de la inteligencia artificial particular y la inteligencia artificial general. Por ejemplo, hoy en d&iacute;a, nadie duda de que quien mejor juega al ajedrez en el mundo es un ordenador. Sin embargo, un ordenador no ser&iacute;a capaz de moverse en diferentes dominios y extraer patrones para aplicarlos entre ellos.
    </p><p class="article-text">
        <strong>&iquest;C&oacute;mo funciona la inteligencia artificial que crea arte, m&uacute;sica o literatura?</strong>
    </p><p class="article-text">
        La inteligencia artificial puede crear arte bas&aacute;ndose en otras composiciones art&iacute;sticas. Siempre se basa en el an&aacute;lisis de datos. Si los datos de entrada que le damos son las fugas de Bach, la inteligencia artificial va a crear una fuga que se parecer&aacute; much&iacute;simo a las fugas de Bach. Si le damos como datos de entrada los cuadros de Van Gogh, la inteligencia artificial va a crear un cuadro basado en los cuadros de Van Gogh. Sin embargo, lo que es complejo para la inteligencia artificial es el proceso creativo que engloba tambi&eacute;n el proceso art&iacute;stico.
    </p><p class="article-text">
        <strong>&iquest;C&oacute;mo podemos enga&ntilde;ar a la inteligencia artificial?</strong>
    </p><p class="article-text">
        Se habla cada vez m&aacute;s de si los algoritmos, que muchas veces piensan por nosotros o que toman decisiones por los seres humanos, no est&aacute;n lo suficientemente bien entrenados. Hay esc&aacute;ndalos donde una inteligencia artificial da un trabajo a un hombre en vez de a una mujer, o le da un cr&eacute;dito a una persona que tiene mucho dinero frente a una persona que vive en un barrio de menor renta econ&oacute;mica. Los algoritmos siempre tienen que estar supervisados por un ser humano, y preferiblemente por equipos diversos, porque son los seres humanos los que se van a dar cuenta de si no se est&aacute; contemplando correctamente cierto caso.
    </p><p class="article-text">
        <strong>&iquest;La inteligencia artificial puede volverse en contra de las personas?</strong>
    </p><p class="article-text">
        No. No creo, no. Matrix y las pel&iacute;culas de ciencia ficci&oacute;n molan mucho, pero la inteligencia artificial siempre tiene que estar gobernada por un humano. No tiene esa capacidad de crear. La inteligencia artificial repite lo que ve en cuanto a patrones y, si ejecuta cierta tarea, es porque un humano se lo ha dicho, no porque ella piense de ninguna forma.
    </p>]]></description>
      <dc:creator><![CDATA[Aitor Berás]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/red/que-es/inteligencia-artificial_1_6247596.html]]></guid>
      <pubDate><![CDATA[Sun, 27 Sep 2020 04:30:44 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/5809e0ac-c94b-4b9f-a085-a30fc7242aae_16-9-discover-aspect-ratio_default_0.jpg" length="884828" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/5809e0ac-c94b-4b9f-a085-a30fc7242aae_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="884828" width="1200" height="675"/>
      <media:title><![CDATA[¿Qué es la inteligencia artificial?]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/5809e0ac-c94b-4b9f-a085-a30fc7242aae_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Tecnología,Machine learning]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[El aprendizaje automático y el aprendizaje profundo de las máquinas: ¿qué es y para qué sirve?]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/inteligencia-artificial-aprendizaje-automatico-profundo_1_1507732.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/cae75f08-e211-4cc0-a93b-e71587025d30_16-9-aspect-ratio_default_0.jpg" width="880" height="495" alt="Una cara artificial generada automáticamente en la web thispersondoesnotexist.com"></p><div class="subtitles"><p class="subtitle">Explicamos los principales conceptos que manejan los investigadores a la hora de construir redes neuronales artificiales</p><p class="subtitle">Todo el aprendizaje automático puede englobarse dentro de la Inteligencia Artificial, pero no toda la Inteligencia Artificial es aprendizaje automático</p><p class="subtitle">Un experto en redes neuronales nos explica los tipos más usados actualmente: convolucionales, recurrentes y antagónicas</p></div><p class="article-text">
        La Tercera ley de Clarke dice lo siguiente: &ldquo;Cualquier tecnolog&iacute;a lo suficientemente avanzada es totalmente indistinguible de la magia&rdquo;. De los tres enunciados formulados por el creador de <em>2001: Una odisea en el espacio</em>, este quiz&aacute;s sea&nbsp;el m&aacute;s mentado por los cient&iacute;ficos e investigadores del mundo. El aprendizaje autom&aacute;tico (<em>Machine Learning</em>,&nbsp;en ingl&eacute;s), el aprendizaje profundo (<em>Deep Learning</em>) y la Inteligencia Artificial (<em>Artificial Intelligence</em>), aunque no sean un truco de Houdini, s&iacute; son lo suficientemente cautivadores para el com&uacute;n de los mortales.
    </p><p class="article-text">
        De los tres conceptos, el m&aacute;s extendido es el &uacute;ltimo. La Inteligencia Artificial es el nombre que damos a cualquier cosa inteligente, lo que no quiere decir que en realidad lo sea. La mayor&iacute;a de los algoritmos que existen actualmente se basan en grandes paquetes de datos, que una vez convertidos al lenguaje de la m&aacute;quina, tratados e introducidos en ella resultan en la interpretaci&oacute;n a gran escala que haga el sistema de los mismos. Dicho de otro modo: cuantos m&aacute;s datos coma el ordenador, m&aacute;s&nbsp;conocimiento acumular&aacute;&nbsp;y, por tanto, m&aacute;s sabr&aacute;.
    </p><p class="article-text">
        Que una m&aacute;quina sepa hacer algo muy bien no significa que sea muy lista. O s&iacute;, pero solo lo ser&aacute; en el terreno para el que fue entrenada. No&nbsp;hay que esperar que las m&aacute;quinas razonen, piensen y sientan como los humanos, al menos no en los pr&oacute;ximos a&ntilde;os. De momento solo pueden hacer una cosa, aquella para la que fueron dise&ntilde;adas: por ejemplo, un modelo neuronal de un sistema que detecte perros en fotograf&iacute;as solo servir&aacute; para eso. Pero si cogemos ese modelo y lo reentrenamos, podremos conseguir que tambi&eacute;n detecte caballos, cebras o jirafas.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/528dd1b2-830e-45bc-98ed-3a4947bd9b5f_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/528dd1b2-830e-45bc-98ed-3a4947bd9b5f_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/528dd1b2-830e-45bc-98ed-3a4947bd9b5f_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/528dd1b2-830e-45bc-98ed-3a4947bd9b5f_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/528dd1b2-830e-45bc-98ed-3a4947bd9b5f_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/528dd1b2-830e-45bc-98ed-3a4947bd9b5f_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/528dd1b2-830e-45bc-98ed-3a4947bd9b5f_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        Una vez m&aacute;s, todo depender&aacute; del paquete de datos con el que fue alimentado. As&iacute; que su inteligencia&nbsp;no depende de lo mucho o poco que sepa: sino de la cantidad de material con el que fue cebado.
    </p><h3 class="article-text">Capas de neuronas, procesamiento y profundidad</h3><p class="article-text">
        Ra&uacute;l Arrabales, CEO de la empresa de inteligencia artificial aplicada a los negocios Serendeepia, hace una divisi&oacute;n entre las redes profundas y las no profundas.&nbsp;Pensemos en los tres conceptos del principio como si fueran unas <em>matrioshkas</em> rusas: el aprendizaje profundo estar&iacute;a contenido dentro del aprendizaje autom&aacute;tico, que a su vez se encuentra dentro de la Inteligencia Artificial. Por tanto, todo el aprendizaje autom&aacute;tico est&aacute; relacionado de uno u otro modo con la inteligencia artificial, pero no todas las inteligencias artificiales se construyen a partir del aprendizaje autom&aacute;tico.
    </p><p class="article-text">
        Unas de las caracter&iacute;sticas principales de las redes neuronales profundas es que incluyen m&uacute;ltiples capas ocultas. Funcionan con <em>inputs</em> (entradas) que resultan en <em>outputs</em> (salidas), pero en el proceso existen multitud de capas intermedias, de ah&iacute; lo de ser profundas. &ldquo;Cuando solo hay una capa intermedia, que es el enfoque tradicional, no se habla de <em>deep learning</em>. Cuando se habla de <em>deep learning</em> es porque hay m&uacute;ltiples etapas de procesamiento distribuidas en capas de neuronas&rdquo;, explica Arrabales.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/3fff5ad6-52bd-4152-9c71-2e83acd66d4f_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/3fff5ad6-52bd-4152-9c71-2e83acd66d4f_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/3fff5ad6-52bd-4152-9c71-2e83acd66d4f_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/3fff5ad6-52bd-4152-9c71-2e83acd66d4f_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/3fff5ad6-52bd-4152-9c71-2e83acd66d4f_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/3fff5ad6-52bd-4152-9c71-2e83acd66d4f_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/3fff5ad6-52bd-4152-9c71-2e83acd66d4f_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        <a href="https://www.eldiario.es/tecnologia/redes-neuronales-vamos-oir-hablar_0_906759575.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Ya explicamos</a>&nbsp;que&nbsp;la forma m&aacute;s sencilla que se nos ocurri&oacute; a los humanos para representar este tipo de modelos fue imitando nuestro cerebro humano. Tenemos miles de terminaciones nerviosas, lo que se traduce en m&uacute;ltiples capas de procesamiento. Ra&uacute;l Arrabales pone un ejemplo para que lo entendamos mejor: &ldquo;A nivel visual por ejemplo, la retina ser&iacute;a la capa de entrada donde los conos y los bastones son las neuronas que toman los datos de los p&iacute;xeles ([en la vista humana] en vez de p&iacute;xeles son longitudes de onda de fotones en la luz) y a partir de ah&iacute; empiezan a pasar por diferentes etapas de procesamiento, y eso es lo que se llama <em>deep learning</em>&rdquo;, contin&uacute;a el cofundador de Serendeepia.
    </p><p class="article-text">
        De manera similar a como nuestro ojo capta la luz y a trav&eacute;s de las neuronas, la informaci&oacute;n viaja al cerebro donde se procesa; las redes neuronales har&iacute;an lo propio con una imagen, extrayendo la informaci&oacute;n a partir de los p&iacute;xeles y jerarquiz&aacute;ndola en distintas capas. Siguiendo con el ejemplo de Arrabales, &ldquo;la&nbsp;primera capa de neuronas estar&iacute;a en los diferentes colores, los bordes y las sombras. Y a partir de ah&iacute; pasar&iacute;a a otra segunda capa que ya no usa p&iacute;xeles como entrada, sino los colores, los bordes y la sombras&rdquo;. Y de esos detalles se van sacando a su vez subcategor&iacute;as que se convierten en nuevas capas&nbsp;que analizar.&nbsp;
    </p><h3 class="article-text">Las RNNs, GANs y las CNNs</h3><p class="article-text">
        Explicada la diferencia entre las redes neuronales profundas y las no profundas, el de Serendeepia nos hace una aproximaci&oacute;n a tres tipos de redes neuronales, los m&aacute;s utilizados actualmente.
    </p><p class="article-text">
        En primer lugar, las redes neuronales recurrentes, RNNs en ingl&eacute;s, tambi&eacute;n funcionan por capas, solo que en vez de ser consecutivas, la red es capaz de combinar detalles analizados en distintos momentos para generar nuevas subcateogr&iacute;as, &ldquo;lo que genera bucles que a su vez generan unos tipos de memoria (a largo plazo, a corto plazo...)&rdquo;, explica el investigador.
    </p><p class="article-text">
        <a href="https://www.eldiario.es/tecnologia/existen-genera-artificiales-parecen-F5_0_868263346.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">En la p&aacute;gina web thispersondoesnotexist</a>&nbsp;se generan caras aleatorias que no existen. Est&aacute; construida a partir de redes neuronales antag&oacute;nicas, tambi&eacute;n llamadas GANs. Est&aacute;n compuestas de dos partes, un generador y un discriminador. El primero se encarga de crear im&aacute;genes nuevas a partir de las reales con las que ha sido alimentado, mientras que el discriminador, como su propio nombre indica, tiene que identificar si esas im&aacute;genes generadas son reales o falsas. El objetivo, tras miles de intentos, es enga&ntilde;ar al discriminador: cuando este no consiga diferenciar entre una imagen artificial y otra real, entonces, las GANs funcionan al 100%.
    </p><p class="article-text">
        En &uacute;ltimo lugar, Arrabales nos explica los mecanismos b&aacute;sicos de las redes convolucionales: &ldquo;Hablando r&aacute;pidamente, una convoluci&oacute;n ser&iacute;a una multiplicaci&oacute;n de matrices&rdquo;. El de Serendeepia recuerda los filtros de Photoshop como el <em>emboss</em> o el <em>shovel</em>, &ldquo;esos que detectan bordes, por ejemplo. Est&aacute;n haciendo&nbsp;operaciones sobre los p&iacute;xeles, que los transforman&rdquo;, dice. Las CNNs se encargan de convolucionar p&iacute;xeles y modificarlos a la vez que extraen ciertas caracter&iacute;sticas &uacute;nicas. Son las redes neuronales favoritas de los que pretenden modificar im&aacute;genes. Valgan como ejemplo&nbsp;los &uacute;ltimos avances que ha presentado Nvidia: han conseguido crear&nbsp;<a href="https://www.eldiario.es/tecnologia/Inteligencia-Artificial-Nvidia-transforma-fotografias_0_880162417.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">paisajes fotogr&aacute;ficos desde bocetos</a> o generar mundos virtuales <a href="https://www.eldiario.es/tecnologia/Inteligencia-Artificial-mundos-virtuales-ciudades_0_842716197.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">a partir de v&iacute;deos del mundo real</a>.
    </p><p class="article-text">
        &ldquo;La convoluci&oacute;n es una operaci&oacute;n que se presta muy bien a extraer caracter&iacute;sticas de la imagen mientras que las redes recurrentes se prestan mejor a hacer an&aacute;lisis del lenguaje, porque el lenguaje es secuencial y entonces esa recurrencia ayuda a modelar las caracter&iacute;sticas que aparecen ah&iacute;, ya que las palabras van ordenadas&rdquo;, concluye Arrabales.
    </p>]]></description>
      <dc:creator><![CDATA[David Sarabia]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/inteligencia-artificial-aprendizaje-automatico-profundo_1_1507732.html]]></guid>
      <pubDate><![CDATA[Tue, 11 Jun 2019 19:49:06 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/cae75f08-e211-4cc0-a93b-e71587025d30_16-9-aspect-ratio_default_0.jpg" length="128593" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/cae75f08-e211-4cc0-a93b-e71587025d30_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="128593" width="880" height="495"/>
      <media:title><![CDATA[El aprendizaje automático y el aprendizaje profundo de las máquinas: ¿qué es y para qué sirve?]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/cae75f08-e211-4cc0-a93b-e71587025d30_16-9-aspect-ratio_default_0.jpg" width="880" height="495"/>
      <media:keywords><![CDATA[Redes neuronales,Machine learning,Inteligencia artificial]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[No me culpes de tu despido, lo ha decidido un algoritmo]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/culpes-despido-decidido-algoritmo_1_1516372.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/b6d50bbc-c403-4506-a1c8-890fbabee250_16-9-aspect-ratio_default_0.jpg" width="880" height="495" alt="No me culpes de tu despido, lo ha decidido un algoritmo"></p><div class="subtitles"><p class="subtitle">La inteligencia artificial ya es capaz de predecir cuándo un actor o actriz ha entrado en declive. ¿Acabará un algoritmo siendo nuestro jefe de Recursos Humanos?</p><p class="subtitle">"Si las empresas empiezan a tomar decisiones en base a este tipo de algoritmos será algo problemático", explica Anna Ginès i Fabrellas, profesora de ESADE</p></div><p class="article-text">
        El mejor a&ntilde;o de la carrera profesional de la actriz Scarlett Johansson fue y seguir&aacute; siendo 2004. Es el a&ntilde;o de <em>Lost in Translation</em>, la pel&iacute;cula que protagoniza junto a Bill Murray. Esta afirmaci&oacute;n no es una cr&iacute;tica cultural sino la conclusi&oacute;n de un algoritmo creado por varios cient&iacute;ficos de la Universidad Queen Mary de Londres que aseguran tener en su poder un juguete peligroso: &ldquo;Permite predecir con 85% de &eacute;xito si el a&ntilde;o m&aacute;s productivo de un actor est&aacute; por venir o ya ha pasado&rdquo;, <a href="https://www.agenciasinc.es/Noticias/La-inteligencia-artificial-sabe-si-los-actores-y-actrices-ya-han-tocado-techo" target="_blank" data-mrf-recirculation="links-noticia" class="link">explica a la Agencia SINC</a> Lucas Lacasa, uno de los autores del <em>paper</em>.
    </p><p class="article-text">
        Todos los algoritmos necesitan alimentarse con datos. En este caso, los investigadores han utilizado la <em>Internet Movie Database</em> (Base de datos de pel&iacute;culas en Internet), <a href="https://www.imdb.com/" target="_blank" data-mrf-recirculation="links-noticia" class="link">popularmente conocida como IMDb</a>, en donde figuran las carreras de m&aacute;s de 1,5 millones de actores y casi 900.000 actrices. Abarca desde 1888, a&ntilde;o en el que se rod&oacute; <a href="https://www.youtube.com/watch?v=nR2r__ZgO5g" target="_blank" data-mrf-recirculation="links-noticia" class="link">la primera pel&iacute;cula moderna</a> (que fue <em>La escena del jard&iacute;n de Roundhay</em>) hasta 2016.
    </p><p class="article-text">
        La creaci&oacute;n de los londinenses es capaz de predecir en qu&eacute; a&ntilde;o cualquier actor alcanzar&aacute; su cima, aunque han preferido no poner m&aacute;s ejemplos que el de Scarlett Johanson. Tambi&eacute;n ofrece otras conclusiones, como que el 70% de los actores tiene carreras que solo duran un a&ntilde;o, que en la industria hay rachas &ldquo;calientes&rdquo; y rachas &ldquo;fr&iacute;as&rdquo; (&eacute;pocas en las que encadenan m&aacute;s trabajos seguidos o menos) y que, tras una mala racha, los hombres encuentran trabajo antes que las mujeres.
    </p><p class="article-text">
        Las mujeres salen perjudicadas si nos atenemos a las conclusiones del algoritmo: si las carreras son inferiores a un a&ntilde;o, hay m&aacute;s mujeres que hombres en esta situaci&oacute;n, adem&aacute;s de que es m&aacute;s probable que una actriz tenga sus a&ntilde;os m&aacute;s productivos al principio y no al final de su carrera. &ldquo;Sospechamos que detr&aacute;s de esto est&aacute; el machismo que existe en el mundo del espect&aacute;culo&rdquo;, <a href="https://www.agenciasinc.es/Noticias/La-inteligencia-artificial-sabe-si-los-actores-y-actrices-ya-han-tocado-techo" target="_blank" data-mrf-recirculation="links-noticia" class="link">sostiene el investigador en SINC</a>.
    </p><figure class="embed-container embed-container--type-youtube ratio">
    
                    
                            
<script src="https://www.youtube.com/iframe_api"></script>
<script type="module">
    window.marfeel.cmd.push(['multimedia', function(multimedia) {
        multimedia.initializeItem('yt-_-qr4EUUKG0-3041', 'youtube', '_-qr4EUUKG0', document.getElementById('yt-_-qr4EUUKG0-3041'));
    }]);
</script>

<iframe id=yt-_-qr4EUUKG0-3041 src="https://www.youtube.com/embed/_-qr4EUUKG0?enablejsapi=1" frameborder="0"></iframe>
            </figure><h3 class="article-text">Algoritmos en procesos empresariales</h3><p class="article-text">
        El debate toma otro cariz si en vez de hablar de actores, hablamos de trabajadores comunes. &ldquo;Si las empresas empiezan a tomar decisiones en base a este tipo de algoritmos ser&aacute; algo problem&aacute;tico&rdquo;, explica a eldiario.es Anna Gin&egrave;s i Fabrellas, profesora de Derecho y Trabajo de ESADE. Aunque no existen datos exactos, cada vez m&aacute;s compa&ntilde;&iacute;as en el mundo utilizan la Inteligencia Artificial y m&aacute;s concretamente los algoritmos para tomar decisiones empresariales. Las grandes como Google, Amazon, Microsoft, Apple o Facebook, entre otras, <a href="https://www.techworld.com/picture-gallery/data/tech-giants-investing-in-artificial-intelligence-3629737/" target="_blank" data-mrf-recirculation="links-noticia" class="link">lo llevan haciendo desde hace a&ntilde;os</a>.
    </p><p class="article-text">
        &ldquo;Si nos basamos &uacute;nica y exclusivamente en este tipo de algoritmos, que lo que han hecho es identificar patrones o conductas de actuaciones pasadas, estamos quitando mucho peso y mucho espacio para la imprevisibilidad&rdquo;, contin&uacute;a Gin&egrave;s i Fabrellas. Se refiere a la total automatizaci&oacute;n del empleo, al momento en el que un conjunto de operaciones matem&aacute;ticas basadas en los datos previos con los que fueron entrenadas definan nuestro devenir en una empresa.
    </p><p class="article-text">
        &ldquo;Vamos a ver c&oacute;mo las compa&ntilde;&iacute;as podr&aacute;n contratar a alguien en base al uso de algoritmos&rdquo;, dice la profesora. Si echamos un vistazo a los usos, el <em>machine learning</em> (aprendizaje autom&aacute;tico) en las empresas se aplica sobre todo a la <a href="https://www.newgenapps.com/blog/most-common-use-cases-for-enterprise-machine-learning" target="_blank" data-mrf-recirculation="links-noticia" class="link">automatizaci&oacute;n de procesos y a la optimizaci&oacute;n de las ventas</a>, pero no es descabellado pensar que, como el algoritmo de los cient&iacute;ficos de la Queen Mary en el cine, alg&uacute;n d&iacute;a pueda surgir otro que mida el desempe&ntilde;o de un trabajador en una f&aacute;brica, por ejemplo.
    </p><p class="article-text">
        Hace poco hablamos <a href="https://www.eldiario.es/tecnologia/algoritmo-abogados-calcula-rendimiento-judicial_0_898710744.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">del caso de Em&eacute;ritas Legal</a>, una firma gallega que mide el &eacute;xito de los abogados seg&uacute;n su &ldquo;&iacute;ndice de rendimiento judicial&rdquo;. Todo lo hace un algoritmo en base a unas determinadas variables que fue alimentado con sentencias de los tribunales espa&ntilde;oles, as&iacute; los clasifica en &ldquo;buenos&rdquo; y &ldquo;malos&rdquo;.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/70985f2b-eed7-4431-b767-cb03dc002aaa_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/70985f2b-eed7-4431-b767-cb03dc002aaa_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/70985f2b-eed7-4431-b767-cb03dc002aaa_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/70985f2b-eed7-4431-b767-cb03dc002aaa_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/70985f2b-eed7-4431-b767-cb03dc002aaa_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/70985f2b-eed7-4431-b767-cb03dc002aaa_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/70985f2b-eed7-4431-b767-cb03dc002aaa_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><h3 class="article-text">&iquest;Nos podr&aacute; despedir un algoritmo?</h3><p class="article-text">
        Aunque el problema de los datos y c&oacute;mo almacenarlos es algo que a muchos ya les ronda por la cabeza, en palabras de Gin&eacute;s i Fabrellas &ldquo;generaremos m&aacute;s en el futuro&rdquo;. La profesora se&ntilde;ala que el Internet de las Cosas (IoT) fomentar&aacute; el negocio del Big Data: &ldquo;La empresa sabr&aacute; literalmente todo: en qu&eacute; momento me conecto, cu&aacute;ntas horas, cual es mi continuidad en la prestaci&oacute;n de servicios, a qu&eacute; hora hago algo...&rdquo;.
    </p><p class="article-text">
        Advierte que el uso de estos algoritmos &ldquo;jam&aacute;s podr&aacute; ser discriminatorio&rdquo; y se&ntilde;ala dos problemas: las variables directas y las indirectas. Como funcionar&aacute;n a partir de patrones extra&iacute;dos de unos datos, las condiciones de edad, raza o sexo &ldquo;no podr&aacute;n ser tomadas en cuenta&rdquo;, dice. &ldquo;Luego habr&aacute; otras derivadas que escondan una discriminaci&oacute;n indirecta. Por ejemplo, el n&uacute;mero de horas trabajadas&rdquo;, contin&uacute;a Gin&egrave;s i Fabrellas.
    </p><p class="article-text">
        La profesora pone un sencillo ejemplo: &ldquo;Si solo despedimos a las personas que menos horas en c&oacute;mputo global trabajan en la empresa, seguro que ser&aacute;n las mujeres que se han cogido reducciones de jornada o a tiempo parcial a fin de conciliar la vida laboral y familiar&rdquo;. Y de igual forma que echarnos del trabajo, &iquest;podr&aacute; un algoritmo prejubilarnos cuando crea que ya lleg&oacute; la hora? &ldquo;No s&eacute; si llegar&iacute;a tan lejos como para eso porque se refiere a algo que la empresa no puede controlar, no puede decidir unilateralmente qui&eacute;n cumple los requisitos legales para acceder a la jubilaci&oacute;n o la prejubilaci&oacute;n, pero s&iacute; el despido&rdquo;, sentencia Gin&egrave;s i Fabrellas.
    </p><p class="article-text">
        En mayo del 2018 entr&oacute; en vigor el nuevo Reglamento General de Protecci&oacute;n de Datos (RGPD), por lo que la profesora no cree que exista &ldquo;vac&iacute;o normativo&rdquo; y recuerda: &ldquo;No estamos en un escenario en el que los algoritmos hayan aparecido y no est&eacute;n regulados en ning&uacute;n sitio&rdquo;.
    </p>]]></description>
      <dc:creator><![CDATA[David Sarabia]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/culpes-despido-decidido-algoritmo_1_1516372.html]]></guid>
      <pubDate><![CDATA[Sun, 09 Jun 2019 18:16:27 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/b6d50bbc-c403-4506-a1c8-890fbabee250_16-9-aspect-ratio_default_0.jpg" length="21961" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/b6d50bbc-c403-4506-a1c8-890fbabee250_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="21961" width="880" height="495"/>
      <media:title><![CDATA[No me culpes de tu despido, lo ha decidido un algoritmo]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/b6d50bbc-c403-4506-a1c8-890fbabee250_16-9-aspect-ratio_default_0.jpg" width="880" height="495"/>
      <media:keywords><![CDATA[Inteligencia artificial,Machine learning]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[El perfilado étnico empieza por tu voz: una red neuronal se imagina cómo es tu cara al escucharte hablar]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/perfilado-empieza-algoritmo-imagina-escucharte_1_1529820.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/f72c0b2d-2d40-4d55-83f0-c743a34d45cb_16-9-aspect-ratio_default_0.jpg" width="880" height="495" alt="Predicciones a partir de la voz"></p><div class="subtitles"><p class="subtitle">Un equipo de investigadores del MIT ha creado un modelo que, a partir de la voz de una persona, es capaz de predecir sus rasgos faciales</p><p class="subtitle">Aún se encuentra en una fase muy temprana y los científicos necesitan seguir estudiándolo "para determinar hasta qué punto se basa en el lenguaje"</p></div><p class="article-text">
        La frenolog&iacute;a, esa pseudociencia tan popular a mediados del siglo XIX, afirmaba que era posible&nbsp;<a href="https://www.eldiario.es/tecnologia/software-juzga-personas-rasgos-faciales_0_592491070.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">conocer el car&aacute;cter y la personalidad</a> de una persona fij&aacute;ndonos en la forma del cr&aacute;neo y sus facciones.&nbsp;Fue desterrada al poco tiempo por no ser cient&iacute;fica, a pesar de que a d&iacute;a de hoy a&uacute;n haya quien sigue creyendo en ella. No ser&aacute;n los cient&iacute;ficos del MIT (Instituto de Tecnolog&iacute;a de Masachussetts), pero es inevitable pensar en esta pr&aacute;ctica si hablamos de <a href="https://speech2face.github.io/" target="_blank" data-mrf-recirculation="links-noticia" class="link">Speech2Face</a>, una red neuronal creada por varios investigadores del instituto estadounidense capaz de imaginarse la cara de una persona a partir de su voz. Una afirmaci&oacute;n as&iacute; puede ser muy controvertida.
    </p><p class="article-text">
        Ni siquiera necesitan tener muchos segundos de audio, ya que el modelo ha sido entrenado con millones de v&iacute;deos sacados directamente de Internet y de YouTube en los que aparece gente hablando. Han subido el <em>paper</em> a <a href="https://arxiv.org/abs/1905.09773v1" target="_blank" data-mrf-recirculation="links-noticia" class="link">arXiv.org</a>, un repositorio de art&iacute;culos cient&iacute;ficos y en la web del proyecto se pueden ver <a href="https://speech2face.github.io/supplemental/index.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">ejemplos de c&oacute;mo funciona</a>.
    </p><p class="article-text">
        Mientras aprende, la red tambi&eacute;n hace correlaciones entre la cara de las personas y su voz con las que luego conseguir&aacute; generar una imagen del rostro ateni&eacute;ndose a la raza, al g&eacute;nero y a la edad.
    </p><h3 class="article-text">El problema &eacute;tico</h3><p class="article-text">
        Los del MIT dicen que los v&iacute;deos no representan de forma igualitaria a toda la poblaci&oacute;n del planeta y advierten que las futuras investigaciones que se hagan en este campo tendr&aacute;n que estar compensadas en tanto en cuanto a la representaci&oacute;n racial y &eacute;tnica de los v&iacute;deos e im&aacute;genes de las personas con las que se entrenen las bases de datos.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/854bcd67-6084-4e19-99ea-e6216f5416f4_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/854bcd67-6084-4e19-99ea-e6216f5416f4_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/854bcd67-6084-4e19-99ea-e6216f5416f4_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/854bcd67-6084-4e19-99ea-e6216f5416f4_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/854bcd67-6084-4e19-99ea-e6216f5416f4_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/854bcd67-6084-4e19-99ea-e6216f5416f4_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/854bcd67-6084-4e19-99ea-e6216f5416f4_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        <a href="https://www.eldiario.es/aragon/Algoritmos-machistas-educacion-prejuicios-inteligentes_0_762574534.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Reconocen que su modelo est&aacute; sesgado</a>&nbsp;y que depende de los idiomas que capte para que los resultados voz-cara sean correctos: &ldquo;Si cierto idioma no aparece en los datos de entrenamiento, nuestras reconstrucciones no capturar&aacute;n bien los atributos faciales que podr&iacute;an estar correlacionados con ese lenguaje&rdquo;, dicen.
    </p><p class="article-text">
        Speech2Face se supone que es capaz de predecir, por ejemplo, si alguien es asi&aacute;tico, blanco y mujer o negro, hombre y africano tan solo escuch&aacute;ndole hablar. Los cient&iacute;ficos consideran que estas categor&iacute;as son obra de un clasificador de atributos comercial (Face++) utilizado a la hora de hacer las primeras pruebas del modelo. Pero tambi&eacute;n falla, ya que en algunos casos, &ldquo;los atributos vocales no se corresponden con la apariencia de la persona&rdquo;. Los algoritmos tambi&eacute;n <a href="https://www.eldiario.es/tecnologia/Inteligencia-Artificial-juez-objetivo_0_559594444.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">pueden tener prejuicios o ser discriminatorios</a>.
    </p><p class="article-text">
        &ldquo;En nuestra secci&oacute;n experimental, mencionamos categor&iacute;as demogr&aacute;ficas inferidas como &rdquo;blanco&ldquo; y &rdquo;asi&aacute;tico&ldquo;. Estas son categor&iacute;as definidas y utilizadas por un clasificador de atributos comercial y s&oacute;lo se utilizaron para la evaluaci&oacute;n en este trabajo. Nuestro modelo no se&nbsp;alimenta de esto&nbsp;y no hace uso de esta informaci&oacute;n en ning&uacute;n momento&rdquo;, escriben los investigadores en el estudio.
    </p><p class="article-text">
        Tambi&eacute;n anuncian que necesitar&aacute;n seguir estudiando el modelo &ldquo;para determinar hasta qu&eacute; punto se basa en el lenguaje&rdquo;.
    </p><h3 class="article-text">&iquest;C&oacute;mo sabe qui&eacute;n es qui&eacute;n?</h3><p class="article-text">
        Para construir la red neuronal los investigadores han usado VGG-Face, un modelo de reconocimiento facial entrenado con DeepFace, otro modelo especializado en captar datos&nbsp;de la cara. A partir de ah&iacute; les ha sido f&aacute;cil demostrar que a partir de estos rasgos faciales se puede construir la cara de una persona en particular.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/dab9b206-58c5-432d-b030-98540012deb5_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/dab9b206-58c5-432d-b030-98540012deb5_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/dab9b206-58c5-432d-b030-98540012deb5_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/dab9b206-58c5-432d-b030-98540012deb5_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/dab9b206-58c5-432d-b030-98540012deb5_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/dab9b206-58c5-432d-b030-98540012deb5_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/dab9b206-58c5-432d-b030-98540012deb5_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        Eso solo es el principio. Speech2Face funciona con un codificador y un decodificador. El primero codifica la voz y guarda un espectograma de las ondas de audio. Ah&iacute; predice una caracter&iacute;stica de la voz que despu&eacute;s ir&aacute; asociada a la cara. El segundo se encarga de generar una imagen de la cara de frente y de perfil, tomando como referencia la caracter&iacute;stica facial que aisl&oacute; el codificador.
    </p><p class="article-text">
        La red neuronal solo es entrenada en el codificador, as&iacute; que cuantos m&aacute;s v&iacute;deos vea, m&aacute;s sabr&aacute; y con mayor exactitud podr&aacute; predecir la cara a partir de la voz.&nbsp;
    </p><p class="article-text">
        Los resultados de Speech2Face han tenido que ser contextualizados por los investigadores, y para eso han tenido que probar el modelo en varios campos. Han calculado la fiabilidad de la red neuronal en base a los atributos demogr&aacute;ficos (como edad, g&eacute;nero y etnia) y los atributos craneofaciales (el tama&ntilde;o de la cabeza, de la nariz, de la boca, etc&eacute;tera).
    </p><p class="article-text">
        Tambi&eacute;n analizaron la capacidad de la red neuronal para equivocarse generando una cara cuando escucha un clip de audio de 3 y de 6 segundos. Cuanto m&aacute;s tiempo escucha, m&aacute;s f&aacute;cil es para el modelo adivinar el rostro de alguien. No esperen que clave cada cara a partir de la voz que escucha, pero los resultados son esperanzadores.
    </p>]]></description>
      <dc:creator><![CDATA[David Sarabia]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/perfilado-empieza-algoritmo-imagina-escucharte_1_1529820.html]]></guid>
      <pubDate><![CDATA[Tue, 28 May 2019 19:45:10 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/f72c0b2d-2d40-4d55-83f0-c743a34d45cb_16-9-aspect-ratio_default_0.jpg" length="127643" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/f72c0b2d-2d40-4d55-83f0-c743a34d45cb_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="127643" width="880" height="495"/>
      <media:title><![CDATA[El perfilado étnico empieza por tu voz: una red neuronal se imagina cómo es tu cara al escucharte hablar]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/f72c0b2d-2d40-4d55-83f0-c743a34d45cb_16-9-aspect-ratio_default_0.jpg" width="880" height="495"/>
      <media:keywords><![CDATA[Inteligencia artificial,Redes neuronales,Machine learning,Robots]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Máquina 10 - Humanos 1: la Inteligencia Artificial ya nos gana al videojuego de estrategia 'Starcraft']]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/maquina-humanos-inteligencia-artificial-starcraft_1_1735960.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/a4583dc2-f309-4c70-8f9d-1110bd7739fa_16-9-aspect-ratio_default_0.jpg" width="880" height="495" alt="Un momento de la partida entre TLO y AlphaStar"></p><div class="subtitles"><p class="subtitle">La última máquina creada por Google DeepMind ha ganado fácil a dos profesionales del popular videojuego de estrategia Starcraft</p><p class="subtitle">Ha sido entrenada con más de 65.000 repeticiones de humanos, pero solo al principio: después aprende sola</p><p class="subtitle">"La precisión de sus acciones es extrema", explica el director del proyecto, el catalán Oriol Vinyals</p></div><p class="article-text">
        Solo pudimos ver unas pocas partidas jugadas contra dos jugadores profesionales, pero qued&oacute; claro que&nbsp;la m&aacute;quina es implacable: 10-1 contra los humanos. La &uacute;ltima Inteligencia Artificial (IA) creada por Google DeepMind ha ganado f&aacute;cil a dos profesionales del popular videojuego de estrategia <em>Starcraft II</em>.&nbsp;
    </p><p class="article-text">
        <em>Starcraft II</em>, lanzado al mercado en 2010, a&uacute;na varios conceptos muy interesantes para los investigadores que se dedican a la IA. Aunque con varias modalidades, la m&aacute;s jugada es el <em>versus</em>, que enfrenta a un jugador contra otro. El jueves, DeepMind, la empresa comprada por Google hace tres a&ntilde;os y dedicada a la investigaci&oacute;n en IA, <a href="https://www.youtube.com/watch?v=cUTMhmVh1qs" target="_blank" data-mrf-recirculation="links-noticia" class="link">present&oacute; AlphaStar</a>.
    </p><p class="article-text">
        A diferencia del <a href="https://www.eldiario.es/tecnologia/Inteligencia-Artificial-algoritmo-estrategia-diferentes_0_844815974.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Go, el ajedrez y el shogi (el ajedrez japon&eacute;s)</a>, en los que continuamente vemos los movimientos del rival, el p&oacute;ker y <em>Starcraft</em> son juegos de informaci&oacute;n imperfecta. Decimos que es as&iacute; porque en el caso del juego de cartas no sabemos qu&eacute; mano llevan nuestros rivales hasta que las descubren y en <em>Starcraft</em>, el mapa est&aacute; oculto en su totalidad excepto en la zona donde el jugador se encuentra. Por eso necesitamos llevar unidades hasta la base del enemigo, para saber qu&eacute; hace, c&oacute;mo construye y qu&eacute; estrategia est&aacute; llevando a cabo.
    </p><p class="article-text">
        El juego es llamativo para los investigadores porque requiere al jugador una atenci&oacute;n constante: no solo a nivel t&eacute;cnico, sino tambi&eacute;n a nivel espacial y estrat&eacute;gico. Gana el que aniquile antes al rival, y para eso es necesario extraer recursos (gas y minerales), construir expansiones (m&aacute;s bases en puntos de extracci&oacute;n cercanos) y unidades. Dominar el espacio es vital para tener &eacute;xito, tanto como proteger los enclaves en los que nos asentamos. Hay tres razas: Protoss, Terran y Zerg, pero <a href="https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/" target="_blank" data-mrf-recirculation="links-noticia" class="link">AlphaStar solo sabe jugar con la primera</a>.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/8038c938-ef67-49e7-a990-df005f5ce5a6_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/8038c938-ef67-49e7-a990-df005f5ce5a6_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/8038c938-ef67-49e7-a990-df005f5ce5a6_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/8038c938-ef67-49e7-a990-df005f5ce5a6_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/8038c938-ef67-49e7-a990-df005f5ce5a6_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/8038c938-ef67-49e7-a990-df005f5ce5a6_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/8038c938-ef67-49e7-a990-df005f5ce5a6_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><h3 class="article-text">&ldquo;Intent&eacute;, simplemente, sobrevivir&rdquo;</h3><p class="article-text">
        Dar&iacute;o &ldquo;TLO&rdquo; Wunsch y Grzegorz &ldquo;MaNa&rdquo; Komincz fueron los dos jugadores elegidos por DeepMind para intentar batir al bot. Fueron cinco partidas contra cada uno, con una diferencia de 14 d&iacute;as entre las que jug&oacute; TLO y las de MaNa. En esas dos semanas AlphaStar entren&oacute; m&aacute;s, ya que el segundo jugador no solo es profesional del juego, sino que tambi&eacute;n domina la raza Protoss. TLO, en cambio, suele usar a los Zerg.
    </p><p class="article-text">
        Los encuentros, llevados&nbsp;a cabo en secreto en las oficinas de la compa&ntilde;&iacute;a en Londres estos &uacute;ltimos meses, fueron un desastre para los humanos. Hay un momento desolador durante la transmisi&oacute;n, despu&eacute;s de que MaNa haya perdido su tercera partida seguida y le pregunten los presentadores qu&eacute; pasa en la siguiente: &ldquo;En el juego cuatro intent&eacute;, simplemente, sobrevivir&rdquo;, dice lac&oacute;nico.
    </p><p class="article-text">
        Todo lo que sabe AlphaStar lo ha aprendido viendo repeticiones de jugadores humanos. Cuando el sabadellense Oriol Vinyals, director del proyecto, anunci&oacute; en la BlizzCon de 2016 que <a href="https://www.eldiario.es/tecnologia/Google-maquina-jugando-Starcraft-II_0_577792437.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">comenzar&iacute;an a trabajar con Blizzard (creadores de Starcraft II) en el desarrollo de una IA maestra</a>, tambi&eacute;n dijo que ser&iacute;a entrenada con 65.000 partidas de profesionales. &ldquo;Es lo que llamamos aprendizaje imitativo:&nbsp;cogemos muchas repeticiones de profesionales y procuramos entender las b&aacute;sicas de <em>Starcraft</em>, imit&aacute;ndoles. Intentamos que la IA se desenvuelva de la manera en lo que lo har&iacute;a un humano&rdquo;, explicaba este jueves Vinyals.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/20012174-a108-4738-a31a-af293eb19ea3_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/20012174-a108-4738-a31a-af293eb19ea3_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/20012174-a108-4738-a31a-af293eb19ea3_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/20012174-a108-4738-a31a-af293eb19ea3_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/20012174-a108-4738-a31a-af293eb19ea3_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/20012174-a108-4738-a31a-af293eb19ea3_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/20012174-a108-4738-a31a-af293eb19ea3_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        Para preparar los enfrentamientos contra los pros, AlphaStar ha jugado contra s&iacute; misma durante una semana en lo que los investigadores han llamado &ldquo;AlphaStar League&rdquo; (Liga AlphaStar). El bot jugaba contra sus propias variantes en tres fases hasta que solo quedaba el mejor. Seg&uacute;n Vinyals, la m&aacute;quina m&aacute;s fuerte acumula el equivalente a 200 a&ntilde;os jugando a <em>Starcraft</em>.
    </p><p class="article-text">
        Solo el AlphaStar inicial es el alimentado por las repeticiones de los humanos. &ldquo;Despu&eacute;s, AlphaStar jugaba contra iteracciones de s&iacute; mismo para intentar ganar al resto, que usaban diferentes estrategias&rdquo;, explicaba en el <em>streaming</em> David Silver, uno de los ingenieros. Cada una de esas iteracciones ten&iacute;a unos objetivos, como jugar haciendo <em>rush</em> (atacando al principio de la partida), usando t&eacute;cnicas de camuflaje o construyendo m&aacute;s unas unidades que otras. &ldquo;Al final de la AlphaStar League, seleccionamos el bot menos explotable, que es el que ha jugado contra los humanos&rdquo;, continuaba Silver.
    </p><h3 class="article-text">Menos acciones pero m&aacute;s precisas e inteligentes</h3><p class="article-text">
        &ldquo;Incluso aunque no est&eacute;n incentivados, hace cosas que no entendemos. Lo mismo alg&uacute;n pro s&iacute; que lo entiende&rdquo;, dec&iacute;a Vinyals de AlphaStar. La m&aacute;quina no juega perfecto, pero s&iacute; comete menos fallos que los humanos. A veces usa estrategias propias y a veces nos copia a nosotros, pero lo relevante es que piensa y entiende que necesita explotar las debilidades de los chicos para ganarles.
    </p><p class="article-text">
        La m&aacute;quina ni se cansa ni sufre al perder unidades. Tampoco tiene bajones an&iacute;micos por haber cometido errores. Y lo mejor de todo: no necesita estar permanentemente mirando a la pantalla. Esto es primordial, ya que el pro tiene que mover el rat&oacute;n para seleccionar la parte del mapa en la que se encuentra la acci&oacute;n pero AlphaStar no, porque sabe donde est&aacute;n sus unidades en todo momento y puede actuar a la vez en varios sitios.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/afcbb87a-81ca-4159-9aa4-145c0bda5bdf_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/afcbb87a-81ca-4159-9aa4-145c0bda5bdf_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/afcbb87a-81ca-4159-9aa4-145c0bda5bdf_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/afcbb87a-81ca-4159-9aa4-145c0bda5bdf_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/afcbb87a-81ca-4159-9aa4-145c0bda5bdf_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/afcbb87a-81ca-4159-9aa4-145c0bda5bdf_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/afcbb87a-81ca-4159-9aa4-145c0bda5bdf_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        Los profesionales utilizan el concepto <em>Actions Per Minute</em> (APM - Acciones Por Minuto) para&nbsp;evaluar la habilidad y la t&eacute;cnica. Cuando hablan, llaman &ldquo;micrear&rdquo; a mover las unidades r&aacute;pido, sacarlas y meterlas en mitad de una batalla y esconder a las que tienen menos vida y adelantar a las sanas. As&iacute;, cuantas m&aacute;s APM, mejores (te&oacute;ricamente) son. TLO hizo una media de 678 y MaNa de 390, mientras que el bot tuvo 277. &ldquo;La manera en la que AlphaStar micrea es incre&iacute;ble&rdquo;, dec&iacute;a MaNa tras la cuarta partida. &ldquo;Hab&iacute;a ataques en el norte, en el este, en el oeste... no puedo ver todo el mapa&rdquo;, gru&ntilde;&iacute;a, impotente, el humano.
    </p><p class="article-text">
        Vinyals se re&iacute;a. Le contest&oacute; que &ldquo;la precisi&oacute;n de sus acciones [del bot] es extrema&rdquo;. Y es cierto: aunque AlphaStar haga menos acciones por minuto, es mejor tomando decisiones y evaluando el campo de batalla.&nbsp;&ldquo;Le encanta atacar&rdquo;, dec&iacute;a entre risas TLO despu&eacute;s de perder su primer partida.
    </p><h3 class="article-text">Salvando nuestro honor... con truco</h3><p class="article-text">
        <a href="https://www.youtube.com/watch?v=cUTMhmVh1qs" target="_blank" data-mrf-recirculation="links-noticia" class="link">El streaming, que dur&oacute; casi dos horas y media</a>, guardaba una sorpresa final: una partida en directo entre MaNa y AlphaStar. Pero nosotros jugamos con truco: DeepMind program&oacute; al bot para que jugase manejando la c&aacute;mara, como si fuera un humano que tuviera que clickear all&iacute; donde se encontrase la acci&oacute;n. El pro le gan&oacute; a la m&aacute;quina y salv&oacute; nuestra honrilla, 10-1, pero tampoco fue una victoria holgada.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/7d3c7c26-ca5f-48f9-b912-0e47f35e2a59_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/7d3c7c26-ca5f-48f9-b912-0e47f35e2a59_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/7d3c7c26-ca5f-48f9-b912-0e47f35e2a59_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/7d3c7c26-ca5f-48f9-b912-0e47f35e2a59_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/7d3c7c26-ca5f-48f9-b912-0e47f35e2a59_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/7d3c7c26-ca5f-48f9-b912-0e47f35e2a59_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/7d3c7c26-ca5f-48f9-b912-0e47f35e2a59_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        Todo parece indicar que con unos d&iacute;as m&aacute;s de entrenamiento AlphaStar ser&iacute;a igualmente capaz de ganarnos, aun a pesar de tener que acostumbrarse a&nbsp;usar la c&aacute;mara. Aprende solo, as&iacute; que es f&aacute;cil que pueda mejorarse a s&iacute; mismo. Esta es la diferencia principal entre la IA en nivel leyenda del FIFA (o cualquier otro juego a dificultad m&aacute;xima) y el bot de Google.
    </p><p class="article-text">
        DeepMind marc&oacute; la fecha del jueves 24 de enero en rojo. Como ya lo hizo antes cuando AlphaGo gan&oacute; a Lee Se-Dol, <a href="https://www.eldiario.es/tecnologia/importante-maquina-pueda-ganar-Go_0_493100959.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">el mejor jugador de Go de la &uacute;ltima d&eacute;cada</a>. O en diciembre al presentar a AlphaZero, una m&aacute;quina que usando un solo algoritmo venci&oacute; a su hermana del Go y a las mejores IAs jugando al ajedrez y al shogi. Lejos queda ya aquel d&iacute;a de mayo de 1997 cuando Deep Blue gan&oacute; a Garry Kasparov. Aunque la rebeli&oacute;n de las m&aacute;quinas est&aacute; un poco m&aacute;s cerca no se alarmen todav&iacute;a: no podr&iacute;an hacer otra cosa que no sea jugar, al menos de momento. Ni siquiera aprobar <a href="https://www.technologyreview.com/s/600796/the-best-ai-program-still-flunks-an-eighth-grade-science-test/" target="_blank" data-mrf-recirculation="links-noticia" class="link">un examen de segundo de la ESO</a>.
    </p>]]></description>
      <dc:creator><![CDATA[David Sarabia]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/maquina-humanos-inteligencia-artificial-starcraft_1_1735960.html]]></guid>
      <pubDate><![CDATA[Fri, 25 Jan 2019 20:41:38 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/a4583dc2-f309-4c70-8f9d-1110bd7739fa_16-9-aspect-ratio_default_0.jpg" length="387031" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/a4583dc2-f309-4c70-8f9d-1110bd7739fa_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="387031" width="880" height="495"/>
      <media:title><![CDATA[Máquina 10 - Humanos 1: la Inteligencia Artificial ya nos gana al videojuego de estrategia 'Starcraft']]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/a4583dc2-f309-4c70-8f9d-1110bd7739fa_16-9-aspect-ratio_default_0.jpg" width="880" height="495"/>
      <media:keywords><![CDATA[Inteligencia artificial,Starcraft,Machine learning]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La Inteligencia Artificial ya crea mundos virtuales a partir de vídeos de ciudades reales]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/inteligencia-artificial-mundos-virtuales-ciudades_1_1807376.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/b68383bc-8a6f-4ffb-9cc6-dd1618d8e032_16-9-aspect-ratio_default_0.jpg" width="880" height="495" alt="La IA de Nvidia generando ciudades"></p><div class="subtitles"><p class="subtitle">Un sistema de Inteligencia Artificial presentado por Nvidia es capaz de crear ciudades nuevas a partir de otras que ha visto</p><p class="subtitle">La máquina aprende a construir ciudades después de recibir un 'entrenamiento' con vídeos de gente real conduciendo</p><p class="subtitle">De momento solo lo han probado en un simulador de conducción, pero la compañía augura una revolución en el terreno de los videojuegos y el cine</p></div><p class="article-text">
        De momento solo es un simulador de conducci&oacute;n, pero que nadie lo subestime: se trata de la primera representaci&oacute;n de un mundo virtual hecha a partir de v&iacute;deos de ciudades reales. El proyecto lo ha desarrollado la <a href="https://news.developer.nvidia.com/nvidia-invents-ai-interactive-graphics/" target="_blank" data-mrf-recirculation="links-noticia" class="link">marca de tarjetas gr&aacute;ficas Nvidia</a>, que ha usado redes neuronales artificiales, indispensables&nbsp;ya en cualquier trabajo de Inteligencia Artificial (IA).
    </p><p class="article-text">
        En pocas palabras: hay una m&aacute;quina que crea im&aacute;genes de ciudades de la nada. Y aunque a&uacute;n est&aacute; en pa&ntilde;ales, ya tiene tintes de hito tecnol&oacute;gico:&nbsp;&ldquo;Es una nueva forma de renderizar contenido de v&iacute;deo utilizando el <em>deep learning</em> [aprendizaje profundo]&rdquo;,&nbsp;<a href="https://www.theverge.com/2018/12/3/18121198/ai-generated-video-game-graphics-nvidia-driving-demo-neurips" target="_blank" data-mrf-recirculation="links-noticia" class="link">explica a The Verge</a> Bryan Catanzaro, vicepresidente del departamento de <em>deep learning</em> de Nvidia. &ldquo;Ya estamos pensando en c&oacute;mo la IA vendr&aacute; a revolucionar el campo de los gr&aacute;ficos&rdquo;, dice.
    </p><p class="article-text">
        El modelo, dicen desde Nvidia, servir&aacute; para muchas cosas: la m&aacute;s llamativa es la que abre este art&iacute;culo, aunque no es la &uacute;nica. A partir de v&iacute;deos de conducci&oacute;n en ciudades reales, los programadores han conseguido que la IA genere <em>su propio mundo</em>,&nbsp;interactivo,&nbsp;con una frecuencia de 25 frames (cuadros) por segundo. Uno de los v&iacute;deos publicados por la compa&ntilde;&iacute;a muestra un simulador de conducci&oacute;n que crea la ciudad a medida que el coche pasa por ella, pudiendo girar, adelantar o dar la vuelta.
    </p><figure class="embed-container embed-container--type-youtube ratio">
    
                    
                            
<script src="https://www.youtube.com/iframe_api"></script>
<script type="module">
    window.marfeel.cmd.push(['multimedia', function(multimedia) {
        multimedia.initializeItem('yt-IHbnldNzapU-7953', 'youtube', 'IHbnldNzapU', document.getElementById('yt-IHbnldNzapU-7953'));
    }]);
</script>

<iframe id=yt-IHbnldNzapU-7953 src="https://www.youtube.com/embed/IHbnldNzapU?enablejsapi=1" frameborder="0"></iframe>
            </figure><p class="article-text">
        Lo han conseguido construyendo una red neuronal artificial con&nbsp;<a href="https://phillipi.github.io/pix2pix/" target="_blank" data-mrf-recirculation="links-noticia" class="link">pix2pix</a>&nbsp;(una herramienta que convierte a 3D dibujos&nbsp;en 2D) a la que han entrenado con v&iacute;deos de gente conduciendo en entornos reales. Tras eso, el sistema se encarga de reconocer los elementos que ha visto, como las personas, los coches, los &aacute;rboles o los edificios y los transforma a digital utilizando el motor gr&aacute;fico Unreal Engine 4. El algoritmo crea as&iacute; su propio mundo a partir de los conocimientos que ha ganado viendo una y otra vez los v&iacute;deos de ciudades, generando una realidad diferente, nueva y nunca antes conocida.
    </p><p class="article-text">
        Por cierto, que es el mismo motor gr&aacute;fico que utilizan videojuegos como <em>Fortnite</em>, <em>Gears of War 4</em> o <em>Dragon Ball FighterZ</em>, entre otros. El trabajo donde se explica c&oacute;mo han creado el juego de conducci&oacute;n <a href="https://arxiv.org/pdf/1808.06601.pdf" target="_blank" data-mrf-recirculation="links-noticia" class="link">fue subido en agosto a arxiv</a>, un repositorio en Internet de art&iacute;culos cient&iacute;ficos.
    </p><h3 class="article-text">Dibujando el futuro en tres dimensiones</h3><p class="article-text">
        La compa&ntilde;&iacute;a dice que este algoritmo reducir&aacute; dr&aacute;sticamente los costes a la hora de desarrollar videojuegos o escenarios para la industria del cine. Pero ah&iacute; no queda todo, y es que la IA de Nvidia tambi&eacute;n puede generar <em>deepfakes</em>, una tecnolog&iacute;a que debe su nombre a su creador (un usuario de Reddit que, en diciembre del a&ntilde;o pasado, se hizo famoso porque <a href="https://www.eldiario.es/tecnologia/inteligencia-artificial-famosas-preocupante-parece_0_717778503.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">creaba v&iacute;deos porno cambiando la cara&nbsp;de las actrices por&nbsp;celebrities de Hollywood</a>).
    </p><p class="article-text">
        El algoritmo tambi&eacute;n es capaz de predecir y generar el futuro de una secuencia de v&iacute;deo a partir de un fotograma determinado. Imaginen que entrenamos a los coches aut&oacute;nomos con v&iacute;deos de ciudades de otros coches aut&oacute;nomos y aplicamos el algoritmo de Nvidia: as&iacute;, los coches podr&iacute;an ser capaces de predecir con m&aacute;s exactitud qu&eacute; va a ocurrir en cada momento, movimientos de los peatones incluido.&nbsp;
    </p><p class="article-text">
        En la imagen de abajo se puede comprobar mejor este proceso. La imagen de arriba a la izquierda es un fotograma del mundo real. El cuadrante de arriba a la derecha y el inferior de la izquierda muestra dos redes neuronales intentando predecir el futuro del primer clip, cuyo resultado es la foto de abajo a la izquierda. Aunque la calidad de la imagen es un poco borrosa y hay algunos fallos (en los &aacute;rboles y en las se&ntilde;ales de tr&aacute;fico), la tecnolog&iacute;a parece bastante desarrollada.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/bf2f2024-7e09-4612-8792-c86bc35f894a_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/bf2f2024-7e09-4612-8792-c86bc35f894a_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/bf2f2024-7e09-4612-8792-c86bc35f894a_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/bf2f2024-7e09-4612-8792-c86bc35f894a_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/bf2f2024-7e09-4612-8792-c86bc35f894a_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/bf2f2024-7e09-4612-8792-c86bc35f894a_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/bf2f2024-7e09-4612-8792-c86bc35f894a_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        En otro v&iacute;deo publicado por la compa&ntilde;&iacute;a de tarjetas gr&aacute;ficas, Ming-Yu Liu, uno de los investigadores del proyecto se muestra orgulloso de la creaci&oacute;n: &ldquo;Es la primera vez que hemos combinado el <em>machine learning</em> [aprendizaje autom&aacute;tico] y los gr&aacute;ficos por ordenador para generar im&aacute;genes utilizando redes neuronales profundas&rdquo;.
    </p><figure class="embed-container embed-container--type-youtube ratio">
    
                    
                            
<script src="https://www.youtube.com/iframe_api"></script>
<script type="module">
    window.marfeel.cmd.push(['multimedia', function(multimedia) {
        multimedia.initializeItem('yt-ayPqjPekn7g-9846', 'youtube', 'ayPqjPekn7g', document.getElementById('yt-ayPqjPekn7g-9846'));
    }]);
</script>

<iframe id=yt-ayPqjPekn7g-9846 src="https://www.youtube.com/embed/ayPqjPekn7g?enablejsapi=1" frameborder="0"></iframe>
            </figure><p class="article-text">
        Como explicamos un poco m&aacute;s arriba, el algoritmo tambi&eacute;n es capaz de trasladar expresiones faciales, hechas a partir de un simple boceto, a los v&iacute;deos. As&iacute;, los investigadores de Nvidia han conseguido que una persona en un v&iacute;deo ponga o haga una cara que jam&aacute;s puso. M&aacute;s all&aacute; de las interrogantes l&oacute;gicos que presenta la tecnolog&iacute;a de la multinacional (aparece en un momento en el que las <em>fake news</em> est&aacute;n a la orden del d&iacute;a y en un mundo donde cada vez es m&aacute;s dif&iacute;cil distinguir entre lo que es real de lo que no), a&uacute;n tienen que solucionar el problema de los recursos computacionales que requiere su uso.
    </p><p class="article-text">
        Consume mucho. Pero como ya hemos dicho, la IA a&uacute;n est&aacute; en ciernes. Nvidia lo compara con el <a href="https://www.xataka.com/componentes/nvidia-no-da-puntada-hilo-asi-funciona-ray-tracing-sus-geforce-rtx-que-nos-coloca-puertas-fotorrealismo" target="_blank" data-mrf-recirculation="links-noticia" class="link">proceso que sigui&oacute; el trazado de rayos</a>, una tecnolog&iacute;a de renderizado de gr&aacute;ficos que apareci&oacute; en el mapa por primera vez en 1968 y que no fue perfeccionada hasta pasados 10 a&ntilde;os. Quiz&aacute;s dentro de una d&eacute;cada ya hayan dado con la tecla que solvente el enorme potencial de hardware que necesita el algoritmo para funcionar.
    </p>]]></description>
      <dc:creator><![CDATA[David Sarabia]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/inteligencia-artificial-mundos-virtuales-ciudades_1_1807376.html]]></guid>
      <pubDate><![CDATA[Tue, 04 Dec 2018 20:30:41 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/b68383bc-8a6f-4ffb-9cc6-dd1618d8e032_16-9-aspect-ratio_default_0.jpg" length="68198" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/b68383bc-8a6f-4ffb-9cc6-dd1618d8e032_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="68198" width="880" height="495"/>
      <media:title><![CDATA[La Inteligencia Artificial ya crea mundos virtuales a partir de vídeos de ciudades reales]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/b68383bc-8a6f-4ffb-9cc6-dd1618d8e032_16-9-aspect-ratio_default_0.jpg" width="880" height="495"/>
      <media:keywords><![CDATA[Inteligencia artificial,Nvidia,Machine learning]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Llegan las huellas dactilares maestras: inteligencia artificial para desbloquear cualquier teléfono]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/llegan-dactilares-inteligencia-artificial-desbloquear_1_1830072.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/8c43f6a4-b807-4ca9-a0ac-812b32e6c901_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Llegan las huellas dactilares maestras: inteligencia artificial para desbloquear cualquier teléfono"></p><div class="subtitles"><p class="subtitle">Un equipo de investigadores estadounidenses ha creado un sistema capaz de generar huellas dactilares por sí mismo destinado a desbloquear teléfonos</p><p class="subtitle">Hablamos con una experta en seguridad y vigilancia sobre las implicaciones de la biometría en cada vez más ámbitos de nuestra vida</p></div><p class="article-text">
        La &uacute;nica diferencia entre una contrase&ntilde;a y una contrase&ntilde;a biom&eacute;trica es que la primera la puedes cambiar, perder, olvidar, rehacer o pedir una nueva, mientras que la segunda est&aacute; contigo para siempre, tengas la edad que tengas y est&eacute;s donde est&eacute;s. Porque la contrase&ntilde;a es tu cuerpo. Si te roban tu n&uacute;mero de tarjeta de cr&eacute;dito podr&aacute;s cancelar la tarjeta y pedir una nueva, pero si alguien se hace con tu huella dactilar estar&aacute;s metido en un problema.
    </p><p class="article-text">
        La biometr&iacute;a es la t&eacute;cnica que permite generar contrase&ntilde;as a partir de tus datos biol&oacute;gicos, ya sea tu voz, tu huella o tu iris. La tecnolog&iacute;a se ha popularizado tanto estos &uacute;ltimos a&ntilde;os que no es raro ver c&oacute;mo cada vez m&aacute;s tel&eacute;fonos y dispositivos electr&oacute;nicos incorporan sensores de reconocimiento facial o de huella dactilar para proteger el acceso al mismo.
    </p><p class="article-text">
        &iquest;Proteger o desproteger? La biometr&iacute;a no es segura ni nunca lo fue&nbsp;a la hora de&nbsp;proteger el acceso a un dispositivo, seg&uacute;n alertan cada vez m&aacute;s expertos. Una nueva prueba de ello es el &uacute;ltimo estudio que varios investigadores de las&nbsp;universidades de Michigan y Nueva&nbsp;York&nbsp;han publicado en el&nbsp;<a href="https://arxiv.org/pdf/1705.07386.pdf" target="_blank" data-mrf-recirculation="links-noticia" class="link">repositorio de art&iacute;culos cient&iacute;ficos arxiv</a> y que esta semana <a href="https://motherboard.vice.com/en_us/article/bjenyd/researchers-created-fake-master-fingerprints-to-unlock-smartphones" target="_blank" data-mrf-recirculation="links-noticia" class="link">cuenta Motherboard</a>.&nbsp;Se titula&nbsp;<em>Deep master prints</em>&nbsp;(Copias&nbsp;maestras profundas) y ah&iacute; explican c&oacute;mo han construido un sistema a base de&nbsp;<em>machine learning</em>&nbsp;(aprendizaje autom&aacute;tico) que es capaz de generar huellas dactilares para desbloquear tel&eacute;fonos m&oacute;viles.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/4cfb20b1-1ad6-4971-b39d-673897fd3ef9_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/4cfb20b1-1ad6-4971-b39d-673897fd3ef9_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/4cfb20b1-1ad6-4971-b39d-673897fd3ef9_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/4cfb20b1-1ad6-4971-b39d-673897fd3ef9_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/4cfb20b1-1ad6-4971-b39d-673897fd3ef9_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/4cfb20b1-1ad6-4971-b39d-673897fd3ef9_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/4cfb20b1-1ad6-4971-b39d-673897fd3ef9_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><h3 class="article-text">C&oacute;mo funciona una llave maestra que aprende sola</h3><p class="article-text">
        Imagina que tienes una llave que abre todas las puertas de tu bloque de edificios y que a medida que abres m&aacute;s y m&aacute;s puertas, la llave aprende nuevas configuraciones de cerradura, lo que a la larga le servir&aacute; para abrir un mayor n&uacute;mero de cancelas. Este es un buen ejemplo para entender c&oacute;mo funcionar&iacute;a una llave maestra alimentada con Inteligencia Artificial (IA), que al fin y al cabo es lo que han&nbsp;prototipado los investigadores estadounidenses.
    </p><p class="article-text">
        Uno de los grandes avances de la IA&nbsp;es sido el descubrimiento y puesta en pr&aacute;ctica de las redes neuronales artificiales, un tipo de arquitectura de programaci&oacute;n que permite&nbsp;a&nbsp;un sistema &ldquo;aprender&rdquo; en funci&oacute;n de la informaci&oacute;n que se le proporcione. En este caso, los investigadores le&nbsp;dieron&nbsp;6.000 huellas dactilares humanas, que una vez analizadas le permitieron comenzar a crear las suyas propias.
    </p><p class="article-text">
        Cada nueva huella&nbsp;generada&nbsp;era despu&eacute;s enviada a otra red neuronal artificial que se encargaba de discriminar si lo que ve&iacute;a era real o no. Las huellas que esa red identificaba como falsas eran devueltas al sistema, que las perfeccionaba y las volv&iacute;a a enviar al discriminador, a ver si en ese nuevo intento pasaban la prueba. Este proceso, repetido miles de veces en un laboratorio, da como resultado huellas dactilares maestras.
    </p><p class="article-text">
        Cuando el sensor de huella del tel&eacute;fono escanea nuestro dedo y lo desbloquea no est&aacute; escaneando todo el dedo, sino unos pocos puntos. Lo explica&nbsp;a eldiario.es&nbsp;Gemma Gald&oacute;n,&nbsp;ide&oacute;loga y experta en seguridad y creadora&nbsp;de la Fundaci&oacute;n &Eacute;ticas: &ldquo;Para ir m&aacute;s r&aacute;pido, lo que se hace es minimizar los puntos de comparaci&oacute;n y te aseguras m&aacute;s o menos de que esa persona es la que dice ser, aunque seguramente esos mismos puntos pueden coincidir con una parte importante de la poblaci&oacute;n&rdquo;.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/f10e9575-b1d6-4b6d-888f-bbd4a9dce0cd_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/f10e9575-b1d6-4b6d-888f-bbd4a9dce0cd_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/f10e9575-b1d6-4b6d-888f-bbd4a9dce0cd_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/f10e9575-b1d6-4b6d-888f-bbd4a9dce0cd_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/f10e9575-b1d6-4b6d-888f-bbd4a9dce0cd_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/f10e9575-b1d6-4b6d-888f-bbd4a9dce0cd_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/f10e9575-b1d6-4b6d-888f-bbd4a9dce0cd_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><h3 class="article-text">Acierta tres de cada cuatro intentos</h3><p class="article-text">
        Gald&oacute;n pone el ejemplo de los aeropuertos como lugar en el que se utiliza la biometr&iacute;a a discreci&oacute;n pero con escasas&nbsp;garant&iacute;as: &ldquo;All&iacute;&nbsp;lo importante es que la gente pase r&aacute;pido. Si quieres eso, tienes que bajar el nivel de seguridad o los puntos que se cotejan cada vez que alguien pasa&rdquo;, contin&uacute;a. Los sistemas de reconocimiento facial tampoco se salvan: el a&ntilde;o pasado, apenas dos meses despu&eacute;s de lanzar Apple su iPhone X, <a href="https://www.eldiario.es/tecnologia/Face-ID-cuestion-tecnologia-biometrica_0_708329298.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">la tecnolog&iacute;a fue burlada con una m&aacute;scara hecha a base remiendos</a>.
    </p><p class="article-text">
        La experta en seguridad y vigilancia recuerda, sobre la biometr&iacute;a, que &ldquo;hay un mont&oacute;n de vulnerabilidades t&eacute;cnicas brutales&rdquo; y advierte sobre algunos sitios en donde &ldquo;no se encripta bien la huella, con lo cual se recoge la huella plana que es super f&aacute;cil de reproducir&rdquo;. Tampoco entiende c&oacute;mo esta tecnolog&iacute;a se sigue incorporando en los dispositivos nuevos que&nbsp;salen cada a&ntilde;o: &ldquo;Ni yo ni&nbsp;creo que ninguna de las personas que trabajamos en esto desde hace tiempo entendemos muy bien c&oacute;mo ha colado tanto eso de que la biometr&iacute;a es la metodolog&iacute;a m&aacute;s segura para verificar la identidad&rdquo;.
    </p><p class="article-text">
        Los investigadores estadounidenses usaron dos tipos de huellas para alimentar el sistema: impresas en un papel y las generadas por los sensores de huellas de cientos de dispositivos. Despu&eacute;s vieron que la criatura entend&iacute;a mejor las segundas, y no es casualidad: estas son el resultado de poner el dedo en el sensor cientos de veces, en tu m&oacute;vil, en el iPad, en el trabajo, en un aeropuerto. Ese fue el paquete de datos que la m&aacute;quina entendi&oacute; correctamente, el que&nbsp;proven&iacute;a de&nbsp;los usos mayoritarios de la biometr&iacute;a en el mundo.
    </p><p class="article-text">
        Las huellas maestras llegaron a tener &eacute;xito hasta en un 76% de las veces que fueron puestas a prueba. Son tres de cada cuatro intentos. &ldquo;La biometr&iacute;a est&aacute; contigo para siempre&rdquo;, recuerda Gald&oacute;n, que se despide lanzando una mensaje: &ldquo;Una biometr&iacute;a que no es segura es como un coche sin motor&rdquo;.
    </p>]]></description>
      <dc:creator><![CDATA[David Sarabia]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/llegan-dactilares-inteligencia-artificial-desbloquear_1_1830072.html]]></guid>
      <pubDate><![CDATA[Mon, 19 Nov 2018 20:18:27 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/8c43f6a4-b807-4ca9-a0ac-812b32e6c901_16-9-discover-aspect-ratio_default_0.jpg" length="159253" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/8c43f6a4-b807-4ca9-a0ac-812b32e6c901_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="159253" width="1200" height="675"/>
      <media:title><![CDATA[Llegan las huellas dactilares maestras: inteligencia artificial para desbloquear cualquier teléfono]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/8c43f6a4-b807-4ca9-a0ac-812b32e6c901_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Biometría,Inteligencia artificial,Machine learning]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[La agencia de noticias del gobierno chino crea un "Presentador con Inteligencia Artificial" que parece humano (pero no lo es)]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/agencia-noticias-presentador-inteligencia-artificial_1_1850140.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/81312980-295a-4f24-9c8f-9ff4b98c4ed0_16-9-aspect-ratio_default_0.jpg" width="880" height="495" alt="El presentador virtual de Xinhua"></p><div class="subtitles"><p class="subtitle">Tiene sexo masculino, expresiones humanas y lee las noticias en inglés</p><p class="subtitle">A base de</p><p class="subtitle">machine learning</p><p class="subtitle">(aprendizaje automático), cuantos más vídeos y noticias ven, más y mejor aprenden</p></div><figure class="embed-container embed-container--type-youtube ratio">
    
                    
                            
<script src="https://www.youtube.com/iframe_api"></script>
<script type="module">
    window.marfeel.cmd.push(['multimedia', function(multimedia) {
        multimedia.initializeItem('yt-GAfiATTQufk-5486', 'youtube', 'GAfiATTQufk', document.getElementById('yt-GAfiATTQufk-5486'));
    }]);
</script>

<iframe id=yt-GAfiATTQufk-5486 src="https://www.youtube.com/embed/GAfiATTQufk?enablejsapi=1" frameborder="0"></iframe>
            </figure><p class="article-text">
        &ldquo;Es mi primer d&iacute;a en la agencia de noticias Xinhua. Mi voz y mis gestos est&aacute;n programados por Zhang Zhao, un presentador real de Xinhua&rdquo;. Son las primeras palabras del &ldquo;Presentador con Inteligencia Artificial (IA)&rdquo;, como han llamado a la criatura, y que est&aacute; desarrollado por la agencia gubernamental en colaboraci&oacute;n con la compa&ntilde;&iacute;a Sogou. Lo han presentado en la <em>World Internet Conference</em> (Conferencia Mundial de Internet) que est&aacute; teniendo lugar en Wuzhen hasta el pr&oacute;ximo d&iacute;a 9 de noviembre.
    </p><p class="article-text">
        Seg&uacute;n los desarrolladores, puede dar las noticias &ldquo;con el mismo efecto&rdquo; que un presentador humano. Han hecho dos con diferente aspecto: uno que lee las noticias en ingl&eacute;s y otro que lo hace en chino, <a href="https://www.scmp.com/tech/innovation/article/2172235/xinhua-news-agency-debuts-ai-anchors-partnership-search-engine-sogou" target="_blank" data-mrf-recirculation="links-noticia" class="link">seg&uacute;n el South China Morning Post</a>. Ambos aprenden de los v&iacute;deos que ven y se alimentan de noticias. En el caso del presentador en ingl&eacute;s, <a href="http://www.xinhuanet.com/english/2018-11/08/c_137591813.htm" target="_blank" data-mrf-recirculation="links-noticia" class="link">seg&uacute;n Xinhua</a>, &ldquo;ahora es un miembro de nuestro equipo y puede trabajar 24 horas al d&iacute;a, reduciendo los costes y mejorando la eficiencia&rdquo;.
    </p><p class="article-text">
        &ldquo;Trabajar&aacute;n con otros presentadores para brindarles informaci&oacute;n fidedigna, oportuna y precisa en chino e ingl&eacute;s&rdquo;, explicaron durante la presentaci&oacute;n. Los dos entes ya se encuentran operativos a trav&eacute;s de la web de Xinhua y de las <em>apps</em> oficiales de la compa&ntilde;&iacute;a. Tambi&eacute;n est&aacute;n en WeChat, la aplicaci&oacute;n de mensajer&iacute;a instant&aacute;nea m&aacute;s usada por los chinos.
    </p><p class="article-text">
        Los presentadores, desarrollados a base de <em>machine learning</em> (aprendizaje autom&aacute;tico) ir&aacute;n perfeccionando sus habilidades a medida que vayan narrando m&aacute;s noticias. Hoy por hoy, tanto la voz como las expresiones faciales son bastante rob&oacute;ticas, aunque tanto Xinhua como Sogou conf&iacute;an en que esto vaya mejorando con el tiempo.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/d8188fe7-dacb-4e3b-805d-a89c87997764_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/d8188fe7-dacb-4e3b-805d-a89c87997764_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/d8188fe7-dacb-4e3b-805d-a89c87997764_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/d8188fe7-dacb-4e3b-805d-a89c87997764_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/d8188fe7-dacb-4e3b-805d-a89c87997764_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/d8188fe7-dacb-4e3b-805d-a89c87997764_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/d8188fe7-dacb-4e3b-805d-a89c87997764_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><h3 class="article-text">&ldquo;Perspectivas interminables&rdquo; vs. Valle Inquietante</h3><p class="article-text">
        La agencia de noticias china califica la tecnolog&iacute;a como &ldquo;un gran avance en el campo de la s&iacute;ntesis global de la Inteligencia Artificial&rdquo;. Son los primeros que han conseguido crear una IA que narre en tiempo real las noticias con voz y v&iacute;deo; y no solo eso: tambi&eacute;n han logrado que el sistema funcione y sea estable, aunque con las limitaciones que ya hemos mencionado.
    </p><p class="article-text">
        Seg&uacute;n Xinhua, la IA cuenta con &ldquo;perspectivas interminables&rdquo;, ya que esperan reducir el coste a la hora de producir noticiarios diarios en la televisi&oacute;n. La agencia de noticias gubernamental tambi&eacute;n considera que as&iacute; se podr&aacute;n generar r&aacute;pidamente boletines de noticias de &uacute;ltima hora, mejorando la puntualidad y la calidad.
    </p><p class="article-text">
        Michael Woolridge, un profesor de la Universidad de Oxford <a href="https://www.bbc.com/news/technology-46136504" target="_blank" data-mrf-recirculation="links-noticia" class="link">entrevistado por la BBC</a>, duda de que en los pr&oacute;ximos a&ntilde;os esta t&eacute;cnica se normalice. Lo hace sobre todo por <a href="https://es.wikipedia.org/wiki/Valle_inquietante" target="_blank" data-mrf-recirculation="links-noticia" class="link">la Teor&iacute;a del Valle Inquietante</a>, donde se expone que cuanto m&aacute;s se parece una m&aacute;quina a un humano (f&iacute;sica y cognitivamente), mayor rechazo produce el robot en los observadores humanos. Woolridge tambi&eacute;n considera que los presentadores humanos, tradicionalmente han sido considerados figuras p&uacute;blicas: &ldquo;Si solo est&aacute;s mirando a una animaci&oacute;n, entonces has perdido por completo la conexi&oacute;n con el presentador&rdquo;.
    </p><p class="article-text">
        Estos presentadores no son los &uacute;nicos entes generados por Inteligencia Artificial &uacute;ltimamente. <a href="http://es.vocaloid.wikia.com/wiki/Hatsune_Miku" target="_blank" data-mrf-recirculation="links-noticia" class="link">Tenemos a Miku Hatsune</a>, una voz virtual que ya se ha convertido en un icono de masas en Jap&oacute;n al ser personificada como una <em>idol</em> (en el pa&iacute;s oriental se les conoce as&iacute; a las personas que llegan a la fama por su apariencia, principalmente). <a href="https://www.theverge.com/2018/5/9/17332778/instagram-lil-miquela-bermuda-feud-pro-wrestling" target="_blank" data-mrf-recirculation="links-noticia" class="link">E incluso el caso de las influencers virtuales de Instagram</a>, Lil Miquela y Bermuda, que tuvieron en vilo durante varias semanas a la red social por los insultos que ambas se dirigieron, acus&aacute;ndose de haber suplantado la identidad la una de la otra.
    </p>]]></description>
      <dc:creator><![CDATA[David Sarabia]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/agencia-noticias-presentador-inteligencia-artificial_1_1850140.html]]></guid>
      <pubDate><![CDATA[Thu, 08 Nov 2018 19:38:22 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/81312980-295a-4f24-9c8f-9ff4b98c4ed0_16-9-aspect-ratio_default_0.jpg" length="251273" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/81312980-295a-4f24-9c8f-9ff4b98c4ed0_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="251273" width="880" height="495"/>
      <media:title><![CDATA[La agencia de noticias del gobierno chino crea un "Presentador con Inteligencia Artificial" que parece humano (pero no lo es)]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/81312980-295a-4f24-9c8f-9ff4b98c4ed0_16-9-aspect-ratio_default_0.jpg" width="880" height="495"/>
      <media:keywords><![CDATA[Inteligencia artificial,Machine learning,China]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Una nariz electrónica para que los TEDAX huelan a distancia]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/nariz-electronica-tedax-huelan-distancia_1_1932441.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/4df91f22-6c33-425c-8694-2542b4741f44_16-9-aspect-ratio_default_0.jpg" width="880" height="495" alt="La nariz electrónica funcionando en remoto"></p><div class="subtitles"><p class="subtitle">Investigadores de la Universidad de Extremadura han desarrollado, junto a los TEDAX, un dispositivo que puede "oler" los explosivos sin cables</p><p class="subtitle">Aunque las narices electrónicas no son nuevas, sí lo es el hecho de que puedan recibirse los datos del análisis en remoto</p></div><p class="article-text">
        Un perro huele las cosas unas cuatro o cinco veces mejor que un ser humano, por eso en nuestra nariz hay cerca de 5 millones de c&eacute;lulas olfativas por unos 250 millones de los canes. No todas las razas huelen de la misma forma, pero lo que est&aacute; claro es que su olfato es bastante superior al de los humanos. Adem&aacute;s, nuestro <a href="https://es.wikipedia.org/wiki/Sistema_l%C3%ADmbico" target="_blank" data-mrf-recirculation="links-noticia" class="link">sistema l&iacute;mbico</a> (el &aacute;rea del cerebro donde se procesan los olores) es 40 veces menos eficiente que el de los perros.
    </p><p class="article-text">
        Los animales nos ganan oliendo cosas. Tambi&eacute;n vencen a las m&aacute;quinas. Incluso a los sistemas premiados en el pasado, como la nariz electr&oacute;nica con la que Jes&uacute;s Lozano y Jos&eacute; Luis Herrero (Universidad de Extremadura) ganaron en diciembre el premio a la investigaci&oacute;n que otorga anualmente la Fundaci&oacute;n Polic&iacute;a Espa&ntilde;ola. En el proyecto, titulado <em>Sistemas olfativos artificiales para la detecci&oacute;n de agentes peligrosos</em>, tambi&eacute;n contaron con la colaboraci&oacute;n de Jos&eacute; Miguel S&aacute;nchez Espa&ntilde;a, inspector jefe del grupo TEDAX-NRBQ de Badajoz.
    </p><p class="article-text">
        Lozano trabaja en la Escuela de Industriales de la Universidad de Extremadura. Un d&iacute;a, mientras los TEDAX estaban por all&iacute; de visita, les llam&oacute; la atenci&oacute;n un p&oacute;ster que el investigador tiene en su laboratorio: &ldquo;es uno de esos donde medimos una serie de compuestos qu&iacute;micos que son precursores del TATP, un explosivo muy utilizado por los islamistas&rdquo;, cuenta Lozano a eldiario.es. La polic&iacute;a se interes&oacute; por el trabajo de los cient&iacute;ficos y acordaron entonces desarrollar algo juntos.
    </p><p class="article-text">
        Ese algo no era otra cosa que una nariz electr&oacute;nica. Lozano y Herrero llevan varios a&ntilde;os trabajando en estos dispositivos para otro tipo de aplicaciones, &ldquo;como calidad alimentaria en bebidas, para saber qu&eacute; comidas est&aacute;n estropeadas o tienen defectos, etc&eacute;tera&rdquo;, dice el investigador. Tambi&eacute;n han usado el sistema desde un punto de vista medioambiental &ldquo;para detectar olores o la calidad del aire&rdquo;. El reto que ahora se planteaba era el de medir explosivos y compuestos qu&iacute;micos, as&iacute; que &ldquo;empezamos a optimizar el sistema&rdquo; dice Lozano.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/988ff64f-ee49-43cb-af20-12aa55465140_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/988ff64f-ee49-43cb-af20-12aa55465140_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/988ff64f-ee49-43cb-af20-12aa55465140_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/988ff64f-ee49-43cb-af20-12aa55465140_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/988ff64f-ee49-43cb-af20-12aa55465140_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/988ff64f-ee49-43cb-af20-12aa55465140_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/988ff64f-ee49-43cb-af20-12aa55465140_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><h3 class="article-text">Oler explosivos de forma inal&aacute;mbrica</h3><p class="article-text">
        La nariz electr&oacute;nica ha sido entrenada a base de<em> machine learning</em> (aprendizaje autom&aacute;tico) y redes neuronales. Lozano explica que &ldquo;unos determinados est&iacute;mulos se corresponden con un determinado compuesto o un determinado peligro&rdquo; en el sistema. Aunque dominan lo que ocurre dentro del laboratorio y son capaces de diferenciar explosivos all&iacute; dentro, no as&iacute; fuera del mismo.
    </p><p class="article-text">
        El investigador reconoce que &ldquo;hasta el momento solo hemos hecho unas pruebas preliminares, unos primeros dise&ntilde;os&rdquo; y que el sistema solo se ha probado en el laboratorio. Por eso, los TEDAX a&uacute;n no han podido trabajar con la nariz electr&oacute;nica. &ldquo;Sus sistemas no funcionan nada bien. Simplemente les alertan si hay alg&uacute;n posible peligro, pero da mucho falsos positivos. Entonces, al final, &iquest;qu&eacute; hacen ellos? Ante cualquier cosa se protegen lo m&aacute;ximo posible porque no tienen unos instrumentos que les den fiabilidad&rdquo;, dice Lozano.
    </p><p class="article-text">
        De esta forma, los TEDAX podr&iacute;an montar el dispositivo sobre un dron y volarlo sobre la zona donde vayan a intervenir para comprobar si hay explosivos cerca. O en los robots que ya utilizan para desactivar bombas, para cerciorarse de con qu&eacute; material est&aacute;n trabajando. Lozano va m&aacute;s all&aacute; y lanza otra idea: &ldquo;como es un dispositivo de bajo coste [en torno a los 700 euros], hab&iacute;amos pensado incluso en una especie de pelota que t&uacute; la puedas tirar y a distancia te env&iacute;e los resultados del an&aacute;lisis&rdquo;.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/ba1c3845-bb87-4536-9d99-c7fb5e15d80b_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/ba1c3845-bb87-4536-9d99-c7fb5e15d80b_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/ba1c3845-bb87-4536-9d99-c7fb5e15d80b_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/ba1c3845-bb87-4536-9d99-c7fb5e15d80b_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/ba1c3845-bb87-4536-9d99-c7fb5e15d80b_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/ba1c3845-bb87-4536-9d99-c7fb5e15d80b_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/ba1c3845-bb87-4536-9d99-c7fb5e15d80b_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        Porque precisamente ese es uno de los aspectos revolucionarios de la nariz electr&oacute;nica extreme&ntilde;a: que funciona en remoto. As&iacute; puede conectarse de forma inal&aacute;mbrica con un tel&eacute;fono m&oacute;vil, una tablet o un ordenador para visualizar los resultados. Aunque como ya dijimos al comienzo del art&iacute;culo, el olfato de los perros es infinitamente superior al de la nariz electr&oacute;nica, s&iacute; que podr&iacute;a ayudar a los animales a la hora de reconocer ciertos elementos. Tambi&eacute;n, en casos extremos, quiz&aacute; podr&iacute;a salvar vidas.
    </p><p class="article-text">
        Lozano marcha en diciembre al <a href="https://digital-olfaction.com/" target="_blank" data-mrf-recirculation="links-noticia" class="link">Digital Olfaction Society</a>, un simposio sobre olores y la transmisi&oacute;n de estos a trav&eacute;s de Internet. Junto con la Universidad de Extremadura, se ha propuesto enviar cuatro olores de perfume a trav&eacute;s de la Red para que los huelan en Par&iacute;s. &ldquo;Puede parecer una tonter&iacute;a, pero el sentido del olor es mucho m&aacute;s complicado que el de la visi&oacute;n&rdquo;.
    </p><p class="article-text">
        El investigador anticipa que los m&oacute;viles pronto incorporar&aacute;n detectores de gases, &ldquo;lo que dar&aacute; pie a que mucha gente desarrolle aplicaciones&rdquo;. Y lo compara con el desarrollo de las t&eacute;cnicas de reconocimiento facial, espoleadas por la proliferaci&oacute;n de las c&aacute;maras en los <em>smartphones</em>: &ldquo;hasta estonces no se desarrollaron esas <em>apps</em>...&rdquo;, concluye.
    </p>]]></description>
      <dc:creator><![CDATA[David Sarabia]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/nariz-electronica-tedax-huelan-distancia_1_1932441.html]]></guid>
      <pubDate><![CDATA[Mon, 17 Sep 2018 19:04:01 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/4df91f22-6c33-425c-8694-2542b4741f44_16-9-aspect-ratio_default_0.jpg" length="517519" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/4df91f22-6c33-425c-8694-2542b4741f44_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="517519" width="880" height="495"/>
      <media:title><![CDATA[Una nariz electrónica para que los TEDAX huelan a distancia]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/4df91f22-6c33-425c-8694-2542b4741f44_16-9-aspect-ratio_default_0.jpg" width="880" height="495"/>
      <media:keywords><![CDATA[Machine learning]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Así crea refranes un ordenador: "Cuando la muerte venga no tendrá ovejas"]]></title>
      <link><![CDATA[https://www.eldiario.es/hojaderouter/tecnologia/software/mejor-sermon-maquinas-crean-refranes_1_3239647.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/29039117-8dd9-4ef2-8334-7df4db7a4728_16-9-aspect-ratio_default_0.jpg" width="880" height="495" alt="El &#039;machine learning&#039; y las redes neuronales artificiales son dos de las tendencias del futuro"></p><div class="subtitles"><p class="subtitle">La investigadora estadounidense Jannelle Shane ha creado una red neuronal capaz de generar proverbios. Ahora solo falta que los hablantes les den significado, aunque ya hay quienes los están usando en cuentos y conversaciones con amigos. Para crear esas sentencias, ella y un colaborador se sirvieron de refranes clásicos en lengua inglesa. De ahí surgen frases tan disparatadas como "una buena cara es una carta para salir del fuego" o "no hay humo sin el mejor pecado".</p></div><p class="article-text">
        Ronda de <strong>refranes</strong>. Pensemos en tres de esas frases solemnes que llevan entre nosotros siglos: un buen yunque no es el que m&aacute;s ruido hace; cr&iacute;a cuervos y te sacar&aacute;n los ojos; no por mucho madrugar amanece m&aacute;s temprano. Pues bien, uno de estos refranes no proviene de <a href="https://cvc.cervantes.es/lengua/refranero/" target="_blank" data-mrf-recirculation="links-noticia" class="link">la tradici&oacute;n espa&ntilde;ola</a>.
    </p><p class="article-text">
        Si las m&aacute;quinas son capaces de reconocer caras o de <a href="https://www.eldiario.es/hojaderouter/tecnologia/software/poesia-ordenador-robots-algoritmos_0_485052536.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">'escribir' poemas</a>, &iquest;por qu&eacute; no un refr&aacute;n que suene a verdad de generaciones pasadas? <a href="http://aiweirdness.com/" target="_blank" data-mrf-recirculation="links-noticia" class="link"><strong>Janelle Shane</strong></a> es una investigadora y creativa estadounidense conocida por sus trabajos con redes neuronales. <a href="https://www.lasexta.com/tecnologia-tecnoxplora/gadgets/humorista-que-rie-robots-poniendolos-hacer-punto-inventar-refranes_201803125aa75be20cf26579ce2c2151.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Lo hace siempre con un toque de humor y extravagancia</a>. Por ejemplo, cre&oacute; un robot que ideaba <strong>frases para cortejar a alguien</strong>, con <a href="http://aiweirdness.com/post/159302925452/the-neural-network-generated-pickup-lines-that-are" target="_blank" data-mrf-recirculation="links-noticia" class="link">resultado estramb&oacute;tico</a>, como &ldquo;si me dieran una rosa cada vez que pienso en ti, tengo un precio ajustado&rdquo; o &ldquo;tengo que darte un libro, porque eres la &uacute;nica cosa en tus ojos&rdquo;. Tambi&eacute;n ha creado<strong> disfraces para Halloween o nombres de colores:</strong><a href="http://aiweirdness.com/post/166814009412/a-neural-network-designs-halloween-costumes" target="_blank" data-mrf-recirculation="links-noticia" class="link">disfraces para Halloween</a><a href="http://aiweirdness.com/post/160985569682/paint-colors-designed-by-neural-network-part-2" target="_blank" data-mrf-recirculation="links-noticia" class="link">nombres de colores</a> verde az&uacute;car, rosa fastidioso&hellip;
    </p><p class="article-text">
        Incluso, sus redes neuronales se han atrevido a crear <strong>nombres de grupos de heavy metal,</strong><em>heavy metal</em> como Arena Inhumana, que seg&uacute;n la inteligencia artificial har&iacute;a <a href="https://es.wikipedia.org/wiki/Death_metal_mel%C3%B3dico" target="_blank" data-mrf-recirculation="links-noticia" class="link">death metal mel&oacute;dico</a> desde Rusia, o Cielo Cl&oacute;nico Negro, cuyo <em>black metal</em> nos llegar&iacute;a desde Grecia. &ldquo;Una de las cosas que me gustan del <em>machine learning</em> es lo impredecible que puede ser. <strong>Puedes sorprenderte por resultados que el ordenador se inventa y no sabes en absoluto c&oacute;mo lo hace</strong>, pero de alguna manera son mejores o diferentes a lo que una inteligencia humana pudiera haber inventado&rdquo;, cuenta Shane a <a href="https://www.hojaderouter.com" target="_blank" data-mrf-recirculation="links-noticia" class="link">HojadeRouter.com</a>.
    </p><p class="article-text">
        As&iacute; son los refranes de una m&aacute;quina
    </p><p class="article-text">
        Sin embargo, nada tan divertido como los proverbios. En esta ocasi&oacute;n, recibi&oacute; la ayuda de <a href="https://twitter.com/mandelliant" target="_blank" data-mrf-recirculation="links-noticia" class="link"><strong>Anthony Mandelli</strong></a>, un joven coleccionista de refranes cl&aacute;sicos que mont&oacute; la base de datos con la que la inteligencia artificial, llamada <a href="https://github.com/karpathy/char-rnn" target="_blank" data-mrf-recirculation="links-noticia" class="link">char-rnn</a>, dio a luz sus creaciones. En total, 2000 dichos en ingl&eacute;s. El resultado fueron secuencias de palabras que se pueden leer y entender (tienen su verbo, sus art&iacute;culos determinantes, sus complementos&hellip;), pero sin sentido o significado, que los hablantes tenemos que dar ahora. 
    </p><p class="article-text">
        <a href="http://aiweirdness.com/post/162097037117/ancient-wisdom-from-the-neural-network" target="_blank" data-mrf-recirculation="links-noticia" class="link">El listado resultante</a> suena a anciano, a algo que ha transmitido la tradici&oacute;n oral. El favorito de Shane es <em>Death when it comes will have no sheep</em> (&ldquo;cuando la muerte venga no tendr&aacute; ovejas&rdquo;). Pero hay muchos m&aacute;s: <em>A good anvil does not make the most noise</em> (&ldquo;una buena excusa es tan buena como un descanso&rdquo;), <em>a good face is a letter to get out of the fire</em> (<strong>&ldquo;una buena cara es una carta para salir del fuego&rdquo;</strong>) o <em>there is no smoke without the best sin</em> (&ldquo;no hay humo sin el mejor pecado&rdquo;). Junto a ellos, <em>a good anvil does not make the most noise</em> (&ldquo;un buen yunque no es el que m&aacute;s ruido hace&rdquo;)&ldquo; o <em>a good excuse is as good as a rest</em> (<strong>&rdquo;una buena excusa es tan buena como un descanso&ldquo;</strong>).
    </p><p class="article-text">
        El buey (<em>ox</em> en ingl&eacute;s) y el zorro (<em>fox</em>) son dos animales que se repiten mucho en los refranes de Shane. La artista cree que, al ser com&uacute;n la secuencia -ox en los refranes de la base de datos, la m&aacute;quina pudo entender que eran importantes para hacer combinaciones. As&iacute;, tenemos <em>an ox is not fill when he will eat forever</em> (&ldquo;un buey no est&aacute; lleno cuando comer&aacute; para siempre&rdquo;) o <em>a fox smells it better than a fool&rsquo;s for a day</em> (&ldquo;un zorro lo huele mejor que un tonto por un d&iacute;a&rdquo;).
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/29039117-8dd9-4ef2-8334-7df4db7a4728_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/29039117-8dd9-4ef2-8334-7df4db7a4728_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/29039117-8dd9-4ef2-8334-7df4db7a4728_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/29039117-8dd9-4ef2-8334-7df4db7a4728_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/29039117-8dd9-4ef2-8334-7df4db7a4728_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/29039117-8dd9-4ef2-8334-7df4db7a4728_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/29039117-8dd9-4ef2-8334-7df4db7a4728_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        Aunque cueste encontrar sentido a muchas combinaciones de palabras (&iquest;valdr&iacute;a como refr&aacute;n &ldquo;un tonto en una taza de t&eacute; es un silencio por una aguja en la venta&rdquo;?), parece que la m&aacute;quina entendi&oacute; el armaz&oacute;n exterior que tienen muchos refranes, pues la mayor&iacute;a cumplen una l&oacute;gica de &ldquo;si haces A, entonces B&rdquo; o &ldquo;la C es un/a D&rdquo;. <strong>&ldquo;Se podr&iacute;a decir que la red entiende un poco la estructura de los refranes&rdquo;</strong>, explica Mandelli a <a href="https://www.hojaderouter.com" target="_blank" data-mrf-recirculation="links-noticia" class="link">HojadeRouter.com</a>, que asegura adem&aacute;s haber incluido en su vida diaria <em>a good wine makes the best sermon</em> (&ldquo;un buen vino hace el mejor serm&oacute;n&rdquo;), <em>an ox is never known till needed</em> (<strong>&ldquo;no conoces a un buey hasta que lo necesitas&rdquo;</strong>) y el ya citado &ldquo;cuando la muerte venga no tendr&aacute; ovejas&rdquo;.
    </p><p class="article-text">
        El del vino y los sermones lo usa cuando est&aacute; tomando algo con amigos: &ldquo;Nunca me preguntan por sus or&iacute;genes, ya que <strong>suena como un refr&aacute;n leg&iacute;timo</strong> y funciona por contexto cuando brindas antes de beber&rdquo;. <strong>El del buey le parece muy profundo</strong>: para &eacute;l significa que &ldquo;no sabemos qu&eacute; es necesario para nuestras vidas hasta que se vuelve evidente que est&aacute; faltando&rdquo;. Por eso es su favorito.
    </p><p class="article-text">
        Mendelli no es es el &uacute;nico que trata de buscar significado a los refranes. Con Shane han contactado otras personas que les pretenden dar aplicaciones: &ldquo;Quieren <strong>usarlos espec&iacute;ficamente para escritura de ficci&oacute;n; para fantas&iacute;a, en concreto</strong>&rdquo;, porque, seg&uacute;n le dicen, necesitan algunos proverbios que suenen antiguos. Adem&aacute;s, las frases ya decoran p&oacute;steres motivacionales par&oacute;dicos, como si de citas c&eacute;lebres se tratara.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/a812e68b-959d-41bb-b8f4-639c7bb8c1be_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/a812e68b-959d-41bb-b8f4-639c7bb8c1be_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/a812e68b-959d-41bb-b8f4-639c7bb8c1be_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/a812e68b-959d-41bb-b8f4-639c7bb8c1be_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/a812e68b-959d-41bb-b8f4-639c7bb8c1be_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/a812e68b-959d-41bb-b8f4-639c7bb8c1be_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/a812e68b-959d-41bb-b8f4-639c7bb8c1be_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        La inteligencia artificial chat-rnn ya hab&iacute;a creado en el pasado <a href="https://gist.github.com/nylki/1efbaa36635956d35bcc" target="_blank" data-mrf-recirculation="links-noticia" class="link">recetas de cocina</a> (&ldquo;nada deliciosas&rdquo;, recuerda la investigadora). Incluso <strong>se atrevi&oacute; a parir pok&eacute;mones</strong> con la misma red que luego usar&iacute;a para los refranes. <a href="http://es.gizmodo.com/ensenan-a-una-red-neural-a-disenar-nuevos-pokemon-y-el-1793983363" target="_blank" data-mrf-recirculation="links-noticia" class="link">Los resultados fueron un disparate</a> (hab&iacute;a una tortuga con una especie de lago o estaque en el caparaz&oacute;n y un p&aacute;jaro con una bolsa de papel en la cabeza), pero seguro que alguno podr&iacute;a pertenecer al ya <a href="http://es.pokemon.wikia.com/wiki/Lista_de_Pok%C3%A9mon" target="_blank" data-mrf-recirculation="links-noticia" class="link">largo listado oficial</a> de criaturas de Nintendo. Otras redes se han usado para<strong> escribir fan fiction de Harry Potter </strong><a href="http://lewisandquark.tumblr.com/post/162668008357/harry-potter-and-the-neural-network-fan-fiction" target="_blank" data-mrf-recirculation="links-noticia" class="link">escribir fan fiction de Harry Potter</a>y<strong> dise&ntilde;ar nombres de cervezas</strong><a href="https://munchies.vice.com/es/article/nezaxm/esto-es-lo-que-sucede-cuando-robots-escogen-el-nombre-de-tu-cerveza" target="_blank" data-mrf-recirculation="links-noticia" class="link">dise&ntilde;ar nombres de cervezas</a>.
    </p><blockquote class="twitter-tweet" data-lang="es"><a href="https://twitter.com/X/status/893108427328585729?ref_src=twsrc%5Etfw"></a></blockquote><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script><p class="article-text">
        Shane no descarta seguir trabajando en los refranes, mientras que Mandelli se formaba en inteligencia artificial y <em>machine learning</em> para acompa&ntilde;arla. Para &eacute;l, el trabajo con redes neuronales <strong>contribuye a mejorar nuestro entendimiento de las posibilidades de los ordenadores para interpretar grandes cantidades de datos</strong> y realizar con ellos &ldquo;tareas complejas&rdquo;. Ahora solo queda que los humanos demos significado a todos esos nuevos refranes.
    </p><p class="article-text">
        --------------
    </p><p class="article-text">
        Las im&aacute;genes son propiedad del <a href="http://www.pdxguineapigs.org/" target="_blank" data-mrf-recirculation="links-noticia" class="link">Portland Guinea Pig Rescue</a> y <a href="https://www.flickr.com/photos/jurvetson/447296727/" target="_blank" data-mrf-recirculation="links-noticia" class="link">Steve Jurvetson</a>
    </p>]]></description>
      <dc:creator><![CDATA[José Manuel Blanco]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/hojaderouter/tecnologia/software/mejor-sermon-maquinas-crean-refranes_1_3239647.html]]></guid>
      <pubDate><![CDATA[Thu, 09 Aug 2018 13:32:00 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/29039117-8dd9-4ef2-8334-7df4db7a4728_16-9-aspect-ratio_default_0.jpg" length="694350" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/29039117-8dd9-4ef2-8334-7df4db7a4728_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="694350" width="880" height="495"/>
      <media:title><![CDATA[Así crea refranes un ordenador: "Cuando la muerte venga no tendrá ovejas"]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/29039117-8dd9-4ef2-8334-7df4db7a4728_16-9-aspect-ratio_default_0.jpg" width="880" height="495"/>
      <media:keywords><![CDATA[Inteligencia artificial,Machine learning,Redes neuronales]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[El sistema de reconocimiento facial de Amazon cree que hay 28 criminales en el Congreso de los EEUU]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/reconocimiento-amazon-criminales-congreso-eeuu_1_2006197.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/a72793f8-66cb-4e6c-97d2-4c599b9582f4_16-9-aspect-ratio_default_0.jpg" width="880" height="495" alt="Los 28 &quot;criminales&quot; del Congreso"></p><div class="subtitles"><p class="subtitle">La organización por los derechos civiles de EEUU (más conocida como ACLU) ha realizado una prueba con el software de la compañía... y suspende</p><p class="subtitle">Analizar 1.000 imágenes cuesta 1 dólar, pero el sistema aún no está disponible en España ni en Europa... excepto en Irlanda</p></div><p class="article-text">
        Se llama Amazon Rekognition System y, salvo en Irlanda, en el resto de Europa a&uacute;n no est&aacute; disponible. En EEUU s&iacute;, por eso la American Civil Liberties Union (ACLU), la organizaci&oacute;n por los derechos civiles estadounidense, ya lo ha probado y el resultado no pod&iacute;a haber m&aacute;s desastroso. El sistema de reconocimiento facial de Amazon pincha en hueso: de 535 caras, ha identificado 28 como de sospechosos criminales. Nada raro si no fuera porque esos 535 son los miembros del Congreso de los EEUU.
    </p><p class="article-text">
        <a href="https://www.aclu.org/blog/privacy-technology/surveillance-technologies/amazons-face-recognition-falsely-matched-28" target="_blank" data-mrf-recirculation="links-noticia" class="link">Seg&uacute;n la ACLU</a>, &ldquo;construimos una base de datos de caras y una herramienta de b&uacute;squeda usando 25.000 fotos p&uacute;blicas de criminales&rdquo;. Despu&eacute;s, cruzaron las caras de su base de datos con las im&aacute;genes (tambi&eacute;n p&uacute;blicas) &ldquo;de cada miembro actual del Senado y la C&aacute;mara de Representantes&rdquo;. El resultado fue que, seg&uacute;n el software de Amazon, 28 de esos congresistas eran criminales.
    </p><p class="article-text">
        &ldquo;Ser identificado -tanto si es de forma precisa o no- podr&iacute;a costarle a la gente su libertad e incluso su vida&rdquo;, explica la ACLU. &ldquo;El Congreso deber&iacute;a tomarse estas amenazas en serio, pisar el freno y promulgar una moratoria sobre&nbsp;el cumplimiento de la ley cuando se usa reconocimiento facial&rdquo;, contin&uacute;a la asociaci&oacute;n.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/855d190b-b367-4a1a-a0f5-686da9a0668e_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/855d190b-b367-4a1a-a0f5-686da9a0668e_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/855d190b-b367-4a1a-a0f5-686da9a0668e_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/855d190b-b367-4a1a-a0f5-686da9a0668e_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/855d190b-b367-4a1a-a0f5-686da9a0668e_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/855d190b-b367-4a1a-a0f5-686da9a0668e_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/855d190b-b367-4a1a-a0f5-686da9a0668e_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><h3 class="article-text">Un sistema racista&nbsp;e impreciso</h3><p class="article-text">
        El Amazon Rekognition System es &ldquo;un servicio de reconocimiento de im&aacute;genes con tecnolog&iacute;a de aprendizaje profundo que detecta objetos, escenas y rostros; extrae texto, reconoce a personas famosas e identifica contenido inapropiado en im&aacute;genes&rdquo;, tal y como explican&nbsp;<a href="https://aws.amazon.com/es/rekognition/image-features/" target="_blank" data-mrf-recirculation="links-noticia" class="link">en su p&aacute;gina web</a>. El algoritmo de los chicos y chicas de&nbsp;Jeff Bezos &ldquo;permite encontrar rostros parecidos en una gran colecci&oacute;n de im&aacute;genes&rdquo;, de tal forma que pueden ser buscadas de forma &ldquo;r&aacute;pida y precisa&rdquo; para obtener &ldquo;los rostros que m&aacute;s se parecen al rostro de referencia&rdquo;.
    </p><p class="article-text">
        El medio especializado The Verge <a href="https://www.theverge.com/2018/7/26/17615634/amazon-rekognition-aclu-mug-shot-congress-facial-recognition" target="_blank" data-mrf-recirculation="links-noticia" class="link">ha contactado con Amazon</a>, que atribuye los resultados a una &ldquo;pobre calibraci&oacute;n&rdquo; a la hora de usar el sistema. La ACLU, en su experimento, utiliz&oacute; las opciones por defecto del software, que proporciona un umbral de confianza del 80%. Amazon dice que lo hicieron mal y que ten&iacute;an que haber aplicado un margen del 95%.
    </p><p class="article-text">
        La ACLU ha encontrado tambi&eacute;n que el algoritmo usado por Amazon es racista, <a href="https://www.eldiario.es/tecnologia/Inteligencia_Artificial-sexismo-racismo_0_632387552.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">aunque no es el &uacute;nico</a>.&nbsp;11 de los 28 falsos positivos (casi la mitad) eran negros; en porcentaje, casi el 40% de los &ldquo;criminales&rdquo; que identific&oacute; el software. Si echamos un vistazo al Congreso de los EEUU, solo el 20% son negros; lo que indica que el sistema les perjudic&oacute; m&aacute;s a ellos que a los blancos.
    </p><figure class="embed-container embed-container--type-youtube ratio">
    
                    
                            
<script src="https://www.youtube.com/iframe_api"></script>
<script type="module">
    window.marfeel.cmd.push(['multimedia', function(multimedia) {
        multimedia.initializeItem('yt-D1gj_9aKRJU-7223', 'youtube', 'D1gj_9aKRJU', document.getElementById('yt-D1gj_9aKRJU-7223'));
    }]);
</script>

<iframe id=yt-D1gj_9aKRJU-7223 src="https://www.youtube.com/embed/D1gj_9aKRJU?enablejsapi=1" frameborder="0"></iframe>
            </figure><h3 class="article-text">La polic&iacute;a paga por saber qui&eacute;n eres</h3><p class="article-text">
        A todo esto se suma tambi&eacute;n el incidente del pasado mayo, cuando tambi&eacute;n la ACLU descubri&oacute; que Amazon estaba vendiendo su software a la polic&iacute;a de varios estados de los EEUU, como Orlando y Oreg&oacute;n.&nbsp;<a href="https://www.washingtonpost.com/news/the-switch/wp/2018/05/22/amazon-is-selling-facial-recognition-to-law-enforcement-for-a-fistful-of-dollars/" target="_blank" data-mrf-recirculation="links-noticia" class="link">En el condado de Washington (Oreg&oacute;n) pagan entre 6 y 12 d&oacute;lares&nbsp;al mes</a> por&nbsp;contar con la tecnolog&iacute;a. El departamento del Sheriff puede as&iacute; escanear y cotejar, en tiempo real, las im&aacute;genes de los criminales con lo que muestran las c&aacute;maras de videovigilancia repartidas por la ciudad.
    </p><p class="article-text">
        <a href="https://www.theverge.com/2018/5/22/17379968/amazon-rekognition-facial-recognition-surveillance-aclu" target="_blank" data-mrf-recirculation="links-noticia" class="link">Amazon dijo entonces</a>&nbsp;que su tecnolog&iacute;a ten&iacute;a &ldquo;muchas aplicaciones &uacute;tiles en el mundo real&rdquo; y que &ldquo;nuestra calidad de vida ser&iacute;a mucho peor hoy si&nbsp;criminaliz&aacute;semos cada nueva tecnolog&iacute;a porque alguien puede elegir abusar de ella&rdquo;. Nada se ha vuelto a saber de su uso por parte de la polic&iacute;a estadounidense, pero el canal brit&aacute;nico&nbsp;<a href="https://www.washingtonpost.com/news/innovations/wp/2018/05/08/sky-news-will-identify-celebrities-at-the-royal-wedding-using-artificial-intelligence/" target="_blank" data-mrf-recirculation="links-noticia" class="link">Sky News s&iacute; lo utiliz&oacute;</a> para identificar a los miembros de la boda real entre el pr&iacute;ncipe Harry y Meghan Markle. La marca Motorola Solutions tambi&eacute;n es cliente habitual&nbsp;de Amazon en este aspecto.
    </p><p class="article-text">
        A la ACLU le ha costado 12,33 d&oacute;lares (10,60 euros) utilizar el software de Amazon, &ldquo;menos que una pizza familiar&rdquo;, dicen. El sistema de reconocimiento facial no est&aacute; disponible en Espa&ntilde;a y dependiendo de la localizaci&oacute;n geogr&aacute;fica donde nos encontremos <a href="https://aws.amazon.com/es/rekognition/pricing/" target="_blank" data-mrf-recirculation="links-noticia" class="link">cuesta m&aacute;s o menos dinero</a>. Por cada mil im&aacute;genes que procese el algoritmo hay que pagar 1 d&oacute;lar. Pero por hacer lo mismo en Tokio, el precio es 1,30 d&oacute;lares. Adem&aacute;s, Amazon ofrece descuentos a partir del mill&oacute;n de im&aacute;genes&nbsp;analizadas al mes. Todo un negocio por la cara.
    </p>]]></description>
      <dc:creator><![CDATA[David Sarabia]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/reconocimiento-amazon-criminales-congreso-eeuu_1_2006197.html]]></guid>
      <pubDate><![CDATA[Sat, 28 Jul 2018 18:16:45 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/a72793f8-66cb-4e6c-97d2-4c599b9582f4_16-9-aspect-ratio_default_0.jpg" length="92256" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/a72793f8-66cb-4e6c-97d2-4c599b9582f4_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="92256" width="880" height="495"/>
      <media:title><![CDATA[El sistema de reconocimiento facial de Amazon cree que hay 28 criminales en el Congreso de los EEUU]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/a72793f8-66cb-4e6c-97d2-4c599b9582f4_16-9-aspect-ratio_default_0.jpg" width="880" height="495"/>
      <media:keywords><![CDATA[Reconocimiento facial,Machine learning]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Drones que esquivan obstáculos solos: ¿el primer paso para que traigan la compra a tu casa?]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/drones-esquivan-obstaculos-primer-traigan_1_2029706.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/a5fd4bea-c819-4189-b173-1e006ba8ceb8_16-9-aspect-ratio_default_0.jpg" width="880" height="495" alt="Dron en reparto"></p><div class="subtitles"><p class="subtitle">Un equipo de la Universidad de Zúrich ha desarrollado un algoritmo para entrenar y conseguir que los aparatos pasen a través de puertas</p><p class="subtitle">Los drones esquivan todo lo que encuentran a su paso y, aunque la tecnología aún necesita ser perfeccionada, las empresas de reparto ya se frotan las manos</p></div><figure class="embed-container embed-container--type-youtube ratio">
    
                    
                            
<script src="https://www.youtube.com/iframe_api"></script>
<script type="module">
    window.marfeel.cmd.push(['multimedia', function(multimedia) {
        multimedia.initializeItem('yt-8RILnqPxo1s-9360', 'youtube', '8RILnqPxo1s', document.getElementById('yt-8RILnqPxo1s-9360'));
    }]);
</script>

<iframe id=yt-8RILnqPxo1s-9360 src="https://www.youtube.com/embed/8RILnqPxo1s?enablejsapi=1" frameborder="0"></iframe>
            </figure><p class="article-text">
        En septiembre del a&ntilde;o pasado, Amazon contaba con <a href="http://dronecenter.bard.edu/amazon-drone-patents/" target="_blank" data-mrf-recirculation="links-noticia" class="link">m&aacute;s de 60 patentes</a> relacionadas con el uso de drones para el transporte de paquetes. Aunque la empresa de Jeff Bezos anunci&oacute; en 2013 que empezar&iacute;a a hacer pruebas con ellos, cinco a&ntilde;os despu&eacute;s la tecnolog&iacute;a a&uacute;n est&aacute; en pa&ntilde;ales. Hoy por hoy, sus usos se enfocan m&aacute;s hacia el &aacute;mbito m&eacute;dico que al del reparto de mercanc&iacute;as, a pesar de que <a href="https://www.theguardian.com/technology/2018/may/10/apple-microsoft-uber-drones-approved-testing-amazon" target="_blank" data-mrf-recirculation="links-noticia" class="link">empresas como Google, Apple, Uber, Microsoft e Intel</a> no quiten ojo a lo que hacen los chicos y chicas de Bezos.
    </p><p class="article-text">
        &ldquo;Los sistemas de entrega automatizada de paquetes, tal y como los est&aacute;n desarrollando Amazon y otras empresas, tienen un gran potencial&rdquo;, explica a eldiario.es Elia Kaufmann, del departamento de inform&aacute;tica y rob&oacute;tica de la Universidad de Z&uacute;rich (Suiza). Pone de ejemplo a Swiss Post, una empresa de paqueter&iacute;a suiza que ya utiliza el sistema: &ldquo;Env&iacute;an pruebas m&eacute;dicas en Lugano, entre hospitales localizados en diferentes partes de la ciudad&rdquo;.
    </p><p class="article-text">
        Kaufmann y su equipo han conseguido, mezclando inteligencia artificial y <em>machine learning</em> (aprendizaje autom&aacute;tico), que drones aut&oacute;nomos eviten los obst&aacute;culos seg&uacute;n se aproximan a ellos. <a href="https://arxiv.org/pdf/1806.08548.pdf" target="_blank" data-mrf-recirculation="links-noticia" class="link">El paper lo han subido a arxiv</a>, un repositorio de trabajos cient&iacute;ficos en Internet.
    </p><p class="article-text">
        Los investigadores han entrenado a los drones para que vuelen en circuitos cerrados pasando a trav&eacute;s de puertas. &ldquo;No los ense&ntilde;amos aposta para que evitasen obst&aacute;culos&rdquo;, contin&uacute;a el investigador. En las primeras pruebas tuvieron que conducirlos de forma manual por la ruta, y a la vez que les ense&ntilde;aban el camino, emplearon redes neuronales convolucionales (un tipo de aprendizaje autom&aacute;tico). Gracias a ello, todas las im&aacute;genes que captaba el dron a trav&eacute;s de su c&aacute;mara frontal le serv&iacute;an, a su vez, para aprenderse el circuito.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/2af1ce1d-382a-469c-ad78-4202b128de90_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/2af1ce1d-382a-469c-ad78-4202b128de90_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/2af1ce1d-382a-469c-ad78-4202b128de90_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/2af1ce1d-382a-469c-ad78-4202b128de90_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/2af1ce1d-382a-469c-ad78-4202b128de90_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/2af1ce1d-382a-469c-ad78-4202b128de90_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/2af1ce1d-382a-469c-ad78-4202b128de90_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        &ldquo;Entrenamos a nuestro dron en una pista espec&iacute;fica. Esto significa que un dron entrenado en el circuito A no puede funcionar igual de bien en un circuito B&rdquo;, dice Kaufmann. Los dispositivos vuelan de forma aut&oacute;noma y esquivan las puertas al verlas a trav&eacute;s de la c&aacute;mara, a pesar de que en el &uacute;ltimo momento alguien las cambie de sitio.
    </p><p class="article-text">
        A pesar de todo, el conductor del estudio reconoce que &ldquo;[el dron] probablemente puede pasar a trav&eacute;s de una puerta en el circuito B si la ve, pero si no la ve, no sabr&aacute; qu&eacute; hacer&rdquo;. Los drones han sido entrenados para cruzar las puertas, de tal forma que esquivar&aacute;n todo lo que encuentren ante s&iacute; hasta llegar a la siguiente.
    </p><h3 class="article-text">&ldquo;No hemos sido contactados por el Ej&eacute;rcito&rdquo;</h3><p class="article-text">
        El investigador de la Universidad de Z&uacute;rich y su equipo tambi&eacute;n han hecho pruebas en exteriores: &ldquo;En un peque&ntilde;o circuito en el s&oacute;tano del edificio de nuestra universidad y en otro grande en un viejo hangar de aviones&rdquo;, aunque no dice qu&eacute; resultados obtuvieron. Niega que, en un futuro, vaya a darle a su tecnolog&iacute;a un uso militar: &ldquo;No hemos sido contactados por el Ej&eacute;rcito. Dicho esto, probablemente tendr&iacute;amos algunos problemas morales con eso...&rdquo;.
    </p><p class="article-text">
        Kaufmann, que reconoce que su investigaci&oacute;n se encuentra en un nivel &ldquo;b&aacute;sico&rdquo;, explica que su algoritmo &ldquo;est&aacute; todav&iacute;a lejos de ser incorporado a un producto&rdquo;. Aun as&iacute;, consiguieron que los drones alcanzasen velocidades de hasta 3,5 metros por segundo, aunque creen que ir&iacute;an m&aacute;s r&aacute;pido en circuitos m&aacute;s amplios.
    </p><p class="article-text">
        <a href="https://www.eldiario.es/tecnologia/toros-pipas-banderillas-drones-Ventas_0_789521328.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">En las carreras de drones</a>, los pilotos tienen que pasar a trav&eacute;s de puertas hinchables y rodear una serie de obst&aacute;culos hasta completar un n&uacute;mero determinado de vueltas. Por eso, Kaufmann ha intentado desarrollar su algoritmo pensando en el manejo aut&oacute;nomo de los dispositivos en estas carreras. Sin embargo, es inevitable pensar en las implicaciones que la tecnolog&iacute;a tendr&iacute;a para las empresas que ya piensan en repartir paquetes por aire.
    </p><figure class="embed-container embed-container--type-youtube ratio">
    
                    
                            
<script src="https://www.youtube.com/iframe_api"></script>
<script type="module">
    window.marfeel.cmd.push(['multimedia', function(multimedia) {
        multimedia.initializeItem('yt-Fx5RBXqA-TY-1142', 'youtube', 'Fx5RBXqA-TY', document.getElementById('yt-Fx5RBXqA-TY-1142'));
    }]);
</script>

<iframe id=yt-Fx5RBXqA-TY-1142 src="https://www.youtube.com/embed/Fx5RBXqA-TY?enablejsapi=1" frameborder="0"></iframe>
            </figure><p class="article-text">
        Hace poco, eldiario.es estuvo con el piloto profesional de drones Daniel Pach&oacute;n 'Pacha', que hablaba de las limitaciones de los aparatos para transportar paquetes. &ldquo;Es un tema muy delicado, pero creo que en unos a&ntilde;os el concepto cambiar&aacute;&rdquo;, dec&iacute;a. Kaufmann ya ha acercado ese cambio de paradigma: &ldquo;El estado actual de la t&eacute;cnica en la entrega autom&aacute;tica de paquetes usando drones utiliza principalmente la localizaci&oacute;n GPS y los enfoques cl&aacute;sicos de planificaci&oacute;n de rutas. En contraste, nuestro dron est&aacute; pilotado por una red neuronal y decide por s&iacute; mismo a d&oacute;nde vuela&rdquo;, sentencia el investigador.
    </p>]]></description>
      <dc:creator><![CDATA[David Sarabia]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/drones-esquivan-obstaculos-primer-traigan_1_2029706.html]]></guid>
      <pubDate><![CDATA[Thu, 12 Jul 2018 19:28:33 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/a5fd4bea-c819-4189-b173-1e006ba8ceb8_16-9-aspect-ratio_default_0.jpg" length="2460404" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/a5fd4bea-c819-4189-b173-1e006ba8ceb8_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="2460404" width="880" height="495"/>
      <media:title><![CDATA[Drones que esquivan obstáculos solos: ¿el primer paso para que traigan la compra a tu casa?]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/a5fd4bea-c819-4189-b173-1e006ba8ceb8_16-9-aspect-ratio_default_0.jpg" width="880" height="495"/>
      <media:keywords><![CDATA[Drones,Amazon,Machine learning,Inteligencia artificial]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[¿Realidad o ficción? Inteligencia artificial que nos engaña como por arte de magia]]></title>
      <link><![CDATA[https://www.eldiario.es/hojaderouter/robots/realidad-ficcion-algoritmos-enganan-magia_1_2099395.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/38bcd105-0083-4443-8e07-f7ed16846154_16-9-aspect-ratio_default_0.jpg" width="880" height="495" alt="Los investigadores de Nvidia han desarrollado un sistema que crea caras nuevas a partir de &#039;celebrities&#039;"></p><div class="subtitles"><p class="subtitle">Los sistemas de inteligencia artificial que crean vídeos falsos tienen potencial para causar estragos, tanto que se están desarrollando otros para identificarlos. No son los únicos algoritmos que engañan a nuestros sentidos con sus trucos: hay máquinas capaces de formar nuevos rostros a partir de</p><p class="subtitle">celebrities</p><p class="subtitle">, transformar unos animales en otros o generar niveles inéditos de algunos videojuegos.</p></div><p class="article-text">
        &ldquo;<strong>Nuestros enemigos pueden hacer que parezca</strong> <strong>que alguien dice algo</strong> en cualquier momento, incluso si nunca lo ha dicho&rdquo;, afirma un v&iacute;deo de Barack Obama. &ldquo;Podr&iacute;an hacerme decir cosas como que [...] <strong>el presidente Trump es un total y completo idiota</strong>&rdquo;. Aunque nuestros ojos nos hagan creer que el expresidente estadounidense est&aacute; pronunciando esas palabras, lo cierto es que en realidad estamos escuchando la voz del cineasta Jordan Peele, ganador del Oscar a <a href="https://www.eldiario.es/cultura/cine/vistazo-ganadores-Oscar-2018_0_746825329.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Mejor guion original por D&eacute;jame salir</a>.
    </p><p class="article-text">
        Estas <a href="https://www.buzzfeed.com/davidmack/obama-fake-news-jordan-peele-psa-video-buzzfeed?utm_term=.ukr54WVOB#.aqZz04odO" target="_blank" data-mrf-recirculation="links-noticia" class="link">inquietantes im&aacute;genes</a> <strong>han sido generadas con FakeApp</strong><a href="https://www.fakeapp.org/" target="_blank" data-mrf-recirculation="links-noticia" class="link">FakeApp</a>, una <a href="https://www.theverge.com/2018/2/11/16992986/fakeapp-deepfakes-ai-face-swapping" target="_blank" data-mrf-recirculation="links-noticia" class="link">herramienta</a> basada en la librer&iacute;a de c&oacute;digo abierto <a href="https://www.tensorf/" target="_blank" data-mrf-recirculation="links-noticia" class="link">TensorFlow</a> de Google. El controvertido sistema de aprendizaje autom&aacute;tico &mdash;ha sido usado para crear <a href="https://www.nytimes.com/2018/03/04/technology/fake-videos-deepfakes.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">v&iacute;deos porno con celebrities</a> e incluso Reddit ha tenido que <a href="https://www.theverge.com/2018/2/7/16982046/reddit-deepfakes-ai-celebrity-face-swap-porn-community-ban" target="_blank" data-mrf-recirculation="links-noticia" class="link">prohibir la comunidad deepfakes</a>&mdash;  no es el primero que muestra c&oacute;mo <strong>los algoritmos pueden crear v&iacute;deos falsos</strong> como por arte de magia.
    </p><p class="article-text">
        <span id="2730492_1527592223903"></span>
    </p><figure class="embed-container embed-container--type-embed ">
    
            <iframe id="2730492_1527592223903" width="640" height="360" src="//widget.smartycenter.com/webservice/embed/9391/2730492/640/360/0/0/0/100/1/1" frameborder="0" allowfullscreen="true" webkitallowfullscreen="true" mozallowfullscreen="true" scrolling="no"></iframe>
    </figure><p class="article-text">
        El a&ntilde;o pasado, investigadores de la <a href="https://grail.cs.washington.edu/projects/AudioToObama/siggraph17_obama.pdf" target="_blank" data-mrf-recirculation="links-noticia" class="link">Universidad de Washington </a>demostraron que <strong>pod&iacute;an sincronizar los movimientos de la boca de Obama con el audio de algunos discursos</strong><a href="https://www.youtube.com/watch?v=MVBe6_o4cMI" target="_blank" data-mrf-recirculation="links-noticia" class="link">sincronizar los movimientos de la boca de Obama</a> que hab&iacute;a dado anteriormente: para lograrlo, entrenaron una red neuronal (un algoritmo que simula el comportamiento de nuestro cerebro) con decenas de horas de sus v&iacute;deos presidenciales.
    </p><p class="article-text">
        Despu&eacute;s, el sistema de <em>machine learning</em> convert&iacute;a los diferentes sonidos en formas b&aacute;sicas de la boca y mezclaba el resultado con el v&iacute;deo para que fuera dif&iacute;cil darse cuenta del enga&ntilde;o. El exmandatario se pasaba de serio, eso s&iacute;, ya que los investigadores <a href="https://spectrum.ieee.org/tech-talk/robotics/artificial-intelligence/ai-creates-fake-obama" target="_blank" data-mrf-recirculation="links-noticia" class="link">a&uacute;n no son capaces de modelar emociones</a>. Seg&uacute;n los expertos, entrenar el algoritmo con otros humanos puede hacer que en el futuro tengamos la oportunidad, por ejemplo, de <strong>charlar con una figura hist&oacute;rica en realidad virtual</strong>.
    </p><p class="article-text">
        <span id="2730494_1527592344608"></span>
    </p><figure class="embed-container embed-container--type-embed ">
    
            <iframe id="2730494_1527592344608" width="640" height="360" src="//widget.smartycenter.com/webservice/embed/9391/2730494/640/360/0/0/0/100/1/1" frameborder="0" allowfullscreen="true" webkitallowfullscreen="true" mozallowfullscreen="true" scrolling="no"></iframe>
    </figure><p class="article-text">
        El auge de los v&iacute;deos falsos creados con inteligencia artificial est&aacute; haciendo que algunos <a href="https://www.technologyreview.com/s/610784/this-algorithm-automatically-spots-face-swaps-in-videos/" target="_blank" data-mrf-recirculation="links-noticia" class="link">investigadores se centren en crear algoritmos para</a><a href="https://www.technologyreview.com/s/610784/this-algorithm-automatically-spots-face-swaps-in-videos/" target="_blank" data-mrf-recirculation="links-noticia" class="link"> identificarlos</a>. DARPA, la agencia tecnol&oacute;gica militar del Departamento de Defensa estadounidense, <a href="https://www.technologyreview.com/s/611146/the-us-military-is-funding-an-effort-to-catch-deepfakes-and-other-ai-trickery/" target="_blank" data-mrf-recirculation="links-noticia" class="link">va a financiar</a> un proyecto este verano para que se desarrollen sistemas capaces de generar v&iacute;deo, audio e im&aacute;genes falsas, as&iacute; como <strong>herramientas que puedan cazar esas falsificaciones autom&aacute;ticamente</strong>.
    </p><p class="article-text">
        No obstante, estos algoritmos no son los &uacute;nicos que parecen obrar como por arte de magia: <strong>otros cuantos tambi&eacute;n nos hacen creer lo que no es</strong> de formas asombrosas.
    </p><h3 class="article-text">Im&aacute;genes que no existen&hellip;</h3><p class="article-text">
        Los especialistas de DARPA est&aacute;n especialmente preocupados por una t&eacute;cnica de inteligencia artificial <a href="https://arxiv.org/abs/1406.2661" target="_blank" data-mrf-recirculation="links-noticia" class="link">ideada recientemente</a> por <a href="https://www.technologyreview.com/s/610253/the-ganfather-the-man-whos-given-machines-the-gift-of-imagination/" target="_blank" data-mrf-recirculation="links-noticia" class="link">Ian Goodfellow</a>,<strong> </strong>investigador de Google Brain: las<strong> redes generativas antag&oacute;nicas</strong><a href="https://es.wikipedia.org/wiki/Red_generativa_antag%C3%B3nica" target="_blank" data-mrf-recirculation="links-noticia" class="link">redes generativas antag&oacute;nicas</a> (GAN por sus siglas en ingl&eacute;s), que dotan a la inteligencia artificial de una suerte de <strong>sentido de la imaginaci&oacute;n</strong>.<strong>  </strong>
    </p><p class="article-text">
        En esencia, se trata de dos redes neuronales entrenadas con el mismo conjunto de datos. Una crea variaciones en las im&aacute;genes que ya ha visto, mientras que la otra ha de identificar si la <a href="https://www.technologyreview.es/s/10026/tr10-redes-generativas-antagonicas" target="_blank" data-mrf-recirculation="links-noticia" class="link">imagen pertenece</a> o no al conjunto original. As&iacute;, la primera mejora m&aacute;s y m&aacute;s, hasta el punto de que <strong>a su compa&ntilde;era le resulta imposible detectar la falsificaci&oacute;n</strong>. Yann LeCun, director de investigaci&oacute;n en inteligencia artificial de Facebook y una de las figuras m&aacute;s importantes del sector, <a href="https://www.wired.com/2017/04/googles-dueling-neural-networks-spar-get-smarter-no-humans-required/" target="_blank" data-mrf-recirculation="links-noticia" class="link">ha definido las GAN</a> como <strong>&ldquo;la idea m&aacute;s fant&aacute;stica en el aprendizaje profundo de los &uacute;ltimos 20 a&ntilde;os&rdquo;</strong>.
    </p><p class="article-text">
        No en vano, la t&eacute;cnica se ha utilizado ya para desarrollar algoritmos que suenan a ciencia ficci&oacute;n: el a&ntilde;o pasado, un grupo de investigadores de los Laboratorios Orange en Francia <a href="https://www.eurecom.fr/fr/publication/5134/download/sec-publi-5134.pdf" target="_blank" data-mrf-recirculation="links-noticia" class="link">desarroll&oacute;</a> una red neuronal que<strong> predice c&oacute;mo ser&aacute; el rostro de las personas cuando envejezcan</strong>.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/96dfcc2c-2aec-4e10-8d67-56e1cc725213_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/96dfcc2c-2aec-4e10-8d67-56e1cc725213_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/96dfcc2c-2aec-4e10-8d67-56e1cc725213_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/96dfcc2c-2aec-4e10-8d67-56e1cc725213_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/96dfcc2c-2aec-4e10-8d67-56e1cc725213_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/96dfcc2c-2aec-4e10-8d67-56e1cc725213_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/96dfcc2c-2aec-4e10-8d67-56e1cc725213_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        Para ello, la entrenaron con 5.000 caras de diferentes grupos de edad de la<strong> base de datos de cine IMDB y de Wikipedia</strong>. La primera m&aacute;quina generaba nuevas caras y la segunda las rechazaba si no pod&iacute;a identificar la imagen original. Posteriormente, aplicaron la t&eacute;cnica a 10.000 nuevas caras con buenos resultados: el <em>software</em> de reconocimiento facial OpenFace determin&oacute; que se trataba de la misma persona en un 80 % de los casos. <a href="https://ieeexplore.ieee.org/document/8296650/?part=1" target="_blank" data-mrf-recirculation="links-noticia" class="link">Seg&uacute;n los investigadores</a>, este algoritmo podr&iacute;a servir, entre otras cosas, para <a href="https://www.technologyreview.com/s/603684/neural-network-learns-to-synthetically-age-faces-and-make-them-look-younger-too/" target="_blank" data-mrf-recirculation="links-noticia" class="link"><strong>identificar</strong></a><strong> a personas que hayan estado desaparecidas durante a&ntilde;os</strong>. 
    </p><p class="article-text">
        Nvidia est&aacute; utilizando redes GAN con ese mismo fin. El a&ntilde;o pasado, investigadores del gigante de la electr&oacute;nica publicaron <a href="https://research.nvidia.com/sites/default/files/pubs/2017-10_Progressive-Growing-of/karras2018iclr-paper.pdf" target="_blank" data-mrf-recirculation="links-noticia" class="link">un estudio</a> en el que describ&iacute;an un sistema capaz de generar nuevas im&aacute;genes de rostros<strong> bas&aacute;ndose en los datos de 30.000 celebrities</strong><em>celebrities</em><em> </em>de la base de datos <a href="https://mmlab.ie.cuhk.edu.hk/projects/CelebA.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">CelebA</a>. Cuanto m&aacute;s tiempo pasaba entren&aacute;ndose, mejores eran los resultados. Aunque en algunos casos se adivinaba el truco (hay a quien le falta alg&uacute;n rasgo facial), lo cierto es que las m&aacute;quinas ya sue&ntilde;an e<strong> imaginan rostros inquietantemente similares a los nuestros</strong>.
    </p><p class="article-text">
        <span id="2730499_1527592554026"></span>
    </p><figure class="embed-container embed-container--type-embed ">
    
            <iframe id="2730499_1527592554026" width="640" height="360" src="//widget.smartycenter.com/webservice/embed/9391/2730499/640/360/0/0/0/100/1/1" frameborder="0" allowfullscreen="true" webkitallowfullscreen="true" mozallowfullscreen="true" scrolling="no"></iframe>
    </figure><p class="article-text">
        No es la &uacute;nica investigaci&oacute;n en la que los expertos de Nvidia han usado esa t&eacute;cnica. Hace unos meses <a href="https://papers.nips.cc/paper/6672-unsupervised-image-to-image-translation-networks.pdf" target="_blank" data-mrf-recirculation="links-noticia" class="link">publicaron</a> los detalles de un sistema de inteligencia artificial que permite a los ordenadores crear im&aacute;genes de una <strong>calle soleada a partir de otras de esa misma v&iacute;a cuando llueve, nieva u oscurece</strong>. Los investigadores piensan que ese sistema podr&iacute;a ser muy &uacute;til para entrenar a los coches aut&oacute;nomos: los veh&iacute;culos podr&aacute;n 'ver' una escena lluviosa en lugar de otra soleada para aprender a conducir en las peores situaciones.
    </p><p class="article-text">
        <span id="2730502_1527592737672"></span>
    </p><figure class="embed-container embed-container--type-embed ">
    
            <iframe id="2730502_1527592737672" width="640" height="360" src="//widget.smartycenter.com/webservice/embed/9391/2730502/640/360/0/0/0/100/1/1" frameborder="0" allowfullscreen="true" webkitallowfullscreen="true" mozallowfullscreen="true" scrolling="no"></iframe>
    </figure><p class="article-text">
        Partiendo de ese trabajo, los mismos expertos de Nvidia y un investigador de la Universidad de Cornell han <a href="https://blogs.nvidia.com/blog/2018/04/15/nvidia-research-image-translation/" target="_blank" data-mrf-recirculation="links-noticia" class="link">desarrollado </a>un sistema capaz de generar m&uacute;ltiples im&aacute;genes a partir de una que c<strong>onvierte instant&aacute;neas de gatitos reales en grandes felinos</strong> o en <strong>perros</strong>, y a la inversa.
    </p><p class="article-text">
        Seg&uacute;n han explicado, la red neuronal analiza varias caracter&iacute;sticas de cada fotograf&iacute;a, separando el contenido de la imagen (la postura del gato) del estilo (por ejemplo, la raza). Aunque la postura se mantiene fija, <strong>la imagen se mezcla con otra para variar ese estilo</strong> y el sistema determina si la imagen es cre&iacute;ble o necesita mejorar.
    </p><p class="article-text">
        <span id="2730503_1527592852131"></span>
    </p><figure class="embed-container embed-container--type-embed ">
    
            <iframe id="2730503_1527592852131" width="640" height="360" src="//widget.smartycenter.com/webservice/embed/9391/2730503/640/360/0/0/0/100/1/1" frameborder="0" allowfullscreen="true" webkitallowfullscreen="true" mozallowfullscreen="true" scrolling="no"></iframe>
    </figure><p class="article-text">
        Por otra parte, hace solo unos d&iacute;as, los investigadores de la compa&ntilde;&iacute;a han presentado una<a href="https://arxiv.org/pdf/1804.07723.pdf" target="_blank" data-mrf-recirculation="links-noticia" class="link"> red neuronal</a> ideada con un prop&oacute;sito diferente:<strong> reconstruir im&aacute;genes que est&aacute;n incompletas</strong>.
    </p><p class="article-text">
        <span id="2730510_1527592964609"></span>
    </p><figure class="embed-container embed-container--type-embed ">
    
            <iframe id="2730510_1527592964609" width="640" height="360" src="//widget.smartycenter.com/webservice/embed/9391/2730510/640/360/0/0/0/100/1/1" frameborder="0" allowfullscreen="true" webkitallowfullscreen="true" mozallowfullscreen="true" scrolling="no"></iframe>
    </figure><h3 class="article-text">&hellip; y obras de arte nuevas </h3><p class="article-text">
        Los de Nvidia no son los &uacute;nicos expertos preocupados por crear nuevas im&aacute;genes a partir de otras. El a&ntilde;o pasado, investigadores de la Universidad de Berkeley hicieron p&uacute;blico un <a href="https://www.researchgate.net/publication/322060135_Unpaired_Image-to-Image_Translation_Using_Cycle-Consistent_Adversarial_Networks" target="_blank" data-mrf-recirculation="links-noticia" class="link">sistema</a> capaz de convertir im&aacute;genes veraniegas en otras invernales cambiando tonalidades,<strong> caballos en cebras</strong> a&ntilde;adiendo las caracter&iacute;sticas rayas (un <a href="https://www.reddit.com/r/ProgrammerHumor/comments/86ggn7/classmate_tried_to_train_a_gan_to_turn_a_horse_to/" target="_blank" data-mrf-recirculation="links-noticia" class="link">usuario de Reddit</a> transform&oacute; a Putin en ese animal usando la ic&oacute;nica imagen del mandatario ruso sin camiseta a lomos de un corcel) o <strong>fotograf&iacute;as en cuadros con el estilo de Monet o Van Gogh.</strong>
    </p><p class="article-text">
        <span id="2730513_1527593085062"></span>
    </p><figure class="embed-container embed-container--type-embed ">
    
            <iframe id="2730513_1527593085062" width="640" height="360" src="//widget.smartycenter.com/webservice/embed/9391/2730513/640/360/0/0/0/100/1/1" frameborder="0" allowfullscreen="true" webkitallowfullscreen="true" mozallowfullscreen="true" scrolling="no"></iframe>
    </figure><p class="article-text">
        En realidad, los investigadores llevan tiempo haciendo que las m&aacute;quinas se interesen por el mundo del arte. En 2015, expertos de <a href="https://arxiv.org/pdf/1508.06576.pdf" target="_blank" data-mrf-recirculation="links-noticia" class="link">diferentes centros de investigaci&oacute;n</a> alemanes <strong>presentaron un sistema que</strong> consigue que una foto cualquiera imite el estilo de<em> La noche estrellada</em> de Van Gogh o <em>El grito</em> de Munch. Esos mismos investigadores han creado una herramienta, <a href="https://deepart.io/page/about/" target="_blank" data-mrf-recirculation="links-noticia" class="link">DeepArt</a>, para que nuestras propias im&aacute;genes o v&iacute;deos repliquen el estilo de distintas obras de arte.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/2164a1d0-6f99-40a1-824d-0dbb67a474d5_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/2164a1d0-6f99-40a1-824d-0dbb67a474d5_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/2164a1d0-6f99-40a1-824d-0dbb67a474d5_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/2164a1d0-6f99-40a1-824d-0dbb67a474d5_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/2164a1d0-6f99-40a1-824d-0dbb67a474d5_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/2164a1d0-6f99-40a1-824d-0dbb67a474d5_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/2164a1d0-6f99-40a1-824d-0dbb67a474d5_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        El a&ntilde;o pasado, expertos de Facebook y de la Universidad de Rutgers (Nueva Jersey) <a href="https://arxiv.org/abs/1706.07068" target="_blank" data-mrf-recirculation="links-noticia" class="link">desarrollaron</a> una m&aacute;quina a&uacute;n m&aacute;s creativa. En ese caso, el sistema se entren&oacute; con 81.500 pinturas de WikiArt para <a href="https://www.newscientist.com/article/2139184-artificially-intelligent-painters-invent-new-styles-of-art/" target="_blank" data-mrf-recirculation="links-noticia" class="link">diferenciar</a> obras de arte y hasta distinguir su estilo. Por si fuera poco, m&aacute;s all&aacute; de crear obras imitando los estilos anteriores, el sistema es capaz de 'pintar' cuadros m&aacute;s imaginativos que no responden exactamente a ninguno de los estilos existentes.
    </p><h3 class="article-text">La m&aacute;quina que crea nuevos niveles de Doom </h3><p class="article-text">
        <em>Doom </em>Adem&aacute;s de crear obras de arte, las GAN se est&aacute;n aplicando con incre&iacute;bles resultados incluso en el mundo de los videojuegos. Un grupo de expertos de la Universidad Polit&eacute;cnica de Mil&aacute;n acaba de publicar una t&eacute;cnica para<strong> crear nuevos niveles del m&iacute;tico Doom</strong><a href="https://arxiv.org/pdf/1804.09154.pdf" target="_blank" data-mrf-recirculation="links-noticia" class="link">crear nuevos niveles del m&iacute;tico Doom</a>. Tras estudiar 1.000 niveles oficiales del videojuego y otros 9.000 creados por la comunidad de jugadores, el sistema comenz&oacute; a crear pantallas m&aacute;s o menos cre&iacute;bles.
    </p><p class="article-text">
        <span id="2730516_1527593182443"></span>
    </p><figure class="embed-container embed-container--type-embed ">
    
            <iframe id="2730516_1527593182443" width="640" height="360" src="//widget.smartycenter.com/webservice/embed/9391/2730516/640/360/0/0/0/100/1/1" frameborder="0" allowfullscreen="true" webkitallowfullscreen="true" mozallowfullscreen="true" scrolling="no"></iframe>
    </figure><p class="article-text">
        Poco a poco, los algoritmos que aprenden de la realidad o de las<strong> obras humanas son cada vez m&aacute;s imaginativos </strong>y se vuelven capaces de crear desde v&iacute;deos falsos o rostros que no existen hasta obras de arte o videojuegos. Sin embargo, que sus resultados nos enga&ntilde;en cada vez mejor hace que algunos expertos est&eacute;n preocupados por saber c&oacute;mo podremos separar la realidad de esa ficci&oacute;n que crean sus mejorados trucos de 'magia'. 
    </p><p class="article-text">
        -------------
    </p><p class="article-text">
        Las im&aacute;genes son propiedad, por orden de aparici&oacute;n, de Nvidia, Orange Labs y DeepArt. 
    </p>]]></description>
      <dc:creator><![CDATA[Cristina Sánchez]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/hojaderouter/robots/realidad-ficcion-algoritmos-enganan-magia_1_2099395.html]]></guid>
      <pubDate><![CDATA[Tue, 29 May 2018 12:46:53 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/38bcd105-0083-4443-8e07-f7ed16846154_16-9-aspect-ratio_default_0.jpg" length="108803" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/38bcd105-0083-4443-8e07-f7ed16846154_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="108803" width="880" height="495"/>
      <media:title><![CDATA[¿Realidad o ficción? Inteligencia artificial que nos engaña como por arte de magia]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/38bcd105-0083-4443-8e07-f7ed16846154_16-9-aspect-ratio_default_0.jpg" width="880" height="495"/>
      <media:keywords><![CDATA[Inteligencia artificial,Reconocimiento facial,Redes neuronales,Machine learning]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Los robots que riman en euskera para mostrar cómo aprenden las máquinas]]></title>
      <link><![CDATA[https://www.eldiario.es/hojaderouter/robots/robots-euskera-mostrar-aprenden-maquinas_1_2235594.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/544646d3-aea1-4a27-99fd-82e936166cf2_16-9-aspect-ratio_default_0.jpg" width="880" height="495" alt="En la UPV desarrollan un proyecto para convertir a robots en versolaris"></p><div class="subtitles"><p class="subtitle">Investigadores de la Universidad del País Vasco emplean diferentes tecnologías para convertir a los robots en auténticos trovadores. Gracias al ‘machine learning’ aplicado al reconocimiento de voz y al procesamiento del lenguaje natural, a los sensores y al control del movimiento, han enseñado a las máquinas a subirse al escenario, acercarse al micrófono cuando les toca y cantar versos en euskera como los versolaris o improvisadores de rimas tradicionales vascos.</p></div><p class="article-text">
        <strong>Los versolaris o bertsolari son improvisadores que cantan versos (bertsos) en euskera</strong><a href="https://es.wikipedia.org/wiki/Versolari" target="_blank" data-mrf-recirculation="links-noticia" class="link">versolaris</a><em>bertsolari</em><em>bertsos</em>, siguiendo una melod&iacute;a y una rima e inventando las frases de acuerdo a un tema prefijado. Se trata de verdaderos artistas de la cultura y la tradici&oacute;n vascas que viven un renacimiento desde comienzos del siglo pasado y que, como sus predecesores m&aacute;s antiguos, contin&uacute;an demostrando su ingenio y el potencial de su voz en actos y festejos.
    </p><p class="article-text">
        Campeonatos y <em>bertso eskolas</em> fomentan entre los m&aacute;s j&oacute;venes esta forma de literatura oral cuya calidad, m&aacute;s all&aacute; de la rima y la m&eacute;trica, se mide en funci&oacute;n de su contenido y su valor po&eacute;tico. Dos aspectos en los que ponen especial cuidado los <strong>versolaris entrenados por investigadores del grupo de Rob&oacute;tica y Sistemas Aut&oacute;nomos de la Universidad del Pa&iacute;s Vasco</strong> (UPV). No pueden presumir de tener una voz angelical, pero s&iacute; de ser los &uacute;nicos robots en dedicarse a este arte popular.
    </p><p class="article-text">
        &ldquo;El objetivo del<strong> proyecto BertsoBot </strong><a href="http://www.sc.ehu.es/ccwrobot/seccion/home/lang/en" target="_blank" data-mrf-recirculation="links-noticia" class="link">proyecto BertsoBot</a>es mostrar de una forma amena al p&uacute;blico general los avances en campos como la visi&oacute;n por ordenador, el aprendizaje autom&aacute;tico y el procesamiento del lenguaje natural&rdquo;, explica a <a href="http://www.hojaderouter.com/" target="_blank" data-mrf-recirculation="links-noticia" class="link">HojaDeRouter.com</a> Basilio Sierra, l&iacute;der del grupo. Sierra y algunos colegas <a href="https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0191417" target="_blank" data-mrf-recirculation="links-noticia" class="link">han publicado</a> recientemente dos m&eacute;todos para clasificar m&uacute;sica de <em>bertsos</em> y generar nuevas melod&iacute;as, un estudio que compone otra pieza del puzle tecnol&oacute;gico que les permite <strong>&ldquo;poner a los robots a cantar versos&rdquo;</strong>.
    </p><p class="article-text">
        Pero no solo recitan: las m&aacute;quinas son capaces de <strong>levantarse de la silla sobre el escenario cuando les toca, acercarse al micr&oacute;fono sin rebasarlo, reconocer a la persona que le propone el tema</strong>, entender qu&eacute; le piden y entonar frases con sentido y que rimen.
    </p><p class="article-text">
        Los versos de un robot
    </p><p class="article-text">
        Los&nbsp;<em>bertsos</em> en euskera no son como los versos en castellano, sino que coinciden con la definici&oacute;n de estrofa. Seg&uacute;n Sierra, pueden emplearse diferentes m&eacute;todos para conseguir que los robots inventen este tipo de composiciones. La m&aacute;s sencilla (y la m&aacute;s utilizada) consiste en <strong>&ldquo;coger versos [frases] de distintos versolaris profesionales que rimen y, con un algoritmo, buscar aquellas rimas que, aunque pertenezcan a distintas estrofas o bertsos, son coherentes con el tema&rdquo;</strong><em>bertsos</em>, se&ntilde;ala el investigador.
    </p><p class="article-text">
        As&iacute; lo hacen los profesionales: improvisan en funci&oacute;n del tema que se les propone sobre el escenario. <strong>Los robots utilizan algoritmos de procesamiento del lenguaje natural para captar el significado del mensaje</strong>. A partir de &eacute;l, rastrean una extensa base de datos de textos en euskera para seleccionar las frases con una sem&aacute;ntica m&aacute;s parecida y coherentes con el tema. Seg&uacute;n Sierra, el proceso es muy similar al que realiza Google para devolverte los resultados de una b&uacute;squeda por palabras clave.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/335f4411-6788-40b3-bf97-7afbe6aff3aa_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/335f4411-6788-40b3-bf97-7afbe6aff3aa_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/335f4411-6788-40b3-bf97-7afbe6aff3aa_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/335f4411-6788-40b3-bf97-7afbe6aff3aa_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/335f4411-6788-40b3-bf97-7afbe6aff3aa_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/335f4411-6788-40b3-bf97-7afbe6aff3aa_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/335f4411-6788-40b3-bf97-7afbe6aff3aa_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        Adem&aacute;s, &ldquo;tenemos un <strong>verificador de rimas</strong> que selecciona varias frases dentro de un subconjunto&rdquo;, dice el ingeniero de la UPV. Entonces, si la m&aacute;quina debe componer una estrofa con cuatro versos, busca decenas de frases sobre el tema especificado y, entre ellas, selecciona las cuatro que mejor riman entre s&iacute;. &ldquo;Tambi&eacute;n tenemos un sistema que elabora la m&uacute;sica a partir de ese texto que genera el robot&rdquo;, a&ntilde;ade Sierra.
    </p><p class="article-text">
        Durante todo este proceso, <strong>los versolaris rob&oacute;ticos (suelen ser dos sobre el escenario) est&aacute;n conectados entre s&iacute; y a una especie de cerebro remoto a trav&eacute;s de internet</strong>. &ldquo;El procesamiento del lenguaje natural requiere una gran potencia de c&aacute;lculo que no se realiza en el robot, sino en un potente ordenador situado a distancia. Por eso necesitan conexi&oacute;n a la Red&rdquo;, advierte Sierra.
    </p><p class="article-text">
        Como los versolaris de carne y hueso, los de silicio cantan sus obras l&iacute;ricas gracias a <strong>un sintetizador de voz desarrollado por otro grupo de investigaci&oacute;n de la UPV</strong> (<a href="http://aholab.ehu.eus/aholab/" target="_blank" data-mrf-recirculation="links-noticia" class="link">AhoLab</a>). &ldquo;Dependiendo del tipo de verso, seleccionamos la m&uacute;sica a partir de un conjunto de melod&iacute;as que se utilizan en los <em>bertsos</em> y el texto es transmitido al sintetizador de voz que lo emite en forma de canci&oacute;n&rdquo;, describe el l&iacute;der del proyecto BertsoBot.
    </p><p class="article-text">
        Visi&oacute;n artificial para orientarse como los humanos
    </p><p class="article-text">
        Pero antes de cantar, el robot se levanta de la silla y reconoce tanto el micr&oacute;fono como a la persona o el robot que le propone los temas. Sus <strong>ojos artificiales</strong> son en realidad c&aacute;maras est&aacute;ndares de tipo <a href="https://es.wikipedia.org/wiki/RGB" target="_blank" data-mrf-recirculation="links-noticia" class="link">RGB-D</a> y otras encargadas de proporcionar informaci&oacute;n sobre la distancia a la que se encuentran los objetos, que identifica gracias al <em>machine learning</em>.
    </p><p class="article-text">
        <strong>&ldquo;Encaminan sus pasos hacia el micr&oacute;fono y, cuando ya est&aacute;n suficientemente cerca, se paran y esperan a que les digan el tema&rdquo;</strong>, explica Sierra. Mientras les hablan, miran a la cara de su interlocutor &mdash;ya sea un humano u otro robot&mdash;. &ldquo;Las t&eacute;cnicas de reconocimiento facial les permiten identificar a la persona que se dirige a ellos o a la que se est&aacute;n dirigiendo&rdquo; sobre el escenario. Despu&eacute;s de cantar, las m&aacute;quinas vuelven, diligentes, a su asiento.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/6f9ca714-30df-48e8-8d63-71e0269d68d1_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/6f9ca714-30df-48e8-8d63-71e0269d68d1_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/6f9ca714-30df-48e8-8d63-71e0269d68d1_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/6f9ca714-30df-48e8-8d63-71e0269d68d1_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/6f9ca714-30df-48e8-8d63-71e0269d68d1_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/6f9ca714-30df-48e8-8d63-71e0269d68d1_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/6f9ca714-30df-48e8-8d63-71e0269d68d1_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        &ldquo;Estamos trabajando para que la interacci&oacute;n sea cada vez m&aacute;s natural&rdquo;, se&ntilde;ala el investigador. Lo hacen a trav&eacute;s de otros proyectos, cuyos avances luego aplican para mejorar las habilidades de los BertsoBots. Actualmente, <strong>colaboran con la Universidad de Palermo para desarrollar di&aacute;logos cada vez m&aacute;s humanos</strong>, ense&ntilde;ando a las m&aacute;quinas a expresar emociones de acuerdo al sentido de sus palabras. &ldquo;El robot puede hablar de forma positiva, m&aacute;s triste o neutral, y gesticula seg&uacute;n lo que quiere transmitir&rdquo;, indica Sierra.
    </p><p class="article-text">
        Las m&aacute;quinas entienden las emociones en un texto a trav&eacute;s de lo que se conoce como <strong>sentiment analisis o an&aacute;lisis del sentimiento</strong><em>sentiment analisis</em>, una aplicaci&oacute;n del procesamiento del lenguaje natural basada en la detecci&oacute;n de patrones en los textos que indican su sentido positivo o negativo. Es la misma t&eacute;cnica que se emplea, por ejemplo, para estudiar las reacciones ante alg&uacute;n evento en Twitter.&nbsp;
    </p><p class="article-text">
        Una vez a&ntilde;adan estas nuevas capacidades a los robots versolaris, estos podr&aacute;n acompa&ntilde;ar sus simp&aacute;ticos cantos con movimientos que denoten alegr&iacute;a, enfado o tristeza en pr&oacute;ximas exhibiciones. <strong>Desde que el proyecto arranc&oacute;, all&aacute; por el 2010, sus responsables han organizado diferentes actos</strong><a href="https://www.youtube.com/watch?v=x8w4YuNY-Z0&amp;t=9s" target="_blank" data-mrf-recirculation="links-noticia" class="link">diferentes actos</a>, principalmente en el &aacute;mbito universitario, donde las m&aacute;quinas han estado acompa&ntilde;adas por improvisadores profesionales de carne y hueso.
    </p><p class="article-text">
        &ldquo;Hacemos muy pocos, porque prepararlos nos lleva mucho tiempo&rdquo;, asegura Sierra. Es necesario dise&ntilde;ar al detalle cada actuaci&oacute;n, comprobar que el sitio es el adecuado y aplicar todos los nuevos avances que el investigador y su equipo han conseguido en el tiempo transcurrido desde la anterior. Emplean, principalmente, <strong>dos tipos de robots humanoides:</strong> <a href="https://www.ald.softbankrobotics.com/en/robots/pepper" target="_blank" data-mrf-recirculation="links-noticia" class="link">Pepper</a> y <a href="https://www.ald.softbankrobotics.com/en/robots/nao" target="_blank" data-mrf-recirculation="links-noticia" class="link">NAO</a>, de apariencia similar, aunque un poco m&aacute;s peque&ntilde;o que el primero. Dos m&aacute;quinas convertidas en verdaderos emisarios de la cultura popular vasca gracias a la inteligencia artificial.
    </p><p class="article-text">
        &nbsp;&nbsp;--------------------------------------------------
    </p><p class="article-text">
        Las im&aacute;genes de este reportaje son cortes&iacute;a de la Universidad del Pa&iacute;s Vasco
    </p>]]></description>
      <dc:creator><![CDATA[Lucía Caballero]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/hojaderouter/robots/robots-euskera-mostrar-aprenden-maquinas_1_2235594.html]]></guid>
      <pubDate><![CDATA[Fri, 09 Mar 2018 13:36:44 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/544646d3-aea1-4a27-99fd-82e936166cf2_16-9-aspect-ratio_default_0.jpg" length="74687" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/544646d3-aea1-4a27-99fd-82e936166cf2_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="74687" width="880" height="495"/>
      <media:title><![CDATA[Los robots que riman en euskera para mostrar cómo aprenden las máquinas]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/544646d3-aea1-4a27-99fd-82e936166cf2_16-9-aspect-ratio_default_0.jpg" width="880" height="495"/>
      <media:keywords><![CDATA[Robots,Machine learning,Inteligencia artificial]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[AutoML, la máquina que crea otras máquinas inteligentes]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/automl-maquina-crea-maquinas-inteligentes_1_3091963.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/d9a81921-ac31-486a-a782-cb5726e4273e_16-9-aspect-ratio_default_0.jpg" width="880" height="495" alt="Robert Ford, a la izquierda, mientras Teddy Flood sostiene a Dolores Abernathy"></p><div class="subtitles"><p class="subtitle">El proyecto de Google crea, entrena y se mejora a sí mismo y también es capaz de mejorar otras redes neuronales ya existentes</p><p class="subtitle">Un ejemplo es NASNet, un modelo que ha conseguido clasificar e identificar objetos presentes en fotografías como nunca antes</p></div><p class="article-text">
        El concepto de la singularidad tecnol&oacute;gica no es nuevo. Lleva dando vueltas en el imaginario colectivo desde principios de los 60, si bien no fueron pocos los fil&oacute;sofos y los escritores que trataron el tema mucho antes. A grandes rasgos, presenta un hipot&eacute;tico momento futuro en el que las m&aacute;quinas ser&aacute;n capaces de mejorarse y actualizarse a s&iacute; mismas, una idea que ya exploraron <em>Her</em>, <em>Yo, Robot</em>, la saga <em>Terminator</em> o la <a href="http://www.eldiario.es/cultura/series/pistas-perderte-laberinto-Westworld_0_588291355.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">serie de televisi&oacute;n Westworld</a>. Especialmente esta &uacute;ltima explora el concepto de forma muy interesante y motivadora.
    </p><p class="article-text">
        La inteligencia artificial lo hace mejor que nosotros. <a href="http://www.eldiario.es/cultura/tecnologia/Maquinas-Humanos-inteligencia-artificial-poker_0_607540125.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Juega al p&oacute;ker</a> y al<a href="http://www.eldiario.es/cultura/tecnologia/importante-maquina-pueda-ganar-Go_0_493100959.html" target="_blank" data-mrf-recirculation="links-noticia" class="link"> Go</a>, juzga, <a href="http://www.eldiario.es/cultura/tecnologia/inteligencia-artificial-captcha-google_0_703779819.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">enga&ntilde;a al Captcha</a> y un sinf&iacute;n de cosas m&aacute;s. Un algoritmo de Google ya logra clasificar y etiquetar los elementos de las im&aacute;genes mejor que cualquier algoritmo antes conocido. La peculiaridad es que, mientras que todos los anteriores estaban hechos por humanos, <a href="https://research.googleblog.com/2017/11/automl-for-large-scale-image.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">este superalgoritmo</a> est&aacute; inventado por una m&aacute;quina. Se llama NASNet y acierta el 82,7% de los elementos de la fotograf&iacute;a, 1,2 puntos m&aacute;s que el segundo mejor.
    </p><p class="article-text">
        En mayo de este a&ntilde;o, <a href="https://research.googleblog.com/2017/05/using-machine-learning-to-explore.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Google present&oacute; AutoML</a>. Como su propio nombre indica, el proyecto pasa por hacer del aprendizaje autom&aacute;tico (<em>machine learning</em>, en ingl&eacute;s) el c&oacute;dice sagrado del que salga todo lo dem&aacute;s en el futuro. Son las m&aacute;quinas aprendi&eacute;ndose las unas a las otras, arregl&aacute;ndose, cre&aacute;ndose y ense&ntilde;&aacute;ndose a ser mejores cada minuto. La pregunta viene cuando nos planteamos si despu&eacute;s de haberse perfeccionado al m&aacute;ximo necesitar&aacute;n a los humanos para algo... o no.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/b9b47800-d688-441e-82ea-bfccdf5d3264_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/b9b47800-d688-441e-82ea-bfccdf5d3264_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/b9b47800-d688-441e-82ea-bfccdf5d3264_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/b9b47800-d688-441e-82ea-bfccdf5d3264_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/b9b47800-d688-441e-82ea-bfccdf5d3264_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/b9b47800-d688-441e-82ea-bfccdf5d3264_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/b9b47800-d688-441e-82ea-bfccdf5d3264_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><h3 class="article-text">Mejor que todo lo antes visto</h3><p class="article-text">
        AutoML cre&oacute; a NASNet como una red neuronal especializada en la identificaci&oacute;n y el reconocimiento de im&aacute;genes. Para entrenar a NASNet, Google ha utilizado las m&aacute;s de 60.000 im&aacute;genes de <a href="https://www.cs.toronto.edu/~kriz/cifar.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">CIFAR-10</a>, el proyecto de un exingeniero de la multinacional; Penn Treebank e ImageNet. Los tres son bancos de im&aacute;genes y en el caso de CIFAR-10, por ejemplo, cada foto consta de 32x32 p&iacute;xeles y est&aacute; dividida seg&uacute;n su clase: tractores, coches, p&aacute;jaros, gatos, ciervos, etc&eacute;tera.
    </p><p class="article-text">
        La alta nota cosechada por NASNet a la hora de identEificar fotograf&iacute;as hizo que Google la pusiera a detectar los elementos presentes en ella. En este caso, la combin&oacute; con una red neuronal convolucional, un tipo de redes especializada en la captura y la detecci&oacute;n de im&aacute;genes. &ldquo;Nuestro mejor modelo alcanza un 43,1%, lo que es un 4% mejor que los anteriores&rdquo;, <a href="https://research.googleblog.com/2017/11/automl-for-large-scale-image.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">explica Google en su blog oficial</a>. 
    </p><p class="article-text">
        Una de los ingenieros que se encuentra detr&aacute;s de AutoML es Jeff Dean. El empleado y cabeza pensante del proyecto ya ha reconocido en m&aacute;s de una ocasi&oacute;n que la dificultad y el alto grado de conocimientos necesarios para especializarse en inteligencia artificial dificulta el desarrollo. <a href="https://www.nytimes.com/2017/08/13/technology/artificial-intelligence-safety-training.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Seg&uacute;n The New York Times</a>, solo 10.000 personas en el mundo &ldquo;cuentan con la educaci&oacute;n, la experiencia y el talento necesarios para construir los complejos y a veces misteriosos algoritmos matem&aacute;ticos que dirijan esta nueva raza de inteligencia artificial&rdquo;.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/3d351c43-eeba-4734-bdd3-8123054627c3_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/3d351c43-eeba-4734-bdd3-8123054627c3_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/3d351c43-eeba-4734-bdd3-8123054627c3_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/3d351c43-eeba-4734-bdd3-8123054627c3_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/3d351c43-eeba-4734-bdd3-8123054627c3_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/3d351c43-eeba-4734-bdd3-8123054627c3_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/3d351c43-eeba-4734-bdd3-8123054627c3_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><h3 class="article-text">Pr&oacute;ximo objetivo: la singularizaci&oacute;n</h3><p class="article-text">
        El ingeniero de Google tambi&eacute;n considera que actualmente solo unas pocas miles de empresas en todo el mundo tienen la capacidad para desarrollar buenos sistemas de inteligencia artificial. Con AutoML, la multinacional quiere &ldquo;solucionar los problemas en <em>machine learning</em> de millones de empresas de todo el mundo&rdquo;, seg&uacute;n Dean.
    </p><p class="article-text">
        AutoML puede dise&ntilde;ar redes neuronales especializadas tan buenas como las dise&ntilde;adas por la mano humana. El modelo es un primor: crea, entrena y mejora sus propias arquitecturas de tal forma que no solo perfecciona sus pr&oacute;ximas creaciones; sino que tambi&eacute;n asigna probabilidades m&aacute;s altas a los espacios de la red neuronal que m&aacute;s hayan aprendido y probabilidades m&aacute;s bajas a los que menos. De esta forma sabe d&oacute;nde tiene que profundizar en las pr&oacute;ximas sesiones.
    </p><p class="article-text">
        Este proceso se repite &ldquo;miles de veces&rdquo; para crear &ldquo;nuevas arquitecturas, probarlas y darle <em>feedback</em> a AutoML para que aprenda de ellas&rdquo;. El sistema puede tomar decisiones para crear nuevas arquitecturas y &ldquo;pensar&rdquo;, de alguna forma, d&oacute;nde ha fallado y qu&eacute; tiene que mejorar en las siguientes simulaciones. Como en <em>Westworld</em>, cuando Robert Ford le dice a Dolores Abernathy la palabra &ldquo;an&aacute;lisis&rdquo; y el robot entra en el modo a prueba de fallos; pero sin Ford y sin orden previa. Tan solo con aprendizaje autom&aacute;tico e inteligencia artificial. Singularizaci&oacute;n.
    </p>]]></description>
      <dc:creator><![CDATA[David Sarabia]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/automl-maquina-crea-maquinas-inteligentes_1_3091963.html]]></guid>
      <pubDate><![CDATA[Mon, 06 Nov 2017 18:15:49 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/d9a81921-ac31-486a-a782-cb5726e4273e_16-9-aspect-ratio_default_0.jpg" length="35178" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/d9a81921-ac31-486a-a782-cb5726e4273e_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="35178" width="880" height="495"/>
      <media:title><![CDATA[AutoML, la máquina que crea otras máquinas inteligentes]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/d9a81921-ac31-486a-a782-cb5726e4273e_16-9-aspect-ratio_default_0.jpg" width="880" height="495"/>
      <media:keywords><![CDATA[Google,Inteligencia artificial,Machine learning]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[El robot más aterrador de Halloween cuenta historias de miedo vía Twitter]]></title>
      <link><![CDATA[https://www.eldiario.es/hojaderouter/inteligencia_artificial/terrorifico-halloween-espanol-historias-twitter_1_3105338.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/fe033863-76d4-4f95-8dbc-9950c5e04fa2_16-9-aspect-ratio_default_0.jpg" width="880" height="495" alt="Shalley, la inteligencia artificial creada por un español del MIT para aterrorizarnos a todos"></p><div class="subtitles"><p class="subtitle">El español Manuel Cebrián es uno de los creadores de Shelley, una inteligencia artificial nacida en el MIT que homenajea a la madre de Frankenstein de la mejor manera posible: inventa historias de terror en base a lo que va a aprendiendo de los relatos que escriben y comparten usuarios de Reddit.</p></div><p class="article-text">
        Es tiempo de recurrir a los <strong>cl&aacute;sicos del terror</strong>: se acercan d&iacute;as en los que lo apropiado es hacer un marat&oacute;n de <strong>pel&iacute;culas de miedo</strong> que incluya &lsquo;El exorcista&rsquo;, &lsquo;Pesadilla en Elm Street&rsquo; y &lsquo;Rec&rsquo; para luego hacer lo propio con algo de literatura. Sobrecogerse con el gato negro de Edgar Allan Poe, el payaso de Stephen King o el organista de <a href="http://www.cervantesvirtual.com/obra-visor/rimas-y-leyendas--0/html/00053dfc-82b2-11df-acc7-002185ce6064_5.html#I_10_" target="_blank" data-mrf-recirculation="links-noticia" class="link">una de las leyendas de B&eacute;cquer</a>&nbsp;es tan t&iacute;pico y t&eacute;trico como visitar un cementerio a comienzos de noviembre.
    </p><p class="article-text">
        Sin embargo, lo m&aacute;s terror&iacute;fico de este <strong>Halloween</strong> llega de la mano de unos relatos m&aacute;s bien futuristas, no tanto por sus argumentos como por su autor: <strong>un robot</strong>&nbsp;desarrollado por investigadores del Instituto Tecnol&oacute;gico de Massachusetts (MIT por sus siglas en ingl&eacute;s) <strong>ha aprendido a escribir historias de miedo</strong> y, cada hora, da comienzo a una nueva <a href="https://twitter.com/shelley_ai/with_replies" target="_blank" data-mrf-recirculation="links-noticia" class="link">desde su propia cuenta de Twitter</a>.
    </p><p class="article-text">
        <strong>&ldquo;Es el primer escritor colaborativo de terror de inteligencia artificial del mundo&rdquo;</strong>, explica uno de sus creadores, <a href="https://twitter.com/cebri4n" target="_blank" data-mrf-recirculation="links-noticia" class="link">el espa&ntilde;ol Manuel Cebri&aacute;n</a>, a <a href="http://www.hojaderouter.com" target="_blank" data-mrf-recirculation="links-noticia" class="link">HojaDeRouter.com</a>. Tras&nbsp;la compleja definici&oacute;n se encuentra <strong>Shelley</strong>, esta inteligencia artificial que homenajea a la madre de Frankenstein con una significativa peculiaridad: lo hace con la inestimable ayuda de sus seguidores.
    </p><p class="article-text">
        &ldquo;Lo que es &uacute;nico de Shelley es su aspecto colaborativo: <strong>despu&eacute;s de comenzar una nueva historia en Twitter, invita a la gente a continuar el relato</strong>&rdquo;, explica Cebri&aacute;n. Cada tuit de Shelley que sirve de pistoletazo de salida va&nbsp;seguido de&nbsp;un &ldquo;#yourturn&rdquo; (tu turno). Es el momento de que los tuiteros aficionados al terror recojan el testigo y den rienda suelta a su imaginaci&oacute;n.
    </p><p class="article-text">
        Pero&nbsp;ah&iacute; no acaba todo. Cuando un usuario decide concluir su aportaci&oacute;n con ese mismo &lsquo;hashtag&rsquo;, Shelley es capaz de retomar&nbsp;el hilo y continuar el relato. &ldquo;Podemos ser testigos de <strong>la creaci&oacute;n de la primera antolog&iacute;a de terror hecha entre humanos y la inteligencia artificial&rdquo;</strong>, anuncia el investigador espa&ntilde;ol.
    </p><blockquote class="twitter-tweet" data-lang="es"><a href="https://twitter.com/X/status/923317186365665280?ref_src=twsrc%5Etfw"></a></blockquote><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script><p class="article-text">
        <strong>Terror cre&iacute;ble</strong>
    </p><p class="article-text">
        A diferencia de&nbsp;los numerosos&nbsp;intentos m&aacute;s o menos fallidos de que una inteligencia artificial pinte, componga o incluso haga&nbsp;pel&iacute;culas como si fuera el ser humano m&aacute;s creativo del mundo, <strong>Shelley s&iacute; que es cre&iacute;ble</strong>. Quiz&aacute;s no llegue a merecer un Nobel de Literatura ni haga que Stephen King tema por su fama de maestro del terror, pero al menos los relatos de la sucesora rob&oacute;tica de Mary Shelley no son un destartalado conjunto de palabras sin sentido.
    </p><p class="article-text">
        &ldquo;Recuerdo su cara de horror y en ella hab&iacute;a agon&iacute;a y maldad. Yo estaba atrapado en esa cama de hospital&rdquo;. As&iacute;&nbsp;comenzaba Shelley uno de sus relatos, continuado por distintos seguidores que han vuelto a pedirle a la inteligencia artificial que siga relatando qu&eacute; sucede&nbsp;<a href="http://stories.shelley.ai/hospital/" target="_blank" data-mrf-recirculation="links-noticia" class="link">en esa habitaci&oacute;n de hospital</a> y qui&eacute;n es el terror&iacute;fico propietario de ese rostro poco amigable. Al igual que las ramas de un &aacute;rbol, <strong>cada relato iniciado por Shelley termina bifurc&aacute;ndose</strong> y teniendo tantas versiones como respuestas, <a href="http://stories.shelley.ai/" target="_blank" data-mrf-recirculation="links-noticia" class="link">recopiladas ahora en la web de la autora rob&oacute;tica</a>.
    </p><p class="article-text">
        En el momento de escribir estas l&iacute;neas y desde el pasado 23 de octubre,<strong> Shelley ha creado m&aacute;s de una treintena de relatos colaborativos de terror</strong> entre los que hay para todos los gustos: <a href="http://stories.shelley.ai/shadow/" target="_blank" data-mrf-recirculation="links-noticia" class="link">sombras</a>&nbsp;m&aacute;s oscuras que la propia oscuridad,&nbsp;<a href="http://stories.shelley.ai/car/" target="_blank" data-mrf-recirculation="links-noticia" class="link">visitas inesperadas en un coche</a> e incluso <a href="http://stories.shelley.ai/grandmother/" target="_blank" data-mrf-recirculation="links-noticia" class="link">monstruos invadiendo la casa de una abuela</a>. &ldquo;Esperamos que Shelley inspire a la gente a escribir historias de terror y que incluso invente subg&eacute;neros completamente nuevos que a&uacute;n no sabemos que existen&rdquo;, explica Cebri&aacute;n. <strong>&ldquo;La mente creativa de Shelley no tiene l&iacute;mites y todo es posible&rdquo;</strong>.
    </p><p class="article-text">
        Para lograrlo, el equipo del MIT del que forma parte el investigador espa&ntilde;ol ha recurrido a Reddit: <a href="https://www.reddit.com/r/nosleep/" target="_blank" data-mrf-recirculation="links-noticia" class="link">una de las comunidades&nbsp;de</a>&nbsp;la plataforma estadounidense est&aacute; dedicada a los relatos de terror, y all&iacute; los usuarios comparten sus propias historias. <strong>&ldquo;Shelley ha entrenado con m&aacute;s de 140.000 historias de terror</strong> del &lsquo;subreddit&rsquo; /nosleep y ahora puede escribir sus propios relatos a partir de una semilla aleatoria o un peque&ntilde;o fragmento de texto&rdquo;, narra Cebri&aacute;n.
    </p><blockquote class="twitter-tweet" data-lang="es"><a href="https://twitter.com/X/status/923467027624480768?ref_src=twsrc%5Etfw"></a></blockquote><script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script><p class="article-text">
        De hecho, el robot literato est&aacute; en constante aprendizaje. M&aacute;s all&aacute; de haber estudiado a fondo el g&eacute;nero a trav&eacute;s de Reddit, cada vez que un usuario de Twitter interact&uacute;a continuando una de las historias de terror, Shelley toma buena nota. <strong>&ldquo;Cuanta m&aacute;s colaboraci&oacute;n obtenga Shelley de las personas, m&aacute;s historias aterradoras escribir&aacute;&rdquo;</strong>, sentencia el investigador espa&ntilde;ol, <a href="http://web.media.mit.edu/~cebrian/" target="_blank" data-mrf-recirculation="links-noticia" class="link">doctor en ciencias de la computaci&oacute;n por la Universidad Aut&oacute;noma de Madrid</a>.
    </p><p class="article-text">
        &ldquo;Algunas son muy buenas, aunque como gran fan de escritores de terror creo que estamos muy lejos de llegar al nivel de los profesionales&rdquo;, advierte el propio Cebrian,&nbsp;atajando as&iacute; el eterno debate sobre si,<strong> alg&uacute;n d&iacute;a, una inteligencia artificial como Shelley ser&aacute; capaz de escribir mejores relatos</strong> y m&aacute;s terror&iacute;ficos que los de cualquier humano.
    </p><p class="article-text">
        En cualquier caso, no es el primer trabajo&nbsp;que Cebri&aacute;n y su grupo llevan a cabo&nbsp;en lo que tiene que ver con Halloween. &ldquo;Shelley es la continuaci&oacute;n de un proyecto que hicimos en el MIT que tuvo bastante &eacute;xito el a&ntilde;o pasado&rdquo;, cuenta el investigador. Se refiere a la&nbsp;<a href="http://nightmare.mit.edu/" target="_blank" data-mrf-recirculation="links-noticia" class="link"><strong>Nightmare Machine</strong></a>, creada para celebrar la terror&iacute;fica fecha a golpe de inteligencia artificial.&nbsp;En aquella ocasi&oacute;n, m&aacute;s visual que literaria, se trataba&nbsp;de<strong> un algoritmo capaz de convertir cualquier imagen, ya sea de un lugar o de un rostro</strong>, <a href="http://www.bbc.com/news/technology-37765384" target="_blank" data-mrf-recirculation="links-noticia" class="link">en una terror&iacute;fica escena capaz de asustarnos </a>gracias &ldquo;al &lsquo;deep learning&rsquo; y a esp&iacute;ritus malignos&rdquo;, tal y como explicaban sus creadores.
    </p><p class="article-text">
        Con distintos filtros, el equipo del MIT logr&oacute; que su algoritmo transformara lugares como el Coliseo romano o La Pedrera de Gaud&iacute; en verdaderos escenarios de una pel&iacute;cula apta para estas fechas.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/24fd78cf-bfdd-4ad5-912a-242cb46c8449_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/24fd78cf-bfdd-4ad5-912a-242cb46c8449_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/24fd78cf-bfdd-4ad5-912a-242cb46c8449_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/24fd78cf-bfdd-4ad5-912a-242cb46c8449_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/24fd78cf-bfdd-4ad5-912a-242cb46c8449_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/24fd78cf-bfdd-4ad5-912a-242cb46c8449_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/24fd78cf-bfdd-4ad5-912a-242cb46c8449_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        Todos aquellos que quieran interactuar con Shelley para crear terror&iacute;ficos relatos a trav&eacute;s de Twitter deben tener un par de&nbsp;cosas&nbsp;en cuenta: <strong>puedes responder con hasta 3 tuits en una misma historia</strong> y no olvidar incluir la etiqueta &lsquo;#yourturn&rsquo; si quieres que Shelley contin&uacute;e (o &lsquo;#theend&rsquo; para dar el relato por finalizado).
    </p><p class="article-text">
        No obstante, Shelley es bastante selecta y, por muy inteligencia artificial que sea, tiene un l&iacute;mite. As&iacute;, <strong>solo responde a&nbsp;los cien mensajes m&aacute;s populares de cada d&iacute;a</strong>, en base a los &lsquo;me gusta&rsquo; y los retuits conseguidos. &iquest;Te atreves a poner tu granito de arena en la creaci&oacute;n de una m&aacute;quina aterradora?&nbsp;
    </p><p class="article-text">
        --------------
    </p><p class="article-text">
        Las im&aacute;genes que aparecen en este art&iacute;culo son propiedad del grupo de investigaci&oacute;n de&nbsp;<a href="http://shelley.ai/" target="_blank" data-mrf-recirculation="links-noticia" class="link">Shelley</a>&nbsp;y&nbsp;<a href="http://nightmare.mit.edu/" target="_blank" data-mrf-recirculation="links-noticia" class="link">Nightmare Machine</a> en el MIT
    </p>]]></description>
      <dc:creator><![CDATA[Álvaro Hernández]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/hojaderouter/inteligencia_artificial/terrorifico-halloween-espanol-historias-twitter_1_3105338.html]]></guid>
      <pubDate><![CDATA[Thu, 26 Oct 2017 15:19:35 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/fe033863-76d4-4f95-8dbc-9950c5e04fa2_16-9-aspect-ratio_default_0.jpg" length="66091" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/fe033863-76d4-4f95-8dbc-9950c5e04fa2_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="66091" width="880" height="495"/>
      <media:title><![CDATA[El robot más aterrador de Halloween cuenta historias de miedo vía Twitter]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/fe033863-76d4-4f95-8dbc-9950c5e04fa2_16-9-aspect-ratio_default_0.jpg" width="880" height="495"/>
      <media:keywords><![CDATA[Robots,Machine learning,Halloween,MIT - Massachusets Institute of Technology,Inteligencia artificial]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[El 'machine learning': la fórmula secreta del robot de Google]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/machine-learning-formula-secreta-google_1_3475328.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/b66cc3f9-fa3a-4ff4-9717-1dd4f91aed02_16-9-aspect-ratio_default_0.jpg" width="880" height="495" alt="The magic in the machine"></p><div class="subtitles"><p class="subtitle">The magic in the machine</p><p class="subtitle">ha sido el primer evento de Google en nuestro país relacionado con el</p><p class="subtitle">machine learning</p><p class="subtitle">"Los ordenadores en algunas tareas son ya mucho más inteligentes y más capaces que los seres humanos", dice Jeremiah Harmsen, líder del Departamento de Investigación de Google en Europa</p></div><p class="article-text">
        &ldquo;Mientras que el <em>machine learning</em> trata sobre las herramientas, la inteligencia artificial trata, precisamente, sobre inteligencia&rdquo;. Jeremiah Harmsen, l&iacute;der del Departamento de Investigaci&oacute;n de Google en Europa pronunciaba esas palabras casi al inicio de su charla. &Eacute;l es la m&aacute;xima autoridad de la compa&ntilde;&iacute;a en nuestro continente relacionada con aprendizaje profundo, redes neuronales e inteligencia artificial.
    </p><p class="article-text">
        Google celebr&oacute; hace unos d&iacute;as su primer evento de <em>machine learning</em> en Espa&ntilde;a. <a href="https://espana.googleblog.com/2017/04/desvelamos-la-magia-detras-de-los.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Bajo el nombre The magic in the machine</a> (La magia en la m&aacute;quina), la multinacional prepar&oacute; una serie de conferencias para explicar c&oacute;mo aplica la inteligencia artificial a sus herramientas como Maps, Translate, Fotos, Gmail o las b&uacute;squedas por voz en Internet. Seg&uacute;n datos de la compa&ntilde;&iacute;a, un 25% del desarrollo de reconocimiento por voz que llevan a cabo se realiza en base al <em>deep learning</em>.
    </p><p class="article-text">
        Harmsen tambi&eacute;n dio una breve explicaci&oacute;n sobre c&oacute;mo funcionan las redes neuronales profundas, m&aacute;s relacionadas con la b&uacute;squeda de algoritmos que luego se utilizar&aacute;n en las diferentes aplicaciones Google. Puso como ejemplo dos fotos, una de un gato y la otra de un perro, e hizo la pregunta: &ldquo;&iquest;C&oacute;mo sabe el sistema que un gato es un gato y un perro es un perro?&rdquo;. Las redes neuronales funcionan a base de capas. Cada una de ellas hace un trabajo diferente para reconocer ciertos aspectos de la foto en cuesti&oacute;n, esto es, que cada nivel hace una cosa m&aacute;s compleja que el anterior.
    </p><p class="article-text">
        &ldquo;Para que el sistema sepa que esto es un perro, le ense&ntilde;amos fotos de perros&rdquo;, explicaba Harmsen. &ldquo;Si dice que esto es un perro pero en realidad no, tiene que entender que se ha equivocado&rdquo;. La red neuronal profunda tiene que ser lo suficientemente inteligente para saber que est&aacute; errando en base a la experiencia adquirida para que as&iacute;, la pr&oacute;xima vez, acierte en su resultado.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/3dd7abdc-5d6b-48a6-b626-b23685b9d99d_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/3dd7abdc-5d6b-48a6-b626-b23685b9d99d_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/3dd7abdc-5d6b-48a6-b626-b23685b9d99d_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/3dd7abdc-5d6b-48a6-b626-b23685b9d99d_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/3dd7abdc-5d6b-48a6-b626-b23685b9d99d_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/3dd7abdc-5d6b-48a6-b626-b23685b9d99d_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/3dd7abdc-5d6b-48a6-b626-b23685b9d99d_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><h3 class="article-text">Machine learning y redes neuronales</h3><p class="article-text">
        <em>Machine learning</em>Sin embargo, el desarrollador avisa de que &ldquo;estamos todav&iacute;a en los inicios del <em>machine learning</em>: incluso a nosotros, los expertos, nos cuesta pensar qu&eacute; va a haber en el futuro&rdquo;. Puso un ejemplo generacional para explicar lo que significa la tecnolog&iacute;a: &ldquo;Para nuestros abuelos habr&iacute;a sido totalmente inimaginable tener un el bolsillo un tel&eacute;fono que nos permite comunicarnos a trav&eacute;s de la voz y que a su vez, nos entiende&rdquo;, dijo refiri&eacute;ndose a los <em>smartphones</em>.
    </p><p class="article-text">
        Harmsen tambi&eacute;n habl&oacute; de c&oacute;mo el desarrollo del aprendizaje autom&aacute;tico, en un futuro pr&oacute;ximo, &ldquo;ir&aacute; de la mano con el desarrollo de algoritmos cada vez m&aacute;s potentes&rdquo;. El de Google puso otro ejemplo, esta vez relacionado con la sanidad, para ilustrar c&oacute;mo el uso de redes neuronales juega un papel clave en el desarrollo de las t&eacute;cnicas de diagn&oacute;stico. &ldquo;Es ah&iacute; donde es importante la figura del m&eacute;dico, que tambi&eacute;n ser&aacute; muy importante en el futuro, ya que la m&aacute;quina tiene que tener la posibilidad de poder decidir junto al criterio humano&rdquo;.
    </p><p class="article-text">
        Cuestionado sobre <a href="http://www.eldiario.es/cultura/tecnologia/dificil-maquina-juegue-poker-encima_0_600890225.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">el caso de Libratus</a> (la IA que gan&oacute; a cuatro profesionales jugando al p&oacute;ker) y <a href="http://www.eldiario.es/cultura/tecnologia/importante-maquina-pueda-ganar-Go_0_493100959.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">AlphaGo</a> (la m&aacute;quina que desarroll&oacute; DeepMind y que gan&oacute; al mejor jugador de Go de la &uacute;ltima d&eacute;cada, Lee Se-dol), Harmsen reconoci&oacute; que <strong>&ldquo;</strong>a d&iacute;a de hoy los ordenadores en algunas tareas son ya mucho m&aacute;s inteligentes y m&aacute;s capaces que los seres humanos&rdquo;.
    </p><p class="article-text">
        Sobre estas dos inteligencias artificiales, el de Google explicaba a eldiario.es que existen &ldquo;determinados juegos en los que se han generado sistemas que permiten que la capacidad de la m&aacute;quina est&eacute; ya la altura de la capacidad de los seres humanos&rdquo;. Tampoco neg&oacute; que ese tipo de IA cuestan &ldquo;much&iacute;simo esfuerzo, much&iacute;simo tiempo&rdquo;, aunque s&iacute; reconoc&iacute;a que a&uacute;n es dif&iacute;cil &ldquo;trasladar lo que existe en materia de un determinado juego como el ajedrez a otro &aacute;mbito de juego como pueda ser el Go&rdquo;.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/1c284a12-8c1f-42a9-a03d-dbd9b660618d_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/1c284a12-8c1f-42a9-a03d-dbd9b660618d_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/1c284a12-8c1f-42a9-a03d-dbd9b660618d_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/1c284a12-8c1f-42a9-a03d-dbd9b660618d_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/1c284a12-8c1f-42a9-a03d-dbd9b660618d_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/1c284a12-8c1f-42a9-a03d-dbd9b660618d_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/1c284a12-8c1f-42a9-a03d-dbd9b660618d_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        Despu&eacute;s de la presentaci&oacute;n de Harmsen <a href="http://www.eldiario.es/cultura/tecnologia/Google-canto-dientes-maquinas-tontas_0_630287290.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">intervino Sergio Guadarrama,</a> ingeniero de software de Google. Durante su ponencia present&oacute; <a href="https://www.tensorflow.org/" target="_blank" data-mrf-recirculation="links-noticia" class="link">TensorFlow</a>, la herramienta de c&oacute;digo abierto de <em>machine learning</em> en la que trabaja.
    </p><p class="article-text">
        A continuaci&oacute;n, varias empresas contaron su experiencia con la herramienta y se mostraron ejemplos pr&aacute;cticos, como el del japon&eacute;s Makoto Koike y su granja de pepinos (que utiliza <em>machine learning</em> para clasificarlos por tama&ntilde;os) o el del la ocean&oacute;grafa Amanda Hodgson. Ella pretende encontrar a todos los leones marinos de una zona determinada a partir de fotograf&iacute;as tomadas desde un aeroplano. Como los animales apenas se distinguen cuando est&aacute;n dentro del agua, Hodgson utiliza TensorFlow ense&ntilde;ando fotos de leones marinos a la herramienta, a los que despu&eacute;s detecta en las im&aacute;genes globales del oc&eacute;ano.
    </p>]]></description>
      <dc:creator><![CDATA[David Sarabia]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/machine-learning-formula-secreta-google_1_3475328.html]]></guid>
      <pubDate><![CDATA[Fri, 14 Apr 2017 17:22:13 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/b66cc3f9-fa3a-4ff4-9717-1dd4f91aed02_16-9-aspect-ratio_default_0.jpg" length="1466326" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/b66cc3f9-fa3a-4ff4-9717-1dd4f91aed02_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="1466326" width="880" height="495"/>
      <media:title><![CDATA[El 'machine learning': la fórmula secreta del robot de Google]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/b66cc3f9-fa3a-4ff4-9717-1dd4f91aed02_16-9-aspect-ratio_default_0.jpg" width="880" height="495"/>
      <media:keywords><![CDATA[Google,Machine learning]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[¿Móvil o pistola? El algoritmo que sabe lo que te traes entre manos]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/movil-pistola-algoritmo-traes-manos_1_3532848.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/2546b56a-38ea-4740-a92a-0ccb071088a5_16-9-aspect-ratio_default_0.jpg" width="880" height="495" alt="James Bond con una pistola"></p><div class="subtitles"><p class="subtitle">Tres investigadores de la Universidad de Granada han desarrollado una inteligencia artificial capaz de identificar armas de fuego en tiempo real</p><p class="subtitle">Ya ha contacto "al menos" una empresa con ellos</p></div><p class="article-text">
        Si una m&aacute;quina parece inteligente, entonces es inteligente. Para llegar a esta premisa, Alan Turing ide&oacute; un sencillo test al que llam&oacute; Juego de la Imitaci&oacute;n y que situaba a un hipot&eacute;tico juez frente a una m&aacute;quina y un&nbsp;ser humano. Si haciendo preguntas a ambos, el magistrado era incapaz de saber qui&eacute;n era qui&eacute;n, los ordenadores pensaban.&nbsp;La primera vez que se habl&oacute; del <a href="https://es.wikipedia.org/wiki/Test_de_Turing" target="_blank" data-mrf-recirculation="links-noticia" class="link">test de Turing</a>, en 1950, a&uacute;n faltaban seis a&ntilde;os para que el t&eacute;rmino 'Inteligencia Artificial' empezase a sonar fuerte y los avances en la materia consiguieran &ldquo;enga&ntilde;ar&rdquo; al juez.
    </p><p class="article-text">
        El test de Turing se qued&oacute; obsoleto el d&iacute;a que una m&aacute;quina consigui&oacute; parecer inteligente. La IA ya <a href="http://www.eldiario.es/cultura/tecnologia/pixelar-cara-salvara-reconocido_0_559244351.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">reconoce caras pixeladas</a>, juzga a las personas <a href="http://www.eldiario.es/cultura/tecnologia/software-juzga-personas-rasgos-faciales_0_592491070.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">seg&uacute;n sus rasgos faciales</a>, gana a los&nbsp;<a href="http://www.eldiario.es/cultura/tecnologia/dificil-maquina-juegue-poker-encima_0_600890225.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">humanos al p&oacute;ker</a>, <a href="http://www.eldiario.es/cultura/tecnologia/importante-maquina-pueda-ganar-Go_0_493100959.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">al Go</a>&nbsp;y en el pasado lo hizo al Jeopardy! Ahora, tres investigadores de la Universidad de Granada han conseguido desarrollar una&nbsp;tecnolog&iacute;a que identifica armas de fuego cortas en v&iacute;deos o pel&iacute;culas. Pronto lo har&aacute; tambi&eacute;n en tiempo real, en c&aacute;maras de seguridad de bancos, almacenes, garajes o cualquier sistema que utilice el v&iacute;deo.
    </p><p class="article-text">
        Francisco Herrera, Roberto Olmos y Siham Tabik han colgado <a href="https://arxiv.org/abs/1702.05147" target="_blank" data-mrf-recirculation="links-noticia" class="link">el estudio en arXiv</a>, un repositorio abierto de art&iacute;culos cient&iacute;ficos en Internet. All&iacute; explican c&oacute;mo, entrenando redes neuronales convolucionales, consiguieron desarrollar el algoritmo que se&ntilde;ala&nbsp;cu&aacute;ndo una pistola aparece en pantalla.
    </p><p class="article-text">
        Aunque en computaci&oacute;n existen muchos tipos diferentes de redes neuronales, las convolucionales se caracterizan por estar dise&ntilde;adas espec&iacute;ficamente para procesar im&aacute;genes a trav&eacute;s de los p&iacute;xeles.&nbsp;Gracias a ellas, los investigadores ganan tiempo y ahorran c&aacute;lculos a la hora de procesar grandes cantidades de informaci&oacute;n con buena calidad. &ldquo;Son modelos que intentan imitar al sistema nervioso o al cerebro, pero evidentemente est&aacute;n muy lejos de la complicidad. Aqu&iacute; lo que se ha obtenido son modelos que computacionalmente han conseguido minimizar el n&uacute;mero interno de par&aacute;metros para abordar problemas complejos&rdquo;, explica a eldiario.es Francisco Herrera, director del proyecto. Y es que ser&iacute;a pr&aacute;cticamente inabarcable hacerlo de otra forma.
    </p><p class="article-text">
        <span id="2109231_1489504071837"></span>
    </p><figure class="embed-container embed-container--type-embed ">
    
            <iframe id="2109231_1489504071837" width="643" height="362" src="http://widget.smartycenter.com/webservice/embed/9359/2109231/643/362/0/0/0/100/1/1" frameborder="0" allowfullscreen="true" webkitallowfullscreen="true" mozallowfullscreen="true" scrolling="no"></iframe>
    </figure><h3 class="article-text">&iquest;Llevas un arma? Al 96% s&iacute;</h3><p class="article-text">
        La idea&nbsp;surgi&oacute; en septiembre del a&ntilde;o pasado, mientras Olmos y Herrera&nbsp;(alumno de m&aacute;ster y profesor, respectivamente) charlaban sobre su proyecto final de curso. &ldquo;Me propuso este tema porque lo de llevar armas en M&eacute;xico es muy normal&rdquo;, explica el director. <a href="http://politikon.es/2012/07/24/ranking-de-paises-por-posesion-de-armas-de-fuego-y-su-relacion-con-la-violencia/" target="_blank" data-mrf-recirculation="links-noticia" class="link">Seg&uacute;n un estudio de Smalls Arms Survey</a>, en 2012 hab&iacute;a 15 armas de fuego por cada 100 habitantes en el pa&iacute;s centroamericano. Roberto Olmos no lo dijo por casualidad: &eacute;l es mexicano, solo que estaba en Granada gracias a una beca concedida por su&nbsp;universidad. &ldquo;As&iacute; fue como empezamos a discutir el tema para desarrollar un modelo que, primero, fuera capaz de distinguir o encontrar un arma en una imagen; y segundo, que detectara el arma en una secuencia de v&iacute;deos, lo que te obliga a ser computacionalmente &oacute;ptimo ya que tienes que detectar el arma en tiempo real&rdquo;, dice Herrera.
    </p><p class="article-text">
        La tercera integrante es Siham Tabik. Lleg&oacute; al grupo en octubre, contratada gracias a una beca Ram&oacute;n y Cajal dentro del Programa Estatal de Promoci&oacute;n del Talento y su Empleabilidad en I+D+i. Ella se ha encargado de la parte m&aacute;s t&eacute;cnica del estudio y ha subido <a href="https://github.com/SihamTabik/Pistol-Detection-in-Videos" target="_blank" data-mrf-recirculation="links-noticia" class="link">los resultados y varios v&iacute;deos a GitHub</a>, un repositorio de c&oacute;digo abierto. &ldquo;La idea es, en un espacio abierto o cerrado vigilado con un par de c&aacute;maras, nuestro sistema analiza el v&iacute;deo grabado por esas c&aacute;maras y detecta la presencia de una pistola con mucha precisi&oacute;n&rdquo;, explica.
    </p><p class="article-text">
        La tecnolog&iacute;a identifica el arma en el cuadro (o frame) exacto en el que se encuentre. Y para los que se lo est&eacute;n preguntando, no reconoce armas bajo la ropa, &ldquo;es algo que nos dejamos para el futuro&rdquo;, reconoce Tabik. Han aplicado el algoritmo en v&iacute;deos de baja calidad de YouTube. Tambi&eacute;n en pel&iacute;culas de finales de los 80 y principios de los 90 como <em>Pulp Fiction</em>, <em>Misi&oacute;n Imposible</em> o <em>James Bond</em>. &iquest;El resultado? &ldquo;El sistema consigue una precisi&oacute;n de hasta 96.51% dependiendo de la calidad del v&iacute;deo&rdquo;, afirma la investigadora.
    </p><p class="article-text">
        <span id="2109224_1489504005877"></span>
    </p><figure class="embed-container embed-container--type-embed ">
    
            <iframe id="2109224_1489504005877" width="643" height="362" src="http://widget.smartycenter.com/webservice/embed/9359/2109224/643/362/0/0/0/100/1/1" frameborder="0" allowfullscreen="true" webkitallowfullscreen="true" mozallowfullscreen="true" scrolling="no"></iframe>
    </figure><h3 class="article-text">La Polic&iacute;a no es tonta</h3><p class="article-text">
        En los v&iacute;deos se puede apreciar un cuadro rojo que contiene el arma de fuego junto a un n&uacute;mero, que es la precisi&oacute;n con la que el algoritmo est&aacute; &ldquo;viendo&rdquo; la pistola. Ellos lo llaman &ldquo;positivo verdadero&rdquo;, o lo que es lo mismo: una capacidad de acierto superior al&nbsp;50% de las veces.
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/c9bca2ca-f38c-400c-9fbb-ef2de501e45f_16-9-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/c9bca2ca-f38c-400c-9fbb-ef2de501e45f_16-9-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/c9bca2ca-f38c-400c-9fbb-ef2de501e45f_16-9-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/c9bca2ca-f38c-400c-9fbb-ef2de501e45f_16-9-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/c9bca2ca-f38c-400c-9fbb-ef2de501e45f_16-9-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/c9bca2ca-f38c-400c-9fbb-ef2de501e45f_16-9-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/c9bca2ca-f38c-400c-9fbb-ef2de501e45f_16-9-aspect-ratio_default_0.jpg"
                    alt=""
                >

            
            </picture>

            
            
            
                </figure><p class="article-text">
        Herrera explica que, de momento, barajan dos escenarios posibles en los que utilizar la tecnolog&iacute;a. El primero, &ldquo;para cualquier empresa que tenga c&aacute;maras de seguridad en cualquier recinto, susceptible de ser atacada por un arma&rdquo;. El granadino pone el ejemplo del atraco a un banco donde la c&aacute;mara de vigilancia detecte autom&aacute;ticamente &ldquo;que hay una o varias personas con una pistola en la mano&rdquo;.
    </p><p class="article-text">
        La segunda premisa est&aacute; relacionada con Internet, YouTube o cualquier plataforma que ofrezca v&iacute;deo en la Red. &ldquo;Imaginemos que queremos tener un filtro de seguridad para evitar que haya escenas con armas&rdquo;, dice. El sistema podr&iacute;a identificar d&oacute;nde est&aacute;n las armas y avisar para quitar la imagen o sustituirla por otra. &ldquo;Tener un sistema autom&aacute;tico que no requiera a una persona visualizando los v&iacute;deos, sino que directamente avise que&nbsp;tal v&iacute;deo que se ha subido al sistema tiene en tal segundo en tal escena, armas&rdquo;, dice.
    </p><p class="article-text">
        A los investigadores de la universidad de Granada ya les ha contactado una&nbsp;empresa relacionada con las Fuerzas y Cuerpos de Seguridad del Estado, pero se niegan a dar detalles hasta que no se concrete del todo. Adem&aacute;s, la idea de Herrera es extender la aplicaci&oacute;n del algoritmo para que tambi&eacute;n reconozca armas blancas, como cuchillos; y largas, como metralletas o escopetas. &ldquo;El objetivo es que en todo escenario donde t&uacute; tengas armas y tengas c&aacute;maras de seguridad puedas, en tiempo real, detectar el tipo de objeto que hay&rdquo;, concluye el director del proyecto.
    </p>]]></description>
      <dc:creator><![CDATA[David Sarabia]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/movil-pistola-algoritmo-traes-manos_1_3532848.html]]></guid>
      <pubDate><![CDATA[Tue, 14 Mar 2017 20:15:02 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/2546b56a-38ea-4740-a92a-0ccb071088a5_16-9-aspect-ratio_default_0.jpg" length="43511" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/2546b56a-38ea-4740-a92a-0ccb071088a5_16-9-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="43511" width="880" height="495"/>
      <media:title><![CDATA[¿Móvil o pistola? El algoritmo que sabe lo que te traes entre manos]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/2546b56a-38ea-4740-a92a-0ccb071088a5_16-9-aspect-ratio_default_0.jpg" width="880" height="495"/>
      <media:keywords><![CDATA[Inteligencia artificial,Machine learning]]></media:keywords>
    </item>
  </channel>
</rss>
