La ingeniera de 28 años que le explicó al rey cómo funciona la inteligencia artificial

A Nerea Luis (Madrid, 1991) aún le quedan unos días para cumplir los 29 años pero ya es una de las voces de referencia en los congresos tecnológicos españoles. Esta ingeniera informática, doctora cum laude en inteligencia artificial, ha sido condecorada con la Orden al Mérito Civil por su esfuerzo en la divulgación esta nueva área tecnológica y cómo hacer que sea justa, inclusiva y que no deje a nadie atrás. La distinción la coloca el rey en persona, aunque no es la única vez que la joven ha estado frente a Felipe VI: “A veces te invitan a coloquios que se hacen en distintos sitios, en el Ministerio, en El Pardo... un poco para escucharte. Ellos no participan de forma activa, simplemente quieren escuchar opiniones diferentes de distintas personas”, relata.

Luis atiende a eldiario.es en la presentación en España de Women Will, una iniciativa internacional de Google para reducir la brecha de género en tecnología, en la que imparte una charla sobre cómo formar comunidades más inclusivas. “En inteligencia artificial solo un 12% de los puestos técnicos están ocupados por mujeres”, recuerda, una cuestión que influye decisivamente en la presencia de sesgos en estos procesos de decisión automática.

El discurso en torno a la IA tiene dos posiciones opuestas: está la optimista, que no ve barreras en la capacidad de esta tecnología; y la que alerta sobre el potencial discriminatorio de sus algoritmos, que pueden llegar a ser armas de destrucción matemática. ¿Dónde está el término medio? armas de destrucción matemática

Con la inteligencia artificial siempre tenemos que tener en cuenta que trabaja en un contexto limitado. Cuando construyes un sistema de inteligencia artificial, lo haces para resolver un conjunto de funcionalidades concretas. Desde clasificar imágenes de perros y gatos hasta tomar decisiones sobre un crédito bancario o identificar personas en temas de seguridad en las calles. Pero sacarla de ese entorno concreto es muy difícil, es imposible que una inteligencia artificial generalice.

Como humanos, nosotros somos capaces de crear relaciones muy rápido en base a la experiencia y a un bagaje cultural, tanto el que nos han enseñado como el que aprendemos por el camino. En cambio todo eso a la inteligencia artificial hay que enseñárselo desde cero. Por ejemplo, un coche autónomo puede saber circular sin asistencia pero si quieres, no sé, enseñarle a hablar con el conductor por sí solo, tienes que construir otro sistema. Eso es lo que tenemos que tener claro.

Hay campos en los que la IA es muy precisa, como algunos campos de la medicina por ejemplo, en los que de repente se combinan las dos áreas y se potencia muchísimo la detección del cáncer. Pero claro, si tu sistema está especializado en detectar cáncer, no va a aprender a analizar una radiografía porque sí, tendrás que cambiar el modelo o volver a entrenarlo en un entorno nuevo.

Ese es un mensaje que a veces se nos olvida con todo el tema hollywoodiense. Al decir “inteligencia artificial” pensamos en un Terminator o en un Hal, que es capaz de contestarte a todo y adaptarse a cualquier situación, pero eso no es real. Creo que es importante que eso se conozca y divulgarlo.

¿Cuando se producen sesgos en un sistema de inteligencia artificial es porque la comunidad que lo ha diseñado no es lo suficientemente inclusiva?

Hay que tener en cuenta que en este sector hay un 12% de mujeres en puestos técnicos. Somos muy pocas y dependiendo de en qué área de inteligencia artificial, el porcentaje es incluso menor. La gran mayoría de los equipos son masculinos y eso puede derivar en sesgos, porque todos los tenemos. Por ejemplo, si estás trabajando con robots y todas las pruebas las haces con adultos, es posible que de repente te llegue un niño y tu sistema no le identifique como una persona con la que interactuar o alguien a quien no empujar.

Ese tipo de cosas influyen sobre todo en la evaluación del algoritmo. No puedes lanzar un sistema a lo loco, tienes que analizar su impacto y si va a afectar a personas, que funcione igual independientemente de su etnia por ejemplo. O de que sean pelirrojos, porque como hay muy pocas personas pelirrojas, suelen estar muy poco representados en las muestras y los sistemas biométricos funcionan peor con ellos. Hay que trabajar muchísimo en los ejemplos porque si todos los sistemas están entrenados con hombres y mujeres de raza blanca europeos o norteamericanos, estarás haciendo un producto tecnológico discriminatorio para todos los demás.

Luego está toda la parte de la transparencia: como usuarios tenemos que exigir que los sistemas que toman de decisiones críticas (ya sea porque te detienen o porque te dan un crédito o no te lo dan, o porque emplean reconocimiento facial) expliquen, como mínimo, cómo toma esa decisión su algoritmo. Eso cada vez se va a ver más porque se va a tener que legislar para proteger al usuario. Eso va a hacer también que la inteligencia artificial se retroalimente y que no vayamos solamente a escoger el algoritmo que mejor funciona, que es casi como nos movemos ahora, sino a ver qué algoritmo explica mejor luego la toma de decisiones. Un 50-50 entre explicabilidad y eficiencia del algoritmo.

¿Cómo se puede conseguir que la inteligencia artificial sea más inclusiva teniendo en cuenta la economía a escala radical que aplican las empresas tecnológicas, en la que Silicon Valley diseña y el resto del mundo usa?

Creo que poco a poco vamos a ir mejorando. Esto es una cosa que nos ha venido casi nueva, pero ahora ya tenemos muchos datos que medir y que intercambiar también, sobre todo a nivel de investigación. Antes no existía casi ninguna forma de evaluar unos sistemas contra otros. Ahora ya empieza a haber muchísimas cosas a ese nivel y se puede avanzar también en esa línea. Pero es verdad es que, de primeras, es muy difícil que tú tengas en cuenta todas estas cosas, porque te agobia, porque necesitas un sistema que te permita hacer un uso concreto, sin pensar las repercusiones que pueda tener en Japón. Ya cuando escalas es cuando tienes que tener en cuenta esto, y que el sistema sea objetivo en todos los contextos en los que va a actuar. Y siempre hay que preocuparse de tener un humano que te ayude a tomar las decisiones, porque nosotros todavía entendemos mejor el contexto que la máquina y eso es así.

¿La inteligencia artificial nos ha hecho darnos cuenta de lo complejas que somos las personas?

¡Claro! Nosotros tomamos muchísimas decisiones muy complejas a nivel lógico a lo largo del día, pero no somos conscientes de ello. Cuando trabajas en IA es muy fácil darse en cuenta de ello, programando incluso las cosas más básicas.

¿Qué le diría a esas personas que desconfían de la IA por el poder que confiere a las multinacionales digitales, tan cuestionadas hoy en día?

Yo pediría, sobre todo, calma. Cualquier persona que trabaja en inteligencia artificial al final está intentando generar un impacto positivo, ya sea en empresas grandes como en otras pequeñas, que ahora están más centradas en la parte del reconocimiento. Pero al final necesitamos a las grandes para poder, digamos, ejecutar todos estos algoritmos con más facilidad. Lo que pasaba antes, sobre todo en el mundo de la investigación, es que tenías que empezar siempre desde cero, mientras que ahora se puede externalizar muchos servicios que han implementado otras empresas, como Google en este caso, que te ofrecen una base para que tú añadas esa parte de conocimiento extra que tienes, lo que te permite avanzar mucho más rápido.

A las empresas, por ejemplo, les ha ayudado muchísimo para que casi cualquiera pueda implementar algo de inteligencia artificial. Eso es muy importante, porque si no tendríamos unas desventajas competitivas brutales. Pasa lo mismo con el mundo de la investigación, que yo he vivido dentro. Al no tener cloud [computación en la nube, un sistema en el que los ordenadores piensan en centros de datos externos, aumentando su potencia de cálculo] teníamos que comprar todas las máquinas donde ejecutábamos los experimentos.

Ahora nadie se lo plantea porque sabes que en dos años van a quedar desactualizadas. Lo que haces es contratar esos servicios y centrarte sólo en la parte del conocimiento, te puedes olvidar de la infraestructura. Que esto sea así facilita que más gente se vea capaz de entrar en este en este campo, mientras que antes veías todo lo que hay que montar y te sobrepasaba. Es más accesible.

¿Qué espera ver en la estrategia española de inteligencia artificial? [Promesa del Ejecutivo para esta legislatura] Promesa del Ejecutivo para esta legislatura

Espero ver muchas cosas relacionadas con la educación y con la mujer. Habrá, supongo, medidas concretas que afecten a temas de género, pero sobre todo me gustaría ver qué van a hacer en temas de educación, porque es algo que en los próximos años va a ser clave, tanto en cómo se va a instruir sobre inteligencia artificial en los colegios e institutos, como en qué va a pasar con toda esa brecha de edad entre los 40 y los 60, 65 años, toda esa gente que se va tener que reciclar en este tipo de competencias. ¿Cómo vamos a enseñarle inteligencia artificial a los adultos? Los niños son esponjas, pero un adulto ya tiene un montón de ideas preconcebidas y tienes que encontrar el canal para reconducirlo y que entienda el porqué de todo esto. Creo que eso va a ser algo que igual podemos hacer bien, porque también tenemos mucha empatía a nivel de país.

¿Qué tal va la Casa Real en inteligencia artificial?

[Ríe] Bueno, lo de la Casa Real fue más que nada por la condecoración por todo lo que había hecho a nivel de divulgación y en T3chFest y también de cara a visibilizar a la mujer en distintas iniciativas. Y nada, estuve con ellos en varios eventos de tema científico. Ellos a veces te invitan a coloquios que se hacen en distintos sitios, en el Ministerio, en El Pardo o donde sea, un poco para escucharte. Ellos no participan de forma activa, simplemente quieren escuchar opiniones diferentes de distintas personas.

En el caso en el que yo fui incluyeron a un colectivo más joven, porque a veces se habla de investigadores jóvenes pero luego todos rondan los cuarenta años. Hicieron uno de investigadores todavía más jóvenes, donde había otros investigadores y yo que estábamos rondando por los 25 - 30 años. La verdad es que este tipo de reuniones siempre se agradecen, sobre todo porque te abren conexiones a gente que lleva muchísimos años, en este caso en el mundo de la ciencia, y que cuenten contigo también en sus iniciativas.

¿Le explicó cómo funciona un sistema de inteligencia artificial al rey?

¡Más o menos! Hablé de inteligencia artificial y en general del mundo científico, de cómo lo veía. Recuerdo que además estaba el ministro Pedro Duque. Estuvo bien poder hablar con gente que toma muchas decisiones, sobre todo a nivel de gobierno. También había mucha gente del CSIC [Consejo Superior de Investigaciones Científicas], que es un órgano muy reconocido. Hablar con Francisco Mojica, que fue quien descubrió parte del CRISPR, una técnica de edición de ADN, y tratar temas de inteligencia artificial con él... no sé. Es ilusionante siendo tan joven.

Y al rey, ¿cómo le vio en estos temas?

Está bastante al día. Te sorprendería [ríe].

Una sociedad mal informada debilita la democracia

Ahora más que nunca se demuestra que la desinformación debilita la democracia y por eso son necesarios medios que te cuenten la verdad: la independencia de eldiario.es es posible porque somos rentables y no tenemos deudas. Solo nos financiamos con la publicidad y el apoyo de más de 35.000 socios y socias. Nuestro trabajo necesita de tu apoyo, y cuesta dinero.

Te necesitamos para seguir. Hazte socio. Hazte socia.

Más en eldiario.es

Más en eldiario.esUn investigador denuncia que Silicon Valley paga estudios sobre “la ética de la Inteligencia Artificial” para impedir su regulación

Artistas que usan inteligencia artificial para amplificar su creatividad: “No nos interesa reproducir cosas que ya están hechas”