Inteligencia Artificial: “Los humanos siempre iremos por delante de cualquier modelo computacional”

La inteligencia artificial ha llegado para quedarse en nuestras vidas, pero plantea diferentes cuestiones no solamente en el terreno ético sino también en su concepción. José Ángel Olivas es Doctor Honoris Causa de la Universidad de Castilla La Mancha, y experto en Inteligencia Artificial.

¿Qué es la inteligencia artificial? ¿Estamos haciendo un uso correcto del término?

La inteligencia artificial es la simulación, por medios computacionales, de comportamientos inteligentes o que consideramos inteligentes humanos, tanto en el sentido de actuar como pueden ser los robots, como de pensar principalmente en el sentido de inferir. Los humanos somos capaces de generar nuevo conocimiento a partir del existente de una forma sencilla, por ejemplo: si llueve y hace frío podemos inferir fácilmente que debemos abrigarnos y llevar un paraguas.  Por lo tanto, siendo fieles a la definición, podemos decir que no estamos haciendo un uso correcto de este término. En la sociedad nos referimos a inteligencia artificial con lo que respecta a modelos de análisis de datos más o menos avanzados y esto no es inteligencia artificial, es tratamiento estadístico de datos numéricos, pero no es inteligencia artificial en el sentido estricto y original en el que se propuso el término.

En España ¿En qué momento de la vida de la Inteligencia Artificial estamos? 

Estamos como en el resto de países, salvo en empresas punteras sobre todo del Silicon Valley y quizá de China o de algún país del que no tenemos suficiente información. España está haciendo una analítica un poco más avanzada de datos, pero no mucho más. Las empresas que realmente son punteras en IA están en Estados Unidos, como por ejemplo Google y todas las que tienen que ver con Meta.  Porqué están allí, básicamente porque para hacer la inteligencia artificial que se hace hoy en día, basada en datos, es necesario mucho dinero. Se requieren grandes capacidades de computación que suponen inversiones de miles de millones de euros para tener sistemas con las prestaciones necesarias como para analizar miles de millones de datos para sacar conclusiones. Esto es lo que sucede con el famoso chat GPT, un modelo Deep Learning que para ser entrenado requiere alta tecnología e inversión económica, al igual que en su momento también la necesitó Google. 

Parece que los datos lo son todo hoy en día. ¿Les damos demasiada importancia?

Sí, les damos demasiada importancia. Parece que todo lo que se basa en datos, todo lo que se apoyan en datos o cualquier decisión tomada a partir de datos es objetiva e irrefutable, y eso no es cierto. Los datos son muy importantes, sí, porque nos permiten describir la realidad, determinados fenómenos o contextos y tener indicaciones cuantitativas, sobre todo de lo que ocurrió en un determinado momento con un determinado fenómeno, por ejemplo: qué pasó con los últimos terremotos o las últimas lluvias, pero además de almacenar datos, debemos mejorar mucho en su tratamiento y en cómo aprovecharlos. 

Lo vemos en muchos sectores como la economía o la banca ¿puede la IA predecirlo todo? 

No, en absoluto. Se debe distinguir entre predecir, pronosticar, prescribir o estimar. En general lo que ocurre es que cuando un fenómeno sigue una tendencia es fácil llegar a una anticipación de lo que ocurrirá en el futuro.  Una de las obsesiones de los seres humanos es anticiparnos al futuro: saber cuándo me voy a morir, si va a llover mucho la semana que viene o si me van a conceder el crédito. Si un fenómeno sigue una tendencia, es decir, si la economía va subiendo a un ritmo regular o una acción bancaria, me refiero del ‘Stock Market’, lleva una tendencia sacamos conclusiones a futuro, lo mismo que con una cuidad, si Madrid en este momento tiene X habitantes en este punto, trazo una línea de tendencia y digo “en 2030 si se sigue esta tendencia Madrid tendrá esta población…”. Pero lo más importante es saber y poder detectar los puntos de inflexión, es decir, cuando va a haber una ruptura de aquella acción en la bolsa o cuando va a haber un punto de inflexión en la burbuja inmobiliaria o en cualquier fenómeno económico social. Lo que sucede es que estos puntos de inflexión se producen normalmente por causas humanas o sociales, por ejemplo: la guerra de Ucrania, un determinado atentado o que un petrolero se quede atravesado en el canal de Suez por la inexperiencia del piloto, obligando a los barcos a dar toda la vuelta a África. Un error humano que causó el caos mundial en la economía. Por lo tanto, cuidado porque estos puntos de inflexión son muy difíciles de pronosticar, de predecir o de anticiparnos a ellos. 

Teniendo en cuenta lo que acaba de explicar, ¿Cree que llegará un momento en el que los algoritmos puedan ser educados para hacer patrones de cualquier inflexión humana?

Personalmente, creo que no. Los humanos siempre iremos por delante de cualquier modelo computacional, es más, si los modelos avanzan nosotros nos adaptaremos, si los modelos de Inteligencia Artificial son capaces de entender lo que decimos o de procesar el lenguaje natural nosotros lo cambiaremos y hablaremos con metáforas o con ironía, porque los humanos somos mucho más inteligentes. No debemos olvidar que somos los que creamos la Inteligencia Artificial, por lo tanto, ahora los algoritmos son entrenados, no educados, a partir de datos o de ejemplos para identificar patrones que representan regularidades en el comportamiento. El término algoritmo, también mal utilizado, se emplea porque algoritmo es un método computacional, una parte de un programa, pero un programa computacional está compuesto de diversos algoritmos que trabajan juntos extrayendo y procesando datos e información en distintos pasos de un mismo proceso computacional. 

En un mundo utópico ¿Cuál debería ser la relación que tuvieran humanos e inteligencia artificial en favor de los primeros?

La inteligencia artificial siempre va a trabajar en favor de los humanos, aunque sea con fines perversos. Si se utiliza la inteligencia artificial para el armamento en una guerra la estaremos utilizando en nuestro favor y, por desgracia, en contra de quienes vaya a ser usada. La relación entre humanos e inteligencia artificial siempre es esta: los humanos diseñan programas más o menos inteligentes, y por lo tanto son los humanos los que siempre deben tener el poder absoluto sobre la IA. El uso que se le da a esa herramienta que se ha creado dependerá también de los humanos, de su ética. Si la Inteligencia artificial se emplea para llevar a cabo acciones “malas” la culpa la tendrá siempre su creador: el ser humano.

En relación a su respuesta, hay una frase que dice “el error es que creemos que la inteligencia artificial es inteligente” ¿Qué le dice a usted esta frase como experto?

Es una frase que me parece interesante. Yo creo que la inteligencia artificial no es inteligente, sino que es informática avanzada y lo que hacemos con ella es tratar de simular la inteligencia humana, pero ella en sí no es inteligente. La IA es una simulación computacional, un aprovechamiento computacional de algunas características de la inteligencia humana, pero ningún artefacto, ningún programa es inteligente en sí porque es un conjunto de líneas de código, un mecanismo matemático e ingenieril que no tiene nada de inteligente ni de biológico, ni nada que se pueda denominar inteligente en el sentido humano.

Parece que el alumnado está aplicando su inteligencia en nuevas fórmulas para “trabajar menos” ya que, aprovechando la IA pueden presentar un trabajo universitario casi hecho en su totalidad por una herramienta informática ¿puede cómo profesor detectar si un trabajo está hecho con IA? ¿Es este un uso correcto de la misma?

Voy a comenzar respondiendo por el final. La corrección o no del uso de la IA depende de los humanos y cada uno lo hará dentro de su universo ético. Es cierto que se puede presentar un trabajo universitario, un trabajo de secundaria, de primaria o de universidad, no casi, sino en su totalidad, hecho con IA, a través de la herramienta más extendida que es el chat GPT de la empresa de OpenAI. Este sistema está entrenado con miles de millones de datos de la Wikipedia, páginas web y de otros recursos y lo más interesante, desde mi punto de vista, es que tiene un generador de lenguaje natural que es capaz de expresar en palabras, de formas diferentes, todo lo que tiene en los datos. Es muy difícil detectar si un trabajo está hecho con inteligencia artificial, y en particular, con este con este sistema, pero ya se están desarrollando métodos que, pronto, van a permitir hacer esta detección.

¿Qué sistema es?

Se trata de un sistema que están creando Chelsea Finn y sus colaboradores para detectar si un pasaje o un trabajo está hecho con GPT.  Es una herramienta que, a través de métodos complejos puede detectar si ese texto se ha generado automáticamente o si lo ha escrito un humano. 

¿En qué sectores de la sociedad puede ser útil y positivo el uso de IA? ¿Hay alguno en el que no debiera ser empleada?

La Inteligencia Artificial se puede usar en todos los sectores porque es una herramienta de ayuda para los humanos, y va a ser inevitable que se termine aplicando en múltiples campos como la seguridad, la sanidad, o la economía. Todos los cambios que pueda aportar en beneficio del ser humano serán bienvenidos. No creo que haya algún sector de la sociedad en el que no debiera ser empleada, obviamente siempre de forma ética. En cualquier caso, no debería ser empleada para cualquier cosa que cause mal a los humanos o esté pensada con fines maléficos, como es obvio no debiera ser empleada para asesinar a personas, empeorar la vida o marginar a sectores de la población. 

Por último y como consejo de experto ¿Cuál debería ser el uso correcto de la Inteligencia artificial? 

El uso más correcto es aplicarla para todas aquellas cosas que beneficien a la sociedad. No es lo mismo usar inteligencia artificial para un juego de ordenador que para crear un sistema de piloto automático del que dependen las vidas de los pasajeros y tripulantes de un avión, estos últimos son sistemas mucho más críticos en los cuales se deben pedir más garantías y más seguridad tanto en su desarrollo como en su validación. Hay todo un argumentario y toda una rama de la inteligencia artificial que se dedica a la ética de la inteligencia artificial, por ejemplo: los métodos o algoritmos de inteligencia artificial no deben tener sesgos de sexo o de raza, y no deben estar intencionados a causar el mal. La Unión Europea tiene un decálogo, en el Libro Blanco, que recoge también los métodos en los que puede ser muy peligroso para los humanos el uso de la IA. Un decálogo que invito a conocer.