Noticia servida automáticamente por la Agencia Europa Press

Experto dice que la inteligencia artificial puede “desideologizar y objetivar los debates públicos”

EP

SANTANDER —

0

Daniel Innerarity cree que “no tiene mucho sentido buscar soluciones tecnológicas a problemas políticos”

SANTANDER, 15 (EUROPA PRESS)

El catedrático de Filosofía Política, Daniel Innerarity, ha asegurado que la inteligencia artificial “puede contribuir a desideologizar y objetivar los debates públicos”, aunque advierte de que eso no significa que se vaya a cumplir el “sueño tecnocrático” de que vayan a desaparecer los debates.

“Siempre habrá diferencias entre lo que consideramos óptimo. Las máquinas optimizan pero no sirven para decidir lo que es óptimo”, ha añadido el experto, coordinador de la cátedra 'Inteligencia Artificial y Democracia' en el Instituto Universitario Europeo de Florencia, y para quien “no tiene mucho sentido buscar soluciones tecnológicas a problemas políticos”.

Así lo ha manifestado el también investigador de Ikerbasque y director del Instituto de Gobernanza Democrática de la Universidad del País Vasco este jueves en Santander, en una rueda de prensa junto al subdirector general de Actividad Universitaria Investigadora, Manuel González Bedia, con motivo de su participación en los cursos de verano de la Universidad Internacional Menéndez Pelayo.

Innerarity se ha mostrado “muy escéptico” y “crítico” con la idea de que la tecnología pueda “ahorrar” procesos de deliberación colectiva, que pueden apoyarse en la técnica pero requieren el uso de la palabra y de la comunicación, incluso física.

En la UIMP, donde ha disertados sobre 'El control de las máquinas y el control de los gobiernos', ha considerado que muchas partes del proceso político requieren y pueden verse mejoradas por la intervención de tecnologías, como por ejemplo el conocimiento de la realidad social -y “lo que la gente quiere”- o el impacto “real” de las acciones de gobierno, pero otras cuestiones no.

De este modo, aunque estas nuevas tecnologías pueden contribuir a “desideologizar un poco” y “objetivar” los debates públicos, el “sueño tecnocrático” de que finalmente se va a acabar con los debates y se va a poder hablar de cosas objetivas es eso, “un sueño”.

“Siempre habrá diferencias entre nosotros acerca de qué consideremos lo óptimo”, ha evidenciado Innerarity, para abundar en este sentido que las tecnologías “optimizan”, pero “no sirven para establecer lo óptimo”, que es precisamente el resultado de un debate propiamente político.

REFLEXIÓN ENTRE APOCALÍPTICOS E INTEGRADOS

“Este tipo de tecnologías tiene una función muy clara de implementación, pero la determinación de qué tipo de sociedad es óptima y a qué tipo de sociedad debemos ir es algo que no podemos confiar a los robots, que no lo van a hacer. Lo vamos a tener que hacer los seres humanos”, ha avisado el experto.

En su comparecencia ante los medios en la Menéndez Pelayo, en el marco del curso 'Repensando los fundamentos de la inteligencia artificial', el investigador y catedrático ha admitido que “el panorama se nos ha llenado de grandes expectativas de democratización”, como la 'primavera árabe', Internet como un instrumento aplicado a la vida pública o la posibilidad de desideologizar los debates.

Y, por otro lado, ha señalado que existe una literatura con “tintes apocalípticos” que apunta al “final de la democracia”, al plantear que “van a decidir máquinas” por nosotros o va a haber una “educación de robots”. “Siri va a votar por nosotros, o Alexa, lo cual no mejora mucho las cosas”, ha apostillado.

Pero en ese panorama, “entre apocalípticos e integrados”, Daniel Innerarity cree que “hace falta reflexión” acerca de hacia dónde va la inteligencia artificial, que a su juicio se encuentra en “un momento de clave encrucijada”, y también ver qué efectos va a tener sobre el sistema de gobierno, de forma pasiva y activa. En este sentido, ha reivindicado el papel de la filosofía como herramienta para “buscar un campo intermedio entre la tecnología y la ética”.

Entre tanto, cree que “el gran reemplazamiento” de robots no se va a producir, entre otras cosas porque a su juicio “en buena medida ya se da”. En línea con lo anterior, ha agregado que aunque la tecnología o inteligencia artificial parece “etérea e inmaterial”, en realidad “es mucho más material de lo que parece”.

Así, aunque “se habla de la nube”, todo eso está “lleno de cables” y existe una importante legislación detrás o un necesario consumo energético. Y también hay “granjas de clicks”, es decir, lugares donde trabaja gente haciendo 'clic' en enlaces.

Pero a su juicio esto no es una “deslaboralización” de la sociedad, toda vez que ya “estamos en un mundo donde está colaborando lo material y lo inmaterial”. Sobre esto, el experto ha reflexionado que hay oficios que una máquina o robot pueden hacer cada vez mejor, lo que permite a los humanos “dedicarnos a otras cosas”.

ECOSISTEMA HUMANOS-MÁQUINAS PARA EVITAR LOS TÍPICOS ERRORES

Con todo ello, y para finalizar, Innerarity ha considerado que todos debates acerca de la inteligencia artificial apuntan a la construcción de un “ecosistema humanos-máquinas” para evitar los “típicos errores” que comenten unos y otras.

Por su parte, el subdirector general de Actividad Universitaria Investigadora y director del curso también ha incidido en que es “bastante difícil” que las máquinas sustituyan a los hombres en muchas labores, porque la inteligencia artificial “no es una operativización de nuestra inteligencia, la forma de trabajo es radicalmente distinta y por eso es difícil que nos sustituyan”.

Para este experto en ingeniería informática, las “profecías” sobre destrucción de trabajo “no son a corto plazo posibles, ni en función de las capacidades tecnológicas que se están desarrollando”. De este modo, González Bedia ha destacado que los avances en inteligencia artificial se han desarrollado de forma muy diferente a lo predicho hace unas décadas.

“Las máquinas han aprendido muy bien la capacidad de abstracción”, pero en términos de percepción el aprendizaje es muy lento y no es eficiente y es más complicado “enseñarlas a abrir una puerta” que a resolver complejos logaritmos, ha comparado. Es decir, que para hacer cosas que los humanos realizamos “con bastante trivialidad” las máquinas precisan en cambio una cantidad de datos “enorme”, ha comparado para finalizar.