Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Algoritmos sesgados y machistas: más educación contra los prejuicios de las máquinas inteligentes

La tecnología Big Data favorece prejuicios machistas o racistas

Marta Salguero

Zaragoza —

¿Acabará la inteligencia artificial por controlar al ser humano? Esta cuestión, que ha sido argumento de innumerables películas, fue planteada también en una jornada sobre Inteligencia Artificial y Democracia celebrada en la Universidad de Zaragoza. Allí, los ponentes intentaron desmitificarla, aunque alertaron de sus riesgos, pero en su justa medida.

En definitiva, defendieron la inteligencia artificial como una herramienta útil, lejos de la creencia de que las máquinas acabarán con la especie humana. Porque, en realidad, como quedó patente en este encuentro, la amenaza de la Inteligencia Artificial va por otro camino; tiene que ver más con los prejuicios sociales que con un apocalipsis final al estilo de las películas de Hollywood.

La tecnología Big Data utilizada por las grandes compañías favorece en ocasiones la discriminación debido a algoritmos sesgados. En el mundo digital, existen ejemplos de algoritmos que favorecen prejuicios machistas o racistas, porque ante todo buscan acertar con los resultados que muestran al usuario.

El catedrático de Lenguajes y Sistemas Informáticos de la Universidad de Zaragoza Francisco Serón, quien participó en este encuentro organizado por la Cátedra de Participación del Ayuntamiento de Zaragoza, afirma que algunos algoritmos contienen sesgos implícitos: “Por ejemplo, pueden establecer que interese más la opinión de un hombre que la de una mujer; esto ha pasado”.

Sostiene, además, que es algo que no se va a poder evitar porque el ámbito de la inteligencia artificial es global. La Unión Europea (UE) puede orientar la estrategia acorde a unos criterios éticos y legislar esta materia, pero ahora “díselo a otros países o a una empresa que quiera hacer dinero”. “Hay gente que no está dispuesta a pasar por ahí”.

Por ello, la educación se perfila como la única forma de poner freno a este impacto digital. Pero formar al usuario para que pueda interpretar los resultados que recibe no está en los planes educativos. Ni siquiera se está planteando, indica Serón. “En un mundo en el que los algoritmos impactan sobre nosotros, ¿tiene sentido formar juristas que no tengan ni idea de lo que es un algoritmo? Necesitamos formación para generar criterios”, precisa.

En esta línea insiste también el profesor de Derecho Constitucional de la Universidad de Granada Juan Francisco Sánchez. Aunque es una materia que excede al ámbito nacional de los países, y que se ha comenzado a regular a nivel europeo, también los estados miembros pueden adoptar decisiones.

“El problema es que en España tenemos un debate público débil, donde vemos el problema más inmediato sin pensar a varios años vista”, subraya. Y apunta que la decisión política en materia de Inteligencia Artificial que se podría adoptar en España, a nivel nacional y autonómico, es en el ámbito de la educación. “Es ahí donde tenemos que tomar la decisión más inmediata, formar ciudadanos que sean capaces de actuar de manera responsable en la sociedad digital donde estamos”, recalca.

Sobre todo, porque el denominador común en el binomio inteligencia artificial y democracia es la globalización. La Inteligencia Artificial se mueve en un ámbito global y, en este contexto, lo que haga la Unión Europea se sigue con interés.

“Si la UE fracasa, Google podrá entrar en el mercado europeo sin controles. Si la UE es fuerte, le puede poner límites a los motores de búsqueda de Google. Hay mucho interesado en que el proyecto europeo no salga”, puntualiza.

Etiquetas
stats