Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Timnit Gebru: “Me gustaría que fuera responsabilidad de las empresas demostrar que su tecnología no tiene efectos nocivos”

Timnit Gebru

María Sánchez Díez

0

Si los robots controlados por inteligencia artificial tienen de verdad alma y voluntad propia, Timnit Gebru (Adis Abeba, Etiopía, 1983) es sin duda la voz de su conciencia. En 2020, saltó a la fama tras ser despedida de Google, donde dirigía el equipo de ética de la inteligencia artificial. ¿La razón? Un artículo en el que, junto a sus compañeros, advertía ya de los peligros del desarrollo sin control ni regulación de la inteligencia artificial. Su despido causó una gran conmoción en Silicon Valley y la convirtió en la brújula moral de la industria. Como entonces, Timnit Gebru sostiene hoy que los grandes modelos lingüísticos de aprendizaje automático en los que se basan herramientas como ChatGPT están absorbiendo millones de textos de un internet donde imperan los puntos de vista racistas y misóginos. Más que emular la inteligencia humana, dice, estas herramientas no hacen sino regurgitar una visión del mundo sesgada que perpetúa y amplifica la injusticia y la discriminación. En estos momentos la científica está al frente de Distributed Artificial Intelligence Research Institute (DAIR), un centro de estudios que fundó para investigar los efectos perniciosos de esta disciplina. En esta conversación con elDiario.es, Gebru desgrana los peligros que ve en la actual fiebre de la inteligencia artificial y pide a la sociedad civil que reaccione.

Llevamos semanas hablando de ChatGTP y de Sydney, el chat de Microsoft que pareciera haber cobrado conciencia humana, etcétera. ¿Qué le gustaría que entendiera la gente que todavía no entiende bien las implicaciones de la inteligencia artificial (IA) sobre todo lo que está sucediendo?

No es necesario ser experto en tecnología para comprender cuándo algo es bueno y cuándo no. Ni tienes por qué saber cómo cocinar para saber cuándo algo sabe bien y cuándo no. Existe un factor de intimidación cuando la gente no sabe cómo funciona algo, pero deberían recordar que, si algo no les gusta, pueden criticarlo. A los propios investigadores, y especialmente a las corporaciones que se benefician de este tipo de sistemas, intencionalmente les gusta hacer como si el producto que presentan fuera algo que tiene una vida propia. Eso les permite evadir responsabilidades por los daños que causan. Pero la sociedad tiene que preguntarse si ha pedido esto. Ayer vi que una revista de ciencia ficción había cerrado su buzón de manuscritos de ficción porque estaba inundado de obras generadas por ChatGPT. ¿Hemos pedido ese tipo de mundo? ¿Queremos algo que escriba nuevos libros al azar basados en combinaciones del conjunto de los libros que ya existen? No lo creo. Hay cosas para las que se puede usar la tecnología subyacente, pero parece que lo que están tratando de construir es una especie de cosa divina que todo lo sabe. Y no funciona. No es necesario ser experto en tecnología para darte cuenta. 

Estos sistemas generan un volumen masivo de información que es la columna vertebral de la sociedad porque afecta a nuestras decisiones, a la visión que tenemos de la realidad y a la democracia

Ya en el artículo que hizo que la despidieran de Google sobre los peligros del desarrollo sin control ni regulación de la IA hablaba de procesos de rendición de cuentas. ¿Qué tipos de garantías le gustaría ver? 

Me gustaría que fuera responsabilidad de las empresas demostrar que su tecnología no tiene efectos nocivos. Cuando la gente produce alimentos, tiene que demostrarnos que no son venenosos o que no contienen ingredientes perjudiciales para las personas. Aquí estamos hablando de información, la columna vertebral de la sociedad. Como sucede con la forma de alimentarnos, impacta a todo lo que hacemos: afecta a nuestras decisiones y nuestra visión de la realidad; afecta a la democracia y cómo se comportan las personas. Cuando se crean sistemas que pueden generar tanta información a escala, debe probarse que no son dañinos. Pero ahora está sucediendo al revés: cada usuario tiene que demostrar los daños, e incluso entonces es bastante posible que no llegue a ninguna parte. Necesitamos que la responsabilidad recaiga sobre las corporaciones. Y ya estamos viendo muchos males. Hemos visto cómo los trabajadores que están involucrados en la creación de estos sistemas son explotados y también los problemas de salud mental a los que han de enfrentarse, y anticipo que veremos más consecuencias de este tipo, al igual que pasó con las redes sociales.

Cuando las empresas detrás de aplicaciones de inteligencia artificial o los propios medios retratamos estas herramientas como tecnología con vida propia, ¿estamos contribuyendo a empeorar el problema?

Piensa, por ejemplo, en el caso del arte y los modelos de texto a imagen. A estas máquinas les gusta memorizar los datos con los que se las entrena, y los escupen, algunas veces en ejercicios que son claramente plagios de otros artistas. Sin embargo, cuando hablas de un modelo informático como algo que está “inspirado”, como algo que tiene su propia vida, te estás olvidando de que hay una corporación detrás que, en primer lugar, está robando datos de los artistas sin su consentimiento o compensación, y luego lo empaqueta para su propio beneficio. La gente habla del modelo como si no hubiera nadie detrás. ¿Por qué no estamos hablando de los artistas? ¿Por qué no estamos hablando de las corporaciones y sus prácticas de recopilación de datos? Tampoco estamos hablando de los trabajadores que tienen que etiquetar imágenes horribles y filtrarlas. No estamos hablando de qué tipo de regulación se necesita para que estos sistemas sean seguros. Esa conversación no está teniendo lugar. La forma en que hablamos de este tipo de modelos, de si son conscientes o de si tienen su propia agencia, está diseñada para ocultar  deliberadamente todo lo que demuestran, que no es el caso. 

Recientemente, investigadores del instituto que usted dirige han publicado un trabajo sobre la explotación y la precariedad de los trabajadores encargados de entrenar a los modelos de inteligencia artificial. ¿Podría hablarnos un poco más sobre esa mano de obra invisible? 

Mucha gente está involucrada en construir este tipo de sistemas, a pesar de que se nos presenten como si fuesen magia. Las personas se ocultan a propósito, porque están siendo explotadas y constantemente vigiladas mientras hacen este trabajo. Existe todo un entramado de trabajadores 'fantasma' haciendo que la inteligencia artificial nos parezca inteligente. En condiciones precarias y con salarios que pueden llegar a alcanzar los 1,46 euros la hora, trabajadores localizados en ocasiones en lugares muy lejanos a Silicon Valley, como Venezuela o Bulgaria, realizan un trabajo mecánico a destajo como etiquetar y clasificar texto e imágenes para corregir y perfeccionar los algoritmos

La tecnología que construimos tiene que ayudar a los humanos, pero parece que lo que estamos intentando es sacar a los humanos de la ecuación. Solo están interesadas en automatizar todo y ganar la mayor cantidad de dinero posible al menor costo posible. Y ni siquiera logran prescindir de las personas: solo fingen que no existen. Los tratan como máquinas: apenas les pagan, no les dan beneficios, no tienen descansos. La cuestión a la que vuelvo una y otra vez es que cuando miramos estos sistemas deberíamos preguntarnos muy seriamente: exactamente, ¿qué está haciendo esto por nosotros? 

Llevas años advirtiendo de los peligros de la inteligencia artificial, de cómo difunde desinformación, perpetúa y refuerza el racismo y la misoginia... ¿Qué es lo que más le preocupa sobre la aplicación de inteligencia artificial a los motores de búsqueda como Google, de los que tantos de nosotros dependemos para encontrar información básica? 

Vamos a tener un motor de búsqueda que no te deja claro que hay diferentes puntos de vista, que no deja claro que hay personas detrás de esa información que estás obteniendo, que no te da la opción de que examines las diferentes fuentes para que decidas y pongas en contexto de dónde provienen las respuestas y hagas algún tipo de comprensión holística de la respuesta que estás buscando. ¿Qué pasa cuando la respuesta que recibes es completamente incorrecta y tomas decisiones basadas en ella? Queremos ir hacia sistemas que eduquen al público en que hay distintas formas de obtener información en lugar de fingir que tienes una respuesta para todos. Por otro lado, tengo la esperanza de que si se mueven en esa dirección, los problemas serán evidentes de forma inmediata y tal vez se les responsabilice más rápidamente. En Estados Unidos existe la Sección 230, que las plataformas han estado usando para evadir su responsabilidad sobre lo que se publica, diciendo: “Oh, no somos editores, simplemente estamos poniendo en nuestra plataforma lo que otros dicen”. Pero si simplemente escupes una respuesta basada en lo que haya en Internet, no sé si puedes seguir usando ese argumento. Es muy decepcionante lo rápido que la inteligencia artificial se ha extendido por todas partes. Nunca había visto algo así. Escribí mi artículo sobre los peligros de los modelos de lenguaje mientras estaba en Google, y eso fue hace unos dos años. Nadie sabía lo que eran en ese momento. Y ahora cada ser humano está hablando de ChatGPT, está en las noticias en todas partes. Desearía que hubiéramos podido hacer algo en ese período antes de que explotara así. Pero la seguridad siempre va por detrás. Como alguien dijo en Twitter: muévete rápido, rompe cosas, piensa después [referencia a uno de los lemas de Facebook en sus orígenes].

Estamos acostumbrados a adoptar tecnologías hasta el punto de que se vuelven invisibles, pero en realidad tienen un impacto notable en el medio ambiente. La nube, por ejemplo. ¿Podría hablarnos acerca de cómo estos modelos agravan la crisis climática? 

Herramientas como ChatGPT necesitan mucho cómputo. Y ese cálculo no ocurre solo, en el aire. Sucede en un centro de datos que requiere grandes cantidades de agua y de espacio, y que además afectan al entorno, pues generan emisiones de carbono. Luego, hay otro tipo de formas en que estos centros de datos afectan a las comunidades: el uso del agua o los árboles que se cortan para crear este centro de datos. La otra cosa es que las comunidades que se ven afectadas por los impactos negativos del medio ambiente, como las emisiones de carbono o el cambio climático, no son las mismas que las personas que se benefician de estos sistemas. También existe un ángulo de racismo ambiental y de justicia climática. Por un lado, tienes a un grupo de personas esparciendo apps que crean tantos desechos y consumen energía y, por otro, un grupo de personas que no se benefician de estas creaciones, sino que se ven perjudicadas por las consecuencias de la catástrofe climática. Veo a Sam Altman [el CEO de OpenAI, creador de ChatGPT] tuiteando cosas ridículas, como que tendremos inteligencia ilimitada y energía ilimitada antes del final de la década. ¿Cómo puede ser que esta gente diga esas cosas y mantenga su trabajo? No entiendo. A mí me despidieron de Google por un artículo que había sido revisado por pares, que era cuidadoso, que tenía todo tipo de referencias… Pero, ya sabes, ellos sí pueden hacer algo así. 

En el pasado, ha expresado su frustración con las distintas crisis que han generado los ejecutivos de Silicon Valley (la debacle de las criptomonedas es un ejemplo reciente). Estos fiascos, dice, impiden a investigadores como usted imaginar e implementar futuros tecnológicos que sean más equitativos y justos. ¿Podría hablarme de alguna iniciativa en la que esté pensando que le resulte esperanzadora o inspiradora? 

Una que me gusta se llama Internet para nuestros ancianos. ¿Cómo sería un internet que mi abuela, por ejemplo, hubiera disfrutado? Ella no hablaba inglés, no sabía leer ni escribir y vivía en Eritrea, que tiene una tasa de penetración de internet del 1%, con un control gubernamental que permite apagar la red cuando lo deseen. ¿Cómo habría sido para ella disponer de una red de internet que le hubiera dado alegría? Pensar en eso y hacerme esas preguntas me pone en un estado imaginativo más enérgico. Y, desde luego es más agradable que tener que luchar constantemente.

No es cierto que la regulación evite la innovación. Los legisladores están siendo presionados y sin leyes los productos serán inseguros

Del mismo modo que usted se encuentra desbordada y reaccionando a las nuevas dinámicas, los órganos legislativos y reguladores también parecen ir por detrás del progreso de las grandes empresas de Silicon Valley.

La velocidad de la proliferación [de la inteligencia artificial] me parece increíble. Y la única acción concertada que he visto ha sido de artistas, mientras que con otras cosas, como la privacidad de los datos o incluso el reconocimiento facial, sí ha habido un esfuerzo concertado de la sociedad civil. ¡Ni siquiera los periodistas pueden estar al día! Además, los legisladores están siendo sujetos a ‘lobbying’. Me irrita cuando la gente dice que la regulación evita la innovación. Para mí, cuando hablan de innovación lo que quieren decir realmente es la falta de responsabilidad. Es lo opuesto, hace que el campo de juego esté nivelado para que podamos pensar en el futuro en lugar de combatir incendios. A la gente no le queda espacio para innovar si están constantemente luchando contra la vigilancia y otro tipo de males. Ahora a OpenIA se le ocurre ChatGPT; luego va Microsoft con su motor de búsqueda; luego sale Google con otra cosa estúpida y luego Facebook, que también tiene que demostrar que está en el juego con Galactica… Si seguimos sin tener regulación, continuaremos en esa dañina carrera de productos inseguros, mientras que la regulación ralentiza a todos para que haya más seguridad.

*Esta entrevista ha sido editada y abreviada para mayor claridad.

Etiquetas
stats