Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
Gobierno y PP reducen a un acuerdo mínimo en vivienda la Conferencia de Presidentes
Incertidumbre en los Altos del Golán mientras las tropas israelíes se adentran en Siria
Opinión - ¡Con los jueces hemos topado! Por Esther Palomera

El mayor problema de hoy es el abrigo blanco del Papa

Imágenes generadas por inteligencia artificial viralizadas en las redes en los últimos días
3 de abril de 2023 22:01 h

17

Unas 1.300 personas muy relevantes, entre ellas el pensador e historiador Yuval Harari o el magnate Elon Musk, han pedido una pausa al desarrollo de la Inteligencia Artificial (IA). Sería bueno que se les escuchara. 

Nos encontramos en un momento de disrupción tan brutal que al menos hemos de pararnos a pensar en ello. A debatirlo. La historia sólo nos enseña una cosa: que no se puede volver atrás. Un buen amigo llevó a cabo durante meses un experimento singular (y algo extravagante). Quería comprender el impacto que la música de los Beatles había causado realmente a los oídos de su época. Trató de olvidar todo lo que había escuchado hasta entonces. Intentó ponerse en los oídos de entonces y sentir lo que el público sintió. No lo logró. 

Algo similar intenta Emmanuel Carrère en El reino (entre otras cosas): comprender qué sintieron los coetáneos de Jesús de Nazaret al escuchar su discurso de igualdad radical de todos los seres humanos. ¿Qué impresión produjo en los desarrapados? ¿Cómo trastornó su visión del mundo y del emperador romano que los oprimía? ¿Qué pensaron los propios emperadores? (De esto hay algunos datos).Tampoco lo logró.

Los que tenemos cierta edad sabemos que el narcisismo estaba controlado antes de Instagram, y el odio estaba acotado antes de Twitter. Para nuestros hijos resulta imposible imaginarlo. Así son las disrupciones: cambian lo que somos, cómo vemos el mundo y cómo nos entendemos a nosotros mismos.

En algún momento del futuro alguien intentará imaginar la relación de los humanos de 2023, nosotros, con la biotecnología o la Inteligencia Artificial. Les será imposible. No podrán comprender la ansiedad que le genera a la profesora de secundaria saber que sus alumnos pueden presentar una redacción realizada por Chat GPT (y que el propio algoritmo podría corregir). No se pondrán en la piel del bancario de a pie, que contribuye a destruir su puesto de trabajo cuando manda a la gente al cajero automático, en lugar de atenderla. No sabrán cómo era el mundo antes de la convivencia con cíborgs; no podrán imaginarse qué se sentía cuando los seres inteligentes sólo podían fabricarlos otros seres vivos.

La irrupción de la IA produce emociones contradictorias. Algunos, sobre todo ingenieros, científicos y emprendedores tecnológicos, se sienten fascinados. Quienes ya pueden ver de cuerpo entero al robot o al algoritmo que les quitará el trabajo, como conductores y taxistas, sienten ira o pánico. A la mayoría nos genera una inquietud difusa, curiosidad, pero sobre todo desconcierto y desorientación.

En medio de esa zozobra, el manifiesto firmado por un millar de personalidades da en el clavo. Piden un alto el fuego en el desarrollo de la IA porque en este momento sólo sabemos que estamos yendo muy rápido hacia algún lugar, aunque no sabemos a cuál. E ignoramos las consecuencias para nuestra especie. Se trata sólo de parar un poco.

El propio creador del sistema ChatGPT, Sam Altman, ha advertido de que los laboratorios de IA están inmersos en una desenfrenada carrera por desplegar cerebros digitales. ¿Con qué propósito? El objetivo legítimo de las empresas es obtener beneficios, pero ¿a qué precio? Altman teme que ni siquiera los creadores de esas inteligencias artificiales puedan comprenderlas, controlarlas o predecir su comportamiento. 

En España, Ramón López de Mántaras, investigador del CSIC, es uno de los firmantes de la carta abierta. Hace unos días, en una entrevista con La Vanguardia declaraba: “Las falsedades de una Inteligencia Artificial ponen en peligro la democracia”. Este deterioro ya ha empezado. En 2016 el éxito del Brexit y el de Trump estuvieron marcados por la desinformación y la recopilación secreta de datos personales de más de 80 millones de personas. La implicación de una empresa como Cambridge Analytica, sólo ocupada en el lucrativo negocio, tuvo consecuencias enormes y de largo plazo. Una alta diplomática finlandesa me contaba hace unos meses que su país decidió votar el ingreso en la OTAN en el parlamento y no mediante referéndum para evitar que los bulos de Rusia interfirieran en el proceso. 

Si muchos trabajos están amenazados por la automatización, ¿no deberíamos hacer una pausa para que los gobernantes piensen cómo proteger, no los empleos, sino a las personas, antes de que eso degenere en un choque social inmanejable? Si las democracias pueden deteriorarse de forma irreversible, ¿no conviene dilucidar la forma de contrarrestar la desinformación antes de que nos ahogue? Se habla de que los datos son el petróleo del siglo XXI, pero si nos pertenecen ¿no tenemos derecho a controlar los procesos por los que se obtienen y a beneficiarnos de ellos?

Detener la carrera sin control de la IA durante un tiempo permitirá acordar sistemas de seguridad y regulación, que no dejen el desarrollo de la IA sólo en manos de las empresas. Hemos de garantizar que la IA no nos conduzca al desastre, al tiempo que despliega su potencial en beneficio del ser humano y para solucionar los problemas reales a que nos enfrentamos, como el colapso ecológico. Y hemos de hacerlo ya, antes de que la realidad y la ficción sean indistinguibles. Quizá dentro de unos meses, no podamos saber si los firmantes de un manifiesto como este, o su contrario, son reales o ficticios, como el abrigo blanco del Papa.

Etiquetas
stats