Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

¿Qué podría salir mal?

El cofundador de Open AI, Sam Altman, y consejero delegado de la empresa creadora del ChatGPT, durante un debate en el Foro Económico Mundial de Davos (Suiza) . EFE/EPA/GIAN EHRENZELLER (Archivo)
11 de diciembre de 2025 06:01 h

0

Los señores de la IA suelen hacerla en las reuniones con los inversores o en sus declaraciones públicas, mientras le guiñan un ojo a su jefe de prensa. ¿Qué puede salir mal si hacemos un nuevo modelo de IA más grande, pero menos probado? ¿Qué puede salir mal si invertimos cientos de miles de millones de dólares en centros de datos que consumen energía y agua como ciudades enteras? ¿Qué puede salir mal si delegamos decisiones críticas en sanidad, justicia o finanzas en sistemas opacos, muy limitados en sus capacidades de explicación? ¿Qué puede salir mal si monetizamos nuestros modelos de lenguaje como servicios pornográficos? 

Como escribió Baltasar Gracián, maestro del equilibrio y de la cautela: “El primer paso de la ignorancia es presumir de saber”, y de esto hacen gala muchos directivos que elevan la IA a los altares. El siguiente paso, y puede ser el último, es presumir de no saber, y una parte de la sociedad vive ya instalada ahí, en una ignorancia que se jacta de sí misma. Por eso hoy podemos leer que leer está sobrevalorado y quizás pensar que pensar también lo está. 

¿Qué puede salir mal? es una pregunta estéril si no tienes la menor intención de contestarla o te la igual la respuesta. “Con la inteligencia artificial estamos invocando al demonio”, advirtió Musk en 2014. El problema es que él y muchos como él es justo lo que quieren, que venga el demonio. Eso sí, su particular demonio. Mark Zuckerberg aplaudía el lema de su compañía: “move fast and break things”, cuando Facebook rompía muchas cosas. En este momento en EE. UU. hay demandas estatales y civiles contra Meta -antes Facebook- acusando a la compañía del diseño deliberado de algoritmos para maximizar el enganche de menores, ocultando incluso evidencias internas de daño psicológico. Si eso es cierto, y todo apunta a que sí, se han roto incluso vidas. 

Recuerdan aquella frase de Ian Malcolm, el matemático de Jurassic Park que estaba de vuelta de todo: “estaban tan ocupados preguntándose si podían que no se pararon a pensar si debían”. Les propongo que imaginen que los dinosaurios de la película son las inteligencias artificiales de hoy y que los hombres de negocios -siempre son hombres en estos casos- son ahora los señores que dirigen los gigantes tecnológicos. Como diría José María García, aquella moraleja se vuelve de rabiosa actualidad. 

Microsoft lanzó en 2016 a Tay, un bot conversacional diseñado para aprender de Twitter. Era un juguete comparado con los modelos grandes de lenguaje actuales. Sin embargo, en unas horas el sistema empezó a regurgitar mensajes racistas y misóginos en la red social, de modo que la empresa tuvo que desconectarlo y pedir disculpas públicas. ¿Qué podía salir mal?, seguro que pensó entonces la compañía fundada por Bill Gates. Aquel experimento fue fácil de reconducir, pero ya no es tan fácil cuando no se hacen experimentos sino despliegues masivos de servicios y productos que se quieren monetizar sin importar apenas las consecuencias ni los daños colaterales. El objetivo es liderar tecnológicamente el mundo y ganar dinero a espuertas. Más aún cuando se ha puesto mucho dinero en juego y todavía no han salido los grandes premios. Pero ya sabemos que los ludópatas siguen apostando pensando que cada apuesta fallida aumenta la probabilidad de que la próxima sea la buena. Es lo que se conoce como la falacia de Montecarlo.  

OpenAI defiende la “liberación gradual” como la vía más segura de llegar al público: iterar con usuarios, ampliar el acceso paso a paso y ajustar el sistema con realimentación desde el mundo real. La idea es tentadora, pero imagínese hacer lo mismo con cada nuevo medicamento que se desarrolle, saltándonos todas las fases de evaluación con seres humanos, de modo que pasemos directamente del laboratorio y la experimentación animal al paciente. Seríamos nosotros las ratas de laboratorio. Al fin y al cabo, ¿qué puede salir mal? podríamos pensar. Con la IA nosotros somos a menudo eso, las cobayas. Y si algo sale mal, no pasa nada porque las ratas de laboratorio no protestan, y quienes las estabulan tampoco. 

Sin embargo, son muchas las cosas que pueden salir mal. Un modelo capaz de generar lenguaje, código o imágenes puede equivocarse gravemente y crear un sinfín de mentiras. Puede crear programas aparentemente impecables con bugs internos muy difíciles de detectar, sobre todo si no se tiene la voluntad de hacerlo; pueden generar ultrafalsificaciones a golpe de clic y con ellas amplificar la desinformación, el fraude y el abuso a un coste marginal casi nulo; modelos entrenados con datos sesgados pueden reproducir y amplificar prejuicios raciales, de género o ideológicos con apariencia de objetividad matemática; la IA agéntica conectada al mundo real y sin el control adecuado puede ejecutar acciones capaces de colapsar infraestructuras digitales críticas. ¿Qué puede salir mal? Casi todo, si nos guiamos por el pensamiento ilusorio de que nada puede salir mal y además tenemos tantas prisas que la consigna es “tonto el último”. 

Por eso creo que deberíamos, también en esto, aplicar la prudencia que se ha ido asentando a lo largo de los siglos en nuestro refranero, curándonos en salud y buscando prevenir antes que lamentar. Ante aquello que tiene una capacidad potencial tan grande de impactar en nuestras vidas, en nuestra salud, en nuestros trabajos, en la forma en la que enseñamos y aprendemos, prefiero anteponer la venda antes que curar las heridas. No se trata de frenar la innovación, sino de verificar que su resultado no nos va a joder la vida a muchos. Incluso a la mayoría. Por eso tenemos que dejar de preguntarnos retóricamente qué puede salir mal, y preocuparnos de forma sincera y prudente de cómo garantizamos que no saldrá mal. 

¿Qué podría salir mal?, le dijo un besugo a otro al ver un gusano prendido de un anzuelo. 

Etiquetas
stats