De la descarga cognitiva al colapso del conocimiento
Sabemos que el cerebro humano es maleable y por su plasticidad es capaz de renovarse en el transcurso de nuestras vidas, reconfigurándose constantemente, generando nuevas conexiones neuronales a partir de nuevas experiencias o por lesiones y circunstancias traumáticas. De ahí la importancia que cobra la práctica continua de nuevos y diferentes aprendizajes manteniendo la mente activa, sea cual sea la etapa de nuestras vidas. Pero el cerebro también puede reorganizarse de forma desadaptativa a raíz de enfermedades o mediante conductas patológicas, o bien, estilos de pensamiento derivados de estados de ansiedad o escenarios de sufrimiento.
Uno de los hechos que nos llama la atención es el calado que está adquiriendo la denominada “descarga cognitiva” y su derivada “pereza metacognitiva” en la mente humana, a raíz de nuestros comportamientos inmersos en el manejo de dispositivos tecnológicos de comunicación y el uso de aplicaciones de la Inteligencia Artificial. A lo largo de la historia de la humanidad, la inserción de recursos tecnológicos en las tareas de aprendizaje y en nuestras vidas siempre ha conllevado ciertos procesos de descarga cognitiva (cognitive offloading) mediante el traslado de operaciones mentales a soportes y artefactos externos, como cuando escribimos unas notas en un papel para recordar posteriormente, o cuando utilizamos calculadoras electrónicas para operaciones matemáticas. Lo inoperante es transferir aquello que deberíamos preservar para desarrollar competencias mentales esenciales o hacerlo sin conciencia de qué perdemos o ganamos en ello.
Pero la intensidad y la velocidad que se observan hoy en estas conductas con los recursos TIC afectan marcadamente a nuestra mente, posibilitando una atrofia cognitiva debida a un menor esfuerzo en el ejercicio de la memoria, en los procesos de razonamiento y la resolución de problemas. Lo cual también induce lo que se denomina “pereza metacognitiva”, a saber, la tendencia a evitar el coste de pensar sobre el propio pensar: eligiendo la respuesta o solución más cómoda en vez de activar estrategias de planificación y evaluación sobre un asunto.
Anita Feridouni planteaba en: “La mente en modo ‘bajo consumo’: ¿para qué pensar si la IA ya lo hace?” que la delegación sistemática de tareas cognitivas no solo amenaza nuestra autonomía y pensamiento crítico, sino que permite a la IA operar como una infraestructura que accede al inconsciente para condicionar el comportamiento. Sin esfuerzo cognitivo, la información no se integra; simplemente pasa.
Menciona en su artículo el interesantísimo estudio de Michael Gerlich, (publicado en Societies 2025) quien destaca que el riesgo no es que la tecnología piense por nosotros, sino que nos acostumbre a evitar el esfuerzo analítico necesario para evaluar la información de forma independiente y perdamos progresivamente nuestra capacidad de pensamiento crítico. Esta autora señala también de manera oportuna procedimientos para introducir fricciones deseables en el manejo de la IA y la necesidad de diversificar y confrontar la producción de conocimiento, frente a la tendencia de los algoritmos a homogeneizar el pensamiento.
En el campo donde transitan controversias extremas que duda en concebir argumentos sólidos sobre el uso equilibrado de los recursos de la IA y el papel autónomo y provechoso del pensamiento humano, nos encontramos con un reciente modelo analítico sorprendente y, a su vez, preocupante.
Daron Acemoglu, premio Nobel y economista del MIT, ha publicado hace poco, junto a Dingwen Kong y Asuman Ozdaglar, un artículo titulado “Inteligencia Artificial, Cognición Humana y Colapso del Conocimiento” en el que investigan cómo la IA generativa, y en particular la IA agentiva (un tipo de inteligencia artificial que funciona de forma independiente para diseñar, ejecutar y optimizar flujos de trabajo, lo que permite tomar decisiones con mayor eficacia), influye en los incentivos de aprendizaje humanos y en la evolución a largo plazo del ecosistema de información de la sociedad, y exponen un modelo analítico con una de las conclusiones más temibles sobre inteligencia artificial: Si la IA llega a ser lo suficientemente precisa, puede destruir por completo la capacidad de la civilización humana para generar nuevos conocimientos.
En palabras de los autores de este impresionante estudio: “El modelo pone de relieve una marcada tensión dinámica: si bien la IA agencial puede mejorar la calidad de las decisiones contemporáneas, también puede erosionar los incentivos de aprendizaje que sustentan el conocimiento colectivo a largo plazo. Cuando el esfuerzo humano es suficientemente elástico y las recomendaciones agenciales superan un umbral de precisión, la economía puede caer en un estado estacionario de colapso del conocimiento en el que el conocimiento general desaparece en última instancia, a pesar del asesoramiento personalizado de alta calidad.”
¿Qué ocurre cuando la IA provee respuestas personalizadas y precisas a todas las preguntas que, de otro modo, las personas tendrían que averiguar por sí mismas? Individualmente, cada persona sale beneficiada. Obtienen respuestas correctas más rápido. Pero dejan de realizar el trabajo cognitivo que sustenta la base de conocimiento colectivo.
El modelo demuestra la existencia, por un lado, de un estado constante de alto nivel de conocimiento donde el aprendizaje humano y la asistencia de la IA coexisten de forma productiva. Y un estado estacionario de “colapso del conocimiento”, donde el conocimiento humano colectivo ha desaparecido prácticamente por completo; los individuos aún reciben buenas recomendaciones personalizadas de IA, pero la infraestructura intelectual compartida que permite nuevos descubrimientos ha desaparecido. Y la transición entre ellas no es gradual.
Se trata de un efecto umbral. Por debajo de cierto nivel de precisión de la IA, la sociedad se mantiene en un equilibrio de alto conocimiento. Por encima de ese umbral, el sistema se desequilibra. Y una vez que se desequilibra, el “colapso de conocimiento” se retroalimenta. La capacidad colectiva de formular preguntas que nadie se ha planteado antes, de erigir marcos conceptuales que generan nuevos conocimientos, está desapareciendo silenciosamente. Nos convertimos en individualmente racionales, pero colectivamente catastróficos.