ChatGPT ha revolucionado la tecnología, pero todavía quedan muchas preguntas por resolver sobre el funcionamiento de esta herramienta y su futuro. Muchos se sorprenden al ver que la aplicación de OpenAI es capaz de copiar el lenguaje humano, pero realmente ¿su funcionamiento tiene algún parecido con la mente de las personas? Es la pregunta que han intentado responder dos investigadores de la Universidad de Cambridge.
Su objetivo era saber cómo ChatGPT maneja el conocimiento matemático: si simplemente repite información aprendida o si realmente puede llegar a razonar para llegar a nuevas soluciones. Sus resultados, recopilados en el estudio An exploration into the nature of ChatGPT’s mathematical knowledge, se han publicado recientemente y sugieren que la inteligencia artificial podría resolver problemas de una manera similar al razonamiento humano.
El problema matemático de la Antigua Grecia
Para el estudio, los investigadores usaron el famoso problema de Platón del diálogo Menón. En ese texto, Sócrates le muestra a un niño esclavo sin educación cómo duplicar el área de un cuadrado. Tras varios errores y preguntas, el joven llega a comprender cómo hacer el cálculo. Este experimento es central en la teoría socrática de la reminiscencia, que defiende que el conocimiento ya existe en la mente de las personas y puede extraerse mediante la enseñanza.
Cuando le plantearon el problema de cómo duplicar el área de un cuadrado, ChatGPT resolvió correctamente el cálculo, pero no de la forma “platónica” (a través de geometría), sino usando álgebra. Es decir, llegó la respuesta por otra vía. Al mencionarle el diálogo de Platón posteriormente, también fue capaz de explicar la solución geométrica.
Según los investigadores, este caso podría demostrar que la herramienta de inteligencia artificial generativa no solo repite lo que sabe (con datos que ya ha recibido y aprendido antes), sino que también podría ser capaz de razonar y generar soluciones nuevas combinando información previa.
Su propia “zona de desarrollo próximo”
Una de las aportaciones más interesantes del estudio es la introducción del concepto de zona de desarrollo próximo (ZDP) en la IA. Este concepto es del psicólogo ruso Lev Vygotsky, y se usa mucho en educación para definir el espacio que hay entre lo que una persona puede hacer sola y lo que puede conseguir con ayuda de alguien con más experiencia (como un profesor).
Según los investigadores, ChatGPT también podría tener su propia ZPD. Hay problemas que puede resolver por sí mismo (porque tiene información suficiente en su base de datos), y otros que no puede resolver hasta que el usuario lo guía a través de preguntas e indicaciones. De esta manera, el estudio concluye que los prompts que se le dan a la IA pueden influir decisivamente en la calidad y profundidad de sus respuestas.