La inteligencia artificial ChatGPT reabre el debate de la tecnología en las aulas: “Podría ser el fin de los deberes”
La aparición de la inteligencia artificial ChatGPT ha puesto patas arriba el debate tecnológico. Especialistas en inteligencia artificial (IA) y usuarios testan sus capacidades para responder preguntas y seguir conversaciones, compartiendo sus textos más originales en redes sociales e imaginando cuál puede ser su potencial. Pero mientras esto ocurre, varias instituciones educativas alrededor del mundo han visto en ella una amenaza. Las escuelas de Nueva York, las de Los Ángeles o el grupo de las ocho principales universidades australianas han decidido vetar su uso a los alumnos, reabriendo una antigua controversia sobre la tecnología en las aulas.
Estas instituciones han visto en ChatGPT la trampa estudiantil definitiva. Una máquina que puede contestar en segundos cualquier pregunta que aparezca en un libro de texto, preparar un ensayo sobre Cervantes con formato de canción de rap o resolver problemas de álgebra avanzada. “Aunque la herramienta puede proporcionar respuestas rápidas y sencillas a las preguntas, no fomenta el pensamiento crítico ni la capacidad de resolver problemas, que son esenciales para el éxito académico y vital”, alega Jenna Lyle, portavoz del Departamento de Educación de Nueva York, el distrito con más alumnos de todo EEUU.
Su organismo afirma que la nueva inteligencia artificial representa una “preocupación por las repercusiones negativas en el aprendizaje de los alumnos así como por la seguridad y exactitud de los contenidos”, añadía en un comunicado en el que explicaba la decisión de vetar su uso en los centros. Sus homólogos de Los Ángeles habían tomado la misma decisión el 12 de noviembre, solo un día después del lanzamiento de esta inteligencia artificial.
Aunque la herramienta puede proporcionar respuestas rápidas y sencillas a las preguntas, no fomenta el pensamiento crítico ni la capacidad de resolver problemas, que son esenciales para el éxito académico y vital
Estas advertencias resaltan dos problemas importantes que tiene en este momento ChatGPT. El primero es que a veces se equivoca. Puede dar respuestas incorrectas, pero dado que lo hace con una argumentación de alto nivel, es muy difícil detectar sus errores si no se conoce de antemano el tema del que escribe la máquina. El otro es que no revela las fuentes de información que utiliza para contestar, lo que dificulta contrastar sus afirmaciones o profundizar en los puntos que resulten interesantes para el usuario.
Desde OpenAI, la fundación que lo desarrolló, no esconden estas limitaciones y recuerdan que es un sistema en pruebas. “ChatGPT es increíblemente limitado, pero lo suficientemente bueno en algunas cosas como para crear una engañosa impresión de grandeza”, reconocía en diciembre Sam Altman, su director ejecutivo. “Es un error confiar en él para algo importante en estos momentos. Es un adelanto de nuestro progreso, pero nos queda mucho trabajo por hacer en cuanto a solidez y veracidad”, añadía el responsable de OpenAI, una fundación sin ánimo de lucro cofundada por Elon Musk en 2015 para desarrollar sistemas de IA.
Las ocho principales universidades australianas también han decidido actuar tras detectar a algunos alumnos que estaban haciendo trabajos académicos con las respuestas de la inteligencia artificial. Su solución es “adelantarse” a la expansión del uso de ChatGPT entre los estudiantes volviendo al papel y boli.
“Nuestras universidades han revisado la forma en que llevarán a cabo las evaluaciones en 2023, incluyendo exámenes supervisados, un mayor uso de exámenes y pruebas de papel y bolígrafo”, ha declarado Matthew Brown, subdirector del grupo de coordinación que forman estas ocho instituciones: “El rediseño de la evaluación es fundamental, y este trabajo está en curso para nuestras universidades, ya que tratamos de adelantarnos a los desarrollos de IA”.
El Ministerio de Educación está analizándola
elDiario.es ha preguntado al Ministerio de Educación español por su posición en relación a ChatGPT. Fuentes del departamento que dirige Pilar Alegría han explicado que este “está analizando y estudiando la herramienta y sus implicaciones” junto al Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado.
Lo que parece claro es que ChatGPT puede tener un impacto en las aulas que no se veía desde el cisma de la Wikipedia. “A nivel educativo, algunos indican que una de las consecuencias que podría tener sería el fin de los deberes como tradicionalmente los conocemos porque la herramienta puede ayudar a los estudiantes a hacer las tareas. Otros plantean que en realidad esa ayuda antes venía de la familia o una academia (si podían permitírselo), y que ahora será una tecnología la que ayude”, resume María del Mar Sánchez, investigadora especializada en Tecnología Educativa y profesora de Didáctica y Organización Escolar de la Universidad de Murcia.
Lo que se pone en evidencia es que el modelo tradicional de deberes debería cambiar
“En todo caso, lo que se pone en evidencia es que el modelo tradicional de deberes debería cambiar”, reflexiona la experta: “Creo que lo que hacen estas tecnologías es poner sobre la mesa de forma ya ineludible la necesidad de plantearnos nuevas estrategias educativas. El reto para el sistema educativo será reflexionar acerca de cómo integrar estas herramientas, que cada vez tendrán más presencia en la sociedad. Esto implica plantear tareas diferentes, trabajar más en el aula, utilizar diversidad de medios y metodologías o desarrollar la evaluación continua de manera más efectiva”.
Sánchez destaca que la introducción de nuevas tecnologías en el aula debe tener en cuenta la edad de los estudiantes y conocer los principios pedagógicos fundamentales para ella, sin olvidar “la adicción y los riesgos de su mal uso”. “Pero prohibir las tecnologías, como se hace en algunos lugares, en un mundo digital no tiene sentido, ya que estaríamos negando la posibilidad de formarse en un aspecto básico de la sociedad actual, que es aprender a convivir con las tecnologías de forma saludable, desarrollar una identidad digital adecuada y superar la brecha digital”, destaca en conversación con este medio.
“Lo que cambia es la tecnología que permite el plagio”
Manuela Battaglini, abogada e investigadora especializada en ética digital, recuerda que el debate sobre las tecnologías que supuestamente van a echar por tierra el pensamiento crítico de los estudiantes es recurrente. “Esta tecnología y muchas más a lo largo de la historia, como Google Search, nos recuerdan (y parece que no queremos hacerles caso) que el aprendizaje no es una categoría ubicada en el cuadrante de lo meramente razonable, es mucho más que eso. Es la conjunción de muchas categorías. Aquí entran en acción el ChatGPT y la educación y los problemas de plagio y cero esfuerzo por parte de los alumnos. Pero ¿acaso el plagio en la educación no ha sido algo inherente a la misma? Lo que cambia es la tecnología que lo permite”, expone.
“Noam Chomsky se pregunta: ¿qué aprendemos de esta tecnología acerca del conocimiento, del razonamiento, de una lengua en particular, del componente básico de la cognición humana? Pues resulta que se han encontrado muchos defectos en estos modelos que pueden ser subsanados con más datos, más parámetros, con programación más inteligente, pero hay una simple y fundamental imperfección que nunca podrá ser subsanada a través de estos métodos, al contrario, es aumentada a través de los mismos: no nos dicen nada acerca del lenguaje, del pensamiento, de los fundamentos básicos de la cognición humana, o lo que significa ser humano”, afirma Battaglini.
“Creo que la situación nos está diciendo que nos centremos en lo que no pueden hacer estos modelos en el sector de la educación, entre otros muchos, y que empecemos a innovar y a cambiar los parámetros de la misma”, concluye.
En todo caso, puede que la polémica tenga un recorrido más corto que otras como la del uso de la Wikipedia. A raíz de la reacción de las escuelas de Nueva York, OpenAI ha decidido trabajar en una funcionalidad para que su inteligencia artificial sea capaz de detectar cuándo un texto ha sido redactado por ella. “No queremos que ChatGPT se utilice con fines engañosos en las escuelas ni en ningún otro sitio, así que ya estamos desarrollando mitigaciones para ayudar a cualquiera a identificar el texto generado por ese sistema”, ha adelantado uno de sus portavoces al Washington Post.
La aludida, por su parte, no toma partido. “ChatGPT es una herramienta de lenguaje desarrollada por OpenAl, y cómo se utilice en la educación dependerá del contexto y la manera en que se implemente. Puede ser útil para ayudar a los estudiantes a comprender mejor ciertos temas y conceptos, pero también puede ser utilizado de manera inapropiada. Es importante tener en cuenta que ChatGPT es solo una herramienta y su uso dependerá del usuario y el contexto en el que se utilice”, responde al ser preguntada por su impacto en la educación.
35