Vivimos tiempos de disrupción. La irrupción masiva de herramientas de inteligencia artificial generativa, como ChatGPT, Perplexity o DeepSeek, ha sacudido los cimientos de la educación superior. De un día para otro, cualquier estudiante con acceso a Internet puede recurrir a un asistente capaz de redactar ensayos, resolver problemas matemáticos o resumir textos complejos en cuestión de segundos.
Ante esta nueva realidad, muchas universidades han reaccionado con preocupación: temen el plagio, la pérdida de esfuerzo académico y, sobre todo, la atrofia del pensamiento crítico, una competencia cada vez más decisiva en nuestras democracias liberales. En respuesta, algunos centros han prohibido el uso de estas herramientas o han vuelto a los exámenes en papel y formato oral como medida para prevenir el fraude académico. Pero ¿es esta estrategia prohibitiva realmente la solución más adecuada? ¿O estamos, sencillamente, intentando poner puertas al campo?
Desde nuestra experiencia como docentes e investigadores, proponemos un enfoque distinto: integrar la IA generativa en la universidad no para vetarla, sino para convertirla en una aliada del pensamiento crítico. En un estudio reciente publicado en RIED-Revista Iberoamericana de Educación a Distancia, analizamos los desafíos y oportunidades que plantea su incorporación en entornos universitarios. A través de entrevistas a expertos en educación superior, identificamos una idea transversal: la IA puede ser un arma de doble filo, pero con las medidas pedagógicas e institucionales adecuadas, es posible transformarla en una herramienta que potencie el aprendizaje profundo.
Entre atajo y aprendizaje: el dilema educativo que plantea la IA
Imaginemos un caso real: un estudiante universitario debe entregar un trabajo. En lugar de investigar y redactar durante semanas, decide pedirle a ChatGPT una respuesta bien articulada. El resultado es un texto correcto, incluso brillante a primera vista. Pero ¿dónde quedó el proceso de aprendizaje? Si ese estudiante se limita a copiar y pegar, ha perdido la oportunidad de reflexionar, de equivocarse y corregir, de estructurar sus ideas. Su calificación puede ser alta, pero su formación será frágil.
Este escenario pone en cuestión la validez de ciertos sistemas de evaluación, especialmente en la educación a distancia, donde el trabajo autónomo es la norma y los ensayos asincrónicos se han consolidado como herramienta principal de evaluación. En estos entornos, el desafío se agudiza: la intervención directa del docente es limitada y la tentación de delegar el proceso reflexivo en la IA es aún mayor. Sin embargo, culpar a ChatGPT por este riesgo sería como responsabilizar a la calculadora de que alguien no sepa sumar. El problema no reside en la herramienta, sino en el modo en que se utiliza.
Bien empleado, el mismo chatbot puede dejar de ser una amenaza para convertirse en un aliado del aprendizaje. Puede desbloquear la temida hoja en blanco con ideas iniciales, ayudar a perfeccionar borradores, ofrecer explicaciones complementarias sobre conceptos complejos o generar contraejemplos que inviten al análisis crítico. Un estudiante curioso podría incluso preguntarle por qué una respuesta es válida o solicitar fuentes para contrastarla (aunque conviene ser cautos: la IA puede inventar referencias, en lo que se conoce como “alucinaciones estocásticas”).
No es la herramienta lo que marca la diferencia, sino el uso que se hace de ella. El impacto de la IA en el aula depende del contexto, de la intención pedagógica y del acompañamiento docente.
Cómo enseñamos a pensar con ella: hacia una alfabetización crítica en IA
Cuando apareció Wikipedia, hace ya dos décadas, también cundió el pánico: “los estudiantes copiarán respuestas sin contrastar”, se decía. Pero pronto comprendimos que la solución no era bloquear el acceso, sino enseñar a usarla con criterio: verificar fuentes, contrastar la información y complementarla con materiales académicos. Estrategias como el learning by comparing ayudaron a desarrollar el pensamiento crítico, permitiendo que el alumnado aprendiera a distinguir entre lo confiable y lo cuestionable. Parafraseando a Newton, la web nos permitió “subir a hombros de gigantes”.
Con la IA generativa estamos ante un punto similar, pero a una escala mucho mayor. Su capacidad de uso transversal, su versatilidad funcional y su ritmo de adopción exponencial la convierten en un fenómeno disruptivo sin precedentes.
Prohibir su uso en la universidad no solo es ineficaz, sino también injusto. Ineficaz, porque quienes dominan mejor la tecnología seguirán utilizándola fuera del control institucional, ampliando la brecha con quienes no lo hacen. Injusto, porque estaríamos negando una herramienta potencialmente transformadora a quienes más la necesitan: estudiantes con menos tiempo, con mayores dificultades en la redacción, o con necesidades de apoyo específicas.
En esta era de ChatGPT, el reto no es atrincherarse ni prohibir lo inevitable, sino asumir que estas tecnologías ya forman parte del presente (y lo serán aún más del futuro profesional de nuestro alumnado). La universidad no puede limitarse a ignorarlas: debe prepararlos para convivir con ellas, para usarlas con criterio, ética y creatividad. El verdadero desafío es repensar cómo enseñamos, cómo evaluamos y cómo acompañamos el aprendizaje para seguir formando ciudadanos capaces de pensar por sí mismos en un mundo automatizado.
Enfrentar este desafío exige más que ajustes superficiales: implica repensar a fondo tanto los enfoques pedagógicos como los modelos de organización académica. A partir de nuestra investigación publicada en RIED, proponemos cinco líneas de acción concretas que pueden orientar este proceso de transformación.
1.- Establecer reglas claras sobre el uso de la IA
Al igual que existen normas contra el plagio, se necesitan directrices que delimiten cuándo usar IA es parte del aprendizaje y cuándo constituye una infracción. Consultarla para inspirarse puede ser válido; entregar un trabajo hecho íntegramente por IA, sin declararlo, no lo es. Algunas universidades ya exigen a sus estudiantes informar si usaron IA y cómo. La transparencia favorece tanto a docentes como a estudiantes.
2.- Formar al profesorado en IA y nuevas metodologías
Muchos docentes se sienten superados por estas tecnologías. Es clave ofrecer formación continua, no solo técnica, sino también ética y pedagógica. Un profesorado capacitado puede diseñar actividades que promuevan un uso crítico de la IA, evitando que el alumnado delegue su aprendizaje en el algoritmo. También podrá detectar cuándo hay una desconexión entre lo que el estudiante entrega y lo que realmente comprende. Esto favorece entornos con mayor trazabilidad del aprendizaje y fortalece el pensamiento crítico en la comunidad universitaria.
3.- Alfabetizar al alumnado en el uso crítico de la IA
No se trata de demonizar la IA, sino de aprender a usarla con criterio. ChatGPT puede funcionar como biblioteca o simulador, pero no es infalible. Por eso, deben incluirse en los planes de estudio talleres que enseñen a interactuar con IA de forma crítica: formular buenos prompts, verificar fuentes, detectar sesgos y conocer sus principios básicos. Un estudiante de historia puede contrastar un resumen generado por IA con su manual; uno de informática, revisar y depurar código para comprenderlo. Estas prácticas fortalecen el pensamiento crítico: cuestionar, matizar y no aceptar sin más la primera respuesta.
4.- Repensar la evaluación universitaria
Si la IA resuelve en segundos tareas tradicionales, es hora de cambiar qué y cómo evaluamos. La evaluación debe centrarse en aplicar, analizar, sintetizar. Exámenes orales, presentaciones, proyectos o casos prácticos exigen implicación real. Incluso en pruebas escritas pueden incluirse desafíos: preguntas abiertas, contextos actuales, razonamiento propio. También es útil evaluar el proceso: pedir borradores, justificar decisiones, reflexionar sobre lo aprendido. Así se fomenta una comprensión auténtica y competencias clave como el pensamiento crítico y la creatividad.
5.- Revalorizar la interacción humana en la universidad
Cuanta más tecnología usamos, más valiosa es la dimensión humana. La IA no sustituye la escucha activa, el acompañamiento o el estímulo intelectual de un buen docente. Por eso, es clave reforzar tutorías, seminarios y debates. Allí se puede evaluar pensamiento crítico, plantear contraargumentos y generar diálogo real. Liberar al profesorado de tareas repetitivas no implica perder control, sino ganar tiempo para lo esencial: interacciones que enriquecen el aprendizaje. Apostar por lo humano no es nostalgia, sino una estrategia para una universidad más exigente y comprometida.
Estamos ante un cambio de paradigma. La universidad no puede quedarse al margen ni responder con miedo o inercia. Le toca liderar con pensamiento crítico, con ética y con audacia pedagógica. La IA tiene límites (no comprende, no razona, no siente), pero también ofrece un enorme potencial si se utiliza con criterio: puede ayudarnos a sintetizar, a personalizar el aprendizaje y a plantear nuevas preguntas. Y ese es, precisamente, el objetivo: formar personas competentes, creativas y con criterio, capaces de hacerse preguntas relevantes, las que de verdad marcan la diferencia, en un mundo saturado de respuestas automáticas.
Como docentes, debemos enseñar a convivir con estos “copilotos” artificiales sin soltar el volante. Igual que un buen navegante no deja toda la ruta en manos del GPS, nuestros estudiantes deben aprender a usar la IA como brújula, no como piloto automático. La tecnología evoluciona rápido, pero los fundamentos de una buena educación (curiosidad, método, pensamiento crítico) siguen siendo nuestro mejor mapa. En plena era de algoritmos generativos, el reto no es entrenar máquinas, sino seguir formando personas. Apostemos por una inteligencia artificial que acompañe, y por una inteligencia humana que cuestione, conecte y transforme.
*Nota: César Muñoz Martínez, Vanessa Roger-Monzó y Fernando Castelló-Sirvent, profesores universitarios e investigadores, son coautores del artículo “IA generativa y pensamiento crítico en la educación universitaria a distancia: desafíos y oportunidades”, publicado en RIED-Revista Iberoamericana de Educación a Distancia. Este trabajo forma parte de los proyectos de innovación docente MERA-IAPEC (UNED), UV-SFPIE_PIEE 3325253 (Universitat de València), PIME/23-24/390 (Universitat Politècnica de València) y del Grupo de Investigación “Artificial Intelligence Impacts on Society & Economy” (AIISE Research Group).