¿Es el fin de la «obra original»? Críticas sobre el uso de la inteligencia artificial en la universidad

La irrupción de la inteligencia artificial generativa (GenAI) ha hecho saltar por los aires el «contrato de confianza» que sustentaba la evaluación académica. Lo que antes era un acuerdo implícito —que el estudiante era el único autor de cada palabra— hoy se ha transformado en una arquitectura de la sospecha. Pero ¿qué sucede cuando examinamos en profundidad esta crisis?

Un estudio en profundidad de las políticas de las veinte mejores universidades del mundo revela que no se trata solo de ajustar las normas, sino de una lucha desesperada por rescatar una noción de autoría que quizá ya no existe (Luo, 2024).

Como profesor universitario, observo con preocupación cómo la academia no reacciona con pedagogía, sino con una vigilancia que fosiliza el aprendizaje. A continuación, presento cinco revelaciones críticas sobre cómo la universidad está gestionando —o malinterpretando— este cambio de era.

1. La «originalidad» como mecanismo de vigilancia (Marco WPR).

En el marco analítico de Carol Bacchi, What’s the problem represented to be (WPR), descubrimos que las universidades no solo responden a un problema, sino que también lo están creando. Al analizar las políticas de las instituciones de élite, el estudio de Jiahui Luo revela que el «problema» se ha representado casi exclusivamente como la pérdida de la autoría original.

Esta visión se aferra al mito del «genio solitario en el ático» (Johnson-Eilola y Selber), esa idea romántica y obsoleta que sostiene que el trabajo intelectual solo es valioso si se realiza en un vacío social y tecnológico. Al definir la IA como una «ayuda externa» prohibida, las universidades reducen la educación a un ejercicio de detección de fraude. Como señala una de las políticas analizadas:

«Los estudiantes deben ser autores de su propio trabajo. El contenido producido por plataformas de IA, como ChatGPT, no representa el trabajo original del estudiante, por lo que se consideraría una forma de mala conducta académica».

2. El error de la analogía del «escritor fantasma».

Algunas de las universidades analizadas por Luo (2024) han cometido un error fundamental de categoría: equiparan el uso de la IA generativa con el ghostwriting o con la ayuda de un tercero. Esta es una falla de imaginación tecnológica. La IA no es un agente externo, sino una prótesis cognitiva integrada en el flujo de pensamiento contemporáneo.

Tratar a una herramienta como si fuera una persona es ignorar la realidad digital del siglo XXI. El análisis de Luo muestra que las políticas universitarias suelen agrupar los problemas en seis categorías que revelan una mentalidad de «vigilancia primero».

  • Mala conducta académica: el pánico ante la entrega de trabajos ajenos.
  • Diseño de evaluación: la urgencia de crear tareas que la IA no pueda «resolver».
  • Limitaciones tecnológicas: desconfianza en la veracidad de los datos.
  • Equidad: el riesgo de que se creen brechas entre quienes pueden permitirse una IA avanzada y quienes no.
  • Políticas y directrices: la falta de claridad por parte de los docentes.
  • Capacitación y apoyo: la necesidad de una alfabetización urgente.

3. El silencio crítico y la «era del posplagio».

Lo más inquietante de estas políticas es lo que callan. Existe un «silencio crítico» sobre el significado de la originalidad en la actualidad. Estamos entrando de lleno en lo que la investigadora Sarah Eaton denomina la era del posplagio. En este nuevo paradigma, la frontera entre lo humano y lo artificial no solo es difusa, sino también irrelevante.

El conocimiento actual es, por naturaleza, distribuido y colaborativo. Al ignorar la evolución del concepto de originalidad, las universidades se desconectan de la realidad. Si el contenido de la IA es «remezclado y reelaborado» por un ser humano, ¿dónde termina la máquina y dónde empieza el autor? Mantener la exigencia de una autoría analógica en un mundo de inteligencia híbrida es una receta para la irrelevancia académica.

4. El efecto secundario: de docentes a policías.

Siguiendo el análisis de los efectos de las políticas (pregunta 5 del marco WPR), se observa una erosión pedagógica alarmante. Los profesores están siendo desplazados de su papel de mentores para convertirse en «guardianes» o vigilantes de la frontera.

Este enfoque de patrullaje tiene consecuencias reales: los estudiantes son tratados como sospechosos desde el principio. Esto genera una cultura de desconfianza en la que el alumno se vuelve reacio al uso legítimo de las herramientas tecnológicas por miedo a la estigmatización. Si el sistema está diseñado para «atrapar» al infractor en lugar de implicar al alumno, la relación pedagógica muere.

5. Hacia la originalidad como espectro y juicio evaluativo.

Debemos desmantelar la dicotomía «humano vs. IA». La propuesta de vanguardia, respaldada por autores como Luo y Chan (2023), consiste en entender la originalidad como un espectro de colaboración. La clave ya no es la producción solitaria de textos, sino el juicio evaluativo: la capacidad del estudiante para criticar, refinar y dar sentido a la información, ya sea de cualquier origen.

Es hora de aceptar una verdad incómoda que las políticas evitan mencionar:

«Podría decirse que los humanos hacemos lo mismo que la IA cuando generamos un texto original: escribimos basándonos en asociaciones que provienen de lo que hemos oído o leído antes de otros humanos».

Para avanzar, necesitamos evaluaciones auténticas, como defensas orales y la transparencia en los procesos, que valoren el pensamiento crítico por encima del producto final.

Conclusión: una pregunta para el futuro.

La universidad se encuentra en una encrucijada: puede evolucionar y liderar la alfabetización en IA o quedarse anclada en el pasado como un tribunal de autoría obsoleto. No podemos seguir exigiendo una originalidad de «genio solitario» en un mundo donde la inteligencia se comparte con las máquinas.

¿Estamos dispuestos a rediseñar la confianza o seguiremos educando a los estudiantes para que finjan una autoría analógica que ya no existe?

En esta conversación puedes escuchar las ideas más interesantes sobre el tema.

Este vídeo resume bien los contenidos de este artículo.

Redefining_Academic_Originality

Referencias:

Bacchi C. Introducing the ‘What’s the Problem Represented to be?’ approach. In: Bletsas A, Beasley C, eds. Engaging with Carol Bacchi: Strategic Interventions and Exchanges. The University of Adelaide Press; 2012:21-24.

Johnson-Eilola, J., & Selber, S. A. (2007). Plagiarism, originality, assemblage. Computers and composition24(4), 375-403.

Luo (Jess), J. (2024). A critical review of GenAI policies in higher education assessment: a call to reconsider the “originality” of students’ work. Assessment & Evaluation in Higher Education49(5), 651–664. https://doi.org/10.1080/02602938.2024.2309963

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Docencia e inteligencia artificial: nuevas estrategias para educadores

La educación está experimentando una transformación sin precedentes gracias a los avances en inteligencia artificial (IA). La integración de la IA en el ámbito educativo ha traído consigo oportunidades y desafíos que requieren una adaptación rápida por parte de los docentes y los sistemas de enseñanza.

Esta revolución tecnológica ha dado lugar a la automatización de tareas administrativas, la personalización del aprendizaje, la optimización de evaluaciones y el desarrollo de nuevas metodologías de enseñanza que mejoran la eficiencia del aula. Sin embargo, su implementación también genera preocupaciones relacionadas con la equidad, la privacidad de los datos y la ética en la educación.

Este informe explora en profundidad cómo los docentes pueden aprovechar la IA para mejorar sus prácticas pedagógicas y hacer frente a los desafíos emergentes. Se proporcionarán ejemplos detallados, herramientas específicas y estrategias que permitirán a los educadores integrar esta tecnología de manera efectiva y responsable en sus aulas.

1. Inteligencia artificial generativa y su aplicación en la docencia

1.1. Definición y características

La inteligencia artificial generativa es una rama avanzada de la IA que emplea redes neuronales profundas para crear contenido original en formato de texto, imágenes, audio y vídeo. Este tipo de IA puede proporcionar respuestas personalizadas y adaptadas a distintos contextos de aprendizaje, lo que la convierte en una herramienta muy útil en el ámbito educativo.

Algunos ejemplos notables de IA generativa son ChatGPT, que puede generar respuestas detalladas en múltiples idiomas; DALL-E, que crea imágenes a partir de descripciones textuales, y Bard AI, que ofrece información en tiempo real a partir de consultas específicas.

El uso de estas herramientas en la docencia permite mejorar la interacción con los estudiantes, proporcionar materiales personalizados y fomentar un aprendizaje más dinámico. Además, la IA generativa puede ayudar en la corrección de textos, la generación de pruebas automatizadas y la creación de contenidos visuales para reforzar los conceptos enseñados en el aula.

1.2. Aplicaciones en el aula

Las aplicaciones de la inteligencia artificial (IA) generativa en la enseñanza son diversas y pueden utilizarse en diferentes áreas del conocimiento. Entre las más destacadas se encuentran:

  • Creación de material didáctico: la IA permite generar rápidamente presentaciones, resúmenes y documentos de apoyo para los estudiantes. Herramientas como Canva AI o Tome AI facilitan la producción de diapositivas atractivas con contenido relevante.
  • Automatización de respuestas: los docentes pueden utilizar chatbots educativos como PersonalChat para responder de manera inmediata a las dudas recurrentes de los estudiantes.
  • Evaluaciones y retroalimentación: plataformas como Gradescope permiten corregir exámenes de manera automatizada, lo que reduce la carga de trabajo de los docentes y asegura una evaluación más objetiva.
  • Generación de contenido multimedia: con herramientas como Runway AI y Pictory, los docentes pueden crear vídeos educativos personalizados y mejorar la experiencia de aprendizaje.

Un ejemplo concreto de su aplicación es el uso de ChatGPT en universidades para ayudar a los estudiantes en la redacción de ensayos, proporcionando estructuras sugeridas y correcciones gramaticales detalladas. Esto no solo mejora la calidad de los trabajos académicos, sino que también fomenta la autonomía y la autoevaluación de los estudiantes.

2. Personalización del aprendizaje y evaluación con IA

2.1. Aprendizaje adaptativo

Uno de los mayores beneficios de la inteligencia artificial (IA) en la educación es su capacidad para personalizar el aprendizaje en función del nivel y el ritmo de cada estudiante. Gracias al análisis de datos, los algoritmos de IA pueden identificar fortalezas y debilidades de los alumnos y ajustar los contenidos educativos en tiempo real para optimizar su rendimiento académico.

Algunas plataformas que utilizan este enfoque son:

  • Khan Academy con IA ofrece ejercicios personalizados según el nivel de conocimiento del estudiante.
  • Duolingo AI: adapta la dificultad de los ejercicios de idiomas en función del progreso del usuario.
  • Carnegie Learning ofrece tutorías de matemáticas con IA, que adaptan las preguntas al rendimiento del estudiante.

Este enfoque permite que los estudiantes reciban una educación más centrada en sus necesidades individuales, lo que reduce las brechas de aprendizaje y mejora la retención del conocimiento.

2.2. Evaluación automatizada

Otro aspecto crucial de la IA en la educación es la optimización del proceso de evaluación. Tradicionalmente, corregir exámenes y tareas supone un gran esfuerzo para los docentes. Gracias a herramientas como Gradescope y ZipGrade, ahora es posible evaluar pruebas de manera instantánea, proporcionar retroalimentación detallada y reducir el margen de error.

Además de la corrección automatizada, la IA puede utilizarse para analizar el rendimiento de los estudiantes a lo largo del tiempo y predecir posibles dificultades académicas. Por ejemplo, la plataforma Edsight AI recopila datos sobre las respuestas de los alumnos y genera informes personalizados con recomendaciones para mejorar su rendimiento.

A pesar de sus ventajas, la evaluación automatizada debe complementarse con métodos tradicionales para garantizar una comprensión profunda de los conceptos por parte de los estudiantes y evitar depender exclusivamente de algoritmos para medir los conocimientos.

3. Desafíos y consideraciones éticas

3.1. Sesgo en los algoritmos

Uno de los principales desafíos de la IA en la educación es la presencia de sesgos en los modelos de aprendizaje. Dado que las IA se entrenan con grandes volúmenes de datos históricos, pueden reflejar prejuicios existentes en la sociedad, lo que podría afectar negativamente a la equidad de la enseñanza.

Para minimizar estos riesgos, es fundamental que los docentes supervisen el contenido generado por IA y utilicen diversas fuentes para contrastar la información. Además, se recomienda fomentar el pensamiento crítico entre los estudiantes para que evalúen la veracidad y la imparcialidad de los datos proporcionados por estos sistemas.

3.2. Privacidad y seguridad de datos

El uso de la IA en la educación implica la recopilación y el análisis de grandes volúmenes de datos sobre los estudiantes. Para proteger su privacidad, es crucial que las instituciones educativas implementen regulaciones estrictas sobre el almacenamiento y uso de la información personal.

Algunas estrategias recomendadas son:

  • Utilización de plataformas con altos estándares de seguridad, como Microsoft Copilot y Google AI Education.
  • Concienciar sobre la importancia de la privacidad y enseñar a los estudiantes a gestionar sus datos de forma segura en entornos digitales.
  • Cumplimiento de normativas de protección de datos, como el Reglamento General de Protección de Datos (RGPD) en Europa.

Conclusiones

La inteligencia artificial está revolucionando la educación, ya que ofrece nuevas posibilidades para mejorar la enseñanza y el aprendizaje. Sin embargo, su implementación debe realizarse de manera responsable, garantizando el papel central del docente y promoviendo el uso ético de la tecnología.

Para maximizar sus beneficios, es esencial que los educadores se mantengan actualizados sobre las últimas tendencias en IA y adopten herramientas que complementen sus metodologías de enseñanza. La combinación de innovación tecnológica con estrategias pedagógicas efectivas transformará la educación y preparará a los estudiantes para los desafíos del futuro.

Os dejo un documento de la Universidad de Burgos que profundiza en el tema. Espero que os resulte de interés.

Pincha aquí para descargar