La irrupción de la inteligencia artificial generativa (GenAI) ha hecho saltar por los aires el «contrato de confianza» que sustentaba la evaluación académica. Lo que antes era un acuerdo implícito —que el estudiante era el único autor de cada palabra— hoy se ha transformado en una arquitectura de la sospecha. Pero ¿qué sucede cuando examinamos en profundidad esta crisis?
Un estudio en profundidad de las políticas de las veinte mejores universidades del mundo revela que no se trata solo de ajustar las normas, sino de una lucha desesperada por rescatar una noción de autoría que quizá ya no existe (Luo, 2024).
Como profesor universitario, observo con preocupación cómo la academia no reacciona con pedagogía, sino con una vigilancia que fosiliza el aprendizaje. A continuación, presento cinco revelaciones críticas sobre cómo la universidad está gestionando —o malinterpretando— este cambio de era.
1. La «originalidad» como mecanismo de vigilancia (Marco WPR).
En el marco analítico de Carol Bacchi, What’s the problem represented to be (WPR), descubrimos que las universidades no solo responden a un problema, sino que también lo están creando. Al analizar las políticas de las instituciones de élite, el estudio de Jiahui Luo revela que el «problema» se ha representado casi exclusivamente como la pérdida de la autoría original.
Esta visión se aferra al mito del «genio solitario en el ático» (Johnson-Eilola y Selber), esa idea romántica y obsoleta que sostiene que el trabajo intelectual solo es valioso si se realiza en un vacío social y tecnológico. Al definir la IA como una «ayuda externa» prohibida, las universidades reducen la educación a un ejercicio de detección de fraude. Como señala una de las políticas analizadas:
«Los estudiantes deben ser autores de su propio trabajo. El contenido producido por plataformas de IA, como ChatGPT, no representa el trabajo original del estudiante, por lo que se consideraría una forma de mala conducta académica».
2. El error de la analogía del «escritor fantasma».
Algunas de las universidades analizadas por Luo (2024) han cometido un error fundamental de categoría: equiparan el uso de la IA generativa con el ghostwriting o con la ayuda de un tercero. Esta es una falla de imaginación tecnológica. La IA no es un agente externo, sino una prótesis cognitiva integrada en el flujo de pensamiento contemporáneo.
Tratar a una herramienta como si fuera una persona es ignorar la realidad digital del siglo XXI. El análisis de Luo muestra que las políticas universitarias suelen agrupar los problemas en seis categorías que revelan una mentalidad de «vigilancia primero».
Mala conducta académica: el pánico ante la entrega de trabajos ajenos.
Diseño de evaluación: la urgencia de crear tareas que la IA no pueda «resolver».
Limitaciones tecnológicas: desconfianza en la veracidad de los datos.
Equidad: el riesgo de que se creen brechas entre quienes pueden permitirse una IA avanzada y quienes no.
Políticas y directrices: la falta de claridad por parte de los docentes.
Capacitación y apoyo: la necesidad de una alfabetización urgente.
3. El silencio crítico y la «era del posplagio».
Lo más inquietante de estas políticas es lo que callan. Existe un «silencio crítico» sobre el significado de la originalidad en la actualidad. Estamos entrando de lleno en lo que la investigadora Sarah Eaton denomina la era del posplagio. En este nuevo paradigma, la frontera entre lo humano y lo artificial no solo es difusa, sino también irrelevante.
El conocimiento actual es, por naturaleza, distribuido y colaborativo. Al ignorar la evolución del concepto de originalidad, las universidades se desconectan de la realidad. Si el contenido de la IA es «remezclado y reelaborado» por un ser humano, ¿dónde termina la máquina y dónde empieza el autor? Mantener la exigencia de una autoría analógica en un mundo de inteligencia híbrida es una receta para la irrelevancia académica.
4. El efecto secundario: de docentes a policías.
Siguiendo el análisis de los efectos de las políticas (pregunta 5 del marco WPR), se observa una erosión pedagógica alarmante. Los profesores están siendo desplazados de su papel de mentores para convertirse en «guardianes» o vigilantes de la frontera.
Este enfoque de patrullaje tiene consecuencias reales: los estudiantes son tratados como sospechosos desde el principio. Esto genera una cultura de desconfianza en la que el alumno se vuelve reacio al uso legítimo de las herramientas tecnológicas por miedo a la estigmatización. Si el sistema está diseñado para «atrapar» al infractor en lugar de implicar al alumno, la relación pedagógica muere.
5. Hacia la originalidad como espectro y juicio evaluativo.
Debemos desmantelar la dicotomía «humano vs. IA». La propuesta de vanguardia, respaldada por autores como Luo y Chan (2023), consiste en entender la originalidad como un espectro de colaboración. La clave ya no es la producción solitaria de textos, sino el juicio evaluativo: la capacidad del estudiante para criticar, refinar y dar sentido a la información, ya sea de cualquier origen.
Es hora de aceptar una verdad incómoda que las políticas evitan mencionar:
«Podría decirse que los humanos hacemos lo mismo que la IA cuando generamos un texto original: escribimos basándonos en asociaciones que provienen de lo que hemos oído o leído antes de otros humanos».
Para avanzar, necesitamos evaluaciones auténticas, como defensas orales y la transparencia en los procesos, que valoren el pensamiento crítico por encima del producto final.
Conclusión: una pregunta para el futuro.
La universidad se encuentra en una encrucijada: puede evolucionar y liderar la alfabetización en IA o quedarse anclada en el pasado como un tribunal de autoría obsoleto. No podemos seguir exigiendo una originalidad de «genio solitario» en un mundo donde la inteligencia se comparte con las máquinas.
¿Estamos dispuestos a rediseñar la confianza o seguiremos educando a los estudiantes para que finjan una autoría analógica que ya no existe?
En esta conversación puedes escuchar las ideas más interesantes sobre el tema.
Este vídeo resume bien los contenidos de este artículo.
Bacchi C. Introducing the ‘What’s the Problem Represented to be?’ approach. In: Bletsas A, Beasley C, eds. Engaging with Carol Bacchi: Strategic Interventions and Exchanges. The University of Adelaide Press; 2012:21-24.
Johnson-Eilola, J., & Selber, S. A. (2007). Plagiarism, originality, assemblage. Computers and composition, 24(4), 375-403.
Luo (Jess), J. (2024). A critical review of GenAI policies in higher education assessment: a call to reconsider the “originality” of students’ work. Assessment & Evaluation in Higher Education, 49(5), 651–664. https://doi.org/10.1080/02602938.2024.2309963
En la actualidad, la inteligencia artificial (IA) está cada vez más presente en nuestra vida diaria, transformando industrias y planteando nuevas preguntas sobre la sociedad, la economía y, por supuesto, la educación. Entre las herramientas de IA emergentes, los «chatbots» generativos como ChatGPT han llamado especialmente la atención, ya que prometen revolucionar la enseñanza y el aprendizaje. Estas potentes plataformas pueden simular conversaciones humanas, ofrecer explicaciones e incluso generar textos complejos como poemas o ensayos. Sin embargo, a medida que educadores y legisladores consideran la implementación de estas tecnologías innovadoras en el ámbito educativo, es crucial reflexionar sobre las implicaciones éticas que conllevan. Aunque los beneficios potenciales son innegables, desde una mayor accesibilidad hasta experiencias de aprendizaje personalizadas, también existen desafíos significativos.
En este artículo, exploramos las consideraciones éticas clave relacionadas con el uso de chatbots generativos en la educación superior. La información que se presenta a continuación se basa en el artículo «The ethical implications of using generative chatbots in higher education» de Ryan Thomas Williams, publicado en Frontiers in Education.
A continuación, se examinan las implicaciones éticas de integrar chatbots generativos, como ChatGPT, en la educación superior. Se abordan preocupaciones clave como la privacidad de los datos de los estudiantes y los desafíos para cumplir con las regulaciones de protección de datos cuando la información es procesada y almacenada por la IA. El artículo también explora el sesgo algorítmico y señala cómo los prejuicios inherentes a los datos de entrenamiento pueden perpetuar estereotipos, además de abordar el impacto en la autoeficacia de los estudiantes al depender excesivamente de la IA, lo que podría disminuir el pensamiento crítico. Por último, se aborda el creciente problema del plagio y las «alucinaciones» de la IA, donde los chatbots generan información incorrecta, y se sugiere la necesidad de políticas claras, detección avanzada y métodos de evaluación innovadores.
1. ¿Cuáles son las principales implicaciones éticas de integrar los chatbots generativos en la educación superior?
La integración de chatbots generativos en la educación superior, como ChatGPT, aborda varias cuestiones éticas fundamentales. En primer lugar, la gestión de los datos sensibles de los estudiantes plantea importantes desafíos de privacidad, por lo que es necesario cumplir estrictamente con las normativas de protección de datos, como el RGPD, lo cual puede ser complejo debido a la naturaleza de los algoritmos de aprendizaje automático que aprenden de los datos y complican su «verdadera» eliminación. En segundo lugar, existe un riesgo significativo de sesgo algorítmico, ya que los chatbots aprenden de vastas fuentes de datos de internet que pueden perpetuar sesgos sociales (por ejemplo, de género o raciales), lo que podría afectar negativamente a la experiencia de aprendizaje del estudiante y a su visión del mundo. En tercer lugar, si bien los chatbots pueden fomentar la autonomía en el aprendizaje al ofrecer acceso bajo demanda a recursos y explicaciones personalizadas, existe la preocupación de que una dependencia excesiva pueda reducir la autoeficacia académica de los estudiantes, desincentivando el pensamiento crítico y la participación en actividades de aprendizaje más profundas. Finalmente, el plagio emerge como una preocupación primordial, ya que la capacidad de los chatbots para generar contenido sofisticado podría alentar a los estudiantes a presentar el trabajo generado por la IA como propio, lo que comprometería la integridad académica.
2. ¿Cómo afectan los chatbots generativos a la privacidad de los datos de los estudiantes en entornos educativos?
La implementación de chatbots en entornos educativos implica la recopilación, el análisis y el almacenamiento de grandes volúmenes de datos de los estudiantes, que pueden incluir desde su rendimiento académico hasta información personal sensible. Esta «gran cantidad de datos» permite experiencias de aprendizaje personalizadas y la identificación temprana de estudiantes en situación de riesgo. Sin embargo, esto genera importantes preocupaciones relacionadas con la privacidad. Existe el riesgo de uso indebido o acceso no autorizado a estos datos. Además, las regulaciones actuales de privacidad de datos, como el RGPD, permiten a los individuos solicitar la eliminación de sus datos, pero la naturaleza del aprendizaje automático significa que los algoritmos subyacentes ya han aprendido de los datos de entrada, por lo que es difícil aplicar un verdadero «derecho al olvido» o «eliminación». También hay una falta de transparencia algorítmica por parte de las empresas sobre la implementación de los algoritmos de los chatbots y sus bases de conocimiento, lo que dificulta el cumplimiento total de la ley de protección de datos, que exige que las personas estén informadas sobre el procesamiento de sus datos. Para mitigar estas preocupaciones, las instituciones educativas deben establecer directrices claras para la recopilación, almacenamiento y uso de datos, alineándose estrictamente con la normativa de protección de datos y garantizando la transparencia con todas las partes interesadas.
3. ¿Qué es el sesgo algorítmico en los chatbots educativos y cómo se puede abordar?
El sesgo algorítmico ocurre cuando los sistemas de IA, incluidos los chatbots, asimilan y reproducen los sesgos sociales presentes en los grandes conjuntos de datos con los que son entrenados. Esto puede manifestarse en forma de sesgos de género, raciales o de otro tipo que, si se reflejan en el contenido generado por la IA (como casos de estudio o escenarios), pueden perpetuar estereotipos y afectar a la experiencia de aprendizaje de los estudiantes. Para abordar esta situación, es fundamental que los conjuntos de datos utilizados para entrenar los sistemas de IA sean diversos y representativos, evitando fuentes de datos únicas o limitadas que no representen adecuadamente a grupos minoritarios. Se proponen asociaciones entre institutos educativos para compartir datos y garantizar su representatividad. Además, se deben realizar auditorías regulares de las respuestas del sistema de IA para identificar y corregir los sesgos. Es fundamental que se sea transparente sobre la existencia de estos sesgos y que se eduque a los estudiantes para que evalúen críticamente el contenido generado por la IA en lugar de aceptarlo como una verdad objetiva. El objetivo no es que la IA sea inherentemente sesgada, sino que los datos generados por humanos que la entrenan pueden contener sesgos, por lo que se requiere un enfoque deliberado y crítico para el desarrollo e implementación de la IA en la educación.
4. ¿Cómo impacta la dependencia de los estudiantes de los chatbots en su autoeficacia académica y su pensamiento crítico?
Si bien los chatbots pueden ofrecer una autonomía significativa en el aprendizaje al proporcionar acceso inmediato a recursos y respuestas personalizadas, existe la preocupación de que una dependencia excesiva pueda reducir la autoeficacia académica de los estudiantes. Esta dependencia puede llevar a los estudiantes a no comprometerse con el aprendizaje auténtico, lo que les disuade de participar en seminarios, lecturas recomendadas o discusiones colaborativas. A diferencia de las tecnologías informáticas tradicionales, la IA intenta reproducir habilidades cognitivas, lo que plantea nuevas implicaciones para la autoeficacia de los estudiantes con la IA. Además, la naturaleza en tiempo real de las interacciones con el chatbot puede fomentar respuestas rápidas y reactivas en lugar de una consideración reflexiva y profunda, lo que limita el desarrollo del pensamiento crítico. Las tecnologías de chatbot suelen promover formas de comunicación breves y condensadas, lo que puede restringir la profundidad de la discusión y las habilidades de pensamiento crítico que se cultivan mejor a través de una instrucción más guiada e interactiva, como las discusiones entre compañeros y los proyectos colaborativos. Por lo tanto, es crucial equilibrar la autonomía que ofrecen los chatbots con la orientación y supervisión de educadores humanos para fomentar un aprendizaje holístico.
5. ¿Cuál es la preocupación principal con respecto al plagio en la era de los chatbots generativos y qué soluciones se proponen?
El plagio se ha convertido en una preocupación ética crítica debido a la integración de herramientas de IA como ChatGPT en la educación. La capacidad de los chatbots para generar respuestas textuales sofisticadas, resolver problemas complejos y redactar ensayos completos crea un entorno propicio para la deshonestidad académica, ya que los estudiantes pueden presentar la producción de la IA como propia. Esto es especialmente problemático en sistemas educativos que priorizan los resultados (calificaciones, cualificaciones) sobre el proceso de aprendizaje. Los estudiantes pueden incurrir incluso en plagio no intencional si utilizan chatbots para tareas administrativas o para mejorar su escritura en inglés sin comprender completamente las implicaciones. Para abordar esta situación, es necesario un enfoque integral que incluya educar a los estudiantes sobre la importancia de la honestidad académica y las consecuencias del plagio. También se propone desplegar software avanzado de detección de plagio capaz de identificar texto generado por IA, aunque se reconoce que estas metodologías deben evolucionar continuamente para mantenerse al día con los avances de la IA. Más allá de la detección, es esencial reevaluar las estrategias de evaluación y diseñar tareas que evalúen la comprensión de los estudiantes y fomenten el pensamiento original, la creatividad y las habilidades que actualmente están más allá del alcance de la IA, como las presentaciones orales y los proyectos en grupo. También es crucial fomentar la transparencia sobre el uso de la IA en el aprendizaje, algo similar a lo que se hace con los correctores ortográficos.
6. ¿Qué se entiende por «alucinaciones» de la IA en los chatbots educativos y por qué son problemáticas?
Las «alucinaciones» de la IA se refieren a las respuestas generadas por modelos de lenguaje de IA que contienen información falsa o engañosa presentada como si fuera real. Este fenómeno ganó atención generalizada con la llegada de los grandes modelos de lenguaje (LLM), como ChatGPT, donde los usuarios notaron que los chatbots insertaban frecuentemente falsedades aleatorias en sus respuestas. Si bien el término «alucinación» ha sido criticado por su naturaleza antropomórfica, el problema subyacente es la falta de precisión y fidelidad a fuentes de conocimiento externas. Las alucinaciones pueden surgir de discrepancias en grandes conjuntos de datos, errores de entrenamiento o secuencias sesgadas. Para los estudiantes, esto puede llevar al desarrollo de conceptos erróneos, lo que afecta a su comprensión de conceptos clave y a su confianza en la IA como herramienta educativa fiable. Para los educadores, el uso de contenido generado por IA como recurso en el aula plantea un desafío ético significativo, ya que son los responsables de garantizar la precisión de la información presentada. Los estudios han descubierto que un porcentaje considerable de referencias generadas por chatbots son falsas o inexactas. Si bien la IA puede reducir la carga de trabajo de los docentes, la supervisión humana sigue siendo esencial para evitar imprecisiones, lo que puede crear una carga administrativa adicional.
7. ¿Cómo pueden las instituciones educativas equilibrar los beneficios de los chatbots con sus riesgos éticos?
Para conseguirlo, las instituciones educativas deben adoptar un enfoque reflexivo y multifacético. Esto implica establecer límites éticos firmes para proteger los intereses de los estudiantes, los educadores y la comunidad educativa en general. Se recomienda implementar políticas claras y sólidas de recopilación, almacenamiento y uso de datos, alineándose estrictamente con regulaciones de protección de datos como el RGPD, a pesar de los desafíos relacionados con la eliminación de datos y la transparencia algorítmica. Para mitigar el sesgo algorítmico, las instituciones deben garantizar que los conjuntos de datos de entrenamiento sean diversos y representativos, y realizar auditorías regulares. Para evitar una dependencia excesiva y mantener la autoeficacia académica de los estudiantes, los educadores deben fomentar la autonomía en el aprendizaje sin comprometer el pensamiento crítico ni el compromiso auténtico. Con respecto al plagio, es fundamental educar a los estudiantes sobre la integridad académica, utilizar software avanzado de detección de plagio y reevaluar los métodos de evaluación para fomentar el pensamiento original y las habilidades que la IA no puede replicar. Por último, es crucial que se conciencie a la sociedad sobre las «alucinaciones» de la IA, para lo cual los educadores deben verificar la exactitud de la información generada por la IA y reconocer su naturaleza evolutiva, comparándola con los primeros días de Wikipedia. Es una responsabilidad colectiva de todas las partes interesadas garantizar que la IA se utilice de una manera que respete la privacidad, minimice el sesgo, apoye la autonomía equilibrada del aprendizaje y mantenga el papel vital de los maestros humanos.
8. ¿Qué papel juega la transparencia en el uso ético de los chatbots de IA en la educación?
La transparencia es un pilar fundamental para el uso ético de los chatbots de IA en la educación, ya que aborda varias de las preocupaciones éticas clave. En el ámbito de la privacidad de los datos, es esencial que los usuarios estén informados sobre las prácticas de gestión de datos para aliviar sus preocupaciones y generar confianza en los chatbots adoptados. Esto incluye informar a los usuarios sobre cómo se recopilan, almacenan y utilizan sus datos. Con respecto al sesgo algorítmico, la transparencia significa reconocer que los chatbots pueden mostrar sesgos ocasionalmente debido a los datos de entrenamiento subyacentes. Se debe alentar a los estudiantes a evaluar críticamente la producción de los chatbots, en lugar de aceptarla como una verdad objetiva, teniendo en cuenta que el sesgo no es inherente a la IA, sino a los datos generados por humanos con los que se entrena. En la prevención del plagio, la transparencia en la educación es vital para el uso responsable de las herramientas de IA; los estudiantes deben ser conscientes de que deben reconocer la ayuda recibida de la IA, de la misma manera en que se acepta la ayuda de herramientas como los correctores ortográficos. Además, para las «alucinaciones» de la IA, es importante que los educadores y los estudiantes sean conscientes de la posibilidad de que los chatbots generen información falsa o engañosa, lo que requiere un escrutinio humano continuo para su verificación. En general, la transparencia fomenta la alfabetización digital y la conciencia crítica, y empodera a los usuarios para navegar por el panorama de la IA de manera más efectiva.
Referencia:
WILLIAMS, R. T. (2024). The ethical implications of using generative chatbots in higher education. In Frontiers in Education (Vol. 8, p. 1331607). Frontiers Media SA.
Glosario de términos clave
Inteligencia artificial (IA): La capacidad de un sistema informático para imitar funciones cognitivas humanas como el aprendizaje y la resolución de problemas (Microsoft, 2023). En el contexto del estudio, se refiere a sistemas que pueden realizar tareas que normalmente requieren inteligencia humana.
Chatbots generativos: Programas de IA capaces de simular conversaciones humanas y generar respuestas creativas y nuevas, como poemas, historias o ensayos, utilizando Procesamiento del Lenguaje Natural (PLN) y vastos conjuntos de datos.
Procesamiento del lenguaje natural (PLN): Un subcampo de la IA que permite a las máquinas entender, responder y generar lenguaje humano. Es fundamental para la funcionalidad de los chatbots avanzados.
Aprendizaje automático (ML): Un subconjunto de la IA que permite a los sistemas aprender de los datos sin ser programados explícitamente. Los chatbots modernos utilizan ML para mejorar sus respuestas a lo largo del tiempo.
Privacidad de datos: La protección de la información personal de los individuos, asegurando que se recopile, almacene y utilice de forma ética y legal. En el contexto educativo, se refiere a la información sensible de los estudiantes.
Reglamento general de protección de datos (GDPR): Una ley de la Unión Europea sobre protección de datos y privacidad en el Área Económica Europea y el Reino Unido. Es relevante para la gestión de datos sensibles de estudiantes.
Ley de protección de la privacidad en línea de los niños (COPPA): Una ley de Estados Unidos que impone ciertos requisitos a los operadores de sitios web o servicios en línea dirigidos a niños menores de 13 años.
Derecho al olvido: El derecho de un individuo a que su información personal sea eliminada de los registros de una organización, un concepto que se complica con la naturaleza del aprendizaje de los algoritmos de IA.
Transparencia algorítmica: La capacidad de entender cómo funcionan los algoritmos de IA y cómo toman decisiones, incluyendo el acceso a los detalles de su implementación y bases de conocimiento.
Big Data: Conjuntos de datos tan grandes y complejos que los métodos tradicionales de procesamiento de datos no son adecuados. En los chatbots, se utilizan para personalizar experiencias.
Sesgo algorítmico: Ocurre cuando los sistemas de IA asimilan y reproducen sesgos sociales presentes en los datos con los que fueron entrenados, lo que puede llevar a resultados injustos o estereotipados.
Autoeficacia académica: La creencia de un estudiante en su capacidad para tener éxito en sus tareas académicas. El estudio explora cómo una dependencia excesiva de la IA podría impactarla negativamente.
Autoeficacia en IA: La confianza de un individuo en su capacidad para usar y adaptarse a las tecnologías de inteligencia artificial. Distinto de la autoeficacia informática tradicional debido a las capacidades cognitivas de la IA.
Plagio: La práctica de tomar el trabajo o las ideas de otra persona y presentarlas como propias, sin la debida atribución. Se convierte en una preocupación crítica con la capacidad de los chatbots para generar texto.
Software de detección de plagio: Herramientas diseñadas para identificar instancias de plagio comparando un texto con una base de datos de otros textos. La evolución de la IA plantea desafíos para su eficacia.
Alucinación de IA: Una respuesta generada por un modelo de lenguaje de IA que contiene información falsa, inexacta o engañosa, presentada como si fuera un hecho.
Modelos de lenguaje grandes (LLMs): Modelos de IA muy grandes que han sido entrenados con inmensas cantidades de texto para comprender, generar y responder al lenguaje humano de manera sofisticada. ChatGPT es un ejemplo de LLM.
Integridad académica: El compromiso con la honestidad, la confianza, la justicia, el respeto y la responsabilidad en el aprendizaje, la enseñanza y la investigación. Es fundamental para el entorno educativo y está amenazada por el plagio asistido por IA.
Os dejo este artículo, pues está en acceso abierto:
Me avergüenzo cuando veo libros recién editados por editoriales conocidas donde han fusilado parte del texto y algunas figuras dibujadas por mí mismo que provienen de mi blog.
No sé muy bien cómo actuar, pero es como para plantearse cerrar mi blog y dejar de divulgar en redes. pic.twitter.com/nXGE6gA1a1
Tal y como comenté ayer por Twitter, he comprobado cómo se ha plagiado texto y figuras de mi propiedad que aparecen en mi blog. Este hecho delictivo lo he podido verificar varias veces, pero resulta especialmente doloroso verlo en un libro editado por una editorial de prestigio. Este tipo de comportamientos hace que me replantee muy seriamente cerrar el blog y difundir los contenidos, pasados y futuros, solo en mi universidad y en los libros que edito.
No es la primera vez que me ocurre.Lo grave es que quien plagia y no cita las fuentes está ganando dinero ilegalmente en sus blogs con publicidad o por la venta de sus libros.
Como podéis ver, mis contenidos son abiertos, sin publicidad y totalmente gratuitos para todos. Lo único que pido es que se citen las fuentes y no se copie literalmente el contenido. El blog es institucional, pertenece a la Universitat Politècnica de València y está protegido por una licencia de Creative Commons, tal y como podéis ver a la izquierda de mi blog.
De momento voy a dejar de publicar contenidos en el blog y a cerrar algunas páginas, muy a mi pesar, hasta que se resuelva este contencioso. Me he puesto en contacto con la editorial para la retirada inmediata de dicho libro. No solo me plagia a mí, sino también a muchos otros autores, como he tenido ocasión de comprobar.
Agradezco sinceramente las muestras de apoyo recibidas por redes sociales, pero de vez en cuando hay que ser contundente para defender los derechos legítimos de autoría y propiedad intelectual, tal y como se regula en los artículos 17 y siguientes de la Ley de Propiedad Intelectual.
No es ni la primera ni será la última vez que me replanteo mantener abierta una página web como esta en la que, de forma desinteresada y para ayudar a mis alumnos, voy escribiendo día a día. Sin embargo, a veces me siento desanimado. El otro día vi parte de mis contenidos donde no debían, incluso fuera de internet, y por supuesto, sin citarse. También ha pasado muchas veces cómo encuentro contenidos en páginas web de dudoso origen, sin una cita o enlace al lugar original. Una opción que estoy barajando seriamente es dar acceso restringido sólo a mis alumnos, con su contraseña correspondiente.
En internet disponemos de mucha información, pero no toda se puede usar libremente, pues los contenidos en la red también tienen derechos de autor. Tal y como vemos en el vídeo de la UNED que os dejo a continuación, estamos plagiando si copiamos literalmente un trabajo o utilizamos información ajena sin citar su fuente. Incluso plagiamos si repetimos una idea cambiando la forma de expresión y se hace pasar por propia.
Es fácil evitar el plagio. Podemos citar la fuente donde extraemos la información, entrecomillar las palabras textuales de una obra ajena y citar la bibliografía empleada. Hoy día es fácil detectar plagios con el uso de programas antiplagio, que por supuesto, se dispone de ellos en las universidades y que nuestros alumnos conocen.
Os dejo a continuación el vídeo explicativo sobre el tema elaborado por la UNED dentro de sus Cursos MOOC/COMA. Espero que os sea de interés.