Base del Citigroup Center junto a la Iglesia de San Pedro, lo que obligó a una disposición inusual de las columnas. https://es.wikipedia.org/wiki/Citigroup_Center
Introducción: El gigante con pies de barro.
Los rascacielos son monumentos a la permanencia. Se elevan sobre nuestras ciudades como símbolos de ingenio, poder y estabilidad estructural. Sin embargo, en 1978, el Citigroup Center, uno de los edificios más innovadores y reconocibles de Nueva York, ocultaba un secreto aterrador. Inaugurado con gran fanfarria en 1977, este hito de la ingeniería estaba, de hecho, peligrosamente cerca del colapso.
La ironía central de esta historia es casi cinematográfica: el fallo catastrófico se descubrió gracias a la pregunta de una estudiante universitaria, y la persona que cometió el error de cálculo que puso en peligro a miles de personas fue la misma que se convirtió en el héroe que los salvó. Esta es la historia de cómo una combinación de error humano, ética profesional y una suerte increíble evitó uno de los mayores desastres arquitectónicos de la historia moderna.
1. No bastó con un solo error; se necesitaron dos para poner en jaque al gigante.
El fallo que puso en jaque al Citigroup Center no fue un simple descuido, sino la combinación de dos errores críticos que se multiplicaron entre sí.
El primero fue un error de cálculo cometido por William LeMessurier, el ingeniero jefe. Siguiendo el código de construcción de la época, calculó las cargas de viento que incidían perpendicularmente en las caras del edificio. Sin embargo, debido al diseño único de la torre, que estaba apoyada sobre cuatro enormes pilares situados en el centro de cada lado en lugar de en las esquinas, pasó por alto que los vientos diagonales (conocidos como quartering winds) ejercían una tensión mucho mayor. Este descuido incrementó la carga en las uniones estructurales clave en un 40 %.
El segundo error agravó fatalmente el primero. Durante la construcción, la empresa constructora Bethlehem Steel propuso sustituir las uniones soldadas, que eran más resistentes pero también más costosas, por uniones atornilladas, más económicas. Basándose en los cálculos originales de vientos perpendiculares, este cambio parecía una modificación rutinaria y segura, por lo que la oficina de LeMessurier lo aprobó sin que él revisara personalmente las implicaciones. En aquel momento, fue una decisión técnicamente sólida, pero con el paso del tiempo se consideró fatal.
La combinación de un error oculto y una decisión que parecía segura resultó devastadora. La carga adicional del 40 % de los vientos diagonales aplicada a las uniones atornilladas más débiles provocó un aumento catastrófico del 160 % en la tensión de las conexiones. Esto significaba que una tormenta que ocurre cada 55 años podría ser desastrosa. Sin embargo, el peligro real era aún mayor: si el amortiguador de masa sintonizado del edificio, que dependía de la electricidad, fallaba durante un apagón —algo muy probable durante un huracán—, una tormenta mucho más común, de las que golpean Nueva York cada dieciséis años, podría derribarlo.
2. El «héroe» de la historia fue el ingeniero que cometió el error.
Tras descubrir el fallo, William LeMessurier se enfrentó a un dilema ético devastador. Años después, relataría que consideró todas las opciones, desde guardar silencio y arriesgar miles de vidas hasta el suicidio para escapar de la desgracia profesional.
Sin embargo, LeMessurier tomó la decisión más honorable: asumir toda la responsabilidad. Consciente de que esto podría significar el fin de su carrera, la bancarrota y la humillación pública, se puso en contacto con los directivos de Citicorp para informarles de que su flamante rascacielos de 175 millones de dólares era fundamentalmente inseguro. En ese momento, su mentalidad no se limitaba al deber, sino que también reflejaba un profundo sentido de su posición única, como él mismo describió:
«Tenía información que nadie más en el mundo poseía. Tenía en mis manos el poder de influir en eventos extraordinarios que solo yo podía iniciar».
Para su sorpresa, la reacción de los ejecutivos de Citicorp, liderados por el presidente Walter Wriston, no fue de ira, sino de una calma pragmática. En lugar de buscar culpables, Wriston se centró de inmediato en la solución. Pidió un bloc de notas amarillo, empezó a redactar un comunicado de prensa y bromeó: «Todas las guerras se ganan con generales que escriben en blocs amarillos». Este gesto de liderazgo, enfocado y sereno, sentó las bases para la increíble operación de rescate que estaba a punto de comenzar.
El Citigoup Center. https://es.wikipedia.org/wiki/Citigroup_Center
3. Una llamada casual de una estudiante lo desencadenó todo.
Toda esta crisis existencial y de ingeniería se desencadenó en junio de 1978 por un hecho tan improbable como una simple llamada telefónica. Al otro lado de la línea estaba Diane Hartley, una estudiante de ingeniería de la Universidad de Princeton que analizaba la estructura del Citigroup Center para su tesis.
Hartley llamó a LeMessurier con preguntas sobre la estabilidad del edificio frente a vientos diagonales. Confiado en su diseño, LeMessurier le explicó pacientemente por qué la estructura era sólida. Sin embargo, la llamada de Hartley sembró una semilla. No porque tuviera una preocupación inmediata, sino porque la conversación lo inspiró, LeMessurier decidió que el tema sería un excelente ejercicio académico para la conferencia que preparaba para sus propios estudiantes de Harvard.
Fue durante este recálculo, realizado por pura curiosidad intelectual, cuando descubrió con horror su error original. La llamada casual de Hartley no le dio la respuesta, pero le hizo la pregunta correcta en el momento adecuado, lo que supuso el golpe de suerte que reveló una vulnerabilidad mortal y activó la carrera contrarreloj para evitar una catástrofe inimaginable.
4. Una operación secreta, un huracán y una huelga de prensa lo mantuvieron en secreto.
La reparación del Citigroup Center fue una operación clandestina de alta tensión. Bajo el nombre en clave «Proyecto SERENE», los equipos trabajaban con una precisión coreografiada. Cada noche, los carpinteros llegaban a las 17:00 h para construir recintos de madera contrachapada alrededor de las juntas que había que reparar. Entre las 20:00 y las 04:00, con el sistema de alarma contra incendios desactivado, los soldadores trabajaban para reforzar más de doscientas uniones atornilladas con placas de acero de dos pulgadas de espesor. Finalmente, un equipo de limpieza eliminaba todo rastro del trabajo antes de la llegada de los primeros empleados a las 8 a. m., ajenos al peligro que se cernía sobre ellos.
El drama alcanzó su punto álgido a principios de septiembre de 1978, cuando el huracán Ella, una tormenta muy intensa, se dirigía directamente hacia la ciudad de Nueva York. Con las reparaciones a medio terminar, el edificio seguía siendo vulnerable. En secreto, las autoridades elaboraron planes para evacuar la torre y una zona de diez manzanas a su alrededor.
Entonces, la suerte intervino de nuevo. A pocas horas de la posible catástrofe, el huracán Ella viró inesperadamente hacia el Atlántico, salvando a la ciudad. El suspiro de alivio fue inmenso. Y, como si esto no fuera suficiente, un último golpe de fortuna mantuvo todo en secreto: justo cuando la historia estaba a punto de filtrarse, comenzó una huelga de periódicos en toda la ciudad que duró varios meses. La huelga enterró la noticia por completo y el casi desastre permaneció oculto al público durante casi veinte años, hasta que fue revelado en un artículo de The New Yorker en 1995.
Conclusión: la delgada línea entre el desastre y la ética.
La historia del Citigroup Center es un poderoso recordatorio de la fragilidad que puede esconderse tras una apariencia de fortaleza. Una combinación de error humano, profunda ética profesional, liderazgo decisivo y una buena dosis de suerte evitó lo que podría haber sido uno de los peores desastres arquitectónicos de la historia. El ingeniero que cometió el error lo afrontó con una valentía que salvó incontables vidas y, paradójicamente, reforzó su reputación.
La historia del Citigroup Center nos recuerda que incluso los símbolos de la permanencia pueden ser frágiles. Nos deja con una pregunta: ¿cuántos otros secretos se esconden en las estructuras que nos rodean, esperando a que una simple pregunta los saque a la luz?
En esta conversación puedes escuchar las ideas más interesantes sobre este asunto.
Aquí puedes ver un vídeo que resume bien el contenido del artículo.
En la actualidad, la inteligencia artificial (IA) está cada vez más presente en nuestra vida diaria, transformando industrias y planteando nuevas preguntas sobre la sociedad, la economía y, por supuesto, la educación. Entre las herramientas de IA emergentes, los «chatbots» generativos como ChatGPT han llamado especialmente la atención, ya que prometen revolucionar la enseñanza y el aprendizaje. Estas potentes plataformas pueden simular conversaciones humanas, ofrecer explicaciones e incluso generar textos complejos como poemas o ensayos. Sin embargo, a medida que educadores y legisladores consideran la implementación de estas tecnologías innovadoras en el ámbito educativo, es crucial reflexionar sobre las implicaciones éticas que conllevan. Aunque los beneficios potenciales son innegables, desde una mayor accesibilidad hasta experiencias de aprendizaje personalizadas, también existen desafíos significativos.
En este artículo, exploramos las consideraciones éticas clave relacionadas con el uso de chatbots generativos en la educación superior. La información que se presenta a continuación se basa en el artículo «The ethical implications of using generative chatbots in higher education» de Ryan Thomas Williams, publicado en Frontiers in Education.
A continuación, se examinan las implicaciones éticas de integrar chatbots generativos, como ChatGPT, en la educación superior. Se abordan preocupaciones clave como la privacidad de los datos de los estudiantes y los desafíos para cumplir con las regulaciones de protección de datos cuando la información es procesada y almacenada por la IA. El artículo también explora el sesgo algorítmico y señala cómo los prejuicios inherentes a los datos de entrenamiento pueden perpetuar estereotipos, además de abordar el impacto en la autoeficacia de los estudiantes al depender excesivamente de la IA, lo que podría disminuir el pensamiento crítico. Por último, se aborda el creciente problema del plagio y las «alucinaciones» de la IA, donde los chatbots generan información incorrecta, y se sugiere la necesidad de políticas claras, detección avanzada y métodos de evaluación innovadores.
1. ¿Cuáles son las principales implicaciones éticas de integrar los chatbots generativos en la educación superior?
La integración de chatbots generativos en la educación superior, como ChatGPT, aborda varias cuestiones éticas fundamentales. En primer lugar, la gestión de los datos sensibles de los estudiantes plantea importantes desafíos de privacidad, por lo que es necesario cumplir estrictamente con las normativas de protección de datos, como el RGPD, lo cual puede ser complejo debido a la naturaleza de los algoritmos de aprendizaje automático que aprenden de los datos y complican su «verdadera» eliminación. En segundo lugar, existe un riesgo significativo de sesgo algorítmico, ya que los chatbots aprenden de vastas fuentes de datos de internet que pueden perpetuar sesgos sociales (por ejemplo, de género o raciales), lo que podría afectar negativamente a la experiencia de aprendizaje del estudiante y a su visión del mundo. En tercer lugar, si bien los chatbots pueden fomentar la autonomía en el aprendizaje al ofrecer acceso bajo demanda a recursos y explicaciones personalizadas, existe la preocupación de que una dependencia excesiva pueda reducir la autoeficacia académica de los estudiantes, desincentivando el pensamiento crítico y la participación en actividades de aprendizaje más profundas. Finalmente, el plagio emerge como una preocupación primordial, ya que la capacidad de los chatbots para generar contenido sofisticado podría alentar a los estudiantes a presentar el trabajo generado por la IA como propio, lo que comprometería la integridad académica.
2. ¿Cómo afectan los chatbots generativos a la privacidad de los datos de los estudiantes en entornos educativos?
La implementación de chatbots en entornos educativos implica la recopilación, el análisis y el almacenamiento de grandes volúmenes de datos de los estudiantes, que pueden incluir desde su rendimiento académico hasta información personal sensible. Esta «gran cantidad de datos» permite experiencias de aprendizaje personalizadas y la identificación temprana de estudiantes en situación de riesgo. Sin embargo, esto genera importantes preocupaciones relacionadas con la privacidad. Existe el riesgo de uso indebido o acceso no autorizado a estos datos. Además, las regulaciones actuales de privacidad de datos, como el RGPD, permiten a los individuos solicitar la eliminación de sus datos, pero la naturaleza del aprendizaje automático significa que los algoritmos subyacentes ya han aprendido de los datos de entrada, por lo que es difícil aplicar un verdadero «derecho al olvido» o «eliminación». También hay una falta de transparencia algorítmica por parte de las empresas sobre la implementación de los algoritmos de los chatbots y sus bases de conocimiento, lo que dificulta el cumplimiento total de la ley de protección de datos, que exige que las personas estén informadas sobre el procesamiento de sus datos. Para mitigar estas preocupaciones, las instituciones educativas deben establecer directrices claras para la recopilación, almacenamiento y uso de datos, alineándose estrictamente con la normativa de protección de datos y garantizando la transparencia con todas las partes interesadas.
3. ¿Qué es el sesgo algorítmico en los chatbots educativos y cómo se puede abordar?
El sesgo algorítmico ocurre cuando los sistemas de IA, incluidos los chatbots, asimilan y reproducen los sesgos sociales presentes en los grandes conjuntos de datos con los que son entrenados. Esto puede manifestarse en forma de sesgos de género, raciales o de otro tipo que, si se reflejan en el contenido generado por la IA (como casos de estudio o escenarios), pueden perpetuar estereotipos y afectar a la experiencia de aprendizaje de los estudiantes. Para abordar esta situación, es fundamental que los conjuntos de datos utilizados para entrenar los sistemas de IA sean diversos y representativos, evitando fuentes de datos únicas o limitadas que no representen adecuadamente a grupos minoritarios. Se proponen asociaciones entre institutos educativos para compartir datos y garantizar su representatividad. Además, se deben realizar auditorías regulares de las respuestas del sistema de IA para identificar y corregir los sesgos. Es fundamental que se sea transparente sobre la existencia de estos sesgos y que se eduque a los estudiantes para que evalúen críticamente el contenido generado por la IA en lugar de aceptarlo como una verdad objetiva. El objetivo no es que la IA sea inherentemente sesgada, sino que los datos generados por humanos que la entrenan pueden contener sesgos, por lo que se requiere un enfoque deliberado y crítico para el desarrollo e implementación de la IA en la educación.
4. ¿Cómo impacta la dependencia de los estudiantes de los chatbots en su autoeficacia académica y su pensamiento crítico?
Si bien los chatbots pueden ofrecer una autonomía significativa en el aprendizaje al proporcionar acceso inmediato a recursos y respuestas personalizadas, existe la preocupación de que una dependencia excesiva pueda reducir la autoeficacia académica de los estudiantes. Esta dependencia puede llevar a los estudiantes a no comprometerse con el aprendizaje auténtico, lo que les disuade de participar en seminarios, lecturas recomendadas o discusiones colaborativas. A diferencia de las tecnologías informáticas tradicionales, la IA intenta reproducir habilidades cognitivas, lo que plantea nuevas implicaciones para la autoeficacia de los estudiantes con la IA. Además, la naturaleza en tiempo real de las interacciones con el chatbot puede fomentar respuestas rápidas y reactivas en lugar de una consideración reflexiva y profunda, lo que limita el desarrollo del pensamiento crítico. Las tecnologías de chatbot suelen promover formas de comunicación breves y condensadas, lo que puede restringir la profundidad de la discusión y las habilidades de pensamiento crítico que se cultivan mejor a través de una instrucción más guiada e interactiva, como las discusiones entre compañeros y los proyectos colaborativos. Por lo tanto, es crucial equilibrar la autonomía que ofrecen los chatbots con la orientación y supervisión de educadores humanos para fomentar un aprendizaje holístico.
5. ¿Cuál es la preocupación principal con respecto al plagio en la era de los chatbots generativos y qué soluciones se proponen?
El plagio se ha convertido en una preocupación ética crítica debido a la integración de herramientas de IA como ChatGPT en la educación. La capacidad de los chatbots para generar respuestas textuales sofisticadas, resolver problemas complejos y redactar ensayos completos crea un entorno propicio para la deshonestidad académica, ya que los estudiantes pueden presentar la producción de la IA como propia. Esto es especialmente problemático en sistemas educativos que priorizan los resultados (calificaciones, cualificaciones) sobre el proceso de aprendizaje. Los estudiantes pueden incurrir incluso en plagio no intencional si utilizan chatbots para tareas administrativas o para mejorar su escritura en inglés sin comprender completamente las implicaciones. Para abordar esta situación, es necesario un enfoque integral que incluya educar a los estudiantes sobre la importancia de la honestidad académica y las consecuencias del plagio. También se propone desplegar software avanzado de detección de plagio capaz de identificar texto generado por IA, aunque se reconoce que estas metodologías deben evolucionar continuamente para mantenerse al día con los avances de la IA. Más allá de la detección, es esencial reevaluar las estrategias de evaluación y diseñar tareas que evalúen la comprensión de los estudiantes y fomenten el pensamiento original, la creatividad y las habilidades que actualmente están más allá del alcance de la IA, como las presentaciones orales y los proyectos en grupo. También es crucial fomentar la transparencia sobre el uso de la IA en el aprendizaje, algo similar a lo que se hace con los correctores ortográficos.
6. ¿Qué se entiende por «alucinaciones» de la IA en los chatbots educativos y por qué son problemáticas?
Las «alucinaciones» de la IA se refieren a las respuestas generadas por modelos de lenguaje de IA que contienen información falsa o engañosa presentada como si fuera real. Este fenómeno ganó atención generalizada con la llegada de los grandes modelos de lenguaje (LLM), como ChatGPT, donde los usuarios notaron que los chatbots insertaban frecuentemente falsedades aleatorias en sus respuestas. Si bien el término «alucinación» ha sido criticado por su naturaleza antropomórfica, el problema subyacente es la falta de precisión y fidelidad a fuentes de conocimiento externas. Las alucinaciones pueden surgir de discrepancias en grandes conjuntos de datos, errores de entrenamiento o secuencias sesgadas. Para los estudiantes, esto puede llevar al desarrollo de conceptos erróneos, lo que afecta a su comprensión de conceptos clave y a su confianza en la IA como herramienta educativa fiable. Para los educadores, el uso de contenido generado por IA como recurso en el aula plantea un desafío ético significativo, ya que son los responsables de garantizar la precisión de la información presentada. Los estudios han descubierto que un porcentaje considerable de referencias generadas por chatbots son falsas o inexactas. Si bien la IA puede reducir la carga de trabajo de los docentes, la supervisión humana sigue siendo esencial para evitar imprecisiones, lo que puede crear una carga administrativa adicional.
7. ¿Cómo pueden las instituciones educativas equilibrar los beneficios de los chatbots con sus riesgos éticos?
Para conseguirlo, las instituciones educativas deben adoptar un enfoque reflexivo y multifacético. Esto implica establecer límites éticos firmes para proteger los intereses de los estudiantes, los educadores y la comunidad educativa en general. Se recomienda implementar políticas claras y sólidas de recopilación, almacenamiento y uso de datos, alineándose estrictamente con regulaciones de protección de datos como el RGPD, a pesar de los desafíos relacionados con la eliminación de datos y la transparencia algorítmica. Para mitigar el sesgo algorítmico, las instituciones deben garantizar que los conjuntos de datos de entrenamiento sean diversos y representativos, y realizar auditorías regulares. Para evitar una dependencia excesiva y mantener la autoeficacia académica de los estudiantes, los educadores deben fomentar la autonomía en el aprendizaje sin comprometer el pensamiento crítico ni el compromiso auténtico. Con respecto al plagio, es fundamental educar a los estudiantes sobre la integridad académica, utilizar software avanzado de detección de plagio y reevaluar los métodos de evaluación para fomentar el pensamiento original y las habilidades que la IA no puede replicar. Por último, es crucial que se conciencie a la sociedad sobre las «alucinaciones» de la IA, para lo cual los educadores deben verificar la exactitud de la información generada por la IA y reconocer su naturaleza evolutiva, comparándola con los primeros días de Wikipedia. Es una responsabilidad colectiva de todas las partes interesadas garantizar que la IA se utilice de una manera que respete la privacidad, minimice el sesgo, apoye la autonomía equilibrada del aprendizaje y mantenga el papel vital de los maestros humanos.
8. ¿Qué papel juega la transparencia en el uso ético de los chatbots de IA en la educación?
La transparencia es un pilar fundamental para el uso ético de los chatbots de IA en la educación, ya que aborda varias de las preocupaciones éticas clave. En el ámbito de la privacidad de los datos, es esencial que los usuarios estén informados sobre las prácticas de gestión de datos para aliviar sus preocupaciones y generar confianza en los chatbots adoptados. Esto incluye informar a los usuarios sobre cómo se recopilan, almacenan y utilizan sus datos. Con respecto al sesgo algorítmico, la transparencia significa reconocer que los chatbots pueden mostrar sesgos ocasionalmente debido a los datos de entrenamiento subyacentes. Se debe alentar a los estudiantes a evaluar críticamente la producción de los chatbots, en lugar de aceptarla como una verdad objetiva, teniendo en cuenta que el sesgo no es inherente a la IA, sino a los datos generados por humanos con los que se entrena. En la prevención del plagio, la transparencia en la educación es vital para el uso responsable de las herramientas de IA; los estudiantes deben ser conscientes de que deben reconocer la ayuda recibida de la IA, de la misma manera en que se acepta la ayuda de herramientas como los correctores ortográficos. Además, para las «alucinaciones» de la IA, es importante que los educadores y los estudiantes sean conscientes de la posibilidad de que los chatbots generen información falsa o engañosa, lo que requiere un escrutinio humano continuo para su verificación. En general, la transparencia fomenta la alfabetización digital y la conciencia crítica, y empodera a los usuarios para navegar por el panorama de la IA de manera más efectiva.
Referencia:
WILLIAMS, R. T. (2024). The ethical implications of using generative chatbots in higher education. In Frontiers in Education (Vol. 8, p. 1331607). Frontiers Media SA.
Glosario de términos clave
Inteligencia artificial (IA): La capacidad de un sistema informático para imitar funciones cognitivas humanas como el aprendizaje y la resolución de problemas (Microsoft, 2023). En el contexto del estudio, se refiere a sistemas que pueden realizar tareas que normalmente requieren inteligencia humana.
Chatbots generativos: Programas de IA capaces de simular conversaciones humanas y generar respuestas creativas y nuevas, como poemas, historias o ensayos, utilizando Procesamiento del Lenguaje Natural (PLN) y vastos conjuntos de datos.
Procesamiento del lenguaje natural (PLN): Un subcampo de la IA que permite a las máquinas entender, responder y generar lenguaje humano. Es fundamental para la funcionalidad de los chatbots avanzados.
Aprendizaje automático (ML): Un subconjunto de la IA que permite a los sistemas aprender de los datos sin ser programados explícitamente. Los chatbots modernos utilizan ML para mejorar sus respuestas a lo largo del tiempo.
Privacidad de datos: La protección de la información personal de los individuos, asegurando que se recopile, almacene y utilice de forma ética y legal. En el contexto educativo, se refiere a la información sensible de los estudiantes.
Reglamento general de protección de datos (GDPR): Una ley de la Unión Europea sobre protección de datos y privacidad en el Área Económica Europea y el Reino Unido. Es relevante para la gestión de datos sensibles de estudiantes.
Ley de protección de la privacidad en línea de los niños (COPPA): Una ley de Estados Unidos que impone ciertos requisitos a los operadores de sitios web o servicios en línea dirigidos a niños menores de 13 años.
Derecho al olvido: El derecho de un individuo a que su información personal sea eliminada de los registros de una organización, un concepto que se complica con la naturaleza del aprendizaje de los algoritmos de IA.
Transparencia algorítmica: La capacidad de entender cómo funcionan los algoritmos de IA y cómo toman decisiones, incluyendo el acceso a los detalles de su implementación y bases de conocimiento.
Big Data: Conjuntos de datos tan grandes y complejos que los métodos tradicionales de procesamiento de datos no son adecuados. En los chatbots, se utilizan para personalizar experiencias.
Sesgo algorítmico: Ocurre cuando los sistemas de IA asimilan y reproducen sesgos sociales presentes en los datos con los que fueron entrenados, lo que puede llevar a resultados injustos o estereotipados.
Autoeficacia académica: La creencia de un estudiante en su capacidad para tener éxito en sus tareas académicas. El estudio explora cómo una dependencia excesiva de la IA podría impactarla negativamente.
Autoeficacia en IA: La confianza de un individuo en su capacidad para usar y adaptarse a las tecnologías de inteligencia artificial. Distinto de la autoeficacia informática tradicional debido a las capacidades cognitivas de la IA.
Plagio: La práctica de tomar el trabajo o las ideas de otra persona y presentarlas como propias, sin la debida atribución. Se convierte en una preocupación crítica con la capacidad de los chatbots para generar texto.
Software de detección de plagio: Herramientas diseñadas para identificar instancias de plagio comparando un texto con una base de datos de otros textos. La evolución de la IA plantea desafíos para su eficacia.
Alucinación de IA: Una respuesta generada por un modelo de lenguaje de IA que contiene información falsa, inexacta o engañosa, presentada como si fuera un hecho.
Modelos de lenguaje grandes (LLMs): Modelos de IA muy grandes que han sido entrenados con inmensas cantidades de texto para comprender, generar y responder al lenguaje humano de manera sofisticada. ChatGPT es un ejemplo de LLM.
Integridad académica: El compromiso con la honestidad, la confianza, la justicia, el respeto y la responsabilidad en el aprendizaje, la enseñanza y la investigación. Es fundamental para el entorno educativo y está amenazada por el plagio asistido por IA.
Os dejo este artículo, pues está en acceso abierto:
Os dejo a continuación una interesante entrevista a D. Vicente Ibarra Damiá, Vocal de la Junta de Gobierno del Colegio Oficial de Ingenieros de Caminos, Canales y Puertos de la Comunidad Valencia, sobre la práctica profesional de la ingeniería civil. Se enmarca esta entrevista dentro del proyecto Ethos Living Lab – Ética y Profesiones está dirigido a establecer una plataforma de trabajo y colaboración entre los colegios profesionales valencianos, el estudiantado de la Universitat de València y la sociedad en general para impulsar la reflexión y el debate, fomentar la capacitación de equipos transdisciplinares con formación ética, desarrollar las buenas prácticas profesionales y el trabajo socialmente responsable, y promover el diseño de proyectos que den respuestas concretas a los retos que plantea el contexto actual. Con este proyecto pretendemos no solo impulsar en el ámbito académico la mejora de competencias transversales del estudiantado, la formación en valores, la igualdad de género, la formación del talento y la transferencia del conocimiento, sino también proyectar una renovada fuerza de la ética de las profesiones y su capacidad para crear riqueza humana y social, fomentando la inserción laboral y la cohesión social.
La filósofa Adela Cortina, investida ‘honoris causa’ por la Universitat Politècnica de València, diciembre de 2016
Me gustaría dedicar mi último artículo de 2016 a la profesora Adela Cortina, flamante doctora honoris causa por la Universitat Politècnica de València. Su visión sobre la ética, la ciencia y la tecnología nos permite encuadrar nuestro quehacer diario dentro un ámbito de conocimiento global que supera viejas barreras. A continuación os dejo una breve recensión de un capítulo de su libro “Para qué sirve realmente la ética” en lo tocante a la profesión y la técnica. Un libro imprescindible para entender lo qué es la ética.
Educar con calidad supone formar ciudadanos justos, personas que sepan compartir valores morales propios de una sociedad pluralista y democrática, esos mínimos de justicia que permiten construir una buena sociedad. Supone formar buenos profesionales, pues no es lo mismo un buen técnico que un buen profesional. Transformar la vida pública no solo es cosa de políticos, sino también desde la sociedad civil, siendo un lugar privilegiado el mundo de las profesiones. Quien ingresa en una profesión se compromete a proporcionar un bien a la sociedad, tiene que prepararse para ello, adquiriendo las competencias adecuadas, y a la vez ingresa en una comunidad de profesionales que comparten la misma meta. Los profesionales se hacen responsables de los medios y de las consecuencias de sus acciones con vistas a alcanzar los fines mejores. Quien ingresa en una profesión no puede proponerse una meta cualquiera, sino que le viene dada y es la que comparte con el resto de colegas. Los motivos por los que se accede a la profesión se convierten en razones cuando concuerdan con las metas de la profesión, que les da auténtico sentido y legitimidad social. Se deben formar profesionales, no puros técnicos, recordado sus fines legítimos y qué hábitos hay que desarrollar para alcanzarlos. Parece que hay dos modelos educativos contrapuestos, promover la excelencia y no generar excluidos. Una tercera vía es la de la universalización de la excelencia, entendiendo por excelente la virtud de la persona que es fecunda para la sociedad a la que pertenece. El éxito consiste en competir con uno mismo, lo cual requiere esfuerzo, pues no se construye una sociedad justa con ciudadanos mediocres.
A continuación también os dejo un vídeo donde la propia filósofa explica con sus palabras qué es la ética. Espero que os guste.
He tenido la ocasión de impartir un par de clases de ética a alumnos de ingeniería en la Pontificia Universidad Católica de Chile (octubre de 2013). Me parece un tema de gran interés. Allí las clases se ordenan en función de estudios de casos que luego se resuelven y discuten en grupo.
La metodología sugerida para este tipo de cursos es la siguiente:
Presentación del profesor y las normas de cómo se desarrolla la clase.
Lectura detallada y lenta del caso por parte de todos los estudiantes. Para ello se le entrega impreso a cada uno el caso (se puede leer en voz alta) -15 a 20 minutos-. Si hay algún vídeo explicativo o presentación en power point, mejor todavía. A veces hay que hacer explicaciones técnicas porque los estudiantes no dominan la mayoría de las veces el tipo de vocabulario propio de la especialidad.
Se les solicita contestar en grupos de dos o tres personas y que se pongan de acuerdo (10 minutos).
El profesor pide a un estudiante que lea su respuesta o la del grupo y se suscita discusión entre los compañeros respecto a lo manifestado por el grupo cuyo escrito se leyó, y así sucesivamente con diferentes grupos (no alcanzan todos los grupos a manifestarse). En total 40 minutos.
El profesor propone algunas preguntas para ser contestadas como control personal o comunitario (10 minutos).
Finalmente el profesor recapitula, toma algunas de las cosas que se han dicho y plantea la solución final o las posibles soluciones, la cual la trae escrita y la plantea y entrega a los estudiantes al final (5 minutos).
Dejo aquí una página de interés de donde se pueden sacar casos para este tipo de clases: https://ethics.tamu.edu/