Montaje por movimientos horizontales de puentes atirantados

Los procedimientos de montaje por movimientos horizontales de puentes atirantados se aplican cuando el puente —total o parcialmente— se construye fuera de su posición definitiva y se traslada posteriormente hasta ella. Este enfoque permite reducir la interferencia con el cauce, el tráfico o las infraestructuras existentes, además de mejorar la seguridad y el control de calidad, ya que la mayor parte de los trabajos se realizan en condiciones estables sobre tierra firme.

En todos los casos, las torres y el tablero deben comportarse de forma solidaria durante el desplazamiento, apoyándose el conjunto en pilas o apoyos provisionales que garanticen la estabilidad global. La elección del método depende de las condiciones geométricas del emplazamiento, de las luces principales, de la rigidez del sistema atirantado y de la disponibilidad de medios auxiliares.

Se distinguen tres métodos fundamentales de ejecución:

a) Puentes empujados longitudinalmente

Este procedimiento es similar al empleado en los puentes de vigas lanzadas incrementalmente, pero está adaptado a la configuración atirantada. El tablero se construye por tramos en una orilla y se empuja progresivamente hacia el vano principal mediante gatos hidráulicos. Para compensar los momentos negativos en el frente de avance, se coloca una nariz de lanzamiento o una estructura auxiliar ligera.

Durante el empuje, los apoyos provisionales y las torres soportan cargas variables, por lo que es necesario controlar continuamente la tensión en los tirantes y realizar ajustes secuenciales para evitar sobreesfuerzos o deformaciones excesivas. Para ello, se utilizan dispositivos deslizantes de baja fricción, como placas de neopreno-PTFE sobre acero inoxidable o carros rodantes en combinación con gatos sincronizados. Además, se realiza una instrumentación topográfica y extensométrica en tiempo real para controlar la geometría de avance.

Un ejemplo representativo es el puente de la calle Jülicher, en Düsseldorf, donde este sistema se aplicó con éxito, combinando el control hidráulico de las tensiones en los tirantes con el uso de apoyos provisionales sobre las pilas intermedias durante el avance del tablero. El mismo procedimiento se empleó en el puente de la calle Franklin, también en Düsseldorf, siguiendo una metodología constructiva similar.

Puente de la calle Jülicher en Düsseldorf, Alemania. https://de.wikipedia.org/wiki/Br%C3%BCcke_J%C3%BClicher_Stra%C3%9Fe

b) Puentes girados

Cuando las condiciones del terreno o del cauce hacen inviable el empuje longitudinal, se puede recurrir al giro del puente completo o de sus semitableros desde una posición lateral de montaje. El conjunto se apoya temporalmente sobre una articulación o pivote reforzado bajo la torre principal, mientras el extremo libre describe un sector circular hasta alcanzar su posición definitiva.

Durante la maniobra, es fundamental mantener el equilibrio del centro de gravedad y la estabilidad frente al vuelco o la torsión, por lo que suelen emplearse lastres temporales y gatos hidráulicos sincronizados. La precisión se garantiza mediante un control topográfico y de tensiones en los tirantes antes y después del giro.

El puente sobre el canal del Danubio, en Viena, es un ejemplo clásico de dos semipuentes girados hasta su posición final. Otro caso notable es el puente de Ben-Ahin (Père Pire) sobre el río Mosa, en Bélgica, que se construyó por completo en una orilla y se giró alrededor de su pila principal en 1987. La maniobra, que desplazó decenas de miles de toneladas, supuso en su momento un récord europeo por el peso movilizado mediante una rotación controlada. Este puente, construido en 1988, fue en su momento el de mayor masa girada del mundo. La pila tiene 84 metros de altura; el tablero mide 341 metros de largo y pesa 16 000 toneladas. Lo soportan 40 cables en abanico situados en un plano.

Puente de Ben-Ahin, Bélgica. Imagen: C. Pujos. Fuente: http://www.puentemania.com/3502

c) Puentes ripados transversalmente

El ripado o traslación transversal consiste en construir el puente en su ubicación final y trasladarlo lateralmente mediante sistemas de deslizamiento controlado. Este método requiere alineamientos precisos entre la posición inicial y la definitiva, así como patines o cojinetes de deslizamiento lubricados, que a menudo se combinan con transportadores modulares autopropulsados (SPMT, por sus siglas en inglés) o con gatos de empuje y freno.

El puente de Oberkassel, en Düsseldorf, es un ejemplo representativo de este tipo de maniobra. La estructura principal se desplazó lateralmente desde su zona de ensamblaje hasta el eje del río mediante carros rodantes y guías transversales, bajo una monitorización topográfica en tiempo real que garantizó la precisión del posicionamiento final. El puente tiene una luz principal de 257,75 m y una torre central de 100 m de altura sobre el tablero. Su superestructura metálica, de 35 m de ancho, está formada por una viga cajón de tres células con losa ortótropa.

Puente sobre el Rin Düsseldorf-Oberkassel. Fuente: https://www.visitduesseldorf.de/en/attractions/oberkasseler-bruecke-bridge-b2338616ec

El ripado presenta ventajas en emplazamientos con suficiente espacio lateral, ya que reduce los trabajos en el cauce y minimiza las afecciones medioambientales o de tráfico. No obstante, exige un estudio detallado del coeficiente de fricción, de las reacciones en los apoyos provisionales y de los esfuerzos transitorios en los tirantes y en las pilas durante el movimiento.

Consideraciones generales

En los puentes atirantados, los movimientos horizontales requieren una planificación constructiva precisa y un análisis estructural temporal que contemple la evolución de las tensiones, las deformaciones y la estabilidad global en cada fase. Es fundamental modelar los estados transitorios y definir procedimientos de tensado, destensado y control geométrico con el apoyo de instrumentación avanzada (celdas de carga, inclinómetros y estaciones totales automatizadas).

En la práctica, estos métodos ofrecen varias ventajas: permiten trabajar en seco y en condiciones controladas, reducen los riesgos laborales y minimizan la interferencia con el entorno. Entre sus principales limitaciones se encuentran el coste de los equipos especializados, la complejidad de las maniobras y la necesidad de personal altamente cualificado.

En resumen, el montaje por movimientos horizontales es una técnica versátil y segura, plenamente consolidada en la ingeniería de puentes moderna, que combina la precisión geométrica con la eficiencia constructiva. Ha demostrado su viabilidad en numerosos puentes atirantados europeos, como los de Düsseldorf, Viena y Ben-Ahin.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Harold M. Westergaard: el ingeniero que cimentó la teoría moderna de estructuras

Harold Malcolm Westergaard (1888 – 1950). https://sv.wikipedia.org/wiki/Harald_Westergaard

Harold Malcolm Westergaard (Copenhague, Dinamarca, 9 de octubre de 1888 – Cambridge, Massachusetts, Estados Unidos, 22 de junio de 1950) fue un ingeniero estructural danés cuya influencia en la teoría de estructuras y en el análisis del hormigón armado ha perdurado a lo largo de todo el siglo XX. Fue profesor de Mecánica Teórica y Aplicada en la Universidad de Illinois en Urbana y, posteriormente, de Ingeniería Civil en la Universidad de Harvard, donde llegó a ocupar el decanato de la Escuela de Posgrado de Ingeniería.

Westergaard nació en el seno de una familia profundamente vinculada al mundo académico. Su abuelo fue profesor de lenguas orientales en la Universidad de Copenhague y su padre, catedrático de economía y estadística en la misma institución. Esta herencia intelectual marcó su vocación científica desde joven. Estudió ingeniería en el Instituto Técnico de Copenhague (Danmarks Tekniske Højskole), donde trabajó bajo la dirección del destacado ingeniero civil Asger Ostenfeld, graduándose en 1911. Mantuvo contacto con su maestro hasta la muerte de este en 1931, conservando siempre una profunda admiración por su figura.

Tras finalizar sus estudios, Westergaard adquirió experiencia práctica en la construcción de estructuras de hormigón armado en Copenhague, Hamburgo y Londres. Después se mudó a Alemania, donde se impregnó del ambiente científico de la escuela de Göttingen, en torno a figuras como Felix Klein. Allí estudió bajo la dirección de Ludwig Prandtl, uno de los padres de la mecánica de fluidos moderna. En 1915, con la ayuda de August Föppl, preparó la edición escrita de su disertación doctoral en la Königlich Bayerische Technische Hochschule München (actual Universidad Técnica de Múnich). Sin embargo, la Primera Guerra Mundial interrumpió su proceso académico y no pudo defender su tesis hasta septiembre de 1921, ante Sebastian Finsterwalder y Ludwig Föppl. El reconocimiento oficial de su título de doctor ingeniero no llegaría hasta 1925, cuando su tesis doctoral fue finalmente publicada.

Durante esos años, Westergaard se trasladó a Estados Unidos con una beca de la American Scandinavian Foundation. En 1916 obtuvo el doctorado en la Universidad de Illinois en Urbana y, por recomendación de su mentor, Ostenfeld, fue nombrado profesor de mecánica teórica y aplicada en esa misma universidad. Su carrera académica fue ascendente: en 1921 fue ascendido a assistant professor, en 1924 a associate professor y en 1927 alcanzó la categoría de full professor.

La producción científica de Westergaard fue tan precoz como influyente. En 1920, publicó un estudio sobre la resistencia de materiales dúctiles sometidos a esfuerzos combinados en dos o tres direcciones perpendiculares. Al año siguiente, presentó un artículo sobre momentos y tensiones en losas de hormigón armado junto con William. A. Slater. Este trabajo pionero en su campo le valió la prestigiosa Medalla Wason del American Concrete Institute (ACI) en 1922. Ese mismo año, también publicó un estudio sobre el pandeo de estructuras elásticas que ampliaría más tarde con nuevos resultados teóricos.

A partir de 1923, comenzó a investigar la interacción entre los pavimentos de hormigón y el terreno de apoyo para la construcción de carreteras, un campo en el que sus aportaciones se convirtieron en una referencia obligada. Entre 1925 y 1926, publicó varios artículos fundamentales sobre el cálculo de tensiones en pavimentos de hormigón, como Stress in concrete pavements, computed by theoretical analysis y Computation of stresses in concrete roads, que sentaron las bases de la normativa moderna para el diseño de firmes rígidos. En sus modelos, Westergaard representaba los pavimentos como losas delgadas elásticas sobre un lecho tipo Winkler, siguiendo la teoría de placas de Kirchhoff. Aunque años más tarde otros autores, como Losberg (1960) o Ioannides (1985), señalaron inconsistencias teóricas en sus ecuaciones, su modelo se mantuvo como el estándar de referencia durante décadas, incluso más allá de la «fase de innovación» de la teoría de estructuras (1950-1975).

Westergaard también se interesó por la aplicación del análisis estructural a problemas reales de ingeniería civil. En 1930, publicó One Hundred Years Advance in Structural Analysis, una obra histórica que se considera el primer estudio sistemático sobre la evolución de la teoría de estructuras en Estados Unidos. Ese mismo año elaboró un trabajo sobre losas de puentes sometidas a cargas móviles (Computation of stresses in bridge slabs due to wheel loads). En 1933 publicó su influyente estudio Water Pressures on Dams During Earthquakes, fruto de su labor como asesor técnico del Bureau of Reclamation de los Estados Unidos durante el diseño de la presa Hoover, una de las obras más emblemáticas de la ingeniería moderna.

En 1935, presentó una contribución teórica de gran profundidad: la General Solution of the Problem of Elastostatics in an n-Dimensional Homogeneous Isotropic Solid in an n-Dimensional Space, en la que ofreció una formulación general del problema de la elastostática en espacios de dimensión arbitraria. Poco después, en 1939, publicó dos trabajos clave: Bearing Pressures and Cracks, sobre las presiones de apoyo y la aparición de fisuras, y Stresses in Concrete Runways of Airports, en el que extendió sus investigaciones sobre pavimentos al ámbito aeroportuario.

En 1936 fue nombrado profesor Gordon McKay de Ingeniería Estructural en la Universidad de Harvard y entre 1937 y 1946 ejerció como decano de la Escuela de Posgrado de Ingeniería. Durante este periodo, se centró en los fundamentos teóricos de la mecánica, abordando cuestiones de mecánica de fractura, un campo en el que sus estudios supusieron un hito. En 1942 publicó Stresses Concentration in Plates Loaded Over Small Areas y, en 1948, New Formulas for Stresses in Concrete Pavements of Airfields, obras que consolidaron su autoridad en el análisis estructural del hormigón.

Durante la Segunda Guerra Mundial, Westergaard sirvió como comandante del Cuerpo de Ingenieros Civiles de la Marina de Estados Unidos. También participó en la comisión encargada de evaluar los efectos estructurales de las bombas atómicas de Hiroshima y Nagasaki y contribuyó, con su experiencia, a la comprensión del comportamiento de las estructuras sometidas a cargas extremas.

En la primavera de 1949, comenzó a recopilar su extensa producción científica, que constaba de casi cuarenta artículos. A pesar de su grave enfermedad, logró completar la primera parte de su manuscrito sobre teoría de la elasticidad, que se publicó póstumamente en 1952 con el título Theory of Elasticity and Plasticity. Falleció el 22 de junio de 1950 en Cambridge, Massachusetts.

La muerte de Harold M. Westergaard supuso la pérdida de una de las figuras más brillantes e influyentes de la ingeniería estructural estadounidense en su etapa de gestación (1925-1950). Su colega Nathan Newmark lo describió como «una figura impresionante, intelectualmente brillante y físicamente fuerte. Amaba el arte y la música, y aunque era algo tímido, era cálido y atento con los demás».

Su legado científico es extenso y trascendente. Entre sus principales contribuciones destacan:

  • On the Resistance of Ductile Materials to Combined Stresses in Two or Three Directions Perpendicular to One Another (1920)
  • Moments and Stresses in Slabs (1921)
  • Buckling of Elastic Structures (1922)
  • Anwendung der Statik auf die Ausgleichsrechnung (1925)
  • Stress in Concrete Pavements Computed by Theoretical Analysis (1926/1)
  • Computation of Stresses in Concrete Roads (1926/2)
  • One Hundred Years Advance in Structural Analysis (1930/1)
  • Computation of Stresses in Bridge Slabs Due to Wheel Loads (1930/2)
  • Water Pressures on Dams During Earthquakes (1933)
  • General Solution of the Problem of Elastostatics in an n-dimensional Homogeneous Isotropic Solid in an n-dimensional Space (1935)
  • Bearing Pressures and Cracks (1939)
  • Theory of Elasticity and Plasticity (1952)

Harold Malcolm Westergaard fue, sin duda, un ingeniero con una amplitud intelectual poco común: un científico riguroso, un profesor inspirador y un hombre comprometido con su tiempo. Sus teorías, obras y visión interdisciplinar siguen siendo una referencia fundamental en la historia de la ingeniería estructural moderna.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

5 revelaciones sobre el aprendizaje que la educación tradicional ignora.

¿Te has preguntado alguna vez por qué se olvida la información justo después de un examen? No se trata de un fallo personal, sino del resultado previsible de un modelo educativo anticuado que suele priorizar la memorización a corto plazo sobre la comprensión profunda. De hecho, la investigación ha demostrado que los estudiantes retienen muy poco de lo que se les enseña en una clase magistral tradicional.

Frente a este desafío, surge el «aprendizaje activo» como una alternativa poderosa. Su enfoque no se centra en lo que enseña el profesor, sino en lo que el estudiante construye. En lugar de ser receptores pasivos, los estudiantes se convierten en protagonistas de su propio proceso de aprendizaje.

A continuación, revelaremos cinco aspectos fundamentales de este enfoque que están redefiniendo el éxito educativo y transformando tu manera de entender el aprendizaje.

Revelación 1: tu cerebro no es un disco duro; es una red en construcción.

El modelo tradicional considera la mente como un recipiente vacío o un disco duro que hay que llenar de datos. La revelación es que la mente no es un almacén, sino un telar. Cada nueva idea es un hilo que solo tiene valor cuando se entreteje con los demás.

La psicología cognitiva nos enseña que el conocimiento se organiza en «redes semánticas». Para que una nueva información sea útil y duradera, debe conectarse con la red existente en nuestra mente. Sin esa conexión, se trata de un dato aislado, fácil de olvidar e inútil para resolver problemas. Aprender no es acumular, sino construir significado.

La enseñanza basada en metodologías activas se centra en el estudiante y en su formación en competencias propias de la disciplina. Estas estrategias conciben el aprendizaje como un proceso constructivo y no como un proceso receptivo.

Revelación 2: no importa tanto lo que sabes, sino cómo aprendes.

En un mundo saturado de información, la habilidad más valiosa no es memorizar datos, sino aprender de forma autónoma. Las metodologías activas se centran en el desarrollo del «aprendizaje autodirigido», cultivando las habilidades metacognitivas que nos serán útiles a lo largo de toda la vida.

Esto significa ser conscientes de nuestro propio proceso de aprendizaje: evaluar la dificultad de un problema, comprender si hemos entendido un texto, saber cuándo debemos buscar estrategias alternativas y medir nuestro progreso. Esta autonomía es crucial en un panorama laboral cambiante que exige un aprendizaje continuo, por lo que se convierte en una capacidad mucho más relevante que cualquier dato memorizado.

Se trata de promover habilidades que permitan al estudiante valorar la dificultad de los problemas, detectar si ha comprendido un texto, saber cuándo debe utilizar estrategias alternativas para comprender la documentación y evaluar su progreso en la adquisición de conocimientos.

Revelación 3: el aprendizaje se enciende con problemas reales, no con teoría abstracta.

¿Por qué aprendemos? La respuesta más potente es para resolver problemas. Esta revelación sostiene que la enseñanza debe producirse en el contexto de los desafíos del mundo real o de la práctica profesional. Al enfrentar situaciones complejas y significativas, el aprendizaje adquiere un propósito claro y tangible.

Esta contextualización no solo aumenta la motivación, sino que también facilita la transición de la universidad al mundo laboral. Cuando el conocimiento se ancla en la realidad, deja de ser un ejercicio abstracto para convertirse en una herramienta poderosa y fundamental para el futuro profesional.

Revelación 4: el profesor no es un orador, sino un arquitecto de experiencias.

El modelo tradicional nos dio al «sabio en el escenario» (sage on the stage). La metodología activa nos ofrece la figura del «guía a tu lado» (guide on the side) o, más precisamente, la de un «arquitecto de experiencias de aprendizaje». Su papel ya no consiste en transmitir información, sino en diseñar escenarios que despierten la curiosidad.

En estos escenarios, el profesor asigna un papel profesional a los estudiantes («ustedes son un equipo de ingenieros…») y plantea un problema. A menudo, utiliza un «objeto de información» —una noticia de periódico, una imagen intrigante, un poema— que actúa como catalizador. Este objeto no da pistas, sino que crea una «necesidad de aprendizaje», un motor que impulsa a los estudiantes a buscar el conocimiento necesario para cumplir su misión.

Revelación 5: el equipo no es un grupo de amigos, sino una estructura de responsabilidades.

El trabajo en grupo es un pilar fundamental de este enfoque, que se estructura según los principios del «aprendizaje cooperativo» para recrear entornos profesionales y garantizar la participación de todos. La complejidad de los problemas del mundo real a menudo es tal que los miembros del grupo necesitan repartirse las tareas para avanzar.

Hay dos conceptos clave. El primero es la interdependencia positiva: la tarea está diseñada de modo que todos los miembros del grupo sean necesarios para alcanzar el éxito. El segundo es la exigibilidad individual: cada estudiante es responsable de su parte del trabajo y de comprender la labor del resto del equipo. No se trata solo de una tarea académica, sino de un entrenamiento directo para el mundo laboral, donde la colaboración y la responsabilidad compartida son la norma.

Conclusión: una invitación a repensar el aprendizaje.

Estas revelaciones nos obligan a redefinir el concepto de éxito educativo. Ya no se trata de cuánta información se ha transmitido, sino de qué capacidades se han desarrollado. Suponen un cambio de paradigma fundamental: el foco deja de estar en lo que enseña el docente para ponerse en lo que el estudiante es capaz de hacer con lo que aprende.

Este enfoque fomenta una comprensión más profunda, una mayor motivación y habilidades de colaboración y resolución de problemas, tan demandadas en el mundo actual. Supone dejar de ser receptores pasivos para convertirnos en constructores activos de nuestro propio conocimiento.

Si pudieras aplicar solo una de estas ideas a tu forma de aprender o de enseñar, ¿cuál elegirías y por qué?

Aquí te dejo una conversación que ilustra bien lo expuesto.

Y si quieres un resumen, puedes ver este vídeo.

Referencias:

Brunning, R. H., Schraw, G. J., & Ronning, R. R. (1995). Cognitive psychology and instruction (2ª ed.). Englewood Cliffs, NJ: Prentice Hall.

Duch, B. J., Groh, S. E., & Allen, D. E. (2001). The power of problem-based learning. Sterling, VA: Stylus.

Glaser, R. (1991). The maturing of the relationship between the science of learning and cognition and educational practice. Learning and Instruction, 1(2), 129–144.

Johnson, D. W., Johnson, R. T., & Smith, K. A. (2000). Active learning: Cooperation in the college classroom. Edina, MN: Interaction Book.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

3 secretos sorprendentes detrás de las encuestas que rellenas cada día.

Introducción: La ciencia oculta de las encuestas.

Todos hemos pasado por ello: cuestionarios interminables, preguntas que parecen sacadas de un manual de psicología y, sobre todo, esa sensación de responder a la misma pregunta una y otra vez. Es una experiencia tan común como, a menudo, frustrante. ¿Por qué algunas preguntas parecen extrañas o repetitivas? ¿Realmente merece la pena todo este esfuerzo?

La respuesta es un rotundo sí. Detrás de cada cuestionario bien diseñado se esconde la rigurosa ciencia de la psicometría, el campo dedicado al arte de la medición precisa. Conceptos como la fiabilidad y la validez son los pilares de cualquier instrumento de medición serio, ya sea una encuesta de satisfacción del cliente o un test de personalidad.

Este artículo desvela algunos de los secretos más sorprendentes y fascinantes sobre cómo se construyen estas escalas de medida. Descubrirás por qué la repetición puede ser una virtud, por qué la perfección a veces es sospechosa y por qué es posible equivocarse de manera confiable.

Primer secreto: la fiabilidad no es la validez (y se puede estar fiablemente equivocado).

En el mundo de la medición, la fiabilidad y la validez son dos conceptos cruciales que a menudo se confunden. Sin embargo, comprender su diferencia es fundamental para entender por qué algunas encuestas funcionan y otras no.

  • La fiabilidad se refiere a la precisión o consistencia de una medida. Un instrumento fiable produce resultados muy similares cada vez que se utiliza en las mismas condiciones.
  • La validez es la exactitud de la medida. Un instrumento válido mide exactamente lo que se pretende medir. La validez va más allá de la simple exactitud, ya que se asegura de que las conclusiones que extraemos de los resultados de la encuesta estén justificadas y sean significativas.

La mejor manera de entenderlo es mediante la analogía de un tirador que apunta a una diana.

  • Fiabilidad sin validez: imagina a un tirador. Escuchas el sonido seco y repetitivo de los disparos impactando en la madera, agrupados en un área no mayor que una moneda, pero peligrosamente cerca del borde de la diana. El patrón es muy consistente (alta fiabilidad), pero erróneo de forma sistemática, ya que no alcanza el blanco (baja validez). Esto representa un error sistemático que se debe a un defecto fundamental en el diseño del cuestionario, como preguntas mal redactadas o una escala de respuesta poco clara.
  • Validez con baja fiabilidad: ahora imagina a un tirador cuyos disparos están dispersos por toda la diana, pero cuya media se sitúa justo en el centro. No hay precisión en cada tiro (baja fiabilidad), pero, en conjunto, apuntan en la dirección correcta (alta validez). Esto representa errores aleatorios que pueden deberse a factores incontrolables, como distracciones, ruido ambiental o incluso al estado de ánimo temporal del encuestado.
Validez y fiabilidad (Morales, 2008)

La conclusión clave es que la validez es más importante que la fiabilidad. Como subrayan los expertos en la materia: «Un instrumento puede ser muy fiable (medir muy bien), pero no medir bien lo que se quería medir». De nada sirve medir algo con una precisión milimétrica si no es lo que realmente nos interesa.

Segundo secreto: ¿por qué las encuestas a veces parecen repetitivas?

Una de las quejas más comunes sobre los cuestionarios es que incluyen preguntas que parecen decir lo mismo de distintas maneras. Lejos de ser un descuido, el uso de lo que los expertos denominan «ítems repetitivos» —expresar la misma idea de diversas formas— es una técnica deliberada y muy útil para garantizar la calidad de los datos. Esta «forma bidireccional de redactar los ítems» tiene dos ventajas principales:

  • Requiere mayor atención del sujeto: al presentar la misma idea con formulaciones distintas (a veces en positivo y otras en negativo), se evita que la persona responda de forma automática o sin pensar y se le obliga a procesar el significado de cada pregunta.
  • Permite comprobar la coherencia de las respuestas: sirve como control de calidad para detectar y mitigar dos de los sesgos más frecuentes al responder encuestas: la aquiescencia y el sesgo de confirmación.
    • Aquiescencia: tendencia a estar de acuerdo con todas las afirmaciones. Imagina a alguien que responde con prisas, marcando «Totalmente de acuerdo» a todo («Sí, el servicio fue excelente», «Sí, el producto es terrible»), con el único fin de terminar cuanto antes.
    • Deseabilidad social: tendencia a responder para proyectar una buena imagen. Este sesgo lo muestra la persona que, al ser preguntada por sus hábitos de reciclaje, se presenta como un ecologista modelo, aunque el contenido de su cubo de basura cuente una historia muy diferente.

Por lo tanto, la próxima vez que te encuentres con preguntas que te resulten familiares en un mismo cuestionario, recuerda que no se trata de un error. Se trata de una herramienta diseñada para garantizar que tus respuestas sean más atentas, coherentes y, en última instancia, sinceras.

Tercer secreto: una fiabilidad «perfecta» puede ser una señal de alarma.

Intuitivamente, podríamos pensar que el objetivo de cualquier escala de medida es lograr la mayor fiabilidad posible. Sin embargo, en psicometría, una fiabilidad extremadamente alta puede ser una señal de alarma que indica un problema subyacente.

El coeficiente de fiabilidad más utilizado, el alfa de Cronbach, presenta una particularidad: su valor tiende a aumentar al añadir más ítems a la escala. Esto crea la tentación de inflar artificialmente la fiabilidad simplemente alargando el cuestionario. Como advierte la literatura especializada: «No se debe buscar una alta fiabilidad aumentando sin más el número de ítems, sin pensar si realmente son válidos».

Un ejemplo hipotético ilustra perfectamente este peligro. Imaginemos que aplicamos un test a un grupo mixto compuesto por niñas de 10 años que hacen ballet y niños de 14 años que juegan al fútbol. Les preguntamos por su edad, su sexo y el deporte que practican. La fiabilidad estadística se dispara porque las preguntas son perfectamente consistentes al separar a los dos grupos. Si se pregunta sobre ballet, todas las niñas responden de una manera y todos los niños de otra. Si se pregunta por el fútbol, ocurre lo mismo. El algoritmo estadístico detecta esta consistencia impecable y reporta una fiabilidad altísima, sin comprender que el «rasgo» subyacente que se está midiendo es simplemente una mezcla de datos demográficos, no una característica psicológica coherente. A pesar de esa elevada fiabilidad, en realidad no estaríamos midiendo «nada interpretable».

Este ejemplo nos deja una lección fundamental que el texto fuente resume de manera brillante:

«En ningún caso la estadística sustituye al sentido común y al análisis lógico de nuestras acciones».

Conclusión: la próxima vez que rellenes una encuesta…

Desde el dilema fundamental entre mediciones consistentes, pero erróneas (fiabilidad frente a validez), pasando por el uso deliberado de la repetición para burlar nuestros propios sesgos, hasta la idea contraintuitiva de que una puntuación «perfecta» puede indicar un resultado sin sentido, queda claro que elaborar una buena encuesta es un trabajo científico.

La próxima vez que te enfrentes a un cuestionario, en lugar de frustrarte por sus preguntas, ¿te detendrás a pensar qué rasgo intentan medir y si realmente lo están logrando?

En este audio os dejo una conversación sobre estas ideas.

Os dejo un vídeo que resume el contenido de este artículo.

Referencias:

Campbell, D. T., & Fiske, D. W. (1959). Convergent and discriminant validation by the multitrait–multimethod matrix. Psychological Bulletin, 56(2), 81–105. https://doi.org/10.1037/h0046016

Dunn, T. J., Baguley, T., & Brunsden, V. (2014). From alpha to omega: A practical solution to the pervasive problem of internal consistency estimation. British Journal of Psychology, 105, 399–412. https://doi.org/10.1111/bjop.12046

Farrell, A. M. (2010). Insufficient discriminant validity: A comment on Bove, Pervan, Beatty and Shiu (2009). Journal of Business Research, 63, 324–327. https://ssrn.com/abstract=3466257

Fornell, C., & Larcker, D. F. (1981). Evaluating structural equation models with unobservable variables and measurement error. Journal of Marketing Research, 18(1), 39–50. https://doi.org/10.1177/002224378101800104

Frías-Navarro, D. (2019). Apuntes de consistencia interna de las puntuaciones de un instrumento de medida. Universidad de Valencia. https://www.uv.es/friasnav/AlfaCronbach.pdf

Grande, I., & Abascal, E. (2009). Fundamentos y técnicas de investigación comercial. Madrid: ESIC.

Hernández, B. (2001). Técnicas estadísticas de investigación social. Madrid: Díaz de Santos.

Hair, J. F., Anderson, R. E., Tatham, R. L., & Black, W. C. (1995). Multivariate data analysis (Eds.). New York: Prentice Hall International, Inc.

Kotler, P., & Armstrong, G. (2001). Marketing. México: Pearson Prentice Hall.

Matas, A. (2018). Diseño del formato de escalas tipo Likert: un estado de la cuestión. Revista Electrónica de Investigación Educativa, 20(1), 38–47. http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1607-40412018000100038

Morales, P. (2006). Medición de actitudes en psicología y educación. Madrid: Universidad Pontificia de Comillas.

Morales, P. (2008). Estadística aplicada a las ciencias sociales. Madrid: Universidad Pontificia Comillas.

Nadler, J., Weston, R., & Voyles, E. (2015). Stuck in the middle: The use and interpretation of mid-points in items on questionnaires. The Journal of General Psychology, 142(2), 71–89. https://doi.org/10.1080/00221309.2014.994590

Nunnally, J. C. (1978). Psychometric theory. New York: McGraw-Hill.

Schmitt, N. (1996). Uses and abuses of coefficient alpha. Psychological Assessment, 8(4), 350–353. http://ist-socrates.berkeley.edu/~maccoun/PP279_Schmitt.pdf

Prats, P. (2005). Métodos para medir la satisfacción del cliente. Madrid: AENOR Ediciones.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Reconocimiento especial por la divulgación científica de la DANA de 2024

Figura 1. De izquierda a derecha: Julián Alcalá, José Capilla (rector de la UPV), Víctor Yepes y Eugenio Pellicer

Quisiera expresar mi más sincero agradecimiento a la Universitat Politècnica de València (UPV) por el reconocimiento especial recibido por

«el firme compromiso con la divulgación científica y la exquisita atención a los medios de comunicación en la cobertura periodística vinculada a la DANA que asoló la provincia de Valencia en octubre de 2024».

Este reconocimiento ha sido otorgado a varios profesores de la UPV que, desde el primer momento, han intentado aportar explicaciones rigurosas y fundamentadas desde los ámbitos técnico y científico sobre este trágico fenómeno meteorológico. En la Figura 1 se pueden ver a los profesores Julián Alcalá, Víctor Yepes y Eugenio Pellicer, junto con el rector de la Universitat Politècnica de València, José Capilla. En la imagen aparecemos quienes hemos centrado nuestra labor divulgativa en los aspectos relacionados con las infraestructuras, como los puentes, las vías de comunicación, los procesos de reconstrucción y la resiliencia estructural ante eventos extremos.

Otros compañeros del Instituto de Ingeniería del Agua y Medio Ambiente (IIAMA), como Félix FrancésFrancisco VallésManuel PulidoMiguel Ángel Eguibar y Juan Marco, también han contribuido de forma ejemplar desde la perspectiva de los fenómenos hidrológico e hidráulico, aportando información valiosa para entender las causas y consecuencias de la DANA.

De izquierda a derecha: Francisco Vallés, Manuel Pulido, Juan Marco, José Capilla (rector de la UPV), Miguel Ángel Eguibar y Félix Francés.

En el ámbito del urbanismo y la ordenación del territorio, fueron reconocidos los profesores Sergio Palencia y María Jesús Romero. Y otros tantos de otras áreas de conocimiento de nuestra universidad. Tampoco quisiera olvidarme de algunos profesores, ya jubilados de la UPV y que no estuvieron en el acto de ayer, que también han contribuido a la divulgación científica de la DANA, como Federico Bonet y Vicent Esteban Chapapría.

De izquierda a derecha: Sergio Palencia, José Capilla (rector de la UPV) y María Jesús Romero.

En mi caso, recibo con gratitud este reconocimiento, pero considero que es una obligación profesional y ética ofrecer a la opinión pública explicaciones claras, basadas en la ciencia y la ingeniería, sobre un tema tan complejo y delicado. La divulgación técnica rigurosa es esencial para construir una sociedad más informada, capaz de afrontar los desafíos que nos plantea el cambio climático y sus efectos sobre nuestras infraestructuras.

Por tanto, mi agradecimiento es doble: a la institución, por valorar este trabajo, y a todos los compañeros que comparten la convicción de que la ciencia debe estar al servicio de la sociedad, especialmente en los momentos más difíciles.

Algunas de las intervenciones en prensa del mismo día del primer aniversario de la DANA las podéis ver en este enlace: https://victoryepes.blogs.upv.es/2025/10/29/primer-aniversario-de-la-dana-de-valencia-anatomia-de-un-desastre/

 

5 lecciones sorprendentes de ingeniería avanzada para construir puentes más sostenibles y económicos

Cuando pensamos en la construcción de grandes infraestructuras, como los puentes, a menudo nos viene a la mente una imagen de fuerza bruta: toneladas de hormigón y acero ensambladas con una precisión monumental. Se trata de una proeza de la ingeniería física, un testimonio de la capacidad humana para dominar los materiales y la geografía.

Sin embargo, detrás de esta fachada de poderío industrial se está produciendo una revolución silenciosa. La inteligencia artificial y los modelos computacionales avanzados, que pueden ejecutar el equivalente a décadas de diseño y pruebas de ingeniería en cuestión de horas, están redefiniendo las reglas del juego. Lejos de ser un mero ejercicio teórico, estas herramientas permiten a los ingenieros diseñar puentes que son no solo más resistentes, sino también sorprendentemente más económicos y respetuosos con el medio ambiente.

Las lecciones que siguen se basan en los hallazgos de una tesis doctoral, defendida por la profesora Lorena Yepes Bellver, innovadora en la optimización de puentes. La tesis obtuvo la máxima calificación de sobresaliente «cum laude». Las lecciones demuestran que el futuro de la construcción no radica únicamente en nuevos materiales milagrosos, sino en la aplicación de una inteligencia que permita aprovechar los ya existentes de forma mucho más eficiente.

De izquierda a derecha: Julián Alcalá, Salvador Ivorra, Lorena Yepes, Tatiana García y Antonio Tomás.

1. El pequeño coste de un gran impacto ecológico: pagar un 1 % más para emitir un 2 % menos de CO₂.

Uno de los principales obstáculos para la adopción de prácticas sostenibles ha sido siempre la creencia de que «ser verde» es significativamente más caro. Sin embargo, la investigación en optimización de puentes revela una realidad mucho más alentadora. Gracias a los diseños perfeccionados mediante metamodelos, es posible lograr reducciones significativas de la huella de carbono con un impacto económico mínimo.

El dato clave del estudio es contundente: «Un modesto aumento de los costes de construcción (menos del 1 %) puede reducir sustancialmente las emisiones de CO₂ (más del 2 %)». Este hallazgo demuestra que la sostenibilidad no tiene por qué ser un lujo, sino el resultado de una ingeniería más inteligente.

 

«Esto demuestra que el diseño de puentes sostenibles puede ser económicamente viable».

Esta lección es fundamental, ya que pone fin a una falsa dicotomía entre la economía y la ecología. Demuestra que no es necesario elegir entre un puente asequible y otro respetuoso con el medio ambiente. Gracias a las decisiones de diseño inteligentes, guiadas por la optimización avanzada, es posible alcanzar ambos objetivos simultáneamente, de modo que la sostenibilidad se convierte en una ventaja competitiva y no en una carga.

2. La paradoja de los materiales: añadir más componentes para reducir el consumo global.

La lógica convencional nos diría que, para construir de forma más sostenible, el objetivo debería ser reducir la cantidad total de materiales utilizados. Menos hormigón, menos acero, menos de todo. Sin embargo, uno de los hallazgos más sorprendentes de la tesis es una paradoja que desafía esta idea tan simple.

El diseño óptimo y más sostenible aumenta, de hecho, la cantidad de uno de sus componentes: la armadura pasiva (el acero de refuerzo convencional). A primera vista, esto parece contradictorio: ¿cómo puede ser más ecológico añadir más material?

La explicación se debe a un enfoque sistémico. Este aumento estratégico y calculado del refuerzo pasivo permite reducir considerablemente el consumo de otros dos materiales clave: el hormigón y la armadura activa (el acero de pretensado). La producción de estos materiales, especialmente la del cemento y del acero de alta resistencia, es intensiva en energía y, por tanto, genera numerosas emisiones de CO₂. En esencia, se sacrifica una pequeña cantidad de un material de menor impacto para ahorrar una cantidad mucho mayor de materiales de alto impacto.

Este enfoque, que podría describirse como «sacrificar una pieza para ganar el juego», es un ejemplo perfecto de cómo la optimización avanzada supera las reglas simplistas de reducción. En lugar de aplicar un recorte general, se analiza el sistema en su conjunto y se determina el equilibrio más eficiente. Este equilibrio inteligente de materiales solo es posible si se afina otro factor clave: la geometría de la estructura.

Retos en la optimización de puentes con metamodelos

3. Más esbelto es mejor: el secreto de la «delgadez» estructural para la sostenibilidad.

En el ámbito de la ingeniería de puentes, el concepto de «esbeltez» es fundamental. En términos sencillos, se refiere a la relación entre el canto de la losa y la luz que debe cubrir. Una mayor esbeltez implica un diseño estructural, en palabras comunes, más «delgado» o «fino».

La investigación revela un hallazgo crucial: los diseños que son óptimos tanto en términos de emisiones de CO₂ como de energía incorporada se logran con relaciones de esbeltez altas, concretamente de entre 1/30 y 1/28. En otras palabras, los puentes más sostenibles son también los más delgados y se complementan con hormigones óptimos situados entre 35 y 40 MPa de resistencia característica.

¿Por qué es esto tan beneficioso? Un diseño más esbelto requiere, inherentemente, una menor cantidad de materiales, principalmente de hormigón. Lo realmente notable es cómo se consigue. Los métodos tradicionales suelen basarse en reglas generales y márgenes de seguridad amplios, mientras que la optimización computacional permite a los ingenieros explorar miles, e incluso millones, de variaciones para acercarse al límite físico de la eficiencia sin sacrificar la seguridad. El resultado es una elegancia estructural casi contraintuitiva: puentes que alcanzan su fuerza no a través de la masa bruta, sino mediante una delgadez inteligentemente calculada, donde la sostenibilidad es una consecuencia natural de la eficiencia.

4. La optimización inteligente genera ahorros reales: una reducción de costes de hasta un 6,5 %.

Más allá de los beneficios medioambientales, la aplicación de estas técnicas de optimización tiene un impacto económico directo y medible. El diseño de infraestructuras deja de ser un arte basado únicamente en la experiencia para convertirse en una ciencia precisa que busca la máxima eficiencia económica.

El resultado principal del estudio sobre la optimización de costes es claro: el uso de modelos sustitutos (metamodelos Kriging) guiados por algoritmos heurísticos, como el recocido simulado, logró una reducción de costes del 6,54 % en comparación con un diseño de referencia.

Estos ahorros no son teóricos, sino que provienen directamente de la reducción de materiales. En concreto, se consiguió una disminución del 14,8 % en el uso de hormigón y del 11,25 % en el acero activo (pretensado). Es crucial destacar que estas reducciones se consiguieron sin afectar a la integridad estructural ni a la capacidad de servicio del puente. No se trata de sacrificar la calidad por el precio, sino de diseñar de manera más inteligente. Esta metodología convierte la optimización del diseño en una tarea académica en una herramienta práctica y altamente eficaz para la gestión económica de grandes proyectos de ingeniería civil.

5. No todos los cerebros artificiales piensan igual; la clave está en elegir el modelo computacional adecuado.

Una de las lecciones más importantes de esta investigación es que no basta con aplicar «inteligencia artificial» de forma genérica. El éxito de la optimización depende de elegir la herramienta computacional adecuada para cada tarea específica.

La tesis comparó dos potentes metamodelos: las redes neuronales artificiales (RNA) y los modelos de Kriging. Se descubrió una diferencia crucial en su rendimiento: si bien las RNA ofrecían predicciones absolutas más precisas sobre el comportamiento de un diseño concreto, el modelo de Kriging demostró ser mucho más eficaz para identificar los «óptimos locales», es decir, las zonas del mapa de diseño donde se encontraban las mejores soluciones.

Esto revela una capa más profunda de la optimización inteligente. Un modelo puede ser excelente para predecir un resultado (RNA), mientras que otro es más eficaz para guiar la búsqueda del mejor resultado posible (Kriging). No se trata solo de utilizar IA, sino de comprender qué «tipo de pensamiento» artificial es el más adecuado para cada fase del problema: predecir frente a optimizar. La verdadera maestría de la ingeniería moderna consiste en saber elegir las herramientas adecuadas para cada fase del problema.

Conclusión: la nueva frontera del diseño de infraestructuras.

La construcción de nuestras infraestructuras entra en una nueva era. La combinación de la ingeniería estructural clásica con el poder de los modelos computacionales avanzados, como el metamodelado Kriging y las redes neuronales artificiales, está abriendo una nueva frontera en la que la eficiencia y la sostenibilidad no son objetivos opcionales, sino resultados intrínsecos de un buen diseño.

Como hemos visto, los grandes avances no siempre provienen de materiales revolucionarios. A menudo, los «secretos» mejor guardados residen en la optimización inteligente de los diseños y materiales que ya conocemos. Obtener un mayor beneficio ecológico pagando menos, utilizar estratégicamente más de un material para reducir el consumo global o diseñar estructuras más esbeltas y elegantes son lecciones que van más allá de la construcción de puentes.

Nos dejan con una pregunta final que invita a la reflexión: si podemos lograr esto con los puentes, ¿qué otras áreas de la construcción y la industria están esperando a ser reinventadas por el poder de la optimización inteligente?

Os dejo un audio en el que se discuten las ideas de la tesis doctoral. Espero que os guste.

Y en este vídeo, tenemos resumidas las ideas principales de esta tesis.

Referencias:

YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Predictive modeling for carbon footprint optimization of prestressed road flyovers. Applied Sciences15(17), 9591. DOI:10.3390/app15179591

VILLALBA, P.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2025). A Hybrid Fuzzy DEMATEL–DANP–TOPSIS Framework for Life Cycle-Based Sustainable Retrofit Decision-Making in Seismic RC Structures. Mathematics, 13(16), 2649. DOI:10.3390/math13162649

ZHOU, Z.; WANG, Y.J.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Intelligent monitoring of loess landslides and research on multi-factor coupling damage. Geomechanics for Energy and the Environment, 42:100692. DOI:10.1016/j.gete.2025.100692

ZHOU, Z.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Study on the failure mechanism of deep foundation pit of high-rise building: comprehensive test and microstructure coupling. Buildings, 15(8), 1270. DOI:10.3390/buildings15081270

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

BLIGHT, T.; MARTÍNEZ-PAGÁN, P.; ROSCHIER, L.; BOULET, D.; YEPES-BELLVER, L.; YEPES, V. (2025). Innovative approach of nomography application into an engineering educational context. Plos One, 20(2): e0315426. DOI:10.1371/journal.pone.0315426

NAVARRO, I.J.; VILLALBA, I.; YEPES-BELLVER, L.; ALCALÁ, J. Social Life Cycle Assessment of Railway Track Substructure AlternativesJ. Clean. Prod. 2024450, 142008.

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2024). Artificial neural network and Kriging surrogate model for embodied energy optimization of prestressed slab bridges. Sustainability, 16(19), 8450. DOI:10.3390/su16198450

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2023). Embodied energy optimization of prestressed concrete road flyovers by a two-phase Kriging surrogate model. Materials16(20); 6767. DOI:10.3390/ma16206767

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2022). CO₂-optimization of post-tensioned concrete slab-bridge decks using surrogate modeling. Materials, 15(14):4776. DOI:10.3390/ma15144776

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.;

José Torán Peláez, un visionario de las grandes presas españolas

José Torán Peláez (1916 – 1981). https://www.iagua.es/blogs/eduardo-echeverria/2016-ano-jose-toran

Nació el 10 de agosto de 1916 en Teruel, hijo de José Torán de la Riva (1916-1981) y Consuelo Peláez, pertenecientes a una familia turolense vinculada a la política, la ingeniería y los negocios. Provenía de una estirpe de ingenieros y empresarios: su bisabuelo, José Torán Herreras (1828-1899), y su abuelo, José Torán Garzarán (1853-1902), habían sentado el precedente familiar. En 1924, la familia se trasladó a Madrid, donde José y su hermano Carlos ingresaron en el Instituto-Escuela de la Junta para Ampliación de Estudios, institución que combinaba la formación científica, humanística y artística. Allí se sembró en José Torán un gusto especial por la pulcritud y la estética que marcaría su vida profesional. En 1933 concluyó el bachillerato e inició la preparación para ingresar en la Escuela de Ingenieros de Caminos en la academia de Augusto Krahe. Consiguió la admisión en junio de 1936, justo al inicio de la Guerra Civil.

Durante el conflicto, fue destinado a un campo de trabajo y participó en la construcción del llamado «ferrocarril de los cien días», un proyecto del Gobierno republicano para comunicar Madrid con Valencia. En esta etapa se comenzó la práctica profesional del cuerpo de Ingenieros de Caminos del Ejército republicano. Tras la guerra, entre octubre de 1939 y 1943, completó su formación en la Escuela de Ingenieros de Caminos, con profesores de la talla de José María Aguirre, José Entrecanales, Clemente Sáenz y José María Torroja. De todos ellos, guardó un afecto especial por Clemente Sáenz, a quien dedicó un artículo in memoriam en la Revista de Obras Públicas. Su hermano, Juan Jesús, también cursó Ingeniería de Caminos y llegó a ser ingeniero jefe en la Dirección General de Obras Hidráulicas.

El 22 de julio de 1943, Torán ingresó como ingeniero tercero en el Cuerpo de Ingenieros de Caminos, Canales y Puertos, destinado a los Servicios Hidráulicos del Sur de España. Aunque cesó en agosto de 1947 para dedicarse al ejercicio libre de la profesión, continuó ascendiendo hasta alcanzar el rango de ingeniero primero en 1956 y volvió a ingresar en el cuerpo en 1975.

En 1944, se incorporó a la Empresa Madrileña de Tranvías, gestionada por Augusto Krahe y Ángel Balbás, donde diseñó y construyó el «viaducto Torán», que conectaba Moncloa con la Ciudad Universitaria. Ese mismo año, asistió en Lisboa al Congreso de la Unión Iberoamericana de Urbanismo, donde se reencontró con José Ortega y Gasset, a quien trajo de regreso a España en su coche en 1945. Posteriormente, comenzó a trabajar en Estudios y Ejecución de Obras, S. L., donde gestionó la conclusión de la presa de El Vado (río Jarama), interrumpida durante la guerra, y resolvió problemas de materiales y costes mediante destajos por administración.

Embalse de El Vado. https://es.wikipedia.org/wiki/Embalse_de_El_Vado

En 1946, promovió la creación de su propia empresa, Construcciones Civiles, S. A. (COVILES), con el lema «Grandes presas, grandes obras», e incorporó los contratos y el patrimonio de su anterior empresa. Ese mismo año, inició el recrecimiento de El Vado y entró en contacto con el ingeniero Juan de Arespacochaga, con quien entabló una sólida amistad. En 1950 se casó con Amparo Junquera y tuvieron siete hijos: Leonor, Lucas, Lilia, Lope, Loyola, León y Loreto. Así continuaba la tradición familiar de ingenieros.

En 1955, obtuvo el contrato para construir la base naval de Rota en asociación con Corbetta Construction Company. En esta obra concibió los rompeolas de tetrápodos de hormigón, empleados posteriormente en puertos de todo el mundo. Sin embargo, su salida de Coviles se produjo en 1958 debido a diferencias en la gestión económica. Ese mismo año participó activamente en congresos internacionales de presas y energía, representando a España en la ICOLD y promoviendo la publicación de ponencias sobre recrecimientos de presas existentes.

En 1960, fundó Torán y Compañía, Ingeniería y Fomento, dedicada a la consultoría hidráulica y de grandes obras, un concepto aún incipiente en España. La empresa se integró en Tecniberia. Apoyó como mecenas a literatos, como Jaime Valle-Inclán, Rafael Sánchez Ferlosio, Carmen Martín Gaite, Luis Delgado Benavente y estrecha su amistad con Juan Benet. Torán mantuvo una activa presencia internacional: asistió a congresos en Roma (1961), Moscú (1962) y Estados Unidos, lo que impulsó la proyección española en el ámbito de la hidráulica y los riegos.

Entre 1966 y 1981, presidió el Comité Español de Grandes Presas y fue vicepresidente (1965-1968) y presidente (1970-1973) del Comité Internacional. Bajo su liderazgo, se promovieron normas de diseño y gestión de presas, entre las que destaca la Orden de 31 de marzo de 1967, por la que se aprobó la Instrucción para el proyecto, la construcción y la explotación de grandes presas. Entre sus proyectos internacionales, destaca la regulación de la cuenca del Tigris en Irak (1966-1969), que incluyó el recrecimiento de la presa de Razzaza para crear un embalse de 31 000 hectómetros cúbicos. También fue invitado por el gobierno chino para realizar estudios de planificación hidrológica en 1973 y 1979.

En los años setenta, su oficina de Madrid, ubicada en la calle Pedro de Valdivia, llegó a tener hasta siete sedes, con presencia en Canarias y filiales internacionales. Torán promovió el intercambio cultural y científico y apoyó a escritores y artistas en sus proyectos. Además, en 1979 fundó los foros de debate «Aulas Libres» en el Colegio de Ingenieros de Caminos. A lo largo de su vida, combinó la rigurosidad de la ingeniería con la sensibilidad artística y humanista y siempre proyectó la técnica como un medio para mejorar la sociedad.

Tras el fallecimiento de su esposa, Amparo, en 1976, continuó con su actividad profesional y cultural hasta su fallecimiento el 14 de diciembre de 1981 en Madrid, mientras trabajaba en proyectos para China. Diez años después, se le rindió homenaje denominando el embalse de José Torán en Sevilla en su honor, perpetuando el legado de un ingeniero cuya vida fue una apasionante combinación de ciencia, arte y compromiso internacional.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.;

Prohibieron la IA en sus clases de ingeniería. Ahora es su mejor herramienta para enseñar a pensar.

Introducción: El dilema de la IA en las aulas.

En los pasillos de la educación superior, un debate resuena con fuerza: ¿qué hacemos con la inteligencia artificial generativa (IAG)? Para muchos, herramientas como ChatGPT suponen una amenaza directa para el pensamiento crítico, ya que facilitan el plagio y fomentan la superficialidad académica. El temor es comprensible y está muy extendido.

Sin embargo, ¿y si el problema no fuera la herramienta, sino nuestra forma de reaccionar ante ella? El proyecto PROFUNDIA (acrónimo de PROFUNDo y autonomÍA) surge de esta cuestión, pero con un enfoque inesperado. Esta iniciativa de innovación educativa en ingeniería estructural no surgió de una prohibición teórica, sino de un problema práctico y urgente: el uso no regulado de la IA por parte de los estudiantes estaba deteriorando la calidad de su aprendizaje.

En lugar de intensificar la prohibición, este proyecto propone una solución radicalmente diferente. Este artículo explora los cuatro descubrimientos clave de un enfoque que busca transformar la IA de una amenaza en una de las herramientas pedagógicas más potentes.

Los 4 descubrimientos clave del proyecto PROFUNDIA

1. La cruda realidad es que el uso no supervisado de la IA estaba deteriorando el aprendizaje.

El proyecto PROFUNDIA no se basó en una hipótesis abstracta, sino que surgió de una necesidad urgente detectada en las aulas a partir del curso 2023-2024. El profesorado comenzó a observar un patrón preocupante en los trabajos de los estudiantes.

Las estadísticas internas confirmaron la sospecha: las encuestas revelaron que más del 60 % del alumnado ya utilizaba la IA para hacer sus trabajos. Sin embargo, el dato más alarmante era otro: solo el 25 % de ellos revisaba críticamente los resultados que la herramienta generaba.

La consecuencia fue una «notable disminución de la calidad técnica y argumentativa» de los proyectos. El problema era específico y grave: aunque la herramienta ofrecía soluciones funcionales, no podía verificar las hipótesis iniciales ni razonar la adecuación del modelo al contexto técnico. Los estudiantes dependían de la IA de forma acrítica, entregando trabajos con «errores conceptuales importantes» y debilitando su capacidad de razonamiento. Esto demostró que mirar hacia otro lado no era una opción, sino que era necesaria una intervención educativa guiada.

2. El cambio de paradigma: de la prohibición a la integración crítica.

Hasta entonces, la política en las asignaturas implicadas era clara: el uso de la IA «estaba explícitamente prohibido». Sin embargo, la realidad demostró que esta medida era ineficaz y contraproducente.

En lugar de librar una batalla perdida contra una tecnología omnipresente, el proyecto PROFUNDIA optó por un cambio de 180 grados: integrarla de forma «explícita, guiada y crítica». La nueva filosofía consistía en enseñar a los estudiantes a utilizar la herramienta de manera inteligente en lugar de ignorarla.

La esencia de este nuevo paradigma se resume en su declaración de intenciones:

Frente a enfoques que restringen o penalizan el uso de la IA, PROFUNDIA propone su integración crítica y formativa como herramienta cognitiva para potenciar el aprendizaje profundo, la interpretación técnica, la argumentación fundamentada y el desarrollo de la autonomía del estudiante.

3. El método: aprender a pensar «enseñando» a la IA.

La propuesta metodológica supone un cambio estructural en el aprendizaje, ya que se pasa de un proceso lineal (profesor-estudiante) a otro triangular (profesor-estudiante-IA). En primer lugar, los estudiantes resuelven un problema por sus propios medios. Después, piden a la IA que resuelva el mismo problema. La fase clave llega a continuación: deben comparar críticamente su solución con la de la IA.

En este punto radica la innovación más profunda del método. La IA se incorpora «como un agente más en el proceso, con un papel activo y con un sesgo deliberado hacia el error». El papel del estudiante cambia radicalmente: deja de ser un usuario pasivo para convertirse en entrenador activo de la IA. Su tarea ya no consiste en obtener una respuesta, sino en identificar, cuestionar y corregir los errores de la herramienta, lo que les lleva a «enseñar» a la IA a resolver problemas complejos y, en el proceso, a dominar el tema a un nivel mucho más profundo.

El objetivo final de este proceso es la «reflexión metacognitiva». Se pretende que el estudiante «reflexione sobre cómo piensa y aprende» al contrastar su razonamiento con el de la IA, sus compañeros y el profesor.

4. La meta final: la IA como una «mindtool» para crear mejores ingenieros.

Este enfoque no es solo una técnica ingeniosa, sino que se fundamenta en un concepto pedagógico sólido: el de las mindtools o «herramientas para la mente». Esta idea defiende el uso de la tecnología no como un sustituto del esfuerzo intelectual, sino como un andamio para potenciar el pensamiento crítico y la construcción activa del conocimiento, es decir, tratar la tecnología no como una muleta, sino como un gimnasio para la mente.

Este planteamiento conecta directamente con las demandas del mercado laboral actual. Como señalan estudios previos (Pellicer et al., 2017), las empresas no solo buscan egresados con conocimientos técnicos, sino también con habilidades transversales como la resolución de problemas, la autonomía y el juicio crítico.

Por tanto, los resultados de aprendizaje que se persiguen son extremadamente precisos y potentes. El objetivo es formar ingenieros que puedan:

  1. Formular problemas técnicos complejos con la precisión necesaria para que la IAG pueda analizarlos.
  2. Evaluar y validar críticamente las soluciones generadas por la IAG, justificando sus decisiones.
  3. Gestionar de forma autónoma el uso de la IAG en estrategias complejas de resolución de problemas.

En definitiva, se les prepara para un entorno profesional «complejo, colaborativo y en constante evolución».

Conclusión: ¿Y si dejamos de temer a la tecnología y empezamos a usarla para pensar mejor?

El proyecto PROFUNDIA demuestra que es posible cambiar la perspectiva sobre la IA en la educación. Transforma lo que muchos consideran una amenaza para el aprendizaje en una oportunidad única para fomentar un pensamiento más profundo, crítico y autónomo.

Su reflexión trasciende las aulas de ingeniería. ¿Qué otras tecnologías emergentes podríamos empezar a integrar en nuestras profesiones, no como un atajo, sino como un catalizador para desarrollar un pensamiento más crítico y sofisticado?

Os dejo un audio en el que dos personas hablan y discuten sobre este tema.

También os dejo un vídeo que resume muy bien el contenido del proyecto.

Referencias:

Blight, T., Martínez-Pagán, P., Roschier, L., Boulet, D., Yepes-Bellver, L., & Yepes, V. (2025). Innovative approach of nomography application into an engineering educational context. PloS one, 20(2), e0315426.

Castro-Aristizabal, G., Acosta-Ortega, F., & Moreno-Charris, A. V. (2024). Los entornos de aprendizaje y el éxito escolar en Latinoamérica. Lecturas de Economía, (101), 7-46.

Hadgraft, R. G., & Kolmos, A. (2020). Emerging learning environments in engineering education. Australasian Journal of Engineering Education, 25(1), 3-16.

Jiang, N., Zhou, W., Hasanzadeh, S., & Duffy Ph D, V. G. (2025). Application of Generative AI in Civil Engineering Education: A Systematic Review of Current Research and Future Directions. In CIB Conferences (Vol. 1, No. 1, p. 306).

Jonassen, D. H., Peck, K. L., & Wilson, B. G. (1999). Learning with technology: A constructivist perspective. Columbus, OH: Merrill/Prentice-Hall.

Liao, W., Lu, X., Fei, Y., Gu, Y., & Huang, Y. (2024). Generative AI design for building structures. Automation in Construction157, 105187.

Navarro, I. J., Marti, J. V., & Yepes, V. (2023). Evaluation of Higher Education Students’ Critical Thinking Skills on Sustainability. International Journal of Engineering Education, 39(3), 592-603.

Onatayo, D., Onososen, A., Oyediran, A. O., Oyediran, H., Arowoiya, V., & Onatayo, E. (2024). Generative AI applications in architecture, engineering, and construction: Trends, implications for practice, education & imperatives for upskilling—a review. Architecture4(4), 877-902.

Pellicer, E., Yepes, V., Ortega, A. J., & Carrión, A. (2017). Market demands on construction management: View from graduate students. Journal of Professional Issues in Engineering Education and Practice143(4), 04017005.

Perkins, D., & Unger, C. (1999). La enseñanza para la comprensión. Argentina: Paidós.

Torres-Machí, C., Carrión, A., Yepes, V., & Pellicer, E. (2013). Employability of graduate students in construction management. Journal of Professional Issues in Engineering Education and Practice139(2), 163-170.

Xu, G., & Guo, T. (2025). Advances in AI-powered civil engineering throughout the entire lifecycle. Advances in Structural Engineering, 13694332241307721.

Zhou, Z., Tian, Q., Alcalá, J., & Yepes, V. (2025). Research on the coupling of talent cultivation and reform practice of higher education in architecture. Computers and Education Open, 100268.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Primer aniversario de la DANA de Valencia: Anatomía de un desastre

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

Hoy, 29 de octubre de 2025, se cumple el primer aniversario de la DANA de Valencia de 2024, un evento que ha sido catalogado como una de las mayores catástrofes naturales ocurridas en España en décadas. La tragedia se produjo por unas precipitaciones históricas que pulverizaron récords nacionales, con máximos de más de 770 l/m² acumulados en 24 horas en Turís, lo que demuestra que el riesgo cero no existe en un contexto de cambio climático. El desastre no se explica únicamente por la cantidad de lluvia caída, sino por la trágica multiplicación entre el evento extremo, sobrealimentado por el calentamiento global, y el fallo estructural de un urbanismo que, durante décadas, ha ignorado las zonas de riesgo. Aunque la respuesta inmediata y los esfuerzos por restablecer las infraestructuras críticas han sido notables, la ingeniería de la reconstrucción no puede limitarse a reponer lo perdido, ya que replicar el estado previo implica aceptar que los efectos se repetirán. En este contexto, un medio de comunicación me ha solicitado una entrevista para abordar si, un año después, hemos avanzado hacia las soluciones de resiliencia y prevención que el conocimiento técnico lleva tiempo demandando. Os dejo la entrevista completa, por si os resulta de interés.

¿Cómo describiría desde un punto de vista técnico lo que ocurrió el 29 de octubre en Valencia? ¿Qué falló?

Desde el punto de vista técnico e ingenieril, el suceso del 29 de octubre en Valencia fue un evento de inundación extremo provocado por una DANA con un carácter pluviométrico extraordinario, ya que se registraron cifras extremas, como los 771,8 l/m² en 24 horas en Turís, y caudales en la Rambla del Poyo de hasta 2.283 m³/s antes de que los sensores fueran arrastrados, superando con creces cualquier expectativa de diseño y demostrando que el riesgo cero no existe. La magnitud del impacto fue consecuencia de una serie de factores concurrentes. El factor principal se produjo en la cuenca de la Rambla del Poyo, donde la virulencia del agua (con caudales medidos superiores a 2.200 m³/s y estimaciones simuladas que superan los 3.500 m³/s) se encontró con la ausencia de infraestructuras hidráulicas suficientes para la laminación de avenidas y otras medidas complementarias. Los proyectos de defensa contra inundaciones, que llevaban años planificados y con estudios previos, no se ejecutaron a tiempo. En contraste, el Nuevo Cauce del Turia y las presas de Forata y Buseo funcionaron eficazmente, protegiendo la ciudad de Valencia y otras poblaciones. Además de estas vulnerabilidades latentes, el impacto humano y material se vio agravado por desafíos en la respuesta, incluyendo la efectividad en los sistemas de alerta temprana (SAIH) bajo condiciones tan extremas y en la implantación de los planes de emergencia municipales, así como en la emisión de avisos con suficiente antelación a la población, impidiendo que esta pudiera reaccionar a tiempo.

¿Qué papel jugaron las infraestructuras y la planificación urbana en la magnitud de los daños? ¿Hubo zonas especialmente vulnerables o mal planificadas?

Las infraestructuras y la planificación urbana jugaron un papel determinante en la magnitud de los daños. Por un lado, las obras estructurales, como el Nuevo Cauce del Turia y las presas de Forata y Buseo, resultaron fundamentales, mitigando las inundaciones y protegiendo la ciudad de Valencia y otras poblaciones. Sin embargo, la magnitud de los daños se vio agravada por la ausencia de medidas integrales de defensa diseñadas para la laminación de avenidas, especialmente en la cuenca de la Rambla del Poyo, donde los proyectos planificados no se ejecutaron a tiempo. Los caudales extraordinarios superaron con creces la capacidad existente. Además, las infraestructuras lineales (carreteras, ferrocarriles y puentes) actuaron como puntos de estrangulamiento, reteniendo arrastres y aumentando el nivel de destrucción. Las zonas más vulnerables se concentraron en el cono aluvial de L’Horta Sud, una zona de alto riesgo urbanizada principalmente entre la riada de 1957 y la década de 1970, sin planificación adecuada ni infraestructuras de saneamiento suficientes. La falta de unidad de criterio en la ordenación territorial municipal y la prevalencia de intereses de desarrollo sobre las directrices de restricción de usos en zonas inundables (a pesar de instrumentos como el PATRICOVA) aumentaron la vulnerabilidad social y material del territorio. Aunque algunos hablan de emergencia hidrológica, probablemente sea más adecuado hablar de un profundo desafío urbanístico y de ordenación territorial.

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

Desde entonces, ¿qué medidas reales se han tomado —si las hay— para reducir el riesgo de que vuelva a suceder algo similar?

Desde la DANA de octubre de 2024, las medidas adoptadas se han enfocado en la reconstrucción con criterios de resiliencia y atención a urgencias, aunque las soluciones estructurales de gran calado, que requieren plazos de ejecución más largos, siguen mayormente pendientes. En la fase inmediata, se activaron obras de emergencia, destacando la reparación y refuerzo de infraestructuras críticas como las presas de Forata y Buseo, y la recuperación de cauces y del canal Júcar-Turia. Un ejemplo de reconstrucción en curso es la mejora de la red de drenaje de Paiporta, que forma parte de las primeras actuaciones tras la catástrofe. En el ámbito normativo, el Consell aprobó el Decreto-ley 20/2024 de medidas urbanísticas urgentes y se ha puesto sobre la mesa la revisión de normativas como el Código Técnico de la Edificación (CTE) para incluir requisitos para edificaciones en zonas inundables. También se prevé que los sistemas de comunicación y alerta estén coordinados en todas las cuencas mediterráneas, lo que podría evitar muertes en caso de repetirse el fenómeno. Sin embargo, es un hecho que, meses después, la legislación urbanística de fondo sigue sin cambios estructurales y que, en cuanto a las obras hidráulicas estructurales de prevención, como las presas de laminación, sus plazos de tramitación y ejecución impiden que se hayan materializado avances significativos todavía, dificultando el avance de proyectos críticos. Por tanto, existe una etapa de reconstrucción que debería ser inteligente y no dejar las infraestructuras como estaban antes de la DANA, pues eso implicaría asumir los mismos riesgos, y otra a medio y largo plazo que permita defender a la población, minimizando los riesgos.

¿Qué actuaciones considera urgentes o prioritarias para evitar repetir los errores del pasado?

Para evitar repetir los errores del pasado, es necesario un cambio de modelo que combine inversión estructural urgente con planificación territorial resiliente. En ingeniería hidráulica, la acción prioritaria es acelerar e implementar las obras de laminación contempladas en la planificación hidrológica, como la construcción de presas en las cuencas de la Rambla del Poyo y el río Magro, y destinar recursos extraordinarios para construir las estructuras de prevención necesarias y corregir el déficit de infraestructuras de prevención. También es prioritario eliminar obstáculos urbanísticos, como puentes y terraplenes insuficientes, y reconstruir infraestructuras lineales con criterios resilientes, permitiendo el paso seguro del agua. En urbanismo, la enseñanza principal es devolverle el espacio al agua, retirando estratégicamente infraestructuras de las zonas de flujo preferente para reducir la exposición al riesgo más elevado e iniciando un plan a largo plazo para reubicar infraestructuras críticas y viviendas vulnerables. Se recomienda revisar la normativa sobre garajes subterráneos en llanuras de inundación. Asimismo, es esencial invertir en sistemas de alerta hidrológica robustos, con más sensores y modelos predictivos que traduzcan la predicción en avisos concretos y accionables. Por último, es fundamental que la gobernanza supere la inercia burocrática mediante un modelo de ejecución de urgencia que priorice el conocimiento técnico y garantice que el riesgo no se convierta de nuevo en catástrofe humana.

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

¿Hasta qué punto Valencia está preparada para afrontar lluvias torrenciales o fenómenos extremos de este tipo en el futuro?

Desde una perspectiva técnica e ingenieril, a día de hoy, la vulnerabilidad de fondo persiste y no estamos preparados para afrontar una nueva DANA de la magnitud de la ocurrida en 2024. La situación es similar a la de una familia que circula en coche por la autopista a 120 km/h sin cinturones de seguridad: bastaría un obstáculo inesperado (una DANA) para que el accidente fuera mortal. Aceptar la reposición de lo perdido sin añadir nuevas medidas de protección estructural implicaría aceptar que los efectos del desastre se repetirán, algo inasumible. El problema principal es que prácticamente no se han ejecutado las grandes obras de laminación planificadas, especialmente en las cuencas de la Rambla del Poyo y del Magro, que constituyen la medida más eficaz para proteger zonas densamente pobladas mediante contención en cabecera. La DANA expuso un problema urbanístico severo. Meses después, mientras no se modifique la legislación territorial de fondo y se actúe sobre el territorio, el riesgo latente de la mala planificación persiste ante el próximo fenómeno extremo. La única forma de eliminar esta vulnerabilidad es mediante una acción integral que combine inversión urgente en obras estructurales con retirada estratégica de zonas de flujo preferente.

Os dejo un pequeño vídeo didáctico donde se resume lo acontecido en la DANA del 29 de octubre de 2024.

En las noticias de hoy, aparezco en varios reportajes:

En el Telediario de TVE, en horario de máxima audiencia, a las 21:00 h, se hizo un programa especial sobre la DANA donde tuve la ocasión de participar. Os dejo un trozo del vídeo.

 

Reconstruir Valencia un año después: «cirugía urbana» y zonas verdes para protegerse de futuras danas

Un año después de la DANA del 29-O, los expertos advierten: «Podría volver a pasar»

Valencia: expertos advierten que la región aún no está preparada para afrontar otro episodio climático extremo

Valencia se blinda frente al agua: garajes elevados e ingeniería verde tras la DANA

One year after Valencia’s deadly flooding experts warn ‘it could happen again’

Një vit pas përmbytjeve vdekjeprurëse në Valencia, ekspertët paralajmërojnë se ‘mund të ndodhë përsëri’

Egy évvel a valenciai árvíz után a szakértők figyelmeztetnek: «Ez újra megtörténhet»

Egy évvel a spanyol árvizek után: Tanulságok és kihívások a Valenciai Közösség számára

 

También os dejo los artículos que he ido escribiendo sobre este tema en este blog. Espero que os resulten de interés.

Lo que la catástrofe de Valencia nos obliga a repensar: cuatro lecciones. 30 de septiembre de 2025.

Resiliencia en las infraestructuras: cómo prepararnos para un futuro de incertidumbre. 26 de septiembre de 2025.

Iniciativa Legislativa Popular para la Modificación de la Ley de Aguas. 17 de julio de 2025.

Posibles consecuencias de una nueva DANA en el otoño de 2025. 16 de julio de 2025.

Discurso de apertura en el evento Innotransfer “Infraestructuras resilientes frente a eventos climáticos extremos”. 26 de mayo de 2025.

Ya son 6 meses desde el desastre de la DANA en Valencia. 29 de abril de 2025.

Jornada sobre infraestructuras resilientes al clima. 8 de abril de 2025.

Entrevista en Levante-EMV sobre la reconstrucción tras la DANA. 17 de marzo de 2025.

La ingeniería de la reconstrucción. 6 de marzo de 2025.

Lecciones aprendidas: proteger a la población es la prioridad. 25 de diciembre de 2024.

DANA 2024. Causas, consecuencias y soluciones. 3 de diciembre de 2024.

Qué es una presa. «La via verda», À Punt. 28 de noviembre de 2024.

Aplicación del modelo del queso suizo en la gestión de desastres. 10 de noviembre de 2024.

Gestión del riesgo de inundación en infraestructuras críticas: estrategias y medidas de resiliencia. 8 de noviembre de 2024.

Presas y control de inundaciones: estrategias integradas para la reducción de riesgos hídricos. 7 de noviembre de 2024.

Defensa integral contra inundaciones: un esbozo de las estrategias para la gestión de riesgos. 6 de noviembre de 2024.

Introducción a las crecidas en ingeniería hidráulica. 5 de noviembre de 2024.

Precipitación en ingeniería hidráulica: conceptos, medición y análisis. 4 de noviembre de 2024.

Efectos de las inundaciones en las estructuras de las edificaciones. 2 de noviembre de 2024.

Valencia frente a la amenaza de una nueva inundación: análisis, antecedentes y estrategias para mitigar el riesgo. 1 de noviembre de 2024.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

La herramienta de cálculo del siglo XVII que vuelve a la vida gracias a Python.

Introducción: El arte perdido del cálculo visual.

Vivimos en un mundo donde cualquier cálculo, por complejo que sea, está a un clic de distancia. Dependemos totalmente de las calculadoras digitales y las computadoras, hasta el punto de que resulta difícil imaginar cómo se resolvían problemas de ingeniería complejos antes de la era digital. Sin embargo, hubo una herramienta ingeniosa y puramente visual que dominó el mundo técnico durante décadas: el nomograma.

¿Cómo es posible que una tecnología del siglo XVII, considerada obsoleta durante más de cuarenta años, esté resurgiendo en campos de alta tecnología como la ingeniería minera? La respuesta se halla en una sorprendente sinergia entre la sabiduría analógica del pasado y el poder del código abierto actual.

1. Más allá de la nostalgia: una herramienta antigua para problemas modernos.

Un nomograma es una representación gráfica de una ecuación matemática. Está compuesto por una serie de ejes graduados, rectos o curvos, que representan las variables de la fórmula. Para resolver la ecuación, basta con trazar una línea recta (llamada isopleta) que conecte los valores conocidos en sus respectivos ejes; el punto en el que esta línea corta el eje de la variable desconocida proporciona la solución al instante.

Aunque sus orígenes se remontan al siglo XVII, los nomogramas se convirtieron en herramientas indispensables en el siglo XIX para la navegación astronómica y, más tarde, en la década de 1920, para resolver complejos cálculos de ingeniería relacionados con la presión, el volumen y la temperatura. Durante el resto del siglo XX, vivieron su época dorada en campos como la medicina, la aeronáutica y la química, pero la llegada de los ordenadores en la década de 1980 los dejó relegados al olvido. Hoy, contra todo pronóstico, están volviendo a ser útiles, no como una curiosidad histórica, sino como una herramienta práctica y potente, especialmente en entornos de campo o talleres donde la tecnología digital no siempre es la mejor opción.

2. Ingeniería para todos: resuelve fórmulas complejas solo con una regla.

El beneficio más destacado de los nomogramas es su capacidad para democratizar el cálculo. Permiten que cualquier persona, independientemente de su formación matemática, pueda resolver ecuaciones complejas con gran precisión. Como señala un estudio reciente sobre su aplicación en ingeniería minera:

«Además, los nomogramas permiten que personas sin conocimientos previos resuelvan fórmulas complejas con una precisión adecuada».

Este enfoque es increíblemente poderoso. Elimina la barrera del conocimiento matemático avanzado y reduce drásticamente el riesgo de cometer errores al realizar cálculos manuales en tareas repetitivas. En la práctica, son más rápidos y fáciles de entender que los procedimientos analíticos tradicionales, ya que convierten un problema abstracto en una tarea visual sencilla.

3. A prueba de fallos: la robustez del papel frente a las pantallas.

En un mundo digital, la simplicidad del papel es una ventaja formidable. Los nomogramas destacan en entornos en los que los dispositivos electrónicos no son prácticos, como en operaciones de campo en minería, talleres mecánicos u obras. Sus ventajas son evidentes: son portátiles, resistentes y no necesitan electricidad ni conexión a internet.

Esta robustez los convierte en la herramienta ideal para realizar cálculos repetitivos sobre el terreno. Por ejemplo, un ingeniero de minas podría usar un nomograma impreso para determinar al instante el diseño correcto de una voladura, simplemente conectando líneas entre la densidad de la roca, la velocidad del explosivo y el diámetro de la perforación, y así reducir un cálculo complejo a una tarea visual simple y robusta sobre el papel.

4. El Renacimiento digital: cómo el código abierto revivió el nomograma.

Si los nomogramas son tan útiles, ¿por qué desaparecieron? Su principal inconveniente histórico no radicaba en su uso, sino en su creación. La parte más engorrosa era el dibujo matemático de las escalas graduadas, un proceso laborioso y especializado que probablemente fue una de las principales causas de su declive.

Aquí es donde entra en juego el software moderno. El resurgimiento de esta técnica se debe en gran parte a PyNomo y Nomogen, dos herramientas de código abierto basadas en Python. Fueron creadas por Leif Roschier y Trevor Blight, dos de los autores del estudio que ha inspirado este resurgimiento, que han unido así la experiencia académica con la programación moderna. Estas soluciones permiten a cualquier ingeniero o científico generar nomogramas complejos y precisos en cuestión de segundos, eliminando el obstáculo que los había hecho obsoletos.

5. Intuición visual: comprendiendo la relación entre las variables.

Además de su utilidad práctica, los nomogramas ofrecen una ventaja más sutil, pero profunda: fomentan la comprensión conceptual del problema. Mientras que una calculadora o un programa informático suelen funcionar como una «caja negra» que simplemente proporciona un resultado, un nomograma permite ver la relación entre las variables.

Esta visualización intrínseca de los datos permite una comprensión mucho más profunda. Al mover la isopleta (la regla) sobre el gráfico, un ingeniero puede desarrollar una intuición sobre cómo afecta un pequeño cambio en una variable a las demás, algo que se pierde al introducir simplemente números en un software. Por ello, se convierten en una poderosa herramienta didáctica.

Conclusión: lecciones de una sabiduría olvidada.

La historia del nomograma es un ejemplo fascinante de cómo las ideas del pasado pueden recuperar su relevancia gracias a la tecnología moderna. La combinación de una técnica de cálculo del siglo XVII con un software de código abierto del siglo XXI demuestra que no se trata solo de una reliquia, sino de una prueba de que las soluciones más simples y visuales pueden seguir siendo increíblemente valiosas.

Su regreso nos obliga a plantearnos una pregunta importante: en nuestra carrera constante hacia la digitalización, ¿qué otras herramientas analógicas e ingeniosas hemos olvidado que podrían ayudarnos a resolver los problemas del mañana?

Os dejo aquí una conversación en la que se tratan estos conceptos.

En este vídeo se resumen los conceptos más relevantes sobre los nomogramas.

Os dejo la comunicación que presentamos recientemente en el VII Congreso Nacional de Áridos. En ella se ilustran, proporcionan y explican detalladamente siete ejemplos originales de nomogramas que se utilizan para resolver ecuaciones comunes en la industria de la explotación de áridos, como el diseño de voladuras y la estimación de ratios de perforación.

Pincha aquí para descargar

Referencia:

MARTÍNEZ-PAGÁN, P.; YEPES, V.; ROSCHIER, L.; BLIGHT, T.; BOULET, D.; PERALES, A. (2025). Elaboración y uso de nomogramas para el ámbito de las explotaciones de áridos. Introducción de los códigos abiertos Pynomo y Nomogen. Actas del VII Congreso Nacional de Áridos, Córdoba, pp. 1085-1100. ISBN 978-84-125559-2-9.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.