Puentes ferroviarios de acero a finales del siglo XIX

En las últimas décadas del siglo XIX, el desarrollo de los puentes ferroviarios de acero se convirtió en uno de los pilares fundamentales de la ingeniería civil moderna. Esta evolución estuvo estrechamente relacionada con la necesidad de estructuras capaces de soportar trenes más pesados y mayores luces, y a la vez fue catalizadora de avances decisivos en la producción y uso estructural del acero. Desde los primeros arcos hasta las grandes estructuras continuas en voladizo, los puentes de acero no solo respondieron a una necesidad funcional, sino que impulsaron la transformación de la tecnología de construcción a escala global.

El puente Eads: origen del acero en la ingeniería ferroviaria

Puente Eads. https://es.wikipedia.org/wiki/Puente_Eads

El primer uso del acero en un puente se produjo en 1828, durante la construcción de un puente colgante en Viena (Austria), en el que se incorporaron cadenas de suspensión de acero fabricadas mediante el proceso de horno de solera abierta. El primer empleo del acero en un puente ferroviario se produjo en la construcción del puente de St. Louis, posteriormente conocido como puente Eads, entre 1869 y 1874. Este puente, que cruza el río Misisipi en Misuri, constaba de dos vanos laterales de 152 m y un vano central de 158,5 m, y supuso un hito técnico sin precedentes. Diseñado por James B. Eads, incorporó por primera vez miembros tubulares huecos en los cordones de las armaduras y empleó el método de cajones neumáticos para cimentaciones profundas, algo revolucionario para la época. Este método de construcción de pilas también fue utilizado por Brunel en la construcción del puente Royal Albert en Saltash (Reino Unido) en 1859. Thomas Telford había propuesto este método en 1800 para un puente de hierro fundido que cruzaría el río Támesis en Londres, y Robert Stephenson lo utilizó en 1846 para construir un puente ferroviario de arco de hierro para evitar el uso de cimbra en el concurrido canal del estrecho de Menai. Eads utilizó principios desarrollados por Galileo en el siglo XVII para explicar a los escépticos los fundamentos de la construcción en voladizo de arcos. Eads no tenía una formación académica en ingeniería, pero contó con la ayuda de Charles Pfeiffer para el diseño y de Theodore Cooper para la construcción.

Eads rechazó el uso del puente colgante —considerado demasiado flexible para cargas ferroviarias— y propuso en su lugar un puente de arcos de hierro fundido, sobre los cuales se dispuso una armadura adicional que aumentaba la rigidez del tablero ferroviario. En 1864, John Roebling propuso un puente colgante para este emplazamiento. La estructura generó tanto escepticismo público y mediático que, antes de su apertura, Eads realizó pruebas de carga con catorce de las locomotoras más pesadas disponibles en el país. La magnitud del proyecto fue tan grande que prácticamente agotó los recursos de la incipiente industria siderúrgica estadounidense.

Expansión de la industria del acero y el papel del ferrocarril

La demanda de puentes con mayores luces por parte de los ferrocarriles norteamericanos, junto con el aumento constante del peso de locomotoras y vagones, impulsó el crecimiento de la industria del acero. Figuras como Andrew Carnegie invirtieron decididamente en mejorar los procesos de producción del acero para conseguir materiales con mayor resistencia y ductilidad. Este impulso dio lugar, en 1879, a la construcción del primer puente ferroviario íntegramente de acero, con celosías tipo Whipple, por parte de la Chicago and Alton Railway en Glasgow, Misuri.

La transición del puente colgante al sistema en voladizos

Aunque algunos ingenieros estadounidenses siguieron diseñando puentes ferroviarios colgantes, la preocupación por su flexibilidad frente a cargas dinámicas y viento persistía. Aun así, el famoso puente de Brooklyn, finalizado en 1883, incluía dos líneas ferroviarias. Sin embargo, el aumento de la masa de las locomotoras y la necesidad de una mayor rigidez estructural provocaron el declive de los puentes colgantes como solución ferroviaria.

La solución técnica más eficaz se encontró en el diseño cantilever, o de avance en voladizo, que permitía construir grandes luces sin cimbra y con suficiente rigidez para cargas dinámicas. El primer puente ferroviario cantilever (también llamado tipo Gerber) construido en Estados Unidos fue el de la Cincinnati Southern Railway sobre el río Kentucky en 1877. En 1883, la Michigan Central and Canada South Railway completó un puente cantiléver de viga de tablero superior sobre el desfiladero del Niágara, paralelo al puente colgante ferroviario de Roebling de 1854. Poco después, en 1884, la Canadian Pacific Railway cruzó el río Fraser, en Columbia Británica, con el primer puente cantilever de acero completamente equilibrado de tablero superior.

Estas estructuras, con brazos en voladizo y tramos suspendidos, se convirtieron en la solución habitual para grandes luces, ya que permitían un diseño estáticamente determinado, rigidez adecuada frente a cargas móviles y la eliminación de la cimbra en el vano principal.

El impulso de Theodore Cooper y la estandarización del acero

En 1880, el ingeniero Theodore Cooper publicó un influyente artículo titulado The Use of Steel for Railway Bridges ante la Sociedad Americana de Ingenieros Civiles (ASCE), en el que promovía el uso exclusivo del acero para puentes ferroviarios. A raíz de ello, casi todos los puentes ferroviarios estadounidenses posteriores se construyeron con acero, y hacia 1895 este material también se utilizaba en otras tipologías de puentes. Para entonces, la producción de perfiles estructurales de acero para puentes ya estaba plenamente desarrollada en el país. Para 1895, las formas estructurales ya no se fabricaban en hierro, sino que se utilizaba acero de manera exclusiva.

El puente de Forth: el cantiléver monumental europeo

Puente de Forth. https://es.wikipedia.org/wiki/Puente_de_Forth

En el Reino Unido, el gobierno levantó la prohibición del uso del acero en puentes ferroviarios en 1877. Una década más tarde, el ingeniero Benjamin Baker, tras estudiar numerosos puentes cantiléver estadounidenses —especialmente los de la Canadian Pacific Railway—, propuso un diseño para el puente sobre el estuario del Forth, en Escocia. Antes de esto, Baker quizá no conocía el trabajo de los ingenieros C. Shaler Smith o C. C. Schneider, quienes ya habían diseñado y construido puentes ferroviarios en voladizo en Estados Unidos. El puente de Forth, completado en 1890, se convirtió en un hito de la ingeniería europea: un gigantesco puente cantiléver de acero con brazos de 207 m y un vano suspendido de 107 m.

Pese a las dudas de algunos ingenieros respecto a la fiabilidad del acero Bessemer por su posible fragilidad, Baker lo empleó en el proyecto. La estructura demostró una rigidez excepcional: la deflexión máxima medida con locomotoras pesadas fue de solo 90 mm, muy cerca del valor teórico previsto de 100 mm. También se sometió a pruebas con dos trenes de carbón largos y pesados en condiciones de viento extremas, con una deflexión inferior a 180 mm.

El puente de Quebec: tragedia, rediseño y récord mundial

Puente de Quebec. https://es.wikipedia.org/wiki/Puente_de_Quebec

La siguiente gran estructura cantiléver fue el puente de Quebec, sobre el río San Lorenzo. Con un vano central de 549 m, aún es en la actualidad el puente cantiléver de mayor luz del mundo. Sin embargo, su construcción estuvo marcada por dos catastróficos fallos: en 1907, un error en el cálculo de las tensiones de compresión durante la fase de voladizo provocó el colapso de la estructura. En la reconstrucción se utilizó acero con níquel como nuevo material. No obstante, en 1916, el vano suspendido cayó al ser izado. Finalmente, el puente se terminó y se abrió al tráfico ferroviario en 1917. Los proyectistas originales fueron Theodore Cooper y Peter Szlapka, de la empresa Phoenixville Bridge Company. Tras el colapso, H. E. Vautelet presentó un nuevo diseño, pero la remodelación del puente se licitó entre varias empresas constructoras y fue ejecutada por G. H. Duggan (St. Lawrence Bridge Company) bajo la dirección de C. C. Schneider, R. Modjeski y C. N. Monsarrat. El acero aleado con níquel se utilizó por primera vez en 1909 en el puente de Blackwell’s Island (hoy Queensboro), en Nueva York. El acero con níquel también fue empleado extensamente por J. A. L. Waddell en diseños de puentes ferroviarios de grandes luces. A. N. Talbot realizó ensayos de conexiones de acero con níquel para la reconstrucción del puente de Quebec.

Puentes de tramo continuo: una opción limitada en América

Mientras que en Europa los puentes de tramo continuo se hicieron más frecuentes, en América del Norte se evitaban por su carácter estáticamente indeterminado. Una excepción fue el puente ferroviario de la Canadian Pacific Railway en Montreal, construido en 1886 con tramos principales de 124,5 m. Se utilizó un método cantiléver para su construcción, controlando cuidadosamente las deformaciones en los cordones inferiores mediante tensores y tornillos ajustables. Estos vanos fueron reemplazados en 1912 debido a las preocupaciones sobre su comportamiento bajo cargas ferroviarias más pesadas. El extremo principal de las cerchas de reemplazo del vano simple se apoyó mediante cimbras sobre una barcaza móvil durante su instalación en un trazado adyacente.

El primer gran puente ferroviario de acero de Francia fue el Viaducto del Viaur, que se construyó en 1898. Este puente de arco en celosía tipo cantilever es inusual, ya que no tiene un vano suspendido, por lo que la estructura es estáticamente indeterminada. Muchos ingenieros consideran que el diseño no era apropiado para cargas ferroviarias.

Viaducto del Viaur. https://es.wikipedia.org/wiki/Viaducto_del_Viaur

La consolidación de nuevas técnicas: roblonado y acero de alto carbono

A principios del siglo XX, muchas estructuras de hierro y acero fueron sustituidas debido al aumento de peso de las locomotoras. El peso típico de las locomotoras era de aproximadamente 40 t en 1860, 70 t en 1880, 100 t en 1890, 125 t en 1900 y 150 t en 1910. Aunque el roblonado era común en Europa, en Estados Unidos no se estandarizó en puentes de gran luz hasta alrededor de 1915. El roblonado se utilizaba en vanos de menor luz a principios del siglo XX.

Uno de los primeros ejemplos destacados fue el Hell Gate Bridge en Nueva York, una estructura de arco de acero de 298 m completada en 1916 para soportar cuatro vías ferroviarias. Fue erigido sin cimbra y empleó por primera vez acero con alto contenido en carbono, principalmente, debido al alto coste del acero aleado.

Ese mismo año, la Chesapeake & Ohio Railroad terminó el puente de Sciotoville, en Ohio, con dos tramos continuos de 236,5 m, el más largo de su tipo hasta hoy.

Puente de Sciotoville. https://en.wikipedia.org/wiki/Sciotoville_Bridge

Un legado de 80.000 puentes

En 1910 se estimaba que había unos 80 000 puentes de hierro y acero en Estados Unidos, que sumaban un total de 2250 kilómetros sobre una red de 300 000 km de vías. La mayoría de los puentes eran de construcción de acero a principios del siglo XX. El ferrocarril, en su rápida expansión tras la Guerra Civil, se convirtió en el principal motor de innovación estructural, propiciando el paso de la madera y la mampostería al hierro y, finalmente, al acero.

El desarrollo de procesos como el Bessemer (1856) y el horno Siemens-Martin (1867) permitió la producción económica del acero. Así, los puentes ferroviarios de acero se convirtieron en una respuesta ingenieril al desafío logístico de la era industrial, marcando el inicio de la ingeniería estructural moderna.

 

Tesis doctoral: Optimización multicriterio para el diseño sostenible de puentes postesados mediante metamodelos

De izquierda a derecha: Julián Alcalá, Salvador Ivorra, Lorena Yepes, Tatiana García y Antonio Tomás.

Hoy, 6 de junio de 2025, ha tenido lugar la defensa de la tesis doctoral de Dª. Lorena Yepes Bellver, titulada “Multi-criteria optimization for sustainable design of post-tensioned concrete slab bridges using metamodels”, dirigida por el profesor Julián Alcalá González. La tesis ha obtenido la máxima calificación de sobresaliente «cum laude». A continuación, presentamos un pequeño resumen de la misma.

Esta tesis utiliza técnicas de modelización sustitutiva para optimizar los costes económicos y medioambientales en puentes losa de hormigón postesado hormigonado in situ. El objetivo principal de esta investigación es desarrollar una metodología sistemática que permita optimizar el diseño de puentes, reduciendo los costes, las emisiones de CO₂ y la energía necesaria para construir este tipo de puentes sin comprometer la viabilidad estructural o económica. El marco de optimización propuesto consta de dos fases secuenciales: la primera se centra en ampliar el espacio de búsqueda y la segunda intensifica la búsqueda de soluciones óptimas. El metamodelo basado en Kriging realiza una optimización heurística que da como resultado un diseño con emisiones de CO₂ significativamente menores que los diseños convencionales. El estudio revela que una relación de esbeltez de aproximadamente 1/30 arroja resultados óptimos, ya que se reduce el consumo de material y se mantiene la integridad estructural. Además, el aumento de la armadura pasiva compensa la reducción de hormigón y armadura activa, lo que da como resultado un diseño más sostenible. Por otra parte, se identifica una compensación entre costes y emisiones que muestra que un modesto aumento de los costes de construcción (menos del 1 %) puede reducir sustancialmente las emisiones de CO₂ (más del 2 %), lo que demuestra que el diseño de puentes sostenibles puede ser económicamente viable.

La investigación explora más a fondo la optimización de la energía incorporada en la construcción de pasos elevados de carreteras anuladas mediante el uso de muestreo por hipercubo latino y optimización basada en Kriging. La metodología permite identificar los parámetros críticos de diseño, como los altos coeficientes de esbeltez (en torno a 1/28), el uso mínimo de hormigón y armadura activa, y el aumento de la armadura pasiva para mejorar la eficiencia energética. Aunque en el estudio se emplearon Kriging y redes neuronales artificiales (RNA), Kriging demostró ser más eficaz a la hora de identificar óptimos locales, a pesar de que las redes neuronales ofrecen predicciones absolutas más precisas. Esto pone de manifiesto la eficacia de los modelos sustitutos a la hora de orientar las decisiones de diseño sostenible, incluso cuando los modelos no ofrecen predicciones absolutas perfectamente exactas.

En el contexto de la optimización de costes para puentes de losa postesada, el estudio demuestra el potencial del modelado sustitutivo combinado con la simulación del recocido. Los resultados muestran que el método de optimización basado en Kriging conduce a una reducción de costes del 6,54 %, principalmente mediante la minimización del uso de materiales, concretamente de hormigón en un 14,8 % y de acero activo en un 11,25 %. Estas reducciones en el consumo de material se consiguen manteniendo la integridad estructural y la capacidad de servicio del puente, lo que convierte al modelado sustitutivo en una herramienta práctica y eficaz para la optimización económica en el diseño de puentes.

El estudio también evalúa la forma de optimizar las emisiones de CO₂ en pasos elevados de carreteras pretensadas. Se identifican los parámetros óptimos de diseño, como grados de hormigón entre C-35 y C-40 MPa, profundidades del tablero entre 1,10 y 1,30 m, y anchuras de base entre 3,20 y 3,80 m. La red neuronal mostró las predicciones más precisas entre los modelos predictivos analizados, con los errores medios absolutos (MAE) y cuadrados medios (RMSE) más bajos. Estos resultados subrayan la importancia de seleccionar el modelo predictivo adecuado para optimizar las emisiones de CO₂ en el diseño de puentes y destacan el valor de utilizar modelos sustitutivos para mejorar la sostenibilidad en los proyectos de ingeniería civil.

Por último, la investigación integra la toma de decisiones multicriterio (MCDM) con la optimización basada en Kriging para evaluar y optimizar los diseños de puentes en relación con objetivos económicos, medioambientales y estructurales. El enfoque MCDM permite evaluar de manera más exhaustiva las alternativas de diseño al tener en cuenta las compensaciones entre coste, impacto ambiental y rendimiento estructural. Esta integración contribuye al desarrollo sostenible de las infraestructuras, ya que facilita la selección de diseños óptimos que se ajusten a los objetivos de sostenibilidad.

En conclusión, esta tesis demuestra que el modelado sustitutivo, que utiliza explícitamente el Kriging y redes neuronales artificiales, es un enfoque práctico para optimizar las dimensiones medioambiental y económica del diseño de puentes. El marco de optimización en dos fases que aquí se presenta proporciona una metodología eficiente desde el punto de vista computacional que permite identificar soluciones de diseño óptimas y sostenibles que cumplen las restricciones estructurales y económicas. Los resultados sugieren que la metodología es aplicable a proyectos de infraestructuras a gran escala y sentarán las bases para futuras investigaciones. Futuros estudios podrían investigar el uso de algoritmos y modelos de optimización adicionales para perfeccionar aún más el proceso de optimización y mejorar la aplicabilidad de estas metodologías en proyectos reales.

Referencias:

YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Predictive modeling for carbon footprint optimization of prestressed road flyovers. Applied Sciences15(17), 9591. DOI:10.3390/app15179591

VILLALBA, P.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2025). A Hybrid Fuzzy DEMATEL–DANP–TOPSIS Framework for Life Cycle-Based Sustainable Retrofit Decision-Making in Seismic RC Structures. Mathematics, 13(16), 2649. DOI:10.3390/math13162649

ZHOU, Z.; WANG, Y.J.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Intelligent monitoring of loess landslides and research on multi-factor coupling damage. Geomechanics for Energy and the Environment, 42:100692. DOI:10.1016/j.gete.2025.100692

ZHOU, Z.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Study on the failure mechanism of deep foundation pit of high-rise building: comprehensive test and microstructure coupling. Buildings, 15(8), 1270. DOI:10.3390/buildings15081270

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

BLIGHT, T.; MARTÍNEZ-PAGÁN, P.; ROSCHIER, L.; BOULET, D.; YEPES-BELLVER, L.; YEPES, V. (2025). Innovative approach of nomography application into an engineering educational context. Plos One, 20(2): e0315426. DOI:10.1371/journal.pone.0315426

NAVARRO, I.J.; VILLALBA, I.; YEPES-BELLVER, L.; ALCALÁ, J. Social Life Cycle Assessment of Railway Track Substructure Alternatives. J. Clean. Prod. 2024, 450, 142008.

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2024). Artificial neural network and Kriging surrogate model for embodied energy optimization of prestressed slab bridges. Sustainability, 16(19), 8450. DOI:10.3390/su16198450

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2023). Embodied energy optimization of prestressed concrete road flyovers by a two-phase Kriging surrogate model. Materials16(20); 6767. DOI:10.3390/ma16206767

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2022). CO₂-optimization of post-tensioned concrete slab-bridge decks using surrogate modeling. Materials, 15(14):4776. DOI:10.3390/ma15144776

Seguimiento inteligente de deslizamientos en suelos de loess: aplicaciones prácticas y lecciones para el ingeniero civil

Acaban de publicar un artículo en la revista, Geomechanics for Energy and the Environment, de la editorial Elsevier, indexada en el JCR. El presente artículo examina un estudio que combina medición en pilotes de hormigón armado, tecnologías GNSS e InSAR y simulaciones de elementos finitos para entender cómo interactúan factores como la presión, la temperatura y la humedad en la evolución de taludes colapsables.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València, y es fruto de la colaboración internacional con investigadores de la Hunan University of Science and Engineering (China).

Podéis descargar el artículo de forma gratuita, hasta el 22 de julio de 2025, en la siguiente dirección: https://authors.elsevier.com/c/1lCKs8MtfNSrg1

En entornos donde los suelos de loess presentan alta susceptibilidad a deslizamientos, disponer de información precisa y temprana resulta determinante para garantizar la estabilidad de las infraestructuras y la seguridad de las comunidades.  A partir de los datos de campo y de la validación numérica, se extraen conclusiones clave sobre cómo dimensionar sistemas de refuerzo, configurar umbrales de alerta temprana y optimizar el diseño de pilotes en proyectos reales. A lo largo del texto se detallan tanto la metodología empleada como las aportaciones más relevantes, la interpretación de los resultados y las líneas futuras de investigación, de modo que el profesional del sector disponga de criterios sólidos para aplicar en obra o en la elaboración de proyectos de contención y estabilización en loess.

Metodología

El estudio combina la vigilancia de campo y simulación numérica para caracterizar el comportamiento de deslizamientos en suelos de loess. Se diseñó una red de instrumentación que incluye:

  • Pilotes de hormigón armado con sensores de presión y temperatura instalados a distintas profundidades (entre 2 m y 16 m). Estos sensores registran continuamente variaciones de tensión y temperatura, permitiendo asociar cambios térmicos con redistribuciones de fricción lateral entre pilote y suelo.
  • Receptores GNSS de alta precisión para medir desplazamientos superficiales con cadencia diaria.
  • Técnicas InSAR destinadas a generar mapas de deformación de superficie con resolución milimétrica.
  • Sensores de alambre vibrante para detectar cambios en humedad y densidad del terreno, claves para evaluar la resistencia interna del suelo y su evolución ante variaciones de carga y humedad.

En paralelo, en laboratorio se realizaron ensayos geomecánicos sobre muestras de loess. Se determinaron parámetros fundamentales: cohesión, ángulo de fricción, módulo de deformación y relación de vacíos. Estos datos alimentaron un modelo tridimensional de elementos finitos de tipo termomecánico, que incorpora:

  1. Parámetros de resistencia al corte y rigidez del suelo, calibrados mediante comparación con los desplazamientos y tensiones reales observados en campo.
  2. Condiciones de contorno tomadas de las lecturas de GNSS, InSAR y sensores en pilotes, para reproducir las condiciones de carga estática y los ciclos térmicos naturales.
  3. Proceso de optimización iterativa, ajustando el modelo hasta que las predicciones de deformación coincidieran con los datos de monitorización (diferencia inferior al 5 % entre desplazamientos numéricos y medidos) .

Este enfoque dual—campo y simulación—garantiza que las conclusiones numéricas se basen en datos reales y que los sistemas de seguimiento puedan ser validados frente a un modelo predictivo confiable.

Aportaciones relevantes

El artículo introduce un método integral de monitorización inteligente que va más allá del registro de desplazamientos superficiales. Los aspectos más destacados, con aplicación directa para el ingeniero civil, son:

  • Medición de tensiones internas en profundidad: La instalación de sensores de presión en pilotes permite identificar aumentos de carga a diferentes niveles. Los resultados mostraron que la presión tiende a incrementarse de forma monótona con la profundidad, lo que indica que los estratos inferiores soportan una mayor carga estática. Este comportamiento aporta información valiosa para dimensionar pilotes y elementos de refuerzo, pues revela en qué zonas del talud se concentran esfuerzos críticos antes de que se trasladen a la superficie.
  • Indicadores térmicos de fricción lateral: Las variaciones de temperatura registradas en los pilotes resultan ser un indicador temprano de cambios en la interacción entre el hormigón y el terreno. Aumentos de temperatura intermedios de hasta 3 °C por ciclos diurnos se correlacionaron con un incremento momentáneo de fricción lateral, lo que puede retrasar o anticipar movimientos dependientes de la descompresión del terreno. Para el ingeniero, esto significa que el seguimiento térmico aporta información adicional sobre el estado crítico del pilote antes de observar movimientos visibles.
  • Integración de GNSS e InSAR: Al combinar medidas GNSS (desplazamientos puntuales diarios) con mapas InSAR (cobertura continua de la superficie), se obtiene una visión conjunta de movimientos tanto profundos como superficiales. En el estudio, los desplazamientos de superficie máximos alcanzaron 26,2 mm, con velocidades de 0,11 mm/día, mientras que en profundidad se observaron desplazamientos de hasta 5,64 mm. Estos resultados permiten calibrar sistemas de alerta temprana sobre umbrales de desplazamiento en superficie que reflejen con mayor fiabilidad la evolución interna del talud.
  • Validación del modelo numérico: La comparación entre las simulaciones de elementos finitos y los datos de campo mostró concordancia en las tendencias de deformación. El modelo predijo con precisión que los bloques con geometría más inclinada y menor cohesión interna sufrirían desplazamientos sustanciales (hasta 6,48 m en algunos tramos simulados), mientras que bloques de forma más estable presentaron desplazamientos medios inferiores a 0,20 m. Esta validación otorga credibilidad al modelo para anticipar magnitudes de deformación en función de propiedades geomecánicas y geometría del talud.

En conjunto, estas aportaciones proveen al ingeniero civil una base sólida para diseñar sistemas de protección y refuerzo, establecer niveles de alerta basados en parámetros internos (presión y temperatura) y optimizar diseños de pilotes según las condiciones específicas del terreno de loess.

Discusión de resultados

Los registros de presión en pilotes revelaron que a profundidades superiores a 10 m los valores oscilan entre 50 kPa y 65 kPa, mientras que en los primeros metros (2 m–5 m) se sitúan entre 5 kPa y 20 kPa. Estos gradientes de presión confirman que la mayor parte de la carga estática recae en los estratos inferiores, algo habitual en suelos colapsables. Para el ingeniero, esta información práctica implica que, al diseñar pilotes de refuerzo, debe dimensionarse la sección y longitud considerando un incremento significativo de esfuerzos por debajo de 10 m de profundidad.

Asimismo, las variaciones térmicas registradas mostraron que, durante días con escasa precipitación, las temperaturas del hormigón en pilotes oscilan en un rango de 2 °C a 3 °C en zonas intermedias. Este efecto térmico se traduce en un aumento temporal de la fricción entre el pilote y el suelo, lo que actúa como un freno temporal al movimiento. Sin embargo, tras eventos de lluvia intensa, la entrada de agua reduce la temperatura y, simultáneamente, se observa una disminución de la fricción lateral, provocando repentinamente un aumento de desplazamientos en la superficie. Para el diseño práctico, esto sugiere que los sistemas de alerta temprana deben incorporar sensores de temperatura en pilotes para correlacionar descensos térmicos con posibles incrementos de desplazamiento.

Los desplazamientos superficiales medidos mediante GNSS e InSAR confirman que los movimientos más significativos (hasta 26,2 mm) se producen después de periodos de lluvia intensa, cuando la capacidad de drenaje del loess se ve limitada y presta a la saturación parcial del estrato superior. En estos momentos, los desplazamientos profundos (hasta 5,64 mm) preceden a los superficiales, lo que indica que la evolución interna puede anticipar la inestabilidad. En la práctica, esto recomienda que el seguimiento continuo de movimientos profundos—detectables por un ligero desplazamiento en pilotes o por un ligero aumento de presión de poros—sea prioridad para emitir avisos antes de observar grandes desplazamientos en la superficie.

Desde el punto de vista de la simulación numérica, el modelo de elementos finitos calibrado con los parámetros geomecánicos del loess mostró que los desplazamientos máximos simulados en bloques con ángulos de inclinación superiores a 30° podrían alcanzar valores de hasta 6,48 m en escenarios extremos de carga gradual. En contraste, bloques con inclinación por debajo de 20° presentaron apenas 0,20 m de deformación promedio. Estos resultados empíricos permiten al ingeniero estimar rangos de deformación potenciales según la geometría del talud y decidir si es necesario instalar medidas de contención adicionales (muros de mampostería, gaviones o anclajes). Asimismo, la validación numérica asegura que, en proyectos futuros, el ingeniero pueda confiar en simulaciones previamente calibradas para evaluar la viabilidad de distintas intervenciones.

Futuras líneas de investigación

Con el objetivo de mejorar la práctica profesional, se proponen las siguientes líneas de estudio:

  1. Escenarios sísmicos y precipitaciones extremas: Ampliar la investigación hacia eventos sísmicos de magnitud superior a 5,0 Ritcher y lluvias prolongadas con más de 50 mm/día. Es preciso analizar la respuesta dinámica del suelo y del hormigón en pilotes, incorporando modelos viscoelásticos que reflejen el comportamiento frente a aceleraciones y ciclos de carga rápidos. Esto permitirá definir nuevos criterios de seguridad para zonas de riesgo sísmico y diseñar pilotes con mayor ductilidad o sistemas de disipación de energía.
  2. Control de humedad y nivel freático: Incluir sensores de humedad de alta frecuencia y piezómetros para registrar en tiempo real la evolución del nivel de agua en el subsuelo. Vincular estos datos con la variación de presión de poros y temperatura en pilotes facilitará una lectura más precisa de la dinámica agua-suelo, identificando umbrales de saturación que reduzcan drásticamente la cohesión del loess. Para la práctica, esto significa instar a la instalación de estaciones meteorológicas locales y piezómetros en proyectos en zonas colapsables.
  3. Algoritmos de aprendizaje automático: Desarrollar modelos que integren todos los datos multi-sensoriales (GNSS, InSAR, presión, temperatura, vibración y humedad) para detectar patrones tempranos de reactivación. Las redes neuronales profundas o las máquinas de soporte vectorial pueden clasificar con mayor antelación estados de riesgo, automatizando alertas y permitiendo intervenciones más eficientes. El ingeniero podría disponer de una herramienta que genere notificaciones automáticas al superar umbrales críticos combinados.
  4. Durabilidad de pilotes y fatiga térmica: Investigar la resistencia a largo plazo de los pilotes de hormigón sometidos a ciclos térmicos y mecánicos. Ensayos acelerados de fatiga térmica, por ejemplo, podrían simular 10 años de degradación en semanas de laboratorio, determinando la resistencia residual del hormigón y sus revestimientos. Estos estudios serían útiles para seleccionar aditivos o recubrimientos que impidan la aparición de fisuras por dilataciones y contracciones repetidas.
  5. Interacción entre tráfico e inestabilidades de talud: Analizar cómo las vibraciones generadas por tráfico rodado intenso afectan el desarrollo de grietas y concentraciones de tensión en suelos de loess. Mediante modelos acoplados vehículo-terreno, se podría determinar si reemplazar capas de refuerzo rígido por materiales con mayor capacidad disipadora de energía reduce los efectos adversos en taludes cercanos a carreteras. Esta línea resultará de utilidad para ingenieros de firmes y geotecnia que trabajen en infraestructuras viales cercanas a zonas inestables.

Conclusión

El estudio presenta una estrategia de seguimiento inteligente que combina mediciones de presión y temperatura en profundidad, datos GNSS e InSAR, y simulaciones numéricas termomecánicas para describir con detalle el comportamiento de deslizamientos en loess. Para el ingeniero civil, los hallazgos prácticos son:

  • La presión en pilotes crece significativamente con la profundidad, por lo que el dimensionado debe contemplar refuerzos más robustos bajo los 10 m.
  • Las variaciones térmicas en pilotes anticipan cambios de fricción lateral, recomendando el uso de sensores de temperatura para mejorar sistemas de alerta.
  • Los desplazamientos profundos preceden a los superficiales tras lluvias intensas, por lo que priorizar la monitorización interna puede prevenir movimientos de gran magnitud en superficie.
  • Los bloques con ángulos de inclinación superiores a 30° son más vulnerables y requieren medidas de contención adicionales, hecho que valida la simulación numérica como herramienta predictiva.

En definitiva, la combinación de datos de campo y modelización proporciona una base sólida para diseñar soluciones de refuerzo y sistemas de alerta temprana más ajustados a la realidad del terreno. Herramientas adicionales—como el seguimiento continuo de humedad, algoritmos de inteligencia artificial y estudios de fatiga térmica—podrían perfeccionar las estrategias de diseño y mantenimiento de infraestructuras en zonas de loess, favoreciendo la seguridad y la eficiencia de las intervenciones.

Referencia:

ZHOU, Z.; WANG, Y.J.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Intelligent monitoring of loess landslides and research on multi-factor coupling damage. Geomechanics for Energy and the Environment, DOI:10.1016/j.gete.2025.100692

Valentín Vallhonrat: ingeniería estructural y modernidad técnica en los inicios del hormigón armado en España

https://www.aperos.es/2018/12/valentin-vallhonrat-y-gomez-ingeniero-y.html

A comienzos del siglo XX, el desarrollo del hormigón armado en España transformó de forma decisiva las técnicas constructivas, dando lugar a nuevas formas de proyectar y ejecutar edificios e infraestructuras. En este contexto, surgieron figuras que, aunque no siempre fueron reconocidas en el discurso oficial de la ingeniería o la arquitectura, desempeñaron un papel esencial en la consolidación del hormigón armado como material estructural preferente. Entre ellas destaca Valentín Vallhonrat y Gómez, ingeniero de formación y constructor por vocación, cuya obra anticipó muchos de los principios que rigen el diseño estructural moderno en la actualidad.

Examinamos brevemente la trayectoria técnica y profesional de Vallhonrat, poniendo énfasis en su capacidad para integrar innovación, funcionalidad y colaboración interdisciplinaria en una época de escasa estandarización normativa. Al revisar sus principales proyectos, métodos constructivos y decisiones técnicas, se pone de manifiesto que su enfoque no solo contribuyó a resolver los desafíos de su tiempo, sino también a sentar las bases de una ingeniería estructural más precisa, eficiente y adaptada a las necesidades arquitectónicas contemporáneas.

Desde sus primeros años, Vallhonrat demostró ser una persona con un talento especial para el estudio. Nacido en Almodóvar del Campo (Ciudad Real) en 1884, finalizó sus estudios de Ingeniería de Minas en 1906 como primero de su promoción. Este dato, además de reflejar su capacidad intelectual, pone de manifiesto la fuerte vocación por el conocimiento técnico de la persona que se esconde detrás del ingeniero.

Tras finalizar sus estudios, ingresó de manera inmediata en la Sociedad Hidroeléctrica Ibérica, donde inició su especialización en construcciones de hormigón, que derivó más adelante en la fundación de su propia empresa constructora. En este ámbito, desempeñó un papel destacado como uno de los introductores de esta tecnología constructiva en el panorama técnico español. El empleo del hormigón, un material que por entonces estaba surgiendo, le permitió incorporarse al sector de las grandes presas de embalse, infraestructuras estratégicas para el aprovechamiento de la energía hidráulica. En el desarrollo de estas obras, sustituyó progresivamente a los especialistas alemanes que hasta entonces monopolizaban este tipo de intervenciones y alcanzó el cargo de jefe de explotación, como señala Urrutia y Llano.

Entre las contribuciones técnicas más relevantes, destaca su papel como introductor del uso pionero del hormigón armado en varios ámbitos: estructuras en altura, rehabilitación de patrimonio histórico, edificación industrial y obras hidráulicas. Fue responsable de la ejecución de algunas de las primeras cimentaciones especiales con hormigón armado en suelos blandos, como en el edificio del Banco Pastor, y de naves industriales de gran luz, como las de Babcock & Wilcox. Asimismo, introdujo en España el hormigón seco (sand-cement) colocado por bombeo en la presa de Ordunte, lo que supuso un salto tecnológico equivalente al que se vivía en Estados Unidos en el mismo periodo.

En paralelo, impulsó sistemas constructivos propios y desarrolló patentes como la de forjados con cielo raso plano, que se aplicaron en obras emblemáticas como el hotel Nacional. Este enfoque proyectista, alejado de una ejecución meramente repetitiva, lo sitúa como un verdadero ingeniero de diseño estructural, capaz de desarrollar soluciones adaptadas al contexto y a las necesidades arquitectónicas.

Su colaboración con arquitectos como Modesto López Otero, Luis Gutiérrez Soto y Antonio Tenreiro demuestra que Vallhonrat asumía un papel activo en la definición estructural del proyecto, integrando criterios técnicos y formales, anticipando así el perfil del ingeniero contemporáneo. Así, participó en la creación de algunos de los edificios más emblemáticos de su época, como el cine Callao o el edificio de la Unión y el Fénix, ambos en Madrid.

Anuncio publicitario. Autor desconocido. 1917. Arquitectura y construcción, (1917),
p. 394

En términos empresariales, su compañía, Valentín Vallhonrat S. A., operó durante más de tres décadas, ejecutando tanto proyectos privados como grandes contratos de obra pública, incluyendo tramos ferroviarios y presas. Su capacidad para organizar equipos técnicos multidisciplinares y licitar proyectos de gran escala revela también un avanzado perfil empresarial para la época.

La obra de Valentín Vallhonrat es un conjunto coherente de soluciones técnicas adelantadas a su tiempo. No solo fue un constructor de éxito, sino también un profesional que intervino directamente en el desarrollo y aplicación de técnicas estructurales innovadoras en contextos muy diversos. El análisis de sus obras permite detectar líneas de continuidad en su método: racionalización de procesos, atención a los condicionantes del terreno, adaptación al diseño arquitectónico y mejora de la eficiencia constructiva.

En la construcción del Banco Pastor en A Coruña (1920-1922), Vallhonrat no solo resolvió con éxito la cimentación profunda en un terreno de baja capacidad portante, sino que además lo hizo con un ritmo de ejecución que evidencia una planificación rigurosa: una planta completa cada dos semanas y media. Este dato, unido a la precisión técnica de la ejecución, proyecta una imagen de modernidad organizativa muy poco común en ese momento.

Otro ejemplo significativo es la ejecución del cine Callao, donde se utilizaron vigas tipo Vierendeel con luces de hasta 22 metros. Gracias a esta solución, se pudo prescindir de diagonales estructurales, lo que permitió crear un espacio escénico libre y adaptable. Aquí, como en otras obras, se observa cómo la estructura no impone restricciones a la arquitectura, sino que la hace posible.

La rehabilitación del Palacio de Carlos V, dentro del conjunto de la Alhambra, es un caso singular. El uso de hormigón armado en un edificio renacentista evidencia una mentalidad integradora que entendía los materiales modernos como medios para recuperar condiciones de seguridad y usos sin alterar la autenticidad formal del patrimonio. Este tipo de intervenciones, que hoy son ampliamente aceptadas, eran poco frecuentes en el momento y requerían una visión técnica sensible al contexto.

El caso de la presa de Ordunte demuestra un salto técnico y logístico. La automatización parcial del proceso de producción del hormigón y su colocación mediante bombeo, junto con el uso de materiales in situ, indican un dominio avanzado del ciclo constructivo. El empleo de 220 000 m³ de hormigón, la ejecución de un túnel hidráulico de 6000 l/s de capacidad y una conducción ovoide de más de 30 km en un contexto tecnológico limitado posicionan esta obra como un hito de la ingeniería civil española de la época.

Su biografía se completa con su posterior retorno al servicio público y la docencia tras la disolución de su empresa en 1950. Como profesor de hidráulica en la Escuela de Minas de Madrid y posteriormente como presidente del Consejo de la Minería, Vallhonrat continuó ligado a la ingeniería desde una perspectiva institucional. En un contexto marcado por los efectos de la Guerra Civil y la transformación del Estado, esta trayectoria da cuenta de una figura que, más allá de sus realizaciones, encarnó una concepción amplia de la profesión.

La obra de Valentín Vallhonrat y Gómez articula una síntesis entre conocimiento técnico, capacidad ejecutiva e innovación formal que resultó determinante para el desarrollo del hormigón armado en España y anticipó prácticas y perfiles profesionales contemporáneos. Su legado no solo perdura en las estructuras que ha dejado, sino también en la manera en que enfrentó los desafíos constructivos: con un enfoque integrador, sistemático y técnicamente solvente.

Vallhonrat se posiciona como un agente clave en la transición hacia una construcción moderna en España. Desde una perspectiva contemporánea, su figura aporta también elementos valiosos para la formación de los estudiantes de ingeniería civil: capacidad crítica, rigor técnico, apertura a la innovación y voluntad de colaborar con otras disciplinas. Reivindicar a Valentín Vallhonrat no es solo un acto de memoria profesional, sino también una oportunidad para reflexionar sobre el papel del conocimiento técnico en la construcción de nuestras ciudades y territorios.

Os dejo a continuación un par de artículo que permiten profundizar en la figura de este ingeniero. Espero que os resulten de interés.

Pincha aquí para descargar

Pincha aquí para descargar

Pincha aquí para descargar

¿Cuáles son las características de una buena estimación de costes?

En la ingeniería o la arquitectura, la estimación de costes no constituye únicamente una labor técnica, sino que representa un componente esencial en la planificación, gestión y toma de decisiones de todo proyecto. Ya sea para la construcción de una presa, una carretera o una infraestructura ferroviaria, es fundamental contar con una estimación precisa, bien fundamentada y comunicada adecuadamente, ya que esto puede marcar la diferencia entre el éxito y el fracaso de una iniciativa. En el presente artículo, se aborda la evaluación de las competencias que constituyen una estimación de costes sólida y conforme a las normas profesionales y las prácticas óptimas del sector.

Una estimación de costes sólida y confiable debe cumplir con cuatro características relevantes: exhaustividad, razonabilidad, credibilidad y solidez analítica. Estos principios aseguran que el análisis sea riguroso desde el punto de vista técnico, así como útil y comprensible para quienes toman decisiones.

En primer lugar, toda estimación sólida debe basarse en el rendimiento histórico de programas anteriores. Por lo tanto, es necesario utilizar datos de proyectos análogos como referencia, ya sean similares en alcance, naturaleza o contexto, para respaldar el análisis. Estas experiencias previas deben estar claramente identificadas como fuentes de datos, aportando así transparencia y reforzando la confianza en los resultados.

Sin embargo, si bien los datos históricos constituyen el punto de partida, es imperativo considerar las posibles mejoras en diseño, materiales y procesos constructivos que puedan incorporarse en el nuevo proyecto. A pesar de la ausencia de datos empíricos que respalden estos avances, es necesario evaluar su impacto de manera rigurosa y fundamentada. En tales circunstancias, se acude al juicio profesional o conocimiento experto (también denominado subject matter expertise), cuya aplicación debe estar debidamente documentada y justificada.

Otro aspecto clave es la claridad en la comunicación. Una estimación sólida debe ser comprensible, especialmente para los responsables de programas y directivos que, si bien toman decisiones estratégicas, pueden carecer del tiempo o del perfil técnico necesario para profundizar en los detalles metodológicos. Por ello, se recomienda optar por enfoques sencillos, evitando complejidades innecesarias, para que la estimación pueda ser fácilmente interpretada por sus destinatarios.

Asimismo, es preciso identificar las reglas de base y los supuestos. Como se suele decir en el ámbito del análisis: «Permítame realizar las suposiciones, y usted podrá realizar los cálculos». Esta frase resume la enorme influencia que tienen las hipótesis en cualquier estimación. Si bien es difícil que todos los agentes implicados compartan exactamente los mismos supuestos, la mejor estrategia consiste en incorporar análisis de sensibilidad. Estos instrumentos permiten evaluar la variación de la estimación ante diferentes escenarios y contribuyen a una gestión más eficiente de la incertidumbre.

Precisamente, una buena estimación debe abordar de forma explícita los riesgos y las incertidumbres inherentes al proyecto. Si bien el resultado final se manifiesta a través de una cifra concreta —conocida como «punto estimado»—, es importante destacar que dicha cifra es el resultado de una serie de supuestos. Por lo tanto, es posible que esta haya variado si los supuestos hubiesen sido distintos. Por tanto, es esencial señalar las sensibilidades del modelo y mostrar cómo afectan al resultado final, para ofrecer una visión más completa y realista del coste previsto.

Desde una perspectiva técnica, existen otras cualidades que refuerzan la validez y utilidad de la estimación. Una de las características esenciales que debe cumplir es que esté impulsada por los requisitos del proyecto. Resulta improcedente solicitar una estimación del coste de rehabilitar una cocina sin definir previamente el alcance de dicha rehabilitación. En el ámbito de los proyectos civiles de gran envergadura, resulta imperativo que los requisitos funcionales y técnicos se encuentren debidamente documentados, ya sea a través de especificaciones técnicas, documentos de alcance, solicitudes de propuesta (RFP) o, en el caso de proyectos públicos, mediante instrumentos normalizados como el «Cost Analysis Requirements Description» (CARD).

Otra condición esencial es que el proyecto esté suficientemente definido desde el punto de vista técnico y que se hayan identificado las áreas de mayor riesgo. De este modo, se garantizará una selección meticulosa de la metodología de estimación más apropiada y una aplicación precisa de las herramientas de análisis.

En proyectos de gran envergadura, especialmente en el ámbito público, se recomienda disponer de una estimación independiente. Esta función de validación externa contribuye a reforzar la credibilidad del análisis. De igual manera, es importante contar con estimaciones independientes que respalden los presupuestos en los grandes proyectos.

Finalmente, una estimación de calidad debe ser trazable y auditable. Por lo tanto, es imperativo que sea posible reconstruirla a partir de los datos, supuestos y fuentes utilizadas. Existe un consenso tácito entre los profesionales de la estimación, según el cual cualquier individuo con conocimientos básicos de análisis cuantitativo debería estar en condiciones de seguir los pasos del cálculo, aplicar los datos y reproducir el resultado. La transparencia, por tanto, no es solo un valor añadido, sino un requisito indispensable para asegurar la fiabilidad del proceso.

En el ámbito de la ingeniería civil, donde los proyectos conllevan frecuentemente inversiones significativas y pueden afectar a miles de personas, la estimación de costes deja de ser una tarea secundaria para convertirse en una herramienta estratégica esencial. El cálculo de cifras por sí solo no es suficiente; es imperativo comprender el proyecto en su totalidad, anticipar escenarios, comunicar con claridad y tomar decisiones con fundamento.

Invito a todas las personas —ya sean profesionales con experiencia o estudiantes en proceso de formación— a considerar la estimación de costes no como un mero trámite técnico, sino como una disciplina que integra ciencia, experiencia y criterio. Reflexionar sobre el proceso de construcción de nuestras estimaciones, los supuestos que las sustentan y la manera en que las comunicamos, puede resultar fundamental para mejorar la eficiencia, la transparencia y la sostenibilidad de nuestras infraestructuras.

Glosario de términos clave

  • Estimación de costes: Proceso de predecir el coste monetario de un proyecto o iniciativa, basándose en datos disponibles, supuestos y metodologías de análisis.
  • Exhaustividad: Característica de una estimación que implica considerar todos los elementos relevantes del proyecto y sus posibles costes asociados.
  • Razonabilidad: Característica que indica que la estimación está lógicamente estructurada y los valores utilizados tienen sentido dentro del contexto del proyecto y la experiencia previa.
  • Credibilidad: Característica que denota la confianza en la estimación, basada en la solidez de la metodología, la transparencia en los datos y supuestos, y la validación (interna o externa).
  • Solidez analítica: Característica que se refiere a que la estimación se basa en métodos de análisis cuantitativos rigurosos y bien aplicados.
  • Rendimiento histórico: Datos de coste y ejecución de proyectos anteriores similares que se utilizan como base empírica para una nueva estimación.
  • Juicio profesional (o conocimiento experto): Aplicación de la experiencia y conocimiento de expertos en la materia para realizar estimaciones o tomar decisiones cuando los datos empíricos son limitados.
  • Reglas de base y supuestos: Las hipótesis fundamentales y las condiciones iniciales que subyacen a una estimación y sobre las cuales se realizan los cálculos.
  • Análisis de sensibilidad: Técnica que evalúa cómo varía el resultado de una estimación cuando se modifican los supuestos o parámetros clave, ayudando a entender el impacto de la incertidumbre.
  • Punto estimado: La cifra única que representa el resultado más probable o esperado de la estimación de costes.
  • Requisitos del proyecto: Las especificaciones funcionales, técnicas y de rendimiento que definen el alcance y los objetivos de un proyecto, y que deben impulsar la estimación de costes.
  • Cost Analysis Requirements Description (CARD): Instrumento normalizado, especialmente en proyectos públicos, que documenta los requisitos necesarios para realizar un análisis de costes.
  • Estimación independiente: Una estimación de costes realizada por un equipo o entidad separada del equipo principal del proyecto, con el fin de validar o contrastar la estimación principal.
  • Trazabilidad: La capacidad de seguir y documentar el proceso de estimación, desde los datos y supuestos iniciales hasta el resultado final.
  • Auditabilidad: La capacidad de verificar la exactitud y fiabilidad de una estimación, examinando los datos, métodos y supuestos utilizados, de modo que otro analista pueda reproducirla.

Referencias:

Mislick, G. K., & Nussbaum, D. A. (2015). Cost estimation: Methods and tools. John Wiley & Sons.

Yepes, V. (2022). Gestión de costes y producción de maquinaria de construcción. Universidad Politécnica de Valencia.

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

 

Discurso de apertura en el evento Innotransfer “Infraestructuras resilientes frente a eventos climáticos extremos”

Os anuncio que el próximo miércoles, 28 de mayo de 2025, tendré la oportunidad de dar el discurso de apertura en el evento, presencial y en línea, InnotransferInfraestructuras resilientes frente a eventos climáticos extremos” centrada en los ámbitos de carreteras, ferrocarriles e infraestructuras hidráulicas, dentro del programa INNOTRANSFER, dedicado a facilitar conexión entre demandantes y oferentes de soluciones innovadoras en la Comunitat Valenciana. Este año, en particular, estamos enfocando estos eventos a necesidades puestas de manifiesto con la DANA.

En los últimos años, la frecuencia e intensidad de los fenómenos meteorológicos extremos han aumentado de manera sostenida. Episodios como lluvias torrenciales, vientos huracanados, tornados, olas de calor y frío o temporales marítimos han provocado un incremento de las catástrofes naturales asociadas, incluyendo inundaciones, destrucción y regresión litoral, incendios forestales y sequías prolongadas.

Esta tendencia, impulsada por el cambio climático, plantea un desafío creciente que exige soluciones innovadoras en el diseño de infraestructuras resilientes. Estas infraestructuras deben abarcar la planificación y construcción de carreterasinfraestructuras hidráulicas y redes de transporte ferroviario, garantizando no solo la resistencia ante situaciones críticas, sino también la capacidad de minimizar daños y asegurar una rápida recuperación.

En la Comunitat Valenciana, esta necesidad es especialmente relevante debido al incremento de fenómenos climáticos extremos como las DANAs (Depresiones Aisladas en Niveles Altos). La jornada tiene como objetivo abordar el desarrollo de infraestructuras urbanas y rurales capaces de adaptarse al clima cambiante, reduciendo el impacto negativo en la población y en los recursos económicos locales.

Esta jornada Innotransfer reunirá a expertos, empresas e instituciones para explorar soluciones innovadoras en infraestructuras resilientes, aprovechando el potencial de la Compra Pública de Innovación como herramienta clave para facilitar su adopción por parte de las Administraciones Públicas. Dichas propuestas han sido identificadas por la Ciudad Politécnica de la Innovación (CPI), parque científico de la Universitat Politècnica de València (UPV).

El objetivo de la jornada es crear oportunidades de colaboración y un networking de alto impacto entre los diferentes actores del ecosistema valenciano de innovación, fomentando el desarrollo conjunto de proyectos de I+D+i de alto impacto.

La participación en el evento es gratuita, y se puede hacer accediendo al siguiente enlace: https://innotransfer.org/evento/infraestructuras-resilientes-frente-a-eventos-climaticos-extremos/

Os dejo el programa, por si os interesa.

Tendencias futuras y retos de la inteligencia artificial en la ingeniería civil

La ingeniería civil se encuentra inmersa en un profundo proceso de transformación, impulsada por los avances en inteligencia artificial (IA) y en tecnologías digitales emergentes. Estas innovaciones están redefiniendo los procesos de diseño y la gestión y operación de las infraestructuras, lo que permite la implementación de soluciones más eficientes, sostenibles y seguras. En este contexto, resulta imperativo explorar las principales tendencias que delinearán el futuro del sector en los próximos años, así como los desafíos que deberán superarse para lograr una adopción exitosa y generalizada.

Este artículo examina el impacto transformador de la IA y de las tecnologías digitales en la ingeniería civil. Se destacan tendencias futuras clave como la creación de infraestructuras inteligentes con monitorización en tiempo real, el diseño generativo y la planificación asistida por inteligencia artificial. También se abordan el uso de la IA para la construcción sostenible, la proliferación de máquinas autónomas y de robótica, y la mejora de la colaboración entre humanos y máquinas mediante la inteligencia aumentada. El documento también detalla los principales desafíos para la adopción exitosa de la IA, como la calidad de los datos, la integración con sistemas existentes, las consideraciones éticas y la escasez de talento. Por último, se destaca la importancia de abordar estos desafíos para lograr una transformación integral y sostenible del sector.

Tendencias futuras

La primera gran línea de evolución es la de las infraestructuras inteligentes, donde la IA, combinada con el Internet de las Cosas (IoT), permitirá monitorizar en tiempo real el estado de puentes, túneles y redes de transporte, y adaptar automáticamente parámetros como la iluminación, el drenaje o la ventilación según la demanda.

El diseño generativo y la planificación asistida por IA tienen el potencial de transformar de manera significativa las etapas iniciales del proceso de diseño. Mediante algoritmos capaces de explorar un amplio espectro de alternativas, se optimizarán los criterios de costo, consumo de material y rendimiento estructural, reduciendo la subjetividad y acelerando la toma de decisiones.

En el ámbito de la construcción sostenible, la IA aportará análisis avanzados del consumo energético y de la huella de carbono, facilitando la selección de materiales y métodos constructivos de menor impacto ambiental, así como el dimensionado óptimo de sistemas de climatización y redes de servicios.

El despliegue de las máquinas autónomas y la robótica de obra continuará su curso: excavadoras, camiones y drones operarán con escasa supervisión humana, ejecutando movimientos precisos y recolectando datos topográficos que retroalimentan modelos predictivos de rendimiento y seguridad.

La colaboración entre humanos y máquinas se potenciará mediante la inteligencia aumentada, lo que permitirá a los profesionales liberarse de tareas repetitivas para enfocarse en la supervisión e interpretación de los resultados generados por sistemas de IA, combinando intuición y rigor analítico.

Las analíticas predictivas alcanzarán nuevas cotas de sofisticación, ofreciendo a los gestores de proyecto visibilidad temprana sobre desviaciones en costes, plazos y riesgos, y sugiriendo medidas preventivas basadas en patrones históricos.

La tecnología blockchain se explorará como garante de la trazabilidad, la transparencia y la inmutabilidad de los registros de obra, contratos y certificaciones, mitigando fraudes y disputas al proteger la integridad de los datos.

El edge computing permitirá procesar la información localmente en la obra —por ejemplo, en drones o en nodos IoT—, reduciendo la latencia y garantizando una respuesta inmediata en aplicaciones críticas, como la detección de fallos estructurales.

Los gemelos digitales, réplicas virtuales permanentemente actualizadas de activos reales, se consolidarán para simular escenarios de mantenimiento, rehabilitación y operación, optimizando los ciclos de vida y los costes asociados.

Por último, la personalización de soluciones de IA permitirá adaptar herramientas y modelos a las necesidades específicas de cada proyecto, lo que facilitará una adopción más ágil y homogénea.

Retos asociados

No obstante, la plena materialización de estas tendencias se enfrenta a múltiples desafíos. En primer lugar, es preciso señalar que la calidad y la disponibilidad de los datos siguen siendo insuficientes. Los proyectos de gran envergadura generan información dispersa y heterogénea, lo que dificulta el entrenamiento fiable de los modelos.

La integración con sistemas existentes, tales como software de gestión, bases de datos heredadas o flujos de trabajo manuales, puede ocasionar interrupciones en la operativa y en los cronogramas establecidos. Por lo tanto, resulta necesario implementar estrategias de migración y de adaptación progresiva.

Las consideraciones éticas y el sesgo algorítmico obligan a implementar mecanismos de transparencia y gobernanza que garanticen la rendición de cuentas y la equidad en las decisiones críticas.

La escasez de talento experto en IA y en construcción limita la creación, el despliegue y el mantenimiento de estas soluciones, lo que apunta a la necesidad de planes de formación duales en ingeniería y ciencia de datos.

La ausencia de marcos regulatorios y legales claros genera incertidumbre respecto de las responsabilidades, las licencias y el cumplimiento normativo en caso de fallos o litigios.

El coste inicial de adquisición e implementación de tecnologías de IA puede resultar prohibitivo para las pequeñas y medianas empresas (PYMES) y para proyectos con márgenes ajustados. Por ello, es importante demostrar el retorno de la inversión a medio y largo plazo.

La privacidad y la seguridad de los datos, cada vez más extensos y sensibles, requieren arquitecturas robustas que eviten fugas de datos y ciberataques, especialmente cuando se integran sensores IoT y servicios en la nube.

Los problemas de interoperabilidad entre plataformas, estándares y formatos de datos comprometen la colaboración multidisciplinar y el intercambio fluido de información.

La adaptación al ritmo vertiginoso de la evolución tecnológica exige un aprendizaje continuo y revisiones frecuentes de las infraestructuras de TI para no quedarse obsoletos.

Finalmente, la resistencia al cambio por parte de profesionales y directivos puede frenar la adopción, lo que subraya la importancia de campañas de sensibilización y casos de éxito tangibles.

Conclusión

El futuro de la IA en ingeniería civil se perfila como un escenario de grandes oportunidades para la creación de infraestructuras más inteligentes, eficientes y sostenibles. No obstante, es imperativo abordar con éxito los desafíos técnicos, éticos y organizativos para evitar que la implementación de estas tecnologías se limite a proyectos aislados y, en cambio, promueva una transformación integral y sostenible del sector.

Glosario de términos clave

  • Inteligencia artificial (IA): Sistemas o máquinas que imitan la inteligencia humana para realizar tareas, aprendiendo de la información que procesan.
  • Internet de las cosas (IoT): Red de objetos físicos (“cosas”) integrados con sensores, software y otras tecnologías que les permiten recopilar e intercambiar datos.
  • Infraestructuras inteligentes: Estructuras físicas (puentes, túneles, redes) equipadas con tecnología para monitorear y adaptar su funcionamiento en tiempo real.
  • Diseño generativo: Proceso de diseño que utiliza algoritmos para explorar múltiples soluciones basadas en un conjunto de parámetros y restricciones definidos.
  • Construcción sostenible: Prácticas de construcción que minimizan el impacto ambiental, optimizan el uso de los recursos y consideran el ciclo de vida completo de las estructuras.
  • Máquinas autónomas: Equipos o vehículos capaces de operar sin supervisión humana directa, utilizando sensores y software para tomar decisiones.
  • Robótica de obra: Uso de robots para ejecutar tareas en el sitio de construcción, a menudo repetitivas o peligrosas para los humanos.
  • Inteligencia aumentada: Enfoque que combina las capacidades de la inteligencia artificial con la inteligencia humana para mejorar el rendimiento y la toma de decisiones.
  • Analíticas predictivas: Empleo de datos históricos, algoritmos y técnicas de aprendizaje automático para identificar la probabilidad de resultados futuros.
  • Blockchain: Tecnología de registro distribuido que permite transacciones transparentes, seguras e inmutables.
  • Edge Computing: Procesamiento de datos cerca de donde se generan (en el “borde” de la red) en lugar de enviarlos a un centro de datos central.
  • Gemelos digitales: Réplicas virtuales de activos físicos, procesos o sistemas que se actualizan en tiempo real y pueden usarse para simulación y análisis.
  • Sesgo algorítmico: Error sistemático en un algoritmo que produce resultados injustamente discriminatorios o sesgados.
  • Interoperabilidad: Capacidad de diferentes sistemas, plataformas o software para trabajar juntos e intercambiar datos sin problemas.
  • Resistencia al cambio: Falta de disposición de las personas u organizaciones para adoptar nuevas tecnologías, procesos o formas de trabajar.

Referencias:

DONAIRE, S.; BARRAZA, R.; MARTÍNEZ-PAGÁN, P.; MARTÍNEZ-SEGURA, M.A.; ÁLVAREZ, L.; YEPES-BELLVER, L.; YEPES, V. (2026). Augmented Reality in Engineering Education: Strategic Design and Evidence-Based Results. Plos One, 21(2), e0341815. DOI:10.1371/journal.pone.0341815

GARCÍA, J.; VILLAVICENCIO, G.; ALTIMIRAS, F.; CRAWFORD, B.; SOTO, R.; MINTATOGAWA, V.; FRANCO, M.; MARTÍNEZ-MUÑOZ, D.; YEPES, V. (2022). Machine learning techniques applied to construction: A hybrid bibliometric analysis of advances and future directions. Automation in Construction, 142:104532. DOI:10.1016/j.autcon.2022.104532

FERNÁNDEZ-MORA, V.; NAVARRO, I.J.; YEPES, V. (2022). Integration of the structural project into the BIM paradigm: a literature review. Journal of Building Engineering, 53:104318. DOI:10.1016/j.jobe.2022.104318.

YEPES, V.; KRIPKA, M.; YEPES-BELLVER, L.; GARCÍA, J. (2023). La inteligencia artificial en la ingeniería civil: oportunidades y desafíosIC Ingeniería Civil, 642:20-23.

¿Se puede predecir el futuro? Claves de la estimación de costes en proyectos de ingeniería

En el ámbito de la ingeniería civil, planificar correctamente no solo es deseable, sino que es imprescindible para garantizar la eficiencia y la calidad en el desarrollo de proyectos. En todas las etapas de un proyecto, ya sea la construcción de una carretera, un puente o una infraestructura hidráulica, la estimación de costes es un componente esencial. La estimación precisa del costo de una obra es fundamental para tomar decisiones informadas, optimizar recursos y reducir riesgos. Para proceder con la estimación de costes, es preciso definir con precisión el concepto. Para ello, es necesario establecer los fundamentos técnicos y metodológicos que rigen dicha práctica.

El físico danés Niels Bohr, galardonado con el Premio Nobel en 1922, expresó en una ocasión: «Predecir es sumamente complejo, especialmente en lo que respecta al futuro». Esta expresión, originariamente empleada en el ámbito de la física, resulta aplicable en el ámbito de la estimación de costes, dada su compatibilidad tanto con su dimensión técnica como con la naturaleza incierta inherente a todo proceso de planificación.

La estimación de costes puede definirse como el proceso mediante el cual se recopilan y analizan datos históricos, y se aplican modelos cuantitativos, técnicas, herramientas y bases de datos con el objetivo de prever el coste futuro de un producto, proyecto, programa o tarea. En esencia, se trata de una práctica que integra elementos del arte y la ciencia, con el objetivo de estimar el valor, alcance o características probables de un elemento, en función de la información disponible en un momento determinado.

Uno de los pilares fundamentales de esta disciplina son los datos históricos. Como ocurre en cualquier otra actividad científica, la estimación de costes se apoya en evidencia contrastada. Dado que no es posible disponer de datos futuros, es imperativo recurrir a la información relevante del pasado. La búsqueda y el tratamiento de datos históricos son una labor esencial del profesional de la estimación. La recopilación, organización, normalización y gestión adecuadas de los datos históricos resultan valiosas para sentar una base sólida para el análisis posterior.

En lo que respecta a la estimación de costes, esta se fundamenta en el empleo de modelos cuantitativos, los cuales deben caracterizarse por su transparencia, racionalidad y capacidad de ser revisados por terceros. Este componente científico ha sido determinante para que la asignatura de estimación de costes se integre de manera habitual en los departamentos universitarios de ingeniería de sistemas, de investigación operativa o de administración de empresas, lo que refleja su naturaleza técnica y rigurosa.

Un aspecto central de esta profesión es la capacidad de predecir. Frecuentemente, se escucha la afirmación de que «no se puede predecir el futuro», pero esta idea es engañosa. Si alguien afirma que «mañana va a llover», podrá estar en lo cierto o equivocado, pero, en cualquier caso, estará realizando una predicción. De hecho, muchas de nuestras decisiones cotidianas —como la elección de un paraguas o la planificación de una inversión— se fundamentan precisamente en el intento de anticipar el futuro. Predecir, también conocido como pronosticar, es una actividad legítima y valiosa, especialmente en campos como la ingeniería civil, donde los proyectos suelen implicar plazos prolongados, recursos significativos y un alto grado de incertidumbre.

Algunas voces críticas señalan que el uso de datos históricos para estimar costes futuros podría implicar la repetición de errores del pasado en la toma de decisiones. Según esta lógica, estaríamos asumiendo que los gestores actuales cometerán los mismos fallos que sus predecesores, lo cual, según afirman, carece de sentido. Sin embargo, esta objeción se fundamenta en un error de base. Por un lado, los errores del pasado no suelen deberse a la incompetencia de quienes lideraban los proyectos, sino a factores externos que escapaban a su control. Por otro lado, quienes gestionan proyectos en la actualidad se enfrentarán a un contexto diferente, con nuevos retos y condicionantes que también podrían obligarles a desviarse de sus planes iniciales. Como respuesta más irónica (pero igualmente válida), podría decirse que «no cometerás los mismos errores que tus antecesores: cometerás los tuyos».

Por último, es fundamental tener presente que toda estimación se realiza con base en la información disponible en ese momento. Si bien nos gustaría contar con datos precisos sobre las condiciones futuras en las que se ejecutará un proyecto, la realidad es que solo podemos trabajar con lo que sabemos hoy e intentar prever las circunstancias del mañana. Es comprensible que no sea posible anticipar todos los cambios que puedan producirse, especialmente en proyectos a largo plazo. A modo ilustrativo, si se está calculando el coste para producir 200 m³ de hormigón en una planta propia para una obra, pero más adelante el cliente quiere un modificado de obra que nos obliga a producir 2000 m³, es evidente que nuestra estimación inicial no será válida para ese nuevo escenario. Sin embargo, en su momento, la estimación se ajustó a los supuestos establecidos. Por ello, el profesional encargado de estimar costes debe contemplar posibles contingencias y estar preparado para ajustar sus cálculos a medida que evolucionen los planes o cambien las condiciones del entorno.

En definitiva, la estimación de costes constituye una disciplina de gran importancia en el ámbito de la ingeniería civil y de otras ramas técnicas, pues facilita la toma de decisiones fundamentadas en entornos de incertidumbre. Para su correcta aplicación, se requiere una combinación de análisis histórico, rigor matemático y juicio profesional. Se trata de una herramienta fundamental para el éxito de cualquier proyecto de gran envergadura.

Glosario de términos clave

  • Estimación de costes: Proceso de prever el coste futuro de un producto, proyecto, programa o tarea mediante la recopilación y análisis de datos históricos y la aplicación de modelos cuantitativos, técnicas, herramientas y bases de datos.
  • Datos históricos: Información relevante del pasado utilizada como evidencia para fundamentar la estimación de costes, dada la imposibilidad de disponer de datos futuros.
  • Modelos cuantitativos: Herramientas matemáticas y estadísticas empleadas en la estimación de costes, caracterizadas por ser transparentes, racionales y revisables.
  • Predecir/Pronosticar: La actividad de anticipar o prever eventos o valores futuros, crucial en campos como la ingeniería civil para la planificación.
  • Incertidumbre: La falta de certeza sobre las condiciones futuras en las que se ejecutará un proyecto, un factor inherente a la planificación a largo plazo.
  • Contingencias: Posibles eventos o cambios futuros que podrían afectar la estimación inicial de costes y que deben ser contemplados por el profesional.
  • Rigor matemático: La precisión y exactitud en la aplicación de principios y cálculos matemáticos en la estimación de costes.
  • Juicio profesional: La aplicación de la experiencia, el conocimiento y la intuición del experto en el proceso de estimación, complementando el análisis de datos y modelos.
  • Ingeniería civil: Disciplina de ingeniería que se ocupa del diseño, construcción y mantenimiento de infraestructuras físicas y naturales, como carreteras, puentes y sistemas hidráulicos.
  • Optimizar recursos: Utilizar los recursos disponibles de la manera más eficiente posible para lograr los objetivos del proyecto, facilitado por una estimación precisa de costes.
Referencias:

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Los orígenes la ingeniería de puentes ferroviarios: Resistencia de materiales y mecánica estructural

Puente antiguo en celosía para un ferrocarril de vía única, reconvertido para uso peatonal y soporte de tuberías. https://es.wikipedia.org/wiki/Puente_en_celos%C3%ADa

El desarrollo de la ingeniería de puentes ferroviarios se ha sustentado en el avance de disciplinas fundamentales, como la resistencia de materiales y la mecánica estructural. A lo largo de los siglos XVII y XVIII, diversos científicos establecieron los fundamentos del análisis racional de estructuras. En 1678, Robert Hooke formuló la ley que relaciona la fuerza elástica con la deformación. En 1705, Jacob Bernoulli llevó a cabo un estudio exhaustivo sobre las curvas de deflexión. Leonhard Euler y Charles-Augustin de Coulomb fueron pioneros en la investigación sobre la estabilidad elástica de los elementos sujetos a compresión. Posteriormente, en 1826, Louis Navier sentó las bases de una teoría más exhaustiva de la elasticidad.

Francia ocupó una posición destacada en la promoción de estos avances durante el siglo XVIII, contribuyendo significativamente al desarrollo de ingenieros con una sólida formación científica. Estos profesionales ejercieron una notable influencia en el campo de la ingeniería ferroviaria estadounidense. Dignos de mención son los ingenieros Charles Ellet (1830), Ralph Modjeski (1855), L. F. G. Bouscaren, ingeniero jefe del ferrocarril de Cincinnati Southern (1873), y H. E. Vautelet, ingeniero de puentes del Canadian Pacific Railway hacia 1876, quienes se formaron en las primeras escuelas de ingeniería francesas. Esta formación, basada en un enfoque riguroso de las matemáticas, la mecánica y el análisis estructural, resultó determinante para el desarrollo de la ingeniería de puentes ferroviarios en América del Norte. En este contexto, los profesionales aplicaron los principios adquiridos en Francia, introduciendo un diseño más racional y científico en sus respectivos entornos ferroviarios. Entre 1885 y 1889, el ingeniero alemán F. Engesser, especializado en puentes ferroviarios, realizó importantes avances en el análisis de la estabilidad de los elementos comprimidos. Gracias a su trabajo, este tipo de estudios se generalizó para su aplicación práctica en ingeniería estructural, y los ingenieros disponían de herramientas más precisas para evaluar el riesgo de pandeo en columnas y otros elementos críticos de los puentes metálicos. Estos desarrollos fueron especialmente relevantes en un contexto de creciente demanda de estructuras más resistentes y fiables en la red ferroviaria europea.

Desde su nacimiento en la década de 1820, el ferrocarril se expandió rápidamente durante más de ochenta años. Este crecimiento constante, unido al aumento del peso de las locomotoras, provocó que muchos puentes tuvieran que ser reemplazados cada diez o quince años. La necesidad de estructuras más resistentes, con mayor luz y fiabilidad, unida a los fallos estructurales que se producían en servicio, impulsó a los ingenieros de mediados del siglo XIX a adoptar un enfoque más científico en el diseño de puentes de hierro y acero. A causa del elevado número de accidentes ferroviarios debidos a fallos estructurales en los puentes, la ingeniería de estos elementos experimentó una evolución significativa a lo largo del siglo XIX. Estos incidentes pusieron de manifiesto la necesidad urgente de adoptar un enfoque más riguroso y científico en el diseño y la evaluación de las estructuras, lo que impulsó una serie de investigaciones y avances técnicos fundamentales para garantizar la seguridad en el transporte ferroviario.

En Estados Unidos, esta práctica era principalmente empírica, basada en la experiencia y en la repetición de diseños de armaduras probadas, como las de tipo Town, Long, Howe y Pratt, en los que se mejoraban los materiales, pero sin un conocimiento profundo de las fuerzas internas. Este enfoque resultó insuficiente entre 1850 y 1870, cuando se produjeron numerosos fallos estructurales. La necesidad de aumentar la seguridad y de responder a cargas mayores llevó al desarrollo de métodos analíticos más rigurosos. En este contexto, Squire Whipple publicó en 1847 el primer análisis racional de celosías isostáticas mediante el método de los nudos, lo que supuso un hito en la historia de la ingeniería estructural.

Puente Britannia. https://es.wikipedia.org/wiki/Puente_Britannia

Entretanto, en Europa, ingenieros franceses, alemanes y británicos también avanzaban en la teoría de la elasticidad y en la mecánica estructural. En 1849, P. E. Clapeyron desarrolló la ecuación de los tres momentos, que aplicó en 1857 al análisis del puente Britannia. El diseño de este puente se basó en un análisis de tramos simples, a pesar de que Fairbairn y Stephenson eran conscientes de los efectos de la continuidad sobre la flexión. Los tramos se montaron inicialmente con apoyos simples y, posteriormente, se elevaron secuencialmente en los pilares correspondientes. Una vez en su posición, los tramos se conectaron mediante placas remachadas para lograr la continuidad de los tramos, un enfoque innovador que permitió superar las limitaciones de los métodos tradicionales de construcción de puentes de la época. En el Reino Unido, los ingenieros ferroviarios realizaron ensayos con metales y modelos a escala para evaluar la resistencia y la estabilidad de los puentes.

A partir de los trabajos de Whipple, dos ingenieros europeos destacaron especialmente: D. J. Jourawski y Karl Culmann. Jourawski criticó el uso de refuerzos verticales de placa empleados por Stephenson en el puente Britannia. Consideraba que esta solución no era la más adecuada para garantizar la resistencia y la estabilidad del puente, y destacaba la importancia de emplear métodos más eficientes en el diseño de elementos de compresión en estructuras de gran envergadura. Culmann, ingeniero del Ferrocarril Real Bávaro, fue un defensor temprano del análisis matemático de estructuras. En 1851, estudió en detalle las celosías como la Howe, ampliamente utilizadas en Estados Unidos. Karl Culmann no solo se centró en celosías isostáticas como las de tipo Howe, sino que también analizó estructuras hiperestáticas, como las celosías Long, Town y Burr. Estas configuraciones, más complejas desde el punto de vista estructural por ser estáticamente indeterminadas, fueron estudiadas por Culmann mediante métodos aproximados, lo que supuso un paso importante para comprender y evaluar este tipo de estructuras. Aunque aún no se disponía de herramientas matemáticas plenamente desarrolladas para resolver estos sistemas con precisión, sus aproximaciones permitieron establecer criterios útiles para su diseño y validación en el contexto ferroviario de la época.

Tipos estructurales celosías metálicas (vía @dobooku)

Durante esta misma época, se desarrollaron nuevas formas estructurales, como la celosía Warren (1846), y W. B. Blood ideó en 1850 un método de análisis específico para armaduras trianguladas. La viga Warren, caracterizada por su estructura triangular regular y su eficiencia en la distribución de esfuerzos, se utilizó por primera vez en un puente ferroviario en 1853, en la línea del Great Northern Railway del Reino Unido. Este hecho marcó el inicio de su aplicación práctica en la infraestructura ferroviaria, consolidándose progresivamente como una de las tipologías estructurales más versátiles y extendidas en Europa y en América del Norte.

En el Reino Unido, la investigación sobre los efectos de las cargas móviles y la velocidad también se inició en la década de 1850, y fue precedida por los estudios teóricos de Stokes y Willis sobre vibraciones y resistencia. Fairbairn abordó en 1857 el impacto de estas cargas sobre estructuras isostáticas.

En 1862, el ingeniero alemán J. W. Schwedler presentó una teoría fundamental sobre momentos flectores y esfuerzos cortantes en vigas, y contribuyó al análisis de armaduras mediante el método de secciones. Ese mismo año, A. Ritter perfeccionó dicho método al desarrollar un enfoque basado en el equilibrio en la intersección de dos barras de la armadura. Paralelamente, entre 1864 y 1874, James Clerk Maxwell y Otto Mohr desarrollaron y perfeccionaron los métodos gráficos para el análisis de celosías. Estas técnicas permitieron representar visualmente y con gran precisión los flujos de fuerza en las estructuras, lo que facilitó el diseño y la comprensión del comportamiento estructural.

Además, Maxwell y W. J. M. Rankine realizaron importantes aportaciones teóricas en ámbitos clave como los cables de suspensión en puentes metálicos, las vigas en celosía y los efectos de flexión, cortante, deformación y estabilidad en elementos comprimidos. Sus trabajos sentaron las bases de muchas de las prácticas modernas en ingeniería de estructuras metálicas y contribuyeron decisivamente al avance del diseño de puentes ferroviarios. Culmann también abordó el análisis de vigas continuas y de largueros, y en 1866 publicó una descripción general del método para diseñar puentes en voladizo. En 1866, Karl Culmann publicó una descripción extensa y sistemática del análisis gráfico de celosías, consolidando así una metodología visual que permitió a los ingenieros calcular con mayor claridad y eficacia las fuerzas internas en estructuras complejas. Su obra no solo facilitó el diseño de puentes ferroviarios más seguros y eficientes, sino que también sirvió de referencia durante décadas en la enseñanza y la práctica de la ingeniería estructural.

Posteriormente, Culmann desarrolló teorías sobre cargas móviles y la flexión de vigas que fueron ampliamente aceptadas en Europa y Estados Unidos. En 1867, E. Winkler introdujo las líneas de influencia, una herramienta clave para el análisis de estructuras sometidas a cargas en movimiento.

El estudio de los efectos dinámicos del tráfico ferroviario, como los impactos derivados de las irregularidades de la vía, el «golpe de ariete» de las locomotoras, el cabeceo, el balanceo y la oscilación, continuó impulsando la investigación teórica y experimental. El aumento de la carga ferroviaria también generó preocupación por la fatiga del material, un campo en el que A. Wöhler destacó por sus estudios para los ferrocarriles alemanes.

A finales del siglo XIX, la ingeniería de puentes ferroviarios en Norteamérica dio un nuevo paso hacia la consolidación de una práctica plenamente científica. El ingeniero J. A. L. Waddell desempeñó un papel clave en este proceso, ya que en 1898 y 1916 publicó dos obras de referencia sobre el diseño de puentes de acero. Estos textos sentaron las bases de una metodología rigurosa y estandarizada para el diseño estructural en el ámbito ferroviario.

Hasta entonces, era habitual que las compañías ferroviarias adquiriesen puentes completos a fabricantes que ofrecían soluciones prefabricadas y de diseño propio. Waddell y otros ingenieros promovieron un cambio radical: que los diseños los realizaran de forma independiente ingenieros cualificados, basándose en principios científicos, y que las empresas solo se encargaran de la fabricación. La Erie Railroad fue la primera en aplicar este nuevo modelo, y su ejemplo fue seguido rápidamente por el resto de las compañías ferroviarias estadounidenses. Así, el diseño independiente y técnicamente fundamentado se convirtió en la norma.

Así, a comienzos del siglo XX, la ingeniería de puentes ferroviarios había alcanzado una madurez técnica plena en Estados Unidos y Europa, basada en fundamentos científicos sólidos, metodologías de cálculo avanzadas y una clara profesionalización del diseño estructural.

Os dejo un vídeo de un puente de ferrocarril de celosía tipo Warren.

Benoît-Pierre-Émile Clapeyron: Contribuciones fundamentales a la teoría de estructuras y a la termodinámica

Benoît Paul Émile Clapeyron (1799-1864).

Benoît-Pierre-Émile Clapeyron (París, 26 de enero de 1799-París, 28 de enero de 1864) fue una figura clave en la ingeniería y la física del siglo XIX, cuyas contribuciones fundamentales abarcan desde el análisis estructural hasta los cimientos de la termodinámica moderna.

Nacido el séptimo día del mes Pluvioso del calendario revolucionario francés, Clapeyron cursó estudios en la École Polytechnique, de la que se graduó en 1818. Posteriormente, continuó su formación en la École des Mines, donde coincidió con su amigo y futuro colaborador, Gabriel Lamé. En 1820, ambos se trasladaron a Rusia como parte de un esfuerzo promovido por el zar Alejandro I para modernizar la infraestructura del imperio, formando ingenieros de caminos y puentes. En San Petersburgo, Clapeyron y Lamé se incorporaron como profesores a la École des Travaux Publics, donde enseñaron matemáticas puras y aplicadas y, al mismo tiempo, participaron activamente como ingenieros consultores en proyectos emblemáticos, como la Catedral de San Isaac, la Columna de Alejandro, los puentes colgantes y las esclusas de Schlüsselburg.

Durante su década en Rusia, además de su labor docente y técnica, ambos publicaron investigaciones conjuntas sobre temas matemáticos e ingenieriles en revistas científicas. Sin embargo, tras la Revolución de Julio de 1830, sus convicciones políticas les hicieron sentir incómodos en el clima zarista, por lo que regresaron a Francia. En este contexto, cuando el ferrocarril apenas comenzaba a desarrollarse y aún se consideraba una empresa de dudosa rentabilidad, Clapeyron intuyó su gran potencial y promovió la construcción de una línea férrea entre París y Saint-Germain-en-Laye. Aunque inicialmente no obtuvo financiación, fue nombrado catedrático en la Escuela de Minas de Saint-Étienne. Finalmente, en 1835, se autorizó la construcción de dicha línea y tanto Clapeyron como Lamé fueron designados responsables del proyecto. Poco después, Lamé aceptó una cátedra en la Escuela Politécnica y dejó a Clapeyron a cargo exclusivo de la obra.

En 1836, Clapeyron viajó a Inglaterra para gestionar la fabricación de locomotoras de vapor especializadas. Intentó primero colaborar con George Stephenson, quien rechazó sus diseños por su complejidad. Después se puso en contacto con la empresa Sharp, Roberts and Company, pionera en la fabricación de locomotoras con piezas intercambiables, y con la que logró avanzar en sus planes. De regreso en Francia, amplió su trabajo hacia el diseño de puentes metálicos, integrando sus conocimientos en estructuras relacionadas con el desarrollo ferroviario.

Su trayectoria académica alcanzó un nuevo hito en 1844, cuando fue nombrado profesor de construcción de máquinas de vapor en la École des Ponts et Chaussées. En 1848 fue elegido miembro de la Academia de las Ciencias de París, donde participó activamente en múltiples comités, entre ellos el encargado de evaluar el proyecto del canal de Suez y el que analizaba la incorporación de motores de vapor en la marina.

En el ámbito científico, Clapeyron es reconocido por haber reformulado las ideas de Sadi Carnot en 1834, mediante su célebre artículo La puissance motrice de la chaleur. En este texto, presentó el ciclo de Carnot con una claridad analítica inédita, valiéndose de representaciones gráficas —como el diagrama presión-volumen, hoy conocido como diagrama de Clapeyron— y proporcionando una formulación matemática rigurosa. Esta obra rescató del olvido los conceptos termodinámicos de Carnot, influyendo profundamente en científicos como William Thomson (Lord Kelvin) y Rudolf Clausius, y sentando las bases para el establecimiento de la segunda ley de la termodinámica.

En 1843, Clapeyron amplió el concepto de proceso reversible y formuló con precisión el principio de Carnot. A partir de estas bases, más adelante desarrolló, junto con Clausius, la conocida ecuación diferencial, la relación de Clausius-Clapeyron, que describe las condiciones de equilibrio en las transiciones de fase de la materia. También abordó problemas que hoy se conocen como los de Stefan. Un nomograma para el cálculo de la ecuación de Clapeyron de los gases ideales lo podéis descargar en este enlace.

En paralelo, realizó importantes aportes en mecánica de sólidos. Sus trabajos incluyen el Mémoire sur la stabilité des voûtes (1823), el Mémoire sur la construction des polygones funiculaires (1828) y la Note sur un théorème de mécanique (1833). En 1833 también publicó el Mémoire sur l’équilibre intérieur des corps solides homogènes. Su experiencia en construcción se cristalizó en su Mémoire sur le calcul d’une poutre élastique reposant librement sur des appuis inégalement espacés (1857), donde introdujo el teorema de los tres momentos, una herramienta clave en el cálculo de vigas continuas hiperestáticas. Un año más tarde, en 1858, presentó el Mémoire sur le travail des forces élastiques dans un corps solide élastique déformé par l’action de forces extérieures, en el que formuló su célebre teorema de Clapeyron, principio fundamental de la teoría de la elasticidad.

Clapeyron falleció el 28 de enero de 1864 en París. Su legado en los campos de la ingeniería estructural y de la física teórica constituye uno de los pilares sobre los que se cimentó la ciencia moderna del siglo XIX.

Os dejo un vídeo relacionado con el teorema de Clapeyron.