Tesis doctoral: Métodos de detección de daños para el diseño sostenible del ciclo de vida de puentes en entornos agresivos

De izquierda a derecha: Ignacio Navarro, Rasmus Rampling, Mehrdad Hadizadeh, Salvador Ivorra, Tatiana García y Víctor Yepes

Hoy, 12 de febrero de 2025, ha tenido lugar la defensa de la tesis doctoral de D. Mehrdad Hadizadeh Bazaz, titulada “Inclusion of damage detection methods for the sustainable life cycle design of bridges in aggressive environments”, dirigida por los profesores Víctor Yepes Piqueras e Ignacio J. Navarro Martínez. La tesis recibió la calificación de sobresaliente «cum laude». A continuación, presentamos un pequeño resumen de la misma.

Resumen:

Para prevenir colapsos inesperados que pueden generar pérdidas económicas y humanas significativas, es esencial controlar la salud de cada estructura e infraestructura a lo largo de su ciclo de vida, que abarca desde su construcción y mantenimiento hasta su eventual retiro.

Sin embargo, las actividades de construcción, reparación y mantenimiento también pueden afectar al medio ambiente y a la sociedad. Por ello, el uso de técnicas modernas de detección de daños, que integren la evaluación sostenible del ciclo de vida y el análisis de los costes totales de mantenimiento, resulta fundamental para realizar reparaciones oportunas y minimizar el impacto negativo.

El concepto de sostenibilidad ha evolucionado desde su definición por primera vez por la Comisión Brundtland en 1987. Desde entonces, la comunidad científica ha desarrollado principios, métodos y criterios para el diseño sostenible, pero muchos de estos enfoques no son viables a largo plazo. En respuesta, las Naciones Unidas han establecido los Objetivos de Desarrollo Sostenible (ODS) para 2030.

En este contexto, es crucial adoptar una estrategia de ciclo de vida sostenible para las estructuras de hormigón que optimice costes y minimice el impacto ambiental y social en todas sus etapas, desde la construcción hasta el final de su vida útil. Los avances en tecnología informática y el desarrollo de sensores sofisticados han permitido implantar métodos de prueba no destructiva (NDT) para controlar y mantener de manera eficiente infraestructuras críticas, como puentes, y reducir así el riesgo de pérdidas económicas y humanas.

Esta tesis analiza la aplicación de diversas técnicas no destructivas para identificar daños estructurales y evalúa su impacto en la sostenibilidad. En este trabajo de investigación se evaluó el rendimiento de métodos no destructivos, como la función de respuesta en frecuencia (FRF) y la densidad espectral de potencia (PSD), para la detección y localización de daños estructurales. En particular, se analizó la capacidad de la PSD para predecir distintos tipos de daños en estructuras expuestas a la corrosión por iones de cloruro, como puentes de hormigón ubicados en entornos agresivos.

Posteriormente, se examinó la eficacia de este método de predicción en la evaluación del ciclo de vida sostenible, teniendo en cuenta su impacto ambiental, social y económico. Además, se analizaron los costes asociados a su aplicación en distintas fases de la vida útil de un puente de hormigón tipo cajón en Arosa, al noroeste de España.

Los resultados de esta tesis demuestran que la integración del método PSD en el mantenimiento preventivo durante el ciclo de vida de puentes de hormigón mejora significativamente su sostenibilidad. Los hallazgos confirman que la PSD permite detectar, localizar y predecir daños de manera eficiente, lo que optimiza la gestión a largo plazo de infraestructuras propensas a la corrosión. El análisis integral, que incorpora la evaluación del ciclo de vida y la toma de decisiones multicriterio, demuestra que la aplicación de la PSD reduce el impacto ambiental, minimiza los costes y mejora la sostenibilidad global de los puentes de hormigón. Además, este enfoque proporciona un marco adaptable a diversas infraestructuras y facilita el cumplimiento de objetivos de sostenibilidad a gran escala.

Referencias:

HADIZADEH-BAZAZ, M.; NAVARRO, I.J.; YEPES, V. (2023). Life Cycle Assessment of a Coastal Concrete Bridge Aided by Non-Destructive Damage Detection Methods. Journal of Marine Science and Engineering, 11(9):1656. DOI:10.3390/jmse11091656

HADIZADEH-BAZAZ, M.; NAVARRO, I.J.; YEPES, V. (2023).  Life-cycle cost assessment using the power spectral density function in a coastal concrete bridgeJournal of Marine Science and Engineering, 11(2):433. DOI:10.3390/jmse11020433

HADIZADEH-BAZAZ, M.; NAVARRO, I.J.; YEPES, V. (2023). Power Spectral Density method performance in detecting damages by chloride attack on coastal RC bridge. Structural Engineering and Mechanics, 85(2):197-206. DOI:10.12989/sem.2023.85.2.197

HADIZADEH-BAZAZ, M.; NAVARRO, I.J.; YEPES, V. (2022). Performance comparison of structural damage detection methods based on Frequency Response Function and Power Spectral Density. DYNA, 97(5):493-500. DOI:10.6036/10504

Algunas cimentaciones en torres y rascacielos icónicos asiáticos

Taipéi 101. Taipéi, Taiwán (2004).

De Alton.arts de Wikipedia en inglés, CC BY 2.5, https://commons.wikimedia.org/w/index.php?curid=3525962

El Taipei 101 es un rascacielos en Taipéi (Taiwán) con 106 plantas, 101 sobre el suelo y 5 subterráneas. Fue el edificio más alto del mundo entre 2003 y 2010, con una altura de 508 m, cuando fue superado por el Burj Khalifa. Es también uno de los rascacielos ecológicos más altos del mundo.

Diseñado por C.Y. Lee & Partners, la construcción principal estuvo a cargo de KTRT Joint Venture y Kumagai Gumi, mientras que Samsung C&T se encargó del interiorismo. Comenzado en 1999 y terminado en 2004, su coste fue de unos 1.760 millones de dólares. Su diseño, inspirado en elementos chinos y basado en feng shui, busca proteger a los inquilinos de influencias negativas. El edificio cuenta con muros de vidrio azul verdoso que bloquean el calor externo en un 50%, y su iluminación cambia para celebrar eventos.

Puede soportar terremotos de hasta 7 grados en la escala de Richter y vientos superiores a 450 km/h. Su capacidad de absorción de movimiento se debe a un amortiguador de masa, una bola dorada de acero de 680 toneladas en la planta 92, suspendida con tensores y sujeta con bombas hidráulicas. Este amortiguador, el más grande y pesado del mundo, contrarresta el movimiento del edificio, estabilizándolo al absorber la energía de las vibraciones. Está dividido en 8 segmentos de 8 plantas y es el único visible para el público. Además, 8 grandes columnas de hormigón armado y acero lo sujetan hasta el piso 26, mientras otras 32 columnas llegan hasta la planta 62. Las esquinas chaflanadas reducen la fuerza del viento, y una malla de acero forma un cinturón que estrecha la base hasta el piso 34.

Las megacolumnas descansan sobre una placa sólida cuyo espesor varía entre 3,0 y 4,7 m, con un volumen total de 28.100 m³ de hormigón de 41 MPa. Dada la alta sismicidad de la zona y la considerable altura del edificio, se desarrolló una cimentación compuesta por 380 pilotes clavados a 80 m en el suelo, que se extienden hasta 30 m en el lecho de roca. Cada pilote tiene 1,5 m de diámetro y puede soportar una carga de 1000 a 1320 toneladas. La estructura ya ha soportado un seísmo de 6,8 en la escala de Richter.

Torres Petronas. Kuala Lumpur, Malasia (1998).

De Morio – Trabajo propio, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=9974688

Las Torres Petronas, en Kuala Lumpur, Malasia, fueron los edificios más altos del mundo entre 1998 y 2003, hasta ser superados por el Taipei 101. Actualmente, son las torres gemelas más altas. Con 452 metros de altura y 88 pisos de hormigón, acero y vidrio, son un símbolo de Kuala Lumpur y Malasia.

Diseñadas por el arquitecto argentino César Pelli y finalizadas en 1998, las Torres Petronas tienen 88 pisos de hormigón, acero, aluminio y vidrio. Su diseño, inspirado en el arte islámico, rinde homenaje a la herencia musulmana de Malasia. La base, originalmente en forma de Estrella de Salomón, presenta un diseño geométrico islámico con dos cuadrados entrelazados y salientes lóbulos de refuerzo, creando una estrella de ocho puntas con círculos en cada intersección. La construcción comenzó en 1992.

Las Torres Petronas son dos rascacielos gemelos de 452 m de altura y 88 plantas. La estructura está compuesta por un núcleo y pilares de hormigón. Se descartó la estructura metálica debido a la falta de disposición de los constructores malayos para trabajar con acero y la necesidad de minimizar las vibraciones en las partes superiores de las torres.

Antes de comenzar la construcción, fue necesario cambiar el emplazamiento de los edificios 60 m para encontrar un suelo adecuado sobre el que pudieran asentarse los pilotes de 120 m de profundidad, que llegaban hasta la roca firme, permitiendo así crear una losa de hormigón que imitara una base sólida. Durante la cimentación, las lluvias constantes provocaron dificultades, por lo que fue necesario cubrir la zona con una gran carpa, similar a una «sombrilla», que equivalía a 57 carpas de circo.

Burj Khalifa, Dubái, Emiratos Árabes Unidos (2010).

De Alex Azabache –  https://commons.wikimedia.org/w/index.php?curid=95952113

El Burj Khalifa es un rascacielos neofuturista en Dubái, Emiratos Árabes Unidos. Con 829,8 m de altura total y 828 m hasta el tejado, es la estructura más alta del mundo desde 2009, superando al Taipei 101.

El diseño se inspira en la arquitectura islámica, como la Gran Mezquita de Samarra. Su planta en Y optimiza el espacio residencial y hotelero. Un núcleo central y alas soportan la altura, albergando los transportes verticales, excepto las escaleras de evacuación. El revestimiento resiste el calor de Dubái. Tiene 57 ascensores y 8 escaleras mecánicas.

Skidmore, Owings & Merrill diseñó la torre, con Adrian Smith como arquitecto y Bill Baker como ingeniero. Hyder Consulting supervisó la ingeniería, NORR Group la arquitectura, y Samsung C&T fue el contratista principal junto a BESIX y Arabtec.

La construcción comenzó el 12 de enero de 2004 y el exterior se completó el 1 de octubre de 2009. Se inauguró el 4 de enero de 2010 como parte del desarrollo de 2 km² en el centro de Dubái, cerca del distrito comercial. Los primeros 586 m están construidos con hormigón armado y la parte superior es de acero. Se inauguró en 2010 como parte del desarrollo Downtown Dubai, diseñado como pieza central de un proyecto de uso mixto.

La cimentación de este edificio es la mayor jamás construida. Se basa en estudios geotécnicos y sísmicos: una losa de hormigón armado de 110.000 toneladas, de 3,7 m de grosor y 12.500 m³, soporta la estructura. A su vez, esta losa descansa sobre 192 pilotes de 1,5 m de diámetro, colocados a una profundidad de 50 m. Estos pilotes están distribuidos en forma de Y, y se conectan a la losa de cimentación.

Cursos:

Curso de Procedimientos de Construcción de cimentaciones y estructuras de contención en obra civil y edificación.

Curso de procedimientos de contención y control del agua subterránea en obras de Ingeniería Civil y Edificación.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Innovación en la enseñanza de la ingeniería: uso de la nomografía y software abierto para la representación gráfica de ecuaciones

Acaban de publicar nuestro artículo en la revista Plos One, del primer cuartil del JCR. El artículo presenta una propuesta innovadora para la enseñanza de la ingeniería mediante la aplicación de la nomografía, una técnica matemática que se utiliza para representar gráficamente ecuaciones complejas. Su principal contribución es la introducción del software Nomogen, una herramienta basada en Python que permite generar nomogramas de tres variables de manera rápida y precisa, sin necesidad de manipular determinantes ni realizar dibujos manuales.

El estudio también demuestra la viabilidad de la nomografía como recurso didáctico en la enseñanza de la ingeniería, ya que facilita la interpretación de ecuaciones multivariables y reduce los errores en cálculos repetitivos. A través de una metodología experimental aplicada a estudiantes de ingeniería de diferentes niveles, los autores confirman que existe un renovado interés en el uso de nomogramas en entornos educativos, puesto que destacan su utilidad como complemento a los métodos digitales convencionales.

Los resultados del estudio revelan que, aunque el 78,4 % de los estudiantes encuestados nunca habían utilizado nomogramas, el 86,5 % reconoció su capacidad para interpretar fenómenos con múltiples variables de manera clara. Esta percepción constituye un argumento sólido a favor de la integración de la nomografía en los programas de ingeniería.

El uso del software Nomogen permitió superar las limitaciones tradicionales de la nomografía, ya que elimina la complejidad matemática inherente a su construcción manual. La posibilidad de generar gráficos precisos y adaptables a diferentes contextos hace que la herramienta sea accesible para estudiantes y docentes.

El análisis de las respuestas de la encuesta también reveló diferencias en la valoración de los nomogramas según el nivel formativo de los estudiantes. Los estudiantes en etapas avanzadas de sus estudios mostraron una mayor valoración de su utilidad en cuanto a la comprensión de fenómenos con múltiples variables.

El estudio abre diversas oportunidades de desarrollo futuro en los campos de la ingeniería y la educación. Algunas áreas que podrían explorarse son:

  1. Ampliación del uso de nomogramas en otras disciplinas: Evaluar su aplicabilidad en áreas como la mecánica de suelos, hidráulica y estructuras, donde la representación gráfica de ecuaciones puede simplificar análisis complejos.
  2. Integración de inteligencia artificial: Incorporar algoritmos de aprendizaje automático para optimizar la generación de nomogramas y mejorar su precisión en función de patrones detectados en bases de datos de ingeniería.
  3. Desarrollo de herramientas interactivas: Explorar la posibilidad de crear versiones digitales interactivas de los nomogramas, que permitan una manipulación dinámica de las variables en tiempo real.
  4. Evaluación longitudinal de su impacto educativo: Realizar estudios a largo plazo para analizar la retención del conocimiento y la eficacia del aprendizaje cuando se incorporan nomogramas en la enseñanza de la ingeniería.
  5. Comparación con otros métodos gráficos: Investigar la efectividad de la nomografía frente a otras técnicas de visualización de datos, como los diagramas de contorno o los gráficos tridimensionales en programas informáticos especializados.

Este artículo representa un avance significativo en la enseñanza de la ingeniería, rescatando una herramienta histórica y adaptándola a las nuevas tecnologías con el objetivo de mejorar la comprensión y aplicación de conceptos matemáticos complejos.

Referencia:

BLIGHT, T.; MARTÍNEZ-PAGÁN, P.; ROSCHIER, L.; BOULET, D.; YEPES-BELLVER, L.; YEPES, V. (2025). Innovative approach of nomography application into an engineering educational context. Plos One, 20(2): e0315426. DOI:10.1371/journal.pone.0315426

Como se ha publicado de forma abierta, os dejo el artículo completo a continuación. Espero que sea de interés para vosotros.

Pincha aquí para descargar

Algunas cimentaciones en torres y rascacielos icónicos norteamericanos

Empire State Building, Nueva York, Estados Unidos (1930).

De Sam Valadi -https://commons.wikimedia.org/w/index.php?curid=62752443

Este icónico rascacielos neoyorquino ostentó el título de edificio más alto del mundo desde 1931 hasta 1971. Tras el colapso del World Trade Center en 2001, volvió a ser el más alto de la ciudad hasta que fue superado por el One World Trade Center en 2012. Con sus 443 m de altura, es uno de los rascacielos más emblemáticos y el tercero más alto de la ciudad de Nueva York.

Fue diseñado por William F. Lamb, de la firma Shreve, Lamb y Harmon, quienes crearon los planos en dos semanas basándose en diseños previos como el edificio Reynolds y la torre Carew. En tan solo un año y 45 días, más de 3400 trabajadores levantaron el que sería el edificio más alto del mundo durante 40 años. Era el primer edificio con más de 100 pisos. Tiene 6500 ventanas, 73 ascensores y 1860 escalones hasta el piso 102. Su estructura, que pesa aproximadamente 350 000 toneladas, está cimentada a una profundidad de solo 16,7 m, ya que a esa profundidad se encuentra el estrato portante de Manhattan.

La construcción comenzó con la demolición del Hotel Waldorf-Astoria en octubre de 1929, en plena Depresión. Los trabajos de excavación comenzaron el 22 de enero de 1930, antes incluso de la demolición total del hotel. La excavación, en la que operarios trabajaban en turnos de doce horas las 24 horas del día, se completó casi en su totalidad en marzo. En marzo se completó la cimentación y se empezaron a colocar los anclajes de la estructura, colocándose las primeras vigas a principios de abril de 1930.

Se instalaron 210 pilotes en el lecho de roca de granito de Manhattan para soportar las 365.000 toneladas del rascacielos. La cimentación está compuesta por un bastidor de acero con paneles de piedra caliza y el interior está reforzado con hormigón armado. La empresa Starrett Bros. & Eken se encargó de su construcción.

Torre Latinoamericana. Ciudad de México, México (1956).

De Pablasso –  https://commons.wikimedia.org/w/index.php?curid=20418028

La Torre Latinoamericana es un rascacielos ubicado en el centro histórico de la Ciudad de México, en la esquina de la avenida Francisco I. Madero y el Eje Central Lázaro Cárdenas. Con 44 pisos y 182 m de altura (incluida la antena), es uno de los edificios más emblemáticos de la ciudad.

Diseñada por el arquitecto Augusto H. Álvarez, fue el edificio más alto de la ciudad desde su inauguración hasta 1972. Fue el primer rascacielos diseñado para resistir terremotos y, aunque Brasil construyó el primer rascacielos de Latinoamérica, esta torre fue pionera en una zona de alto riesgo sísmico, por lo que sirvió como experimento para futuros edificios.

La construcción de la torre comenzó en febrero de 1948. Leonardo Zeevaert llevó a cabo un programa de investigación del subsuelo para evaluar la vulnerabilidad sísmica y garantizar un buen aislamiento sísmico. El programa incluyó sondeos a 50 m, la instalación de piezómetros a varias profundidades y bancos de nivel.

Tras el estudio, Zeevaert diseñó una cimentación innovadora para hacer frente al terreno fangoso de la ciudad. Se colocaron 361 pilotes a 33 m de profundidad y se construyó una cimentación de hormigón que permite al edificio «flotar» en el subsuelo, independientemente de los pilotes. Esta tecnología mexicana fue la primera de su tipo y sigue utilizándose en zonas sísmicas de alto riesgo.

Esta torre se asienta sobre un terreno con arcillas húmedas en su capa más superficial. A una profundidad de 33 m se localiza un estrato de arena sobre el que se apoyan los 361 pilotes de hormigón que conforman su cimentación. Su estructura fue diseñada como una cimentación flotante, lo que le ha permitido resistir las severas pruebas de la naturaleza, en particular los terremotos de 1957 y 1985, con magnitudes de 7,7 y 8,1 en la escala de Richter, respectivamente.

Torre CN. Toronto, Canadá (1976).

De Wladyslaw, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=11830474

La CN Tower, ubicada en Toronto, es una torre de radiodifusión autoportante de 553,3 m, la más alta de América. Fue la torre más alta del mundo desde 1975 hasta 2007, cuando fue superada por el Burj Khalifa. Su observatorio, ubicado a 447 m de altura, es uno de los más altos del mundo.

La construcción de la torre comenzó el 6 de febrero de 1973 y finalizó el 20 de septiembre de 1976, siendo realizada por la compañía Canadian National Railway, que buscaba solucionar los problemas de comunicación causados por los rascacielos que iban surgiendo en el centro de la ciudad.

La torre está formada por un pilar hueco principal de forma hexagonal. Está compuesta por tres brazos dispuestos a 120 grados de diferencia entre sí. Los primeros 457 m de la torre se construyeron con hormigón postensado y con encofrados deslizantes. Para ello, se emplearon más de 7500 m³ de hormigón. Se utilizaron 45 gatos hidráulicos sujetos a cables que colgaban de una corona de acero anclada temporalmente en la parte superior de la torre. Doce soportes gigantes de acero y madera fueron elevados lentamente hasta su posición final. Posteriormente, estos soportes se utilizarían para crear las bases sobre las que se apoyaría la planta principal.

En cuanto a la cimentación, fue necesario retirar 62.000 toneladas de tierra y pizarra en una superficie triangular. Se excavó un pozo a 15 m de profundidad y, posteriormente, se vertieron 7.000 m³ de hormigón, se instalaron 46 toneladas de acero de refuerzo y 36 toneladas de cables de acero, con los que se formó una losa de 6,7 m de espesor que sostiene toda la estructura. Para evitar problemas relacionados con la generación de calor, se utilizaron mezclas de cemento de los tipos IV y I.

Torre Mayor. México D.F., México (2003).

De Diego Delso, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=30801312

La Torre Mayor, ubicada en Paseo de la Reforma 505, en la Ciudad de México, fue desarrollada por Paul Reichmann. Con 225 m de altura y 55 pisos, cuenta con cuatro niveles de estacionamiento subterráneo y nueve sobre la calle, con más de dos mil plazas disponibles. Cuenta con 29 ascensores, 84.135 m² de oficinas, sistemas mecánicos y de telecomunicaciones, y unidades de aire acondicionado en cada planta. Cada planta tiene entre 1,700 y 1,825 m² sin columnas, con una altura de 4,50 m por piso. Para su construcción, se realizó un estudio sísmico y se instalaron 98 amortiguadores sísmicos.

Fue el edificio más alto de América Latina desde su inauguración en 2003 hasta 2010, cuando fue superado por el Ocean Two en Panamá, y más tarde por la Torre Obispado en Monterrey.

La Torre Mayor, con 55 pisos, 4 sótanos subterráneos y 230 m de altura, se encuentra en una zona cercana a las áreas de mayor sismicidad, según las determinaciones del Gobierno Federal. De marzo de 1998 a enero de 1999 se realizó la cimentación de la Torre. Su cimentación combina losas y 252 pilotes de hormigón armado de hasta 1,50 m de diámetro y una profundidad de 40 m.

La torre está equipada con un sistema de 98 amortiguadores sísmicos que ayudan a disipar la energía sísmica y a reducir las fuerzas que podrían afectarla. La estructura fue diseñada para resistir un terremoto de 8,5 en la escala de Richter.

Cursos:

Curso de Procedimientos de Construcción de cimentaciones y estructuras de contención en obra civil y edificación.

Curso de procedimientos de contención y control del agua subterránea en obras de Ingeniería Civil y Edificación.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Algunas cimentaciones en torres y rascacielos icónicos europeos

Torre de Smeaton. Devon, Inglaterra (1759).

Faro de Eddystone, de John Smeaton

La Torre Smeaton es un faro y monumento al ingeniero civil John Smeaton. Su estructura, un avance en el diseño de faros, estuvo en uso desde 1759 hasta 1877, cuando la erosión de la cornisa obligó a reemplazarla. La torre fue desmantelada y reconstruida en Plymouth Hoe (Devon), donde se encuentra actualmente.

Las rocas Eddystone forman parte de un arrecife de granito rojo que queda sumergido durante la marea alta, lo que supone un peligro para la navegación. Por esta razón, se construyó un faro a 14 km al sur de Plymouth Sound (Inglaterra).

Antes de esta torre, Smeaton había construido dos faros de madera que no resistieron el paso del tiempo. Tras analizar lo que falló en los anteriores, optó por la piedra, ya que es muy resistente frente al viento, el agua y el fuego. Para fijar la estructura a la base rocosa, talló seis plataformas en la roca y las rellenó con sillares de granito con forma de cola de milano, lo que aseguró su estabilidad.

Utilizó un mortero a base de cal calcinada para lograr una construcción monolítica, reforzada con pernos de roble y tacos de mármol. La torre está compuesta por 1493 bloques de piedra, mientras que su interior está construido con piedra caliza extraída de la isla de Portland. Redescubrió el uso de la cal hidráulica, un tipo de hormigón utilizado en la época romana que permitía fraguar el material bajo el agua.

En 1877 se comprobó que las rocas sobre las que se erguía se estaban erosionando. Cada vez que una gran ola lo golpeaba, el faro temblaba de lado a lado. La Torre de Smeaton dejó de funcionar en febrero de 1882, cuando se instaló una luz temporal en su sucesora, la Torre de Douglass, que se estaba construyendo en una roca cercana. Ese mismo año, la parte superior de la torre fue desmantelada y reconstruida como monumento en Plymouth Hoe, donde reemplazó a un obelisco triangular construido por Trinity House a principios del siglo XIX. El monumento fue inaugurado al público el 24 de septiembre de 1884 por el alcalde de Plymouth. Los cimientos y una sección de la antigua torre permanecen en las rocas de Eddystone, cerca del faro actual. Como los cimientos eran demasiado fuertes para desmantelar, se dejaron en su lugar.

Turning Torso. Malmö, Suecia (2005).

De Mirko Junge –  https://commons.wikimedia.org/w/index.php?curid=20283310

Turning Torso es un rascacielos residencial neofuturista en Malmö, Suecia, y el segundo más alto del país, superado en 2022 por la Karlatornet. Fue construido por HSB Suecia y es considerado el primer rascacielos retorcido del mundo.

Diseñado por Santiago Calatrava, se inauguró el 27 de agosto de 2005. Con 190 metros de altura y 54 plantas, alberga 147 apartamentos residenciales. Este edificio, inspirado en el torso humano, tiene 190 m de altura y cuenta con 54 plantas destinadas a uso mixto, incluyendo residencias y oficinas. La cimentación se realizó directamente sobre un estrato de roca caliza.

La excavación de la cimentación principal de la torre se realizó con tablestacas metálicas que marcaban el perímetro, introducidas 15 m en el terreno y 3 m en el lecho rocoso mediante vibradores. Se inyectó hormigón fuera de las tablestacas para reforzar la estructura y evitar filtraciones de agua. Tras la excavación, se hormigonó una losa de cimentación de 30 m de diámetro y 7 m de espesor, y se construyeron dos plantas de sótano con salas técnicas y acceso al aparcamiento. Se utilizaron 5100 m³ de hormigón, que se vertieron en 3 días y noches. La cimentación se completó en junio de 2002.

La cimentación del cordón principal de la celosía exterior soporta cargas de compresión y tracción en función del viento. Para garantizar su durabilidad, se minimizan los efectos de las cargas alternantes mediante pilotes cuadrados prefabricados que llegan al estrato rocoso y anclajes postesados que también lo alcanzan, garantizando que su longitud de anclaje sea inferior a la de los pilotes. La fuerza de pretensado de los anclajes supera la tracción máxima, por lo que los pilotes se mantienen en compresión. Las cargas alternantes solo modifican la compresión de los pilotes y la tracción de los anclajes sin invertir las fuerzas, con una variación de tracción en los anclajes del 2-3 %, lo que elimina el riesgo de fatiga. En resumen, la cimentación actúa como un conjunto postesado de hormigón, con alta rigidez, resistencia y durabilidad.

Torre Agbar. Barcelona, España (2005).

De Diliff – Trabajo propio, CC BY 2.5, https://commons.wikimedia.org/w/index.php?curid=1556533

La Torre Glòries, antes Torre Agbar, es un rascacielos de Barcelona situado en la avenida Diagonal, junto a la plaza de las Glorias. Con 34 plantas y 144 metros de altura, fue el tercer edificio más alto de la ciudad en su apertura en 2005. El edificio tiene 50.693 m², de los cuales 30.000 m² son oficinas. Inaugurado oficialmente el 16 de septiembre de 2005, costó 130 millones de euros.

La torre fue diseñada por Jean Nouvel en colaboración con b720 Fermín Vázquez Arquitectos. Su diseño se inspiró en símbolos de la cultura catalana, como los campanarios de la Sagrada Familia de Gaudí y el hotel Attraction, proyecto de Gaudí rediseñado en 1956 por Joan Matamala. Además, la parte norte de la torre se orientó para ofrecer la mejor vista posible de la Sagrada Familia. También se inspiró en los pináculos de la montaña de Montserrat, símbolo de Cataluña.

El peso de esta estructura, que mide 145 m de altura, tiene 34 pisos y 4 sótanos, es considerablemente menor que la presión ascendente que ejerce sobre ella. Por este motivo, se diseñó una losa de subpresión anclada al terreno mediante módulos de pantallas que funcionan por fricción negativa para equilibrar dicha subpresión. La losa tiene un espesor de 80 cm.

Esta losa descansa sobre un lecho de grava drenante de 40 cm de espesor que facilita el drenaje hacia cuatro pozos. Estos pozos están diseñados para evitar que, en caso de un aumento del nivel freático, la subpresión supere los límites admisibles para la cimentación. La losa está diseñada para soportar una presión ascendente de hasta 8 t/m².

Debido a que el peso muerto de la construcción es menor que la presión ascendente, se ha diseñado una losa de subpresión anclada al terreno con módulos de pantalla debajo de cada pilar, que equilibra la subpresión mediante fricción negativa. Esta solución permite una losa de 80 cm de espesor, lo que alivia el comportamiento de las estructuras de contención, ya que las pantallas son más cortas y alcanzan mayor estabilidad. La losa descansa sobre gravas drenantes de 40 cm de espesor que facilitan el drenaje del agua hacia cuatro pozos surgentes que evitan el aumento de la subpresión ante las subidas del nivel freático.

Cursos:

Curso de Procedimientos de Construcción de cimentaciones y estructuras de contención en obra civil y edificación.

Curso de procedimientos de contención y control del agua subterránea en obras de Ingeniería Civil y Edificación.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Cimentaciones en tres puentes icónicos

Puente Pumarejo. Barranquilla (Colombia), 1974.

El puente Pumarejo, inaugurado en 1974 y fuera de servicio en 2019, cruza el río Magdalena, a 20 km de su desembocadura en el mar Caribe, entre Barranquilla y Sitionuevo, Magdalena. Conecta Barranquilla con la isla de Salamanca y la ruta hacia Ciénaga. Aunque oficialmente recibió el nombre de «Laureano Gómez», siempre fue conocido como el puente de Alberto Pumarejo, su principal impulsor.

De Jdvillalobos – File:Puente Pumarejo 001.JPG, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=27668196

Inicialmente, se pensó en ubicar el puente frente a la Zona Franca de Barranquilla, con una altura de 40 m, pero este diseño aumentaba el coste en 40 millones de pesos. Por ello, la administración de Lleras Restrepo (1966-1970) optó por un puente con un gálibo de 15 m. El proyecto fue obra del ingeniero Riccardo Morandi. La construcción empleó técnicas avanzadas de la época, como losas prefabricadas, pilotes de hasta 30 m de profundidad y grandes vigas pretensadas de hasta 120 t.

Este puente fue el más largo de Colombia hasta la inauguración del puente Roncador en 2020. Mide 1489 m de largo, divididos en tres secciones: 319 m en el acceso a Barranquilla, 282 m en el tramo atirantado y 887 m hacia Palermo. Con las vías de acceso, la longitud total fue de 3383 m. Los pilotes de hormigón armado tienen una profundidad de 30 m y un diámetro promedio de 1,80 m. El puente se apoya en 56 columnas y 29 tramos de vigas prefabricadas, con luces de hasta 140 m. Las pilas varían entre 2,5 y 5 m de diámetro y el ancho de la calzada es de 12,5 m, con una altura máxima de 16 m sobre el canal de navegación.

El ingeniero civil italiano Riccardo Morandi diseñó varias estructuras icónicas, como los puentes Américo Vespucio en Florencia (1957), General Rafael Urdaneta en Maracaibo (1962) y Wadi el Kif en Libia (1971). Lamentablemente, el 14 de agosto se derrumbó el puente Morandi en Génova, también diseñado por él, y dejó 39 muertos y al menos 11 edificios evacuados.

Puente de Akashi Kaikyo (Japón), 1998.

El Gran Puente del Estrecho de Akashi Kaikyō conecta Kōbe con la isla de Awaji y cruza uno de los estrechos más transitados del mundo, con más de 1000 embarcaciones al día. También conocido como Pearl Bridge, tiene una longitud total de 3911 m y está compuesto por tres vanos, siendo el central de 1991 m. Inaugurado el 5 de abril de 1998, se convirtió en el puente más largo del mundo de su tipo, superando al puente Humber del Reino Unido, con un tramo central de 1410 m. Fue diseñado por el ingeniero Satoshi Kashima y construido por Matsuo Bridge Co. El puente está sostenido por dos cables, considerados los más resistentes y pesados del mundo.

De Tysto – Self-published work by Tysto, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=477955

Durante la instalación de las torres y cables principales, ocurrió el Gran Terremoto de Hanshin (1995), que separó las torres casi un metro. Los cables del puente están hechos de 37,000 alambres de acero ultrarresistente, cuya longitud total daría siete vueltas y media a la Tierra si se colocaran en línea recta.

Se encuentra en una zona donde los tifones pueden alcanzar velocidades de hasta 290 km/h. Además, está ubicado en una región con gran actividad sísmica y, bajo su estructura, transitan diariamente cientos de embarcaciones.

Para la cimentación de las torres, se emplearon dos cajones circulares prefabricados de acero de 70 m de altura. El mayor tiene un diámetro de 80 m y el otro 78 m. Se utilizó el método de cajón descendente debido a la gran profundidad y las corrientes marinas. Se rellenaron con hormigón especial para endurecer con agua de mar. Cada anclaje requiere aproximadamente 350.000 toneladas de hormigón.

Los cimientos profundos de los anclajes se construyeron sobre tierras recuperadas mediante nuevas tecnologías. Estaban diseñados para resistir fuertes terremotos y se utilizó un método sísmico innovador y un hormigón especial, una mezcla de cementos resistentes al agua y la erosión. La capacidad de estos cimientos permitió que resistieran el fuerte terremoto del 17 de enero de 1995, con solo un desplazamiento de 1 m en las torres, lo cual es mínimo si se considera la magnitud del movimiento.

Viaducto de Millau (Francia), 2004.

El viaducto de Millau es un puente que cruza el valle del Tarn, en Aveyron (Francia), y soporta un tramo de la autopista A75, que conecta las causses Rouge y du Larzac. El viaducto es una estructura metálica atirantada de 2460 m de longitud, ligeramente curva, con un radio de 2000 m y una pendiente del 3,025 %. Está compuesto por ocho vanos atirantados: dos laterales de 204 m y seis centrales de 342 m, por lo que el viento puede superar los 200 km/h.

De Stefan Krause, Germany – Fotografía propia, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=8990774

Esta importante conexión nacional e internacional conecta Clermont-Ferrand con Béziers. Su construcción requirió trece años de estudios técnicos y financieros, iniciados en 1987, y se inauguró el 16 de diciembre de 2004, tres años después de colocar la primera piedra. Con un coste de 320 millones de euros, fue financiado por Eiffage mediante una concesión de 78 años, incluidos tres de construcción. A finales de la década de 2010, el viaducto registraba más de 4,5 millones de vehículos al año.

El viaducto de Millau fue diseñado por el ingeniero francés Michel Virlogeux, con la asesoría estética del arquitecto británico Norman Foster. Al proyectarse respetando la orografía, el viaducto necesitó siete grandes pilas huecas de hormigón de entre 50 y 60 cm de espesor. Sus alturas varían entre 78 y 245 m y están separadas entre sí por una distancia de 342 m. El hormigón B60, innovador en ese momento y con criterios de calidad excepcionales, fue el material principal utilizado para construir este viaducto.

Esta estructura cuenta con algunas de las pilas más altas del mundo. Bajo cada una de ellas hay pozos de cimentación con diámetros de entre 4 y 5 m y profundidades de entre 9 y 18 m, cubiertos por una losa de reparto de entre 3 y 5 m de espesor. El hormigonado de los encepados (hasta 2100 m³) se realizó en una sola fase con bomba.

Cursos:

Curso de Procedimientos de Construcción de cimentaciones y estructuras de contención en obra civil y edificación.

Curso de procedimientos de contención y control del agua subterránea en obras de Ingeniería Civil y Edificación.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Introducción a los Modelos de Ecuaciones Estructurales (SEM)

Simbología y nomenclatura de los modelos PLS (Aldas, 2018)

Los modelos de ecuaciones estructurales (SEM, por sus siglas en inglés) son una técnica estadística multivariante utilizada para analizar y estimar relaciones causales, combinando datos estadísticos con suposiciones cualitativas sobre la causalidad. Esta metodología es especialmente valiosa en las ciencias sociales, la psicología, el marketing y otras disciplinas en las que las relaciones entre variables no son lineales y pueden involucrar tanto variables observables como latentes. Gracias a los SEM, los investigadores no solo pueden comprobar teorías existentes, sino también desarrollar nuevas hipótesis y modelos que reflejen la realidad de los fenómenos estudiados.

Los modelos de ecuaciones estructurales (MES) combinan el análisis factorial y la regresión lineal para evaluar la correspondencia entre los datos observados y el modelo hipotetizado, que se representa mediante un diagrama de senderos. Los MES proporcionan los valores asociados a cada relación del modelo y un estadístico que mide el ajuste de los datos y valida el modelo.

Una de sus principales fortalezas es la capacidad de construir variables latentes, es decir, variables no observables directamente, sino estimadas a partir de otras que covarían entre sí. Esto permite tener en cuenta explícitamente la fiabilidad del modelo. Además, el análisis factorial, el análisis de caminos y la regresión lineal son casos particulares dentro del enfoque de los MES.

Fundamentos teóricos

Variables latentes y observables:

  • Variables latentes: son constructos teóricos que no pueden medirse directamente. Por ejemplo, la «satisfacción del cliente» o «lealtad a la marca» son variables latentes que se infieren a partir de las respuestas a encuestas o del comportamiento observable.
  • Variables observables: son los indicadores que se utilizan para medir las variables latentes. Por ejemplo, en el caso de la satisfacción del cliente, las respuestas a preguntas específicas en una encuesta (como «¿Qué tan satisfecho está con nuestro servicio?»), son variables observables.

Modelo estructural vs. modelo de medida:

  • Modelo estructural: describe las relaciones causales entre las variables latentes. Este modelo permite a los investigadores establecer hipótesis sobre cómo una variable puede influir en otra.
  • Modelo de medida: establece cómo se relacionan las variables observables con las variables latentes. Es fundamental validar este modelo para garantizar que los indicadores reflejan realmente el constructo que se pretende medir.
Ejemplo de un modelo de medida y un modelo estructural

Tipos de modelos

Existen dos enfoques principales en SEM:

Análisis de estructuras de covarianza (CB-SEM):

  • Este enfoque se basa en la matriz de varianza-covarianza y es adecuado para contrastar teorías y probar hipótesis. CB-SEM es una técnica paramétrica que requiere que se cumplan ciertos supuestos estadísticos, como la normalidad multivariada y la independencia de las observaciones.
  • Aplicaciones: Ideal para estudios confirmatorios donde se busca validar teorías existentes. Se utiliza comúnmente en investigaciones que requieren un alto nivel de rigor estadístico.

Mínimos cuadrados parciales (PLS-SEM):

  • Este enfoque es más flexible y no requiere los mismos supuestos rigurosos que CB-SEM. PLS-SEM se centra en maximizar la varianza explicada de las variables latentes dependientes a partir de las variables latentes independientes.
  • Ventajas: Funciona bien con muestras pequeñas y permite la inclusión de constructos formativos, lo que amplía su aplicabilidad en contextos donde los constructos son complejos y multidimensionales.
  • Aplicaciones: Es especialmente útil en estudios exploratorios y en situaciones donde se busca hacer predicciones, como en el análisis de comportamiento del consumidor.

Metodología de PLS-SEM

La metodología de PLS-SEM se puede resumir en varias etapas clave:

  1. Inicialización: Se obtiene una primera aproximación a los valores de las variables latentes a partir de sus indicadores. Este paso es crucial para establecer un punto de partida en el proceso de estimación.
  2. Estimación de coeficientes de regresión: Se estiman los pesos o coeficientes de regresión de las variables latentes. Este proceso implica calcular las relaciones entre las variables latentes y sus indicadores, así como entre las variables latentes mismas.
  3. Optimización: Se busca maximizar el coeficiente de determinación (R²) de los factores latentes mediante un proceso iterativo. Este proceso de optimización es fundamental para mejorar la precisión de las estimaciones y asegurar que el modelo se ajuste adecuadamente a los datos.
  4. Evaluación de la validez y fiabilidad: Se analizan los constructos para asegurar que miden correctamente lo que se pretende medir. Esto incluye:
    —Fiabilidad individual: Evaluación de la consistencia interna de cada indicador utilizando el alfa de Cronbach.
    —Validez convergente: Medida a través de la varianza extraída (AVE), que debe ser superior a 0,5 para indicar que los indicadores reflejan el mismo constructo.
    —Validez discriminante: Comparación de las correlaciones entre constructos para asegurar que cada constructo es significativamente diferente de los demás. Esto se puede evaluar utilizando el criterio de Fornell-Larcker, que establece que la raíz cuadrada del AVE de cada constructo debe ser mayor que las correlaciones entre constructos.

Ventajas y desventajas de PLS-SEM

Ventajas:

  • Flexibilidad: PLS-SEM no requiere normalidad multivariada, lo que lo hace más accesible para investigadores en ciencias sociales que trabajan con datos no normales.
  • Muestras pequeñas: Funciona bien con muestras pequeñas, lo que es ventajoso en estudios exploratorios donde la recolección de datos puede ser limitada.
  • Constructos formativos: Permite la inclusión de constructos formativos, lo que amplía su aplicabilidad en contextos donde los constructos son complejos y multidimensionales.

Desventajas:

  • Falta de indicadores de ajuste global: PLS-SEM no proporciona indicadores de ajuste global del modelo, lo que puede limitar la comparación entre modelos y la evaluación de su calidad.
  • Restricciones en la estructura del modelo: Cada variable latente debe estar conectada a otra mediante una relación estructural, lo que puede ser restrictivo en algunos contextos.
  • Estimaciones no óptimas: La estimación de parámetros no es óptima en términos de sesgo y consistencia a menos que se utilice el algoritmo PLS consistente, lo que puede afectar la validez de los resultados.

Presentación de resultados

Al presentar los resultados de un análisis SEM, se recomienda estructurarlos en tablas que resuman la fiabilidad y validez del instrumento de medida, así como los análisis de validez discriminante y las hipótesis contrastadas. Así se facilita la comprensión y la interpretación de los resultados por parte de otros investigadores y lectores. La presentación clara y concisa de los resultados es esencial para garantizar la reproducibilidad y la transparencia de la investigación.

Tablas recomendadas:

  • Tabla de fiabilidad y validez: Resumen de los índices de fiabilidad (alfa de Cronbach, fiabilidad compuesta) y validez (AVE).
  • Tabla de validez discriminante: Comparación de las correlaciones entre constructos y sus AVE.
  • Tabla de resultados estructurales: Coeficientes de regresión, R² y significancia de las relaciones estructurales.

Conclusión

Los modelos de ecuaciones estructurales son una herramienta muy valiosa en la investigación social y del comportamiento, ya que permiten a los investigadores modelar y analizar relaciones complejas entre variables. La elección entre CB-SEM y PLS-SEM dependerá de los objetivos de la investigación, la naturaleza de los datos y las hipótesis planteadas. Con una correcta aplicación y validación, SEM puede proporcionar información significativa y fiable en diversas áreas de estudio, contribuyendo al avance del conocimiento en múltiples disciplinas. Para cualquier investigador que busque explorar las complejidades de las relaciones entre variables en su campo de estudio, es esencial comprender profundamente esta metodología y aplicarla correctamente.

Referencias:

Aldás, J. (2018). Modelización estructural mediante Partial Least Squares-PLSPM. Apuntes del seminario de modelización estructural.

Bagozzi, R. P., & Yi, Y. (1988). On the evaluation of structural equation models. Journal of the Academy of Marketing Science, 16(1), 74–94.

Fornell, C., & Bookstein, F. L. (1982). Two structural equation models: LISREL and PLS applied to consumer exit-voice theory. Journal of Marketing Research, 19(4), 440–452.

Hair, J. F., Hult, G. T. M., Ringle, C. M., & Sarstedt, M. (2014). A primer on partial least square structural equation modeling (PLS-SEM). California, United States: Sage.

López, S., & Yepes, V. (2024). Visualizing the future of knowledge sharing in SMEs in the construction industry: A VOS-viewer analysis of emerging trends and best practices. Advances in Civil Engineering, 2024, 6657677.

Yepes, V., & López, S. (2023). The knowledge sharing capability in innovative behavior: A SEM approach from graduate students’ insights. International Journal of Environmental Research and Public Health, 20(2), 1284.

Os dejo a continuación un artículo explicativo al respecto. Espero que os sea de interés.
Pincha aquí para descargar

También os pueden ser útiles algunos vídeos al respecto.


Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Karl Culmann

https://es.wikipedia.org/wiki/Karl_Culmann

Karl Culmann (10 de julio de 1821 – 9 de diciembre de 1881) fue un destacado ingeniero civil alemán, conocido por sus contribuciones fundamentales al cálculo de estructuras y, en particular, por el desarrollo de la estática gráfica. Se especializó en la construcción de puentes. Fue profesor de la Escuela Politécnica de Zúrich y realizó importantes innovaciones en el análisis de los sistemas reticulados, donde introdujo el cálculo gráfico, por lo que se le considera el fundador de la grafostática. Expuso el resultado de sus trabajos en su obra Estática gráfica (1866).

Culmann presentó el cálculo gráfico como un sistema coherente que incorporaba métodos gráficos para analizar estructuras como vigas, puentes, armaduras, arcos y muros de contención. Introdujo los polígonos de fuerza y funiculares, el método de secciones y el diagrama de fuerzas internas basado en el equilibrio de las juntas.

Se le atribuye la teoría de la elipse de inercia (también conocida como elipse de Culmann), esencial para el cálculo gráfico de momentos de inercia de figuras planas, así como la teoría de la elipse de elasticidad, que Karl Wilhelm Ritter aplicó al estudio de deformaciones en vigas elásticas.

La estática gráfica permitió registrar fuerzas en construcciones y resolver cálculos mediante dibujos. Los métodos de Culmann, adoptados inicialmente por sus alumnos, fueron rápidamente apreciados por diseñadores de puentes y estructuras por su rapidez frente a los procedimientos analíticos tradicionales.

Culmann nació en Bad Bergzabern, Baviera, en el seno de una familia luterana. Durante su infancia, fue educado en casa por su padre, un pastor luterano, hasta que en 1835 ingresó al Collège de Wissembourg. Más tarde, entre 1836 y 1838, continuó su formación en Metz, donde su tío Friedrich Jakob Culmann, profesor en la Escuela de Artillería, despertó su interés por la ingeniería.

En 1838, Culmann comenzó sus estudios en el Politécnico de Karlsruhe, donde se graduó en 1841. Al finalizar sus estudios, inició su carrera profesional en la administración pública de Baviera como aprendiz de ingeniero, especializándose en el diseño de puentes ferroviarios para los Ferrocarriles Estatales de Baviera.

Entre 1849 y 1851, con el apoyo de su superior, Friedrich August von Pauli, Culmann viajó a Inglaterra, Irlanda y Estados Unidos. Durante este tiempo, comparó diseños de puentes de celosía y desarrolló nuevas técnicas analíticas, que plasmó en dos diarios de viaje que incluían elementos de la teoría de estructuras reticuladas. Prestó especial atención a puentes, canales, sistemas de abastecimiento de agua, maquinaria industrial, barcos de vapor y otras innovaciones estadounidenses. Su temprana exposición a los avances de Poncelet y otros geómetras franceses se refleja en sus informes sobre la práctica de los puentes en Estados Unidos, donde ya se aprecian sus extensiones independientes de los métodos gráficos. Mientras la costumbre era analizar un diseño mediante ecuaciones, Culmann optó por otro enfoque: construcciones geométricas fundamentales y ampliamente aplicables.

En 1855, gracias, entre otros, a la mediación de Max Eyth, fue nombrado profesor de ciencias de la ingeniería en la entonces recién fundada Escuela Politécnica Federal de Zúrich (ETH Zúrich), cargo que ocupó hasta 1881. A partir de 1860, impartió clases sobre estática gráfica, una disciplina que revolucionó al fundamentar métodos gráficos para la resolución de problemas estructurales. En 1864 elaboró un valioso informe sobre su investigación de los torrentes montañosos de Suiza, cuya regulación representaba un problema recurrente en ciertas temporadas. Inspirado por el trabajo de Jean-Victor Poncelet, publicó en 1865 su obra más influyente, Die graphische Statik, que sería traducida al francés en 1879. En esta obra, ofreció un panorama completo de los trabajos existentes sobre métodos gráficos para resolver problemas estáticos y sentó las bases para su uso como una ciencia exacta.

Como docente, recibió grandes elogios por su vasta experiencia, su excelente conocimiento teórico y su comprensión empática. Desde 1860, impartió conferencias sobre estática gráfica en Zúrich. Culmann asesoró al Gobierno Suizo en numerosos proyectos técnicos, como una línea de tranvía tirado por caballos para Zúrich y casi todos los proyectos de construcción de puentes de su época. También realizó un inventario de todos los torrentes de montaña del sur de Suiza. En 1868 obtuvo la nacionalidad suiza. Entre 1872 y 1875 fue director de la escuela, y en 1880, un año antes de su muerte, obtuvo su doctorado en el ETH de Zúrich.

La grúa de Culmann con las líneas de las principales trayectorias de tensión y el modelo de von Meyers de la estructura trabecular de la extremidad proximal del fémur, explicado por Wolff, 1872. https://www.elsevier.es/es-revista-revista-espanola-cirugia-ortopedica-traumatologia-129-articulo-respuesta-osea-las-solicitaciones-mecanicas-13015932

También resulta de interés cómo Culmann identificó, junto con von Meyer (1967) la similitud entre la arquitectura del extremo proximal del fémur y los patrones de las trayectorias de solicitaciones, utilizando su innovador método de “estática gráfica”. Posteriormente, se empleó la ley de Wolff (1892) que indica que el alineamiento óseo trabecular coincide con las trayectorias de las tensiones principales en un sólido ideal de geometría exacta al hueso y bajo las mismas cargas.

Karl Culmann falleció en Zúrich, Suiza, el 9 de diciembre de 1881, dejando un legado imborrable en la ingeniería estructural y en el desarrollo de herramientas matemáticas aplicadas al diseño técnico. A lo largo de su carrera, influyó profundamente en la siguiente generación de ingenieros, entre ellos Maurice Koechlin, Christian Otto Mohr y Luigi Cremona.

Aunque los fundamentos de la estática gráfica fueron finalmente superados por la geometría proyectiva, Culmann, junto con Mohr, fue uno de los ingenieros estructurales más destacados del siglo XIX en el mundo de habla alemana.

 

Principales contribuciones a la teoría de estructuras:

  • Der Bau der hölzernen Brücken in den Vereinigten Staaten von Nordamerika [1851] (La construcción de puentes de madera en los Estados Unidos de América del Norte).
  • Der Bau der eisernen Brücken in England und Amerika [1852] (La construcción de puentes de hierro en Inglaterra y América).
  • Ueber die Gleichgewichtsbedingungen von Erdmassen [1856] (Sobre las condiciones de equilibrio de las masas de tierra).
  • Die graphische Statik [1864, 1866] (La estática gráfica).
  • Vorlesungen über Ingenieurkunde. I. Abtheilung: Erdbau [1872] (Lecciones sobre ingeniería. Primera parte: construcción de tierra).
  • Die Graphische Statik [1875] (La estática gráfica).

Eugène Freyssinet

De Desconocido – https://efreyssinet-association.com/apropos/lhomme/, Dominio público, https://commons.wikimedia.org/w/index.php?curid=81910629

Eugène Freyssinet nació el 13 de julio de 1879 en Objat, Corrèze (Francia), y falleció el 8 de junio de 1962 en Saint-Martin-Vésubie, Alpes-Maritimes (Francia). Fue un ingeniero de gran renombre, proyectista, constructor, inventor, empresario y artista, reconocido como el inventor del pretensado.

Pasó sus primeros años en un ambiente rural, hasta que en 1885 se trasladó con su familia a París, donde asistió a una escuela local y descubrió el Museo de Artes y Oficios. Pronto se familiarizó con todos los modelos expuestos y, entre los 10 y los 12 años, participó en cursos de electricidad aplicada, química y física. Durante las vacaciones escolares, pasaba el tiempo en Objat, donde se interesó por las tareas realizadas por los agricultores locales. Este grupo de personas, orgulloso y trabajador, extraía todo lo posible de la tierra árida, apenas suficiente para sobrevivir. Por ello, los agricultores también desempeñaban otros oficios, como ebanistas, carpinteros, albañiles, herreros y tejedores. A lo largo de su vida, Freyssinet siempre se sintió parte de este grupo. De estas personas, que trabajaban mucho y hablaban poco, aprendió a utilizar habilidades manuales y astucia para crear los mejores artefactos con pocos recursos materiales. Fue aquí, siendo aún un niño, donde Freyssinet adquirió las habilidades que más tarde le permitirían llevar a cabo innovaciones fundamentales en la construcción con hormigón.

Con una admiración casi religiosa por las habilidades manuales y una beca, Freyssinet asistió a la escuela Chaptal y logró ingresar en la École Polytechnique en su segundo intento en 1899. Posteriormente, estudió en la École des Ponts et Chaussées, de la que se graduó en 1905. Allí recibió una fuerte influencia de los profesores Charles Rabut, Jean Résal y Paul Séjourné. En 1903, todavía estudiante (se licenció en 1905), obtuvo su primer cargo: ingeniero de servicios ordinarios y vecinales, con la función de asesorar técnicamente a varios alcaldes del distrito este, concretamente de Vichy y Lapalisse. Comenzó a trabajar como ingeniero júnior en la oficina local de Ponts et Chaussées en Moulins, donde asesoraba a alcaldes rurales sobre temas relacionados con la ingeniería. En este trabajo, tenía libertad para diseñar y construir estructuras, utilizando siempre el hormigón reforzado. Entre sus obras de este período destacan los tres puentes de arco de hormigón pretensado sobre el río Allier.

En 1904 se interesó por las propiedades elásticas y de deformación del hormigón armado, una combinación de acero y hormigón. La búsqueda de la perfección de este material se convirtió en su principal objetivo. Sirvió en el Ejército de Tierra francés entre 1904 y 1907, y nuevamente durante la Primera Guerra Mundial como ingeniero de carreteras. Entre 1914 y 1928 fue director técnico y socio de la empresa Mercier-Limousin, donde obtuvo su primera patente de hormigón pretensado en 1920. En 1928, patentó un sistema de pretensado y comenzó a industrializar elementos prefabricados de hormigón armado, aunque su negocio de fabricación de postes eléctricos fracasó entre 1928 y 1933.

Entre 1907 y 1911, supervisó la construcción del puente de Veurdre, donde se enfrentó a problemas relacionados con los desplazamientos verticales de los arcos de hormigón armado. Con la ayuda de trabajadores de confianza, utilizó gatos hidráulicos para elevar los arcos y salvar el puente, que funcionó bien hasta ser destruido en la Segunda Guerra Mundial.

Freyssinet descubrió que el comportamiento del hormigón no es lineal y que, con una tensión compresiva constante, la contracción aumentaba con el tiempo. Este fenómeno, que observó en el Pont du Veurdre, se conocería más tarde como fluencia. Su comprensión del comportamiento del hormigón contrastaba con la de las autoridades científicas de la teoría de estructuras, que defendían la predominancia de lo lineal. Sin embargo, se estaba gestando un cambio de paradigma.

Eugène Freyssinet (1879-1962)

El gran avance en la construcción con hormigón pretensado se produjo en 1928, cuando Freyssinet y Jean Seailles patentaron su sistema de pretensado. A pesar de algunos fracasos iniciales, Freyssinet revolucionó el sector de la construcción con hormigón, consolidando su nombre como un referente en el campo. Entre sus obras más destacadas se encuentran el hangar de dirigibles de Orly (1921-1923), el Pont de Plougastel (1926-1930) y los audaces puentes de Marne construidos en la década de 1940. A partir de 1943, la tecnología del pretensado se expandió por todo el mundo. Freyssinet fundó la empresa STUP, que en 1970 se transformó en Freyssinet International.

Entre 1929 y 1933, Freyssinet experimentó con nuevas formas de fabricación de vigas y presentó el de hormigón pretensado en un artículo de 1933. Este tipo de hormigón, sometido a presiones antes de su uso, mejoraba la resistencia y permitía la construcción de estructuras más delgadas y esbeltas.

Ese mismo año se presentó a la cátedra de hormigón de la Academia de Ciencias, pero fue rechazado. Luego, se centró en probar la viabilidad del hormigón pretensado para mejorar el puerto de Le Havre en 1934. Gracias a este éxito, Edme Campenon, presidente de Enterprises Campenon-Bernard, le contrató para realizar varios proyectos en Argelia.

Sin embargo, con el inicio de la Segunda Guerra Mundial y la derrota francesa de 1940, Freyssinet tuvo que ocultar sus conocimientos para evitar que los alemanes se aprovecharan de ellos. Además, varias de sus obras fueron destruidas. A pesar de ello, no interrumpió por completo su actividad constructiva. En 1943, Edme Campenon fundó la STUP (Sociedad Técnica para la Utilización del Pretensado) para aplicar las investigaciones de Freyssinet sobre esta técnica. En la posguerra, Freyssinet perfeccionó el uso del hormigón pretensado, que implementó en nuevos puentes y en diversos edificios, como el faro de Berck y la basílica subterránea del santuario de Lourdes.

Su origen rural tuvo una gran influencia en su carrera como ingeniero, que comenzó a una edad temprana. Tendía a simplificar sus construcciones y a hacerlas económicas. A pesar de su sólida formación matemática, que utilizaba cuando era necesario, su espíritu artesano e intuitivo lo llevaba a confiar más en la experiencia. Apasionado y tenaz, Eugène Freyssinet fue muy apreciado por sus colegas.

Principales contribuciones a la teoría de estructuras: L’Amélioration des constructions en béton armé par l’introduction de déformations élastiques systématiques [1928]; Procédé de fabrication de pièces en béton armé [1928]; Note sur: Bétons plastiques et bétons fluides [1933]; Progrès pratiques des méthodes de traitement mécanique des bétons [1936/1]; Une révolution dans les techniques du béton [1936/2]; Une révolution dans l’art de bâtir: les constructions précontraintes [1941]; Ouvrages en béton précontraint destinés à contenir ou à retenir des liquides [1948/1]; Ponts en béton précontraint [1948/2]; Überblick über die Entwicklung des Gedankens der Vorspannung [1949]; Un amour sans limite [1993].

Os dejo algunos vídeos, que espero, os interesen.

Referencia:

FERNÁNDEZ-ORDÓÑEZ, J.A. (1978). Eugène Freyssinet. 2c Ediciones, Barcelona.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Aprendizaje supervisado en ingeniería civil

En un artículo anterior hablamos del aprendizaje no supervisado aplicado a la ingeniería civil. La otra rama del aprendizaje automático (machine learning) es el aprendizaje supervisado. Se trata de un enfoque que utiliza conjuntos de datos de entrada y sus correspondientes respuestas para entrenar modelos capaces de realizar predicciones sobre datos nuevos. Este método es particularmente útil en contextos donde se dispone de información previa sobre la variable que se desea predecir, lo que permite establecer relaciones y patrones en los datos.

El aprendizaje supervisado emerge como una herramienta muy poderosa en el campo de la ingeniería civil, ya que facilita la toma de decisiones y la optimización de procesos mediante el análisis de datos. Este enfoque se basa en el uso de algoritmos que aprenden a partir de un conjunto de datos etiquetados, lo que les permite realizar predicciones sobre nuevos datos. A continuación, se presentan algunas aplicaciones y beneficios del aprendizaje supervisado en este campo.

Técnicas de aprendizaje supervisado

Las técnicas de aprendizaje supervisado se dividen en dos categorías principales: clasificación y regresión. La clasificación se centra en predecir respuestas discretas, es decir, en asignar una etiqueta a un conjunto de datos. Por ejemplo, en el ámbito del correo electrónico, se puede clasificar un mensaje como genuino o spam. Este tipo de modelos se aplica en diversas áreas, como la imagenología médica, donde se pueden clasificar tumores en diferentes categorías de tamaño, o en el reconocimiento de voz, donde se identifican comandos específicos. La clasificación se basa en la capacidad de los modelos para categorizar datos en grupos definidos, lo que resulta esencial en aplicaciones como la evaluación crediticia, donde se determina la solvencia de una persona.

Por el contrario, la regresión se ocupa de predecir respuestas continuas, lo que implica estimar valores en un rango numérico. Por ejemplo, se puede utilizar la regresión para prever cambios en la temperatura o fluctuaciones en la demanda eléctrica. Este enfoque es aplicable en contextos como la previsión de precios de acciones, donde se busca anticipar el comportamiento del mercado, o en el reconocimiento de escritura a mano, donde se traduce la entrada manual en texto digital. La elección entre clasificación y regresión depende de la naturaleza de los datos y de la pregunta específica que se desea responder.

Selección del algoritmo adecuado.

La selección de un algoritmo de aprendizaje automático es un proceso que requiere un enfoque metódico, ya que hay que encontrar el equilibrio entre diversas características de los algoritmos. Entre estas características se encuentran la velocidad de entrenamiento, el uso de memoria, la precisión predictiva en nuevos datos y la transparencia o interpretabilidad del modelo. La velocidad de entrenamiento se refiere al tiempo que un algoritmo necesita para aprender de los datos, mientras que el uso de memoria se relaciona con la cantidad de recursos computacionales que requiere. La precisión predictiva es crucial, ya que determina la capacidad del modelo para generalizar a datos no vistos. Por último, la interpretabilidad se refiere a la facilidad con la que se pueden entender las decisiones del modelo, lo que es especialmente relevante en aplicaciones donde la confianza en el modelo es esencial.

El uso de conjuntos de datos de entrenamiento más grandes generalmente permite que los modelos generalicen mejor en datos nuevos, lo que se traduce en una mayor precisión en las predicciones. Sin embargo, la selección del algoritmo también puede depender del contexto específico y de las características de los datos disponibles.

Clasificación binaria y multicategoría

Al abordar un problema de clasificación, es fundamental determinar si se trata de un problema binario o multicategórico. En un problema de clasificación binaria, cada instancia se clasifica en una de las dos clases, como ocurre cuando se identifica la autenticidad de los correos electrónicos o su clasificación como spam. Este tipo de clasificación es más sencillo y, por lo general, se puede resolver con algoritmos diseñados específicamente para este propósito. En contraste, un problema de clasificación multicategórica implica más de dos clases, como clasificar imágenes de animales en perros, gatos u otros. Los problemas multicategóricos suelen ser más complejos, ya que requieren modelos más sofisticados que puedan manejar la diversidad de clases y sus interacciones.

Es importante señalar que algunos algoritmos, como la regresión logística, están diseñados específicamente para problemas de clasificación binaria y tienden a ser más eficientes durante el entrenamiento. Sin embargo, existen técnicas que permiten adaptar algoritmos de clasificación binaria para abordar problemas multicategóricos, lo que amplía su aplicabilidad.

Algoritmos de clasificación comunes

Existen diversos varios algoritmos de clasificación ampliamente utilizados en el campo del aprendizaje supervisado.

  • La regresión logística es uno de los métodos más comunes, ya que permite predecir la probabilidad de que una respuesta binaria pertenezca a una de las dos clases. Este algoritmo es valorado por su simplicidad y se emplea frecuentemente como punto de partida en problemas de clasificación binaria. Su capacidad para ofrecer una interpretación clara de los resultados lo convierte en una herramienta muy valiosa en diversas aplicaciones.
  • El algoritmo k-vecinos más cercanos (kNN) clasifica objetos basándose en las clases de sus vecinos más cercanos, utilizando métricas de distancia como la euclidiana o la de Manhattan. Este enfoque es intuitivo y fácil de implementar, aunque puede resultar costoso en términos de cálculo en conjuntos de datos grandes.
  • El soporte vectorial (SVM) es otro algoritmo destacado que clasifica datos al encontrar un límite de decisión lineal que separe las clases. En situaciones en las que los datos no son linealmente separables, se puede aplicar una transformación de kernel para facilitar la clasificación. Este método es especialmente útil en contextos de alta dimensionalidad, donde la complejidad de los datos puede dificultar la clasificación.
  • Las redes neuronales, inspiradas en la estructura del cerebro humano, son útiles para modelar sistemas altamente no lineales. Estas redes se entrenan ajustando las conexiones entre neuronas, lo que permite que el modelo aprenda patrones complejos en los datos. Aunque su interpretación puede ser más complicada, su capacidad para capturar relaciones no lineales las hace valiosas en diversas aplicaciones.
  • El clasificador Naïve Bayes se basa en la suposición de que la presencia de una característica en una clase no depende de la presencia de otras características. Este enfoque permite clasificar nuevos datos en función de la probabilidad máxima de pertenencia a una clase, lo que resulta útil en contextos en los que se requiere una clasificación rápida y eficiente.
  • El análisis discriminante clasifica los datos mediante combinaciones lineales de características, asumiendo que los diferentes conjuntos de datos tienen distribuciones gaussianas. Este método es apreciado por su simplicidad y facilidad de interpretación.
  • Los árboles de decisión permiten predecir respuestas basándose en decisiones tomadas en un árbol estructurado, donde cada rama representa una condición de decisión. Este enfoque es intuitivo y fácil de interpretar, por lo que es una opción popular en diversas aplicaciones.

Algoritmos de regresión comunes

Los algoritmos de regresión son esenciales para predecir valores continuos.

  • La regresión lineal es una técnica que describe una variable de respuesta continua como una función lineal de una o más variables predictoras. Este modelo es fácil de interpretar y se utiliza frecuentemente como referencia para modelos más complejos. Su simplicidad y eficacia en contextos lineales lo convierten en una opción inicial para el análisis de datos.
  • La regresión no lineal se utiliza cuando los datos presentan tendencias no lineales significativas. Este enfoque permite modelar relaciones más complejas que no pueden ser capturadas por modelos lineales, lo que resulta útil en contextos donde las variables interactúan de manera no lineal.
  • El modelo de regresión de procesos gaussianos es un enfoque no paramétrico que se utiliza para predecir valores continuos y es común en el análisis espacial. Este método es especialmente valioso en contextos donde se requiere interpolación y se trabaja con datos que presentan incertidumbre.
  • La regresión SVM, similar a su contraparte de clasificación, busca un modelo que se desvíe de los datos medidos en la menor cantidad posible. Este enfoque es útil en contextos de alta dimensionalidad, donde se espera que haya un gran número de variables predictoras.
  • El modelo lineal generalizado se utiliza cuando las variables de respuesta tienen distribuciones no normales, lo que permite abordar una variedad de situaciones en las que no se cumplen los supuestos de la regresión lineal.
  • Los árboles de regresión son una adaptación de los árboles de decisión que permiten predecir respuestas continuas, por lo que son útiles en contextos donde se requiere una interpretación clara y rápida.

Mejora de modelos

La mejora de un modelo implica aumentar su precisión y capacidad predictiva, así como prevenir el sobreajuste, que ocurre cuando un modelo se ajusta demasiado a los datos de entrenamiento y pierde capacidad de generalización. Este proceso incluye la ingeniería de características, que abarca la selección y transformación de variables, y la optimización de hiperparámetros, que busca identificar el conjunto de parámetros que mejor se ajustan al modelo.

  • La selección de características es un aspecto crítico en el aprendizaje supervisado, especialmente en conjuntos de datos de alta dimensión. Este proceso permite identificar las variables más relevantes para la predicción, lo que no solo mejora la precisión del modelo, sino que también reduce el tiempo de entrenamiento y la complejidad del mismo. Entre las técnicas de selección de características se encuentran la regresión por pasos, que implica agregar o eliminar características de manera secuencial, y la regularización, que utiliza estimadores de reducción para eliminar características redundantes.
  • La transformación de características es otra estrategia importante que busca mejorar la representación de los datos. Técnicas como el análisis de componentes principales (PCA) permiten realizar transformaciones lineales en los datos, que capturan la mayor parte de la varianza en un número reducido de componentes. Esto resulta útil en contextos donde se trabaja con datos de alta dimensionalidad, ya que facilita la visualización y el análisis.
  • La optimización de hiperparámetros es un proceso iterativo que busca encontrar los valores óptimos para los parámetros del modelo. Este proceso puede llevarse a cabo mediante métodos como la optimización bayesiana, la búsqueda en cuadrícula y la optimización basada en gradientes. Un modelo bien ajustado puede superar a un modelo complejo que no ha sido optimizado adecuadamente, lo que subraya la importancia de este proceso en el desarrollo de modelos efectivos.

Aplicaciones del aprendizaje supervisado en ingeniería civil

  • Predicción de fallos estructurales: los modelos de aprendizaje supervisado se utilizan para predecir fallos en estructuras como puentes y edificios. Al analizar datos históricos de inspecciones y condiciones ambientales, es posible identificar patrones que indiquen un posible fallo estructural. Esto permite a los ingenieros realizar mantenimientos preventivos y mejorar la seguridad de las infraestructuras.
  • Optimización de recursos en construcción: en la planificación de proyectos, el aprendizaje supervisado optimiza el uso de recursos como, por ejemplo, materiales y mano de obra. Al predecir la demanda de recursos en función de variables como el clima y la evolución del proyecto, es posible reducir costes y mejorar la eficiencia.
  • Análisis de riesgos: los modelos de aprendizaje supervisado son útiles para evaluar riesgos en proyectos de ingeniería civil. Al analizar datos sobre desastres naturales, como inundaciones y terremotos, se pueden identificar zonas vulnerables y desarrollar estrategias de mitigación eficaces.
  • Control de infraestructuras: la incorporación de sensores en infraestructuras permite la recolección de datos en tiempo real. Los algoritmos de aprendizaje supervisado pueden analizar estos datos para detectar anomalías y prever el mantenimiento necesario, lo que contribuye a la sostenibilidad y durabilidad de las estructuras.

Por tanto, el aprendizaje supervisado se está consolidando como una herramienta esencial en ingeniería civil, ya que ofrece soluciones innovadoras para predecir, optimizar y controlar infraestructuras. Su capacidad para analizar grandes volúmenes de datos y ofrecer información valiosa está transformando la forma en que se gestionan los proyectos en este ámbito.

Os dejo un mapa mental acerca del aprendizaje supervisado.

También os dejo unos vídeos al respecto. Espero que os sean de interés.

Referencias

  1. Garcia, J., Villavicencio, G., Altimiras, F., Crawford, B., Soto, R., Minatogawa, V., Franco, M., Martínez-Muñoz, D., & Yepes, V. (2022). Machine learning techniques applied to construction: A hybrid bibliometric analysis of advances and future directions. Automation in Construction142, 104532.
  2. Kaveh, A. (2024). Applications of artificial neural networks and machine learning in civil engineering. Studies in computational intelligence1168, 472.
  3. Khallaf, R., & Khallaf, M. (2021). Classification and analysis of deep learning applications in construction: A systematic literature review. Automation in construction129, 103760.
  4. Mostofi, F., & Toğan, V. (2023). A data-driven recommendation system for construction safety risk assessment. Journal of Construction Engineering and Management149(12), 04023139.
  5. Naderpour, H., Mirrashid, M., & Parsa, P. (2021). Failure mode prediction of reinforced concrete columns using machine learning methods. Engineering Structures248, 113263.
  6. Reich, Y. (1997). Machine learning techniques for civil engineering problems. Computer‐Aided Civil and Infrastructure Engineering12(4), 295-310.
  7. Thai, H. T. (2022). Machine learning for structural engineering: A state-of-the-art review. In Structures (Vol. 38, pp. 448-491). Elsevier.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.