Pánico, secreto y vientos diagonales: La crisis de 59 pisos que casi colapsa el Citigroup Center

Base del Citigroup Center junto a la Iglesia de San Pedro, lo que obligó a una disposición inusual de las columnas. https://es.wikipedia.org/wiki/Citigroup_Center

Introducción: El gigante con pies de barro.

Los rascacielos son monumentos a la permanencia. Se elevan sobre nuestras ciudades como símbolos de ingenio, poder y estabilidad estructural. Sin embargo, en 1978, el Citigroup Center, uno de los edificios más innovadores y reconocibles de Nueva York, ocultaba un secreto aterrador. Inaugurado con gran fanfarria en 1977, este hito de la ingeniería estaba, de hecho, peligrosamente cerca del colapso.

La ironía central de esta historia es casi cinematográfica: el fallo catastrófico se descubrió gracias a la pregunta de una estudiante universitaria, y la persona que cometió el error de cálculo que puso en peligro a miles de personas fue la misma que se convirtió en el héroe que los salvó. Esta es la historia de cómo una combinación de error humano, ética profesional y una suerte increíble evitó uno de los mayores desastres arquitectónicos de la historia moderna.

1. No bastó con un solo error; se necesitaron dos para poner en jaque al gigante.

El fallo que puso en jaque al Citigroup Center no fue un simple descuido, sino la combinación de dos errores críticos que se multiplicaron entre sí.

El primero fue un error de cálculo cometido por William LeMessurier, el ingeniero jefe. Siguiendo el código de construcción de la época, calculó las cargas de viento que incidían perpendicularmente en las caras del edificio. Sin embargo, debido al diseño único de la torre, que estaba apoyada sobre cuatro enormes pilares situados en el centro de cada lado en lugar de en las esquinas, pasó por alto que los vientos diagonales (conocidos como quartering winds) ejercían una tensión mucho mayor. Este descuido incrementó la carga en las uniones estructurales clave en un 40 %.

El segundo error agravó fatalmente el primero. Durante la construcción, la empresa constructora Bethlehem Steel propuso sustituir las uniones soldadas, que eran más resistentes pero también más costosas, por uniones atornilladas, más económicas. Basándose en los cálculos originales de vientos perpendiculares, este cambio parecía una modificación rutinaria y segura, por lo que la oficina de LeMessurier lo aprobó sin que él revisara personalmente las implicaciones. En aquel momento, fue una decisión técnicamente sólida, pero con el paso del tiempo se consideró fatal.

La combinación de un error oculto y una decisión que parecía segura resultó devastadora. La carga adicional del 40 % de los vientos diagonales aplicada a las uniones atornilladas más débiles provocó un aumento catastrófico del 160 % en la tensión de las conexiones. Esto significaba que una tormenta que ocurre cada 55 años podría ser desastrosa. Sin embargo, el peligro real era aún mayor: si el amortiguador de masa sintonizado del edificio, que dependía de la electricidad, fallaba durante un apagón —algo muy probable durante un huracán—, una tormenta mucho más común, de las que golpean Nueva York cada dieciséis años, podría derribarlo.

2. El «héroe» de la historia fue el ingeniero que cometió el error.

Tras descubrir el fallo, William LeMessurier se enfrentó a un dilema ético devastador. Años después, relataría que consideró todas las opciones, desde guardar silencio y arriesgar miles de vidas hasta el suicidio para escapar de la desgracia profesional.

Sin embargo, LeMessurier tomó la decisión más honorable: asumir toda la responsabilidad. Consciente de que esto podría significar el fin de su carrera, la bancarrota y la humillación pública, se puso en contacto con los directivos de Citicorp para informarles de que su flamante rascacielos de 175 millones de dólares era fundamentalmente inseguro. En ese momento, su mentalidad no se limitaba al deber, sino que también reflejaba un profundo sentido de su posición única, como él mismo describió:

«Tenía información que nadie más en el mundo poseía. Tenía en mis manos el poder de influir en eventos extraordinarios que solo yo podía iniciar».

Para su sorpresa, la reacción de los ejecutivos de Citicorp, liderados por el presidente Walter Wriston, no fue de ira, sino de una calma pragmática. En lugar de buscar culpables, Wriston se centró de inmediato en la solución. Pidió un bloc de notas amarillo, empezó a redactar un comunicado de prensa y bromeó: «Todas las guerras se ganan con generales que escriben en blocs amarillos». Este gesto de liderazgo, enfocado y sereno, sentó las bases para la increíble operación de rescate que estaba a punto de comenzar.

El Citigoup Center. https://es.wikipedia.org/wiki/Citigroup_Center

3. Una llamada casual de una estudiante lo desencadenó todo.

Toda esta crisis existencial y de ingeniería se desencadenó en junio de 1978 por un hecho tan improbable como una simple llamada telefónica. Al otro lado de la línea estaba Diane Hartley, una estudiante de ingeniería de la Universidad de Princeton que analizaba la estructura del Citigroup Center para su tesis.

Hartley llamó a LeMessurier con preguntas sobre la estabilidad del edificio frente a vientos diagonales. Confiado en su diseño, LeMessurier le explicó pacientemente por qué la estructura era sólida. Sin embargo, la llamada de Hartley sembró una semilla. No porque tuviera una preocupación inmediata, sino porque la conversación lo inspiró, LeMessurier decidió que el tema sería un excelente ejercicio académico para la conferencia que preparaba para sus propios estudiantes de Harvard.

Fue durante este recálculo, realizado por pura curiosidad intelectual, cuando descubrió con horror su error original. La llamada casual de Hartley no le dio la respuesta, pero le hizo la pregunta correcta en el momento adecuado, lo que supuso el golpe de suerte que reveló una vulnerabilidad mortal y activó la carrera contrarreloj para evitar una catástrofe inimaginable.

4. Una operación secreta, un huracán y una huelga de prensa lo mantuvieron en secreto.

La reparación del Citigroup Center fue una operación clandestina de alta tensión. Bajo el nombre en clave «Proyecto SERENE», los equipos trabajaban con una precisión coreografiada. Cada noche, los carpinteros llegaban a las 17:00 h para construir recintos de madera contrachapada alrededor de las juntas que había que reparar. Entre las 20:00 y las 04:00, con el sistema de alarma contra incendios desactivado, los soldadores trabajaban para reforzar más de doscientas uniones atornilladas con placas de acero de dos pulgadas de espesor. Finalmente, un equipo de limpieza eliminaba todo rastro del trabajo antes de la llegada de los primeros empleados a las 8 a. m., ajenos al peligro que se cernía sobre ellos.

El drama alcanzó su punto álgido a principios de septiembre de 1978, cuando el huracán Ella, una tormenta muy intensa, se dirigía directamente hacia la ciudad de Nueva York. Con las reparaciones a medio terminar, el edificio seguía siendo vulnerable. En secreto, las autoridades elaboraron planes para evacuar la torre y una zona de diez manzanas a su alrededor.

Entonces, la suerte intervino de nuevo. A pocas horas de la posible catástrofe, el huracán Ella viró inesperadamente hacia el Atlántico, salvando a la ciudad. El suspiro de alivio fue inmenso. Y, como si esto no fuera suficiente, un último golpe de fortuna mantuvo todo en secreto: justo cuando la historia estaba a punto de filtrarse, comenzó una huelga de periódicos en toda la ciudad que duró varios meses. La huelga enterró la noticia por completo y el casi desastre permaneció oculto al público durante casi veinte años, hasta que fue revelado en un artículo de The New Yorker en 1995.

Conclusión: la delgada línea entre el desastre y la ética.

La historia del Citigroup Center es un poderoso recordatorio de la fragilidad que puede esconderse tras una apariencia de fortaleza. Una combinación de error humano, profunda ética profesional, liderazgo decisivo y una buena dosis de suerte evitó lo que podría haber sido uno de los peores desastres arquitectónicos de la historia. El ingeniero que cometió el error lo afrontó con una valentía que salvó incontables vidas y, paradójicamente, reforzó su reputación.

La historia del Citigroup Center nos recuerda que incluso los símbolos de la permanencia pueden ser frágiles. Nos deja con una pregunta: ¿cuántos otros secretos se esconden en las estructuras que nos rodean, esperando a que una simple pregunta los saque a la luz?

En esta conversación puedes escuchar las ideas más interesantes sobre este asunto.

Aquí puedes ver un vídeo que resume bien el contenido del artículo.

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Robustez estructural y colapso progresivo: claves para entender y proteger nuestras construcciones

Colapso de una torre de viviendas en Ronan Point (Reino Unido). By Derek Voller, CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=59931718

La robustez estructural es la cualidad que permite a un edificio o puente soportar eventos inesperados —un fallo aislado, un impacto, una explosión—sin que ello provoque un colapso generalizado. Con el fin de aclarar el tema, se plantea la siguiente hipótesis: ¿qué ocurriría si un edificio perdiera de forma repentina uno de sus pilares portantes? En caso de que el diseño del edificio sea adecuado, las cargas que anteriormente transmitía dicho pilar se distribuirán de manera alternativa entre los elementos restantes, evitando así su colapso total. La capacidad de «resistir a contracorriente» ante situaciones inusuales se denomina robustez, constituyendo una línea de defensa fundamental para garantizar la seguridad de las personas y la continuidad del uso de la infraestructura.

El concepto puede resultar abstracto, pero es suficiente con considerar ejemplos dramáticos del pasado: en 1968, el colapso de una torre de viviendas en Ronan Point (Reino Unido) se originó por la explosión de una bombona de gas en un piso. Un fallo local aparentemente limitado desencadenó la caída de varias plantas, debido a la falta de mecanismos suficientes para redirigir las cargas. Por el contrario, un diseño sólido y bien fundamentado prevé esa posibilidad y mantiene la estructura del edificio en pie incluso tras el daño inicial, minimizando el número de víctimas y la magnitud del desastre.

Dentro de la robustez, se identifican diversas cualidades fundamentales. La redundancia implica disponer de múltiples vías para garantizar la llegada de las cargas al terreno. En caso de una interrupción en una de las vías, las demás están preparadas para asumir la carga de inmediato. La ductilidad se define como la capacidad de los materiales —como el acero, el hormigón armado o la madera— para deformarse sin quebrarse bruscamente. Esta «flexibilidad» les permite absorber la energía generada por impactos o terremotos, evitando así roturas instantáneas. La integridad estructural se define como la continuidad de todos los elementos conectados, de modo que las vigas, columnas y losas formen un conjunto que trabaje armónicamente y no se separe ante un esfuerzo puntual.

El colapso progresivo es un proceso en el que un fallo inicial genera otros a su alrededor, extendiéndose como una fiebre que consume toda la estructura. Analogía: el desplome de la primera ficha de dominó puede desencadenar la caída de todas las demás. En el ámbito de la ingeniería estructural, se busca evitar dicha reacción en cadena. Para ello, se implementan técnicas de «atado» o «conexión reforzada», mediante las cuales se une las vigas y columnas con armaduras continuas o refuerzos en puntos críticos. De esta manera, en caso de que falte un elemento, el resto del sistema no se ve comprometido.

En el ámbito de la ingeniería, la incorporación de la robustez en los proyectos se aborda mediante diversas estrategias. Una de las metodologías más eficaces consiste en anticipar los posibles escenarios de daño, tales como impactos de vehículos, explosiones accidentales o errores de construcción. Posteriormente, se verifica mediante modelos simplificados que la estructura mantiene su estabilidad incluso cuando falta un pilar o una viga. Otra estrategia prescriptiva consiste en el refuerzo de elementos clave, tales como las columnas exteriores o los núcleos de las escaleras, mediante la incorporación de armaduras o perfiles metálicos de mayor sección, a fin de actuar como «pilares de reserva» que soporten las cargas críticas.

La normativa europea, establecida en los Eurocódigos, ha establecido durante años la exigencia de que los edificios posean la capacidad de resistir sin colapsar de manera desproporcionada ante acciones accidentales. Es importante destacar que esta medida no implica tener que afrontar situaciones de alto riesgo, como bombardeos o terremotos de gran intensidad. En cambio, se refiere a la capacidad del edificio para resistir eventos menos probables pero potencialmente significativos, como la explosión de una tubería de gas o el choque de un camión contra un pilar. Para ello, se establecen diversos niveles de severidad del daño y se implementan criterios de diseño más o menos rigurosos, en función del riesgo para las personas y el entorno.

En la práctica, estos requisitos se traducen en aspectos constructivos específicos, tales como la unión de las vigas de forjado a las vigas principales y a los muros de cerramiento, la instalación de estribos continuos en las columnas para mejorar su comportamiento ante daños localizados o la previsión de refuerzos metálicos en los puntos de unión más expuestos. Asimismo, se recomienda el empleo de materiales con suficiente ductilidad, como aceros estructurales de alta deformabilidad, y técnicas de construcción que garanticen conexiones firmes, tales como soldaduras completas, atornillados de alta resistencia o conectores especiales en estructuras de madera.

Estos principios, además de aplicarse a la obra nueva, también se emplean en el refuerzo de edificios existentes. En el proceso de rehabilitación de estructuras antiguas, con frecuencia se implementa la adición de pórticos metálicos interiores o el refuerzo de las conexiones de hormigón armado con fibras de carbono, con el propósito de incrementar la ductilidad. En el caso de los puentes, se instalan amortiguadores o cables adicionales que permitan la redistribución de esfuerzos en caso de rotura de un tirante. El objetivo principal es la integración de elementos de seguridad en el sistema portante.

En resumen, la robustez estructural es un enfoque global que integra el diseño conceptual, el análisis de riesgos, la definición de escenarios y los detalles constructivos, con el objetivo de evitar que un fallo puntual derive en un colapso mayor. Es imperativo comprender el colapso progresivo y aplicar medidas de redundancia, ductilidad e integridad —junto a estrategias prescriptivas y de análisis directo—. De esta manera, nuestros edificios y puentes se convierten en sistemas más seguros, preparados para afrontar lo imprevisto y reducir al máximo las consecuencias de cualquier incidente.

Tómese un momento para consultar el siguiente texto, que contiene información adicional relevante para su referencia. El presente informe, elaborado por la EU Science Hub, en consonancia con los Eurocódigos, aborda el tema de la resistencia estructural, con el propósito de prevenir colapsos progresivos y desproporcionados en estructuras tales como edificios y puentes. Por favor, proceda a analizar las directrices de diseño vigentes en Europa y en otros países, identificando fortalezas y debilidades de las normativas actuales. El documento propone nuevas estrategias de diseño, como métodos mejorados de fuerza de atado horizontal y consideraciones sobre rutas de carga alternativas, y aborda la importancia de tener en cuenta el envejecimiento, el deterioro y el diseño multirriesgo. Se presentan ejemplos ilustrativos de aplicación a diversas estructuras.

Pincha aquí para descargar

Glosario de términos clave

  • Robustez (estructural): Capacidad o propiedad de un sistema para evitar una variación desproporcionada del rendimiento estructural (rendimiento del sistema) con respecto al daño correspondiente (perturbación del sistema).
  • Vulnerabilidad: Describe el grado de susceptibilidad de un sistema estructural a alcanzar un determinado nivel de consecuencias ante un evento peligroso dado.
  • Daño admisible (damage tolerance): Capacidad de un sistema estructural para soportar un determinado nivel de daño sin perder el equilibrio con las cargas aplicadas.
  • Continuidad: Conexión continua de los miembros de un sistema estructural.
  • Ductilidad: Capacidad de un sistema estructural para soportar las cargas aplicadas disipando energía plástica.
  • Integridad: Condición de un sistema estructural para permitir la transferencia de fuerzas entre los miembros en caso de eventos accidentales.
  • Incertidumbres: Estado de información deficiente, por ejemplo, relacionada con la comprensión o el conocimiento de un evento, su consecuencia o probabilidad.
  • Probabilidad: Expresión matemática del grado de confianza en una predicción.
  • Fiabilidad (reliability): Medida probabilística de la capacidad de un sistema estructural para cumplir con requisitos de diseño específicos. La fiabilidad se expresa comúnmente como el complemento de la probabilidad de falla.
  • Seguridad estructural: Calidad de un sistema estructural, referida a la resistencia, estabilidad e integridad de una estructura para soportar los peligros a los que es probable que esté expuesta durante su vida útil.
  • Riesgo: Una medida de la combinación (generalmente el producto) de la probabilidad o frecuencia de ocurrencia de un peligro definido y la magnitud de las consecuencias de la ocurrencia.
  • Redundancia: La capacidad del sistema para redistribuir la carga que ya no puede soportar algunos elementos dañados y/o deteriorados entre sus miembros.
  • Peligro: Amenaza excepcionalmente inusual y severa, por ejemplo, una posible acción anormal o influencia ambiental, resistencia o rigidez insuficiente, o desviación perjudicial excesiva de las dimensiones previstas.
  • Escenario peligroso: Serie de situaciones, transitorias en el tiempo, que un sistema podría experimentar y que pueden poner en peligro el propio sistema, a las personas y al medio ambiente.
  • Consecuencias del fallo: Los resultados o impactos de un fallo estructural pueden ser directos (daño a elementos afectados directamente) o indirectos (fallo parcial o total del sistema subsiguiente).
  • Análisis por presión-impulso (pressure–impulse analysis): Método utilizado para evaluar el rendimiento y el daño de elementos estructurales individuales bajo carga dinámica, definido por curvas iso-daño que relacionan la presión y el impulso.
  • Capacidad de diseño (capacity design): Un principio de diseño sísmico que establece una jerarquía de resistencias de los miembros para garantizar que las rótulas plásticas se formen en las ubicaciones deseadas, típicamente en las vigas en lugar de en las columnas (regla columna débil-viga fuerte – SCWB).
  • Factor de robustez R(𝜌, Δ): Un factor propuesto para cuantificar la robustez estructural, que relaciona el indicador de rendimiento residual (𝜌) con el índice de daño (Δ), a menudo mediante un parámetro de forma (𝛼).
  • Atados (ties): Elementos o disposiciones utilizados en el diseño estructural para proporcionar resistencia a la tracción y mejorar la robustez, especialmente en caso de pérdida de un elemento vertical de soporte de carga. Pueden ser horizontales o verticales.

Referencias:

MAKOOND, N.; SETIAWAN, A.; BUITRAGO, M., ADAM, J.M. (2024). Arresting failure propagation in buildings through collapse isolation. Nature 629, 592–596 (2024). DOI:10.1038/s41586-024-07268-5

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementationEngineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487

Cimentaciones en suelos blandos: análisis integral de mecanismos de fallo

Acaban de publicar nuestro artículo en la revista Buildings, de la editorial Elsevier, indexada en el JCR. El trabajo ofrece una contribución significativa al estudio de los mecanismos de fallo en fosos de cimentación profunda, especialmente en entornos geotécnicos desfavorables caracterizados por suelos blandos limosos. A diferencia de los enfoques previos, que tratan los problemas de estabilidad desde una perspectiva parcial, esta investigación desarrolla un modelo integral que combina simulaciones numéricas en tres dimensiones, pruebas de campo a escala real y un enfoque de acoplamiento microestructural para analizar el comportamiento del terreno y los elementos estructurales en condiciones reales de obra.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València, y es fruto de la colaboración internacional con investigadores de la Hunan University of Science and Engineering (China).

Uno de los principales logros del estudio radica en la aplicación de un modelo multidisciplinar acoplado que tiene en cuenta factores como la consolidación del terreno, la deformabilidad del sistema de contención, la presión del agua subterránea y la calidad de la ejecución del piloteado. Este modelo no solo permite diagnosticar fallos con alta precisión, sino también anticipar comportamientos críticos antes de que se manifiesten de forma visible. Esta capacidad predictiva supone un avance significativo en el campo del control de calidad y la seguridad estructural en cimentaciones profundas.

Además, el trabajo plantea una metodología replicable basada en el uso combinado de tecnologías de ensayo estático, pruebas de onda de baja deformación y modelado por elementos finitos. La gran cantidad de datos empíricos obtenidos, junto con su correlación con los resultados simulados, constituye una base sólida para el desarrollo de futuras normativas de control y supervisión de obras en suelos con baja capacidad portante.

La investigación se ha estructurado en torno a tres ejes metodológicos principales: pruebas de campo, ensayos de laboratorio y modelado numérico. En primer lugar, se llevaron a cabo ensayos in situ que incluyeron pruebas de penetración estándar, ensayos de penetración dinámica, pruebas de velocidad de onda de corte y muestreo mediante perforación mecánica. Estos ensayos se llevaron a cabo en el entorno del proyecto XSS-10D, una obra de gran escala con un foso de cimentación profunda sometido a condiciones geotécnicas complejas.

En segundo lugar, se realizaron ensayos geotécnicos de laboratorio sobre más de 140 muestras de suelo para determinar propiedades como la densidad seca y húmeda, el contenido de humedad, el límite líquido, la cohesión y el ángulo de fricción interna. Estos datos fueron fundamentales para definir los parámetros de entrada de los modelos numéricos.

Finalmente, se construyó un modelo tridimensional por elementos finitos utilizando el programa informático Abaqus CAE. Dicho modelo incorporó las características del suelo, las estructuras de contención, los pilotes y la acción de cargas externas, teniendo en cuenta tanto el comportamiento estático como las deformaciones diferidas. Además, se emplearon modelos viscoelásticos, como el de Kelvin, y se aplicó el criterio de rotura de Mohr-Coulomb para simular el comportamiento plástico del suelo.

Los resultados obtenidos a partir del estudio del proyecto XSS-10D confirman la eficacia del modelo acoplado para detectar defectos estructurales en cimentaciones profundas. En particular, se identificó que el pilote ZH2-194 presentaba una serie de análisis anómalos en los ensayos de baja deformación, los cuales se corroboraron mediante pruebas de carga estática y muestreo con extracción de testigos.

Las pruebas de carga estática evidenciaron desplazamientos superiores a los límites de servicio, mientras que el análisis del testigo reveló defectos de fabricación como oquedades, segregación de hormigón y contaminación con materiales finos. Estas deficiencias se atribuyeron a problemas en el proceso de hormigonado, como la intrusión de lodo en el interior de la perforación, la pérdida de trabajabilidad del hormigón y la falta de compactación adecuada.

El modelo numérico reprodujo con exactitud la distribución de esfuerzos y desplazamientos en la zona afectada y localizó los puntos de mayor concentración de tensiones en las inmediaciones del pilote defectuoso. Se observó un fenómeno de desplazamiento lateral y una redistribución de esfuerzos en el sistema de contención, lo que refuerza la necesidad de tener en cuenta la interacción entre el suelo y la estructura en su conjunto.

Los resultados también mostraron la importancia de factores como la presión del agua subterránea, la consolidación secundaria del suelo y la heterogeneidad estratigráfica en la evolución de los mecanismos de fallo. En particular, la capa de limos blandos localizada en el estrato 3 resultó ser un elemento clave en la pérdida de capacidad portante y el desarrollo de deformaciones excesivas.

A partir de los resultados del presente estudio, se abren diversas posibilidades para profundizar en el análisis de cimentaciones en entornos complejos. Una dirección prometedora consiste en incorporar técnicas de inteligencia artificial para detectar automáticamente los defectos mediante el procesamiento de datos de sensores de deformación y pruebas dinámicas. Esta integración permitiría establecer sistemas de supervisión continua con capacidad de aprendizaje adaptativo.

También es pertinente investigar nuevos materiales con propiedades reológicas adaptadas a entornos saturados o con baja resistencia al corte, como morteros tixotrópicos o mezclas de hormigón autocompactante con aditivos antifisuración.

Otra línea de investigación interesante es el estudio del comportamiento de los sistemas de contención bajo acciones cíclicas o sísmicas, ya que los modelos actuales tienden a centrarse en condiciones estáticas. La incorporación de elementos de análisis dinámico permitiría mejorar la resistencia global del sistema ante eventos extremos.

Por último, se propone la estandarización de protocolos para la inspección microestructural de pilotes defectuosos, en los que se establecen umbrales de aceptabilidad y criterios objetivos de intervención.

En conclusión, el estudio realizado constituye una aportación relevante y detallada al conocimiento sobre los mecanismos de fallo en cimentaciones profundas en suelos blandos. Su enfoque integral, que combina simulaciones numéricas, ensayos geotécnicos y análisis microestructurales, ofrece herramientas eficaces para detectar patologías estructurales de manera temprana. Además, sentará las bases para mejorar los procesos constructivos y desarrollar nuevas metodologías de control de calidad adaptadas a entornos complejos. La replicabilidad del modelo y su aplicabilidad en casos reales lo convierten en una referencia útil para estudiantes y profesionales de la ingeniería civil.

Referencia:

ZHOU, Z.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Study on the failure mechanism of deep foundation pit of high-rise building: comprehensive test and microstructure coupling. Buildings, 15(8), 1270. DOI:10.3390/buildings15081270

Como el artículo es en abierto, os lo dejo para su descarga:

Pincha aquí para descargar

Algunas reflexiones sobre el impacto del cambio climático en el comportamiento de las infraestructuras

El diseño estructural de infraestructuras, como edificios y puentes, se basa en códigos que establecen los criterios necesarios para garantizar su resistencia a diversas condiciones climáticas y ambientales. Estos códigos se actualizan periódicamente para reflejar los avances científicos y tecnológicos. Sin embargo, el cambio climático plantea un desafío disruptivo, ya que altera las condiciones climáticas de manera impredecible, lo que cuestiona la suposición de que las cargas climáticas son estacionarias.

En estas líneas se aborda cómo la transición del diseño estructural basado en estados límites ha influido en la forma en que se tienen en cuenta las variables climáticas. También aborda las dificultades que surgen al integrar el cambio climático en los modelos de riesgo estructural y analiza la necesidad de ajustar los métodos de estimación y diseño para tener en cuenta la creciente incertidumbre sobre el futuro climático.

Estas reflexiones se enmarcan dentro del proyecto RESILIFE, que actualmente desarrollo como investigador principal, y se han basado en algunas ideas desarrolladas en el trabajo reciente de Ellingwood et al. (2024).

Los códigos estructurales establecen los criterios necesarios para diseñar edificios, puentes y otras infraestructuras capaces de resistir las demandas de uso y los eventos ambientales o climáticos, como la nieve, el hielo, las lluvias, las tormentas de viento e inundaciones fluviales y costeras. Para garantizar que reflejen los últimos avances en ciencia e ingeniería, estos códigos se actualizan periódicamente, generalmente cada 5 o 10 años.

En las últimas cuatro décadas, los códigos estructurales de todo el mundo, como el «Minimum Design Loads and Associated Criteria for Buildings and Other Structures (ASCE 7-22)», las «LRFD Bridge Design Specifications (AASHTO)», el «International Building Code«, el «National Building Code of Canada» y los Eurocódigos, han adoptado los principios del diseño basado en estados límite. Durante este tiempo, los ingenieros estructurales y la normativa han reconocido la importancia de las herramientas de análisis de fiabilidad estructural y gestión del riesgo para modelar las incertidumbres asociadas a las cargas estructurales y la respuesta de las estructuras, y así garantizar un rendimiento adecuado en servicio (García-Segura et al., 2017). Con la transición del diseño basado en tensiones admisibles al diseño por estados límite, los criterios para las cargas climáticas han evolucionado gradualmente. Hasta ahora, estos criterios, basados en registros climáticos históricos y en evaluaciones de fiabilidad estructural, han tratado las cargas operativas y climáticas como estacionarias, asumiendo que el pasado es representativo del futuro.

El cambio climático plantea un desafío disruptivo y significativo para la evolución gradual de los códigos basados en el riesgo, así como para las prácticas de diseño estructural (ASCE, 2015a, 2018). La suposición de estacionariedad en el análisis de riesgos naturales deja de ser válida al tener en cuenta los efectos del cambio climático. Además, las incertidumbres asociadas a las proyecciones climáticas para el resto del siglo XXI son considerables, especialmente en lo que respecta a las cargas de viento, hielo y nieve (Tye et al., 2021). Las condiciones climáticas más agresivas podrían acelerar el deterioro estructural en ciertos casos, así como aumentar la intensidad y duración de los peligros. El cambio climático también ha suscitado controversia desde el punto de vista económico y político. Lograr consenso en los comités encargados de los códigos sobre el impacto del cambio climático en las infraestructuras requerirá una gestión técnica eficaz y una separación clara entre los aspectos políticos, como las causas del cambio climático, y los aspectos técnicos, como su impacto en las estructuras. Asimismo, podría haber oposición pública ante los costes adicionales que conlleven las modificaciones en los códigos climáticos. No obstante, ignorar los efectos del cambio climático en el comportamiento a largo plazo de las estructuras e infraestructuras podría incrementar el riesgo de daños y fallos, aumentar los costes de diseño, construcción y mantenimiento, agravar problemas de salud y seguridad públicas, interrumpir servicios esenciales y generar impactos socioeconómicos y ambientales negativos a nivel nacional.

Es fundamental abordar varias preguntas clave para considerar las exigencias del cambio climático en el desarrollo de los códigos estructurales. Entre ellas se encuentran (Ellingwood et al., 2024) :

  • ¿Cómo se debe modelar la no estacionariedad en la ocurrencia e intensidad de los eventos climáticos extremos provocados por el cambio climático?
  • ¿Cómo se deben integrar estas incertidumbres en un análisis de fiabilidad estructural dependiente del tiempo, con el fin de estimar el comportamiento futuro y demostrar el cumplimiento de los objetivos de rendimiento expresados en términos de fiabilidad?
  • ¿Cómo se puede convencer a los ingenieros estructurales y al público en general de la necesidad de aceptar estos cambios en interés nacional (Cooke, 2015), incluso si en algunos casos los costes de los sistemas de infraestructura aumentan?

Problemas y desafíos en el análisis de datos climáticos para el diseño estructural

Las variables climáticas empleadas en los códigos estructurales se basan principalmente en datos históricos. Los vientos extratropicales, la nieve, la temperatura y las precipitaciones se analizan exclusivamente a partir de estos datos. En el caso de los huracanes, se integran datos históricos en un marco que modela su génesis en la cuenca del Atlántico Norte, su desarrollo hasta convertirse en huracanes plenamente formados que impactan en infraestructuras costeras y su disipación tras tocar tierra. Estos análisis suponen que las variables climáticas pueden evaluarse como si fueran estacionarias, es decir, que el pasado es representativo del futuro y que sus intensidades pueden determinarse en función de sus periodos de retorno. Los datos se han recopilado para fines distintos al diseño de edificaciones, como la aviación comercial, la hidrología local, la gestión de recursos hídricos y la agricultura, y generalmente abarcan menos de 100 años.

La mayoría de las variables climáticas incluidas en los códigos se suelen determinar ajustando el parámetro extremo anual a una distribución de probabilidad. Entre las distribuciones más comunes utilizadas para este propósito se encuentran la distribución Tipo I de valores máximos y la distribución generalizada de valores extremos. El periodo de retorno o intervalo medio de recurrencia de una carga se calcula como el recíproco de la probabilidad anual de que dicha carga se supere. El error de muestreo en la estimación de los eventos base de diseño en una secuencia estacionaria para periodos de retorno superiores a 100 años puede ser considerable. Sin embargo, las estimaciones de las medias de las muestras suelen ser razonablemente estables cuando se actualizan en intervalos típicos de 10 años con datos climáticos adicionales.

La suposición de estacionariedad en los datos no puede justificarse en un contexto de cambio climático (Pandey y Lounis, 2023), y el concepto de un evento asociado a un periodo de retorno específico no es aplicable en sentido estricto. El aumento (o disminución) de las variables climáticas, junto con la creciente incertidumbre en los modelos de predicción climática, especialmente a partir del año 2060, afectará a la forma de analizar y especificar los datos para fines de diseño estructural. Quizás lo más relevante sea el impacto que tendrá sobre la forma en que se comunicarán los peligros de diseño a la comunidad profesional de la ingeniería y a sus clientes (Cooke, 2015).  Ellingwood et al. (2024) recuerdan claramente la confusión generada por el concepto de periodo de retorno cuando se introdujo a finales de la década de 1960. El periodo de retorno se concibió como una herramienta para reconocer que el parámetro de carga es aleatorio y para definir indirectamente la probabilidad anual de que se supere su intensidad de diseño, sin necesidad de recurrir a probabilidades pequeñas que no eran habituales entre los ingenieros estructurales de esa época. Esto podría explicar por qué algunos investigadores climáticos han intentado presentar sus estimaciones de parámetros utilizando el concepto de periodo de retorno (Ribereau et al., 2008; Salas y Obeysekera, 2014). Este problema requiere una reflexión cuidadosa al tratar con un clima cambiante, donde las probabilidades anuales no son constantes a lo largo de la vida útil de una estructura.

El crecimiento proyectado de las variables climáticas y sus incertidumbres más allá del año 2060 indica que será necesario desarrollar métodos para gestionar la incertidumbre epistémica -se refiere a la incertidumbre del modelo- en la estimación de parámetros, un aspecto que no se había tenido en cuenta previamente al estimar las variables climáticas para desarrollar códigos estructurales. Aunque la precisión de las técnicas generales de pronóstico climático ha mejorado gracias a la recopilación continua de datos, los modelos climáticos actuales son más capaces de predecir el impacto del cambio climático sobre la temperatura y las precipitaciones que sobre fenómenos como inundaciones, nevadas y vientos. Esto resulta problemático a la hora de considerar los niveles de probabilidad apropiados para el análisis de seguridad estructural.

Las futuras investigaciones podrían centrarse en el desarrollo de modelos más precisos para cargas climáticas específicas, como ciclones tropicales o sequías prolongadas, que aún presentan elevadas incertidumbres en sus proyecciones. Además, sería valioso explorar la aplicación de estos principios a sistemas de infraestructura emergentes, como redes de energía renovable o tecnologías de transporte resilientes. Por último, se sugiere investigar métodos para integrar datos climáticos en tiempo real en el diseño y seguimiento de infraestructuras, fomentando un enfoque dinámico y adaptable al cambio climático.

En resumen, los códigos estructurales establecen los criterios necesarios para diseñar infraestructuras capaces de resistir eventos climáticos como tormentas, nieve e inundaciones, y se actualizan periódicamente para reflejar los avances científicos y tecnológicos. Sin embargo, el cambio climático plantea un reto significativo, ya que altera las condiciones climáticas de manera impredecible, lo que hace que la suposición de estacionariedad que hasta ahora ha guiado el diseño estructural sea obsoleta. Este artículo explora cómo los códigos estructurales han evolucionado hacia un diseño basado en estados límite y la necesidad urgente de ajustar los métodos de análisis de riesgos ante la creciente incertidumbre climática. Además, se analizan los problemas derivados del uso exclusivo de datos históricos para modelar cargas climáticas y las dificultades que plantea el cambio climático a la hora de predecir eventos extremos. Finalmente, se destaca la necesidad de desarrollar nuevos modelos y enfoques analíticos que garanticen la seguridad de las infraestructuras en un entorno climático en constante cambio.

Os dejo un mapa conceptual sobre las reflexiones anteriores.

Referencias:

ASCE (2015). Adapting infrastructure and civil engineering practice to a changing climate. Committee on Adaptation to a Changing Climate. American Society of Civil Engineers.

ASCE (2018). Climate-resilient infrastructure: Adaptive design and risk management. Reston, VA: Committee on Adaptation to a Changing Climate. American Society of Civil Engineers.

Cooke, R. M. (2015). Messaging climate change uncertainty. Nature Climate Change5(1), 8-10.

Ellingwood, B. R., Bocchini, P., Lounis, Z., Ghosn, M., Liu, M., Yang, D., Capacci, L., Diniz, S., Lin, N., Tsiatas, G., Biondini, F., de Lindt, J., Frangopol, D.M., Akiyama, M., Li, Y., Barbato, M., Hong, H., McAllister, T., Tsampras, G. & Vahedifard, F. (2024). Impact of Climate Change on Infrastructure Performance. In Effects of Climate Change on Life-Cycle Performance of Structures and Infrastructure Systems: Safety, Reliability, and Risk (pp. 115-206). Reston, VA: American Society of Civil Engineers.

García-Segura, T., Yepes, V., Frangopol, D. M., & Yang, D. Y. (2017). Lifetime reliability-based optimization of post-tensioned box-girder bridges. Engineering Structures145, 381-391.

Pandey, M. D., & Lounis, Z. (2023). Stochastic modelling of non-stationary environmental loads for reliability analysis under the changing climate. Structural Safety103, 102348.

Ribereau, P., Guillou, A., & Naveau, P. (2008). Estimating return levels from maxima of non-stationary random sequences using the Generalized PWM method. Nonlinear Processes in Geophysics15(6), 1033-1039.

Salas, J. D., & Obeysekera, J. (2014). Revisiting the concepts of return period and risk for nonstationary hydrologic extreme events. Journal of hydrologic engineering19(3), 554-568.

Tye, M. R., & Giovannettone, J. P. (2021, October). Impacts of future weather and climate extremes on United States infrastructure: Assessing and prioritizing adaptation actions. Reston, VA: American Society of Civil Engineers.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Seguridad estructural, los estados límites y los métodos semiprobabilísticos

El concepto de seguridad de una estructura en cumplir un conjunto de funciones para las que ha sido proyectada es un término relacionado con el grado de certeza o fiabilidad de que no alcance un conjunto de estados no deseables que todavía no han acontecido.

La seguridad se representa por consiguiente como un aspecto antagónico al aspecto económico del dimensionamiento: una estructura proyectada para un coste pequeño puede resultar poco segura y, por el contrario, una estructura proyectada para ser muy segura puede resultar antieconómica. La solución debe quedar en un término adecuado.

El concepto de seguridad en una estructura se refiere a su capacidad para cumplir con las funciones previstas, garantizando un nivel de fiabilidad que evite la ocurrencia de estados no deseados. La seguridad se contrapone al aspecto económico del diseño: una estructura económica puede ser menos segura, mientras que una estructura altamente segura puede resultar costosa. Por lo tanto, es necesario encontrar un equilibrio adecuado entre ambos aspectos.

El objetivo principal del Proyecto de Ingeniería Estructural consiste en garantizar que la estructura cumpla satisfactoriamente con su función original. El mantenimiento de esta funcionalidad a lo largo de su vida útil depende de diversos factores o parámetros que tradicionalmente se han considerado como cantidades deterministas.

Sin embargo, evaluar la seguridad en ingeniería es complicado debido a varios factores. En primer lugar, los accidentes pueden ocurrir por causas no relacionadas con los cálculos realizados, como erosiones o modelos inadecuados. Además, tratar el problema de forma aleatoria puede llevar a considerar la probabilidad como medida universal e invariable de seguridad. Sin embargo, la probabilidad solo es significativa en relación con un conjunto coherente de conocimientos, como los estados de falla no ocurridos, difíciles de definir. Además, existen incertidumbres que no pueden ser objetivamente cuantificadas mediante probabilidades. Por lo tanto, las probabilidades solo pueden ser definidas dentro de un contexto específico y los cálculos de probabilidad son meramente convencionales. Además, si bien medir el margen de seguridad a través de una magnitud física puede ser útil en un problema particular, no todas las magnitudes son adecuadas en todos los casos generales. Por ejemplo, las tensiones no son una magnitud adecuada para el estudio del equilibrio estático, y evaluar el margen de seguridad basándose en las tensiones puede ser incorrecto en problemas no lineales.

En el contexto de la Teoría de la Fiabilidad Estructural, Armen Der Kiureghian presenta los siguientes tipos de incertidumbres. En primer lugar, están las incertidumbres físicas, que surgen debido a la inherente variabilidad de las magnitudes físicas involucradas en el problema, como dimensiones, propiedades del material, cargas y resistencia. En segundo lugar, encontramos las incertidumbres estadísticas, que se originan a partir de los modelos probabilísticos utilizados para caracterizar las Variables Básicas del problema. Estas incertidumbres se deben a las aproximaciones necesarias para seleccionar las Funciones de Distribución y estimar sus parámetros, debido a la falta de información disponible. En tercer lugar, se presentan las incertidumbres del modelo, que son generadas por las hipótesis simplificativas realizadas en los modelos matemáticos empleados para describir la respuesta de un sistema estructural. Estas simplificaciones incluyen aspectos como la homogeneidad, el comportamiento elástico o elastoplástico, las pequeñas deformaciones y las condiciones de contorno. Aunque la variabilidad de los dos últimos tipos de incertidumbres puede reducirse a través del estudio e investigación, las incertidumbres físicas del primer tipo son inevitables.

En el pasado, las construcciones se basaban en métodos empíricos, confiando en la experiencia y la intuición del constructor para garantizar la seguridad. Sin embargo, en la actualidad, la experiencia debe complementarse con los resultados obtenidos, ya que la rápida evolución técnica puede presentar situaciones no experimentadas previamente. Con el surgimiento de la construcción metálica en el siglo XIX y el enfoque en la Resistencia de Materiales, se introdujo el método de tensiones admisibles. Este método implica un enfoque determinista en las variables utilizadas, donde la seguridad se basa en el margen establecido por las tensiones admisibles. Estas tensiones se obtienen mediante el cociente entre la resistencia del material y un coeficiente de seguridad, mientras que las cargas variables se establecen de manera empírica y arbitraria.

El desarrollo de la Teoría de la Elasticidad permitió aplicar este método en la construcción de hormigón armado, pero presenta desafíos. Cuando el comportamiento no es lineal debido a los materiales o la geometría de la estructura, las tensiones admisibles no reflejan el margen real de seguridad. Además, el comportamiento del hormigón y el acero dificulta definir el fallo en términos de tensiones. No se consideran los efectos de la adaptación plástica del hormigón, donde la tensión en un punto no determina la confiabilidad estructural si hay una fase de adaptación plástica que redistribuye los esfuerzos. Además, no se distinguen los diferentes tipos de acciones cuya influencia en la seguridad es distinta. No obstante, este método ha sido utilizado con profusión durante la primera mitad del siglo XX.

La Teoría de la Fiabilidad, que inicialmente se aplicaba a procesos industriales de producción en serie, se adaptó en 1960 al campo de la Ingeniería Estructural. El objetivo era desarrollar métodos que permitieran determinar los niveles de seguridad de los Sistemas Estructurales, mediante un enfoque racional de las incertidumbres presentes en ellos. Desde entonces, esta área de investigación ha experimentado un notable impulso, y los fundamentos teóricos desarrollados han dejado de ser exclusivamente un tema de investigación académica para convertirse en un conjunto de metodologías con una amplia gama de aplicaciones prácticas.

No obstante, los avances tecnológicos y los métodos de análisis han permitido realizar estudios de seguridad más precisos en las estructuras mediante la incorporación de modelos estadísticos y de probabilidad en los cálculos. Desde los primeros intentos, como el de Max Mayer en 1926, numerosos autores han contribuido al desarrollo del enfoque probabilístico y a su aplicación práctica. Para emplear la probabilidad en los cálculos, es necesario definir un conjunto coherente de eventos no deseados, denominados “estados límite”. Estos estados límite representan condiciones en las que una estructura o uno de sus elementos deja de cumplir su función de manera inmediata o progresiva. La seguridad se caracteriza por la probabilidad o conjunto de probabilidades de que los estados límite no sean superados. Al elegir la probabilidad de ocurrencia de un estado límite como medida convencional de la seguridad, es necesario establecer los valores aplicables en la práctica.

A primera vista, podría parecer que el uso de probabilidades resuelve por completo el problema de medir la seguridad. Sin embargo, su implementación enfrenta dos dificultades. Por un lado, están los datos que no se pueden cuantificar de manera probabilística debido a su naturaleza. Por otro lado, resulta prácticamente imposible conocer con precisión la probabilidad real de alcanzar un estado límite. Estas limitaciones dificultan la aplicación práctica de las probabilidades en la evaluación de la seguridad.

La seguridad puede tratarse en tres niveles, según el grado de simplificación en el abordaje del problema:

  • Nivel 3: Utiliza el cálculo de probabilidades sin restricciones en la representación de las incertidumbres.
  • Nivel 2: Representa las acciones, resistencias de materiales y secciones mediante distribuciones conocidas o asumidas, definidas por su tipo, media y desviación típica. La fiabilidad se expresa con el «índice de seguridad» (β).
  • Nivel 1: Establece niveles de fiabilidad estructural aplicando factores parciales de seguridad a valores nominales preestablecidos de las variables fundamentales.

Los métodos de nivel 2 y 3 emplean probabilidades que están vinculadas a hipótesis apriorísticas sobre las distribuciones de los datos.

En cambio, el método de nivel 1, conocido como método semiprobabilístico, considera solo ciertos elementos que se pueden cuantificar de manera probabilística, mientras que las demás incertidumbres se abordan mediante factores empíricos que poseen un significado físico específico. Este método es el más simple y ampliamente reconocido en la actualidad.

Os paso un vídeo explicativo sobre conceptos de fiabilidad estructural de Juan Carlos López Agüí, que espero os sea de interés.

Referencias:

GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M.; YANG, D.Y. (2017). Lifetime Reliability-Based Optimization of Post-Tensioned Box-Girder Bridges. Engineering Structures, 145:381-391. DOI:10.1016/j.engstruct.2017.05.013

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.