Robustez estructural y colapso progresivo: claves para entender y proteger nuestras construcciones

Colapso de una torre de viviendas en Ronan Point (Reino Unido). By Derek Voller, CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=59931718

La robustez estructural es la cualidad que permite a un edificio o puente soportar eventos inesperados —un fallo aislado, un impacto, una explosión—sin que ello provoque un colapso generalizado. Con el fin de aclarar el tema, se plantea la siguiente hipótesis: ¿qué ocurriría si un edificio perdiera de forma repentina uno de sus pilares portantes? En caso de que el diseño del edificio sea adecuado, las cargas que anteriormente transmitía dicho pilar se distribuirán de manera alternativa entre los elementos restantes, evitando así su colapso total. La capacidad de «resistir a contracorriente» ante situaciones inusuales se denomina robustez, constituyendo una línea de defensa fundamental para garantizar la seguridad de las personas y la continuidad del uso de la infraestructura.

El concepto puede resultar abstracto, pero es suficiente con considerar ejemplos dramáticos del pasado: en 1968, el colapso de una torre de viviendas en Ronan Point (Reino Unido) se originó por la explosión de una bombona de gas en un piso. Un fallo local aparentemente limitado desencadenó la caída de varias plantas, debido a la falta de mecanismos suficientes para redirigir las cargas. Por el contrario, un diseño sólido y bien fundamentado prevé esa posibilidad y mantiene la estructura del edificio en pie incluso tras el daño inicial, minimizando el número de víctimas y la magnitud del desastre.

Dentro de la robustez, se identifican diversas cualidades fundamentales. La redundancia implica la disposición de múltiples vías para garantizar la llegada de las cargas al terreno. En caso de una interrupción en una de las vías, las otras están preparadas para asumir la carga de manera inmediata. La ductilidad se define como la capacidad de los materiales —como el acero, el hormigón armado o la madera— para deformarse sin quebrarse de forma brusca. Esta «flexibilidad» les permite absorber la energía generada por impactos o terremotos, evitando así roturas instantáneas. La integridad estructural se define como la continuidad de todos los elementos conectados, de modo que las vigas, columnas y losas formen un conjunto que trabaje armónicamente y no se separe ante un esfuerzo puntual.

El colapso progresivo es un proceso en el que un fallo inicial genera otros a su alrededor, extendiéndose como una fiebre que consume toda la estructura. Analogía: el desplome de la primera ficha de dominó puede desencadenar la caída de todas las demás. En el ámbito de la ingeniería estructural, se busca evitar dicha reacción en cadena. Para ello, se implementan técnicas de «atado» o «conexión reforzada», mediante las cuales se une las vigas y columnas con armaduras continuas o refuerzos en puntos críticos. De esta manera, en caso de fallo de un elemento, el resto del sistema no se ve comprometido.

En el ámbito de la ingeniería, la incorporación de la robustez en los proyectos se aborda mediante la aplicación de diversas estrategias. Una de las metodologías más eficaces consiste en anticipar los posibles escenarios de daño, tales como impactos de vehículos, explosiones accidentales o errores de construcción. Posteriormente, se verifica mediante modelos simplificados que la estructura mantiene su estabilidad incluso cuando falta un pilar o una viga. Otra estrategia prescriptiva implica el refuerzo de elementos clave, tales como las columnas exteriores o los núcleos de las escaleras, mediante la incorporación de armaduras o perfiles metálicos de mayor sección, con el fin de actuar como «pilares de reserva» que soporten las cargas críticas.

La normativa europea, establecida en los Eurocódigos, ha establecido durante años la exigencia de que los edificios posean la capacidad de resistir sin colapsar de manera desproporcionada ante acciones accidentales. Es importante destacar que esta medida no implica la necesidad de afrontar situaciones de alto riesgo, como bombardeos o terremotos de gran intensidad. En cambio, se refiere a la capacidad del edificio para resistir eventos menos probables pero potencialmente significativos, tales como la explosión de una tubería de gas o el choque de un camión contra un pilar. Para ello, se establecen diversos niveles de severidad del daño y se implementan criterios de diseño más o menos rigurosos, en función del riesgo para las personas y el entorno.

En la práctica, estos requisitos se traducen en aspectos constructivos específicos, tales como la unión de las vigas de forjado a las vigas principales y a los muros de cerramiento, la instalación de estribos continuos en las columnas para mejorar su comportamiento ante daños localizados o la previsión de refuerzos metálicos en los puntos de unión más expuestos. Asimismo, se recomienda el empleo de materiales con suficiente ductilidad, como aceros estructurales de alta deformabilidad, y técnicas de construcción que garanticen conexiones firmes, tales como soldaduras completas, atornillados de alta resistencia o conectores especiales en estructuras de madera.

Estos principios, además de aplicarse en la obra nueva, también se emplean en el refuerzo de edificios existentes. En el proceso de rehabilitación de estructuras antiguas, con frecuencia se implementa la adición de pórticos metálicos interiores o el refuerzo de las conexiones de hormigón armado con fibras de carbono, con el propósito de incrementar su ductilidad. En el caso de los puentes, se procede a la instalación de amortiguadores o cables adicionales que permitan la redistribución de esfuerzos en caso de rotura de un tirante. El objetivo principal es la integración de elementos de seguridad en el sistema portante.

En resumen, la robustez estructural es un enfoque global que integra el diseño conceptual, el análisis de riesgos, la definición de escenarios y los detalles constructivos, con el objetivo de prevenir que un fallo puntual derive en un colapso mayor. Es imperativo comprender el colapso progresivo y aplicar medidas de redundancia, ductilidad e integridad —junto a estrategias prescriptivas y de análisis directo—. De esta manera, nuestros edificios y puentes se convierten en sistemas más seguros, preparados para afrontar lo imprevisto y reducir al máximo las consecuencias de cualquier incidente.

Tómese un momento para consultar el siguiente texto, el cual contiene información adicional relevante para su referencia. El presente informe, elaborado por la EU Science Hub, en consonancia con los Eurocódigos, aborda el tema de la resistencia estructural, con el propósito de prevenir colapsos progresivos y desproporcionados en estructuras tales como edificios y puentes. Por favor, proceda a analizar las directrices de diseño existentes en Europa y otros lugares, identificando fortalezas y debilidades en las normativas actuales. El documento propone nuevas estrategias de diseño, como métodos mejorados de fuerza de atado horizontal y consideraciones de rutas de carga alternativas, y aborda la importancia de tener en cuenta el envejecimiento, el deterioro y el diseño multi-riesgo. Se presentan ejemplos ilustrativos de aplicación para diversas estructuras.

Descargar (PDF, 3.34MB)

Glosario de términos clave

  • Robustez (estructural): Capacidad/propiedad de un sistema para evitar una variación del rendimiento estructural (rendimiento del sistema) desproporcionadamente mayor con respecto al daño correspondiente (perturbación del sistema).
  • Vulnerabilidad: Describe el grado de susceptibilidad de un sistema estructural a alcanzar un determinado nivel de consecuencias, para un evento peligroso dado.
  • Daño admisible (damage tolerance): Capacidad de un sistema estructural para soportar un determinado nivel de daño manteniendo el equilibrio con las cargas aplicadas.
  • Continuidad: Conexión continua de los miembros de un sistema estructural.
  • Ductilidad: Capacidad de un sistema estructural para soportar las cargas aplicadas disipando energía plástica.
  • Integridad: Condición de un sistema estructural para permitir la transferencia de fuerzas entre los miembros en caso de eventos accidentales.
  • Incertidumbres: Estado de información deficiente, por ejemplo, relacionada con la comprensión o el conocimiento de un evento, su consecuencia o probabilidad.
  • Probabilidad: Expresión matemática del grado de confianza en una predicción.
  • Fiabilidad (reliability): Medida probabilística de la capacidad de un sistema estructural para cumplir requisitos de diseño específicos. La fiabilidad se expresa comúnmente como el complemento de la probabilidad de falla.
  • Seguridad estructural: Calidad de un sistema estructural, referida a la resistencia, estabilidad e integridad de una estructura para soportar los peligros a los que es probable que esté expuesta durante su vida útil.
  • Riesgo: Una medida de la combinación (generalmente el producto) de la probabilidad o frecuencia de ocurrencia de un peligro definido y la magnitud de las consecuencias de la ocurrencia.
  • Redundancia: La capacidad del sistema para redistribuir entre sus miembros la carga que ya no puede ser soportada por algunos elementos dañados y/o deteriorados.
  • Peligro: Amenaza excepcionalmente inusual y severa, por ejemplo, una posible acción anormal o influencia ambiental, resistencia o rigidez insuficiente, o desviación perjudicial excesiva de las dimensiones previstas.
  • Escenario peligroso: Serie de situaciones, transitorias en el tiempo, que un sistema podría experimentar y que pueden poner en peligro el propio sistema, a las personas y al medio ambiente.
  • Consecuencias del fallo: Los resultados o impactos de un fallo estructural, que pueden ser directos (daño a elementos afectados directamente) o indirectos (fallo parcial o total del sistema subsiguiente).
  • Análisis por presión-impulso (pressure–impulse analysis): Método utilizado para evaluar el rendimiento y el daño de elementos estructurales individuales bajo carga dinámica, definido por curvas iso-daño que relacionan la presión y el impulso.
  • Capacidad de diseño (capacity design): Un principio de diseño sísmico que establece una jerarquía de resistencias de los miembros para garantizar que las rótulas plásticas se formen en ubicaciones deseadas, típicamente en las vigas en lugar de en las columnas (regla columna débil-viga fuerte – SCWB).
  • Factor de robustez R(𝜌, Δ): Un factor propuesto para cuantificar la robustez estructural relacionando el indicador de rendimiento residual (𝜌) con el índice de daño (Δ), a menudo con un parámetro de forma (𝛼).
  • Atados (ties): Elementos o disposiciones utilizados en el diseño estructural para proporcionar resistencia a la tracción y mejorar la robustez, especialmente en caso de pérdida de un elemento vertical de soporte de carga. Pueden ser horizontales o verticales.

Referencias:

MAKOOND, N.; SETIAWAN, A.; BUITRAGO, M., ADAM, J.M. (2024). Arresting failure propagation in buildings through collapse isolation. Nature 629, 592–596 (2024). DOI:10.1038/s41586-024-07268-5

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementationEngineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487

Cimentaciones en suelos blandos: análisis integral de mecanismos de fallo

Acaban de publicar nuestro artículo en la revista Buildings, de la editorial Elsevier, indexada en el JCR. El trabajo ofrece una contribución significativa al estudio de los mecanismos de fallo en fosos de cimentación profunda, especialmente en entornos geotécnicos desfavorables caracterizados por suelos blandos limosos. A diferencia de los enfoques previos, que tratan los problemas de estabilidad desde una perspectiva parcial, esta investigación desarrolla un modelo integral que combina simulaciones numéricas en tres dimensiones, pruebas de campo a escala real y un enfoque de acoplamiento microestructural para analizar el comportamiento del terreno y los elementos estructurales en condiciones reales de obra.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València, y es fruto de la colaboración internacional con investigadores de la Hunan University of Science and Engineering (China).

Uno de los principales logros del estudio radica en la aplicación de un modelo multidisciplinar acoplado que tiene en cuenta factores como la consolidación del terreno, la deformabilidad del sistema de contención, la presión del agua subterránea y la calidad de la ejecución del piloteado. Este modelo no solo permite diagnosticar fallos con alta precisión, sino también anticipar comportamientos críticos antes de que se manifiesten de forma visible. Esta capacidad predictiva supone un avance significativo en el campo del control de calidad y la seguridad estructural en cimentaciones profundas.

Además, el trabajo plantea una metodología replicable basada en el uso combinado de tecnologías de ensayo estático, pruebas de onda de baja deformación y modelado por elementos finitos. La gran cantidad de datos empíricos obtenidos, junto con su correlación con los resultados simulados, constituye una base sólida para el desarrollo de futuras normativas de control y supervisión de obras en suelos con baja capacidad portante.

La investigación se ha estructurado en torno a tres ejes metodológicos principales: pruebas de campo, ensayos de laboratorio y modelado numérico. En primer lugar, se llevaron a cabo ensayos in situ que incluyeron pruebas de penetración estándar, ensayos de penetración dinámica, pruebas de velocidad de onda de corte y muestreo mediante perforación mecánica. Estos ensayos se llevaron a cabo en el entorno del proyecto XSS-10D, una obra de gran escala con un foso de cimentación profunda sometido a condiciones geotécnicas complejas.

En segundo lugar, se realizaron ensayos geotécnicos de laboratorio sobre más de 140 muestras de suelo para determinar propiedades como la densidad seca y húmeda, el contenido de humedad, el límite líquido, la cohesión y el ángulo de fricción interna. Estos datos fueron fundamentales para definir los parámetros de entrada de los modelos numéricos.

Finalmente, se construyó un modelo tridimensional por elementos finitos utilizando el programa informático Abaqus CAE. Dicho modelo incorporó las características del suelo, las estructuras de contención, los pilotes y la acción de cargas externas, teniendo en cuenta tanto el comportamiento estático como las deformaciones diferidas. Además, se emplearon modelos viscoelásticos, como el de Kelvin, y se aplicó el criterio de rotura de Mohr-Coulomb para simular el comportamiento plástico del suelo.

Los resultados obtenidos a partir del estudio del proyecto XSS-10D confirman la eficacia del modelo acoplado para detectar defectos estructurales en cimentaciones profundas. En particular, se identificó que el pilote ZH2-194 presentaba una serie de análisis anómalos en los ensayos de baja deformación, los cuales se corroboraron mediante pruebas de carga estática y muestreo con extracción de testigos.

Las pruebas de carga estática evidenciaron desplazamientos superiores a los límites de servicio, mientras que el análisis del testigo reveló defectos de fabricación como oquedades, segregación de hormigón y contaminación con materiales finos. Estas deficiencias se atribuyeron a problemas en el proceso de hormigonado, como la intrusión de lodo en el interior de la perforación, la pérdida de trabajabilidad del hormigón y la falta de compactación adecuada.

El modelo numérico reprodujo con exactitud la distribución de esfuerzos y desplazamientos en la zona afectada y localizó los puntos de mayor concentración de tensiones en las inmediaciones del pilote defectuoso. Se observó un fenómeno de desplazamiento lateral y una redistribución de esfuerzos en el sistema de contención, lo que refuerza la necesidad de tener en cuenta la interacción entre el suelo y la estructura en su conjunto.

Los resultados también mostraron la importancia de factores como la presión del agua subterránea, la consolidación secundaria del suelo y la heterogeneidad estratigráfica en la evolución de los mecanismos de fallo. En particular, la capa de limos blandos localizada en el estrato 3 resultó ser un elemento clave en la pérdida de capacidad portante y el desarrollo de deformaciones excesivas.

A partir de los resultados del presente estudio, se abren diversas posibilidades para profundizar en el análisis de cimentaciones en entornos complejos. Una dirección prometedora consiste en incorporar técnicas de inteligencia artificial para detectar automáticamente los defectos mediante el procesamiento de datos de sensores de deformación y pruebas dinámicas. Esta integración permitiría establecer sistemas de supervisión continua con capacidad de aprendizaje adaptativo.

También es pertinente investigar nuevos materiales con propiedades reológicas adaptadas a entornos saturados o con baja resistencia al corte, como morteros tixotrópicos o mezclas de hormigón autocompactante con aditivos antifisuración.

Otra línea de investigación interesante es el estudio del comportamiento de los sistemas de contención bajo acciones cíclicas o sísmicas, ya que los modelos actuales tienden a centrarse en condiciones estáticas. La incorporación de elementos de análisis dinámico permitiría mejorar la resistencia global del sistema ante eventos extremos.

Por último, se propone la estandarización de protocolos para la inspección microestructural de pilotes defectuosos, en los que se establecen umbrales de aceptabilidad y criterios objetivos de intervención.

En conclusión, el estudio realizado constituye una aportación relevante y detallada al conocimiento sobre los mecanismos de fallo en cimentaciones profundas en suelos blandos. Su enfoque integral, que combina simulaciones numéricas, ensayos geotécnicos y análisis microestructurales, ofrece herramientas eficaces para detectar patologías estructurales de manera temprana. Además, sentará las bases para mejorar los procesos constructivos y desarrollar nuevas metodologías de control de calidad adaptadas a entornos complejos. La replicabilidad del modelo y su aplicabilidad en casos reales lo convierten en una referencia útil para estudiantes y profesionales de la ingeniería civil.

Referencia:

ZHOU, Z.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Study on the failure mechanism of deep foundation pit of high-rise building: comprehensive test and microstructure coupling. Buildings, 15(8), 1270. DOI:10.3390/buildings15081270

Como el artículo es en abierto, os lo dejo para su descarga:

Descargar (PDF, 20.44MB)

Algunas reflexiones sobre el impacto del cambio climático en el comportamiento de las infraestructuras

El diseño estructural de infraestructuras, como edificios y puentes, se basa en códigos que establecen los criterios necesarios para garantizar su resistencia a diversas condiciones climáticas y ambientales. Estos códigos se actualizan periódicamente para reflejar los avances científicos y tecnológicos. Sin embargo, el cambio climático plantea un desafío disruptivo, ya que altera las condiciones climáticas de manera impredecible, lo que cuestiona la suposición de que las cargas climáticas son estacionarias.

En estas líneas se aborda cómo la transición del diseño estructural basado en estados límites ha influido en la forma en que se tienen en cuenta las variables climáticas. También aborda las dificultades que surgen al integrar el cambio climático en los modelos de riesgo estructural y analiza la necesidad de ajustar los métodos de estimación y diseño para tener en cuenta la creciente incertidumbre sobre el futuro climático.

Estas reflexiones se enmarcan dentro del proyecto RESILIFE, que actualmente desarrollo como investigador principal, y se han basado en algunas ideas desarrolladas en el trabajo reciente de Ellingwood et al. (2024).

Los códigos estructurales establecen los criterios necesarios para diseñar edificios, puentes y otras infraestructuras capaces de resistir las demandas de uso y los eventos ambientales o climáticos, como la nieve, el hielo, las lluvias, las tormentas de viento e inundaciones fluviales y costeras. Para garantizar que reflejen los últimos avances en ciencia e ingeniería, estos códigos se actualizan periódicamente, generalmente cada 5 o 10 años.

En las últimas cuatro décadas, los códigos estructurales de todo el mundo, como el “Minimum Design Loads and Associated Criteria for Buildings and Other Structures (ASCE 7-22)”, las “LRFD Bridge Design Specifications (AASHTO)”, el “International Building Code“, el “National Building Code of Canada” y los Eurocódigos, han adoptado los principios del diseño basado en estados límite. Durante este tiempo, los ingenieros estructurales y la normativa han reconocido la importancia de las herramientas de análisis de fiabilidad estructural y gestión del riesgo para modelar las incertidumbres asociadas a las cargas estructurales y la respuesta de las estructuras, y así garantizar un rendimiento adecuado en servicio (García-Segura et al., 2017). Con la transición del diseño basado en tensiones admisibles al diseño por estados límite, los criterios para las cargas climáticas han evolucionado gradualmente. Hasta ahora, estos criterios, basados en registros climáticos históricos y en evaluaciones de fiabilidad estructural, han tratado las cargas operativas y climáticas como estacionarias, asumiendo que el pasado es representativo del futuro.

El cambio climático plantea un desafío disruptivo y significativo para la evolución gradual de los códigos basados en el riesgo, así como para las prácticas de diseño estructural (ASCE, 2015a, 2018). La suposición de estacionariedad en el análisis de riesgos naturales deja de ser válida al tener en cuenta los efectos del cambio climático. Además, las incertidumbres asociadas a las proyecciones climáticas para el resto del siglo XXI son considerables, especialmente en lo que respecta a las cargas de viento, hielo y nieve (Tye et al., 2021). Las condiciones climáticas más agresivas podrían acelerar el deterioro estructural en ciertos casos, así como aumentar la intensidad y duración de los peligros. El cambio climático también ha suscitado controversia desde el punto de vista económico y político. Lograr consenso en los comités encargados de los códigos sobre el impacto del cambio climático en las infraestructuras requerirá una gestión técnica eficaz y una separación clara entre los aspectos políticos, como las causas del cambio climático, y los aspectos técnicos, como su impacto en las estructuras. Asimismo, podría haber oposición pública ante los costes adicionales que conlleven las modificaciones en los códigos climáticos. No obstante, ignorar los efectos del cambio climático en el comportamiento a largo plazo de las estructuras e infraestructuras podría incrementar el riesgo de daños y fallos, aumentar los costes de diseño, construcción y mantenimiento, agravar problemas de salud y seguridad públicas, interrumpir servicios esenciales y generar impactos socioeconómicos y ambientales negativos a nivel nacional.

Es fundamental abordar varias preguntas clave para considerar las exigencias del cambio climático en el desarrollo de los códigos estructurales. Entre ellas se encuentran (Ellingwood et al., 2024) :

  • ¿Cómo se debe modelar la no estacionariedad en la ocurrencia e intensidad de los eventos climáticos extremos provocados por el cambio climático?
  • ¿Cómo se deben integrar estas incertidumbres en un análisis de fiabilidad estructural dependiente del tiempo, con el fin de estimar el comportamiento futuro y demostrar el cumplimiento de los objetivos de rendimiento expresados en términos de fiabilidad?
  • ¿Cómo se puede convencer a los ingenieros estructurales y al público en general de la necesidad de aceptar estos cambios en interés nacional (Cooke, 2015), incluso si en algunos casos los costes de los sistemas de infraestructura aumentan?

Problemas y desafíos en el análisis de datos climáticos para el diseño estructural

Las variables climáticas empleadas en los códigos estructurales se basan principalmente en datos históricos. Los vientos extratropicales, la nieve, la temperatura y las precipitaciones se analizan exclusivamente a partir de estos datos. En el caso de los huracanes, se integran datos históricos en un marco que modela su génesis en la cuenca del Atlántico Norte, su desarrollo hasta convertirse en huracanes plenamente formados que impactan en infraestructuras costeras y su disipación tras tocar tierra. Estos análisis suponen que las variables climáticas pueden evaluarse como si fueran estacionarias, es decir, que el pasado es representativo del futuro y que sus intensidades pueden determinarse en función de sus periodos de retorno. Los datos se han recopilado para fines distintos al diseño de edificaciones, como la aviación comercial, la hidrología local, la gestión de recursos hídricos y la agricultura, y generalmente abarcan menos de 100 años.

La mayoría de las variables climáticas incluidas en los códigos se suelen determinar ajustando el parámetro extremo anual a una distribución de probabilidad. Entre las distribuciones más comunes utilizadas para este propósito se encuentran la distribución Tipo I de valores máximos y la distribución generalizada de valores extremos. El periodo de retorno o intervalo medio de recurrencia de una carga se calcula como el recíproco de la probabilidad anual de que dicha carga se supere. El error de muestreo en la estimación de los eventos base de diseño en una secuencia estacionaria para periodos de retorno superiores a 100 años puede ser considerable. Sin embargo, las estimaciones de las medias de las muestras suelen ser razonablemente estables cuando se actualizan en intervalos típicos de 10 años con datos climáticos adicionales.

La suposición de estacionariedad en los datos no puede justificarse en un contexto de cambio climático (Pandey y Lounis, 2023), y el concepto de un evento asociado a un periodo de retorno específico no es aplicable en sentido estricto. El aumento (o disminución) de las variables climáticas, junto con la creciente incertidumbre en los modelos de predicción climática, especialmente a partir del año 2060, afectará a la forma de analizar y especificar los datos para fines de diseño estructural. Quizás lo más relevante sea el impacto que tendrá sobre la forma en que se comunicarán los peligros de diseño a la comunidad profesional de la ingeniería y a sus clientes (Cooke, 2015).  Ellingwood et al. (2024) recuerdan claramente la confusión generada por el concepto de periodo de retorno cuando se introdujo a finales de la década de 1960. El periodo de retorno se concibió como una herramienta para reconocer que el parámetro de carga es aleatorio y para definir indirectamente la probabilidad anual de que se supere su intensidad de diseño, sin necesidad de recurrir a probabilidades pequeñas que no eran habituales entre los ingenieros estructurales de esa época. Esto podría explicar por qué algunos investigadores climáticos han intentado presentar sus estimaciones de parámetros utilizando el concepto de periodo de retorno (Ribereau et al., 2008; Salas y Obeysekera, 2014). Este problema requiere una reflexión cuidadosa al tratar con un clima cambiante, donde las probabilidades anuales no son constantes a lo largo de la vida útil de una estructura.

El crecimiento proyectado de las variables climáticas y sus incertidumbres más allá del año 2060 indica que será necesario desarrollar métodos para gestionar la incertidumbre epistémica -se refiere a la incertidumbre del modelo- en la estimación de parámetros, un aspecto que no se había tenido en cuenta previamente al estimar las variables climáticas para desarrollar códigos estructurales. Aunque la precisión de las técnicas generales de pronóstico climático ha mejorado gracias a la recopilación continua de datos, los modelos climáticos actuales son más capaces de predecir el impacto del cambio climático sobre la temperatura y las precipitaciones que sobre fenómenos como inundaciones, nevadas y vientos. Esto resulta problemático a la hora de considerar los niveles de probabilidad apropiados para el análisis de seguridad estructural.

Las futuras investigaciones podrían centrarse en el desarrollo de modelos más precisos para cargas climáticas específicas, como ciclones tropicales o sequías prolongadas, que aún presentan elevadas incertidumbres en sus proyecciones. Además, sería valioso explorar la aplicación de estos principios a sistemas de infraestructura emergentes, como redes de energía renovable o tecnologías de transporte resilientes. Por último, se sugiere investigar métodos para integrar datos climáticos en tiempo real en el diseño y seguimiento de infraestructuras, fomentando un enfoque dinámico y adaptable al cambio climático.

En resumen, los códigos estructurales establecen los criterios necesarios para diseñar infraestructuras capaces de resistir eventos climáticos como tormentas, nieve e inundaciones, y se actualizan periódicamente para reflejar los avances científicos y tecnológicos. Sin embargo, el cambio climático plantea un reto significativo, ya que altera las condiciones climáticas de manera impredecible, lo que hace que la suposición de estacionariedad que hasta ahora ha guiado el diseño estructural sea obsoleta. Este artículo explora cómo los códigos estructurales han evolucionado hacia un diseño basado en estados límite y la necesidad urgente de ajustar los métodos de análisis de riesgos ante la creciente incertidumbre climática. Además, se analizan los problemas derivados del uso exclusivo de datos históricos para modelar cargas climáticas y las dificultades que plantea el cambio climático a la hora de predecir eventos extremos. Finalmente, se destaca la necesidad de desarrollar nuevos modelos y enfoques analíticos que garanticen la seguridad de las infraestructuras en un entorno climático en constante cambio.

Os dejo un mapa conceptual sobre las reflexiones anteriores.

Referencias:

ASCE (2015). Adapting infrastructure and civil engineering practice to a changing climate. Committee on Adaptation to a Changing Climate. American Society of Civil Engineers.

ASCE (2018). Climate-resilient infrastructure: Adaptive design and risk management. Reston, VA: Committee on Adaptation to a Changing Climate. American Society of Civil Engineers.

Cooke, R. M. (2015). Messaging climate change uncertainty. Nature Climate Change5(1), 8-10.

Ellingwood, B. R., Bocchini, P., Lounis, Z., Ghosn, M., Liu, M., Yang, D., Capacci, L., Diniz, S., Lin, N., Tsiatas, G., Biondini, F., de Lindt, J., Frangopol, D.M., Akiyama, M., Li, Y., Barbato, M., Hong, H., McAllister, T., Tsampras, G. & Vahedifard, F. (2024). Impact of Climate Change on Infrastructure Performance. In Effects of Climate Change on Life-Cycle Performance of Structures and Infrastructure Systems: Safety, Reliability, and Risk (pp. 115-206). Reston, VA: American Society of Civil Engineers.

García-Segura, T., Yepes, V., Frangopol, D. M., & Yang, D. Y. (2017). Lifetime reliability-based optimization of post-tensioned box-girder bridges. Engineering Structures145, 381-391.

Pandey, M. D., & Lounis, Z. (2023). Stochastic modelling of non-stationary environmental loads for reliability analysis under the changing climate. Structural Safety103, 102348.

Ribereau, P., Guillou, A., & Naveau, P. (2008). Estimating return levels from maxima of non-stationary random sequences using the Generalized PWM method. Nonlinear Processes in Geophysics15(6), 1033-1039.

Salas, J. D., & Obeysekera, J. (2014). Revisiting the concepts of return period and risk for nonstationary hydrologic extreme events. Journal of hydrologic engineering19(3), 554-568.

Tye, M. R., & Giovannettone, J. P. (2021, October). Impacts of future weather and climate extremes on United States infrastructure: Assessing and prioritizing adaptation actions. Reston, VA: American Society of Civil Engineers.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Seguridad estructural, los estados límites y los métodos semiprobabilísticos

El concepto de seguridad de una estructura en cumplir un conjunto de funciones para las que ha sido proyectada es un término relacionado con el grado de certeza o fiabilidad de que no alcance un conjunto de estados no deseables que todavía no han acontecido.

La seguridad se representa por consiguiente como un aspecto antagónico al aspecto económico del dimensionamiento: una estructura proyectada para un coste pequeño puede resultar poco segura y, por el contrario, una estructura proyectada para ser muy segura puede resultar antieconómica. La solución debe quedar en un término adecuado.

El concepto de seguridad en una estructura se refiere a su capacidad para cumplir con las funciones previstas, garantizando un nivel de fiabilidad que evite la ocurrencia de estados no deseados. La seguridad se contrapone al aspecto económico del diseño: una estructura económica puede ser menos segura, mientras que una estructura altamente segura puede resultar costosa. Por lo tanto, es necesario encontrar un equilibrio adecuado entre ambos aspectos.

El objetivo principal del Proyecto de Ingeniería Estructural consiste en garantizar que la estructura cumpla satisfactoriamente con su función original. El mantenimiento de esta funcionalidad a lo largo de su vida útil depende de diversos factores o parámetros que tradicionalmente se han considerado como cantidades deterministas.

Sin embargo, evaluar la seguridad en ingeniería es complicado debido a varios factores. En primer lugar, los accidentes pueden ocurrir por causas no relacionadas con los cálculos realizados, como erosiones o modelos inadecuados. Además, tratar el problema de forma aleatoria puede llevar a considerar la probabilidad como medida universal e invariable de seguridad. Sin embargo, la probabilidad solo es significativa en relación con un conjunto coherente de conocimientos, como los estados de falla no ocurridos, difíciles de definir. Además, existen incertidumbres que no pueden ser objetivamente cuantificadas mediante probabilidades. Por lo tanto, las probabilidades solo pueden ser definidas dentro de un contexto específico y los cálculos de probabilidad son meramente convencionales. Además, si bien medir el margen de seguridad a través de una magnitud física puede ser útil en un problema particular, no todas las magnitudes son adecuadas en todos los casos generales. Por ejemplo, las tensiones no son una magnitud adecuada para el estudio del equilibrio estático, y evaluar el margen de seguridad basándose en las tensiones puede ser incorrecto en problemas no lineales.

En el contexto de la Teoría de la Fiabilidad Estructural, Armen Der Kiureghian presenta los siguientes tipos de incertidumbres. En primer lugar, están las incertidumbres físicas, que surgen debido a la inherente variabilidad de las magnitudes físicas involucradas en el problema, como dimensiones, propiedades del material, cargas y resistencia. En segundo lugar, encontramos las incertidumbres estadísticas, que se originan a partir de los modelos probabilísticos utilizados para caracterizar las Variables Básicas del problema. Estas incertidumbres se deben a las aproximaciones necesarias para seleccionar las Funciones de Distribución y estimar sus parámetros, debido a la falta de información disponible. En tercer lugar, se presentan las incertidumbres del modelo, que son generadas por las hipótesis simplificativas realizadas en los modelos matemáticos empleados para describir la respuesta de un sistema estructural. Estas simplificaciones incluyen aspectos como la homogeneidad, el comportamiento elástico o elastoplástico, las pequeñas deformaciones y las condiciones de contorno. Aunque la variabilidad de los dos últimos tipos de incertidumbres puede reducirse a través del estudio e investigación, las incertidumbres físicas del primer tipo son inevitables.

En el pasado, las construcciones se basaban en métodos empíricos, confiando en la experiencia y la intuición del constructor para garantizar la seguridad. Sin embargo, en la actualidad, la experiencia debe complementarse con los resultados obtenidos, ya que la rápida evolución técnica puede presentar situaciones no experimentadas previamente. Con el surgimiento de la construcción metálica en el siglo XIX y el enfoque en la Resistencia de Materiales, se introdujo el método de tensiones admisibles. Este método implica un enfoque determinista en las variables utilizadas, donde la seguridad se basa en el margen establecido por las tensiones admisibles. Estas tensiones se obtienen mediante el cociente entre la resistencia del material y un coeficiente de seguridad, mientras que las cargas variables se establecen de manera empírica y arbitraria.

El desarrollo de la Teoría de la Elasticidad permitió aplicar este método en la construcción de hormigón armado, pero presenta desafíos. Cuando el comportamiento no es lineal debido a los materiales o la geometría de la estructura, las tensiones admisibles no reflejan el margen real de seguridad. Además, el comportamiento del hormigón y el acero dificulta definir el fallo en términos de tensiones. No se consideran los efectos de la adaptación plástica del hormigón, donde la tensión en un punto no determina la confiabilidad estructural si hay una fase de adaptación plástica que redistribuye los esfuerzos. Además, no se distinguen los diferentes tipos de acciones cuya influencia en la seguridad es distinta. No obstante, este método ha sido utilizado con profusión durante la primera mitad del siglo XX.

La Teoría de la Fiabilidad, que inicialmente se aplicaba a procesos industriales de producción en serie, se adaptó en 1960 al campo de la Ingeniería Estructural. El objetivo era desarrollar métodos que permitieran determinar los niveles de seguridad de los Sistemas Estructurales, mediante un enfoque racional de las incertidumbres presentes en ellos. Desde entonces, esta área de investigación ha experimentado un notable impulso, y los fundamentos teóricos desarrollados han dejado de ser exclusivamente un tema de investigación académica para convertirse en un conjunto de metodologías con una amplia gama de aplicaciones prácticas.

No obstante, los avances tecnológicos y los métodos de análisis han permitido realizar estudios de seguridad más precisos en las estructuras mediante la incorporación de modelos estadísticos y de probabilidad en los cálculos. Desde los primeros intentos, como el de Max Mayer en 1926, numerosos autores han contribuido al desarrollo del enfoque probabilístico y a su aplicación práctica. Para emplear la probabilidad en los cálculos, es necesario definir un conjunto coherente de eventos no deseados, denominados “estados límite”. Estos estados límite representan condiciones en las que una estructura o uno de sus elementos deja de cumplir su función de manera inmediata o progresiva. La seguridad se caracteriza por la probabilidad o conjunto de probabilidades de que los estados límite no sean superados. Al elegir la probabilidad de ocurrencia de un estado límite como medida convencional de la seguridad, es necesario establecer los valores aplicables en la práctica.

A primera vista, podría parecer que el uso de probabilidades resuelve por completo el problema de medir la seguridad. Sin embargo, su implementación enfrenta dos dificultades. Por un lado, están los datos que no se pueden cuantificar de manera probabilística debido a su naturaleza. Por otro lado, resulta prácticamente imposible conocer con precisión la probabilidad real de alcanzar un estado límite. Estas limitaciones dificultan la aplicación práctica de las probabilidades en la evaluación de la seguridad.

La seguridad puede tratarse en tres niveles, según el grado de simplificación en el abordaje del problema:

  • Nivel 3: Utiliza el cálculo de probabilidades sin restricciones en la representación de las incertidumbres.
  • Nivel 2: Representa las acciones, resistencias de materiales y secciones mediante distribuciones conocidas o asumidas, definidas por su tipo, media y desviación típica. La fiabilidad se expresa con el “índice de seguridad” (β).
  • Nivel 1: Establece niveles de fiabilidad estructural aplicando factores parciales de seguridad a valores nominales preestablecidos de las variables fundamentales.

Los métodos de nivel 2 y 3 emplean probabilidades que están vinculadas a hipótesis apriorísticas sobre las distribuciones de los datos.

En cambio, el método de nivel 1, conocido como método semiprobabilístico, considera solo ciertos elementos que se pueden cuantificar de manera probabilística, mientras que las demás incertidumbres se abordan mediante factores empíricos que poseen un significado físico específico. Este método es el más simple y ampliamente reconocido en la actualidad.

Os paso un vídeo explicativo sobre conceptos de fiabilidad estructural de Juan Carlos López Agüí, que espero os sea de interés.

Referencias:

GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M.; YANG, D.Y. (2017). Lifetime Reliability-Based Optimization of Post-Tensioned Box-Girder Bridges. Engineering Structures, 145:381-391. DOI:10.1016/j.engstruct.2017.05.013

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.