El concepto de seguridad de una estructura en cumplir un conjunto de funciones para las que ha sido proyectada es un término relacionado con el grado de certeza o fiabilidad de que no alcance un conjunto de estados no deseables que todavía no han acontecido.
La seguridad se representa por consiguiente como un aspecto antagónico al aspecto económico del dimensionamiento: una estructura proyectada para un coste pequeño puede resultar poco segura y, por el contrario, una estructura proyectada para ser muy segura puede resultar antieconómica. La solución debe quedar en un término adecuado.
El concepto de seguridad en una estructura se refiere a su capacidad para cumplir con las funciones previstas, garantizando un nivel de fiabilidad que evite la ocurrencia de estados no deseados. La seguridad se contrapone al aspecto económico del diseño: una estructura económica puede ser menos segura, mientras que una estructura altamente segura puede resultar costosa. Por lo tanto, es necesario encontrar un equilibrio adecuado entre ambos aspectos.
El objetivo principal del Proyecto de Ingeniería Estructural consiste en garantizar que la estructura cumpla satisfactoriamente con su función original. El mantenimiento de esta funcionalidad a lo largo de su vida útil depende de diversos factores o parámetros que tradicionalmente se han considerado como cantidades deterministas.
Sin embargo, evaluar la seguridad en ingeniería es complicado debido a varios factores. En primer lugar, los accidentes pueden ocurrir por causas no relacionadas con los cálculos realizados, como erosiones o modelos inadecuados. Además, tratar el problema de forma aleatoria puede llevar a considerar la probabilidad como medida universal e invariable de seguridad. Sin embargo, la probabilidad solo es significativa en relación con un conjunto coherente de conocimientos, como los estados de falla no ocurridos, difíciles de definir. Además, existen incertidumbres que no pueden ser objetivamente cuantificadas mediante probabilidades. Por lo tanto, las probabilidades solo pueden ser definidas dentro de un contexto específico y los cálculos de probabilidad son meramente convencionales. Además, si bien medir el margen de seguridad a través de una magnitud física puede ser útil en un problema particular, no todas las magnitudes son adecuadas en todos los casos generales. Por ejemplo, las tensiones no son una magnitud adecuada para el estudio del equilibrio estático, y evaluar el margen de seguridad basándose en las tensiones puede ser incorrecto en problemas no lineales.
En el contexto de la Teoría de la Fiabilidad Estructural, Armen Der Kiureghian presenta los siguientes tipos de incertidumbres. En primer lugar, están las incertidumbres físicas, que surgen debido a la inherente variabilidad de las magnitudes físicas involucradas en el problema, como dimensiones, propiedades del material, cargas y resistencia. En segundo lugar, encontramos las incertidumbres estadísticas, que se originan a partir de los modelos probabilísticos utilizados para caracterizar las Variables Básicas del problema. Estas incertidumbres se deben a las aproximaciones necesarias para seleccionar las Funciones de Distribución y estimar sus parámetros, debido a la falta de información disponible. En tercer lugar, se presentan las incertidumbres del modelo, que son generadas por las hipótesis simplificativas realizadas en los modelos matemáticos empleados para describir la respuesta de un sistema estructural. Estas simplificaciones incluyen aspectos como la homogeneidad, el comportamiento elástico o elastoplástico, las pequeñas deformaciones y las condiciones de contorno. Aunque la variabilidad de los dos últimos tipos de incertidumbres puede reducirse a través del estudio e investigación, las incertidumbres físicas del primer tipo son inevitables.
En el pasado, las construcciones se basaban en métodos empíricos, confiando en la experiencia y la intuición del constructor para garantizar la seguridad. Sin embargo, en la actualidad, la experiencia debe complementarse con los resultados obtenidos, ya que la rápida evolución técnica puede presentar situaciones no experimentadas previamente. Con el surgimiento de la construcción metálica en el siglo XIX y el enfoque en la Resistencia de Materiales, se introdujo el método de tensiones admisibles. Este método implica un enfoque determinista en las variables utilizadas, donde la seguridad se basa en el margen establecido por las tensiones admisibles. Estas tensiones se obtienen mediante el cociente entre la resistencia del material y un coeficiente de seguridad, mientras que las cargas variables se establecen de manera empírica y arbitraria.
El desarrollo de la Teoría de la Elasticidad permitió aplicar este método en la construcción de hormigón armado, pero presenta desafíos. Cuando el comportamiento no es lineal debido a los materiales o la geometría de la estructura, las tensiones admisibles no reflejan el margen real de seguridad. Además, el comportamiento del hormigón y el acero dificulta definir el fallo en términos de tensiones. No se consideran los efectos de la adaptación plástica del hormigón, donde la tensión en un punto no determina la confiabilidad estructural si hay una fase de adaptación plástica que redistribuye los esfuerzos. Además, no se distinguen los diferentes tipos de acciones cuya influencia en la seguridad es distinta. No obstante, este método ha sido utilizado con profusión durante la primera mitad del siglo XX.
La Teoría de la Fiabilidad, que inicialmente se aplicaba a procesos industriales de producción en serie, se adaptó en 1960 al campo de la Ingeniería Estructural. El objetivo era desarrollar métodos que permitieran determinar los niveles de seguridad de los Sistemas Estructurales, mediante un enfoque racional de las incertidumbres presentes en ellos. Desde entonces, esta área de investigación ha experimentado un notable impulso, y los fundamentos teóricos desarrollados han dejado de ser exclusivamente un tema de investigación académica para convertirse en un conjunto de metodologías con una amplia gama de aplicaciones prácticas.
No obstante, los avances tecnológicos y los métodos de análisis han permitido realizar estudios de seguridad más precisos en las estructuras mediante la incorporación de modelos estadísticos y de probabilidad en los cálculos. Desde los primeros intentos, como el de Max Mayer en 1926, numerosos autores han contribuido al desarrollo del enfoque probabilístico y a su aplicación práctica. Para emplear la probabilidad en los cálculos, es necesario definir un conjunto coherente de eventos no deseados, denominados “estados límite”. Estos estados límite representan condiciones en las que una estructura o uno de sus elementos deja de cumplir su función de manera inmediata o progresiva. La seguridad se caracteriza por la probabilidad o conjunto de probabilidades de que los estados límite no sean superados. Al elegir la probabilidad de ocurrencia de un estado límite como medida convencional de la seguridad, es necesario establecer los valores aplicables en la práctica.
A primera vista, podría parecer que el uso de probabilidades resuelve por completo el problema de medir la seguridad. Sin embargo, su implementación enfrenta dos dificultades. Por un lado, están los datos que no se pueden cuantificar de manera probabilística debido a su naturaleza. Por otro lado, resulta prácticamente imposible conocer con precisión la probabilidad real de alcanzar un estado límite. Estas limitaciones dificultan la aplicación práctica de las probabilidades en la evaluación de la seguridad.
La seguridad puede tratarse en tres niveles, según el grado de simplificación en el abordaje del problema:
- Nivel 3: Utiliza el cálculo de probabilidades sin restricciones en la representación de las incertidumbres.
- Nivel 2: Representa las acciones, resistencias de materiales y secciones mediante distribuciones conocidas o asumidas, definidas por su tipo, media y desviación típica. La fiabilidad se expresa con el “índice de seguridad” (β).
- Nivel 1: Establece niveles de fiabilidad estructural aplicando factores parciales de seguridad a valores nominales preestablecidos de las variables fundamentales.
Los métodos de nivel 2 y 3 emplean probabilidades que están vinculadas a hipótesis apriorísticas sobre las distribuciones de los datos.
En cambio, el método de nivel 1, conocido como método semiprobabilístico, considera solo ciertos elementos que se pueden cuantificar de manera probabilística, mientras que las demás incertidumbres se abordan mediante factores empíricos que poseen un significado físico específico. Este método es el más simple y ampliamente reconocido en la actualidad.
Os paso un vídeo explicativo sobre conceptos de fiabilidad estructural de Juan Carlos López Agüí, que espero os sea de interés.
Referencias:
GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M.; YANG, D.Y. (2017). Lifetime Reliability-Based Optimization of Post-Tensioned Box-Girder Bridges. Engineering Structures, 145:381-391. DOI:10.1016/j.engstruct.2017.05.013
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.