Modelos subrogados para optimizar el coste de pasos superiores pretensados

Acaban de publicar nuestro artículo en la revista Infrastructures, indexada en el JCR. El estudio presenta una metodología de optimización de costes para puentes losa aligerados postesados mediante metamodelos, en la que se destaca la aplicación del modelo Kriging en combinación con algoritmos heurísticos.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València.  A continuación, explicamos brevemente el contenido del artículo que podéis descargar gratuitamente.

La investigación se centra en un puente de tres vanos con luces de 24, 34 y 28 m, y optimiza el diseño estructural para reducir costes sin comprometer los criterios de servicio y seguridad. Se identifica una reducción del 6,54 % en los costes en comparación con enfoques tradicionales, lograda principalmente mediante la disminución del uso de hormigón en un 14,8 % y del pretensado en un 11,25 %.

El trabajo también evalúa distintas técnicas predictivas, como redes neuronales y funciones de base radial, y determina que las redes neuronales presentan el menor error de predicción, aunque requieren varias ejecuciones para garantizar estabilidad. En contraste, el modelo Kriging permite identificar óptimos locales con alta precisión. La metodología propuesta proporciona una estrategia eficiente para la toma de decisiones en ingeniería estructural, que promueve diseños de puentes más rentables sin comprometer el rendimiento estructural.

Figura. Paso superior en la autovía A-7, en Cocentaina (Alicante)

Los resultados indican que la optimización mediante modelos subrogados permite reducir significativamente los costes de diseño de pasos superiores pretensados. La estrategia adoptada optimiza variables como la profundidad de la losa, la geometría de la base y la resistencia del hormigón, y respeta las restricciones impuestas por los estados límite de servicio, que son los últimos según el Eurocódigo 2. Se observa que la metodología basada en kriging y la optimización heurística proporciona resultados prácticos con menor esfuerzo computacional en comparación con la optimización directa de todas las variables estructurales.

El modelo Kriging optimizado mediante Simulated Annealing identificó una configuración de losa con una profundidad de 1,30 m y una base de 3,15 m como la solución más rentable. Esta configuración se corrobora mediante la predicción de redes neuronales, lo que muestra coherencia en la localización del óptimo. En comparación con estudios previos, los resultados indican que la metodología utilizada en este trabajo permite obtener ahorros significativos sin necesidad de analizar exhaustivamente cada alternativa estructural.

A partir de los hallazgos obtenidos, se sugiere explorar la integración de métodos de optimización multiobjetivo que tengan en cuenta no solo el coste, sino también el impacto ambiental y los costes de mantenimiento a lo largo del ciclo de vida del puente. La inclusión de criterios de sostenibilidad podría mejorar la eficiencia global del diseño estructural y su capacidad de adaptación a normativas futuras.

Otra línea de investigación relevante consiste en aplicar modelos subrogados en el diseño de otros tipos de estructuras, como puentes de vigas o marcos de hormigón armado, para evaluar su viabilidad en distintas configuraciones estructurales. Además, el desarrollo de modelos predictivos más sofisticados, que integren aprendizaje automático y simulaciones de alta fidelidad, podría optimizar aún más los diseños propuestos.

Por último, se recomienda estudiar el impacto de la variabilidad de los materiales y las condiciones de carga en la optimización del diseño. La incorporación de análisis probabilísticos mejoraría la fiabilidad de las soluciones obtenidas, ya que se obtendrían diseños estructurales más robustos y seguros.

Referencia:

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

Descargar (PDF, 1.95MB)

Introducción a los Modelos de Ecuaciones Estructurales (SEM)

Simbología y nomenclatura de los modelos PLS (Aldas, 2018)

Los modelos de ecuaciones estructurales (SEM, por sus siglas en inglés) son una técnica estadística multivariante utilizada para analizar y estimar relaciones causales, combinando datos estadísticos con suposiciones cualitativas sobre la causalidad. Esta metodología es especialmente valiosa en las ciencias sociales, la psicología, el marketing y otras disciplinas en las que las relaciones entre variables no son lineales y pueden involucrar tanto variables observables como latentes. Gracias a los SEM, los investigadores no solo pueden comprobar teorías existentes, sino también desarrollar nuevas hipótesis y modelos que reflejen la realidad de los fenómenos estudiados.

Los modelos de ecuaciones estructurales (MES) combinan el análisis factorial y la regresión lineal para evaluar la correspondencia entre los datos observados y el modelo hipotetizado, que se representa mediante un diagrama de senderos. Los MES proporcionan los valores asociados a cada relación del modelo y un estadístico que mide el ajuste de los datos y valida el modelo.

Una de sus principales fortalezas es la capacidad de construir variables latentes, es decir, variables no observables directamente, sino estimadas a partir de otras que covarían entre sí. Esto permite tener en cuenta explícitamente la fiabilidad del modelo. Además, el análisis factorial, el análisis de caminos y la regresión lineal son casos particulares dentro del enfoque de los MES.

Fundamentos teóricos

Variables latentes y observables:

  • Variables latentes: son constructos teóricos que no pueden medirse directamente. Por ejemplo, la «satisfacción del cliente» o «lealtad a la marca» son variables latentes que se infieren a partir de las respuestas a encuestas o del comportamiento observable.
  • Variables observables: son los indicadores que se utilizan para medir las variables latentes. Por ejemplo, en el caso de la satisfacción del cliente, las respuestas a preguntas específicas en una encuesta (como «¿Qué tan satisfecho está con nuestro servicio?»), son variables observables.

Modelo estructural vs. modelo de medida:

  • Modelo estructural: describe las relaciones causales entre las variables latentes. Este modelo permite a los investigadores establecer hipótesis sobre cómo una variable puede influir en otra.
  • Modelo de medida: establece cómo se relacionan las variables observables con las variables latentes. Es fundamental validar este modelo para garantizar que los indicadores reflejan realmente el constructo que se pretende medir.
Ejemplo de un modelo de medida y un modelo estructural

Tipos de modelos

Existen dos enfoques principales en SEM:

Análisis de estructuras de covarianza (CB-SEM):

  • Este enfoque se basa en la matriz de varianza-covarianza y es adecuado para contrastar teorías y probar hipótesis. CB-SEM es una técnica paramétrica que requiere que se cumplan ciertos supuestos estadísticos, como la normalidad multivariada y la independencia de las observaciones.
  • Aplicaciones: Ideal para estudios confirmatorios donde se busca validar teorías existentes. Se utiliza comúnmente en investigaciones que requieren un alto nivel de rigor estadístico.

Mínimos cuadrados parciales (PLS-SEM):

  • Este enfoque es más flexible y no requiere los mismos supuestos rigurosos que CB-SEM. PLS-SEM se centra en maximizar la varianza explicada de las variables latentes dependientes a partir de las variables latentes independientes.
  • Ventajas: Funciona bien con muestras pequeñas y permite la inclusión de constructos formativos, lo que amplía su aplicabilidad en contextos donde los constructos son complejos y multidimensionales.
  • Aplicaciones: Es especialmente útil en estudios exploratorios y en situaciones donde se busca hacer predicciones, como en el análisis de comportamiento del consumidor.

Metodología de PLS-SEM

La metodología de PLS-SEM se puede resumir en varias etapas clave:

  1. Inicialización: Se obtiene una primera aproximación a los valores de las variables latentes a partir de sus indicadores. Este paso es crucial para establecer un punto de partida en el proceso de estimación.
  2. Estimación de coeficientes de regresión: Se estiman los pesos o coeficientes de regresión de las variables latentes. Este proceso implica calcular las relaciones entre las variables latentes y sus indicadores, así como entre las variables latentes mismas.
  3. Optimización: Se busca maximizar el coeficiente de determinación (R²) de los factores latentes mediante un proceso iterativo. Este proceso de optimización es fundamental para mejorar la precisión de las estimaciones y asegurar que el modelo se ajuste adecuadamente a los datos.
  4. Evaluación de la validez y fiabilidad: Se analizan los constructos para asegurar que miden correctamente lo que se pretende medir. Esto incluye:
    —Fiabilidad individual: Evaluación de la consistencia interna de cada indicador utilizando el alfa de Cronbach.
    —Validez convergente: Medida a través de la varianza extraída (AVE), que debe ser superior a 0,5 para indicar que los indicadores reflejan el mismo constructo.
    —Validez discriminante: Comparación de las correlaciones entre constructos para asegurar que cada constructo es significativamente diferente de los demás. Esto se puede evaluar utilizando el criterio de Fornell-Larcker, que establece que la raíz cuadrada del AVE de cada constructo debe ser mayor que las correlaciones entre constructos.

Ventajas y desventajas de PLS-SEM

Ventajas:

  • Flexibilidad: PLS-SEM no requiere normalidad multivariada, lo que lo hace más accesible para investigadores en ciencias sociales que trabajan con datos no normales.
  • Muestras pequeñas: Funciona bien con muestras pequeñas, lo que es ventajoso en estudios exploratorios donde la recolección de datos puede ser limitada.
  • Constructos formativos: Permite la inclusión de constructos formativos, lo que amplía su aplicabilidad en contextos donde los constructos son complejos y multidimensionales.

Desventajas:

  • Falta de indicadores de ajuste global: PLS-SEM no proporciona indicadores de ajuste global del modelo, lo que puede limitar la comparación entre modelos y la evaluación de su calidad.
  • Restricciones en la estructura del modelo: Cada variable latente debe estar conectada a otra mediante una relación estructural, lo que puede ser restrictivo en algunos contextos.
  • Estimaciones no óptimas: La estimación de parámetros no es óptima en términos de sesgo y consistencia a menos que se utilice el algoritmo PLS consistente, lo que puede afectar la validez de los resultados.

Presentación de resultados

Al presentar los resultados de un análisis SEM, se recomienda estructurarlos en tablas que resuman la fiabilidad y validez del instrumento de medida, así como los análisis de validez discriminante y las hipótesis contrastadas. Así se facilita la comprensión y la interpretación de los resultados por parte de otros investigadores y lectores. La presentación clara y concisa de los resultados es esencial para garantizar la reproducibilidad y la transparencia de la investigación.

Tablas recomendadas:

  • Tabla de fiabilidad y validez: Resumen de los índices de fiabilidad (alfa de Cronbach, fiabilidad compuesta) y validez (AVE).
  • Tabla de validez discriminante: Comparación de las correlaciones entre constructos y sus AVE.
  • Tabla de resultados estructurales: Coeficientes de regresión, R² y significancia de las relaciones estructurales.

Conclusión

Los modelos de ecuaciones estructurales son una herramienta muy valiosa en la investigación social y del comportamiento, ya que permiten a los investigadores modelar y analizar relaciones complejas entre variables. La elección entre CB-SEM y PLS-SEM dependerá de los objetivos de la investigación, la naturaleza de los datos y las hipótesis planteadas. Con una correcta aplicación y validación, SEM puede proporcionar información significativa y fiable en diversas áreas de estudio, contribuyendo al avance del conocimiento en múltiples disciplinas. Para cualquier investigador que busque explorar las complejidades de las relaciones entre variables en su campo de estudio, es esencial comprender profundamente esta metodología y aplicarla correctamente.

Referencias:

Aldás, J. (2018). Modelización estructural mediante Partial Least Squares-PLSPM. Apuntes del seminario de modelización estructural.

Bagozzi, R. P., & Yi, Y. (1988). On the evaluation of structural equation models. Journal of the Academy of Marketing Science, 16(1), 74–94.

Fornell, C., & Bookstein, F. L. (1982). Two structural equation models: LISREL and PLS applied to consumer exit-voice theory. Journal of Marketing Research, 19(4), 440–452.

Hair, J. F., Hult, G. T. M., Ringle, C. M., & Sarstedt, M. (2014). A primer on partial least square structural equation modeling (PLS-SEM). California, United States: Sage.

López, S., & Yepes, V. (2024). Visualizing the future of knowledge sharing in SMEs in the construction industry: A VOS-viewer analysis of emerging trends and best practices. Advances in Civil Engineering, 2024, 6657677.

Yepes, V., & López, S. (2023). The knowledge sharing capability in innovative behavior: A SEM approach from graduate students’ insights. International Journal of Environmental Research and Public Health, 20(2), 1284.

Os dejo a continuación un artículo explicativo al respecto. Espero que os sea de interés.

Descargar (PDF, 273KB)

También os pueden ser útiles algunos vídeos al respecto.


Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Introducción a la teoría de juegos

https://upload.wikimedia.org/wikipedia/

La teoría de juegos es un área de las matemáticas aplicadas que utiliza modelos para estudiar interacciones en estructuras formales de incentivos, es decir, los llamados «juegos».

Se ha convertido en una herramienta clave para la economía y la administración de empresas, ya que ayuda a entender mejor la conducta humana en la toma de decisiones.

Los investigadores analizan las estrategias óptimas, así como el comportamiento previsto y observado de los individuos en dichos juegos. Tipos de interacción aparentemente distintos pueden tener estructuras de incentivos similares, lo que permite representar el mismo juego una y otra vez.

La teoría de juegos estudia las estrategias óptimas de los jugadores, así como su comportamiento previsto y observado, y ha contribuido a una mejor comprensión de la toma de decisiones humana.

La teoría de juegos aborda situaciones de decisión en las que hay dos oponentes inteligentes con objetivos opuestos. Algunos ejemplos típicos son las campañas de publicidad para productos de la competencia y las estrategias bélicas entre ejércitos. Estas situaciones difieren de las estudiadas previamente, en las que no se tiene en cuenta a la naturaleza como oponente adverso.

El juego es un modelo matemático que se utiliza para entender la toma de decisiones y la interacción entre los participantes, siendo el «dilema del prisionero» uno de los más conocidos. En este escenario, dos personas son arrestadas y encarceladas, y se fija la fecha del juicio. El fiscal se entrevista con cada prisionero por separado y les ofrece la siguiente opción: si uno confiesa y el otro no, el que confiesa queda libre y el otro recibe 20 años de prisión; si ambos confiesan, ambos cumplen 5 años; y si ninguno confiesa, ambos reciben 1 año de prisión. En este dilema, el destino de cada uno depende de la decisión del otro. Aunque confesar parece ser lo mejor, si ambos lo hacen, el castigo es peor que si guardan silencio.

https://www.bbc.com/mundo/noticias/2015/02/150220_teoria_de_juegos_que_es_finde_dv

La teoría de juegos se ha desarrollado y formalizado a partir de los trabajos de John von Neumann y Oskar Morgenstern, especialmente durante la Guerra Fría, debido a su aplicación en la estrategia militar. Los principales conceptos de la teoría de juegos incluyen los juegos de suma cero, los juegos de suma no cero, los equilibrios de Nash, los juegos cooperativos y los juegos de información perfecta e imperfecta.

En la teoría de juegos existen conceptos fundamentales para entender las interacciones estratégicas entre los agentes. Algunos de ellos son:

  • Estrategia: conjunto de acciones posibles que un jugador puede llevar a cabo en un juego. Las estrategias pueden ser puras (una acción única) o mixtas (una distribución de probabilidad sobre varias acciones).
  • Equilibrio de Nash: situación en la que ningún jugador tiene incentivos para cambiar su estrategia, dado el conjunto de estrategias de los demás. Es un concepto clave que describe una situación estable en la que las decisiones de los jugadores están equilibradas.
  • Juego de suma cero: tipo de juego en el que la ganancia total es constante, es decir, lo que uno gana, otro lo pierde. En estos juegos, el objetivo es maximizar la ganancia propia a expensas de los demás jugadores.

La matriz de recompensas es una herramienta clave en la teoría de juegos que representa las combinaciones de decisiones de los jugadores. Muestra los resultados, generalmente en forma de recompensas, para cada jugador según las decisiones de todos los participantes. Es decir, describe cómo las elecciones de cada jugador afectan a sus pagos o beneficios según las decisiones de los demás.

En un conflicto de este tipo hay dos jugadores, cada uno con una cantidad (finita o infinita) de alternativas o estrategias. Cada par de estrategias tiene una recompensa que un jugador paga al otro. A estos juegos se les llama de suma cero, ya que la ganancia de un jugador es igual a la pérdida del otro. Si los jugadores se representan por A y B, con m y n estrategias respectivamente, el juego se suele ilustrar con la matriz de recompensas para el jugador A.

La representación indica que si A usa la estrategia i y B usa la estrategia j, la recompensa para A es aij, y entonces la recompensa para B es —aij.

Aquí os dejo un esquema conceptual sobre la teoría de juegos.

Os dejo unos vídeos explicativos, que espero, os sea de interés:

En este vídeo se presentan los conceptos fundamentales de la teoría de juegos, que estudia cómo las decisiones de varios jugadores están interconectadas en situaciones estratégicas. A través de ejemplos visuales como matrices y árboles de decisión, se explica cómo los jugadores eligen estrategias para maximizar su utilidad teniendo en cuenta las acciones de los demás. Se destaca la importancia de entender los pagos y resultados de cada estrategia, lo que permite analizar comportamientos competitivos y cooperativos en diversos contextos.

En este otro vídeo se explican distintos tipos de juegos en teoría de juegos, como el dilema del prisionero, el juego del gato y el ratón y la batalla de los sexos, y se destacan sus equilibrios de Nash y las estrategias cooperativas o no cooperativas.

Referencias:

  • Binmore, K. (1994). Teoría de juegos. McGraw-Hill.
  • Friedman, J. W. (1991). Teoría de juegos con aplicaciones a la economía. Alianza Universidad.
  • Kreps, D. M. (1994). Teoría de juegos y modelación económica. Fondo de Cultura Económica.
  • Martínez-Muñoz, D., Martí, J. V., & Yepes, V. (2025). Game theory-based multi-objective optimization for enhancing environmental and social life cycle assessment in steel-concrete composite bridges. Mathematics, 13(2), 273. https://doi.org/10.3390/math13020273
  • Meyerson, R. (1991). Game theory: Analysis of conflict. Harvard University Press.
  • Nash, J. (1950). Equilibrium points in n-person games. Proceedings of the National Academy of the USA, 36(1), 48-49.
  • Poundstone, W. (1992). Prisoner’s dilemma: John von Neumann, game theory, and the puzzle of the bomb. Doubleday.

Licencia de Creative Commons

Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Fases de un estudio de investigación operativa

La investigación operativa busca determinar la solución óptima para un problema de decisión con recursos limitados. Se trata de un procedimiento científico que analiza las actividades de un sistema de organización.

Las principales componentes de un modelo de investigación operativa son: alternativas, restricciones y un criterio objetivo para elegir la mejor opción. Las alternativas se representan como variables desconocidas que luego se utilizan para construir las restricciones y la función objetivo mediante métodos matemáticos. El modelo matemático establece la relación entre estas variables, restricciones y función objetivo. La solución consiste en asignar valores a las variables para optimizar (maximizar o minimizar) la función objetivo y cumplir con las restricciones. A esta solución se le denomina solución posible óptima.

El enfoque del estudio de la ingeniería de operaciones está relacionado con la toma de decisiones para aprovechar al máximo los recursos limitados. Para ello, utiliza herramientas y modelos adaptados a las necesidades para facilitar la toma de decisiones en la resolución de problemas. Implica un trabajo en equipo entre analistas y clientes, con una estrecha colaboración. Los analistas aportan conocimientos de modelado y el cliente, experiencia y cooperación.

Como herramienta para la toma de decisiones, la investigación de operaciones combina ciencia y arte. Es ciencia por sus técnicas matemáticas y arte, porque el éxito en todas las fases, antes y después de resolver el modelo matemático, depende de la creatividad y experiencia del equipo. La práctica efectiva de la investigación de operaciones requiere más que competencia analítica, e incluye la capacidad de juzgar cuándo y cómo utilizar una técnica, así como habilidades de comunicación y adaptación organizativa.

Es complicado recomendar acciones específicas, como las de la teoría precisa de los modelos matemáticos, para abordar factores intangibles. Solo pueden ofrecerse directrices generales para aplicar la investigación de operaciones en la práctica.

El estudio de investigación operativa consta de varias etapas principales, entre las que destacan las siguientes:

  1. Formulación y definición del problema.
  2. Construcción del modelo.
  3. Solución del modelo.
  4. Verificación del modelo y de la solución.
  5. Puesta en práctica y mantenimiento de la solución.

Aunque las fases del proyecto suelen iniciarse en el orden establecido, no suelen completarse en el mismo orden. La interacción entre las fases requiere revisarlas y actualizarlas continuamente hasta la finalización del proyecto. La tercera fase es la única de carácter puramente matemático, ya que en ella se aplican las técnicas y teorías matemáticas necesarias para resolver el problema. El éxito de las demás etapas depende más de la práctica que de la teoría, siendo la experiencia el factor clave para su correcta ejecución.

Definir el problema implica determinar su alcance, tarea que lleva a cabo todo el equipo de investigación de operaciones. El resultado final debe identificar tres elementos principales: 1) descripción de las alternativas de decisión, 2) determinación del objetivo del estudio y 3) especificación de las restricciones del sistema modelado. Además, se deben recolectar los datos necesarios.

La formulación del modelo es quizá la fase más delicada del proceso, ya que consiste en traducir el problema a relaciones matemáticas. Si el modelo se ajusta a un modelo matemático estándar, como la programación lineal, puede resolverse con los algoritmos correspondientes. Para ello, deben definirse las variables de decisión, la función objetivo y las restricciones. Si las relaciones son demasiado complejas para una solución analítica, se puede simplificar el modelo mediante un método heurístico o recurrir a una simulación aproximada. En algunos casos, puede ser necesaria una combinación de modelos matemáticos, simulaciones y heurísticas para resolver el problema de toma de decisiones.

La solución del modelo es la fase más sencilla de la investigación de operaciones, ya que utiliza algoritmos de optimización bien definidos para encontrar la solución óptima. Un aspecto clave es el análisis de sensibilidad, que proporciona información sobre la forma en que la solución óptima responde a cambios en los parámetros del modelo. Esto es crucial cuando los parámetros no se pueden estimar con precisión, puesto que permite estudiar cómo varía la solución cerca de los valores estimados.

La validación del modelo verifica si cumple su propósito, es decir, si predice adecuadamente el comportamiento del sistema estudiado. Para ello, se evalúa si la solución tiene sentido y si los resultados son aceptables, comparando la solución con datos históricos para verificar si habría sido la correcta. Sin embargo, esto no garantiza que el futuro imite al pasado. Si el modelo representa un sistema nuevo sin datos históricos, se puede usar una simulación como herramienta independiente para comprobar los resultados del modelo matemático.

La implantación de la solución de un modelo validado consiste en traducir los resultados en instrucciones claras para quienes gestionarán el sistema recomendado. Esta tarea recae principalmente en el equipo de investigación de operaciones. En esta fase, el equipo debe capacitar al personal encargado de aplicar el modelo, asegurándose de que puedan traducir sus resultados en instrucciones de operación y usarlo correctamente para tomar decisiones sobre los problemas que motivaron su creación.

Os dejo algún vídeo al respecto.

Referencias:

Altier, W. J. (1999). The thinking manager’s toolbox: Effective processes for problem solving and decision making. Oxford University Press.

Checkland, P. (1999). Systems thinking, system practice. Wiley.

Evans, J. (1991). Creative thinking in the decision and management sciences. South-Western Publishing.

Gass, S. (1990). Model world: Danger, beware the user as a modeler. Interfaces, 20(3), 60-64.

Morris, W. (1967). On the art of modeling. Management Science, 13, B707-B717.

Paulos, J. A. (1988). Innumeracy: Mathematical illiteracy and its consequences. Hill and Wang.

Taha, H. A., & Taha, H. A. (2003). Operations research: an introduction (Vol. 7). Upper Saddle River, NJ: Prentice hall.

Willemain, T. R. (1994). Insights on modeling from a dozen experts. Operations Research, 42(2), 213-222.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Algunas reflexiones sobre el impacto del cambio climático en el comportamiento de las infraestructuras

El diseño estructural de infraestructuras, como edificios y puentes, se basa en códigos que establecen los criterios necesarios para garantizar su resistencia a diversas condiciones climáticas y ambientales. Estos códigos se actualizan periódicamente para reflejar los avances científicos y tecnológicos. Sin embargo, el cambio climático plantea un desafío disruptivo, ya que altera las condiciones climáticas de manera impredecible, lo que cuestiona la suposición de que las cargas climáticas son estacionarias.

En estas líneas se aborda cómo la transición del diseño estructural basado en estados límites ha influido en la forma en que se tienen en cuenta las variables climáticas. También aborda las dificultades que surgen al integrar el cambio climático en los modelos de riesgo estructural y analiza la necesidad de ajustar los métodos de estimación y diseño para tener en cuenta la creciente incertidumbre sobre el futuro climático.

Estas reflexiones se enmarcan dentro del proyecto RESILIFE, que actualmente desarrollo como investigador principal, y se han basado en algunas ideas desarrolladas en el trabajo reciente de Ellingwood et al. (2024).

Los códigos estructurales establecen los criterios necesarios para diseñar edificios, puentes y otras infraestructuras capaces de resistir las demandas de uso y los eventos ambientales o climáticos, como la nieve, el hielo, las lluvias, las tormentas de viento e inundaciones fluviales y costeras. Para garantizar que reflejen los últimos avances en ciencia e ingeniería, estos códigos se actualizan periódicamente, generalmente cada 5 o 10 años.

En las últimas cuatro décadas, los códigos estructurales de todo el mundo, como el “Minimum Design Loads and Associated Criteria for Buildings and Other Structures (ASCE 7-22)”, las “LRFD Bridge Design Specifications (AASHTO)”, el “International Building Code“, el “National Building Code of Canada” y los Eurocódigos, han adoptado los principios del diseño basado en estados límite. Durante este tiempo, los ingenieros estructurales y la normativa han reconocido la importancia de las herramientas de análisis de fiabilidad estructural y gestión del riesgo para modelar las incertidumbres asociadas a las cargas estructurales y la respuesta de las estructuras, y así garantizar un rendimiento adecuado en servicio (García-Segura et al., 2017). Con la transición del diseño basado en tensiones admisibles al diseño por estados límite, los criterios para las cargas climáticas han evolucionado gradualmente. Hasta ahora, estos criterios, basados en registros climáticos históricos y en evaluaciones de fiabilidad estructural, han tratado las cargas operativas y climáticas como estacionarias, asumiendo que el pasado es representativo del futuro.

El cambio climático plantea un desafío disruptivo y significativo para la evolución gradual de los códigos basados en el riesgo, así como para las prácticas de diseño estructural (ASCE, 2015a, 2018). La suposición de estacionariedad en el análisis de riesgos naturales deja de ser válida al tener en cuenta los efectos del cambio climático. Además, las incertidumbres asociadas a las proyecciones climáticas para el resto del siglo XXI son considerables, especialmente en lo que respecta a las cargas de viento, hielo y nieve (Tye et al., 2021). Las condiciones climáticas más agresivas podrían acelerar el deterioro estructural en ciertos casos, así como aumentar la intensidad y duración de los peligros. El cambio climático también ha suscitado controversia desde el punto de vista económico y político. Lograr consenso en los comités encargados de los códigos sobre el impacto del cambio climático en las infraestructuras requerirá una gestión técnica eficaz y una separación clara entre los aspectos políticos, como las causas del cambio climático, y los aspectos técnicos, como su impacto en las estructuras. Asimismo, podría haber oposición pública ante los costes adicionales que conlleven las modificaciones en los códigos climáticos. No obstante, ignorar los efectos del cambio climático en el comportamiento a largo plazo de las estructuras e infraestructuras podría incrementar el riesgo de daños y fallos, aumentar los costes de diseño, construcción y mantenimiento, agravar problemas de salud y seguridad públicas, interrumpir servicios esenciales y generar impactos socioeconómicos y ambientales negativos a nivel nacional.

Es fundamental abordar varias preguntas clave para considerar las exigencias del cambio climático en el desarrollo de los códigos estructurales. Entre ellas se encuentran (Ellingwood et al., 2024) :

  • ¿Cómo se debe modelar la no estacionariedad en la ocurrencia e intensidad de los eventos climáticos extremos provocados por el cambio climático?
  • ¿Cómo se deben integrar estas incertidumbres en un análisis de fiabilidad estructural dependiente del tiempo, con el fin de estimar el comportamiento futuro y demostrar el cumplimiento de los objetivos de rendimiento expresados en términos de fiabilidad?
  • ¿Cómo se puede convencer a los ingenieros estructurales y al público en general de la necesidad de aceptar estos cambios en interés nacional (Cooke, 2015), incluso si en algunos casos los costes de los sistemas de infraestructura aumentan?

Problemas y desafíos en el análisis de datos climáticos para el diseño estructural

Las variables climáticas empleadas en los códigos estructurales se basan principalmente en datos históricos. Los vientos extratropicales, la nieve, la temperatura y las precipitaciones se analizan exclusivamente a partir de estos datos. En el caso de los huracanes, se integran datos históricos en un marco que modela su génesis en la cuenca del Atlántico Norte, su desarrollo hasta convertirse en huracanes plenamente formados que impactan en infraestructuras costeras y su disipación tras tocar tierra. Estos análisis suponen que las variables climáticas pueden evaluarse como si fueran estacionarias, es decir, que el pasado es representativo del futuro y que sus intensidades pueden determinarse en función de sus periodos de retorno. Los datos se han recopilado para fines distintos al diseño de edificaciones, como la aviación comercial, la hidrología local, la gestión de recursos hídricos y la agricultura, y generalmente abarcan menos de 100 años.

La mayoría de las variables climáticas incluidas en los códigos se suelen determinar ajustando el parámetro extremo anual a una distribución de probabilidad. Entre las distribuciones más comunes utilizadas para este propósito se encuentran la distribución Tipo I de valores máximos y la distribución generalizada de valores extremos. El periodo de retorno o intervalo medio de recurrencia de una carga se calcula como el recíproco de la probabilidad anual de que dicha carga se supere. El error de muestreo en la estimación de los eventos base de diseño en una secuencia estacionaria para periodos de retorno superiores a 100 años puede ser considerable. Sin embargo, las estimaciones de las medias de las muestras suelen ser razonablemente estables cuando se actualizan en intervalos típicos de 10 años con datos climáticos adicionales.

La suposición de estacionariedad en los datos no puede justificarse en un contexto de cambio climático (Pandey y Lounis, 2023), y el concepto de un evento asociado a un periodo de retorno específico no es aplicable en sentido estricto. El aumento (o disminución) de las variables climáticas, junto con la creciente incertidumbre en los modelos de predicción climática, especialmente a partir del año 2060, afectará a la forma de analizar y especificar los datos para fines de diseño estructural. Quizás lo más relevante sea el impacto que tendrá sobre la forma en que se comunicarán los peligros de diseño a la comunidad profesional de la ingeniería y a sus clientes (Cooke, 2015).  Ellingwood et al. (2024) recuerdan claramente la confusión generada por el concepto de periodo de retorno cuando se introdujo a finales de la década de 1960. El periodo de retorno se concibió como una herramienta para reconocer que el parámetro de carga es aleatorio y para definir indirectamente la probabilidad anual de que se supere su intensidad de diseño, sin necesidad de recurrir a probabilidades pequeñas que no eran habituales entre los ingenieros estructurales de esa época. Esto podría explicar por qué algunos investigadores climáticos han intentado presentar sus estimaciones de parámetros utilizando el concepto de periodo de retorno (Ribereau et al., 2008; Salas y Obeysekera, 2014). Este problema requiere una reflexión cuidadosa al tratar con un clima cambiante, donde las probabilidades anuales no son constantes a lo largo de la vida útil de una estructura.

El crecimiento proyectado de las variables climáticas y sus incertidumbres más allá del año 2060 indica que será necesario desarrollar métodos para gestionar la incertidumbre epistémica -se refiere a la incertidumbre del modelo- en la estimación de parámetros, un aspecto que no se había tenido en cuenta previamente al estimar las variables climáticas para desarrollar códigos estructurales. Aunque la precisión de las técnicas generales de pronóstico climático ha mejorado gracias a la recopilación continua de datos, los modelos climáticos actuales son más capaces de predecir el impacto del cambio climático sobre la temperatura y las precipitaciones que sobre fenómenos como inundaciones, nevadas y vientos. Esto resulta problemático a la hora de considerar los niveles de probabilidad apropiados para el análisis de seguridad estructural.

Las futuras investigaciones podrían centrarse en el desarrollo de modelos más precisos para cargas climáticas específicas, como ciclones tropicales o sequías prolongadas, que aún presentan elevadas incertidumbres en sus proyecciones. Además, sería valioso explorar la aplicación de estos principios a sistemas de infraestructura emergentes, como redes de energía renovable o tecnologías de transporte resilientes. Por último, se sugiere investigar métodos para integrar datos climáticos en tiempo real en el diseño y seguimiento de infraestructuras, fomentando un enfoque dinámico y adaptable al cambio climático.

En resumen, los códigos estructurales establecen los criterios necesarios para diseñar infraestructuras capaces de resistir eventos climáticos como tormentas, nieve e inundaciones, y se actualizan periódicamente para reflejar los avances científicos y tecnológicos. Sin embargo, el cambio climático plantea un reto significativo, ya que altera las condiciones climáticas de manera impredecible, lo que hace que la suposición de estacionariedad que hasta ahora ha guiado el diseño estructural sea obsoleta. Este artículo explora cómo los códigos estructurales han evolucionado hacia un diseño basado en estados límite y la necesidad urgente de ajustar los métodos de análisis de riesgos ante la creciente incertidumbre climática. Además, se analizan los problemas derivados del uso exclusivo de datos históricos para modelar cargas climáticas y las dificultades que plantea el cambio climático a la hora de predecir eventos extremos. Finalmente, se destaca la necesidad de desarrollar nuevos modelos y enfoques analíticos que garanticen la seguridad de las infraestructuras en un entorno climático en constante cambio.

Os dejo un mapa conceptual sobre las reflexiones anteriores.

Referencias:

ASCE (2015). Adapting infrastructure and civil engineering practice to a changing climate. Committee on Adaptation to a Changing Climate. American Society of Civil Engineers.

ASCE (2018). Climate-resilient infrastructure: Adaptive design and risk management. Reston, VA: Committee on Adaptation to a Changing Climate. American Society of Civil Engineers.

Cooke, R. M. (2015). Messaging climate change uncertainty. Nature Climate Change5(1), 8-10.

Ellingwood, B. R., Bocchini, P., Lounis, Z., Ghosn, M., Liu, M., Yang, D., Capacci, L., Diniz, S., Lin, N., Tsiatas, G., Biondini, F., de Lindt, J., Frangopol, D.M., Akiyama, M., Li, Y., Barbato, M., Hong, H., McAllister, T., Tsampras, G. & Vahedifard, F. (2024). Impact of Climate Change on Infrastructure Performance. In Effects of Climate Change on Life-Cycle Performance of Structures and Infrastructure Systems: Safety, Reliability, and Risk (pp. 115-206). Reston, VA: American Society of Civil Engineers.

García-Segura, T., Yepes, V., Frangopol, D. M., & Yang, D. Y. (2017). Lifetime reliability-based optimization of post-tensioned box-girder bridges. Engineering Structures145, 381-391.

Pandey, M. D., & Lounis, Z. (2023). Stochastic modelling of non-stationary environmental loads for reliability analysis under the changing climate. Structural Safety103, 102348.

Ribereau, P., Guillou, A., & Naveau, P. (2008). Estimating return levels from maxima of non-stationary random sequences using the Generalized PWM method. Nonlinear Processes in Geophysics15(6), 1033-1039.

Salas, J. D., & Obeysekera, J. (2014). Revisiting the concepts of return period and risk for nonstationary hydrologic extreme events. Journal of hydrologic engineering19(3), 554-568.

Tye, M. R., & Giovannettone, J. P. (2021, October). Impacts of future weather and climate extremes on United States infrastructure: Assessing and prioritizing adaptation actions. Reston, VA: American Society of Civil Engineers.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Gemelo digital para la gestión predictiva de infraestructuras civiles

El artículo presenta un marco conceptual para el desarrollo de gemelos digitales aplicados a estructuras de ingeniería civil que combina modelos basados en la física con técnicas avanzadas de aprendizaje profundo. Se propone una integración dinámica entre el sistema físico y su representación digital mediante redes bayesianas dinámicas, lo que permite la toma de decisiones informada y la optimización continua. Entre las contribuciones destacadas, se encuentra la implementación de modelos de aprendizaje profundo para diagnosticar el estado estructural en tiempo real a partir de datos de sensores. Además, el enfoque incluye un proceso de aprendizaje previo fuera de línea para optimizar las políticas de mantenimiento.

La investigación presenta casos de estudio que validan la viabilidad del marco propuesto: una viga en voladizo en forma de L y un puente ferroviario. En estos ejemplos, se demuestra la capacidad del sistema para predecir el deterioro estructural y sugerir las acciones de mantenimiento adecuadas. El uso de modelos de orden reducido permite gestionar el coste computacional de manera eficiente y garantizar la aplicabilidad práctica del enfoque.

Introducción

La gestión eficiente de estructuras de ingeniería civil, como puentes, edificios y otras infraestructuras críticas, es un desafío constante debido al envejecimiento, el uso intensivo y los cambios en las condiciones ambientales. Un mantenimiento inadecuado puede provocar fallos catastróficos con consecuencias sociales, económicas y medioambientales significativas. En este contexto, los gemelos digitales han emergido como una tecnología prometedora para mejorar la supervisión, el mantenimiento y la toma de decisiones.

Un gemelo digital es una réplica virtual de un activo físico que se actualiza continuamente con datos obtenidos de sensores instalados en el activo real. Esto permite simular su comportamiento, predecir su evolución y planificar intervenciones de manera óptima. El concepto se ha explorado ampliamente en sectores como el aeroespacial y el manufacturero, pero su aplicación en el ámbito de la ingeniería civil es relativamente reciente.

En el campo de los gemelos digitales para ingeniería civil, las investigaciones previas han abordado diferentes aspectos del monitoreo estructural, como la detección de daños mediante métodos de análisis modal y la integración de técnicas avanzadas de procesamiento de señales. Se han utilizado modelos físicos basados en elementos finitos para representar el comportamiento estructural y técnicas de aprendizaje automático para detectar y clasificar anomalías. Sin embargo, la mayoría de estos enfoques tienen limitaciones relacionadas con la precisión de las predicciones y la gestión de la incertidumbre en condiciones operativas variables.

Un enfoque emergente consiste en integrar modelos probabilísticos, como las redes bayesianas, con técnicas de aprendizaje profundo. Esto permite incorporar la variabilidad y la incertidumbre inherentes a los datos estructurales. No obstante, aún es necesario mejorar la capacidad de realizar predicciones precisas de manera continua en tiempo real.

Teniendo en cuenta las limitaciones identificadas en los trabajos previos, este estudio busca responder a la siguiente pregunta de investigación: ¿cómo se puede desarrollar un marco de gemelo digital que combine modelos físicos y aprendizaje profundo para mejorar la predicción y la toma de decisiones en el mantenimiento de estructuras de ingeniería civil, teniendo en cuenta la incertidumbre y la variabilidad operativa?

El artículo examina un enfoque innovador basado en modelos físicos y técnicas de aprendizaje profundo, y propone un sistema de toma de decisiones apoyado en redes bayesianas dinámicas. Este marco permite una interacción continua entre el activo físico y su representación digital, lo que mejora significativamente los procesos de mantenimiento preventivo y correctivo.

Gemelos digitales predictivos para estructuras de ingeniería civil: abstracción gráfica del flujo de información de extremo a extremo habilitada por el modelo gráfico probabilístico (Torzoni et al., 2024)

Metodología

La metodología propuesta combina modelos matemáticos basados en la física y técnicas de aprendizaje profundo para crear un gemelo digital capaz de gestionar estructuras de ingeniería civil. El enfoque consta de tres fases principales:

  1. Modelo numérico basado en la física:
    • Se emplean modelos de elementos finitos para representar el comportamiento estructural bajo diferentes condiciones operativas y de daño.
    • Los modelos son simplificados mediante técnicas de reducción de orden, utilizando descomposición en bases propias (POD), para hacer viable el análisis computacional en tiempo real.
  2. Asimilación de datos mediante aprendizaje profundo:
    • Los datos estructurales recopilados por sensores se procesan mediante redes neuronales profundas.
    • Un modelo de clasificación identifica la ubicación y severidad del daño, mientras que un modelo de regresión cuantifica la magnitud del deterioro.
  3. Toma de decisiones basada en redes bayesianas dinámicas:
    • Los resultados se integran en un modelo probabilístico que permite la predicción de estados futuros y la planificación de intervenciones de mantenimiento.
    • El sistema optimiza decisiones considerando incertidumbres operativas y costos asociados a las acciones de mantenimiento.

Resultados

Los resultados obtenidos evidencian que el gemelo digital propuesto puede rastrear con precisión la evolución del estado estructural y generar recomendaciones de mantenimiento en tiempo real. La precisión global alcanzada en la clasificación de estados digitales fue del 93,61 %, lo que destaca su capacidad para manejar datos ruidosos y condiciones operativas variables. Sin embargo, se observaron algunas limitaciones en la detección de daños en regiones alejadas de los sensores, lo que subraya la necesidad de mejorar la sensibilidad de los dispositivos de monitorización.

Otro aspecto relevante es la capacidad de predicción del sistema. Las simulaciones muestran que el gemelo digital puede prever de manera efectiva el deterioro futuro, lo que permite planificar de manera proactiva las intervenciones. Esto supone una mejora significativa con respecto a los enfoques tradicionales de mantenimiento reactivo.

Desde un punto de vista metodológico, la integración de modelos probabilísticos y aprendizaje profundo proporciona una solución robusta y adaptable a diferentes estructuras. No obstante, el éxito del sistema depende en gran medida de la calidad y la cantidad de datos disponibles para el entrenamiento inicial.

El estudio responde a la pregunta de investigación mediante la implementación exitosa de un marco de gemelo digital que combina modelos físicos y aprendizaje profundo. El sistema propuesto gestiona la incertidumbre mediante redes bayesianas dinámicas y mejora la toma de decisiones en mantenimiento al proporcionar predicciones precisas y recomendaciones basadas en datos en tiempo real. Los experimentos confirmaron su capacidad para gestionar estructuras complejas, lo que demuestra una mejora tangible en comparación con los enfoques tradicionales.

Conclusiones y recomendaciones

En conclusión, el desarrollo de un gemelo digital que integre modelos físicos y técnicas de aprendizaje profundo supone un avance significativo en la gestión de infraestructuras críticas. La metodología propuesta permite realizar un seguimiento continuo, realizar predicciones proactivas y tomar decisiones informadas.

El trabajo plantea varias líneas de investigación para el futuro:

  1. Mejora de los modelos predictivos: Explorar técnicas avanzadas de aprendizaje automático para aumentar la precisión y reducir el sesgo en la estimación de estados estructurales.
  2. Optimización de redes de sensores: Investigar configuraciones óptimas de sensores para mejorar la cobertura y sensibilidad del monitoreo.
  3. Aplicaciones a gran escala: Desarrollar estudios de caso adicionales que incluyan estructuras complejas como puentes de gran envergadura y edificios multifuncionales.
  4. Integración con tecnologías emergentes: Incorporar técnicas de computación en el borde y redes 5G para facilitar la transmisión y procesamiento de datos en tiempo real.
  5. Estudio de costos y beneficios: Evaluar la relación costo-beneficio del sistema para su implementación en proyectos reales, considerando factores económicos y de sostenibilidad.

Estos pasos permitirán ampliar la aplicabilidad del sistema y mejorar su eficiencia en el mantenimiento de infraestructuras críticas. En resumen, el artículo establece una base sólida para el desarrollo de gemelos digitales en ingeniería civil, al proponer un enfoque integral y avanzado desde el punto de vista técnico que combina modelos físicos y aprendizaje automático. Las investigaciones futuras deben centrarse en ampliar su ámbito de aplicación y mejorar su rendimiento en contextos operativos complejos.

Referencia:

Torzoni, M., Tezzele, M., Mariani, S., Manzoni, A., & Willcox, K. E. (2024). A digital twin framework for civil engineering structuresComputer Methods in Applied Mechanics and Engineering418, 116584.

Os dejo el artículo completo, pues se encuentra en abierto:

Descargar (PDF, 1.95MB)

Diseño optimizado de edificios de pórticos de hormigón armado frente al colapso progresivo mediante metamodelos

El diseño estructural de los edificios plantea importantes retos para garantizar su seguridad y sostenibilidad. El colapso progresivo, provocado por eventos extremos como terremotos o explosiones, puede ocasionar daños catastróficos. Para reducir este riesgo, se propone una metodología de diseño apoyada en metamodelos que combina optimización estructural y criterios de seguridad, y que tiene en cuenta elementos que a menudo se pasan por alto, como los forjados, las pantallas de arriostramiento y la interacción suelo-estructura (SSI, por sus siglas en inglés).

El trabajo se enmarca dentro del proyecto de investigación RESILIFE que dirijo como investigador principal en la Universitat Politècnica de València. También es fruto de la colaboración con investigadores de Brasil y Cuba.

Metodología

Descripción del problema

Se estudiaron cinco edificios de pórticos de hormigón armado con diferentes configuraciones de plantas y luces. Las estructuras incluyen vigas, columnas, forjados y pantallas de arriostramiento. Además, se incorporó el diseño optimizado de cimentaciones, considerando la interacción con el suelo mediante modelos de elasticidad lineal. Las dimensiones de los elementos estructurales se ajustaron siguiendo las normas internacionales de diseño y se consideraron distintas combinaciones de carga para evaluar escenarios críticos.

Se realizaron simulaciones numéricas avanzadas que tuvieron en cuenta escenarios de carga extremos, incluyendo la pérdida de columnas críticas en diversas posiciones. En el análisis se tuvieron en cuenta factores de seguridad, límites de servicio y fallos estructurales para determinar los diseños óptimos. También se tuvieron en cuenta criterios de sostenibilidad y se midieron las emisiones de CO₂ asociadas a cada solución.

Optimización basada en un diseño robusto frente al colapso progresivo (ObRDPC)

La metodología ObRDPC se centra en minimizar las emisiones de CO₂ como función objetivo, garantizando simultáneamente la robustez estructural mediante restricciones de seguridad. Para evaluar el colapso progresivo y simular la pérdida de columnas críticas, así como analizar la redistribución de cargas, se empleó el método de camino alternativo (AP). La metodología incluye la verificación de estados límite últimos y de servicio, lo que garantiza el cumplimiento de los requisitos normativos.

El proceso de optimización incluye la definición precisa de las variables de diseño, como las dimensiones de las vigas, columnas y cimentaciones, así como el tipo de hormigón utilizado. Para maximizar la eficiencia estructural y minimizar los costos ambientales, se aplican técnicas de programación matemática.

Modelización de forjados y pantallas de arriostramiento

  • Forjados: se modelaron como elementos tipo placa de 12 cm de espesor y se conectaron a las vigas mediante nodos rígidos para asegurar la continuidad estructural. Se realizó una discretización adecuada para representar su comportamiento realista ante cargas verticales y horizontales. El análisis incluyó el comportamiento a flexión, los efectos de cargas concentradas y la interacción con los elementos perimetrales. Se consideraron diferentes configuraciones de refuerzo para maximizar la resistencia y minimizar las deformaciones.
  • Pantallas de arriostramiento: representadas mediante diagonales equivalentes elásticas, según las especificaciones normativas. Se definieron sus propiedades mecánicas mediante modelos experimentales previos, incluyendo el módulo de elasticidad y la resistencia a compresión. Se estudiaron distintos tipos de mampostería y su influencia en la resistencia general. Las pantallas de arriostramiento también se evaluaron como elementos activos en la redistribución de cargas después de eventos que provocan la pérdida de soporte, lo que mejora la estabilidad global del sistema estructural.

Interacción suelo-estructura (SSI)

Se consideró el asentamiento diferencial de las cimentaciones mediante coeficientes de rigidez calculados según modelos elásticos. El suelo se modeló como un medio elástico semiespacial. En el análisis se incluyó la interacción entre la superestructura y el terreno para capturar los efectos de asentamientos desiguales y su impacto en el estado de esfuerzos y deformaciones.

En el análisis se tuvieron en cuenta diferentes tipos de suelos, desde arcillas de baja resistencia hasta suelos granulares compactados. Se realizaron estudios paramétricos para evaluar la sensibilidad del sistema a variaciones en la rigidez del terreno y el módulo de elasticidad del hormigón.

Cinco estudios de casos que consideran la modelización de cimientos, forjados y pantallas de arriostramiento.

Optimización asistida por metamodelos

Se utilizaron técnicas avanzadas de optimización asistida por metamodelos para reducir la carga computacional. El proceso incluyó un muestreo inicial mediante muestreo hipercúbico latino para cubrir eficientemente el espacio de diseño, seguido de la construcción del metamodelo a través de técnicas de interpolación Kriging para aproximar las respuestas estructurales, evaluando múltiples configuraciones para garantizar la precisión. Posteriormente, se aplicó una optimización global utilizando algoritmos evolutivos, como la Biogeography-based Optimization (BBO), para explorar soluciones factibles y un método iterativo para refinar las soluciones y garantizar su viabilidad en condiciones críticas.

Resultados

Impacto de forjados y pantallas de arriostramiento

La inclusión de forjados y pantallas de arriostramiento mejoró significativamente la redistribución de cargas y la resistencia al colapso progresivo. El análisis mostró una reducción del 11 % en el impacto ambiental para diseños resistentes al colapso, en comparación con modelos que solo consideran vigas y columnas.

Se observó una mejora notable en la capacidad de redistribución de cargas después de la pérdida de columnas críticas. Las pantallas de arriostramiento actuaron como elementos resistentes adicionales, mitigando fallos en los elementos primarios y reduciendo los desplazamientos globales.

Comparación de enfoques de diseño

Se observó que aumentar el número de niveles incrementa la robustez estructural debido a la mayor redundancia de elementos. Sin embargo, el incremento de la longitud de las luces de las vigas reduce esta capacidad, por lo que es necesario utilizar secciones más robustas y aplicar mayores refuerzos.

Los modelos con luces de 8 m presentaron un aumento del 50 % en las emisiones de CO₂ cuando no se incluyeron forjados ni pantallas de arriostramiento. Al incorporarlos, se consiguió reducir este incremento a la mitad.

Recomendaciones prácticas para el diseño estructural

  1. Incluir forjados y pantallas de arriostramiento: Su integración mejora significativamente la resistencia al colapso progresivo, particularmente en edificios con luces amplias.
  2. Optimizar secciones estructurales: Diseñar secciones de vigas y columnas equilibrando rigidez y eficiencia económica.
  3. Evaluar diferentes tipos de cimentaciones: Incorporar análisis de interacción suelo-estructura para definir bases óptimas.
  4. Aplicar análisis paramétricos: Evaluar la sensibilidad de los diseños a variaciones en la resistencia del hormigón y las condiciones geotécnicas.
  5. Considerar combinaciones de carga extremas: Simular múltiples fallos para garantizar diseños robustos y seguros.

Conclusión

La optimización basada en un diseño robusto frente al colapso progresivo (ObRDPC) permite diseñar estructuras resistentes al colapso progresivo con menor impacto medioambiental. El uso de metamodelos y la consideración de forjados, pantallas de arriostramiento y la interacción suelo-estructura mejoran significativamente la seguridad estructural y la sostenibilidad del diseño. Se recomienda ampliar esta investigación a otros tipos de estructuras y condiciones geotécnicas complejas para validar y perfeccionar la metodología propuesta.

Referencia:

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementation. Engineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487

El artículo os lo podéis descargar gratuitamente, hasta el 1 de febrero de 2025, en el siguiente enlace: https://authors.elsevier.com/c/1kFtRW4G4f7uC

Optimización de programas de mantenimiento vial: eficiencia y estrategias a largo plazo con algoritmos heurísticos.

Optimal pavement maintenance programs based on a hybrid Greedy Randomized Adaptive Search Procedure Algorithm

El artículo, titulado «Optimal pavement maintenance programs based on a hybrid Greedy Randomized Adaptive Search Procedure Algorithm», escrito por Víctor Yepes, Cristina Torres-Machí, Alondra Chamorro y Eugenio Pellicer, y publicado en el Journal of Civil Engineering and Management, presenta una innovadora herramienta para la gestión eficiente del mantenimiento vial. Este trabajo aborda cómo diseñar programas que maximicen la efectividad a largo plazo (Long-Term Effectiveness, LTE) en redes viales, superando las limitaciones presupuestarias y el desgaste progresivo de las infraestructuras. Para ello, se desarrolla un enfoque híbrido que combina los algoritmos Greedy Randomized Adaptive Search Procedure (GRASP) y Threshold Accepting (TA), lo que permite optimizar la asignación de recursos y cumplir con restricciones técnicas y económicas. Entre los resultados más destacados, se encuentra una mejora del 40 % en la LTE en comparación con estrategias reactivas, que también subraya la importancia de priorizar inversiones tempranas y de implementar tratamientos preventivos como la opción más eficiente a largo plazo.

Introducción

La infraestructura vial es uno de los activos más valiosos de cualquier nación, ya que tiene un impacto directo en el desarrollo económico y social al facilitar el transporte de bienes y personas, por lo que es necesario realizar un mantenimiento adecuado para evitar el deterioro y el incremento de los costes futuros de rehabilitación. Sin embargo, los presupuestos de las agencias públicas son limitados y no alcanzan a cubrir las necesidades de conservación, lo que genera una brecha cada vez mayor entre el estado actual de las infraestructuras y los niveles de inversión requeridos. En Estados Unidos, un tercio de las carreteras están en condiciones mediocres o deficientes, y uno de cada nueve puentes presenta deficiencias estructurales. En España, las necesidades de mantenimiento vial superan los 5500 millones de euros, pero los presupuestos se redujeron un 20 % en 2012, lo que agravó aún más la situación. Este mantenimiento tardío no solo incrementa los riesgos estructurales, sino que también triplica los costes de rehabilitación y los gastos operativos de los vehículos, lo que plantea un problema central: decidir cómo asignar los fondos disponibles de forma óptima para maximizar el rendimiento a largo plazo de las infraestructuras, respetando restricciones técnicas y económicas, y considerando los beneficios acumulados para los usuarios.

Metodología

Formulación del problema de optimización

El problema se define como la maximización de la LTE, un indicador que mide los beneficios acumulados derivados de una infraestructura bien mantenida durante su ciclo de vida.

  1. Función objetivo:
    • Maximizar el área bajo la curva de rendimiento de las infraestructuras (Area Bounded by the Performance Curve, ABPC). Este área refleja la calidad y el nivel de servicio de la infraestructura a lo largo del tiempo.
  2. Restricciones:
    • Presupuestaria: Garantizar que los costos anuales de mantenimiento no excedan el presupuesto disponible en cada año del periodo de planificación.
    • Técnica: Mantener las secciones de la red en una condición mínima aceptable. Esto se evalúa mediante indicadores como el Urban Pavement Condition Index (UPCI, Índice de Condición del Pavimento Urbano), que clasifica la calidad del pavimento en una escala del 1 (peor) al 10 (mejor).
  3. Variables de diseño:
    • Determinar qué secciones de la red deben tratarse, qué tratamiento aplicar y en qué momento realizarlo durante el horizonte de planificación.
  4. Parámetros:
    • Inventario: Datos sobre el tipo de pavimento, su longitud y ancho, condiciones climáticas y características del tráfico.
    • Técnicos: Condición inicial del pavimento, modelos de deterioro a lo largo del tiempo y el conjunto de tratamientos disponibles.
    • Económicos: Costos unitarios de mantenimiento para cada tratamiento.
    • Estratégicos: Periodo de planificación, tasa de descuento y estándares mínimos requeridos.
Las actividades de mantenimiento conllevan un aumento de la vida útil del firme (ΔSL) y, por tanto, una mejora inmediata de su estado (ΔUPCI) en el momento de su aplicación

Algoritmo GRASP-TA

El enfoque híbrido combina dos estrategias complementarias:

  1. GRASP (Procedimiento de Búsqueda Aleatoria Codiciosa Adaptativa):
    • Genera una población inicial de soluciones viables considerando una relajación controlada de las restricciones presupuestarias.
    • Utiliza funciones de priorización para evaluar el impacto de cada posible tratamiento en la LTE y seleccionar las mejores alternativas mediante un proceso probabilístico.
  2. TA (Aceptación de Umbral):
    • Realiza una optimización local a las soluciones generadas por GRASP.
    • Permite aceptar soluciones ligeramente peores en las primeras iteraciones para evitar quedarse atrapado en óptimos locales.
    • Ajusta iterativamente las restricciones presupuestarias relajadas en GRASP para cumplir con las condiciones originales.
Efecto del tratamiento sn para construir la solución en el año t con el algoritmo GRASP

Caso de estudio: red urbana en Santiago, Chile

La red analizada se encuentra en Santiago de Chile. Está compuesta por 20 secciones con pavimentos flexibles (asfálticos) y rígidos (hormigón). El clima de la región es mediterráneo, lo que influye en los patrones de deterioro del pavimento. La condición inicial media de la red es 6,8, según el Índice de Condición del Pavimento Urbano (UPCI), lo que indica una calidad intermedia.

Para los pavimentos asfálticos, los tratamientos evaluados incluyeron opciones de preservación, mantenimiento y rehabilitación. En preservación, el sellado de fisuras aumenta la vida útil en 2 años y tiene un coste de 0,99 USD/m². En el mantenimiento, el fresado y la repavimentación funcional ofrecen 10 años de vida útil por 23,24 USD/m². En rehabilitación, la rehabilitación en frío alcanza los 13 años con un coste de 36,50 USD/m².

Para los pavimentos de hormigón, los tratamientos incluyeron preservación y rehabilitación. El pulido con diamante aumenta la vida útil en 10 años y tiene un coste de 15,39 USD/m². La reconstrucción completa proporciona 25 años de servicio por un coste de 134,60 USD/m². Estos tratamientos representan opciones para diferentes niveles de deterioro y requisitos estructurales.

El programa optimizado mostró un impacto significativo en la efectividad a largo plazo (LTE). Se logró una mejora del 40 % en la LTE en comparación con las estrategias reactivas. Los tratamientos preventivos dominaron las decisiones, seleccionándose en el 80 % de los casos, lo que evidencia su mayor efectividad frente a opciones correctivas o de rehabilitación.

En términos de coste-eficacia, no se seleccionaron los tratamientos reciclados. Aunque ofrecen beneficios similares en términos de vida útil, su alto coste los hace menos competitivos frente a alternativas más económicas, lo que destaca la importancia de equilibrar costes y beneficios en el diseño de programas de mantenimiento.

Análisis de escenarios

1. Escenarios de inventario:

Se analizaron redes con diferentes proporciones de pavimentos asfálticos y de hormigón, con configuraciones del 25 %, 50 % y 75 % para cada tipo. También se estudiaron tres condiciones iniciales de las redes: buenas, intermedias y deficientes. Este análisis permitió evaluar la influencia de las características estructurales y del estado inicial en la optimización de los programas de mantenimiento.

En todos los casos, los resultados mostraron que la optimización mediante el algoritmo GRASP-TA era superior a las estrategias reactivas tradicionales. Esto demostró que el método es altamente adaptable a diversas configuraciones de red y capaz de ofrecer soluciones efectivas en términos de LTE, independientemente de las características de la red o de su estado inicial.

2. Escenarios presupuestarios:

El análisis incluyó variaciones en el presupuesto total, con incrementos y reducciones de hasta el 20 %, así como cambios en la distribución de los fondos a lo largo del tiempo. Se evaluaron dos configuraciones principales para entender su impacto en el rendimiento a largo plazo.

El escenario con mayor inversión en los primeros años mostró un aumento significativo de la LTE. Esto puso de manifiesto que la asignación temprana de fondos mejora sustancialmente los resultados del mantenimiento. Por el contrario, los aumentos progresivos anuales redujeron la LTE en un 15 % respecto al caso base, lo que indica que posponer la inversión perjudica el rendimiento de la red.

Conclusiones

Asignar más recursos durante los primeros años de un programa de mantenimiento es fundamental para optimizar el rendimiento a largo plazo de las infraestructuras. Este análisis pone de manifiesto la importancia de una planificación presupuestaria estratégica, ya que señala que el momento en que se invierten los recursos tiene un impacto considerable en los beneficios acumulados de la red.

  1. Eficiencia del método GRASP-TA: Diseña programas que maximizan la LTE bajo restricciones técnicas y económicas reales.
  2. Importancia de la prevención: Las actividades preventivas son significativamente más rentables a largo plazo.
  3. Estrategias presupuestarias: Es esencial priorizar mayores inversiones en los primeros años del programa para maximizar su impacto.
  4. Limitaciones de los tratamientos reciclados: Aunque presentan beneficios ambientales, su alto costo relativo limita su inclusión en las soluciones optimizadas cuando solo se consideran aspectos técnicos y económicos.

Como recomendaciones futuras habría que integrar criterios de sostenibilidad, como impactos ambientales y sociales, y extender el análisis a redes más grandes y diversas.

Referencia:

YEPES, V.; TORRES-MACHÍ, C.; CHAMORRO, A.; PELLICER, E. (2016). Optimal pavement maintenance programs based on a hybrid greedy randomized adaptive search procedure algorithm. Journal of Civil Engineering and Management, 22(4):540-550. DOI:10.3846/13923730.2015.1120770

Aquí os dejo el artículo por si os resulta de interés.

Descargar (PDF, 1.2MB)

 

Tesis doctoral: Optimización social y ambiental de estructuras prefabricadas de hormigón armado bajo presupuestos restrictivos

De izquierda a derecha: Julián Alcalá, Tatiana García, Andrés Ruiz, Salvador Ivorra, Antonio Tomás y Víctor Yepes

Ayer, 4 de diciembre de 2024, tuvo lugar la defensa de la tesis doctoral de D. Andrés Ruiz Vélez, titulada “Optimal design of socially and environmentally efficient reinforced concrete precast modular road frames under constrained budgets”, dirigida por los profesores Víctor Yepes Piqueras y Julián Alcalá González. La tesis recibió la calificación de sobresaliente «cum laude». A continuación, presentamos un pequeño resumen de la misma.

Resumen:

La infraestructura de transporte es esencial para el desarrollo humano, ya que impulsa el crecimiento industrial y promueve la evolución social al mejorar la interacción y la conectividad. Su construcción actúa como un catalizador de transformaciones socioeconómicas, puesto que fomenta las economías locales y facilita el flujo de recursos y de la fuerza laboral. Sin embargo, la creciente concienciación sobre los impactos negativos de las prácticas insostenibles en la ingeniería de la construcción exige una transición hacia métodos más responsables. Históricamente, la viabilidad económica ha sido el enfoque principal en ingeniería estructural. No obstante, en la actualidad se otorga mayor relevancia a la evaluación de los impactos a lo largo del ciclo de vida de los proyectos. Aunque este enfoque supone un avance en la integración del diseño estructural con los objetivos de desarrollo sostenible, todavía no abarca plenamente la complejidad y diversidad que implica la sostenibilidad a lo largo de todo el ciclo de vida de las infraestructuras.

Esta tesis doctoral desarrolla de manera sistemática un marco de diseño que integra la sostenibilidad en la construcción de infraestructuras de transporte. Se propone un enfoque modular y prefabricado para proyectos de estructuras viales, que se posiciona como una alternativa más eficiente y atractiva frente a los métodos tradicionales de hormigonado in situ. El diseño estructural, junto con los procesos ambientales y sociales asociados al ciclo de vida de la estructura, se modela mediante un enfoque matemático avanzado. Este modelo permite aplicar técnicas de optimización monoobjetivo y multiobjetivo, combinadas con algoritmos multicriterio de toma de decisiones. Dada la complejidad y la diversidad de variables involucradas, el uso de métodos exactos de optimización no es viable. Por ello, la investigación adopta metaheurísticas híbridas y basadas en entornos para minimizar el coste final de la estructura desde una perspectiva monoobjetivo. Entre las técnicas evaluadas, las metaheurísticas de recocido simulado y aceptación por umbrales, calibradas con cadenas de mayor longitud, ofrecen resultados de alta calidad, aunque con un considerable esfuerzo computacional. En contraste, una versión híbrida del recocido simulado enriquecida con un operador de mutación común en algoritmos basados en poblaciones alcanza soluciones de calidad comparable con un menor esfuerzo computacional. La hibridación de metaheurísticas se presenta como una estrategia eficaz para ampliar las capacidades exploratorias de estos algoritmos, optimizando el equilibrio entre la calidad de los resultados y la eficiencia computacional.

El análisis del ciclo de vida de diferentes configuraciones de marcos con un coste óptimo revela claras ventajas ambientales del enfoque modular prefabricado en comparación con la construcción convencional in situ. Sin embargo, las implicaciones sociales son más complejas y destacan la relevancia de incorporar los impactos del ciclo de vida como funciones objetivo en el proceso de optimización. Este hallazgo subraya la necesidad de emplear técnicas multicriterio para evaluar y clasificar eficazmente las alternativas. De este modo, se garantiza un equilibrio adecuado entre los impactos ambientales y sociales, y se asegura una toma de decisiones más integral y sostenible dentro del marco del diseño y la planificación.

Esta investigación desarrolla operadores de cruce, mutación y reparación diseñados para discretizar eficazmente el problema de optimización, dotando así a los algoritmos genéticos y evolutivos de la capacidad necesaria para abordar la complejidad del proceso de optimización multiobjetivo. En particular, el operador de reparación estadístico muestra un buen rendimiento cuando se combina con los algoritmos genéticos NSGA-II y NSGA-III, así como con el algoritmo evolutivo RVEA. Aunque existen diferencias metodológicas entre estas técnicas, la herramienta de toma de decisiones FUCA produce clasificaciones equivalentes a las obtenidas mediante el método de ponderación aditiva simple. Esta coherencia también se observa con técnicas como TOPSIS, PROMETHEE y VIKOR. Para garantizar la imparcialidad en la ponderación de criterios, se aplica un proceso de cálculo basado en la teoría de la entropía, lo que proporciona un enfoque metódico a las técnicas de decisión multicriterio. La integración de algoritmos de optimización multiobjetivo con herramientas de decisión multicriterio en un marco de diseño fundamentado en modelos matemáticos permite identificar y clasificar diseños óptimos no dominados. Estos diseños logran un equilibrio integral entre las dimensiones económica, ambiental y social, y promueven la sostenibilidad del ciclo de vida de la estructura.

Referencias:

RUIZ-VÉLEZ, A.; GARCÍA, J.; PARTSKHALADZE, G.; ALCALÁ, J.; YEPES, V. (2024). Enhanced Structural Design of Prestressed Arched Trusses through Multi-Objective Optimization and MCDM. Mathematics, 12(16), 2567. DOI:10.3390/math12162567

RUIZ-VÉLEZ, A.; GARCÍA, J.; ALCALÁ, J.; YEPES, V. (2024). Enhancing Robustness in Precast Modular Frame Optimization: Integrating NSGA-II, NSGA-III, and RVEA for Sustainable Infrastructure. Mathematics, 12(10):1478. DOI:10.3390/math12101478

RUIZ-VÉLEZ, A.; GARCÍA, J.; ALCALÁ, J.; YEPES, V. (2024). Sustainable Road Infrastructure Decision-Making: Custom NSGA-II with Repair Operators for Multi-objective Optimization. Mathematics, 12(5):730. DOI:10.3390/math12050730

RUIZ-VÉLEZ, A.; ALCALÁ, J.; YEPES, V. (2023). A parametric study of optimum road modular hinged frames by hybrid metaheuristics. Materials, 16(3):931. DOI:10.3390/ma16030931

RUIZ-VÉLEZ, A.; ALCALÁ, J.; YEPES, V. (2023). Optimal design of sustainable reinforced concrete precast hinged frames. Materials, 16(1):204. DOI:10.3390/ma16010204

RUIZ-VÉLEZ, A.; ALCALÁ, J.; KRIPKA, M.; YEPES, V. (2023). Perspectiva social de un marco modular óptimo: Análisis integral del ciclo de vida. Revista CIATEC-UPF, 15(1):1-19. DOI:10.5335/ciatec.v15i1.14974

RUIZ-VÉLEZ, A.; ALCALÁ, J.; KRIPKA, M.; YEPES, V. (2022). Optimización de marcos articulados prefabricados de hormigón armado mediante recocido simulado. Revista CIATEC-UPF, 14(3):41-55. DOI:10.5335/ciatec.v14i3.14079

 

Modelo para la construcción sostenible: reducción de emisiones y eficiencia estructural hacia 2100

Un artículo reciente en Sustainable Cities and Society revista del primer decil del JCR, explora un innovador modelo de evaluación de la sostenibilidad en la industria de la construcción, con aplicaciones de gran impacto a nivel global.

Esta investigación, llevada a cabo por un equipo de expertos de la Universidad de Ciencia e Ingeniería de Hunan (China) y de la Universitat Politècnica de València (España), introduce el «modelo de acoplamiento multidisciplinar», una metodología que integra conocimientos avanzados de matemáticas, ingeniería, ciencias ambientales y sociología económica para analizar, de manera más precisa, los efectos de la construcción sobre la sostenibilidad a largo plazo. El trabajo se enmarca dentro del proyecto de investigación HYDELIFE que dirijo como investigador principal en la Universitat Politècnica de València.

Objetivos y contexto de la investigación

El trabajo parte de un desafío global urgente: reducir las emisiones de carbono en la industria de la construcción, que representa un porcentaje significativo del consumo energético y de las emisiones contaminantes a nivel mundial. Según estimaciones previas, esta industria generará más del 50 % de las emisiones de carbono para 2050 si no se implementan políticas de mitigación eficaces. En este contexto, el equipo de investigación plantea un enfoque innovador para analizar el ciclo de vida completo de las construcciones, desde la selección de materiales y el diseño, hasta la construcción, el mantenimiento y el desmantelamiento, conocido como evaluación del ciclo de vida (LCA, por sus siglas en inglés).

Además, para obtener una visión integrada que abarque el impacto ambiental, social y económico de cada proyecto, se emplea la evaluación social del ciclo de vida (SIA), que permite analizar los efectos en la sociedad y en la economía. El objetivo principal de la investigación es ofrecer un marco más robusto que ayude a los gobiernos y a las empresas del sector a tomar decisiones informadas que favorezcan el desarrollo urbano sostenible.

Metodología y desarrollo del modelo

Para desarrollar este modelo, los investigadores implementaron una técnica de «acoplamiento multidisciplinar» novedosa que incorpora algoritmos avanzados y teorías de optimización de estructuras en tres dimensiones. Este enfoque se basa en el uso de algoritmos de interpolación y ajuste de datos, capaces de proyectar los impactos de la construcción de manera más precisa. Además, el modelo emplea herramientas de software de análisis ambiental, como OpenLCA, que permite integrar datos económicos y medioambientales para evaluar la sostenibilidad.

El equipo realizó pruebas del modelo en cuatro regiones económicas clave de China: las provincias de Hubei, Jiangsu, Henan y Guangdong, seleccionando puentes de gran escala en cada una como ejemplos de estudio. A través de análisis finitos y optimización de topología de estas estructuras, lograron proyectar cómo variará el impacto ambiental y social a lo largo de los próximos cien años.

Resultados más destacados y proyecciones futuras

Los resultados obtenidos indican que la industria de la construcción en China alcanzará su máximo de emisiones en el año 2030, con un estimado de 2,73 giga toneladas (GT) de CO₂. Tras este pico, se proyecta una significativa reducción de las emisiones, con niveles de -2,78 GT anuales entre 2061 y 2098, debido a la implementación de técnicas de construcción más eficientes y al uso de materiales más sostenibles. A nivel social, la evaluación SIA prevé un pico de impacto en 2048, con 4,26 GT de CO₂ equivalente en afectaciones sociales, seguido también de una reducción en las décadas posteriores.

Para obtener estas cifras, el estudio utilizó un algoritmo de optimización de la estructura en las distintas fases del ciclo de vida, con el que identificó puntos de mejora y áreas críticas de impacto. Así, el modelo no solo ofrece una herramienta para la proyección de emisiones, sino que también permite evaluar el desempeño de cada estructura en términos de durabilidad, coste y adaptabilidad a cambios estructurales, lo cual podría ser crucial en regiones urbanas que experimentan un crecimiento acelerado.

Conclusiones y aplicación global

Este trabajo es una contribución pionera en la investigación sobre sostenibilidad en construcción, ya que ofrece un marco metodológico con potencial para ser replicado en otros países y sectores de la construcción. Su aplicación no solo está dirigida a la reducción de emisiones, sino también a la mejora de la resiliencia estructural y a la reducción de costes a largo plazo mediante un diseño optimizado. Los investigadores destacan que este modelo podría adaptarse a otros países que, como China, se enfrentan a grandes desafíos en la gestión de la sostenibilidad urbana y que buscan avanzar hacia economías bajas en carbono.

En conclusión, el modelo de acoplamiento multidisciplinar de esta investigación establece un estándar robusto para el análisis de sostenibilidad en construcciones complejas. Con este enfoque, gobiernos y empresas de construcción podrían optimizar sus prácticas para reducir los impactos negativos, no solo ambientales, sino también sociales y económicos, en sintonía con las metas de desarrollo sostenible. Este estudio ofrece, además, una guía para que la industria de la construcción pueda abordar sus desafíos actuales y proyectar una trayectoria sostenible para las próximas décadas.

Referencia:

ZHOU, Z.; ZHOU, J.; ZHANG, B.; ALCALÁ, J.; YEPES, V. (2024). The centennial sustainable assessment of regional construction industry under the multidisciplinary coupling model. Sustainable Cities and Society, 101:105201. DOI:10.1016/j.scs.2024.105201