Algunas reflexiones sobre el impacto del cambio climático en el comportamiento de las infraestructuras

El diseño estructural de infraestructuras, como edificios y puentes, se basa en códigos que establecen los criterios necesarios para garantizar su resistencia a diversas condiciones climáticas y ambientales. Estos códigos se actualizan periódicamente para reflejar los avances científicos y tecnológicos. Sin embargo, el cambio climático plantea un desafío disruptivo, ya que altera las condiciones climáticas de manera impredecible, lo que cuestiona la suposición de que las cargas climáticas son estacionarias.

En estas líneas se aborda cómo la transición del diseño estructural basado en estados límites ha influido en la forma en que se tienen en cuenta las variables climáticas. También aborda las dificultades que surgen al integrar el cambio climático en los modelos de riesgo estructural y analiza la necesidad de ajustar los métodos de estimación y diseño para tener en cuenta la creciente incertidumbre sobre el futuro climático.

Estas reflexiones se enmarcan dentro del proyecto RESILIFE, que actualmente desarrollo como investigador principal, y se han basado en algunas ideas desarrolladas en el trabajo reciente de Ellingwood et al. (2024).

Los códigos estructurales establecen los criterios necesarios para diseñar edificios, puentes y otras infraestructuras capaces de resistir las demandas de uso y los eventos ambientales o climáticos, como la nieve, el hielo, las lluvias, las tormentas de viento e inundaciones fluviales y costeras. Para garantizar que reflejen los últimos avances en ciencia e ingeniería, estos códigos se actualizan periódicamente, generalmente cada 5 o 10 años.

En las últimas cuatro décadas, los códigos estructurales de todo el mundo, como el «Minimum Design Loads and Associated Criteria for Buildings and Other Structures (ASCE 7-22)», las «LRFD Bridge Design Specifications (AASHTO)», el «International Building Code«, el «National Building Code of Canada» y los Eurocódigos, han adoptado los principios del diseño basado en estados límite. Durante este tiempo, los ingenieros estructurales y la normativa han reconocido la importancia de las herramientas de análisis de fiabilidad estructural y gestión del riesgo para modelar las incertidumbres asociadas a las cargas estructurales y la respuesta de las estructuras, y así garantizar un rendimiento adecuado en servicio (García-Segura et al., 2017). Con la transición del diseño basado en tensiones admisibles al diseño por estados límite, los criterios para las cargas climáticas han evolucionado gradualmente. Hasta ahora, estos criterios, basados en registros climáticos históricos y en evaluaciones de fiabilidad estructural, han tratado las cargas operativas y climáticas como estacionarias, asumiendo que el pasado es representativo del futuro.

El cambio climático plantea un desafío disruptivo y significativo para la evolución gradual de los códigos basados en el riesgo, así como para las prácticas de diseño estructural (ASCE, 2015a, 2018). La suposición de estacionariedad en el análisis de riesgos naturales deja de ser válida al tener en cuenta los efectos del cambio climático. Además, las incertidumbres asociadas a las proyecciones climáticas para el resto del siglo XXI son considerables, especialmente en lo que respecta a las cargas de viento, hielo y nieve (Tye et al., 2021). Las condiciones climáticas más agresivas podrían acelerar el deterioro estructural en ciertos casos, así como aumentar la intensidad y duración de los peligros. El cambio climático también ha suscitado controversia desde el punto de vista económico y político. Lograr consenso en los comités encargados de los códigos sobre el impacto del cambio climático en las infraestructuras requerirá una gestión técnica eficaz y una separación clara entre los aspectos políticos, como las causas del cambio climático, y los aspectos técnicos, como su impacto en las estructuras. Asimismo, podría haber oposición pública ante los costes adicionales que conlleven las modificaciones en los códigos climáticos. No obstante, ignorar los efectos del cambio climático en el comportamiento a largo plazo de las estructuras e infraestructuras podría incrementar el riesgo de daños y fallos, aumentar los costes de diseño, construcción y mantenimiento, agravar problemas de salud y seguridad públicas, interrumpir servicios esenciales y generar impactos socioeconómicos y ambientales negativos a nivel nacional.

Es fundamental abordar varias preguntas clave para considerar las exigencias del cambio climático en el desarrollo de los códigos estructurales. Entre ellas se encuentran (Ellingwood et al., 2024) :

  • ¿Cómo se debe modelar la no estacionariedad en la ocurrencia e intensidad de los eventos climáticos extremos provocados por el cambio climático?
  • ¿Cómo se deben integrar estas incertidumbres en un análisis de fiabilidad estructural dependiente del tiempo, con el fin de estimar el comportamiento futuro y demostrar el cumplimiento de los objetivos de rendimiento expresados en términos de fiabilidad?
  • ¿Cómo se puede convencer a los ingenieros estructurales y al público en general de la necesidad de aceptar estos cambios en interés nacional (Cooke, 2015), incluso si en algunos casos los costes de los sistemas de infraestructura aumentan?

Problemas y desafíos en el análisis de datos climáticos para el diseño estructural

Las variables climáticas empleadas en los códigos estructurales se basan principalmente en datos históricos. Los vientos extratropicales, la nieve, la temperatura y las precipitaciones se analizan exclusivamente a partir de estos datos. En el caso de los huracanes, se integran datos históricos en un marco que modela su génesis en la cuenca del Atlántico Norte, su desarrollo hasta convertirse en huracanes plenamente formados que impactan en infraestructuras costeras y su disipación tras tocar tierra. Estos análisis suponen que las variables climáticas pueden evaluarse como si fueran estacionarias, es decir, que el pasado es representativo del futuro y que sus intensidades pueden determinarse en función de sus periodos de retorno. Los datos se han recopilado para fines distintos al diseño de edificaciones, como la aviación comercial, la hidrología local, la gestión de recursos hídricos y la agricultura, y generalmente abarcan menos de 100 años.

La mayoría de las variables climáticas incluidas en los códigos se suelen determinar ajustando el parámetro extremo anual a una distribución de probabilidad. Entre las distribuciones más comunes utilizadas para este propósito se encuentran la distribución Tipo I de valores máximos y la distribución generalizada de valores extremos. El periodo de retorno o intervalo medio de recurrencia de una carga se calcula como el recíproco de la probabilidad anual de que dicha carga se supere. El error de muestreo en la estimación de los eventos base de diseño en una secuencia estacionaria para periodos de retorno superiores a 100 años puede ser considerable. Sin embargo, las estimaciones de las medias de las muestras suelen ser razonablemente estables cuando se actualizan en intervalos típicos de 10 años con datos climáticos adicionales.

La suposición de estacionariedad en los datos no puede justificarse en un contexto de cambio climático (Pandey y Lounis, 2023), y el concepto de un evento asociado a un periodo de retorno específico no es aplicable en sentido estricto. El aumento (o disminución) de las variables climáticas, junto con la creciente incertidumbre en los modelos de predicción climática, especialmente a partir del año 2060, afectará a la forma de analizar y especificar los datos para fines de diseño estructural. Quizás lo más relevante sea el impacto que tendrá sobre la forma en que se comunicarán los peligros de diseño a la comunidad profesional de la ingeniería y a sus clientes (Cooke, 2015).  Ellingwood et al. (2024) recuerdan claramente la confusión generada por el concepto de periodo de retorno cuando se introdujo a finales de la década de 1960. El periodo de retorno se concibió como una herramienta para reconocer que el parámetro de carga es aleatorio y para definir indirectamente la probabilidad anual de que se supere su intensidad de diseño, sin necesidad de recurrir a probabilidades pequeñas que no eran habituales entre los ingenieros estructurales de esa época. Esto podría explicar por qué algunos investigadores climáticos han intentado presentar sus estimaciones de parámetros utilizando el concepto de periodo de retorno (Ribereau et al., 2008; Salas y Obeysekera, 2014). Este problema requiere una reflexión cuidadosa al tratar con un clima cambiante, donde las probabilidades anuales no son constantes a lo largo de la vida útil de una estructura.

El crecimiento proyectado de las variables climáticas y sus incertidumbres más allá del año 2060 indica que será necesario desarrollar métodos para gestionar la incertidumbre epistémica -se refiere a la incertidumbre del modelo- en la estimación de parámetros, un aspecto que no se había tenido en cuenta previamente al estimar las variables climáticas para desarrollar códigos estructurales. Aunque la precisión de las técnicas generales de pronóstico climático ha mejorado gracias a la recopilación continua de datos, los modelos climáticos actuales son más capaces de predecir el impacto del cambio climático sobre la temperatura y las precipitaciones que sobre fenómenos como inundaciones, nevadas y vientos. Esto resulta problemático a la hora de considerar los niveles de probabilidad apropiados para el análisis de seguridad estructural.

Las futuras investigaciones podrían centrarse en el desarrollo de modelos más precisos para cargas climáticas específicas, como ciclones tropicales o sequías prolongadas, que aún presentan elevadas incertidumbres en sus proyecciones. Además, sería valioso explorar la aplicación de estos principios a sistemas de infraestructura emergentes, como redes de energía renovable o tecnologías de transporte resilientes. Por último, se sugiere investigar métodos para integrar datos climáticos en tiempo real en el diseño y seguimiento de infraestructuras, fomentando un enfoque dinámico y adaptable al cambio climático.

En resumen, los códigos estructurales establecen los criterios necesarios para diseñar infraestructuras capaces de resistir eventos climáticos como tormentas, nieve e inundaciones, y se actualizan periódicamente para reflejar los avances científicos y tecnológicos. Sin embargo, el cambio climático plantea un reto significativo, ya que altera las condiciones climáticas de manera impredecible, lo que hace que la suposición de estacionariedad que hasta ahora ha guiado el diseño estructural sea obsoleta. Este artículo explora cómo los códigos estructurales han evolucionado hacia un diseño basado en estados límite y la necesidad urgente de ajustar los métodos de análisis de riesgos ante la creciente incertidumbre climática. Además, se analizan los problemas derivados del uso exclusivo de datos históricos para modelar cargas climáticas y las dificultades que plantea el cambio climático a la hora de predecir eventos extremos. Finalmente, se destaca la necesidad de desarrollar nuevos modelos y enfoques analíticos que garanticen la seguridad de las infraestructuras en un entorno climático en constante cambio.

Os dejo un mapa conceptual sobre las reflexiones anteriores.

Referencias:

ASCE (2015). Adapting infrastructure and civil engineering practice to a changing climate. Committee on Adaptation to a Changing Climate. American Society of Civil Engineers.

ASCE (2018). Climate-resilient infrastructure: Adaptive design and risk management. Reston, VA: Committee on Adaptation to a Changing Climate. American Society of Civil Engineers.

Cooke, R. M. (2015). Messaging climate change uncertainty. Nature Climate Change5(1), 8-10.

Ellingwood, B. R., Bocchini, P., Lounis, Z., Ghosn, M., Liu, M., Yang, D., Capacci, L., Diniz, S., Lin, N., Tsiatas, G., Biondini, F., de Lindt, J., Frangopol, D.M., Akiyama, M., Li, Y., Barbato, M., Hong, H., McAllister, T., Tsampras, G. & Vahedifard, F. (2024). Impact of Climate Change on Infrastructure Performance. In Effects of Climate Change on Life-Cycle Performance of Structures and Infrastructure Systems: Safety, Reliability, and Risk (pp. 115-206). Reston, VA: American Society of Civil Engineers.

García-Segura, T., Yepes, V., Frangopol, D. M., & Yang, D. Y. (2017). Lifetime reliability-based optimization of post-tensioned box-girder bridges. Engineering Structures145, 381-391.

Pandey, M. D., & Lounis, Z. (2023). Stochastic modelling of non-stationary environmental loads for reliability analysis under the changing climate. Structural Safety103, 102348.

Ribereau, P., Guillou, A., & Naveau, P. (2008). Estimating return levels from maxima of non-stationary random sequences using the Generalized PWM method. Nonlinear Processes in Geophysics15(6), 1033-1039.

Salas, J. D., & Obeysekera, J. (2014). Revisiting the concepts of return period and risk for nonstationary hydrologic extreme events. Journal of hydrologic engineering19(3), 554-568.

Tye, M. R., & Giovannettone, J. P. (2021, October). Impacts of future weather and climate extremes on United States infrastructure: Assessing and prioritizing adaptation actions. Reston, VA: American Society of Civil Engineers.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Balance personal de 2024 en el ámbito docente e investigador

Cada 31 de diciembre, decidimos que un año termina y empieza otro. Aunque podría haberse elegido una fecha más relacionada con los ciclos naturales, como un solsticio o un equinoccio, la tradición marca este día como el final de un ciclo y el comienzo de otro. Como cada año, aprovecho este momento para reflexionar sobre lo que ha ocurrido en el 2024. Sin duda, será un año que recordaremos durante mucho tiempo.

El año 2024 nos ha conmocionado con el desastre ocurrido en la provincia de Valencia a causa de las inundaciones provocadas por la DANA. El 29 de octubre es una fecha que no olvidaremos fácilmente. Muchos compañeros hemos participado en medios de comunicación para explicar lo ocurrido y cómo se puede afrontar la reconstrucción necesaria. También se cumplieron 20 años del tsunami del Índico. A nivel personal, este año cumplí 60 años, pero desgraciadamente no lo pude celebrar con mi padre, al que tanto le debo. Mi recuerdo más emocionado.

Si repasamos brevemente algunos de los acontecimientos de este año, vemos que continúan los conflictos armados, como la invasión rusa de Ucrania, la guerra civil birmana, la guerra civil sudanesa y la insurgencia islamista en el Sahel. En noviembre se reanudaron los intensos combates, que llevaron al derrocamiento del régimen baazista sirio en diciembre y a la huida del país del presidente Bashar al-Ásad. Israel sigue inmerso en un conflicto que ya dura demasiado y que está adquiriendo una dimensión regional. Asimismo, se celebraron los Juegos Olímpicos en París, Donald Trump ganó las elecciones presidenciales en Estados Unidos y se celebró la Conferencia de las Naciones Unidas sobre el Cambio Climático de Bakú, la COP29.

El 14 de julio se cumplieron 200 años del fallecimiento de Agustín de Betancourt. Como buen ingeniero de caminos, acudí a Puerto de la Cruz, en Tenerife, a visitar su pueblo natal. Lamentablemente, en este año nos han dejado destacados ingenieros como Javier Manterola Armisén, Enrique Alarcón Álvarez, Juan Miguel Villar Mir o Manuel Melis Maynar, entre otros, marcando pérdidas significativas en el mundo de la ingeniería.

Pero voy a centrarme ya en el balance personal que suelo hacer cada año en estas fechas. Este año terminamos el proyecto de investigación HYDELIFE y nos concedieron el nuevo proyecto RESILIFE, que tiene una duración de tres años. En este momento, mi índice H es de 44 en la Web of Science, de 43 en Scopus y de 62 en Google Académico, con 181 artículos publicados en revistas indexadas en el JCR. Además de los 19 artículos científicos que he publicado en revistas indexadas en el JCR, ya hemos publicado dos artículos en 2025 y hemos aceptado uno más. No está mal empezar el año con tres artículos. Nunca me cansaré de elogiar a los integrantes del grupo de investigación. Mejoran cada día.

Este año he sido elegido, por segundo mandato consecutivo, como Consejero en el Sector 4: docencia e investigación del Colegio de Ingenieros de Caminos, Canales y Puertos. También participé como secretario en la Comisión de Acreditación 15 de Ingeniería Civil de ANECA. Igualmente, he sido presidente de la comisión que ha evaluado varios másteres universitarios en la Universitat Politècnica de Catalunya, a través de la agencia AQU Catalunya. Asimismo, he participado en numerosas evaluaciones de proyectos de I+D+i con AENOR.

Demos un pequeño repaso a lo que ha sido este 2024. En el mes de enero conocimos que nuestro doctorando Iván Negrín ganó la primera edición del Premio EMA (Excelencia y Mérito Académico) de estructuras de edificación 2023. En mayo nuestro estudiante de doctorado Mehrdad Hadizadeb-Bazaz por su Premio al mejor trabajo en la modalidad de póster otorgado por la Escuela de Doctorado de la Universitat Politècnica de València, dentro del IX Encuentro de Estudiantes de Doctorado. El 19 de junio, Ricardo Martín Polo defendió su tesis doctoral con la máxima calificación. En junio nos enteramos de que las tesis doctorales de David Martínez Muñoz y de Zhiwu Zhou habían recibido premios extraordinarios. En octubre me enteré de que era finalista en la categoría de divulgación científica de la UPV, aunque aún no se han dado a conocer los resultados de los premios debido a la DANA. El 4 de diciembre se defendió la tesis doctoral de Andrés Ruiz, codirigida por el profesor Julián Alcalá y por mí, y también con la máxima calificación. He participado en varios congresos como el X Congreso de Innovación Educativa y Docencia en Red (IN-RED 2024), el Congress on Numerical Methods in Engineering CMN2024, o el 28th International Congress on Project Management and Engineering.

Este año puse en marcha, en colaboración con la empresa Ingeoexpert, un nuevo curso, en línea sobre «fabricación y puesta en obra del hormigón«. El curso, totalmente en línea, se desarrollará en 6 semanas, con un contenido de 75 horas de dedicación del estudiante. Toda la información la puedes encontrar en esta página: https://ingeoexpert.com/cursos/curso-de-fabricacion-y-puesta-en-obra-del-hormigon/

Este año he publicado un libro que he tardado en elaborar varios años. Se trata del Manual de Referencia denominado: Estructuras auxiliares en la construcción: Andamios, apeos, entibaciones, encofrados y cimbras. Este libro aborda las estructuras auxiliares en la construcción, tanto en edificación como en ingeniería civil, y trata temas como apeos, apuntalamientos, entibaciones, andamios, encofrados y cimbras. Su novedad radica en el enfoque constructivo de estas técnicas, apoyado por fotografías e ilustraciones. Incluye bibliografía, autoevaluaciones, respuestas y problemas resueltos, lo que lo convierte en un recurso útil para estudiantes de ingeniería y arquitectura, así como en un manual de consulta para profesionales de la construcción. Complementa textos más teóricos sobre estructuras y geotecnia.

Este post es el número 189 de los que he escrito este año, lo cual no está nada mal. Ya he publicado 2038 artículos en mi blog desde que inicié esta andadura el 5 de marzo de 2012, por lo que este año se cumple una década de esta aventura. Sin darme cuenta, he tocado muchos temas relacionados con la profesión de la ingeniería civil y la construcción en todos sus aspectos. Además, cada vez tengo más presencia en las redes sociales. Tengo más de 34 200 seguidores en X (antes Twitter) y más de 23 200 en LinkedIn.

Por último, os dejo a continuación algunas referencias sobre los artículos, congresos, libros y vídeos educativos que he realizado durante este año 2024. Cada año es más difícil mejorar los resultados del año anterior, pero haremos todo lo posible para el 2025.

INVESTIGADOR PRINCIPAL EN PROYECTOS DE INVESTIGACIÓN COMPETITIVOS:

  • Optimización resiliente del ciclo de vida de estructuras híbridas y modulares de alta eficiencia social y medioambiental bajo condiciones extremas. (RESILIFE). [Resilient life-cycle optimization of socially and environmentally efficient hybrid and modular structures under extreme conditions]. PID2023-150003OB-I00.

ARTÍCULOS INDEXADOS EN EL JCR:

  1. BLIGHT, T.; MARTÍNEZ-PAGÁN, P.; ROSCHIER, L.; BOULET, D.; YEPES-BELLVER, L.; YEPES, V. (2025). Innovative approach of nomography application into an engineering educational contextPlos One, (accepted, in press).
  2. LI, Y.J.; ZHOU, Z.; ALCALÁ, J.; YEPES, V. (2025). Research on spatial deformation monitoring and numerical coupling of deep foundation pit in soft soil. Journal of Building Engineering, 99:111636. DOI:10.1016/j.jobe.2024.111636
  3. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementationEngineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487
  4. ZHOU, Z.; LIANG, Z.; ALCALÁ, J.; YEPES, V. (2024). Three-dimensional finite element coupled optimization assessment of extra-large bridgesStructures, 70:107743. DOI:10.1016/j.istruc.2024.107743
  5. GUAYGUA, B.; SÁNCHEZ-GARRIDO, A.; YEPES, V. (2024). Life cycle assessment of seismic resistant prefabricated modular buildingsHeliyon, 10(20), e39458. DOI:10.1016/j.heliyon.2024.e39458
  6. MARTÍN, R.; YEPES, V. (2024). Valuation of landscape intangibles: Influence on the marina management. Ocean & Coastal Management, 259, 107416. DOI:10.1016/j.ocecoaman.2024.107416
  7. YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2024). Artificial neural network and Kriging surrogate model for embodied energy optimization of prestressed slab bridges. Sustainability, 16(19), 8450. DOI:10.3390/su16198450
  8. RUIZ-VÉLEZ, A.; GARCÍA, J.; PARTSKHALADZE, G.; ALCALÁ, J.; YEPES, V. (2024). Enhanced Structural Design of Prestressed Arched Trusses through Multi-Objective Optimization and MCDM. Mathematics, 12(16), 2567. DOI:10.3390/math12162567
  9. MALVIYA, A.K.; ZAREHPARAST MALEKZADEH, M.; SANTARREMIGIA, F.E.; MOLERO, G.D.; VILLALBA-SANCHIS, I.; MARTÍNEZ-FERNÁNDEZ, P.; YEPES, V. (2024). Optimization of the Life cycle cost and environmental impact functions of NiZn batteries by using Multi-Objective Particle Swarm Optimization (MOPSO). Sustainability, 16(15):6425. DOI:10.3390/su16156425
  10. SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2024). Sustainable preventive maintenance of MMC-based concrete building structures in a harsh environment. Journal of Building Engineering, 95:110155. DOI:10.1016/j.jobe.2024.110155
  11. VILLALBA, P.; SÁNCHEZ-GARRIDO, A.; YEPES, V. (2024). A review of multi-criteria decision-making methods for building assessment, selection, and retrofit. Journal of Civil Engineering and Management, 30(5):465-480. DOI:10.3846/jcem.2024.21621
  12. MALVIYA, A.K.; ZAREHPARAST MALEKZADEH, M.; LI, J.; LI, B.; SANTARREMIGIA, F.E.; MOLERO, G.D.; VILLALBA-SANCHIS, I.; YEPES, V. (2024). A formulation model for computation to estimate the Life Cycle Environmental Impact of NiZn Batteries. Energies, 17(11):2751. DOI:10.3390/en17112751
  13. ZHOU, Z.; WANG, Y.; ALCALÁ, J.; YEPES, V. (2024). Research on coupling optimization of carbon emissions and carbon leakage in international construction projects. Scientific Reports, 14: 10752. DOI:10.1038/s41598-024-59531-4
  14. RUIZ-VÉLEZ, A.; GARCÍA, J.; ALCALÁ, J.; YEPES, V. (2024). Enhancing Robustness in Precast Modular Frame Optimization: Integrating NSGA-II, NSGA-III, and RVEA for Sustainable Infrastructure. Mathematics, 12(10):1478. DOI:10.3390/math12101478
  15. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2024). Optimized Transverse-Longitudinal Hybrid Construction for Sustainable Design of Welded Steel Plate Girders. Advances in Civil Engineering, 2024:5561712. DOI:10.1155/2024/5561712.
  16. VILLALBA, P.; SÁNCHEZ-GARRIDO, A.; YEPES, V. (2024). Life cycle evaluation of seismic retrofit alternatives for reinforced concrete columns. Journal of Cleaner Production, 455:142290. DOI:10.1016/j.jclepro.2024.142290
  17. RUIZ-VÉLEZ, A.; GARCÍA, J.; ALCALÁ, J.; YEPES, V. (2024). Sustainable Road Infrastructure Decision-Making: Custom NSGA-II with Repair Operators for Multi-objective Optimization. Mathematics, 12(5):730. DOI:10.3390/math12050730
  18. MALVIYA, A.K.; ZAREHPARAST MALEKZADEH, M.; SANTARREMIGIA, F.E.; MOLERO, G.D.; VILLALBA-SANCHIS, I.; YEPES, V. (2024). A formulation model for computation to estimate the Life Cycle Cost of NiZn Batteries. Sustainability, 16(5):1965. DOI:10.3390/su16051965
  19. SALAS, J.; YEPES, V. (2024). Improved delivery of social benefits through the maintenance planning of public assets. Structure and Infrastructure Engineering, 20(5):699-714. DOI:10.1080/15732479.2022.2121844
  20. ZHOU, Z.; ZHOU, J.; ZHANG, B.; ALCALÁ, J.; YEPES, V. (2024). The centennial sustainable assessment of regional construction industry under the multidisciplinary coupling model. Sustainable Cities and Society, 101:105201. DOI:10.1016/j.scs.2024.105201
  21. LOPEZ, S.; YEPES, V. (2024). Visualizing the future of Knowledge sharing in SMEs in the construction industry: A VOS-viewer Analysis of emerging trends and best practices. Advances in Civil Engineering, 2024:6657677. DOI:10.1155/2024/6657677
  22. ZHOU, Z.; ZHOU, J.; ALCALÁ, J.; YEPES, V. (2024). Thermal coupling optimization of bridge environmental impact under natural conditions. Environmental Impact Assessment Review, 104:107316. DOI:10.1016/j.eiar.2023.107316

OTROS ARTÍCULOS:

LIBROS:

CONGRESOS:

VÍDEOS EDUCATIVOS:

  1. Estructuras auxiliares y desmontables. Concepto y clasificaciones. 6 minutos, 11 segundos.
  2. Apeo de fachadas para el vaciado de edificios: estabilizadores de fachada. 7 minutos, 3 segundos.
  3. Sostenimiento de un muro pantalla. 7 minutos, 23 segundos.
  4. Andamios de fachada unidireccionales. 8 minutos, 45 segundos.
  5. Andamios multidireccionales o de volumen. 7 minutos, 49 segundos.
  6. Torres de trabajo móviles. 10 minutos, 5 segundos.
  7. Costes en la construcción de encofrados. 8 minutos, 31 segundos.
  8. Encofrados para hormigón autocompactante. 6 minutos, 21 segundos.
  9. Productos desencofrantes de desmoldeo. 7 minutos, 57 segundos.
  10. Torres distribuidoras de hormigón. 3 minutos, 12 segundos.
  11. Grandes vertidos de hormigón. 6 minutos, 53 segundos.
  12. Homogeneidad en la fabricación del hormigón. 9 minutos, 33 segundos.
  13. Razones para compactar el hormigón. 7 minutos, 18 segundos.
  14. Hormigón de limpieza en los fondos de excavación. 4 minutos, 53 segundos.
  15. Mesa vibrante de hormigón. 6 minutos, 42 segundos.
  16. Corrección de humedad de los áridos. 5 minutos, 34 segundos.
  17. Hormigonado en condiciones de viento. 4 minutos, 31 segundos.

MEDIOS DE PRENSA:

Revisado por pares (UPV): De «Fundación» de Asimov, a los Beatles y los atardeceres de Formentera a los desafíos de la ingeniería civil.

Efe: ¿Cuánto vale tener vistas al mar?

ABC: El precio extra de una casa por tener vistas al mar

El Economista: Un nuevo método permite saber cuánto cuesta tener vistas al mar o la cercanía de la playa

Cadena Ser: Un nuevo método permite saber cuánto vale tener vistas al mar o la cercanía de la playa

20 Minutos: ¿Cuánto vale tener vistas al mar o la playa cerca? Esta es la fórmula ideada por dos investigadores españoles

La Voz de Asturias: ¿Qué finalidad tienen las pantallas dinámicas que se están instalando en el Huerna?

À Punt: La via verda. Analitzem què va passar exactament el 29 d’octubre a les preses de Forata i de Buseo

La Voz de Galicia: Víctor Yepes, doctor ingeniero de Caminos: «Los riesgos se conocen bien y las medidas estaban encima de la mesa, pero hay que tomar decisiones»

Confidencial Colombia: Duras lecciones desde Valencia

Diario de Ibiza: La obra que salvó Valencia y pudo evitar la gran avenida en l’Horta

Levante: La obra que salvó València y pudo evitar la gran avenida en l’Horta

À Punt: Podríem fer-ho millor | Segona Part

iAgua: Inundaciones y cambio climático. Adaptación inmediata, reconstrucción resiliente

Análisis de deformaciones en cimentaciones profundas en suelo blando

Acaban de publicar nuestro artículo en la revista del primer decil del JCR Journal of Building Enginering. El artículo aborda el desafío técnico y científico que supone analizar las características de deformación en excavaciones profundas en suelos blandos. Estas excavaciones, que están aumentando en escala y complejidad, plantean problemas de estabilidad debido a las propiedades inherentes de los suelos blandos, como su alta compresibilidad, alta sensibilidad, baja permeabilidad y baja resistencia. Además, la interacción entre el agua y el suelo durante la excavación puede causar consolidación por filtración, alteraciones en el campo de tensiones y riesgos significativos para las estructuras circundantes.

Actualmente, los métodos predominantes, como el análisis por elementos finitos y la monitorización experimental, presentan limitaciones a la hora de evaluar la precisión y los efectos espaciales en grandes escalas. Este estudio propone una mejora mediante la modelación tridimensional no lineal que incorpora un modelo de interfaz deslizante. El estudio analiza el proyecto XSS-03-10D, para lo que se utilizan mediciones in situ y simulaciones numéricas con las que estudiar la evolución temporal y espacial de la deformación de los sistemas de soporte y los asentamientos superficiales.

La pregunta principal que guía este trabajo es la siguiente: ¿cómo influye la interacción entre el sistema de soporte y el suelo circundante en la estabilidad y seguridad de las excavaciones profundas en suelos blandos y qué tan efectivas son las herramientas de modelación tridimensional para predecir estos comportamientos?

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València. Colaboramos con investigadores de la Hunan University of Science and Engineering, de China. A continuación, explicamos brevemente el contenido del artículo que podéis descargar gratuitamente.

Metodología

La metodología empleada en este estudio combina el control exhaustivo en campo con avanzadas simulaciones numéricas para evaluar las características de deformación de las excavaciones profundas. En primer lugar, se realizó un análisis detallado de las condiciones geotécnicas del terreno, incluyendo pruebas de laboratorio y muestreo de suelos en diferentes capas. Gracias a estas pruebas, se identificaron propiedades clave del suelo, como el contenido de humedad, la densidad, la cohesión y el ángulo de fricción interna, que son esenciales para los cálculos posteriores.

Posteriormente, se diseñó un modelo tridimensional no lineal en el programa informático ABAQUS que incorporó las propiedades específicas del suelo y un modelo de interfaz deslizante para simular las interacciones entre el sistema de soporte y el terreno. Este modelo se estructuró en dos capas principales de excavación: la primera, desde la superficie hasta los -7550 m, está compuesta principalmente por relleno y lodo; y la segunda, desde los -7550 m hasta los -10750 m, está formada principalmente por lodo blando.

El modelo numérico se calibró mediante la comparación con datos reales obtenidos de 197 puntos de control distribuidos en el yacimiento. Estos puntos incluían sensores para medir desplazamientos horizontales y verticales, la presión del suelo y las fuerzas axiales en los sistemas de soporte. Además, se integraron sistemas de alerta temprana que permitieron identificar zonas críticas en tiempo real y ajustar las estrategias de soporte en consecuencia.

El análisis se dividió en varias etapas:

  1. Modelación inicial: Se definieron los parámetros básicos del suelo y los límites del modelo. Se realizaron simulaciones preliminares para establecer un marco de referencia.
  2. Simulación del proceso de excavación: Se aplicaron cargas incrementales para replicar el proceso de excavación por capas, teniendo en cuenta los cambios en la presión del suelo y las interacciones dinámicas entre los sistemas de soporte y el terreno.
  3. Validación de resultados: Los resultados del modelo se compararon con los datos de supervisión in situ. Esto incluyó la evaluación de desplazamientos, deformaciones y fuerzas internas, y la realización de ajustes iterativos en el modelo para mejorar la precisión.
  4. Análisis de escenarios críticos: Se exploraron escenarios de fallo potenciales y se identificaron las zonas más vulnerables dentro del sistema de soporte y del terreno circundante.

Esta combinación de monitorización de campo y simulación numérica no solo permitió validar la precisión del modelo tridimensional, sino también obtener una visión integral de los patrones espaciotemporales de deformación.

Aportaciones relevantes

En primer lugar, este trabajo presenta un modelo tridimensional de elementos finitos que combina elasticidad y plasticidad no lineales y que está adaptado para capturar las características específicas de los suelos blandos. Este enfoque supera las limitaciones de los modelos constitutivos tradicionales al integrar datos de campo y parámetros geotécnicos.

En segundo lugar, el estudio identifica los factores clave que afectan a la estabilidad de las excavaciones profundas, como la presión lateral del suelo, los efectos de consolidación y la interacción entre el terreno y la estructura. La comparación entre los datos medidos y los simulados demostró una alta correlación, lo que confirma la precisión del modelo y su aplicabilidad práctica.

Además, el artículo destaca la importancia de realizar un seguimiento continuo y de integrar sistemas de alerta temprana para mitigar riesgos durante la construcción. Este enfoque tiene un impacto directo en la sostenibilidad de los proyectos de infraestructura, ya que reduce el riesgo de fallos estructurales y minimiza el impacto ambiental.

Otra contribución relevante es la identificación de patrones espaciotemporales en la deformación de los sistemas de soporte, lo que permite diseñar estrategias de mitigación más eficaces. Por último, el enfoque metodológico presentado puede adaptarse a otros tipos de proyectos de infraestructura, lo que amplía su aplicabilidad en el campo de la ingeniería civil.

Discusión de resultados

Los resultados del estudio muestran que la deformación de los sistemas de soporte y los asentamientos del suelo presentan patrones espaciotemporales complejos. Durante la excavación por capas, se observó que el sistema de soporte experimentaba un incremento progresivo de las fuerzas axiales, alcanzando valores cercanos a los límites de seguridad en zonas específicas. Estas áreas coinciden con zonas de transición entre diferentes propiedades del suelo y regiones con interacciones más intensas entre el agua y el suelo.

El análisis numérico reveló que el modelo tridimensional es más preciso a la hora de predecir deformaciones y fallos que los métodos tradicionales. Por ejemplo, las simulaciones anticiparon asentamientos y desplazamientos horizontales que coincidieron con los valores observados in situ, lo que proporciona una herramienta fiable para la toma de decisiones durante la construcción.

En cuanto a los desplazamientos horizontales, los datos de control mostraron que los puntos ubicados cerca de áreas de transición de suelos blandos presentaron los mayores valores de deformación. Esto subraya la importancia de diseñar sistemas de soporte que se puedan adaptar dinámicamente a las características específicas del terreno. Por otro lado, los asentamientos superficiales fueron más pronunciados en zonas adyacentes a cuerpos de agua, lo que sugiere que el nivel freático es crucial para la estabilidad de las excavaciones.

Desde el punto de vista del comportamiento estructural, las fuerzas axiales en los soportes interiores aumentaron de forma progresiva durante la excavación, alcanzando valores cercanos a los límites de diseño. Esto demuestra la necesidad de implementar estrategias de refuerzo adicionales en las fases críticas de la construcción. Los resultados también evidenciaron la presencia de efectos de acoplamiento entre el suelo y las estructuras circundantes, un aspecto que podría abordarse en futuros estudios para mejorar la precisión de los modelos predictivos.

Además, se observó que la interacción entre el sistema de soporte y el suelo puede verse significativamente influenciada por factores externos, como las condiciones climáticas y las variaciones en el nivel freático. Estas interacciones tienen implicaciones directas para la estabilidad del sistema, por lo que se deben utilizar estrategias de monitorización adaptativas. Finalmente, los patrones de deformación identificados durante el análisis ponen de manifiesto la importancia de realizar ajustes dinámicos en el diseño y el monitoreo según las condiciones cambiantes en tiempo real.

Futuras líneas de investigación

A partir de los resultados de este estudio, se identifican varias áreas prometedoras para la investigación futura. Una de ellas es mejorar los modelos constitutivos del suelo para tener en cuenta mejor los efectos de la interacción multidimensional entre agua, suelo y estructuras. Esto podría incluir la incorporación de modelos viscoelásticos para simular el comportamiento a largo plazo de los suelos blandos.

Otra línea de interés es el desarrollo de herramientas de simulación que integren datos en tiempo real procedentes de sensores distribuidos en el lugar de la obra. Esto permitiría realizar ajustes instantáneos en las estrategias de construcción, mejorando la seguridad y reduciendo los costes asociados a fallos inesperados.

Además, el estudio destaca la necesidad de investigar la influencia de eventos extremos, como terremotos o lluvias torrenciales, en la estabilidad de excavaciones profundas. Las simulaciones que integran estos escenarios podrían proporcionar datos valiosos para diseñar sistemas de soporte más resilientes.

Finalmente, la investigación sobre métodos sostenibles de construcción en suelos blandos podría beneficiarse de estudios centrados en el uso de materiales de refuerzo ecológicos y en la optimización de diseños que reduzcan la huella de carbono. Estas iniciativas contribuirían al avance de la ingeniería civil hacia un enfoque más respetuoso con el medio ambiente.

Conclusión

El trabajo ofrece un análisis exhaustivo y un marco metodológico innovador para abordar los desafíos de las excavaciones profundas en suelos blandos. Al combinar la supervisión in situ con simulaciones numéricas avanzadas, el estudio asienta las bases para mejorar las prácticas de diseño y construcción.

El uso de modelos tridimensionales no lineales ha demostrado ser una herramienta muy eficaz para predecir comportamientos complejos de deformación y diseñar estrategias de mitigación más efectivas. Esto tiene implicaciones significativas para proyectos de infraestructura en entornos similares, ya que ofrece una guía clara para mejorar la estabilidad y sostenibilidad de estas obras.

En la práctica, los hallazgos refuerzan la importancia del seguimiento continuo y la adaptación dinámica de las estrategias de soporte según las condiciones en tiempo real. Estas prácticas no solo aumentan la seguridad, sino que también reducen los costes y el impacto ambiental asociados a los fallos estructurales.

Finalmente, el estudio sentará las bases para futuras investigaciones que exploren enfoques aún más integrados, sostenibles y resilientes, y permitirá que la ingeniería civil continúe evolucionando frente a los desafíos que presentan los entornos geotécnicos complejos. Además, los resultados invitan a adoptar un enfoque interdisciplinario que combine herramientas tecnológicas avanzadas y principios de sostenibilidad para optimizar tanto los resultados estructurales como el impacto ambiental de las construcciones en suelos blandos.

Referencia:

LI, Y.J.; ZHOU, Z.; ALCALÁ, J.; YEPES, V. (2025). Research on spatial deformation monitoring and numerical coupling of deep foundation pit in soft soil. Journal of Building Engineering, 99:111636. DOI:10.1016/j.jobe.2024.111636

El artículo completo se puede descargar hasta el 14 de febrero de 2025 de forma gratuita en el siguiente enlace: https://authors.elsevier.com/c/1kKko8MyS9AR4g

Aprendizaje no supervisado en la ingeniería civil

El aprendizaje no supervisado es una rama del aprendizaje automático (Machine Learning) que se centra en analizar y estructurar datos sin etiquetas ni categorías predefinidas. A diferencia del aprendizaje supervisado, en el que los modelos se entrenan con datos etiquetados, en el aprendizaje no supervisado los algoritmos deben identificar de manera autónoma patrones, relaciones o estructuras ocultas dentro de los datos. Se trata de una herramienta poderosa para explorar y entender datos complejos sin la necesidad de etiquetas predefinidas, descubriendo patrones y estructuras ocultas que pueden ser de gran valor en diversas aplicaciones prácticas.

El aprendizaje no supervisado permite analizar datos sin un objetivo definido o sin conocimiento previo de su estructura. Este enfoque es ideal para explorar patrones latentes y reducir la dimensionalidad de grandes conjuntos de datos, lo que facilita una mejor comprensión de su estructura. Además, al no depender de etiquetas previamente asignadas, permite adaptarse de manera flexible a diversos tipos de datos, incluidos aquellos cuya estructura subyacente no es evidente. Esta característica lo hace especialmente valioso en ámbitos como la exploración científica y el análisis de datos de mercado, donde los datos pueden ser abundantes, pero carecer de categorías predefinidas.

A pesar de sus ventajas, el aprendizaje no supervisado plantea desafíos como la interpretación de los resultados, ya que sin etiquetas predefinidas puede ser difícil evaluar la precisión de los modelos. Además, la elección del número óptimo de grupos o la validación de las reglas de asociación descubiertas puede requerir la intervención de expertos y métodos adicionales de validación.

El aprendizaje no supervisado incluye diversas técnicas que permiten analizar y extraer patrones de grandes conjuntos de datos sin necesidad de etiquetas. Una de las principales técnicas es el agrupamiento (clustering), que busca dividir los datos en grupos basados en similitudes inherentes. Existen dos tipos de algoritmos de agrupamiento: el agrupamiento duro, que asigna un dato a un único grupo, y el agrupamiento suave, que permite que un dato pertenezca a varios grupos con diferentes grados de pertenencia. Técnicas como k-means y k-medoids se utilizan mucho en este contexto. Mientras que k-means busca minimizar la distancia entre los datos y los centros de los grupos, k-medoids es más robusto frente a valores atípicos y adecuado para datos categóricos. Por otro lado, el agrupamiento jerárquico genera un dendrograma que permite explorar relaciones jerárquicas en los datos. Los mapas autoorganizados, que emplean redes neuronales, se utilizan para reducir la dimensionalidad de los datos sin perder su estructura y facilitar su interpretación en campos como la bioinformática y la economía.

En situaciones donde los datos tienen relaciones difusas, el agrupamiento suave, como el fuzzy c-means, asigna grados de pertenencia a cada dato, lo que resulta útil en áreas como la biomedicina. Los modelos de mezcla gaussiana, que utilizan distribuciones normales multivariadas, también se aplican a problemas complejos como la segmentación de mercado o la detección de anomalías. Además, el aprendizaje no supervisado incluye técnicas de asociación que buscan descubrir relaciones entre variables en grandes bases de datos, como el análisis de la cesta de la compra, donde se identifican productos que suelen comprarse juntos. También se utilizan técnicas de reducción de la dimensionalidad, que simplifican los datos de alta dimensionalidad sin perder mucha variabilidad. El análisis de componentes principales (PCA) es una técnica común en este ámbito, ya que transforma los datos en combinaciones lineales que facilitan su visualización y análisis, especialmente en casos de datos ruidosos, como los procedentes de sensores industriales o dispositivos médicos. Otras técnicas, como el análisis factorial y la factorización matricial no negativa, también se utilizan para reducir la complejidad de los datos y hacerlos más manejables, y son útiles en áreas como la bioinformática, el procesamiento de imágenes y el análisis de textos.

El aprendizaje no supervisado tiene diversas aplicaciones, como el análisis de clientes, que permite identificar segmentos con características o comportamientos similares, lo que optimiza las estrategias de marketing y la personalización de los servicios. También se utiliza en la detección de anomalías, ya que ayuda a identificar datos atípicos que pueden indicar fraudes, fallos en los sistemas o comportamientos inusuales en áreas industriales y financieras; en este campo, el análisis factorial revela dinámicas compartidas entre sectores económicos, lo que mejora la predicción de tendencias de mercado. En el procesamiento de imágenes, facilita tareas como la segmentación, que consiste en agrupar píxeles con características similares para identificar objetos o regiones dentro de una imagen. Además, en el análisis de textos, técnicas como la factorización matricial no negativa permiten descubrir temas latentes en grandes colecciones de documentos, mejorando los sistemas de recomendación y el análisis de sentimientos. En la investigación genómica, el clustering suave ha permitido identificar genes implicados en el desarrollo de enfermedades, lo que ha contribuido a avanzar en la medicina personalizada. Esta capacidad para analizar patrones complejos en datos biológicos ha acelerado el descubrimiento de biomarcadores y posibles dianas terapéuticas. Este enfoque también permite identificar correlaciones entre variables macroeconómicas que de otra manera podrían pasar desapercibidas. Por otro lado, el PCA se ha aplicado con éxito en la monitorización de sistemas industriales, ya que permite predecir fallos y reducir costes operativos mediante el análisis de variaciones en múltiples sensores. En el ámbito de la minería de textos, la factorización no negativa permite descubrir temas latentes, lo que mejora los sistemas de recomendación y análisis de sentimiento. Esto resulta particularmente valioso en aplicaciones de marketing digital, donde la segmentación precisa del contenido puede aumentar la eficacia de las campañas.

El aprendizaje no supervisado ha encontrado diversas aplicaciones en el ámbito de la ingeniería civil, ya que permite optimizar procesos y mejorar la toma de decisiones. A continuación, se destacan algunas de ellas:

  • Clasificación de suelos y materiales de construcción: Mediante técnicas de agrupación (clustering), es posible agrupar muestras de suelo o materiales de construcción según sus propiedades físicas y mecánicas. Esto facilita la selección adecuada de materiales para proyectos específicos y optimiza el diseño de cimentaciones y estructuras.
  • Análisis de patrones de tráfico: El aprendizaje automático permite identificar patrones en los flujos de tráfico, detectando comportamientos anómalos o recurrentes. Esta información es esencial para diseñar infraestructuras viales más eficientes y aplicar medidas de control de tráfico.
  • Monitorización de estructuras: Mediante la reducción dimensional y el análisis de datos procedentes de sensores instalados en puentes, edificios y otras infraestructuras, se pueden detectar anomalías o cambios en el comportamiento estructural. Esto contribuye a la prevención de fallos y al mantenimiento predictivo.
  • Optimización de rutas para maquinaria pesada: En proyectos de construcción a gran escala, el aprendizaje no supervisado ayuda a determinar las rutas más eficientes para la maquinaria, considerando factores como el terreno, el consumo de combustible y la seguridad, lo que se traduce en una mayor productividad y reducción de costes.
  • Segmentación de imágenes por satélite y aéreas: Las técnicas de aprendizaje no supervisado permiten clasificar y segmentar imágenes obtenidas de satélites o drones, identificando áreas urbanas, vegetación, cuerpos de agua y otros elementos. Esto es útil para la planificación urbana y la gestión de recursos naturales.
  • Análisis de datos de sensores en tiempo real: En la construcción de túneles y excavaciones, el análisis en tiempo real de datos de sensores puede realizarse mediante algoritmos no supervisados para detectar condiciones peligrosas, como deslizamientos de tierra o acumulación de gases, lo que mejora la seguridad en las obras.

En conclusión, el aprendizaje no supervisado es una herramienta versátil y potente para abordar problemas complejos y descubrir patrones ocultos en datos sin etiquetar. Su aplicación trasciende sectores, ya que ofrece soluciones prácticas para la investigación, la industria y el análisis de datos. En un mundo impulsado por el crecimiento exponencial de la información, el dominio de estas técnicas se presenta como una ventaja competitiva fundamental. La capacidad para analizar grandes volúmenes de datos y extraer información útil sigue siendo un motor clave de innovación y progreso.

Os dejo un mapa mental acerca del aprendizaje no supervisado.

Para profundizar en este tema, puedes consultar la siguiente conferencia:

Pincha aquí para descargar

Referencia:

GARCÍA, J.; VILLAVICENCIO, G.; ALTIMIRAS, F.; CRAWFORD, B.; SOTO, R.; MINTATOGAWA, V.; FRANCO, M.; MARTÍNEZ-MUÑOZ, D.; YEPES, V. (2022). Machine learning techniques applied to construction: A hybrid bibliometric analysis of advances and future directions. Automation in Construction, 142:104532. DOI:10.1016/j.autcon.2022.104532

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Gemelo digital para la gestión predictiva de infraestructuras civiles

El artículo presenta un marco conceptual para el desarrollo de gemelos digitales aplicados a estructuras de ingeniería civil que combina modelos basados en la física con técnicas avanzadas de aprendizaje profundo. Se propone una integración dinámica entre el sistema físico y su representación digital mediante redes bayesianas dinámicas, lo que permite la toma de decisiones informada y la optimización continua. Entre las contribuciones destacadas, se encuentra la implementación de modelos de aprendizaje profundo para diagnosticar el estado estructural en tiempo real a partir de datos de sensores. Además, el enfoque incluye un proceso de aprendizaje previo fuera de línea para optimizar las políticas de mantenimiento.

La investigación presenta casos de estudio que validan la viabilidad del marco propuesto: una viga en voladizo en forma de L y un puente ferroviario. En estos ejemplos, se demuestra la capacidad del sistema para predecir el deterioro estructural y sugerir las acciones de mantenimiento adecuadas. El uso de modelos de orden reducido permite gestionar el coste computacional de manera eficiente y garantizar la aplicabilidad práctica del enfoque.

Introducción

La gestión eficiente de estructuras de ingeniería civil, como puentes, edificios y otras infraestructuras críticas, es un desafío constante debido al envejecimiento, el uso intensivo y los cambios en las condiciones ambientales. Un mantenimiento inadecuado puede provocar fallos catastróficos con consecuencias sociales, económicas y medioambientales significativas. En este contexto, los gemelos digitales han emergido como una tecnología prometedora para mejorar la supervisión, el mantenimiento y la toma de decisiones.

Un gemelo digital es una réplica virtual de un activo físico que se actualiza continuamente con datos obtenidos de sensores instalados en el activo real. Esto permite simular su comportamiento, predecir su evolución y planificar intervenciones de manera óptima. El concepto se ha explorado ampliamente en sectores como el aeroespacial y el manufacturero, pero su aplicación en el ámbito de la ingeniería civil es relativamente reciente.

En el campo de los gemelos digitales para ingeniería civil, las investigaciones previas han abordado diferentes aspectos del monitoreo estructural, como la detección de daños mediante métodos de análisis modal y la integración de técnicas avanzadas de procesamiento de señales. Se han utilizado modelos físicos basados en elementos finitos para representar el comportamiento estructural y técnicas de aprendizaje automático para detectar y clasificar anomalías. Sin embargo, la mayoría de estos enfoques tienen limitaciones relacionadas con la precisión de las predicciones y la gestión de la incertidumbre en condiciones operativas variables.

Un enfoque emergente consiste en integrar modelos probabilísticos, como las redes bayesianas, con técnicas de aprendizaje profundo. Esto permite incorporar la variabilidad y la incertidumbre inherentes a los datos estructurales. No obstante, aún es necesario mejorar la capacidad de realizar predicciones precisas de manera continua en tiempo real.

Teniendo en cuenta las limitaciones identificadas en los trabajos previos, este estudio busca responder a la siguiente pregunta de investigación: ¿cómo se puede desarrollar un marco de gemelo digital que combine modelos físicos y aprendizaje profundo para mejorar la predicción y la toma de decisiones en el mantenimiento de estructuras de ingeniería civil, teniendo en cuenta la incertidumbre y la variabilidad operativa?

El artículo examina un enfoque innovador basado en modelos físicos y técnicas de aprendizaje profundo, y propone un sistema de toma de decisiones apoyado en redes bayesianas dinámicas. Este marco permite una interacción continua entre el activo físico y su representación digital, lo que mejora significativamente los procesos de mantenimiento preventivo y correctivo.

Gemelos digitales predictivos para estructuras de ingeniería civil: abstracción gráfica del flujo de información de extremo a extremo habilitada por el modelo gráfico probabilístico (Torzoni et al., 2024)

Metodología

La metodología propuesta combina modelos matemáticos basados en la física y técnicas de aprendizaje profundo para crear un gemelo digital capaz de gestionar estructuras de ingeniería civil. El enfoque consta de tres fases principales:

  1. Modelo numérico basado en la física:
    • Se emplean modelos de elementos finitos para representar el comportamiento estructural bajo diferentes condiciones operativas y de daño.
    • Los modelos son simplificados mediante técnicas de reducción de orden, utilizando descomposición en bases propias (POD), para hacer viable el análisis computacional en tiempo real.
  2. Asimilación de datos mediante aprendizaje profundo:
    • Los datos estructurales recopilados por sensores se procesan mediante redes neuronales profundas.
    • Un modelo de clasificación identifica la ubicación y severidad del daño, mientras que un modelo de regresión cuantifica la magnitud del deterioro.
  3. Toma de decisiones basada en redes bayesianas dinámicas:
    • Los resultados se integran en un modelo probabilístico que permite la predicción de estados futuros y la planificación de intervenciones de mantenimiento.
    • El sistema optimiza decisiones considerando incertidumbres operativas y costos asociados a las acciones de mantenimiento.

Resultados

Los resultados obtenidos evidencian que el gemelo digital propuesto puede rastrear con precisión la evolución del estado estructural y generar recomendaciones de mantenimiento en tiempo real. La precisión global alcanzada en la clasificación de estados digitales fue del 93,61 %, lo que destaca su capacidad para manejar datos ruidosos y condiciones operativas variables. Sin embargo, se observaron algunas limitaciones en la detección de daños en regiones alejadas de los sensores, lo que subraya la necesidad de mejorar la sensibilidad de los dispositivos de monitorización.

Otro aspecto relevante es la capacidad de predicción del sistema. Las simulaciones muestran que el gemelo digital puede prever de manera efectiva el deterioro futuro, lo que permite planificar de manera proactiva las intervenciones. Esto supone una mejora significativa con respecto a los enfoques tradicionales de mantenimiento reactivo.

Desde un punto de vista metodológico, la integración de modelos probabilísticos y aprendizaje profundo proporciona una solución robusta y adaptable a diferentes estructuras. No obstante, el éxito del sistema depende en gran medida de la calidad y la cantidad de datos disponibles para el entrenamiento inicial.

El estudio responde a la pregunta de investigación mediante la implementación exitosa de un marco de gemelo digital que combina modelos físicos y aprendizaje profundo. El sistema propuesto gestiona la incertidumbre mediante redes bayesianas dinámicas y mejora la toma de decisiones en mantenimiento al proporcionar predicciones precisas y recomendaciones basadas en datos en tiempo real. Los experimentos confirmaron su capacidad para gestionar estructuras complejas, lo que demuestra una mejora tangible en comparación con los enfoques tradicionales.

Conclusiones y recomendaciones

En conclusión, el desarrollo de un gemelo digital que integre modelos físicos y técnicas de aprendizaje profundo supone un avance significativo en la gestión de infraestructuras críticas. La metodología propuesta permite realizar un seguimiento continuo, realizar predicciones proactivas y tomar decisiones informadas.

El trabajo plantea varias líneas de investigación para el futuro:

  1. Mejora de los modelos predictivos: Explorar técnicas avanzadas de aprendizaje automático para aumentar la precisión y reducir el sesgo en la estimación de estados estructurales.
  2. Optimización de redes de sensores: Investigar configuraciones óptimas de sensores para mejorar la cobertura y sensibilidad del monitoreo.
  3. Aplicaciones a gran escala: Desarrollar estudios de caso adicionales que incluyan estructuras complejas como puentes de gran envergadura y edificios multifuncionales.
  4. Integración con tecnologías emergentes: Incorporar técnicas de computación en el borde y redes 5G para facilitar la transmisión y procesamiento de datos en tiempo real.
  5. Estudio de costos y beneficios: Evaluar la relación costo-beneficio del sistema para su implementación en proyectos reales, considerando factores económicos y de sostenibilidad.

Estos pasos permitirán ampliar la aplicabilidad del sistema y mejorar su eficiencia en el mantenimiento de infraestructuras críticas. En resumen, el artículo establece una base sólida para el desarrollo de gemelos digitales en ingeniería civil, al proponer un enfoque integral y avanzado desde el punto de vista técnico que combina modelos físicos y aprendizaje automático. Las investigaciones futuras deben centrarse en ampliar su ámbito de aplicación y mejorar su rendimiento en contextos operativos complejos.

Referencia:

Torzoni, M., Tezzele, M., Mariani, S., Manzoni, A., & Willcox, K. E. (2024). A digital twin framework for civil engineering structuresComputer Methods in Applied Mechanics and Engineering418, 116584.

Os dejo el artículo completo, pues se encuentra en abierto:

Pincha aquí para descargar

Ya está disponible la norma UNE-EN ISO 56001:2024

La nueva norma ISO 56001, que establece un sistema de gestión de la innovación, ya está disponible. Esta norma es útil tanto para las organizaciones que ya cuentan con la certificación AENOR en gestión de la innovación como para aquellas que inician este proceso. La ISO 56001 facilita la migración desde la norma UNE 166002, con la que comparte más del 90 % de los requisitos, lo que permite una transición fluida. Las organizaciones tienen de plazo hasta enero de 2028 para realizar esta migración.

La certificación ISO 56001 no solo optimiza la gestión de la innovación, sino que también mejora la competitividad, eficiencia y sostenibilidad de las empresas. AENOR ha liderado el desarrollo de esta norma a nivel internacional, habiendo emitido ya más de 700 certificados en varios países.

La norma ISO 56001 introduce un nuevo enfoque respecto a la UNE 166002:2021, especialmente en lo que respecta a la definición y el alcance de la innovación. Mientras que la UNE 166002 abarcaba la I+D+i (Investigación, Desarrollo e Innovación), la ISO 56001 se centra únicamente en la innovación, integrando la investigación y el desarrollo dentro de este concepto.

El nuevo enfoque de innovación se orienta hacia la creación y redistribución de valor, entendido como las ganancias derivadas de la satisfacción de necesidades y expectativas, lo que incluye aspectos como ingresos, ahorros, productividad, sostenibilidad y satisfacción.

La principal novedad del sistema de gestión de la innovación de la ISO 56001 es su enfoque estratégico para planificar los procesos, en lugar de imponer una gran cantidad de requisitos. Las organizaciones deben tener en cuenta aspectos como las cuestiones internas y externas, los requisitos de las partes interesadas y los riesgos y oportunidades al planificar el sistema.

Otra novedad importante es la jerarquía establecida en la ISO 56001 para los niveles de gestión: intención > política > estrategia > objetivos > indicadores, en contraste con la jerarquía de la UNE 166002: visión > estrategia > política > objetivos > indicadores.

La razón de este enfoque es que un sistema de gestión de la innovación opera en tres niveles: estratégico, táctico y operativo. Según los requisitos de la norma ISO 56001, las relaciones entre estos niveles se describen de la siguiente manera:

  • Intención de innovación (Cláusula 4): En el nivel estratégico, define el alcance del sistema de gestión y establece la base para la estrategia de innovación.
  • Alcance (Cláusula 4): Determina los límites y la aplicabilidad del sistema de gestión de la innovación.
  • Política de innovación (Cláusula 5): Proporciona un marco para definir la estrategia y los objetivos de innovación. Esta política puede complementar otras políticas del sistema de gestión de la organización.
  • Estrategia de innovación (Cláusula 5): Basada en la intención de innovación, está alineada con la política de innovación y establece los objetivos estratégicos, creando el marco para definir los objetivos tácticos y las carteras de innovación.
  • Objetivos de innovación (Cláusula 6): A nivel táctico, deben ser coherentes con la política y la estrategia de innovación.
  • Carteras de innovación (Cláusula 6): Alineadas con la estrategia y los objetivos de innovación, consisten en un conjunto de iniciativas de innovación.
  • Iniciativas de innovación (Cláusula 8): Se desarrollan a nivel operativo.
  • Procesos de innovación (Cláusula 8): También establecidos a nivel operativo, son flexibles y adaptables para ejecutar las iniciativas de innovación.

Ventajas de implementar la ISO 56001

Las organizaciones que implementen y certifiquen un Sistema de Gestión de la Innovación según la Norma ISO 56001 disfrutarán de numerosos beneficios. A continuación, se detallan las principales ventajas:

  • Mejora de la capacidad de innovación: La norma ISO 56001 proporciona una estructura clara y procesos definidos que permiten gestionar la innovación de manera sistemática. Esto facilita la flexibilidad y adaptabilidad, y ayuda a las organizaciones a responder rápidamente a los cambios del mercado y a aprovechar nuevas oportunidades.
  • Aumento de la eficiencia y eficacia: Al implementar esta norma, se optimizan los recursos, ya que se garantiza su uso eficiente y orientado a actividades innovadoras. Además, fomenta la gestión proactiva de la incertidumbre y los riesgos, lo que reduce significativamente las posibilidades de fracaso en proyectos de innovación.
  • Fomento de una cultura de innovación: La adopción de la ISO 56001 fomenta comportamientos innovadores, como la exploración, la colaboración y la experimentación dentro de la organización. Además, motiva al personal y genera un entorno donde se valoran y apoyan las ideas innovadoras, lo que fortalece el compromiso de los empleados.
  • Mejora de la competitividad: Al fomentar la innovación, esta norma no solo mejora la competitividad de la organización, sino que también aumenta su capacidad para adaptarse a un entorno en constante cambio. La norma facilita la creación de productos, servicios y procesos innovadores que diferencian a la organización del resto en el mercado, lo que le otorga una ventaja competitiva. También permite adaptarse de manera efectiva a las demandas y tendencias del mercado, lo que garantiza una mejor respuesta a las necesidades de los clientes.
  • Creación de valor: La implementación de la ISO 56001 contribuye a generar valor financiero y no financiero a través de soluciones innovadoras. Además, garantiza la sostenibilidad a largo plazo de la organización al integrar la innovación en su estrategia empresarial.
  • Mejora de la gestión del conocimiento: Esta norma fomenta la explotación del conocimiento mediante la utilización de fuentes internas y externas para generar y aprovechar información. Además, establece enfoques efectivos para gestionar el conocimiento necesario para impulsar la innovación.
  • Integración con otros sistemas de gestión: La norma ISO 56001 es compatible con otros sistemas de gestión, como el de calidad (ISO 9001). Esto facilita una integración coherente y eficiente, y permite una gestión más holística de las operaciones organizativas.
  • Mejora continua: La norma fomenta la evaluación continua del rendimiento del sistema de gestión de la innovación y promueve la implementación de mejoras basadas en los resultados obtenidos. De este modo, se garantiza un progreso constante hacia la excelencia en innovación.
  • Certificación y reconocimiento: La certificación conforme a la ISO 56001 otorga credibilidad y reconocimiento, y demuestra el compromiso de la organización con la innovación. Además, aumenta la confianza de clientes, inversores y otras partes interesadas en la capacidad de la organización para innovar de manera efectiva.

En resumen, la ISO 56001 no solo mejora la capacidad de innovación, sino que también fortalece la competitividad, la eficiencia y la cultura de innovación dentro de las organizaciones, garantizando su sostenibilidad y éxito en un mercado dinámico.

9 beneficios de la gestión de la innovación con la ISO 56001. https://revista.aenor.com/408/beneficios-de-la-gestion-de-la-innovacion-con-la-nueva-iso-5.html#msdynttrid=u5uhfJbvbt2_jFR9qdSsTWyES9PhHwzzZA9G0gvVxWY

El presente informe analiza en profundidad la norma UNE-EN ISO 56001:2024, que establece los requisitos para un sistema de gestión de la innovación. A continuación, se desarrolla detalladamente su contenido según sus principales apartados.

Contexto de la organización

La norma exige que la organización comprenda su entorno interno y externo, incluidos los factores políticos, económicos, tecnológicos, sociales, legales y ambientales que puedan afectar a su capacidad para gestionar la innovación. Este análisis implica identificar riesgos, oportunidades y cuestiones relevantes que puedan influir en sus actividades.

Los factores externos incluyen condiciones políticas y legislativas, dinámicas del mercado, desarrollo tecnológico, cambios sociales, impacto ambiental y regulaciones gubernamentales. Una comprensión adecuada permite a la organización anticiparse a tendencias, identificar amenazas y descubrir nuevas oportunidades para innovar. Por ejemplo, cambios en la legislación medioambiental pueden fomentar el desarrollo de productos sostenibles.

En cuanto a los factores internos, se incluyen elementos como la cultura organizativa, la estructura jerárquica, los recursos disponibles, la experiencia acumulada y los procesos internos. La organización debe evaluar sus capacidades y limitaciones para determinar su nivel de preparación para la innovación. Un equipo bien capacitado y una cultura abierta a nuevas ideas son esenciales para facilitar la adopción de innovaciones.

También se subraya la necesidad de comprender las necesidades y expectativas de las partes interesadas, que pueden incluir clientes, empleados, proveedores, socios estratégicos y reguladores. Identificar sus intereses permite diseñar soluciones que generen valor y fortalezcan las relaciones comerciales.

Determinar el propósito de la innovación implica establecer metas claras sobre lo que se espera lograr a través de actividades innovadoras. Este propósito debe reflejarse en una declaración estratégica y estar respaldado por la alta dirección.

Por último, definir el alcance del sistema de gestión de la innovación implica delimitar las áreas de aplicación. Esto incluye identificar los procesos, productos, servicios y ubicaciones relevantes. El alcance debe documentarse formalmente y revisarse periódicamente para garantizar su pertinencia y alineación con los objetivos de la organización.

Liderazgo

La alta dirección debe demostrar liderazgo y compromiso mediante la definición de una política de innovación clara y alineada con la estrategia empresarial. Este compromiso incluye establecer una visión y objetivos estratégicos de innovación, garantizar recursos adecuados y fomentar una cultura organizativa que valore la innovación.

La alta dirección es responsable de integrar los requisitos del sistema de gestión de la innovación en todos los procesos de la organización. Debe establecer estructuras organizativas que permitan la colaboración, la toma de decisiones efectiva y el desarrollo de capacidades clave. El liderazgo implica delegar responsabilidades y empoderar a equipos y personas clave para desarrollar y gestionar iniciativas de innovación.

La comunicación efectiva es un aspecto esencial. La alta dirección debe comunicar la importancia de la innovación a todos los niveles de la organización y garantizar que los empleados comprendan los objetivos, la estrategia y su contribución individual. Esto incluye promover la transparencia, compartir información relevante y establecer mecanismos de retroalimentación.

Además, el liderazgo incluye la gestión del cambio. La alta dirección debe preparar a la organización para adaptarse a cambios internos y externos, fomentando la flexibilidad y la resiliencia. Debe fomentar un entorno que valore la toma de riesgos calculados y la experimentación controlada.

La promoción de una cultura de innovación es otro aspecto fundamental. Esto implica desarrollar valores organizativos que apoyen la creatividad, la apertura al cambio y el aprendizaje continuo. Se espera que la alta dirección actúe como modelo a seguir, demostrando un compromiso visible con la innovación mediante su participación activa en proyectos clave y la asignación de incentivos y reconocimientos adecuados.

Por último, se debe establecer una política de innovación formal que exprese claramente el compromiso de la organización con el desarrollo de nuevas ideas, la mejora continua y el cumplimiento de los requisitos legales y reglamentarios aplicables. Esta política debe estar documentada, comunicada y revisada periódicamente para garantizar su relevancia y eficacia.

Planificación

La planificación es un pilar fundamental para implementar un sistema de gestión de la innovación eficaz. Implica identificar riesgos y oportunidades, establecer objetivos claros y definir estrategias para alcanzarlos.

  • Identificación y gestión de riesgos y oportunidades: La organización debe realizar un análisis en profundidad de los riesgos y oportunidades relacionados con la innovación. Esto incluye factores internos, como los recursos disponibles y las capacidades técnicas, y factores externos, como los cambios en el mercado, las regulaciones y los avances tecnológicos. La gestión proactiva permite mitigar riesgos potenciales y aprovechar oportunidades emergentes.
  • Establecimiento de objetivos de innovación: Los objetivos deben ser específicos, medibles, alcanzables, relevantes y con plazos definidos (SMART). Deben alinearse con la estrategia general de la organización y abarcar todos los niveles funcionales. Los objetivos estratégicos marcan la dirección general, mientras que los tácticos y operativos detallan acciones específicas.
  • Desarrollo de estrategias y planes de acción: Para cada objetivo, la organización debe desarrollar planes detallados que incluyan los recursos necesarios, los responsables, los plazos y las métricas de éxito. Es crucial establecer indicadores clave de rendimiento (KPI) para hacer un seguimiento del progreso. Los planes deben ser flexibles y adaptables a cambios en el entorno.
  • Gestión de carteras de innovación: La gestión de carteras permite priorizar proyectos en función de criterios como la viabilidad técnica, el impacto potencial, el coste y la alineación estratégica. El portafolio debe ser equilibrado y considerar proyectos a corto, medio y largo plazo, con distintos niveles de riesgo e innovación disruptiva.

Apoyo

El éxito del sistema de gestión de la innovación depende de la provisión adecuada de recursos y del apoyo continuo por parte de la organización. Este apartado detalla los elementos clave que deben estar disponibles para garantizar el funcionamiento eficaz del sistema.

  • Recursos humanos: Para gestionar la innovación de manera efectiva, es necesario contar con un equipo cualificado y capacitado. La organización debe proporcionar formación continua para desarrollar habilidades técnicas, creativas y de gestión. El personal debe estar motivado y comprometido con políticas de incentivos, reconocimiento y planes de carrera.
  • Infraestructura y tecnología: Es indispensable contar con instalaciones físicas adecuadas y plataformas tecnológicas avanzadas que permitan desarrollar, implementar y gestionar iniciativas innovadoras. Esto incluye laboratorios, oficinas creativas y herramientas de gestión de proyectos.
  • Financiación y recursos económicos: Es fundamental contar con financiación acorde con los objetivos estratégicos de innovación. La financiación debe estar garantizada y ser acorde con los objetivos estratégicos de innovación. La asignación presupuestaria debe cubrir la investigación, el desarrollo, las pruebas y la comercialización de productos o servicios innovadores.
  • Gestión del conocimiento: La creación, el almacenamiento y la difusión del conocimiento son esenciales. Deben crearse sistemas para capturar lecciones aprendidas y buenas prácticas. El uso de plataformas digitales facilita la gestión de la información crítica.
  • Propiedad intelectual y cumplimiento legal: Es imprescindible proteger los derechos de propiedad intelectual mediante patentes, marcas y derechos de autor. La organización debe garantizar el cumplimiento de todas las normativas legales aplicables para evitar riesgos jurídicos.

Operación

Este apartado se centra en la ejecución de los procesos relacionados con la gestión de la innovación, que abarca desde la generación de ideas hasta la implementación de soluciones.

  • Gestión de iniciativas: Las iniciativas de innovación deben gestionarse mediante proyectos estructurados de manera adecuada. Esto implica definir objetivos claros, asignar recursos adecuados y establecer responsables para cada tarea.
  • Procesos de innovación: Los procesos de innovación incluyen la identificación de oportunidades, el desarrollo de conceptos, la validación de soluciones y su posterior implementación. Cada etapa debe estar documentada y ser objeto de un seguimiento constante.
  • Desarrollo y pruebas: Las soluciones innovadoras deben pasar por fases de desarrollo técnico y pruebas piloto para garantizar su viabilidad antes de implementarse por completo. Para ello, se realizan simulaciones, se crean prototipos y se ejecutan ensayos controlados.
  • Comercialización y lanzamiento: El proceso de innovación culmina con la comercialización de productos o servicios desarrollados. La estrategia de lanzamiento debe incluir análisis de mercado, marketing y distribución para maximizar su impacto.
  • Control: El rendimiento de las iniciativas debe controlarse de manera continua mediante indicadores clave de rendimiento (KPI). Así se pueden realizar ajustes y mejorar los resultados obtenidos.

Evaluación del rendimiento

La evaluación del rendimiento es un componente esencial para garantizar la sostenibilidad y la eficacia del sistema de gestión de la innovación. Implica medir, analizar y revisar los resultados obtenidos.

  • Auditorías internas: Las auditorías internas deben realizarse periódicamente para verificar el cumplimiento de los requisitos de la norma. Esto incluye revisar procesos, proyectos y resultados obtenidos, identificando desviaciones y proponiendo acciones correctivas.
  • Indicadores clave de rendimiento: Para evaluar el rendimiento de las iniciativas de innovación, es necesario definir y utilizar indicadores clave. Entre estos indicadores se incluyen el número de proyectos completados, la tasa de éxito de los lanzamientos, el retorno de la inversión (ROI) y la satisfacción de los clientes.
  • Revisión por parte de la alta dirección: La alta dirección debe llevar a cabo revisiones periódicas para analizar los avances del sistema de gestión de la innovación. Esto implica evaluar el cumplimiento de los objetivos estratégicos, identificar áreas de mejora y redefinir políticas y estrategias en función de los resultados obtenidos.
  • Análisis de resultados y mejoras continuas: Los resultados deben analizarse de manera integral, teniendo en cuenta tanto los éxitos como los fracasos. Las lecciones aprendidas deben documentarse para optimizar futuros procesos. La mejora continua debe ser un principio rector que guíe la evolución del sistema.

Mejora

Según la norma UNE-EN ISO 56001:2024, el proceso de mejora constituye un pilar central en la gestión de la innovación. Este proceso implica una revisión constante y sistemática de los procesos, los resultados y las estrategias implementadas. Su objetivo es incrementar la efectividad, adaptarse a nuevas condiciones del entorno y potenciar la capacidad innovadora de la organización.

  • Identificación de áreas de mejora: Para ello, la organización debe realizar un análisis continuo de sus procesos y resultados para identificar posibles áreas de mejora. Este análisis incluye el seguimiento de indicadores clave de rendimiento, la revisión de proyectos concluidos y la retroalimentación de las partes interesadas. Además, las auditorías internas y externas son fundamentales para detectar debilidades y oportunidades de crecimiento.
  • Gestión de no conformidades: La gestión de no conformidades se centra en la identificación, el registro y el tratamiento de desviaciones respecto a los estándares establecidos. La gestión de no conformidades consiste en identificar, registrar y tratar las desviaciones respecto a los estándares establecidos. Para ello, la organización debe contar con procedimientos que permitan analizar las causas raíz de las no conformidades, establecer acciones correctivas y prevenir su recurrencia.
  • Acciones correctivas y preventivas: Es fundamental implementar acciones correctivas para abordar los problemas identificados y minimizar su impacto negativo. Del mismo modo, las acciones preventivas buscan anticiparse a posibles problemas antes de que ocurran. Ambas deben estar documentadas, asignadas a responsables específicos y sujetas a plazos de ejecución para garantizar su cumplimiento y efectividad.
  • Evaluación de la eficacia de las mejoras: Es fundamental evaluar la eficacia de las mejoras implementadas. Para ello, la organización debe establecer métricas y realizar un seguimiento periódico para verificar si las acciones han logrado los resultados esperados. Esto permite ajustar estrategias y tomar decisiones informadas para futuras mejoras.
  • Revisión de la alta dirección: La alta dirección debe revisar regularmente el sistema de gestión de la innovación, considerando los resultados de auditorías, análisis de indicadores y retroalimentación de las partes interesadas. Esta revisión debe incluir la definición de nuevas metas, la reasignación de recursos y la actualización de políticas y procedimientos.
  • Innovación continua: La mejora debe ser entendida como un proceso continuo e integrado en la cultura organizacional. Esto implica fomentar un entorno donde la innovación sea un valor compartido y promover una actitud proactiva hacia el cambio y la búsqueda constante de soluciones creativas.
  • Lecciones aprendidas y gestión del conocimiento: Es esencial registrar y analizar las lecciones aprendidas de cada proyecto de innovación. La gestión del conocimiento permite capitalizar estas experiencias y aplicarlas a futuras iniciativas, reduciendo errores y potenciando el éxito en nuevos desarrollos.
  • Impulso de una cultura de mejora: Para lograr una mejora sostenida, la organización debe promover una cultura donde todos los niveles estén comprometidos con el aprendizaje continuo y la optimización de procesos. Esto incluye programas de formación, talleres de creatividad y espacios de intercambio de ideas.

Conclusión

La norma UNE-EN ISO 56001:2024 establece un enfoque integral para la gestión de la mejora en el contexto de la innovación. Su correcta aplicación permite a las organizaciones adaptarse a un entorno dinámico, ser más competitivas y generar valor sostenible a largo plazo.

Os paso un par de vídeos sobre los beneficios de la innovación con la nueva ISO 56001.

También os dejo un extracto de la norma.

Pincha aquí para descargar

Estructuras híbridas de acero

Viga armada de acero. https://www.renedometal.es/vigas-armadas-la-rioja/

El desarrollo de estructuras de acero ha sido un pilar fundamental en la ingeniería civil desde el siglo XIX. Obras emblemáticas como el puente de Brooklyn y la torre Eiffel son ejemplos tempranos de su aplicación con éxito. La evolución tecnológica ha dado lugar al desarrollo de conceptos avanzados como las vigas híbridas de acero, que permiten un mejor aprovechamiento del material y reducen los costes de manera significativa. Las vigas híbridas de acero son una solución avanzada en el ámbito de la construcción que permite optimizar el uso de materiales, reducir costes y mejorar la eficiencia estructural. Estas vigas combinan diferentes tipos de acero en sus componentes para maximizar la resistencia y minimizar el peso, por lo que constituyen una alternativa eficaz a las vigas homogéneas tradicionales.

Históricamente, han dominado el mercado las vigas de acero convencionales, en las que tanto el alma como las alas tienen la misma resistencia a la fluencia. Sin embargo, esta configuración puede llevar a un uso ineficiente del material, ya que las alas soportan la mayor parte de las tensiones de flexión. La incorporación de diferentes resistencias en las partes de la viga es una solución innovadora para optimizar el empleo del acero.

El concepto de viga híbrida implica el uso de acero de alta resistencia en las alas, donde se producen tensiones de tracción y compresión máximas, y de acero de resistencia moderada en el alma, que soporta tensiones menores. Esta configuración permite reducir el peso total de la viga, disminuir costes y mejorar la sostenibilidad mediante una utilización más eficiente de los recursos.

La investigación sobre vigas híbridas ha seguido tres enfoques principales: estudios experimentales, simulaciones computacionales y revisiones bibliográficas. Los ensayos experimentales evalúan el comportamiento estructural bajo diversas condiciones de carga. Las simulaciones computacionales permiten modelar situaciones complejas mediante el método de elementos finitos. Las revisiones bibliográficas consolidan el conocimiento existente y permiten identificar lagunas en la investigación.

Las estructuras híbridas son objeto de nuestros proyectos de investigación HYDELIFE y RESILIFE que dirijo como investigador principal en la Universitat Politècnica de València. En las referencias se encuentran tres de los artículos publicados al respecto, los cuales se pueden descargar por estar publicados en abierto. Además, ya publicamos varias entradas sobre estos trabajos hace unos meses.

En un artículo anterior (Terreros-Bezoya et al., 2023), ya hicimos referencia a un estudio del estado del arte al respecto. En dicha investigación se revisaron 128 publicaciones sobre diseño de vigas y se utilizó un análisis de correspondencia para identificar patrones en variables como la resistencia de alas y alma, las condiciones de carga y los métodos de cálculo. Se sistematiza el conocimiento existente y se destacan enfoques de diseño eficaces. Se identifican ratios híbridos ideales, con un equilibrio entre resistencia y economía de material, que oscilan entre 1,3 y 1,6. Además, el estudio destaca las ventajas ambientales y económicas de las vigas híbridas, ya que al reducir el peso de las estructuras, disminuyen los costes de transporte, instalación y materiales, y, por tanto, las emisiones de CO₂. Esta estrategia se alinea con los objetivos de la Unión Europea para lograr la neutralidad climática en 2050 y mejora la viabilidad de proyectos a gran escala al reducir los costes de fabricación y montaje.

Estudios recientes han demostrado que las vigas híbridas son superiores en términos de resistencia y eficiencia económica. Ensayos experimentales muestran que pueden soportar cargas hasta un 40% mayores que las vigas convencionales debido a su capacidad para distribuir tensiones de manera más efectiva. Además, su uso puede reducir los costos de construcción en un 20%, considerando ahorros en materiales, transporte e instalación.

En términos de distribución geográfica, la investigación sobre vigas híbridas está dominada por Estados Unidos, China y Europa, con un crecimiento notable en Asia debido a su desarrollo infraestructural. Los estudios se centran en tres áreas principales: comportamiento estructural, desarrollo de metodologías de diseño y optimización económica.

Las investigaciones sobre flexión pura revelan que una resistencia a la fluencia de 300 MPa en el alma y 500 MPa en las alas mejora significativamente el rendimiento estructural. En términos de corte puro, se ha logrado mejorar la resistencia en un 25% mediante el desarrollo de campos de tensión diagonales. La interacción flexión-corte permite incrementar la resistencia última hasta un 30% al diseñar refuerzos de ala y distribuciones de carga adecuadas.

El trabajo de Negrín et al. (2023) presenta una metodología para optimizar el diseño de vigas híbridas de acero soldado y, por tanto, mejorar su coste. Se formula un problema de optimización que permite configuraciones híbridas con diferentes tipos de acero y se considera el coste de fabricación como función objetivo. Los resultados indican que el diseño optimizado puede ser hasta un 50 % más económico que los métodos tradicionales. Además, se sugieren métodos para comparar soluciones óptimas y se establecen líneas de investigación futuras basadas en los resultados obtenidos.

El estudio de Negrín et al. (2024) destaca los beneficios económicos de las vigas de acero híbridas transversal-longitudinalmente (TLH), mostrando una reducción de costos de fabricación superior al 50% en comparación con diseños tradicionales. Se identifican configuraciones TLH como más eficaces para elementos grandes, con recomendaciones para puntos de transición y configuraciones de materiales según niveles de tensión. Además, la metodología propuesta promueve un diseño sostenible, optimizando elementos TLH para mejorar aspectos económicos y ambientales, lo que sugiere futuras investigaciones en comportamiento estructural y sostenibilidad.

Sin embargo, persisten desafíos en áreas como la soldadura y la fabricación. La unión de materiales con diferentes propiedades requiere técnicas especializadas y electrodos adecuados para garantizar la integridad estructural. Además, los estándares de diseño actuales deben actualizarse para reflejar las características específicas de las vigas híbridas y proporcionar directrices más detalladas para su aplicación.

En conclusión, las vigas híbridas de acero ofrecen una combinación única de resistencia, sostenibilidad y economía. Los avances en fabricación, en métodos computacionales y en el análisis del ciclo de vida continúan impulsando su desarrollo. La colaboración entre instituciones académicas, la industria y los organismos reguladores será esencial para su adopción generalizada. La actualización de los códigos de diseño y la estandarización de los procesos de fabricación mejorarán su competitividad en proyectos de infraestructura a gran escala.

Referencias:

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2024). Optimized Transverse-Longitudinal Hybrid Construction for Sustainable Design of Welded Steel Plate Girders. Advances in Civil Engineering, 2024:5561712. DOI:10.1155/2024/5561712.

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2023). Design optimization of welded steel plate girders configured as a hybrid structure. Journal of Constructional Steel Research, 211:108131. DOI:10.1016/j.jcsr.2023.108131

TERREROS-BEDOYA, A.; NEGRÍN, I.; PAYÁ-ZAFORTEZA, I.; YEPES, V. (2023). Hybrid steel girders: review, advantages and new horizons in research and applications. Journal of Constructional Steel Research, 207:107976. DOI:10.1016/j.jcsr.2023.107976.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Diseño optimizado de edificios de pórticos de hormigón armado frente al colapso progresivo mediante metamodelos

El diseño estructural de los edificios plantea importantes retos para garantizar su seguridad y sostenibilidad. El colapso progresivo, provocado por eventos extremos como terremotos o explosiones, puede ocasionar daños catastróficos. Para reducir este riesgo, se propone una metodología de diseño apoyada en metamodelos que combina optimización estructural y criterios de seguridad, y que tiene en cuenta elementos que a menudo se pasan por alto, como los forjados, las pantallas de arriostramiento y la interacción suelo-estructura (SSI, por sus siglas en inglés).

El trabajo se enmarca dentro del proyecto de investigación RESILIFE que dirijo como investigador principal en la Universitat Politècnica de València. También es fruto de la colaboración con investigadores de Brasil y Cuba.

Metodología

Descripción del problema

Se estudiaron cinco edificios de pórticos de hormigón armado con diferentes configuraciones de plantas y luces. Las estructuras incluyen vigas, columnas, forjados y pantallas de arriostramiento. Además, se incorporó el diseño optimizado de cimentaciones, considerando la interacción con el suelo mediante modelos de elasticidad lineal. Las dimensiones de los elementos estructurales se ajustaron siguiendo las normas internacionales de diseño y se consideraron distintas combinaciones de carga para evaluar escenarios críticos.

Se realizaron simulaciones numéricas avanzadas que tuvieron en cuenta escenarios de carga extremos, incluyendo la pérdida de columnas críticas en diversas posiciones. En el análisis se tuvieron en cuenta factores de seguridad, límites de servicio y fallos estructurales para determinar los diseños óptimos. También se tuvieron en cuenta criterios de sostenibilidad y se midieron las emisiones de CO₂ asociadas a cada solución.

Optimización basada en un diseño robusto frente al colapso progresivo (ObRDPC)

La metodología ObRDPC se centra en minimizar las emisiones de CO₂ como función objetivo, garantizando simultáneamente la robustez estructural mediante restricciones de seguridad. Para evaluar el colapso progresivo y simular la pérdida de columnas críticas, así como analizar la redistribución de cargas, se empleó el método de camino alternativo (AP). La metodología incluye la verificación de estados límite últimos y de servicio, lo que garantiza el cumplimiento de los requisitos normativos.

El proceso de optimización incluye la definición precisa de las variables de diseño, como las dimensiones de las vigas, columnas y cimentaciones, así como el tipo de hormigón utilizado. Para maximizar la eficiencia estructural y minimizar los costos ambientales, se aplican técnicas de programación matemática.

Modelización de forjados y pantallas de arriostramiento

  • Forjados: se modelaron como elementos tipo placa de 12 cm de espesor y se conectaron a las vigas mediante nodos rígidos para asegurar la continuidad estructural. Se realizó una discretización adecuada para representar su comportamiento realista ante cargas verticales y horizontales. El análisis incluyó el comportamiento a flexión, los efectos de cargas concentradas y la interacción con los elementos perimetrales. Se consideraron diferentes configuraciones de refuerzo para maximizar la resistencia y minimizar las deformaciones.
  • Pantallas de arriostramiento: representadas mediante diagonales equivalentes elásticas, según las especificaciones normativas. Se definieron sus propiedades mecánicas mediante modelos experimentales previos, incluyendo el módulo de elasticidad y la resistencia a compresión. Se estudiaron distintos tipos de mampostería y su influencia en la resistencia general. Las pantallas de arriostramiento también se evaluaron como elementos activos en la redistribución de cargas después de eventos que provocan la pérdida de soporte, lo que mejora la estabilidad global del sistema estructural.

Interacción suelo-estructura (SSI)

Se consideró el asentamiento diferencial de las cimentaciones mediante coeficientes de rigidez calculados según modelos elásticos. El suelo se modeló como un medio elástico semiespacial. En el análisis se incluyó la interacción entre la superestructura y el terreno para capturar los efectos de asentamientos desiguales y su impacto en el estado de esfuerzos y deformaciones.

En el análisis se tuvieron en cuenta diferentes tipos de suelos, desde arcillas de baja resistencia hasta suelos granulares compactados. Se realizaron estudios paramétricos para evaluar la sensibilidad del sistema a variaciones en la rigidez del terreno y el módulo de elasticidad del hormigón.

Cinco estudios de casos que consideran la modelización de cimientos, forjados y pantallas de arriostramiento.

Optimización asistida por metamodelos

Se utilizaron técnicas avanzadas de optimización asistida por metamodelos para reducir la carga computacional. El proceso incluyó un muestreo inicial mediante muestreo hipercúbico latino para cubrir eficientemente el espacio de diseño, seguido de la construcción del metamodelo a través de técnicas de interpolación Kriging para aproximar las respuestas estructurales, evaluando múltiples configuraciones para garantizar la precisión. Posteriormente, se aplicó una optimización global utilizando algoritmos evolutivos, como la Biogeography-based Optimization (BBO), para explorar soluciones factibles y un método iterativo para refinar las soluciones y garantizar su viabilidad en condiciones críticas.

Resultados

Impacto de forjados y pantallas de arriostramiento

La inclusión de forjados y pantallas de arriostramiento mejoró significativamente la redistribución de cargas y la resistencia al colapso progresivo. El análisis mostró una reducción del 11 % en el impacto ambiental para diseños resistentes al colapso, en comparación con modelos que solo consideran vigas y columnas.

Se observó una mejora notable en la capacidad de redistribución de cargas después de la pérdida de columnas críticas. Las pantallas de arriostramiento actuaron como elementos resistentes adicionales, mitigando fallos en los elementos primarios y reduciendo los desplazamientos globales.

Comparación de enfoques de diseño

Se observó que aumentar el número de niveles incrementa la robustez estructural debido a la mayor redundancia de elementos. Sin embargo, el incremento de la longitud de las luces de las vigas reduce esta capacidad, por lo que es necesario utilizar secciones más robustas y aplicar mayores refuerzos.

Los modelos con luces de 8 m presentaron un aumento del 50 % en las emisiones de CO₂ cuando no se incluyeron forjados ni pantallas de arriostramiento. Al incorporarlos, se consiguió reducir este incremento a la mitad.

Recomendaciones prácticas para el diseño estructural

  1. Incluir forjados y pantallas de arriostramiento: Su integración mejora significativamente la resistencia al colapso progresivo, particularmente en edificios con luces amplias.
  2. Optimizar secciones estructurales: Diseñar secciones de vigas y columnas equilibrando rigidez y eficiencia económica.
  3. Evaluar diferentes tipos de cimentaciones: Incorporar análisis de interacción suelo-estructura para definir bases óptimas.
  4. Aplicar análisis paramétricos: Evaluar la sensibilidad de los diseños a variaciones en la resistencia del hormigón y las condiciones geotécnicas.
  5. Considerar combinaciones de carga extremas: Simular múltiples fallos para garantizar diseños robustos y seguros.

Conclusión

La optimización basada en un diseño robusto frente al colapso progresivo (ObRDPC) permite diseñar estructuras resistentes al colapso progresivo con menor impacto medioambiental. El uso de metamodelos y la consideración de forjados, pantallas de arriostramiento y la interacción suelo-estructura mejoran significativamente la seguridad estructural y la sostenibilidad del diseño. Se recomienda ampliar esta investigación a otros tipos de estructuras y condiciones geotécnicas complejas para validar y perfeccionar la metodología propuesta.

Referencia:

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementation. Engineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487

Como el artículo se ha publicado en abierto, lo podéis descargar aquí:

Pincha aquí para descargar

Escalas Likert: una herramienta fundamental en la ingeniería de encuestas

https://delighted.com/es/blog/likert-scale

Las escalas Likert son un estándar en la investigación social, educativa y empresarial gracias a su simplicidad y eficacia a la hora de medir percepciones y actitudes. En ingeniería, son fundamentales para recopilar datos en estudios de usabilidad, gestión de proyectos y análisis de riesgos, entre otros.

Este artículo amplía el debate sobre las escalas Likert, abordando su diseño, implementación, análisis y aplicaciones prácticas en diversos campos de la ingeniería.

¿Qué son las escalas Likert?

De University of Michigan. News and Information Services. Photographs – Bentley Historical Library, CC BY 4.0, https://commons.wikimedia.org/w/index.php?curid=76306573

Desarrolladas por Rensis Likert en 1932, estas escalas son un método para medir actitudes a través de una serie de afirmaciones ante las que el encuestado expresa su nivel de acuerdo o desacuerdo. Generalmente, tienen entre 5 y 7 puntos, aunque en ciertas situaciones se utilizan versiones más específicas. Su unidimensionalidad y simplicidad las hacen ideales para capturar datos subjetivos de forma sistemática.

Las principales características son la unidimensionalidad, ya que los ítems deben medir un único constructo (satisfacción, percepción o actitud), la versatilidad, que permite evaluar dimensiones como la frecuencia, la importancia y la probabilidad en diversos contextos, y la comparabilidad, por el hecho de que la estandarización de respuestas facilita la comparación entre grupos y estudios a lo largo del tiempo.

Los componentes de una escala Likert incluyen afirmaciones o ítems, que son declaraciones sobre las que el encuestado expresa su nivel de acuerdo o desacuerdo; opciones de respuesta, que representan un rango de valores como «Totalmente en desacuerdo», «Neutral» y «Totalmente de acuerdo», y puntuación, donde las respuestas se codifican numéricamente para facilitar el análisis estadístico.

El diseño de un cuestionario con escala Likert

El diseño de un cuestionario bien estructurado es fundamental para garantizar la calidad de los datos recopilados. Esto incluye desde la redacción de las preguntas hasta la elección del tipo de respuesta.

  • Redacción de ítems: La calidad de un cuestionario depende de la claridad y precisión de sus elementos, por lo que se recomienda evitar ambigüedades, expresar una sola idea con cada elemento, utilizar afirmaciones neutrales para minimizar sesgos emocionales y adaptar el lenguaje al contexto, teniendo en cuenta el nivel de comprensión del grupo objetivo. Por ejemplo, la pregunta «Estoy satisfecho con la calidad y el precio del servicio» debería descomponerse en dos preguntas distintas. Formulaciones como «¿Está de acuerdo con que los políticos son corruptos?», introducen sesgos emocionales.
  • Opciones de respuesta: Para diseñar opciones de respuesta efectivas, es relevante que sean claras, equidistantes y exhaustivas. El número de categorías debe tenerse en cuenta; cinco es el estándar, mientras que escalas de siete puntos ofrecen mayor precisión y escalas con menos de tres puntos limitan la variabilidad. Además, elegir entre escalas pares o impares influye en los resultados: las pares eliminan el punto medio neutral, por lo que obligan a los encuestados a posicionarse en uno de los dos extremos.
  • Organización y estructura: La organización y estructura de un cuestionario debe seguir un flujo lógico, aplicando la técnica del embudo, que consiste en comenzar con preguntas generales y poco sensibles, avanzar hacia ítems más específicos y personales y agrupar por temas para mantener la coherencia y reducir la fatiga cognitiva.
  • Realización de pretests: La realización de pretests es esencial para evaluar la comprensión, fluidez y relevancia del cuestionario, lo que permite identificar y corregir errores antes de su implementación final.
De Nicholas Smithvectorization: Trabajo propio – Trabajo propio, based on File:Example Likert Scale.jpg, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=18615046

Análisis de datos obtenidos con escalas Likert

La fortaleza de las escalas Likert radica en su capacidad para adaptarse a diversos métodos analíticos. Los datos obtenidos pueden proporcionar información valiosa, ya sea en análisis descriptivos o en modelos avanzados.

1. Análisis descriptivo

  • Tendencia central: La media y la mediana resumen la tendencia general de las respuestas.
  • Dispersión: Indicadores como el rango o la desviación estándar ayudan a entender la variabilidad en las respuestas.
  • Visualización: Gráficos de barras, histogramas y diagramas de cajas facilitan la interpretación rápida.

2. Relación entre variables

El análisis bivariado permite explorar cómo se relacionan diferentes variables dentro de la escala Likert:

  • Correlación de Pearson: Evalúa la relación lineal entre dos variables continuas.
  • Tablas de contingencia: Adecuadas para analizar categorías derivadas de respuestas Likert.

3. Análisis factorial exploratorio (AFE)

Este enfoque permite identificar dimensiones latentes que subyacen en los ítems:

  • Validación estructural: Determina si los ítems agrupan un único constructo o múltiples dimensiones.
  • Técnicas de reducción: PCA (Análisis de Componentes Principales) y AFE ayudan a simplificar la interpretación.

4. Evaluación de la fiabilidad

La consistencia interna de una escala se mide comúnmente mediante el alfa de Cronbach. Valores superiores a 0,7 suelen considerarse aceptables.

Ventajas y limitaciones

Entre sus ventajas destacan su accesibilidad, ya que son fáciles de implementar y entender, su flexibilidad, al adaptarse a diversas áreas de investigación, y su simplicidad analítica, que permite análisis básicos y avanzados. Sin embargo, presentan limitaciones: la deseabilidad social, donde las respuestas pueden estar influenciadas por lo que es socialmente aceptable; la ambigüedad en las opciones medias, ya que categorías como «Neutral» pueden interpretarse de manera diferente; y la unidimensionalidad no garantizada, por lo que es necesario validar su estructura interna mediante análisis factorial.

Aplicaciones en ingeniería

Las escalas Likert tienen amplias aplicaciones en ingeniería, por ejemplo, en estudios de satisfacción para evaluar la percepción de los usuarios sobre productos o servicios, en gestión de riesgos para analizar actitudes hacia posibles escenarios de riesgo en proyectos y en usabilidad de software para medir la experiencia del usuario en diseño y funcionalidad de interfaces. En la evaluación de proyectos, sirven para recopilar información sobre aspectos como el cumplimiento de plazos, la calidad del producto y la eficiencia del equipo.

Conclusión

Las escalas Likert son una herramienta esencial para medir percepciones, actitudes y comportamientos. Su versatilidad y facilidad de implementación las convierten en una opción popular en investigaciones de ingeniería y ciencias sociales. El diseño riguroso del cuestionario y el análisis adecuado de los datos garantizan resultados fiables que pueden orientar la toma de decisiones, mejorando procesos y productos en diversos ámbitos de la ingeniería.

Os dejo a continuación una presentación que hice en Santiago de Chile, sobre el análisis de cuestionarios basados en escalas Likert. Espero que sea de vuestro interés.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Optimización de programas de mantenimiento vial: eficiencia y estrategias a largo plazo con algoritmos heurísticos.

Optimal pavement maintenance programs based on a hybrid Greedy Randomized Adaptive Search Procedure Algorithm

El artículo, titulado «Optimal pavement maintenance programs based on a hybrid Greedy Randomized Adaptive Search Procedure Algorithm», escrito por Víctor Yepes, Cristina Torres-Machí, Alondra Chamorro y Eugenio Pellicer, y publicado en el Journal of Civil Engineering and Management, presenta una innovadora herramienta para la gestión eficiente del mantenimiento vial. Este trabajo aborda cómo diseñar programas que maximicen la efectividad a largo plazo (Long-Term Effectiveness, LTE) en redes viales, superando las limitaciones presupuestarias y el desgaste progresivo de las infraestructuras. Para ello, se desarrolla un enfoque híbrido que combina los algoritmos Greedy Randomized Adaptive Search Procedure (GRASP) y Threshold Accepting (TA), lo que permite optimizar la asignación de recursos y cumplir con restricciones técnicas y económicas. Entre los resultados más destacados, se encuentra una mejora del 40 % en la LTE en comparación con estrategias reactivas, que también subraya la importancia de priorizar inversiones tempranas y de implementar tratamientos preventivos como la opción más eficiente a largo plazo.

Introducción

La infraestructura vial es uno de los activos más valiosos de cualquier nación, ya que tiene un impacto directo en el desarrollo económico y social al facilitar el transporte de bienes y personas, por lo que es necesario realizar un mantenimiento adecuado para evitar el deterioro y el incremento de los costes futuros de rehabilitación. Sin embargo, los presupuestos de las agencias públicas son limitados y no alcanzan a cubrir las necesidades de conservación, lo que genera una brecha cada vez mayor entre el estado actual de las infraestructuras y los niveles de inversión requeridos. En Estados Unidos, un tercio de las carreteras están en condiciones mediocres o deficientes, y uno de cada nueve puentes presenta deficiencias estructurales. En España, las necesidades de mantenimiento vial superan los 5500 millones de euros, pero los presupuestos se redujeron un 20 % en 2012, lo que agravó aún más la situación. Este mantenimiento tardío no solo incrementa los riesgos estructurales, sino que también triplica los costes de rehabilitación y los gastos operativos de los vehículos, lo que plantea un problema central: decidir cómo asignar los fondos disponibles de forma óptima para maximizar el rendimiento a largo plazo de las infraestructuras, respetando restricciones técnicas y económicas, y considerando los beneficios acumulados para los usuarios.

Metodología

Formulación del problema de optimización

El problema se define como la maximización de la LTE, un indicador que mide los beneficios acumulados derivados de una infraestructura bien mantenida durante su ciclo de vida.

  1. Función objetivo:
    • Maximizar el área bajo la curva de rendimiento de las infraestructuras (Area Bounded by the Performance Curve, ABPC). Este área refleja la calidad y el nivel de servicio de la infraestructura a lo largo del tiempo.
  2. Restricciones:
    • Presupuestaria: Garantizar que los costos anuales de mantenimiento no excedan el presupuesto disponible en cada año del periodo de planificación.
    • Técnica: Mantener las secciones de la red en una condición mínima aceptable. Esto se evalúa mediante indicadores como el Urban Pavement Condition Index (UPCI, Índice de Condición del Pavimento Urbano), que clasifica la calidad del pavimento en una escala del 1 (peor) al 10 (mejor).
  3. Variables de diseño:
    • Determinar qué secciones de la red deben tratarse, qué tratamiento aplicar y en qué momento realizarlo durante el horizonte de planificación.
  4. Parámetros:
    • Inventario: Datos sobre el tipo de pavimento, su longitud y ancho, condiciones climáticas y características del tráfico.
    • Técnicos: Condición inicial del pavimento, modelos de deterioro a lo largo del tiempo y el conjunto de tratamientos disponibles.
    • Económicos: Costos unitarios de mantenimiento para cada tratamiento.
    • Estratégicos: Periodo de planificación, tasa de descuento y estándares mínimos requeridos.
Las actividades de mantenimiento conllevan un aumento de la vida útil del firme (ΔSL) y, por tanto, una mejora inmediata de su estado (ΔUPCI) en el momento de su aplicación

Algoritmo GRASP-TA

El enfoque híbrido combina dos estrategias complementarias:

  1. GRASP (Procedimiento de Búsqueda Aleatoria Codiciosa Adaptativa):
    • Genera una población inicial de soluciones viables considerando una relajación controlada de las restricciones presupuestarias.
    • Utiliza funciones de priorización para evaluar el impacto de cada posible tratamiento en la LTE y seleccionar las mejores alternativas mediante un proceso probabilístico.
  2. TA (Aceptación de Umbral):
    • Realiza una optimización local a las soluciones generadas por GRASP.
    • Permite aceptar soluciones ligeramente peores en las primeras iteraciones para evitar quedarse atrapado en óptimos locales.
    • Ajusta iterativamente las restricciones presupuestarias relajadas en GRASP para cumplir con las condiciones originales.
Efecto del tratamiento sn para construir la solución en el año t con el algoritmo GRASP

Caso de estudio: red urbana en Santiago, Chile

La red analizada se encuentra en Santiago de Chile. Está compuesta por 20 secciones con pavimentos flexibles (asfálticos) y rígidos (hormigón). El clima de la región es mediterráneo, lo que influye en los patrones de deterioro del pavimento. La condición inicial media de la red es 6,8, según el Índice de Condición del Pavimento Urbano (UPCI), lo que indica una calidad intermedia.

Para los pavimentos asfálticos, los tratamientos evaluados incluyeron opciones de preservación, mantenimiento y rehabilitación. En preservación, el sellado de fisuras aumenta la vida útil en 2 años y tiene un coste de 0,99 USD/m². En el mantenimiento, el fresado y la repavimentación funcional ofrecen 10 años de vida útil por 23,24 USD/m². En rehabilitación, la rehabilitación en frío alcanza los 13 años con un coste de 36,50 USD/m².

Para los pavimentos de hormigón, los tratamientos incluyeron preservación y rehabilitación. El pulido con diamante aumenta la vida útil en 10 años y tiene un coste de 15,39 USD/m². La reconstrucción completa proporciona 25 años de servicio por un coste de 134,60 USD/m². Estos tratamientos representan opciones para diferentes niveles de deterioro y requisitos estructurales.

El programa optimizado mostró un impacto significativo en la efectividad a largo plazo (LTE). Se logró una mejora del 40 % en la LTE en comparación con las estrategias reactivas. Los tratamientos preventivos dominaron las decisiones, seleccionándose en el 80 % de los casos, lo que evidencia su mayor efectividad frente a opciones correctivas o de rehabilitación.

En términos de coste-eficacia, no se seleccionaron los tratamientos reciclados. Aunque ofrecen beneficios similares en términos de vida útil, su alto coste los hace menos competitivos frente a alternativas más económicas, lo que destaca la importancia de equilibrar costes y beneficios en el diseño de programas de mantenimiento.

Análisis de escenarios

1. Escenarios de inventario:

Se analizaron redes con diferentes proporciones de pavimentos asfálticos y de hormigón, con configuraciones del 25 %, 50 % y 75 % para cada tipo. También se estudiaron tres condiciones iniciales de las redes: buenas, intermedias y deficientes. Este análisis permitió evaluar la influencia de las características estructurales y del estado inicial en la optimización de los programas de mantenimiento.

En todos los casos, los resultados mostraron que la optimización mediante el algoritmo GRASP-TA era superior a las estrategias reactivas tradicionales. Esto demostró que el método es altamente adaptable a diversas configuraciones de red y capaz de ofrecer soluciones efectivas en términos de LTE, independientemente de las características de la red o de su estado inicial.

2. Escenarios presupuestarios:

El análisis incluyó variaciones en el presupuesto total, con incrementos y reducciones de hasta el 20 %, así como cambios en la distribución de los fondos a lo largo del tiempo. Se evaluaron dos configuraciones principales para entender su impacto en el rendimiento a largo plazo.

El escenario con mayor inversión en los primeros años mostró un aumento significativo de la LTE. Esto puso de manifiesto que la asignación temprana de fondos mejora sustancialmente los resultados del mantenimiento. Por el contrario, los aumentos progresivos anuales redujeron la LTE en un 15 % respecto al caso base, lo que indica que posponer la inversión perjudica el rendimiento de la red.

Conclusiones

Asignar más recursos durante los primeros años de un programa de mantenimiento es fundamental para optimizar el rendimiento a largo plazo de las infraestructuras. Este análisis pone de manifiesto la importancia de una planificación presupuestaria estratégica, ya que señala que el momento en que se invierten los recursos tiene un impacto considerable en los beneficios acumulados de la red.

  1. Eficiencia del método GRASP-TA: Diseña programas que maximizan la LTE bajo restricciones técnicas y económicas reales.
  2. Importancia de la prevención: Las actividades preventivas son significativamente más rentables a largo plazo.
  3. Estrategias presupuestarias: Es esencial priorizar mayores inversiones en los primeros años del programa para maximizar su impacto.
  4. Limitaciones de los tratamientos reciclados: Aunque presentan beneficios ambientales, su alto costo relativo limita su inclusión en las soluciones optimizadas cuando solo se consideran aspectos técnicos y económicos.

Como recomendaciones futuras habría que integrar criterios de sostenibilidad, como impactos ambientales y sociales, y extender el análisis a redes más grandes y diversas.

Referencia:

YEPES, V.; TORRES-MACHÍ, C.; CHAMORRO, A.; PELLICER, E. (2016). Optimal pavement maintenance programs based on a hybrid greedy randomized adaptive search procedure algorithm. Journal of Civil Engineering and Management, 22(4):540-550. DOI:10.3846/13923730.2015.1120770

Aquí os dejo el artículo por si os resulta de interés.

Pincha aquí para descargar