Optimización estructural multiobjetivo en edificios: cómo reducir costos y emisiones con vigas de sección variable

Acaban de publicar nuestro artículo en la revista Energy and Buildings, de la editorial Elsevier, indexada en D1 del JCR. El estudio presenta una tipología estructural compuesta que combina columnas de hormigón armado con vigas de acero de sección variable híbrida transversal (THVS) para optimizar el coste económico, las emisiones de CO₂ y la energía incorporada en la construcción de edificios.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València.

El estudio plantea la siguiente pregunta de investigación: ¿en qué medida la optimización del diseño estructural de edificios en marco mediante el uso de una tipología compuesta con columnas de hormigón armado y vigas de sección variable transversamente híbridas (THVS) contribuye a la reducción del coste económico, de las emisiones de CO₂ y de la energía incorporada en la construcción?

Esta formulación permite abordar de manera precisa la problemática del impacto ambiental y económico del sector de la construcción, orientando la investigación hacia la identificación de configuraciones estructurales que minimicen estos factores mediante metodologías de optimización. La pregunta define claramente el problema central: la búsqueda de una alternativa estructural más eficiente que las tipologías tradicionales de hormigón armado.

Metodología

El estudio adopta un enfoque de optimización estructural basado en la combinación de Biogeography-Based Optimization (BBO) y Constrained Deterministic Local Iterative Search (CDLIS). Este enfoque permite buscar de manera eficiente soluciones en un espacio de diseño altamente complejo. Se analizan tres tipologías estructurales:

  1. Estructura tradicional de hormigón armado: Se optimizan las dimensiones de vigas, columnas y cimentaciones, así como la calidad del hormigón utilizado.
  2. Estructura compuesta con vigas THVS y uniones rígidas: Se sustituyen las vigas de hormigón armado por vigas THVS con conexiones fijas a las columnas.
  3. Estructura compuesta con vigas THVS y uniones articuladas: Similar a la anterior, pero con conexiones articuladas.

Las funciones objetivo optimizadas incluyen:

  • Coste económico: Calculado con base en los precios unitarios de materiales y procesos constructivos.
  • Emisiones de CO₂(e): Evaluadas según un enfoque «cradle-to-site», considerando la extracción de materias primas, fabricación y construcción.
  • Energía incorporada: Calculada en términos de consumo energético total en las fases de producción y construcción.

Se tienen en cuenta restricciones estructurales y de servicio según las normativas de diseño. Además, se implementa la interacción suelo-estructura mediante un modelo de tipo Winkler para evaluar los asentamientos diferenciales y su efecto en el diseño estructural.

Aportaciones relevantes

  • La tipología compuesta con vigas THVS y conexiones rígidas logra una reducción del 6 % en costes económicos, del 16 % en emisiones de CO₂ y del 11 % en energía incorporada para edificios con luces de 4 m.
  • Para edificios con luces de 8 m, la configuración con uniones articuladas permite reducir los costos económicos y las emisiones en un 5 % y un 6 %, respectivamente, aunque con un mayor consumo de energía.
  • Se demuestra que la menor carga axial transmitida por las vigas THVS reduce las solicitaciones en columnas y cimentaciones, lo que optimiza su diseño y reduce su impacto ambiental.
  • Se comprueba que el uso de acero de mayor calidad en las alas de las vigas THVS en comparación con el alma mejora la eficiencia estructural, con razones de hibridación (Rh) entre 1,2 y 2,0.

Discusión de resultados

El análisis de los resultados revela diferencias significativas entre las configuraciones estructurales. En los edificios con luces reducidas (4 m), las vigas THVS con uniones rígidas ofrecen el mejor rendimiento en términos de coste y sostenibilidad. En cambio, en edificios con luces mayores (8 m), las conexiones articuladas permiten un mejor aprovechamiento del material, aunque con una menor rigidez global.

Cabe destacar que la consideración de elementos de rigidización adicionales, como muros y losas, mejora notablemente el comportamiento de la tipología articulada, reduciendo su impacto ambiental en un 45 % y disminuyendo en un 60 % la carga axial sobre las columnas.

Líneas futuras de investigación

  • Perfeccionamiento del proceso de fabricación de vigas THVS, abordando aspectos como soldadura, control de calidad y optimización de ensamblaje.
  • Desarrollo de conexiones híbridas entre vigas THVS y columnas de hormigón armado, mejorando la eficiencia de transferencia de cargas.
  • Exploración de configuraciones mixtas de soporte, optimizando la selección de conexiones fijas o articuladas según las características del edificio.
  • Evaluación del comportamiento ante cargas dinámicas y sísmicas, considerando efectos de fatiga y estabilidad estructural.
  • Implementación de metamodelos para optimización computacional, reduciendo el tiempo de cálculo en simulaciones de alta fidelidad.

Conclusión

La optimización del diseño estructural de edificios en marco mediante el uso de vigas THVS permite reducir costes y mejorar la sostenibilidad ambiental. Las configuraciones con conexiones rígidas son particularmente eficientes en luces cortas, mientras que las conexiones articuladas son una alternativa viable en luces mayores cuando se combinan con elementos de rigidización adicionales. Estos hallazgos abren nuevas líneas de investigación en la aplicación y mejora de sistemas estructurales compuestos en ingeniería civil.

Referencia:

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Design optimization of a composite typology based on RC columns and THVS girders to reduce economic cost, emissions, and embodied energy of frame building construction. Energy and Buildings, 336:115607. DOI:10.1016/j.enbuild.2025.115607

 

Dinámica no lineal y control inteligente en la industria: avances, desafíos y aplicaciones en minería y procesos industriales

Acaban de publicar nuestro artículo en la revista Mathematics, indexada en QD1 del JCR. El artículo analiza cómo la inteligencia artificial y el control pueden mejorar la eficiencia y la seguridad en procesos industriales complejos, especialmente en la minería. Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal.

La pregunta de investigación central es: ¿Cómo pueden los métodos de control robusto, el aprendizaje automático y la teoría del caos mejorar la eficiencia, estabilidad y seguridad en procesos industriales complejos?

Esto define el problema específico del estudio, que se centra en encontrar enfoques matemáticos y computacionales para gestionar interacciones no lineales y la incertidumbre en sectores como la minería, la manufactura y la transición energética. También explica los objetivos del trabajo, que son evaluar estrategias de optimización con big data, ciberseguridad y control predictivo en entornos de alta variabilidad.

El estudio revisó la literatura entre 2015 y 2025 usando Scopus y Web of Science, encontrando 2628 referencias en Scopus y 343 en WoS. Se usó un programa informático para eliminar las referencias que no eran relevantes. Se consiguieron 2900 referencias, de las cuales 89 fueron muy relevantes. El análisis se hizo en seis áreas clave:

  1. Transferencia de calor en fluidos magnetizados.
  2. Control no lineal en sistemas de alta complejidad.
  3. Optimización basada en big data.
  4. Transición energética con SOEC.
  5. Detección de fallos en válvulas de control.
  6. Modelado estocástico con transiciones semi-Markovianas.

La metodología usa la vectorización TF-IDF y el análisis de conglomerados (k-means), y genera resúmenes temáticos automáticos con el modelo BART-Large-CNN. Se usaron herramientas de minería de textos y análisis bibliométrico para asegurar la calidad y relevancia de los artículos seleccionados.

El artículo tiene varias contribuciones importantes para la ingeniería:

  • Se identifican las tendencias actuales en el control de procesos no lineales, destacando la convergencia entre aprendizaje profundo, modelos de caos determinista y ciberseguridad en entornos industriales.
  • Se establece la importancia del control robusto y predictivo en la minería y la manufactura avanzada, permitiendo mitigar perturbaciones externas y mejorar la adaptabilidad de los sistemas.
  • Se analiza la aplicación de criptografía caótica para la protección de redes industriales, un factor clave en la implementación de Minería 4.0 y 5.0.
  • Se exploran las barreras para la implementación de modelos de optimización y big data, como la heterogeneidad de plataformas, la interoperabilidad y la disponibilidad limitada de datos.

El estudio muestra que el aprendizaje automático se usa cada vez más para mejorar procesos industriales difíciles. Los modelos híbridos (física + IA) son buenos para gestionar la incertidumbre y los modelos caóticos mejoran la ciberseguridad.

Pero aún hay problemas, como la necesidad de datos de alta calidad para entrenar modelos de machine learning, la escalabilidad de los algoritmos en entornos industriales distribuidos y la falta de estandarización en los protocolos de seguridad. También se destaca la importancia de usar análisis multi-escala y teoría del caos en el diseño de sistemas industriales resistentes.

El artículo propone varias líneas de investigación futura:

  • Desarrollo de modelos híbridos de predicción y control que combinen algoritmos de deep learning con principios de caos determinista y optimización bayesiana.
  • Integración de soluciones avanzadas de ciberseguridad, como sincronización de atractores caóticos y encriptación basada en memristores.
  • Implementación de proyectos piloto en minería e industrias de manufactura para validar la eficacia de los modelos de control predictivo en escenarios reales.
  • Desarrollo de metodologías de explicabilidad para la interpretación de modelos no lineales en la industria, permitiendo una adopción más amplia en el sector productivo.

El artículo analiza cómo se usan en la industria los modelos de control no lineal, la optimización con big data y las estrategias de ciberseguridad. El estudio subraya que es importante usar enfoques interdisciplinarios que integren la teoría del caos, el aprendizaje automático y las metodologías de control robusto. Esto se debe a que así se mejora la estabilidad y la eficiencia en la minería y la manufactura avanzada. También se destaca la importancia de crear normas y regulaciones para integrar estas tecnologías de manera segura y eficiente en la industria, enfrentando problemas externos y ciberataques.

Referencia:

ROJAS, L.; YEPES, V.; GARCÍA, J. (2025). Complex Dynamics and Intelligent Control: Advances, Challenges, and Applications in Mining and Industrial Processes. Mathematics, 13(6):961. DOI:10.3390/math13060961

Como el artículo está publicado en abierto, os lo dejo para su descarga.

Pincha aquí para descargar

Optimización de la inversión en ingeniería de la construcción mediante redes de atención gráfica y MCDM

Tenemos el placer de anunciar la publicación de un artículo en la revista Computers & Industrial Engineering, revista indexada en el primer cuartil del JCR. Se trata de una colaboración con colegas de Turquía, en especial con el profesor Vedat Toğan.

El artículo analiza si la integración de Graph Attention Networks (GAT) con metodologías multicriterio de toma de decisiones (MCDM) mejora la precisión y fiabilidad en la selección de proyectos de inversión en ingeniería de la construcción. La cuestión central es si los modelos de aprendizaje automático basados en redes superan a los métodos MCDM tradicionales a la hora de predecir la viabilidad de proyectos de inversión. Esta pregunta define el problema de la ineficacia en la selección de proyectos debido a la complejidad de los factores interdependientes y orienta el estudio hacia la evaluación de modelos predictivos basados en redes.

Metodología

El estudio emplea un enfoque híbrido que combina el juicio experto, los métodos MCDM y el aprendizaje automático avanzado. Se procesa un conjunto de datos de más de 33 000 proyectos de inversión en construcción, aplicando la selección de características mediante análisis de componentes principales (PCA) y la clasificación basada en criterios como el riesgo país, la calificación de desarrollo empresarial y el valor del proyecto. A partir de estos datos, se estructuran tres redes de inversión: regional, nacional y basada en el modo de financiación. Estas redes se introducen en modelos GAT, que aplican mecanismos de atención para predecir la viabilidad de la inversión. La validación del modelo se realiza mediante métricas de precisión, exhaustividad, puntuación F1 y curvas ROC, y se compara con árboles de decisión y modelos de bosque aleatorio.

Contribuciones relevantes

  1. Integración de aprendizaje automático y MCDM: El estudio demuestra cómo los GATs pueden mejorar la precisión en la selección de proyectos, combinando métodos MCDM y aprendizaje profundo.
  2. Desarrollo de modelos de inversión basados en redes: Se estructuran los datos de inversión en tres redes diferenciadas, proporcionando un marco novedoso para evaluar interdependencias entre proyectos.
  3. Validación de la eficacia de los GATs: Se logra una precisión superior al 99 % en la red regional y superior al 98 % en las redes nacionales y de financiación, destacando el potencial de los GATs en la planificación estratégica de inversiones.
  4. Aplicabilidad práctica en la toma de decisiones: Se demuestra la viabilidad de los GATs para mejorar herramientas de apoyo a la decisión en inversiones a gran escala, reduciendo riesgos financieros.

Discusión de resultados

Los modelos GAT basados en redes mejoran significativamente la precisión en la selección de proyectos de inversión en comparación con los métodos MCDM convencionales. La red regional es la que logra una mayor precisión, lo que sugiere que la agregación geográfica proporciona una base sólida para la toma de decisiones. Las redes nacionales y de financiación, aunque con una precisión ligeramente menor, siguen superando a los métodos tradicionales, lo que demuestra las ventajas del modelado de dependencias basadas en redes.

Las tasas de error, aunque mínimas, resaltan la necesidad de combinar modelos automatizados con la validación experta. En conclusión, los GAT son herramientas eficaces para la selección de proyectos, pero no deben reemplazar la toma de decisiones humanas. Además, se evidencia que los modelos basados en financiación capturan estructuras financieras clave que influyen en la viabilidad de los proyectos, lo que aporta un valor añadido a la evaluación del riesgo de inversión.

Líneas de investigación futuras

  1. Ampliación de modelos basados en redes: Explorar redes adicionales que incluyan marcos regulatorios y estabilidad económica para optimizar la toma de decisiones.
  2. Integración de datos en tiempo real: Incorporar tendencias de mercado y datos económicos actualizados para mejorar la capacidad predictiva.
  3. Comparación con otros modelos de aprendizaje profundo: Evaluar el desempeño de los GATs frente a otras variantes de redes neuronales gráficas como Graph Convolutional Networks (GCNs).
  4. Aplicación en otros sectores de infraestructura: Extender la metodología a sectores como el transporte y la planificación urbana para evaluar su aplicabilidad.
  5. Desarrollo de sistemas híbridos de apoyo a la decisión: Combinar técnicas MCDM con predicciones en tiempo real para maximizar la usabilidad en la práctica.

Conclusión

El estudio demuestra que la integración de GAT con MCDM mejora la toma de decisiones en inversiones en ingeniería de la construcción. Al estructurar los datos en modelos basados en redes, se proporciona un marco más preciso y contextualizado para la selección de proyectos. Los resultados confirman la superioridad de los modelos basados en redes frente a los enfoques tradicionales, especialmente en lo que respecta a la gestión de dependencias complejas entre proyectos. No obstante, se destaca la importancia de la validación experta para mitigar errores de clasificación. Las futuras investigaciones deben centrarse en mejorar las capacidades del modelo, integrar datos dinámicos y perfeccionar las herramientas de apoyo a la toma de decisiones para optimizar la selección de inversiones en ingeniería de la construcción.

Referencia:

MOSTOFI, F.; BAHADIR, U.; TOKDEMIR, O.B.; TOGAN, V.; YEPES, V. (2025). Enhancing Strategic Investment in Construction Engineering Projects: A Novel Graph Attention Network Decision-Support Model. Computers & Industrial Engineering, 203:111033. DOI:10.1016/j.cie.2025.111033

El artículo se puede descargar gratuitamente hasta el 5 de mayo de 2025 en el siguiente enlace: https://authors.elsevier.com/c/1kmrt1I2r-Q9z0

Evaluación del índice de daño estructural en entornos BIM

Acaban de publicar nuestro artículo en la revista Structures, de la editorial Elsevier, indexada en Q1 del JCR. El estudio desarrolla una metodología para evaluar un índice de daño estructural en entornos BIM, con el fin de optimizar los procesos de rehabilitación.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València.

El artículo contextualiza la necesidad de integrar herramientas digitales en la evaluación de daños estructurales como respuesta a las exigencias de sostenibilidad y eficiencia en el sector de la construcción. Se menciona que el envejecimiento del parque edificatorio y las nuevas exigencias en materia de mantenimiento requieren un enfoque innovador. Se destaca la implementación de BIM como una solución para mejorar la gestión de activos y prolongar la vida útil de las estructuras. En este contexto, el artículo presenta Endurify, una herramienta diseñada para evaluar la durabilidad de elementos estructurales de hormigón mediante indicadores de deterioro, con el fin de optimizar los procesos de rehabilitación.

El artículo enfatiza que la rehabilitación de edificios es una estrategia fundamental para mejorar la sostenibilidad en el sector de la construcción. Al renovar estructuras existentes, se reduce el impacto ambiental al disminuir la necesidad de utilizar nuevos materiales y procesos constructivos. Además, la rehabilitación mejora el rendimiento energético de los edificios, lo que contribuye a los objetivos de desarrollo sostenible establecidos por organismos internacionales. En el contexto europeo, iniciativas como el Pacto Verde Europeo subrayan la relevancia de estas medidas para reducir las emisiones de carbono y mejorar la eficiencia en el uso de recursos.

La metodología BIM se ha convertido en un estándar en la industria de la construcción, facilitando la integración de múltiples capas de información en un único modelo digital. BIM permite almacenar y gestionar datos estructurales, materiales y operacionales, optimizando así la planificación y el mantenimiento de edificios. La literatura reciente ha demostrado que el uso de BIM mejora la sostenibilidad en la construcción, facilita la gestión de riesgos y permite realizar análisis avanzados, como simulaciones de desempeño estructural. Además, la incorporación de gemelos digitales y herramientas de simulación refuerza su capacidad para la toma de decisiones fundamentadas en datos.

El mantenimiento estructural es fundamental para garantizar la seguridad y la eficiencia de los edificios a lo largo de su vida útil. A pesar de la importancia del seguimiento del estado estructural, la investigación en este ámbito ha sido menos extensa que la dedicada al diseño y la construcción. En este contexto, BIM se presenta como una plataforma idónea para integrar estrategias de mantenimiento predictivo, ya que permite evaluar el estado real de las estructuras y anticipar las intervenciones necesarias. Sin embargo, la implementación de BIM en este ámbito enfrenta desafíos como la precisión de los datos, los costes asociados y la capacitación del personal especializado.

El desarrollo de Endurify se basó en una metodología de investigación-acción de doble ciclo, lo que permitió realizar iteraciones sucesivas para optimizar la herramienta. El proceso constó de siete etapas, que iban desde la identificación del problema hasta la validación del software en entornos reales. La herramienta se diseñó específicamente para el mercado de la vivienda en España y cumple con los requisitos del Código Estructural.

Para evaluar la durabilidad, se seleccionaron cuatro indicadores principales: carbonatación, fisuración transversal, fluencia y deformación. La metodología utilizada para determinar cada uno de estos indicadores se basa en modelos normativos y en la recopilación de datos mediante inspección visual. Los resultados se almacenan dentro del modelo BIM, lo que permite su análisis comparativo y la planificación de intervenciones de mantenimiento.

La implantación de Endurify en BIM se realizó mediante un complemento para Autodesk Revit que permite extraer datos de los elementos estructurales y realizar el análisis de daños en tiempo real. La herramienta se diseñó para trabajar con parámetros predefinidos en el modelo BIM y almacenar los resultados como atributos de los elementos analizados.

El artículo presenta Endurify, un complemento para entornos BIM que permite analizar el estado de conservación de los elementos estructurales de hormigón. La herramienta emplea cuatro indicadores de daño: carbonatación, fisuración transversal, fluencia y deformación. Su integración en BIM facilita la gestión de datos, ya que permite almacenar los resultados del análisis dentro del modelo digital. Esto posibilita una evaluación más precisa del estado estructural y contribuye a la toma de decisiones sobre el mantenimiento y la rehabilitación de edificios existentes. Cabe destacar que la herramienta evita pruebas destructivas y se ajusta a normativas como el Código Estructural de España (CE-2021).

Los estudios de caso presentados en el artículo muestran cómo se ha aplicado Endurify en elementos estructurales con distintos grados de exposición ambiental. En un primer caso, se analizó una viga interior con fisuras visibles y se determinó que la carbonatación era el factor predominante en su deterioro. En el segundo caso, se evaluó un soporte en un corredor exterior sin daños aparentes con el mismo procedimiento, confirmándose un estado avanzado de carbonatación. Los resultados demuestran que la herramienta permite identificar patrones de degradación en distintos elementos y facilita la programación de intervenciones específicas. No obstante, se reconoce que la precisión del análisis depende de la calidad de los datos de entrada y de su compatibilidad con diferentes normativas y condiciones ambientales.

El artículo sugiere que la incorporación de nuevos enfoques podría mejorar la herramienta Endurify. Se menciona la posibilidad de desarrollar un índice de daño estructural que combine los cuatro indicadores en un solo valor ponderado, aunque los autores advierten de que esto podría ocultar información relevante sobre las causas del deterioro. Asimismo, se plantea la necesidad de adaptar la metodología a distintos contextos normativos e integrar sensores IoT para obtener datos en tiempo real. Además, se destaca que una mejor definición de los parámetros de análisis podría optimizar la precisión del modelo y ampliar su aplicación a proyectos de rehabilitación a gran escala.

Por tanto, el artículo demuestra que la integración de herramientas de análisis de durabilidad en entornos BIM puede mejorar la evaluación del estado estructural de los edificios. Endurify permite almacenar y visualizar datos de deterioro en el modelo digital, lo que facilita la toma de decisiones sobre el mantenimiento y la rehabilitación. Sin embargo, su implementación depende de la calidad de los datos de entrada y de su adaptación a distintas normativas. Se identifican oportunidades para mejorar la herramienta mediante el uso de modelos predictivos y la incorporación de tecnologías emergentes, lo que podría consolidar su aplicación en la ingeniería civil.

Referencia:

FERNÁNDEZ-MORA, V.; NAVARRO, I.J.; YEPES, V. (2025). Structural damage index evaluation in BIM environmentsStructures, 74:108544. DOI:10.1016/j.istruc.2025.108544

 

Rehabilitación de vigas de hormigón armado deficientes a cortante en zonas sísmicas

Acaban de publicar nuestro artículo en la revista Applied Sciences, indexada en Q1 del JCR. El estudio desarrolla una metodología integral para seleccionar estrategias de rehabilitación sísmica en vigas de hormigón armado con deficiencias a cortante.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València.  A continuación, explicamos brevemente el contenido del artículo que podéis descargar gratuitamente.

Se analizan cinco alternativas de refuerzo: encamisado de hormigón (CJ), encamisado con hormigón proyectado (SCJ), encamisado de acero adherido con resina epoxi (STE), encamisado de acero anclado mecánicamente (STA) y refuerzo con fibra de carbono (CFRP). Estas soluciones se evalúan mediante un análisis del ciclo de vida (LCA), que incorpora dimensiones económicas, ambientales, sociales y funcionales.

Entre las principales contribuciones del artículo, destaca la aplicación combinada de métodos de toma de decisiones multicriterio (MCDM), como EDAS, MABAC, CODAS y MARCOS, que permiten jerarquizar las alternativas basándose en criterios cuantificables. Para la ponderación de criterios se utilizó el Best-Worst Method (BWM), lo que garantiza la consistencia en la toma de decisiones. Los resultados indican que los refuerzos con CFRP y STE presentan ventajas significativas en términos de impacto ambiental y social, además de menores tiempos de ejecución y menor impacto arquitectónico. Por otro lado, las soluciones de hormigón presentan un mayor impacto ambiental y social debido al volumen de material necesario y a la duración del proceso constructivo.

El análisis del ciclo de vida muestra que la fase de construcción representa, de media, el 82 % de los costes totales de rehabilitación. El SCJ es la opción más económica, con una reducción del 45 % en los costes respecto al CJ. En contraste, el CFRP presenta el coste más alto, superando ligeramente al CJ. El STE y el STA requieren un mayor coste de mantenimiento debido a la necesidad de aplicar recubrimientos anticorrosivos y protección contra incendios. En cuanto al fin de vida, las soluciones basadas en hormigón presentan costes significativamente más altos debido a la necesidad de trituración y transporte a plantas de reciclaje.

En la evaluación ambiental, los impactos en las categorías de ecosistemas, salud humana y recursos son menores en las alternativas basadas en acero y CFRP, con una reducción del 77 % y 59 %, respectivamente, en el impacto ambiental total en comparación con el CJ. El SCJ logra una reducción del 19 % en impacto ambiental, mientras que el STE y el STA alcanzan reducciones de hasta el 62 % y el 77 %, respectivamente. A nivel social, el CJ presenta los mayores impactos, mientras que el STA obtiene la menor afectación, con una reducción del 75 % respecto al CJ.

La evaluación funcional indica que CJ y SCJ presentan los tiempos de ejecución más largos y un mayor impacto arquitectónico. Por el contrario, los materiales CFRP y STE destacan por su rapidez de instalación y por no alterar la estructura original. En general, el CFRP es la mejor alternativa si se tienen en cuenta los criterios económicos, ambientales, sociales y funcionales.

Se sugiere explorar materiales innovadores, como morteros reforzados con fibras o combinaciones de refuerzos híbridos, para mejorar la eficiencia estructural y la sostenibilidad de las intervenciones. Además, se podría analizar la integración de refuerzos activos, como tendones externos pretensados, para aumentar la capacidad sísmica. También se recomienda ampliar el análisis a otros elementos estructurales, como columnas y conexiones viga-columna, para evaluar la efectividad de estos refuerzos en estructuras completas.

Otro aspecto relevante para futuras investigaciones es mejorar la aplicación de la MCDM, integrando enfoques que gestionen la incertidumbre en la opinión de los expertos y teniendo en cuenta la interacción entre los criterios. Se podrían incorporar modelos de optimización basados en inteligencia artificial para mejorar la precisión en la selección de alternativas.

El estudio aporta una metodología replicable para evaluar estrategias de rehabilitación sísmica de vigas de hormigón armado con deficiencias a cortante. Su análisis del ciclo de vida confirma la relevancia de tener en cuenta el impacto económico, medioambiental y social a la hora de seleccionar la alternativa óptima. El uso combinado de BWM y MCDM demuestra su utilidad para abordar problemas de decisión complejos en ingeniería civil. En resumen, los resultados respaldan la necesidad de seguir investigando soluciones más eficientes y sostenibles en el campo de la rehabilitación estructural.

Referencia:

VILLALBA, P.; GUAYGUA, B.; YEPES, V. (2025). Optimal seismic retrofit alternative for shear deficient RC beams: a multiple criteria decision-making approach. Applied Sciences, 15(5):2424. DOI:10.3390/app15052424

Pincha aquí para descargar

Modelos subrogados para optimizar el coste de pasos superiores pretensados

Acaban de publicar nuestro artículo en la revista Infrastructures, indexada en el JCR. El estudio presenta una metodología de optimización de costes para puentes losa aligerados postesados mediante metamodelos, en la que se destaca la aplicación del modelo Kriging en combinación con algoritmos heurísticos.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València.  A continuación, explicamos brevemente el contenido del artículo que podéis descargar gratuitamente.

La investigación se centra en un puente de tres vanos con luces de 24, 34 y 28 m, y optimiza el diseño estructural para reducir costes sin comprometer los criterios de servicio y seguridad. Se identifica una reducción del 6,54 % en los costes en comparación con enfoques tradicionales, lograda principalmente mediante la disminución del uso de hormigón en un 14,8 % y del pretensado en un 11,25 %.

El trabajo también evalúa distintas técnicas predictivas, como redes neuronales y funciones de base radial, y determina que las redes neuronales presentan el menor error de predicción, aunque requieren varias ejecuciones para garantizar estabilidad. En contraste, el modelo Kriging permite identificar óptimos locales con alta precisión. La metodología propuesta proporciona una estrategia eficiente para la toma de decisiones en ingeniería estructural, que promueve diseños de puentes más rentables sin comprometer el rendimiento estructural.

Figura. Paso superior en la autovía A-7, en Cocentaina (Alicante)

Los resultados indican que la optimización mediante modelos subrogados permite reducir significativamente los costes de diseño de pasos superiores pretensados. La estrategia adoptada optimiza variables como la profundidad de la losa, la geometría de la base y la resistencia del hormigón, y respeta las restricciones impuestas por los estados límite de servicio, que son los últimos según el Eurocódigo 2. Se observa que la metodología basada en kriging y la optimización heurística proporciona resultados prácticos con menor esfuerzo computacional en comparación con la optimización directa de todas las variables estructurales.

El modelo Kriging optimizado mediante Simulated Annealing identificó una configuración de losa con una profundidad de 1,30 m y una base de 3,15 m como la solución más rentable. Esta configuración se corrobora mediante la predicción de redes neuronales, lo que muestra coherencia en la localización del óptimo. En comparación con estudios previos, los resultados indican que la metodología utilizada en este trabajo permite obtener ahorros significativos sin necesidad de analizar exhaustivamente cada alternativa estructural.

A partir de los hallazgos obtenidos, se sugiere explorar la integración de métodos de optimización multiobjetivo que tengan en cuenta no solo el coste, sino también el impacto ambiental y los costes de mantenimiento a lo largo del ciclo de vida del puente. La inclusión de criterios de sostenibilidad podría mejorar la eficiencia global del diseño estructural y su capacidad de adaptación a normativas futuras.

Otra línea de investigación relevante consiste en aplicar modelos subrogados en el diseño de otros tipos de estructuras, como puentes de vigas o marcos de hormigón armado, para evaluar su viabilidad en distintas configuraciones estructurales. Además, el desarrollo de modelos predictivos más sofisticados, que integren aprendizaje automático y simulaciones de alta fidelidad, podría optimizar aún más los diseños propuestos.

Por último, se recomienda estudiar el impacto de la variabilidad de los materiales y las condiciones de carga en la optimización del diseño. La incorporación de análisis probabilísticos mejoraría la fiabilidad de las soluciones obtenidas, ya que se obtendrían diseños estructurales más robustos y seguros.

Referencia:

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

Pincha aquí para descargar

Tesis doctoral: Métodos de detección de daños para el diseño sostenible del ciclo de vida de puentes en entornos agresivos

De izquierda a derecha: Ignacio Navarro, Rasmus Rampling, Mehrdad Hadizadeh, Salvador Ivorra, Tatiana García y Víctor Yepes

Hoy, 12 de febrero de 2025, ha tenido lugar la defensa de la tesis doctoral de D. Mehrdad Hadizadeh Bazaz, titulada “Inclusion of damage detection methods for the sustainable life cycle design of bridges in aggressive environments”, dirigida por los profesores Víctor Yepes Piqueras e Ignacio J. Navarro Martínez. La tesis recibió la calificación de sobresaliente «cum laude». A continuación, presentamos un pequeño resumen de la misma.

Resumen:

Para prevenir colapsos inesperados que pueden generar pérdidas económicas y humanas significativas, es esencial controlar la salud de cada estructura e infraestructura a lo largo de su ciclo de vida, que abarca desde su construcción y mantenimiento hasta su eventual retiro.

Sin embargo, las actividades de construcción, reparación y mantenimiento también pueden afectar al medio ambiente y a la sociedad. Por ello, el uso de técnicas modernas de detección de daños, que integren la evaluación sostenible del ciclo de vida y el análisis de los costes totales de mantenimiento, resulta fundamental para realizar reparaciones oportunas y minimizar el impacto negativo.

El concepto de sostenibilidad ha evolucionado desde su definición por primera vez por la Comisión Brundtland en 1987. Desde entonces, la comunidad científica ha desarrollado principios, métodos y criterios para el diseño sostenible, pero muchos de estos enfoques no son viables a largo plazo. En respuesta, las Naciones Unidas han establecido los Objetivos de Desarrollo Sostenible (ODS) para 2030.

En este contexto, es crucial adoptar una estrategia de ciclo de vida sostenible para las estructuras de hormigón que optimice costes y minimice el impacto ambiental y social en todas sus etapas, desde la construcción hasta el final de su vida útil. Los avances en tecnología informática y el desarrollo de sensores sofisticados han permitido implantar métodos de prueba no destructiva (NDT) para controlar y mantener de manera eficiente infraestructuras críticas, como puentes, y reducir así el riesgo de pérdidas económicas y humanas.

Esta tesis analiza la aplicación de diversas técnicas no destructivas para identificar daños estructurales y evalúa su impacto en la sostenibilidad. En este trabajo de investigación se evaluó el rendimiento de métodos no destructivos, como la función de respuesta en frecuencia (FRF) y la densidad espectral de potencia (PSD), para la detección y localización de daños estructurales. En particular, se analizó la capacidad de la PSD para predecir distintos tipos de daños en estructuras expuestas a la corrosión por iones de cloruro, como puentes de hormigón ubicados en entornos agresivos.

Posteriormente, se examinó la eficacia de este método de predicción en la evaluación del ciclo de vida sostenible, teniendo en cuenta su impacto ambiental, social y económico. Además, se analizaron los costes asociados a su aplicación en distintas fases de la vida útil de un puente de hormigón tipo cajón en Arosa, al noroeste de España.

Los resultados de esta tesis demuestran que la integración del método PSD en el mantenimiento preventivo durante el ciclo de vida de puentes de hormigón mejora significativamente su sostenibilidad. Los hallazgos confirman que la PSD permite detectar, localizar y predecir daños de manera eficiente, lo que optimiza la gestión a largo plazo de infraestructuras propensas a la corrosión. El análisis integral, que incorpora la evaluación del ciclo de vida y la toma de decisiones multicriterio, demuestra que la aplicación de la PSD reduce el impacto ambiental, minimiza los costes y mejora la sostenibilidad global de los puentes de hormigón. Además, este enfoque proporciona un marco adaptable a diversas infraestructuras y facilita el cumplimiento de objetivos de sostenibilidad a gran escala.

Referencias:

HADIZADEH-BAZAZ, M.; NAVARRO, I.J.; YEPES, V. (2023). Life Cycle Assessment of a Coastal Concrete Bridge Aided by Non-Destructive Damage Detection Methods. Journal of Marine Science and Engineering, 11(9):1656. DOI:10.3390/jmse11091656

HADIZADEH-BAZAZ, M.; NAVARRO, I.J.; YEPES, V. (2023).  Life-cycle cost assessment using the power spectral density function in a coastal concrete bridgeJournal of Marine Science and Engineering, 11(2):433. DOI:10.3390/jmse11020433

HADIZADEH-BAZAZ, M.; NAVARRO, I.J.; YEPES, V. (2023). Power Spectral Density method performance in detecting damages by chloride attack on coastal RC bridge. Structural Engineering and Mechanics, 85(2):197-206. DOI:10.12989/sem.2023.85.2.197

HADIZADEH-BAZAZ, M.; NAVARRO, I.J.; YEPES, V. (2022). Performance comparison of structural damage detection methods based on Frequency Response Function and Power Spectral Density. DYNA, 97(5):493-500. DOI:10.6036/10504

Introducción a los Modelos de Ecuaciones Estructurales (SEM)

Simbología y nomenclatura de los modelos PLS (Aldas, 2018)

Los modelos de ecuaciones estructurales (SEM, por sus siglas en inglés) son una técnica estadística multivariante utilizada para analizar y estimar relaciones causales, combinando datos estadísticos con suposiciones cualitativas sobre la causalidad. Esta metodología es especialmente valiosa en las ciencias sociales, la psicología, el marketing y otras disciplinas en las que las relaciones entre variables no son lineales y pueden involucrar tanto variables observables como latentes. Gracias a los SEM, los investigadores no solo pueden comprobar teorías existentes, sino también desarrollar nuevas hipótesis y modelos que reflejen la realidad de los fenómenos estudiados.

Los modelos de ecuaciones estructurales (MES) combinan el análisis factorial y la regresión lineal para evaluar la correspondencia entre los datos observados y el modelo hipotetizado, que se representa mediante un diagrama de senderos. Los MES proporcionan los valores asociados a cada relación del modelo y un estadístico que mide el ajuste de los datos y valida el modelo.

Una de sus principales fortalezas es la capacidad de construir variables latentes, es decir, variables no observables directamente, sino estimadas a partir de otras que covarían entre sí. Esto permite tener en cuenta explícitamente la fiabilidad del modelo. Además, el análisis factorial, el análisis de caminos y la regresión lineal son casos particulares dentro del enfoque de los MES.

Fundamentos teóricos

Variables latentes y observables:

  • Variables latentes: son constructos teóricos que no pueden medirse directamente. Por ejemplo, la «satisfacción del cliente» o «lealtad a la marca» son variables latentes que se infieren a partir de las respuestas a encuestas o del comportamiento observable.
  • Variables observables: son los indicadores que se utilizan para medir las variables latentes. Por ejemplo, en el caso de la satisfacción del cliente, las respuestas a preguntas específicas en una encuesta (como «¿Qué tan satisfecho está con nuestro servicio?»), son variables observables.

Modelo estructural vs. modelo de medida:

  • Modelo estructural: describe las relaciones causales entre las variables latentes. Este modelo permite a los investigadores establecer hipótesis sobre cómo una variable puede influir en otra.
  • Modelo de medida: establece cómo se relacionan las variables observables con las variables latentes. Es fundamental validar este modelo para garantizar que los indicadores reflejan realmente el constructo que se pretende medir.
Ejemplo de un modelo de medida y un modelo estructural

Tipos de modelos

Existen dos enfoques principales en SEM:

Análisis de estructuras de covarianza (CB-SEM):

  • Este enfoque se basa en la matriz de varianza-covarianza y es adecuado para contrastar teorías y probar hipótesis. CB-SEM es una técnica paramétrica que requiere que se cumplan ciertos supuestos estadísticos, como la normalidad multivariada y la independencia de las observaciones.
  • Aplicaciones: Ideal para estudios confirmatorios donde se busca validar teorías existentes. Se utiliza comúnmente en investigaciones que requieren un alto nivel de rigor estadístico.

Mínimos cuadrados parciales (PLS-SEM):

  • Este enfoque es más flexible y no requiere los mismos supuestos rigurosos que CB-SEM. PLS-SEM se centra en maximizar la varianza explicada de las variables latentes dependientes a partir de las variables latentes independientes.
  • Ventajas: Funciona bien con muestras pequeñas y permite la inclusión de constructos formativos, lo que amplía su aplicabilidad en contextos donde los constructos son complejos y multidimensionales.
  • Aplicaciones: Es especialmente útil en estudios exploratorios y en situaciones donde se busca hacer predicciones, como en el análisis de comportamiento del consumidor.

Metodología de PLS-SEM

La metodología de PLS-SEM se puede resumir en varias etapas clave:

  1. Inicialización: Se obtiene una primera aproximación a los valores de las variables latentes a partir de sus indicadores. Este paso es crucial para establecer un punto de partida en el proceso de estimación.
  2. Estimación de coeficientes de regresión: Se estiman los pesos o coeficientes de regresión de las variables latentes. Este proceso implica calcular las relaciones entre las variables latentes y sus indicadores, así como entre las variables latentes mismas.
  3. Optimización: Se busca maximizar el coeficiente de determinación (R²) de los factores latentes mediante un proceso iterativo. Este proceso de optimización es fundamental para mejorar la precisión de las estimaciones y asegurar que el modelo se ajuste adecuadamente a los datos.
  4. Evaluación de la validez y fiabilidad: Se analizan los constructos para asegurar que miden correctamente lo que se pretende medir. Esto incluye:
    —Fiabilidad individual: Evaluación de la consistencia interna de cada indicador utilizando el alfa de Cronbach.
    —Validez convergente: Medida a través de la varianza extraída (AVE), que debe ser superior a 0,5 para indicar que los indicadores reflejan el mismo constructo.
    —Validez discriminante: Comparación de las correlaciones entre constructos para asegurar que cada constructo es significativamente diferente de los demás. Esto se puede evaluar utilizando el criterio de Fornell-Larcker, que establece que la raíz cuadrada del AVE de cada constructo debe ser mayor que las correlaciones entre constructos.

Ventajas y desventajas de PLS-SEM

Ventajas:

  • Flexibilidad: PLS-SEM no requiere normalidad multivariada, lo que lo hace más accesible para investigadores en ciencias sociales que trabajan con datos no normales.
  • Muestras pequeñas: Funciona bien con muestras pequeñas, lo que es ventajoso en estudios exploratorios donde la recolección de datos puede ser limitada.
  • Constructos formativos: Permite la inclusión de constructos formativos, lo que amplía su aplicabilidad en contextos donde los constructos son complejos y multidimensionales.

Desventajas:

  • Falta de indicadores de ajuste global: PLS-SEM no proporciona indicadores de ajuste global del modelo, lo que puede limitar la comparación entre modelos y la evaluación de su calidad.
  • Restricciones en la estructura del modelo: Cada variable latente debe estar conectada a otra mediante una relación estructural, lo que puede ser restrictivo en algunos contextos.
  • Estimaciones no óptimas: La estimación de parámetros no es óptima en términos de sesgo y consistencia a menos que se utilice el algoritmo PLS consistente, lo que puede afectar la validez de los resultados.

Presentación de resultados

Al presentar los resultados de un análisis SEM, se recomienda estructurarlos en tablas que resuman la fiabilidad y validez del instrumento de medida, así como los análisis de validez discriminante y las hipótesis contrastadas. Así se facilita la comprensión y la interpretación de los resultados por parte de otros investigadores y lectores. La presentación clara y concisa de los resultados es esencial para garantizar la reproducibilidad y la transparencia de la investigación.

Tablas recomendadas:

  • Tabla de fiabilidad y validez: Resumen de los índices de fiabilidad (alfa de Cronbach, fiabilidad compuesta) y validez (AVE).
  • Tabla de validez discriminante: Comparación de las correlaciones entre constructos y sus AVE.
  • Tabla de resultados estructurales: Coeficientes de regresión, R² y significancia de las relaciones estructurales.

Conclusión

Los modelos de ecuaciones estructurales son una herramienta muy valiosa en la investigación social y del comportamiento, ya que permiten a los investigadores modelar y analizar relaciones complejas entre variables. La elección entre CB-SEM y PLS-SEM dependerá de los objetivos de la investigación, la naturaleza de los datos y las hipótesis planteadas. Con una correcta aplicación y validación, SEM puede proporcionar información significativa y fiable en diversas áreas de estudio, contribuyendo al avance del conocimiento en múltiples disciplinas. Para cualquier investigador que busque explorar las complejidades de las relaciones entre variables en su campo de estudio, es esencial comprender profundamente esta metodología y aplicarla correctamente.

Referencias:

Aldás, J. (2018). Modelización estructural mediante Partial Least Squares-PLSPM. Apuntes del seminario de modelización estructural.

Bagozzi, R. P., & Yi, Y. (1988). On the evaluation of structural equation models. Journal of the Academy of Marketing Science, 16(1), 74–94.

Fornell, C., & Bookstein, F. L. (1982). Two structural equation models: LISREL and PLS applied to consumer exit-voice theory. Journal of Marketing Research, 19(4), 440–452.

Hair, J. F., Hult, G. T. M., Ringle, C. M., & Sarstedt, M. (2014). A primer on partial least square structural equation modeling (PLS-SEM). California, United States: Sage.

López, S., & Yepes, V. (2024). Visualizing the future of knowledge sharing in SMEs in the construction industry: A VOS-viewer analysis of emerging trends and best practices. Advances in Civil Engineering, 2024, 6657677.

Yepes, V., & López, S. (2023). The knowledge sharing capability in innovative behavior: A SEM approach from graduate students’ insights. International Journal of Environmental Research and Public Health, 20(2), 1284.

Os dejo a continuación un artículo explicativo al respecto. Espero que os sea de interés.
Pincha aquí para descargar

También os pueden ser útiles algunos vídeos al respecto.


Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Fases de un estudio de investigación operativa

La investigación operativa busca determinar la solución óptima para un problema de decisión con recursos limitados. Se trata de un procedimiento científico que analiza las actividades de un sistema de organización.

Las principales componentes de un modelo de investigación operativa son: alternativas, restricciones y un criterio objetivo para elegir la mejor opción. Las alternativas se representan como variables desconocidas que luego se utilizan para construir las restricciones y la función objetivo mediante métodos matemáticos. El modelo matemático establece la relación entre estas variables, restricciones y función objetivo. La solución consiste en asignar valores a las variables para optimizar (maximizar o minimizar) la función objetivo y cumplir con las restricciones. A esta solución se le denomina solución posible óptima.

El enfoque del estudio de la ingeniería de operaciones está relacionado con la toma de decisiones para aprovechar al máximo los recursos limitados. Para ello, utiliza herramientas y modelos adaptados a las necesidades para facilitar la toma de decisiones en la resolución de problemas. Implica un trabajo en equipo entre analistas y clientes, con una estrecha colaboración. Los analistas aportan conocimientos de modelado y el cliente, experiencia y cooperación.

Como herramienta para la toma de decisiones, la investigación de operaciones combina ciencia y arte. Es ciencia por sus técnicas matemáticas y arte, porque el éxito en todas las fases, antes y después de resolver el modelo matemático, depende de la creatividad y experiencia del equipo. La práctica efectiva de la investigación de operaciones requiere más que competencia analítica, e incluye la capacidad de juzgar cuándo y cómo utilizar una técnica, así como habilidades de comunicación y adaptación organizativa.

Es complicado recomendar acciones específicas, como las de la teoría precisa de los modelos matemáticos, para abordar factores intangibles. Solo pueden ofrecerse directrices generales para aplicar la investigación de operaciones en la práctica.

El estudio de investigación operativa consta de varias etapas principales, entre las que destacan las siguientes:

  1. Formulación y definición del problema.
  2. Construcción del modelo.
  3. Solución del modelo.
  4. Verificación del modelo y de la solución.
  5. Puesta en práctica y mantenimiento de la solución.

Aunque las fases del proyecto suelen iniciarse en el orden establecido, no suelen completarse en el mismo orden. La interacción entre las fases requiere revisarlas y actualizarlas continuamente hasta la finalización del proyecto. La tercera fase es la única de carácter puramente matemático, ya que en ella se aplican las técnicas y teorías matemáticas necesarias para resolver el problema. El éxito de las demás etapas depende más de la práctica que de la teoría, siendo la experiencia el factor clave para su correcta ejecución.

Definir el problema implica determinar su alcance, tarea que lleva a cabo todo el equipo de investigación de operaciones. El resultado final debe identificar tres elementos principales: 1) descripción de las alternativas de decisión, 2) determinación del objetivo del estudio y 3) especificación de las restricciones del sistema modelado. Además, se deben recolectar los datos necesarios.

La formulación del modelo es quizá la fase más delicada del proceso, ya que consiste en traducir el problema a relaciones matemáticas. Si el modelo se ajusta a un modelo matemático estándar, como la programación lineal, puede resolverse con los algoritmos correspondientes. Para ello, deben definirse las variables de decisión, la función objetivo y las restricciones. Si las relaciones son demasiado complejas para una solución analítica, se puede simplificar el modelo mediante un método heurístico o recurrir a una simulación aproximada. En algunos casos, puede ser necesaria una combinación de modelos matemáticos, simulaciones y heurísticas para resolver el problema de toma de decisiones.

La solución del modelo es la fase más sencilla de la investigación de operaciones, ya que utiliza algoritmos de optimización bien definidos para encontrar la solución óptima. Un aspecto clave es el análisis de sensibilidad, que proporciona información sobre la forma en que la solución óptima responde a cambios en los parámetros del modelo. Esto es crucial cuando los parámetros no se pueden estimar con precisión, puesto que permite estudiar cómo varía la solución cerca de los valores estimados.

La validación del modelo verifica si cumple su propósito, es decir, si predice adecuadamente el comportamiento del sistema estudiado. Para ello, se evalúa si la solución tiene sentido y si los resultados son aceptables, comparando la solución con datos históricos para verificar si habría sido la correcta. Sin embargo, esto no garantiza que el futuro imite al pasado. Si el modelo representa un sistema nuevo sin datos históricos, se puede usar una simulación como herramienta independiente para comprobar los resultados del modelo matemático.

La implantación de la solución de un modelo validado consiste en traducir los resultados en instrucciones claras para quienes gestionarán el sistema recomendado. Esta tarea recae principalmente en el equipo de investigación de operaciones. En esta fase, el equipo debe capacitar al personal encargado de aplicar el modelo, asegurándose de que puedan traducir sus resultados en instrucciones de operación y usarlo correctamente para tomar decisiones sobre los problemas que motivaron su creación.

Os dejo algún vídeo al respecto.

Referencias:

Altier, W. J. (1999). The thinking manager’s toolbox: Effective processes for problem solving and decision making. Oxford University Press.

Checkland, P. (1999). Systems thinking, system practice. Wiley.

Evans, J. (1991). Creative thinking in the decision and management sciences. South-Western Publishing.

Gass, S. (1990). Model world: Danger, beware the user as a modeler. Interfaces, 20(3), 60-64.

Morris, W. (1967). On the art of modeling. Management Science, 13, B707-B717.

Paulos, J. A. (1988). Innumeracy: Mathematical illiteracy and its consequences. Hill and Wang.

Taha, H. A., & Taha, H. A. (2003). Operations research: an introduction (Vol. 7). Upper Saddle River, NJ: Prentice hall.

Willemain, T. R. (1994). Insights on modeling from a dozen experts. Operations Research, 42(2), 213-222.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Teoría de juegos aplicada a la optimización multiobjetivo de puentes mixtos

Acaban de publicar nuestro artículo en la revista del primer decil del JCR Mathematics. El artículo presenta un método innovador para optimizar el diseño de puentes mixtos de acero y hormigón mediante un enfoque basado en la teoría de juegos. Este enfoque integra criterios de sostenibilidad económica, ambiental y social con la simplicidad constructiva, abordando de manera simultánea múltiples objetivos que suelen ser conflictivos en proyectos de infraestructura. La principal contribución radica en la aplicación de un método de optimización multiobjetivo (MOO) que permite equilibrar los tres pilares de la sostenibilidad, empleando el Análisis del Ciclo de Vida (LCA) para evaluar el impacto durante todo el ciclo de vida del puente, desde su fabricación hasta su desmantelamiento.

Destaca la implementación de una versión discreta del algoritmo Seno-Coseno (SCA), adaptada específicamente para resolver problemas de diseño estructural. Esta metodología no solo garantiza un diseño eficiente en términos de coste y sostenibilidad, sino que también proporciona una solución práctica que facilita la construcción al reducir los refuerzos en las losas superiores y realizar ajustes geométricos estratégicos. Este enfoque supone un avance en el campo de la ingeniería civil, ya que combina técnicas matemáticas avanzadas con consideraciones prácticas del sector. Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València.

La metodología descrita combina la teoría de juegos con un enfoque cooperativo, en el que los diferentes objetivos (coste, impacto ambiental, impacto social y facilidad constructiva) se representan como «jugadores». Estos jugadores colaboran para encontrar soluciones óptimas dentro del conjunto de soluciones Pareto-óptimas, utilizando el concepto de equilibrio de Nash y reglas de negociación.

El algoritmo Seno-Coseno (SCA) modificado desempeña un papel fundamental en este proceso, ya que permite gestionar variables discretas y restricciones estructurales mediante funciones de transferencia en forma de tangente hiperbólica. Además, se emplea la teoría de la entropía para asignar pesos objetivos, lo que asegura un equilibrio justo entre los criterios y minimiza la subjetividad en la toma de decisiones.

Los resultados muestran que la metodología basada en la teoría de juegos permite reducir el refuerzo de las losas superiores del puente y optimizar el uso de materiales sin comprometer la resistencia estructural. En comparación con un enfoque de optimización monoobjetivo centrado exclusivamente en costes, el método propuesto aumenta los costes en un 8,2 %, pero mejora sustancialmente los impactos ambientales y sociales asociados al diseño.

El estudio revela que, mediante la redistribución del material estructural, es posible mantener la rigidez necesaria en las secciones transversales del puente. En concreto, se observa un aumento en el uso de acero estructural en lugar de acero de refuerzo, lo que simplifica la construcción al reducir la cantidad de barras necesarias y, por ende, el tiempo de instalación y vibrado del hormigón. Este cambio también contribuye a mejorar la calidad del producto final, ya que reduce los errores constructivos y optimiza el tiempo de ejecución.

El análisis demuestra que las soluciones obtenidas mediante métricas de distancia Minkowski (L1, L2 y L∞) proporcionan diseños equilibrados que logran compromisos efectivos entre coste, sostenibilidad y facilidad constructiva. Estas soluciones son comparables a estudios previos en términos de costes, pero ofrecen beneficios adicionales al incluir una evaluación más integral de los impactos sociales y ambientales.

El enfoque presentado abre la puerta a diversas áreas de investigación. Una línea de investigación prometedora es la aplicación de algoritmos híbridos que combinen la teoría de juegos con otras metaheurísticas, como redes neuronales o algoritmos genéticos, para mejorar la exploración y explotación del espacio de soluciones. Esto podría reducir el tiempo de computación y permitir su aplicación a problemas más complejos.

Otra posible dirección de investigación sería ampliar el modelo para incluir criterios como la resiliencia ante desastres naturales o la evaluación de riesgos a largo plazo. También se podría explorar la incorporación de nuevos indicadores sociales, como el impacto en las comunidades locales durante la construcción y operación del puente, lo que ampliaría la evaluación de sostenibilidad. Asimismo, sería interesante aplicar esta metodología a otros tipos de estructuras, como edificios o infraestructuras de transporte masivo, para evaluar su viabilidad y adaptar el enfoque a diferentes contextos.

En definitiva, el artículo proporciona una herramienta muy valiosa para abordar los desafíos de sostenibilidad y eficiencia en el diseño de infraestructuras civiles. La combinación de la teoría de juegos y la optimización multiobjetivo es efectiva para equilibrar criterios complejos y conflictivos, y ofrece soluciones prácticas, sostenibles y viables desde el punto de vista económico y constructivo. Aunque computacionalmente intensivo, este enfoque establece una base sólida para futuras investigaciones y aplicaciones en el campo de la ingeniería civil, lo que permite avanzar en la evaluación integral de la sostenibilidad y en la mejora de los procesos de diseño estructural.

Referencia:

MARTÍNEZ-MUÑOZ, D.; MARTÍ, J.V.; YEPES, V. (2025). Game Theory-Based Multi-Objective Optimization for Enhancing Environmental and Social Life Cycle Assessment in Steel-Concrete Composite Bridges. Mathematics, 13(2):273. DOI:10.3390/math13020273

Os dejo a continuación el artículo completo, pues se ha pbulicado en abierto.

Pincha aquí para descargar