Jornada sobre infraestructuras resilientes al clima

El Colegio de Ingenieros de Caminos, Canales y Puertos organizó una jornada sobre Infraestructuras Resilientes al Clima el 4 de abril en el Auditorio Agustín de Betancourt. Estas jornadas tan interesantes se grabaron en un vídeo, que ahora os dejo.

El vídeo, titulado «Jornada sobre Infraestructuras Resilientes al Clima», es un recurso muy valioso que aborda la creciente necesidad de desarrollar infraestructuras que puedan resistir y adaptarse a los efectos del cambio climático.

Durante la jornada, se presentaron diferentes puntos de vista sobre cómo la ingeniería civil puede hacer frente a estos desafíos, resaltando la importancia de la resiliencia climática en la planificación y gestión de infraestructuras. Y ahora, vamos a echar un vistazo más de cerca a todo lo que se habló en la jornada.

 

 

 

1. Importancia de la resiliencia climática

La resiliencia climática se ha convertido en un concepto central en la planificación de infraestructuras, debido a la creciente vulnerabilidad de las comunidades ante eventos climáticos extremos.

Los impactos del cambio climático, tales como huracanes, inundaciones y sequías, han aumentado en frecuencia e intensidad. Estos fenómenos no solo afectan a las infraestructuras físicas, sino que también tienen repercusiones sociales y económicas significativas, que incluyen la pérdida de vidas, desplazamientos forzados y daños económicos.

A modo ilustrativo, en la jornada se expusieron ejemplos de comunidades que han adoptado soluciones resilientes, tales como sistemas de drenaje mejorados, infraestructura verde y edificaciones diseñadas para resistir eventos extremos. Estos ejemplos ponen de manifiesto los beneficios tangibles a largo plazo que conlleva la inversión en resiliencia.

2. Oportunidades profesionales en ingeniería civil

La jornada puso de manifiesto que la búsqueda de infraestructuras resilientes está generando nuevas oportunidades profesionales para los ingenieros civiles.

Se evidenció una demanda de especialistas debido a la necesidad imperante de adaptación al cambio climático, lo que ha generado una demanda de expertos en diversas áreas, tales como la gestión de recursos hídricos, la planificación urbana sostenible y la ingeniería de infraestructuras.

Se subrayó la relevancia de la educación continua y la formación especializada para que los profesionales puedan afrontar los desafíos emergentes en este campo. Los programas de capacitación y certificación en resiliencia climática son de vital importancia para la preparación de los ingenieros del futuro.

3. Retos normativos y de implementación

Uno de los asuntos más críticos que se ha planteado es la necesidad imperativa de adaptar las normativas vigentes para facilitar la implementación de infraestructuras resilientes.

Un número significativo de normativas vigentes no han sido concebidas para hacer frente a los riesgos asociados al cambio climático. Esta situación puede generar obstáculos para la implementación de soluciones innovadoras y efectivas.

En este sentido, se destacó la importancia de la colaboración interdisciplinaria entre ingenieros, urbanistas, arquitectos y responsables políticos. Un enfoque interdisciplinario puede ayudar a crear un marco normativo que apoye la resiliencia y facilite la implementación de proyectos.

Finalmente, se presentan ejemplos de mejores prácticas de otras regiones que han logrado adaptar sus normativas con éxito, lo que puede servir de modelo para otras comunidades.

4. Ingeniería humanitaria y adaptación a emergencias

En las jornadas también se subrayó el rol de la ingeniería humanitaria en el desarrollo de infraestructuras resilientes.

En lo que respecta a los denominados «Proyectos de respuesta rápida», se debatieron enfoques para el diseño de infraestructuras que puedan ser implantadas con celeridad en situaciones de emergencia, garantizando que las comunidades afectadas tengan acceso a servicios básicos de manera inmediata.

Por último, se abordó la importancia de la capacitación y los recursos, así como la formación de equipos de respuesta a emergencias y la disponibilidad de recursos adecuados, elementos esenciales para asegurar que las infraestructuras puedan soportar eventos extremos y facilitar la recuperación.

5. Educación y conciencia social

La jornada puso de manifiesto la importancia de la educación y la comunicación en la promoción de infraestructuras resilientes.

Es imperativo que la sociedad comprenda la relevancia de invertir en infraestructuras resilientes. En este sentido, la educación desempeña un papel crucial, ya que permite a las comunidades identificar los beneficios a largo plazo de tales inversiones.

Se propusieron programas de sensibilización que involucren a la comunidad en la planificación y diseño de infraestructuras, fomentando un sentido de propiedad y responsabilidad.

6. Financiación de infraestructuras resilientes

La financiación constituye uno de los desafíos más significativos en el desarrollo de infraestructuras resilientes.

En lo que respecta a las fuentes de financiación, se presentan diversas estrategias para asegurar fondos, tales como la colaboración entre los sectores público y privado, así como la búsqueda de fondos internacionales destinados a proyectos de adaptación y mitigación del cambio climático.

También se presentaron ejemplos de modelos de inversión exitosos que han permitido financiar proyectos de infraestructura resiliente, destacando la importancia de demostrar el retorno de inversión a largo plazo.

7. Implementación de directivas y normativas en España

La jornada abordó la implantación de la directiva de gestión de avenidas en España, cuyo objetivo es el de mejorar la preparación y respuesta ante inundaciones.

Se abordó la cuestión de las dificultades que enfrentan las autoridades para aplicar estas directivas de manera efectiva, así como las adaptaciones necesarias para enfrentar fenómenos climáticos inesperados.

Finalmente, se presentaron las lecciones aprendidas de la implantación de estas directivas, así como recomendaciones para mejorar la efectividad de las políticas existentes.

8. Innovaciones tecnológicas y soluciones sostenibles

La jornada destacó la importancia de la tecnología en el desarrollo de infraestructuras resilientes. También se abordó el tema de tecnologías emergentes, tales como la inteligencia artificial y el modelado predictivo, que tienen el potencial de ayudar a anticipar y gestionar los riesgos climáticos.

En lo que respecta a la Infraestructura Verde, se expusieron soluciones basadas en la integración de la naturaleza, como los techos verdes y los sistemas de drenaje sostenible, que se presentan como una estrategia eficaz para aumentar la resiliencia de las infraestructuras.

9. Perspectivas futuras y llamado a la acción

La jornada concluyó con una exhortación a la acción dirigida a todos los profesionales implicados en la planificación y gestión de infraestructuras.

Se hizo especial hincapié en que la responsabilidad de hacer frente al cambio climático es compartida y requiere la colaboración de todos los sectores de la sociedad.

Asimismo, se instó a los profesionales a adoptar una visión a largo plazo en la planificación de infraestructuras, contemplando no solo las necesidades actuales, sino también los desafíos futuros que plantea el cambio climático.

Conclusión

La jornada sobre infraestructuras resilientes al clima constituye un llamamiento a la acción dirigido a los profesionales de la ingeniería civil y otros actores implicados en la planificación y gestión de infraestructuras. La adaptación al cambio climático no solo es una responsabilidad, sino una oportunidad para innovar y crear un futuro más seguro y sostenible. Para ello, resulta imprescindible la colaboración, la educación y la inversión, que son pilares fundamentales para lograr infraestructuras que no solo resistan los desafíos actuales, sino que también estén preparadas para los retos del futuro. Este enfoque integral resulta imperativo para asegurar que las comunidades no solo sobrevivan, sino que prosperen en un mundo cada vez más afectado por el cambio climático.

Aquí tenéis un mapa conceptual de la jornada.

Pero creo que lo mejor es que, si tenéis un rato, oigáis de primera mano todas y cada una de las intervenciones en este vídeo. Espero que os sea de interés.

Glosario de términos clave

  • Adaptación al Cambio Climático: Proceso de ajuste a los impactos actuales o esperados del cambio climático. En el contexto de las infraestructuras, implica modificar su diseño, construcción y operación para soportar condiciones climáticas extremas.
  • Resiliencia (Climática): Capacidad de un sistema, comunidad o infraestructura para anticipar, resistir, adaptarse y recuperarse de eventos adversos del clima.
  • Dana (Depresión Aislada en Niveles Altos): Fenómeno meteorológico que puede causar lluvias torrenciales e inundaciones severas, mencionado en el texto como causa de trágicas consecuencias.
  • Niveles Preindustriales: Periodo de referencia (antes de la Revolución Industrial) utilizado para medir el aumento de la temperatura global debido a las actividades humanas.
  • Fenómenos Meteorológicos Extremos: Eventos climáticos de intensidad inusual, como olas de calor, sequías, inundaciones torrenciales y tormentas severas.
  • Infraestructuras Críticas: Infraestructuras esenciales para el funcionamiento de la sociedad y la economía, como las de transporte, energía, agua y telecomunicaciones, cuya afectación tiene consecuencias significativas.
  • Plan Nacional de Adaptación al Cambio Climático (PNACC): Marco de acción en España para integrar el cambio climático en la planificación sectorial, incluyendo las infraestructuras.
  • Ley de Cambio Climático y Transición Energética (2021): Ley española que establece objetivos de reducción de emisiones y promueve la adaptación al cambio climático en diversos sectores.
  • Directiva de Resiliencia de Infraestructuras Críticas: Normativa de la Unión Europea que obliga a los Estados miembros a adoptar estrategias para mejorar la resiliencia de sus infraestructuras esenciales.
  • Seopán: Asociación de Empresas Constructoras y Concesionarias de Infraestructuras, mencionada por su análisis de inversión en infraestructuras prioritarias.
  • CEDEX (Centro de Estudios y Experimentación de Obras Públicas): Organismo técnico español que realiza estudios y análisis relacionados con la ingeniería civil y el medio ambiente.
  • Cuencas Hidráulicas: Áreas geográficas donde el agua drena hacia un río principal, mencionadas en relación con la planificación hidrológica y la gestión de inundaciones.
  • Soluciones Basadas en la Naturaleza: Enfoques para abordar los desafíos ambientales que utilizan o imitan procesos naturales para proporcionar beneficios tanto para el medio ambiente como para la sociedad.
  • Sistemas de Saneamiento: Infraestructuras urbanas destinadas a la recogida y tratamiento de aguas residuales y pluviales.
  • Vías Separativas: Sistemas de saneamiento en los que las aguas residuales y las aguas pluviales se recogen y transportan por redes de tuberías separadas.
  • Resiliencia Estructural: Capacidad de una estructura para mantener su función y recuperarse después de ser sometida a eventos extremos o perturbaciones.
  • Robustez: Capacidad de una infraestructura o sistema para resistir un evento adverso sin una pérdida significativa de funcionalidad.
  • Rapidez (en Resiliencia): Velocidad con la que un sistema o infraestructura puede recuperarse y restaurar su funcionalidad después de una perturbación.
  • Análisis de Riesgos Climáticos: Evaluación de la probabilidad e impacto potencial de los eventos climáticos adversos sobre las infraestructuras.
  • Marco de Sendai para la Reducción del Riesgo de Desastres (2015-2030): Acuerdo internacional que establece un marco global para la reducción del riesgo de desastres, incluyendo la importancia de invertir en resiliencia.
  • Predicción y Modelos Predictivos: Uso de datos y herramientas para anticipar futuros eventos climáticos y sus posibles impactos.
  • Incertidumbre Profunda: Situación en la que hay una falta de conocimiento sobre las probabilidades o los posibles resultados de un evento.
  • Cisne Negro (Teoría): Término utilizado para describir eventos altamente improbables, de gran impacto y que solo se pueden explicar o predecir en retrospectiva.
  • Disponibilidad: Capacidad de una infraestructura para estar operativa y proporcionar su servicio.
  • Capacidad (en Infraestructura): Volumen o nivel de servicio que una infraestructura puede soportar o manejar.
  • Vulnerabilidad: Susceptibilidad de una infraestructura a sufrir daños o perder funcionalidad debido a un evento climático adverso.
  • Exposición: Grado en que una infraestructura está situada en un área propensa a eventos climáticos adversos.
  • Sensibilidad: Grado en que una infraestructura se ve afectada por un evento climático adverso una vez expuesta a él.
  • Escenarios de Cambio Climático: Proyecciones de posibles futuras condiciones climáticas basadas en diferentes supuestos sobre las emisiones de gases de efecto invernadero.
  • Trayectorias Socioeconómicas Compartidas (SSP): Marcos utilizados en la investigación del cambio climático para describir posibles futuros socioeconómicos y sus implicaciones para las emisiones y la adaptación.
  • Análisis Coste-Beneficio: Método para evaluar la rentabilidad de diferentes opciones de inversión, comparando los costos y beneficios esperados.
  • Gobernanza: Procesos y estructuras para tomar decisiones e implementar acciones, en este contexto, relacionadas con la resiliencia de las infraestructuras.
  • Inventario de Activos: Base de datos que contiene información detallada sobre las infraestructuras y sus componentes.
  • Sistemas de Ayuda a la Decisión: Herramientas informáticas y modelos que asisten en la toma de decisiones complejas, como la gestión de inundaciones o sequías.
  • Llanuras de Inundación Controlada: Áreas designadas para ser inundadas de manera planificada durante eventos de crecida para reducir el riesgo en otras zonas.
  • Probable Maximum Flood (PMF) / Avenida Máxima Probable: Estimación del evento de inundación más severo que es razonablemente posible en un lugar dado.
  • Flash Floods / Crecidas Repentinas: Inundaciones rápidas y violentas que ocurren con poca o ninguna advertencia, a menudo causadas por lluvias torrenciales intensas.
  • Six Sigma: Metodología de gestión de procesos que busca reducir al mínimo la probabilidad de defectos o errores.
  • Poka-yoke: Sistemas a prueba de errores diseñados para prevenir o detectar errores humanos.
  • Consorcio Administrativo: Entidad legal formada por varias administraciones públicas para coordinar y ejecutar acciones conjuntas.
  • Gemelos Digitales: Réplicas virtuales de sistemas o infraestructuras físicas que permiten la simulación y el análisis.
  • Big Data: Conjuntos de datos muy grandes y complejos que pueden ser analizados para revelar patrones y tendencias.
  • Ingeniería Humanitaria: Aplicación de principios y habilidades de ingeniería para abordar crisis humanitarias y promover el bienestar humano.
  • Estacionariedad Climática: Suposición de que las propiedades estadísticas del clima (como las distribuciones de precipitación o temperatura) permanecen constantes a lo largo del tiempo.
  • Análisis Probabilístico: Enfoque para evaluar la probabilidad de ocurrencia de eventos y sus posibles consecuencias.
  • Métodos Semiprobalísticos: Métodos de diseño estructural que utilizan factores de seguridad parciales basados en consideraciones probabilísticas.
  • Trayectorias Adaptativas: Secuencias de medidas de adaptación que se pueden implementar a lo largo del tiempo para hacer frente a los impactos cambiantes del cambio climático.
  • KPIs Financieros (Indicadores Clave de Rendimiento Financiero): Métricas utilizadas para evaluar el desempeño financiero, que pueden incorporarse en el análisis de la resiliencia de las infraestructuras.

Optimización estructural multiobjetivo en edificios: cómo reducir costos y emisiones con vigas de sección variable

Acaban de publicar nuestro artículo en la revista Energy and Buildings, de la editorial Elsevier, indexada en D1 del JCR. El estudio presenta una tipología estructural compuesta que combina columnas de hormigón armado con vigas de acero de sección variable híbrida transversal (THVS) para optimizar el coste económico, las emisiones de CO₂ y la energía incorporada en la construcción de edificios.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València.

El estudio plantea la siguiente pregunta de investigación: ¿en qué medida la optimización del diseño estructural de edificios en marco mediante el uso de una tipología compuesta con columnas de hormigón armado y vigas de sección variable transversamente híbridas (THVS) contribuye a la reducción del coste económico, de las emisiones de CO₂ y de la energía incorporada en la construcción?

Esta formulación permite abordar de manera precisa la problemática del impacto ambiental y económico del sector de la construcción, orientando la investigación hacia la identificación de configuraciones estructurales que minimicen estos factores mediante metodologías de optimización. La pregunta define claramente el problema central: la búsqueda de una alternativa estructural más eficiente que las tipologías tradicionales de hormigón armado.

Metodología

El estudio adopta un enfoque de optimización estructural basado en la combinación de Biogeography-Based Optimization (BBO) y Constrained Deterministic Local Iterative Search (CDLIS). Este enfoque permite buscar de manera eficiente soluciones en un espacio de diseño altamente complejo. Se analizan tres tipologías estructurales:

  1. Estructura tradicional de hormigón armado: Se optimizan las dimensiones de vigas, columnas y cimentaciones, así como la calidad del hormigón utilizado.
  2. Estructura compuesta con vigas THVS y uniones rígidas: Se sustituyen las vigas de hormigón armado por vigas THVS con conexiones fijas a las columnas.
  3. Estructura compuesta con vigas THVS y uniones articuladas: Similar a la anterior, pero con conexiones articuladas.

Las funciones objetivo optimizadas incluyen:

  • Coste económico: Calculado con base en los precios unitarios de materiales y procesos constructivos.
  • Emisiones de CO₂(e): Evaluadas según un enfoque «cradle-to-site», considerando la extracción de materias primas, fabricación y construcción.
  • Energía incorporada: Calculada en términos de consumo energético total en las fases de producción y construcción.

Se tienen en cuenta restricciones estructurales y de servicio según las normativas de diseño. Además, se implementa la interacción suelo-estructura mediante un modelo de tipo Winkler para evaluar los asentamientos diferenciales y su efecto en el diseño estructural.

Aportaciones relevantes

  • La tipología compuesta con vigas THVS y conexiones rígidas logra una reducción del 6 % en costes económicos, del 16 % en emisiones de CO₂ y del 11 % en energía incorporada para edificios con luces de 4 m.
  • Para edificios con luces de 8 m, la configuración con uniones articuladas permite reducir los costos económicos y las emisiones en un 5 % y un 6 %, respectivamente, aunque con un mayor consumo de energía.
  • Se demuestra que la menor carga axial transmitida por las vigas THVS reduce las solicitaciones en columnas y cimentaciones, lo que optimiza su diseño y reduce su impacto ambiental.
  • Se comprueba que el uso de acero de mayor calidad en las alas de las vigas THVS en comparación con el alma mejora la eficiencia estructural, con razones de hibridación (Rh) entre 1,2 y 2,0.

Discusión de resultados

El análisis de los resultados revela diferencias significativas entre las configuraciones estructurales. En los edificios con luces reducidas (4 m), las vigas THVS con uniones rígidas ofrecen el mejor rendimiento en términos de coste y sostenibilidad. En cambio, en edificios con luces mayores (8 m), las conexiones articuladas permiten un mejor aprovechamiento del material, aunque con una menor rigidez global.

Cabe destacar que la consideración de elementos de rigidización adicionales, como muros y losas, mejora notablemente el comportamiento de la tipología articulada, reduciendo su impacto ambiental en un 45 % y disminuyendo en un 60 % la carga axial sobre las columnas.

Líneas futuras de investigación

  • Perfeccionamiento del proceso de fabricación de vigas THVS, abordando aspectos como soldadura, control de calidad y optimización de ensamblaje.
  • Desarrollo de conexiones híbridas entre vigas THVS y columnas de hormigón armado, mejorando la eficiencia de transferencia de cargas.
  • Exploración de configuraciones mixtas de soporte, optimizando la selección de conexiones fijas o articuladas según las características del edificio.
  • Evaluación del comportamiento ante cargas dinámicas y sísmicas, considerando efectos de fatiga y estabilidad estructural.
  • Implementación de metamodelos para optimización computacional, reduciendo el tiempo de cálculo en simulaciones de alta fidelidad.

Conclusión

La optimización del diseño estructural de edificios en marco mediante el uso de vigas THVS permite reducir costes y mejorar la sostenibilidad ambiental. Las configuraciones con conexiones rígidas son particularmente eficientes en luces cortas, mientras que las conexiones articuladas son una alternativa viable en luces mayores cuando se combinan con elementos de rigidización adicionales. Estos hallazgos abren nuevas líneas de investigación en la aplicación y mejora de sistemas estructurales compuestos en ingeniería civil.

Referencia:

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Design optimization of a composite typology based on RC columns and THVS girders to reduce economic cost, emissions, and embodied energy of frame building construction. Energy and Buildings, 336:115607. DOI:10.1016/j.enbuild.2025.115607

 

Modelos subrogados para optimizar el coste de pasos superiores pretensados

Acaban de publicar nuestro artículo en la revista Infrastructures, indexada en el JCR. El estudio presenta una metodología de optimización de costes para puentes losa aligerados postesados mediante metamodelos, en la que se destaca la aplicación del modelo Kriging en combinación con algoritmos heurísticos.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València.  A continuación, explicamos brevemente el contenido del artículo que podéis descargar gratuitamente.

La investigación se centra en un puente de tres vanos con luces de 24, 34 y 28 m, y optimiza el diseño estructural para reducir costes sin comprometer los criterios de servicio y seguridad. Se identifica una reducción del 6,54 % en los costes en comparación con enfoques tradicionales, lograda principalmente mediante la disminución del uso de hormigón en un 14,8 % y del pretensado en un 11,25 %.

El trabajo también evalúa distintas técnicas predictivas, como redes neuronales y funciones de base radial, y determina que las redes neuronales presentan el menor error de predicción, aunque requieren varias ejecuciones para garantizar estabilidad. En contraste, el modelo Kriging permite identificar óptimos locales con alta precisión. La metodología propuesta proporciona una estrategia eficiente para la toma de decisiones en ingeniería estructural, que promueve diseños de puentes más rentables sin comprometer el rendimiento estructural.

Figura. Paso superior en la autovía A-7, en Cocentaina (Alicante)

Los resultados indican que la optimización mediante modelos subrogados permite reducir significativamente los costes de diseño de pasos superiores pretensados. La estrategia adoptada optimiza variables como la profundidad de la losa, la geometría de la base y la resistencia del hormigón, y respeta las restricciones impuestas por los estados límite de servicio, que son los últimos según el Eurocódigo 2. Se observa que la metodología basada en kriging y la optimización heurística proporciona resultados prácticos con menor esfuerzo computacional en comparación con la optimización directa de todas las variables estructurales.

El modelo Kriging optimizado mediante Simulated Annealing identificó una configuración de losa con una profundidad de 1,30 m y una base de 3,15 m como la solución más rentable. Esta configuración se corrobora mediante la predicción de redes neuronales, lo que muestra coherencia en la localización del óptimo. En comparación con estudios previos, los resultados indican que la metodología utilizada en este trabajo permite obtener ahorros significativos sin necesidad de analizar exhaustivamente cada alternativa estructural.

A partir de los hallazgos obtenidos, se sugiere explorar la integración de métodos de optimización multiobjetivo que tengan en cuenta no solo el coste, sino también el impacto ambiental y los costes de mantenimiento a lo largo del ciclo de vida del puente. La inclusión de criterios de sostenibilidad podría mejorar la eficiencia global del diseño estructural y su capacidad de adaptación a normativas futuras.

Otra línea de investigación relevante consiste en aplicar modelos subrogados en el diseño de otros tipos de estructuras, como puentes de vigas o marcos de hormigón armado, para evaluar su viabilidad en distintas configuraciones estructurales. Además, el desarrollo de modelos predictivos más sofisticados, que integren aprendizaje automático y simulaciones de alta fidelidad, podría optimizar aún más los diseños propuestos.

Por último, se recomienda estudiar el impacto de la variabilidad de los materiales y las condiciones de carga en la optimización del diseño. La incorporación de análisis probabilísticos mejoraría la fiabilidad de las soluciones obtenidas, ya que se obtendrían diseños estructurales más robustos y seguros.

Referencia:

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

Descargar (PDF, 1.95MB)

Introducción a los Modelos de Ecuaciones Estructurales (SEM)

Simbología y nomenclatura de los modelos PLS (Aldas, 2018)

Los modelos de ecuaciones estructurales (SEM, por sus siglas en inglés) son una técnica estadística multivariante utilizada para analizar y estimar relaciones causales, combinando datos estadísticos con suposiciones cualitativas sobre la causalidad. Esta metodología es especialmente valiosa en las ciencias sociales, la psicología, el marketing y otras disciplinas en las que las relaciones entre variables no son lineales y pueden involucrar tanto variables observables como latentes. Gracias a los SEM, los investigadores no solo pueden comprobar teorías existentes, sino también desarrollar nuevas hipótesis y modelos que reflejen la realidad de los fenómenos estudiados.

Los modelos de ecuaciones estructurales (MES) combinan el análisis factorial y la regresión lineal para evaluar la correspondencia entre los datos observados y el modelo hipotetizado, que se representa mediante un diagrama de senderos. Los MES proporcionan los valores asociados a cada relación del modelo y un estadístico que mide el ajuste de los datos y valida el modelo.

Una de sus principales fortalezas es la capacidad de construir variables latentes, es decir, variables no observables directamente, sino estimadas a partir de otras que covarían entre sí. Esto permite tener en cuenta explícitamente la fiabilidad del modelo. Además, el análisis factorial, el análisis de caminos y la regresión lineal son casos particulares dentro del enfoque de los MES.

Fundamentos teóricos

Variables latentes y observables:

  • Variables latentes: son constructos teóricos que no pueden medirse directamente. Por ejemplo, la «satisfacción del cliente» o «lealtad a la marca» son variables latentes que se infieren a partir de las respuestas a encuestas o del comportamiento observable.
  • Variables observables: son los indicadores que se utilizan para medir las variables latentes. Por ejemplo, en el caso de la satisfacción del cliente, las respuestas a preguntas específicas en una encuesta (como «¿Qué tan satisfecho está con nuestro servicio?»), son variables observables.

Modelo estructural vs. modelo de medida:

  • Modelo estructural: describe las relaciones causales entre las variables latentes. Este modelo permite a los investigadores establecer hipótesis sobre cómo una variable puede influir en otra.
  • Modelo de medida: establece cómo se relacionan las variables observables con las variables latentes. Es fundamental validar este modelo para garantizar que los indicadores reflejan realmente el constructo que se pretende medir.
Ejemplo de un modelo de medida y un modelo estructural

Tipos de modelos

Existen dos enfoques principales en SEM:

Análisis de estructuras de covarianza (CB-SEM):

  • Este enfoque se basa en la matriz de varianza-covarianza y es adecuado para contrastar teorías y probar hipótesis. CB-SEM es una técnica paramétrica que requiere que se cumplan ciertos supuestos estadísticos, como la normalidad multivariada y la independencia de las observaciones.
  • Aplicaciones: Ideal para estudios confirmatorios donde se busca validar teorías existentes. Se utiliza comúnmente en investigaciones que requieren un alto nivel de rigor estadístico.

Mínimos cuadrados parciales (PLS-SEM):

  • Este enfoque es más flexible y no requiere los mismos supuestos rigurosos que CB-SEM. PLS-SEM se centra en maximizar la varianza explicada de las variables latentes dependientes a partir de las variables latentes independientes.
  • Ventajas: Funciona bien con muestras pequeñas y permite la inclusión de constructos formativos, lo que amplía su aplicabilidad en contextos donde los constructos son complejos y multidimensionales.
  • Aplicaciones: Es especialmente útil en estudios exploratorios y en situaciones donde se busca hacer predicciones, como en el análisis de comportamiento del consumidor.

Metodología de PLS-SEM

La metodología de PLS-SEM se puede resumir en varias etapas clave:

  1. Inicialización: Se obtiene una primera aproximación a los valores de las variables latentes a partir de sus indicadores. Este paso es crucial para establecer un punto de partida en el proceso de estimación.
  2. Estimación de coeficientes de regresión: Se estiman los pesos o coeficientes de regresión de las variables latentes. Este proceso implica calcular las relaciones entre las variables latentes y sus indicadores, así como entre las variables latentes mismas.
  3. Optimización: Se busca maximizar el coeficiente de determinación (R²) de los factores latentes mediante un proceso iterativo. Este proceso de optimización es fundamental para mejorar la precisión de las estimaciones y asegurar que el modelo se ajuste adecuadamente a los datos.
  4. Evaluación de la validez y fiabilidad: Se analizan los constructos para asegurar que miden correctamente lo que se pretende medir. Esto incluye:
    —Fiabilidad individual: Evaluación de la consistencia interna de cada indicador utilizando el alfa de Cronbach.
    —Validez convergente: Medida a través de la varianza extraída (AVE), que debe ser superior a 0,5 para indicar que los indicadores reflejan el mismo constructo.
    —Validez discriminante: Comparación de las correlaciones entre constructos para asegurar que cada constructo es significativamente diferente de los demás. Esto se puede evaluar utilizando el criterio de Fornell-Larcker, que establece que la raíz cuadrada del AVE de cada constructo debe ser mayor que las correlaciones entre constructos.

Ventajas y desventajas de PLS-SEM

Ventajas:

  • Flexibilidad: PLS-SEM no requiere normalidad multivariada, lo que lo hace más accesible para investigadores en ciencias sociales que trabajan con datos no normales.
  • Muestras pequeñas: Funciona bien con muestras pequeñas, lo que es ventajoso en estudios exploratorios donde la recolección de datos puede ser limitada.
  • Constructos formativos: Permite la inclusión de constructos formativos, lo que amplía su aplicabilidad en contextos donde los constructos son complejos y multidimensionales.

Desventajas:

  • Falta de indicadores de ajuste global: PLS-SEM no proporciona indicadores de ajuste global del modelo, lo que puede limitar la comparación entre modelos y la evaluación de su calidad.
  • Restricciones en la estructura del modelo: Cada variable latente debe estar conectada a otra mediante una relación estructural, lo que puede ser restrictivo en algunos contextos.
  • Estimaciones no óptimas: La estimación de parámetros no es óptima en términos de sesgo y consistencia a menos que se utilice el algoritmo PLS consistente, lo que puede afectar la validez de los resultados.

Presentación de resultados

Al presentar los resultados de un análisis SEM, se recomienda estructurarlos en tablas que resuman la fiabilidad y validez del instrumento de medida, así como los análisis de validez discriminante y las hipótesis contrastadas. Así se facilita la comprensión y la interpretación de los resultados por parte de otros investigadores y lectores. La presentación clara y concisa de los resultados es esencial para garantizar la reproducibilidad y la transparencia de la investigación.

Tablas recomendadas:

  • Tabla de fiabilidad y validez: Resumen de los índices de fiabilidad (alfa de Cronbach, fiabilidad compuesta) y validez (AVE).
  • Tabla de validez discriminante: Comparación de las correlaciones entre constructos y sus AVE.
  • Tabla de resultados estructurales: Coeficientes de regresión, R² y significancia de las relaciones estructurales.

Conclusión

Los modelos de ecuaciones estructurales son una herramienta muy valiosa en la investigación social y del comportamiento, ya que permiten a los investigadores modelar y analizar relaciones complejas entre variables. La elección entre CB-SEM y PLS-SEM dependerá de los objetivos de la investigación, la naturaleza de los datos y las hipótesis planteadas. Con una correcta aplicación y validación, SEM puede proporcionar información significativa y fiable en diversas áreas de estudio, contribuyendo al avance del conocimiento en múltiples disciplinas. Para cualquier investigador que busque explorar las complejidades de las relaciones entre variables en su campo de estudio, es esencial comprender profundamente esta metodología y aplicarla correctamente.

Referencias:

Aldás, J. (2018). Modelización estructural mediante Partial Least Squares-PLSPM. Apuntes del seminario de modelización estructural.

Bagozzi, R. P., & Yi, Y. (1988). On the evaluation of structural equation models. Journal of the Academy of Marketing Science, 16(1), 74–94.

Fornell, C., & Bookstein, F. L. (1982). Two structural equation models: LISREL and PLS applied to consumer exit-voice theory. Journal of Marketing Research, 19(4), 440–452.

Hair, J. F., Hult, G. T. M., Ringle, C. M., & Sarstedt, M. (2014). A primer on partial least square structural equation modeling (PLS-SEM). California, United States: Sage.

López, S., & Yepes, V. (2024). Visualizing the future of knowledge sharing in SMEs in the construction industry: A VOS-viewer analysis of emerging trends and best practices. Advances in Civil Engineering, 2024, 6657677.

Yepes, V., & López, S. (2023). The knowledge sharing capability in innovative behavior: A SEM approach from graduate students’ insights. International Journal of Environmental Research and Public Health, 20(2), 1284.

Os dejo a continuación un artículo explicativo al respecto. Espero que os sea de interés.

Descargar (PDF, 273KB)

También os pueden ser útiles algunos vídeos al respecto.


Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Introducción a la teoría de juegos

https://upload.wikimedia.org/wikipedia/

La teoría de juegos es un área de las matemáticas aplicadas que utiliza modelos para estudiar interacciones en estructuras formales de incentivos, es decir, los llamados «juegos».

Se ha convertido en una herramienta clave para la economía y la administración de empresas, ya que ayuda a entender mejor la conducta humana en la toma de decisiones.

Los investigadores analizan las estrategias óptimas, así como el comportamiento previsto y observado de los individuos en dichos juegos. Tipos de interacción aparentemente distintos pueden tener estructuras de incentivos similares, lo que permite representar el mismo juego una y otra vez.

La teoría de juegos estudia las estrategias óptimas de los jugadores, así como su comportamiento previsto y observado, y ha contribuido a una mejor comprensión de la toma de decisiones humana.

La teoría de juegos aborda situaciones de decisión en las que hay dos oponentes inteligentes con objetivos opuestos. Algunos ejemplos típicos son las campañas de publicidad para productos de la competencia y las estrategias bélicas entre ejércitos. Estas situaciones difieren de las estudiadas previamente, en las que no se tiene en cuenta a la naturaleza como oponente adverso.

El juego es un modelo matemático que se utiliza para entender la toma de decisiones y la interacción entre los participantes, siendo el «dilema del prisionero» uno de los más conocidos. En este escenario, dos personas son arrestadas y encarceladas, y se fija la fecha del juicio. El fiscal se entrevista con cada prisionero por separado y les ofrece la siguiente opción: si uno confiesa y el otro no, el que confiesa queda libre y el otro recibe 20 años de prisión; si ambos confiesan, ambos cumplen 5 años; y si ninguno confiesa, ambos reciben 1 año de prisión. En este dilema, el destino de cada uno depende de la decisión del otro. Aunque confesar parece ser lo mejor, si ambos lo hacen, el castigo es peor que si guardan silencio.

https://www.bbc.com/mundo/noticias/2015/02/150220_teoria_de_juegos_que_es_finde_dv

La teoría de juegos se ha desarrollado y formalizado a partir de los trabajos de John von Neumann y Oskar Morgenstern, especialmente durante la Guerra Fría, debido a su aplicación en la estrategia militar. Los principales conceptos de la teoría de juegos incluyen los juegos de suma cero, los juegos de suma no cero, los equilibrios de Nash, los juegos cooperativos y los juegos de información perfecta e imperfecta.

En la teoría de juegos existen conceptos fundamentales para entender las interacciones estratégicas entre los agentes. Algunos de ellos son:

  • Estrategia: conjunto de acciones posibles que un jugador puede llevar a cabo en un juego. Las estrategias pueden ser puras (una acción única) o mixtas (una distribución de probabilidad sobre varias acciones).
  • Equilibrio de Nash: situación en la que ningún jugador tiene incentivos para cambiar su estrategia, dado el conjunto de estrategias de los demás. Es un concepto clave que describe una situación estable en la que las decisiones de los jugadores están equilibradas.
  • Juego de suma cero: tipo de juego en el que la ganancia total es constante, es decir, lo que uno gana, otro lo pierde. En estos juegos, el objetivo es maximizar la ganancia propia a expensas de los demás jugadores.

La matriz de recompensas es una herramienta clave en la teoría de juegos que representa las combinaciones de decisiones de los jugadores. Muestra los resultados, generalmente en forma de recompensas, para cada jugador según las decisiones de todos los participantes. Es decir, describe cómo las elecciones de cada jugador afectan a sus pagos o beneficios según las decisiones de los demás.

En un conflicto de este tipo hay dos jugadores, cada uno con una cantidad (finita o infinita) de alternativas o estrategias. Cada par de estrategias tiene una recompensa que un jugador paga al otro. A estos juegos se les llama de suma cero, ya que la ganancia de un jugador es igual a la pérdida del otro. Si los jugadores se representan por A y B, con m y n estrategias respectivamente, el juego se suele ilustrar con la matriz de recompensas para el jugador A.

La representación indica que si A usa la estrategia i y B usa la estrategia j, la recompensa para A es aij, y entonces la recompensa para B es —aij.

Aquí os dejo un esquema conceptual sobre la teoría de juegos.

Os dejo unos vídeos explicativos, que espero, os sea de interés:

En este vídeo se presentan los conceptos fundamentales de la teoría de juegos, que estudia cómo las decisiones de varios jugadores están interconectadas en situaciones estratégicas. A través de ejemplos visuales como matrices y árboles de decisión, se explica cómo los jugadores eligen estrategias para maximizar su utilidad teniendo en cuenta las acciones de los demás. Se destaca la importancia de entender los pagos y resultados de cada estrategia, lo que permite analizar comportamientos competitivos y cooperativos en diversos contextos.

En este otro vídeo se explican distintos tipos de juegos en teoría de juegos, como el dilema del prisionero, el juego del gato y el ratón y la batalla de los sexos, y se destacan sus equilibrios de Nash y las estrategias cooperativas o no cooperativas.

Referencias:

  • Binmore, K. (1994). Teoría de juegos. McGraw-Hill.
  • Friedman, J. W. (1991). Teoría de juegos con aplicaciones a la economía. Alianza Universidad.
  • Kreps, D. M. (1994). Teoría de juegos y modelación económica. Fondo de Cultura Económica.
  • Martínez-Muñoz, D., Martí, J. V., & Yepes, V. (2025). Game theory-based multi-objective optimization for enhancing environmental and social life cycle assessment in steel-concrete composite bridges. Mathematics, 13(2), 273. https://doi.org/10.3390/math13020273
  • Meyerson, R. (1991). Game theory: Analysis of conflict. Harvard University Press.
  • Nash, J. (1950). Equilibrium points in n-person games. Proceedings of the National Academy of the USA, 36(1), 48-49.
  • Poundstone, W. (1992). Prisoner’s dilemma: John von Neumann, game theory, and the puzzle of the bomb. Doubleday.

Licencia de Creative Commons

Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Fases de un estudio de investigación operativa

La investigación operativa busca determinar la solución óptima para un problema de decisión con recursos limitados. Se trata de un procedimiento científico que analiza las actividades de un sistema de organización.

Las principales componentes de un modelo de investigación operativa son: alternativas, restricciones y un criterio objetivo para elegir la mejor opción. Las alternativas se representan como variables desconocidas que luego se utilizan para construir las restricciones y la función objetivo mediante métodos matemáticos. El modelo matemático establece la relación entre estas variables, restricciones y función objetivo. La solución consiste en asignar valores a las variables para optimizar (maximizar o minimizar) la función objetivo y cumplir con las restricciones. A esta solución se le denomina solución posible óptima.

El enfoque del estudio de la ingeniería de operaciones está relacionado con la toma de decisiones para aprovechar al máximo los recursos limitados. Para ello, utiliza herramientas y modelos adaptados a las necesidades para facilitar la toma de decisiones en la resolución de problemas. Implica un trabajo en equipo entre analistas y clientes, con una estrecha colaboración. Los analistas aportan conocimientos de modelado y el cliente, experiencia y cooperación.

Como herramienta para la toma de decisiones, la investigación de operaciones combina ciencia y arte. Es ciencia por sus técnicas matemáticas y arte, porque el éxito en todas las fases, antes y después de resolver el modelo matemático, depende de la creatividad y experiencia del equipo. La práctica efectiva de la investigación de operaciones requiere más que competencia analítica, e incluye la capacidad de juzgar cuándo y cómo utilizar una técnica, así como habilidades de comunicación y adaptación organizativa.

Es complicado recomendar acciones específicas, como las de la teoría precisa de los modelos matemáticos, para abordar factores intangibles. Solo pueden ofrecerse directrices generales para aplicar la investigación de operaciones en la práctica.

El estudio de investigación operativa consta de varias etapas principales, entre las que destacan las siguientes:

  1. Formulación y definición del problema.
  2. Construcción del modelo.
  3. Solución del modelo.
  4. Verificación del modelo y de la solución.
  5. Puesta en práctica y mantenimiento de la solución.

Aunque las fases del proyecto suelen iniciarse en el orden establecido, no suelen completarse en el mismo orden. La interacción entre las fases requiere revisarlas y actualizarlas continuamente hasta la finalización del proyecto. La tercera fase es la única de carácter puramente matemático, ya que en ella se aplican las técnicas y teorías matemáticas necesarias para resolver el problema. El éxito de las demás etapas depende más de la práctica que de la teoría, siendo la experiencia el factor clave para su correcta ejecución.

Definir el problema implica determinar su alcance, tarea que lleva a cabo todo el equipo de investigación de operaciones. El resultado final debe identificar tres elementos principales: 1) descripción de las alternativas de decisión, 2) determinación del objetivo del estudio y 3) especificación de las restricciones del sistema modelado. Además, se deben recolectar los datos necesarios.

La formulación del modelo es quizá la fase más delicada del proceso, ya que consiste en traducir el problema a relaciones matemáticas. Si el modelo se ajusta a un modelo matemático estándar, como la programación lineal, puede resolverse con los algoritmos correspondientes. Para ello, deben definirse las variables de decisión, la función objetivo y las restricciones. Si las relaciones son demasiado complejas para una solución analítica, se puede simplificar el modelo mediante un método heurístico o recurrir a una simulación aproximada. En algunos casos, puede ser necesaria una combinación de modelos matemáticos, simulaciones y heurísticas para resolver el problema de toma de decisiones.

La solución del modelo es la fase más sencilla de la investigación de operaciones, ya que utiliza algoritmos de optimización bien definidos para encontrar la solución óptima. Un aspecto clave es el análisis de sensibilidad, que proporciona información sobre la forma en que la solución óptima responde a cambios en los parámetros del modelo. Esto es crucial cuando los parámetros no se pueden estimar con precisión, puesto que permite estudiar cómo varía la solución cerca de los valores estimados.

La validación del modelo verifica si cumple su propósito, es decir, si predice adecuadamente el comportamiento del sistema estudiado. Para ello, se evalúa si la solución tiene sentido y si los resultados son aceptables, comparando la solución con datos históricos para verificar si habría sido la correcta. Sin embargo, esto no garantiza que el futuro imite al pasado. Si el modelo representa un sistema nuevo sin datos históricos, se puede usar una simulación como herramienta independiente para comprobar los resultados del modelo matemático.

La implantación de la solución de un modelo validado consiste en traducir los resultados en instrucciones claras para quienes gestionarán el sistema recomendado. Esta tarea recae principalmente en el equipo de investigación de operaciones. En esta fase, el equipo debe capacitar al personal encargado de aplicar el modelo, asegurándose de que puedan traducir sus resultados en instrucciones de operación y usarlo correctamente para tomar decisiones sobre los problemas que motivaron su creación.

Os dejo algún vídeo al respecto.

Referencias:

Altier, W. J. (1999). The thinking manager’s toolbox: Effective processes for problem solving and decision making. Oxford University Press.

Checkland, P. (1999). Systems thinking, system practice. Wiley.

Evans, J. (1991). Creative thinking in the decision and management sciences. South-Western Publishing.

Gass, S. (1990). Model world: Danger, beware the user as a modeler. Interfaces, 20(3), 60-64.

Morris, W. (1967). On the art of modeling. Management Science, 13, B707-B717.

Paulos, J. A. (1988). Innumeracy: Mathematical illiteracy and its consequences. Hill and Wang.

Taha, H. A., & Taha, H. A. (2003). Operations research: an introduction (Vol. 7). Upper Saddle River, NJ: Prentice hall.

Willemain, T. R. (1994). Insights on modeling from a dozen experts. Operations Research, 42(2), 213-222.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Algunas reflexiones sobre el impacto del cambio climático en el comportamiento de las infraestructuras

El diseño estructural de infraestructuras, como edificios y puentes, se basa en códigos que establecen los criterios necesarios para garantizar su resistencia a diversas condiciones climáticas y ambientales. Estos códigos se actualizan periódicamente para reflejar los avances científicos y tecnológicos. Sin embargo, el cambio climático plantea un desafío disruptivo, ya que altera las condiciones climáticas de manera impredecible, lo que cuestiona la suposición de que las cargas climáticas son estacionarias.

En estas líneas se aborda cómo la transición del diseño estructural basado en estados límites ha influido en la forma en que se tienen en cuenta las variables climáticas. También aborda las dificultades que surgen al integrar el cambio climático en los modelos de riesgo estructural y analiza la necesidad de ajustar los métodos de estimación y diseño para tener en cuenta la creciente incertidumbre sobre el futuro climático.

Estas reflexiones se enmarcan dentro del proyecto RESILIFE, que actualmente desarrollo como investigador principal, y se han basado en algunas ideas desarrolladas en el trabajo reciente de Ellingwood et al. (2024).

Los códigos estructurales establecen los criterios necesarios para diseñar edificios, puentes y otras infraestructuras capaces de resistir las demandas de uso y los eventos ambientales o climáticos, como la nieve, el hielo, las lluvias, las tormentas de viento e inundaciones fluviales y costeras. Para garantizar que reflejen los últimos avances en ciencia e ingeniería, estos códigos se actualizan periódicamente, generalmente cada 5 o 10 años.

En las últimas cuatro décadas, los códigos estructurales de todo el mundo, como el “Minimum Design Loads and Associated Criteria for Buildings and Other Structures (ASCE 7-22)”, las “LRFD Bridge Design Specifications (AASHTO)”, el “International Building Code“, el “National Building Code of Canada” y los Eurocódigos, han adoptado los principios del diseño basado en estados límite. Durante este tiempo, los ingenieros estructurales y la normativa han reconocido la importancia de las herramientas de análisis de fiabilidad estructural y gestión del riesgo para modelar las incertidumbres asociadas a las cargas estructurales y la respuesta de las estructuras, y así garantizar un rendimiento adecuado en servicio (García-Segura et al., 2017). Con la transición del diseño basado en tensiones admisibles al diseño por estados límite, los criterios para las cargas climáticas han evolucionado gradualmente. Hasta ahora, estos criterios, basados en registros climáticos históricos y en evaluaciones de fiabilidad estructural, han tratado las cargas operativas y climáticas como estacionarias, asumiendo que el pasado es representativo del futuro.

El cambio climático plantea un desafío disruptivo y significativo para la evolución gradual de los códigos basados en el riesgo, así como para las prácticas de diseño estructural (ASCE, 2015a, 2018). La suposición de estacionariedad en el análisis de riesgos naturales deja de ser válida al tener en cuenta los efectos del cambio climático. Además, las incertidumbres asociadas a las proyecciones climáticas para el resto del siglo XXI son considerables, especialmente en lo que respecta a las cargas de viento, hielo y nieve (Tye et al., 2021). Las condiciones climáticas más agresivas podrían acelerar el deterioro estructural en ciertos casos, así como aumentar la intensidad y duración de los peligros. El cambio climático también ha suscitado controversia desde el punto de vista económico y político. Lograr consenso en los comités encargados de los códigos sobre el impacto del cambio climático en las infraestructuras requerirá una gestión técnica eficaz y una separación clara entre los aspectos políticos, como las causas del cambio climático, y los aspectos técnicos, como su impacto en las estructuras. Asimismo, podría haber oposición pública ante los costes adicionales que conlleven las modificaciones en los códigos climáticos. No obstante, ignorar los efectos del cambio climático en el comportamiento a largo plazo de las estructuras e infraestructuras podría incrementar el riesgo de daños y fallos, aumentar los costes de diseño, construcción y mantenimiento, agravar problemas de salud y seguridad públicas, interrumpir servicios esenciales y generar impactos socioeconómicos y ambientales negativos a nivel nacional.

Es fundamental abordar varias preguntas clave para considerar las exigencias del cambio climático en el desarrollo de los códigos estructurales. Entre ellas se encuentran (Ellingwood et al., 2024) :

  • ¿Cómo se debe modelar la no estacionariedad en la ocurrencia e intensidad de los eventos climáticos extremos provocados por el cambio climático?
  • ¿Cómo se deben integrar estas incertidumbres en un análisis de fiabilidad estructural dependiente del tiempo, con el fin de estimar el comportamiento futuro y demostrar el cumplimiento de los objetivos de rendimiento expresados en términos de fiabilidad?
  • ¿Cómo se puede convencer a los ingenieros estructurales y al público en general de la necesidad de aceptar estos cambios en interés nacional (Cooke, 2015), incluso si en algunos casos los costes de los sistemas de infraestructura aumentan?

Problemas y desafíos en el análisis de datos climáticos para el diseño estructural

Las variables climáticas empleadas en los códigos estructurales se basan principalmente en datos históricos. Los vientos extratropicales, la nieve, la temperatura y las precipitaciones se analizan exclusivamente a partir de estos datos. En el caso de los huracanes, se integran datos históricos en un marco que modela su génesis en la cuenca del Atlántico Norte, su desarrollo hasta convertirse en huracanes plenamente formados que impactan en infraestructuras costeras y su disipación tras tocar tierra. Estos análisis suponen que las variables climáticas pueden evaluarse como si fueran estacionarias, es decir, que el pasado es representativo del futuro y que sus intensidades pueden determinarse en función de sus periodos de retorno. Los datos se han recopilado para fines distintos al diseño de edificaciones, como la aviación comercial, la hidrología local, la gestión de recursos hídricos y la agricultura, y generalmente abarcan menos de 100 años.

La mayoría de las variables climáticas incluidas en los códigos se suelen determinar ajustando el parámetro extremo anual a una distribución de probabilidad. Entre las distribuciones más comunes utilizadas para este propósito se encuentran la distribución Tipo I de valores máximos y la distribución generalizada de valores extremos. El periodo de retorno o intervalo medio de recurrencia de una carga se calcula como el recíproco de la probabilidad anual de que dicha carga se supere. El error de muestreo en la estimación de los eventos base de diseño en una secuencia estacionaria para periodos de retorno superiores a 100 años puede ser considerable. Sin embargo, las estimaciones de las medias de las muestras suelen ser razonablemente estables cuando se actualizan en intervalos típicos de 10 años con datos climáticos adicionales.

La suposición de estacionariedad en los datos no puede justificarse en un contexto de cambio climático (Pandey y Lounis, 2023), y el concepto de un evento asociado a un periodo de retorno específico no es aplicable en sentido estricto. El aumento (o disminución) de las variables climáticas, junto con la creciente incertidumbre en los modelos de predicción climática, especialmente a partir del año 2060, afectará a la forma de analizar y especificar los datos para fines de diseño estructural. Quizás lo más relevante sea el impacto que tendrá sobre la forma en que se comunicarán los peligros de diseño a la comunidad profesional de la ingeniería y a sus clientes (Cooke, 2015).  Ellingwood et al. (2024) recuerdan claramente la confusión generada por el concepto de periodo de retorno cuando se introdujo a finales de la década de 1960. El periodo de retorno se concibió como una herramienta para reconocer que el parámetro de carga es aleatorio y para definir indirectamente la probabilidad anual de que se supere su intensidad de diseño, sin necesidad de recurrir a probabilidades pequeñas que no eran habituales entre los ingenieros estructurales de esa época. Esto podría explicar por qué algunos investigadores climáticos han intentado presentar sus estimaciones de parámetros utilizando el concepto de periodo de retorno (Ribereau et al., 2008; Salas y Obeysekera, 2014). Este problema requiere una reflexión cuidadosa al tratar con un clima cambiante, donde las probabilidades anuales no son constantes a lo largo de la vida útil de una estructura.

El crecimiento proyectado de las variables climáticas y sus incertidumbres más allá del año 2060 indica que será necesario desarrollar métodos para gestionar la incertidumbre epistémica -se refiere a la incertidumbre del modelo- en la estimación de parámetros, un aspecto que no se había tenido en cuenta previamente al estimar las variables climáticas para desarrollar códigos estructurales. Aunque la precisión de las técnicas generales de pronóstico climático ha mejorado gracias a la recopilación continua de datos, los modelos climáticos actuales son más capaces de predecir el impacto del cambio climático sobre la temperatura y las precipitaciones que sobre fenómenos como inundaciones, nevadas y vientos. Esto resulta problemático a la hora de considerar los niveles de probabilidad apropiados para el análisis de seguridad estructural.

Las futuras investigaciones podrían centrarse en el desarrollo de modelos más precisos para cargas climáticas específicas, como ciclones tropicales o sequías prolongadas, que aún presentan elevadas incertidumbres en sus proyecciones. Además, sería valioso explorar la aplicación de estos principios a sistemas de infraestructura emergentes, como redes de energía renovable o tecnologías de transporte resilientes. Por último, se sugiere investigar métodos para integrar datos climáticos en tiempo real en el diseño y seguimiento de infraestructuras, fomentando un enfoque dinámico y adaptable al cambio climático.

En resumen, los códigos estructurales establecen los criterios necesarios para diseñar infraestructuras capaces de resistir eventos climáticos como tormentas, nieve e inundaciones, y se actualizan periódicamente para reflejar los avances científicos y tecnológicos. Sin embargo, el cambio climático plantea un reto significativo, ya que altera las condiciones climáticas de manera impredecible, lo que hace que la suposición de estacionariedad que hasta ahora ha guiado el diseño estructural sea obsoleta. Este artículo explora cómo los códigos estructurales han evolucionado hacia un diseño basado en estados límite y la necesidad urgente de ajustar los métodos de análisis de riesgos ante la creciente incertidumbre climática. Además, se analizan los problemas derivados del uso exclusivo de datos históricos para modelar cargas climáticas y las dificultades que plantea el cambio climático a la hora de predecir eventos extremos. Finalmente, se destaca la necesidad de desarrollar nuevos modelos y enfoques analíticos que garanticen la seguridad de las infraestructuras en un entorno climático en constante cambio.

Os dejo un mapa conceptual sobre las reflexiones anteriores.

Referencias:

ASCE (2015). Adapting infrastructure and civil engineering practice to a changing climate. Committee on Adaptation to a Changing Climate. American Society of Civil Engineers.

ASCE (2018). Climate-resilient infrastructure: Adaptive design and risk management. Reston, VA: Committee on Adaptation to a Changing Climate. American Society of Civil Engineers.

Cooke, R. M. (2015). Messaging climate change uncertainty. Nature Climate Change5(1), 8-10.

Ellingwood, B. R., Bocchini, P., Lounis, Z., Ghosn, M., Liu, M., Yang, D., Capacci, L., Diniz, S., Lin, N., Tsiatas, G., Biondini, F., de Lindt, J., Frangopol, D.M., Akiyama, M., Li, Y., Barbato, M., Hong, H., McAllister, T., Tsampras, G. & Vahedifard, F. (2024). Impact of Climate Change on Infrastructure Performance. In Effects of Climate Change on Life-Cycle Performance of Structures and Infrastructure Systems: Safety, Reliability, and Risk (pp. 115-206). Reston, VA: American Society of Civil Engineers.

García-Segura, T., Yepes, V., Frangopol, D. M., & Yang, D. Y. (2017). Lifetime reliability-based optimization of post-tensioned box-girder bridges. Engineering Structures145, 381-391.

Pandey, M. D., & Lounis, Z. (2023). Stochastic modelling of non-stationary environmental loads for reliability analysis under the changing climate. Structural Safety103, 102348.

Ribereau, P., Guillou, A., & Naveau, P. (2008). Estimating return levels from maxima of non-stationary random sequences using the Generalized PWM method. Nonlinear Processes in Geophysics15(6), 1033-1039.

Salas, J. D., & Obeysekera, J. (2014). Revisiting the concepts of return period and risk for nonstationary hydrologic extreme events. Journal of hydrologic engineering19(3), 554-568.

Tye, M. R., & Giovannettone, J. P. (2021, October). Impacts of future weather and climate extremes on United States infrastructure: Assessing and prioritizing adaptation actions. Reston, VA: American Society of Civil Engineers.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Gemelo digital para la gestión predictiva de infraestructuras civiles

El artículo presenta un marco conceptual para el desarrollo de gemelos digitales aplicados a estructuras de ingeniería civil que combina modelos basados en la física con técnicas avanzadas de aprendizaje profundo. Se propone una integración dinámica entre el sistema físico y su representación digital mediante redes bayesianas dinámicas, lo que permite la toma de decisiones informada y la optimización continua. Entre las contribuciones destacadas, se encuentra la implementación de modelos de aprendizaje profundo para diagnosticar el estado estructural en tiempo real a partir de datos de sensores. Además, el enfoque incluye un proceso de aprendizaje previo fuera de línea para optimizar las políticas de mantenimiento.

La investigación presenta casos de estudio que validan la viabilidad del marco propuesto: una viga en voladizo en forma de L y un puente ferroviario. En estos ejemplos, se demuestra la capacidad del sistema para predecir el deterioro estructural y sugerir las acciones de mantenimiento adecuadas. El uso de modelos de orden reducido permite gestionar el coste computacional de manera eficiente y garantizar la aplicabilidad práctica del enfoque.

Introducción

La gestión eficiente de estructuras de ingeniería civil, como puentes, edificios y otras infraestructuras críticas, es un desafío constante debido al envejecimiento, el uso intensivo y los cambios en las condiciones ambientales. Un mantenimiento inadecuado puede provocar fallos catastróficos con consecuencias sociales, económicas y medioambientales significativas. En este contexto, los gemelos digitales han emergido como una tecnología prometedora para mejorar la supervisión, el mantenimiento y la toma de decisiones.

Un gemelo digital es una réplica virtual de un activo físico que se actualiza continuamente con datos obtenidos de sensores instalados en el activo real. Esto permite simular su comportamiento, predecir su evolución y planificar intervenciones de manera óptima. El concepto se ha explorado ampliamente en sectores como el aeroespacial y el manufacturero, pero su aplicación en el ámbito de la ingeniería civil es relativamente reciente.

En el campo de los gemelos digitales para ingeniería civil, las investigaciones previas han abordado diferentes aspectos del monitoreo estructural, como la detección de daños mediante métodos de análisis modal y la integración de técnicas avanzadas de procesamiento de señales. Se han utilizado modelos físicos basados en elementos finitos para representar el comportamiento estructural y técnicas de aprendizaje automático para detectar y clasificar anomalías. Sin embargo, la mayoría de estos enfoques tienen limitaciones relacionadas con la precisión de las predicciones y la gestión de la incertidumbre en condiciones operativas variables.

Un enfoque emergente consiste en integrar modelos probabilísticos, como las redes bayesianas, con técnicas de aprendizaje profundo. Esto permite incorporar la variabilidad y la incertidumbre inherentes a los datos estructurales. No obstante, aún es necesario mejorar la capacidad de realizar predicciones precisas de manera continua en tiempo real.

Teniendo en cuenta las limitaciones identificadas en los trabajos previos, este estudio busca responder a la siguiente pregunta de investigación: ¿cómo se puede desarrollar un marco de gemelo digital que combine modelos físicos y aprendizaje profundo para mejorar la predicción y la toma de decisiones en el mantenimiento de estructuras de ingeniería civil, teniendo en cuenta la incertidumbre y la variabilidad operativa?

El artículo examina un enfoque innovador basado en modelos físicos y técnicas de aprendizaje profundo, y propone un sistema de toma de decisiones apoyado en redes bayesianas dinámicas. Este marco permite una interacción continua entre el activo físico y su representación digital, lo que mejora significativamente los procesos de mantenimiento preventivo y correctivo.

Gemelos digitales predictivos para estructuras de ingeniería civil: abstracción gráfica del flujo de información de extremo a extremo habilitada por el modelo gráfico probabilístico (Torzoni et al., 2024)

Metodología

La metodología propuesta combina modelos matemáticos basados en la física y técnicas de aprendizaje profundo para crear un gemelo digital capaz de gestionar estructuras de ingeniería civil. El enfoque consta de tres fases principales:

  1. Modelo numérico basado en la física:
    • Se emplean modelos de elementos finitos para representar el comportamiento estructural bajo diferentes condiciones operativas y de daño.
    • Los modelos son simplificados mediante técnicas de reducción de orden, utilizando descomposición en bases propias (POD), para hacer viable el análisis computacional en tiempo real.
  2. Asimilación de datos mediante aprendizaje profundo:
    • Los datos estructurales recopilados por sensores se procesan mediante redes neuronales profundas.
    • Un modelo de clasificación identifica la ubicación y severidad del daño, mientras que un modelo de regresión cuantifica la magnitud del deterioro.
  3. Toma de decisiones basada en redes bayesianas dinámicas:
    • Los resultados se integran en un modelo probabilístico que permite la predicción de estados futuros y la planificación de intervenciones de mantenimiento.
    • El sistema optimiza decisiones considerando incertidumbres operativas y costos asociados a las acciones de mantenimiento.

Resultados

Los resultados obtenidos evidencian que el gemelo digital propuesto puede rastrear con precisión la evolución del estado estructural y generar recomendaciones de mantenimiento en tiempo real. La precisión global alcanzada en la clasificación de estados digitales fue del 93,61 %, lo que destaca su capacidad para manejar datos ruidosos y condiciones operativas variables. Sin embargo, se observaron algunas limitaciones en la detección de daños en regiones alejadas de los sensores, lo que subraya la necesidad de mejorar la sensibilidad de los dispositivos de monitorización.

Otro aspecto relevante es la capacidad de predicción del sistema. Las simulaciones muestran que el gemelo digital puede prever de manera efectiva el deterioro futuro, lo que permite planificar de manera proactiva las intervenciones. Esto supone una mejora significativa con respecto a los enfoques tradicionales de mantenimiento reactivo.

Desde un punto de vista metodológico, la integración de modelos probabilísticos y aprendizaje profundo proporciona una solución robusta y adaptable a diferentes estructuras. No obstante, el éxito del sistema depende en gran medida de la calidad y la cantidad de datos disponibles para el entrenamiento inicial.

El estudio responde a la pregunta de investigación mediante la implementación exitosa de un marco de gemelo digital que combina modelos físicos y aprendizaje profundo. El sistema propuesto gestiona la incertidumbre mediante redes bayesianas dinámicas y mejora la toma de decisiones en mantenimiento al proporcionar predicciones precisas y recomendaciones basadas en datos en tiempo real. Los experimentos confirmaron su capacidad para gestionar estructuras complejas, lo que demuestra una mejora tangible en comparación con los enfoques tradicionales.

Conclusiones y recomendaciones

En conclusión, el desarrollo de un gemelo digital que integre modelos físicos y técnicas de aprendizaje profundo supone un avance significativo en la gestión de infraestructuras críticas. La metodología propuesta permite realizar un seguimiento continuo, realizar predicciones proactivas y tomar decisiones informadas.

El trabajo plantea varias líneas de investigación para el futuro:

  1. Mejora de los modelos predictivos: Explorar técnicas avanzadas de aprendizaje automático para aumentar la precisión y reducir el sesgo en la estimación de estados estructurales.
  2. Optimización de redes de sensores: Investigar configuraciones óptimas de sensores para mejorar la cobertura y sensibilidad del monitoreo.
  3. Aplicaciones a gran escala: Desarrollar estudios de caso adicionales que incluyan estructuras complejas como puentes de gran envergadura y edificios multifuncionales.
  4. Integración con tecnologías emergentes: Incorporar técnicas de computación en el borde y redes 5G para facilitar la transmisión y procesamiento de datos en tiempo real.
  5. Estudio de costos y beneficios: Evaluar la relación costo-beneficio del sistema para su implementación en proyectos reales, considerando factores económicos y de sostenibilidad.

Estos pasos permitirán ampliar la aplicabilidad del sistema y mejorar su eficiencia en el mantenimiento de infraestructuras críticas. En resumen, el artículo establece una base sólida para el desarrollo de gemelos digitales en ingeniería civil, al proponer un enfoque integral y avanzado desde el punto de vista técnico que combina modelos físicos y aprendizaje automático. Las investigaciones futuras deben centrarse en ampliar su ámbito de aplicación y mejorar su rendimiento en contextos operativos complejos.

Referencia:

Torzoni, M., Tezzele, M., Mariani, S., Manzoni, A., & Willcox, K. E. (2024). A digital twin framework for civil engineering structuresComputer Methods in Applied Mechanics and Engineering418, 116584.

Os dejo el artículo completo, pues se encuentra en abierto:

Descargar (PDF, 1.95MB)

Diseño optimizado de edificios de pórticos de hormigón armado frente al colapso progresivo mediante metamodelos

El diseño estructural de los edificios plantea importantes retos para garantizar su seguridad y sostenibilidad. El colapso progresivo, provocado por eventos extremos como terremotos o explosiones, puede ocasionar daños catastróficos. Para reducir este riesgo, se propone una metodología de diseño apoyada en metamodelos que combina optimización estructural y criterios de seguridad, y que tiene en cuenta elementos que a menudo se pasan por alto, como los forjados, las pantallas de arriostramiento y la interacción suelo-estructura (SSI, por sus siglas en inglés).

El trabajo se enmarca dentro del proyecto de investigación RESILIFE que dirijo como investigador principal en la Universitat Politècnica de València. También es fruto de la colaboración con investigadores de Brasil y Cuba.

Metodología

Descripción del problema

Se estudiaron cinco edificios de pórticos de hormigón armado con diferentes configuraciones de plantas y luces. Las estructuras incluyen vigas, columnas, forjados y pantallas de arriostramiento. Además, se incorporó el diseño optimizado de cimentaciones, considerando la interacción con el suelo mediante modelos de elasticidad lineal. Las dimensiones de los elementos estructurales se ajustaron siguiendo las normas internacionales de diseño y se consideraron distintas combinaciones de carga para evaluar escenarios críticos.

Se realizaron simulaciones numéricas avanzadas que tuvieron en cuenta escenarios de carga extremos, incluyendo la pérdida de columnas críticas en diversas posiciones. En el análisis se tuvieron en cuenta factores de seguridad, límites de servicio y fallos estructurales para determinar los diseños óptimos. También se tuvieron en cuenta criterios de sostenibilidad y se midieron las emisiones de CO₂ asociadas a cada solución.

Optimización basada en un diseño robusto frente al colapso progresivo (ObRDPC)

La metodología ObRDPC se centra en minimizar las emisiones de CO₂ como función objetivo, garantizando simultáneamente la robustez estructural mediante restricciones de seguridad. Para evaluar el colapso progresivo y simular la pérdida de columnas críticas, así como analizar la redistribución de cargas, se empleó el método de camino alternativo (AP). La metodología incluye la verificación de estados límite últimos y de servicio, lo que garantiza el cumplimiento de los requisitos normativos.

El proceso de optimización incluye la definición precisa de las variables de diseño, como las dimensiones de las vigas, columnas y cimentaciones, así como el tipo de hormigón utilizado. Para maximizar la eficiencia estructural y minimizar los costos ambientales, se aplican técnicas de programación matemática.

Modelización de forjados y pantallas de arriostramiento

  • Forjados: se modelaron como elementos tipo placa de 12 cm de espesor y se conectaron a las vigas mediante nodos rígidos para asegurar la continuidad estructural. Se realizó una discretización adecuada para representar su comportamiento realista ante cargas verticales y horizontales. El análisis incluyó el comportamiento a flexión, los efectos de cargas concentradas y la interacción con los elementos perimetrales. Se consideraron diferentes configuraciones de refuerzo para maximizar la resistencia y minimizar las deformaciones.
  • Pantallas de arriostramiento: representadas mediante diagonales equivalentes elásticas, según las especificaciones normativas. Se definieron sus propiedades mecánicas mediante modelos experimentales previos, incluyendo el módulo de elasticidad y la resistencia a compresión. Se estudiaron distintos tipos de mampostería y su influencia en la resistencia general. Las pantallas de arriostramiento también se evaluaron como elementos activos en la redistribución de cargas después de eventos que provocan la pérdida de soporte, lo que mejora la estabilidad global del sistema estructural.

Interacción suelo-estructura (SSI)

Se consideró el asentamiento diferencial de las cimentaciones mediante coeficientes de rigidez calculados según modelos elásticos. El suelo se modeló como un medio elástico semiespacial. En el análisis se incluyó la interacción entre la superestructura y el terreno para capturar los efectos de asentamientos desiguales y su impacto en el estado de esfuerzos y deformaciones.

En el análisis se tuvieron en cuenta diferentes tipos de suelos, desde arcillas de baja resistencia hasta suelos granulares compactados. Se realizaron estudios paramétricos para evaluar la sensibilidad del sistema a variaciones en la rigidez del terreno y el módulo de elasticidad del hormigón.

Cinco estudios de casos que consideran la modelización de cimientos, forjados y pantallas de arriostramiento.

Optimización asistida por metamodelos

Se utilizaron técnicas avanzadas de optimización asistida por metamodelos para reducir la carga computacional. El proceso incluyó un muestreo inicial mediante muestreo hipercúbico latino para cubrir eficientemente el espacio de diseño, seguido de la construcción del metamodelo a través de técnicas de interpolación Kriging para aproximar las respuestas estructurales, evaluando múltiples configuraciones para garantizar la precisión. Posteriormente, se aplicó una optimización global utilizando algoritmos evolutivos, como la Biogeography-based Optimization (BBO), para explorar soluciones factibles y un método iterativo para refinar las soluciones y garantizar su viabilidad en condiciones críticas.

Resultados

Impacto de forjados y pantallas de arriostramiento

La inclusión de forjados y pantallas de arriostramiento mejoró significativamente la redistribución de cargas y la resistencia al colapso progresivo. El análisis mostró una reducción del 11 % en el impacto ambiental para diseños resistentes al colapso, en comparación con modelos que solo consideran vigas y columnas.

Se observó una mejora notable en la capacidad de redistribución de cargas después de la pérdida de columnas críticas. Las pantallas de arriostramiento actuaron como elementos resistentes adicionales, mitigando fallos en los elementos primarios y reduciendo los desplazamientos globales.

Comparación de enfoques de diseño

Se observó que aumentar el número de niveles incrementa la robustez estructural debido a la mayor redundancia de elementos. Sin embargo, el incremento de la longitud de las luces de las vigas reduce esta capacidad, por lo que es necesario utilizar secciones más robustas y aplicar mayores refuerzos.

Los modelos con luces de 8 m presentaron un aumento del 50 % en las emisiones de CO₂ cuando no se incluyeron forjados ni pantallas de arriostramiento. Al incorporarlos, se consiguió reducir este incremento a la mitad.

Recomendaciones prácticas para el diseño estructural

  1. Incluir forjados y pantallas de arriostramiento: Su integración mejora significativamente la resistencia al colapso progresivo, particularmente en edificios con luces amplias.
  2. Optimizar secciones estructurales: Diseñar secciones de vigas y columnas equilibrando rigidez y eficiencia económica.
  3. Evaluar diferentes tipos de cimentaciones: Incorporar análisis de interacción suelo-estructura para definir bases óptimas.
  4. Aplicar análisis paramétricos: Evaluar la sensibilidad de los diseños a variaciones en la resistencia del hormigón y las condiciones geotécnicas.
  5. Considerar combinaciones de carga extremas: Simular múltiples fallos para garantizar diseños robustos y seguros.

Conclusión

La optimización basada en un diseño robusto frente al colapso progresivo (ObRDPC) permite diseñar estructuras resistentes al colapso progresivo con menor impacto medioambiental. El uso de metamodelos y la consideración de forjados, pantallas de arriostramiento y la interacción suelo-estructura mejoran significativamente la seguridad estructural y la sostenibilidad del diseño. Se recomienda ampliar esta investigación a otros tipos de estructuras y condiciones geotécnicas complejas para validar y perfeccionar la metodología propuesta.

Referencia:

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementation. Engineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487

Como el artículo se ha publicado en abierto, lo podéis descargar aquí:

Descargar (PDF, 10.68MB)

Optimización de programas de mantenimiento vial: eficiencia y estrategias a largo plazo con algoritmos heurísticos.

Optimal pavement maintenance programs based on a hybrid Greedy Randomized Adaptive Search Procedure Algorithm

El artículo, titulado «Optimal pavement maintenance programs based on a hybrid Greedy Randomized Adaptive Search Procedure Algorithm», escrito por Víctor Yepes, Cristina Torres-Machí, Alondra Chamorro y Eugenio Pellicer, y publicado en el Journal of Civil Engineering and Management, presenta una innovadora herramienta para la gestión eficiente del mantenimiento vial. Este trabajo aborda cómo diseñar programas que maximicen la efectividad a largo plazo (Long-Term Effectiveness, LTE) en redes viales, superando las limitaciones presupuestarias y el desgaste progresivo de las infraestructuras. Para ello, se desarrolla un enfoque híbrido que combina los algoritmos Greedy Randomized Adaptive Search Procedure (GRASP) y Threshold Accepting (TA), lo que permite optimizar la asignación de recursos y cumplir con restricciones técnicas y económicas. Entre los resultados más destacados, se encuentra una mejora del 40 % en la LTE en comparación con estrategias reactivas, que también subraya la importancia de priorizar inversiones tempranas y de implementar tratamientos preventivos como la opción más eficiente a largo plazo.

Introducción

La infraestructura vial es uno de los activos más valiosos de cualquier nación, ya que tiene un impacto directo en el desarrollo económico y social al facilitar el transporte de bienes y personas, por lo que es necesario realizar un mantenimiento adecuado para evitar el deterioro y el incremento de los costes futuros de rehabilitación. Sin embargo, los presupuestos de las agencias públicas son limitados y no alcanzan a cubrir las necesidades de conservación, lo que genera una brecha cada vez mayor entre el estado actual de las infraestructuras y los niveles de inversión requeridos. En Estados Unidos, un tercio de las carreteras están en condiciones mediocres o deficientes, y uno de cada nueve puentes presenta deficiencias estructurales. En España, las necesidades de mantenimiento vial superan los 5500 millones de euros, pero los presupuestos se redujeron un 20 % en 2012, lo que agravó aún más la situación. Este mantenimiento tardío no solo incrementa los riesgos estructurales, sino que también triplica los costes de rehabilitación y los gastos operativos de los vehículos, lo que plantea un problema central: decidir cómo asignar los fondos disponibles de forma óptima para maximizar el rendimiento a largo plazo de las infraestructuras, respetando restricciones técnicas y económicas, y considerando los beneficios acumulados para los usuarios.

Metodología

Formulación del problema de optimización

El problema se define como la maximización de la LTE, un indicador que mide los beneficios acumulados derivados de una infraestructura bien mantenida durante su ciclo de vida.

  1. Función objetivo:
    • Maximizar el área bajo la curva de rendimiento de las infraestructuras (Area Bounded by the Performance Curve, ABPC). Este área refleja la calidad y el nivel de servicio de la infraestructura a lo largo del tiempo.
  2. Restricciones:
    • Presupuestaria: Garantizar que los costos anuales de mantenimiento no excedan el presupuesto disponible en cada año del periodo de planificación.
    • Técnica: Mantener las secciones de la red en una condición mínima aceptable. Esto se evalúa mediante indicadores como el Urban Pavement Condition Index (UPCI, Índice de Condición del Pavimento Urbano), que clasifica la calidad del pavimento en una escala del 1 (peor) al 10 (mejor).
  3. Variables de diseño:
    • Determinar qué secciones de la red deben tratarse, qué tratamiento aplicar y en qué momento realizarlo durante el horizonte de planificación.
  4. Parámetros:
    • Inventario: Datos sobre el tipo de pavimento, su longitud y ancho, condiciones climáticas y características del tráfico.
    • Técnicos: Condición inicial del pavimento, modelos de deterioro a lo largo del tiempo y el conjunto de tratamientos disponibles.
    • Económicos: Costos unitarios de mantenimiento para cada tratamiento.
    • Estratégicos: Periodo de planificación, tasa de descuento y estándares mínimos requeridos.
Las actividades de mantenimiento conllevan un aumento de la vida útil del firme (ΔSL) y, por tanto, una mejora inmediata de su estado (ΔUPCI) en el momento de su aplicación

Algoritmo GRASP-TA

El enfoque híbrido combina dos estrategias complementarias:

  1. GRASP (Procedimiento de Búsqueda Aleatoria Codiciosa Adaptativa):
    • Genera una población inicial de soluciones viables considerando una relajación controlada de las restricciones presupuestarias.
    • Utiliza funciones de priorización para evaluar el impacto de cada posible tratamiento en la LTE y seleccionar las mejores alternativas mediante un proceso probabilístico.
  2. TA (Aceptación de Umbral):
    • Realiza una optimización local a las soluciones generadas por GRASP.
    • Permite aceptar soluciones ligeramente peores en las primeras iteraciones para evitar quedarse atrapado en óptimos locales.
    • Ajusta iterativamente las restricciones presupuestarias relajadas en GRASP para cumplir con las condiciones originales.
Efecto del tratamiento sn para construir la solución en el año t con el algoritmo GRASP

Caso de estudio: red urbana en Santiago, Chile

La red analizada se encuentra en Santiago de Chile. Está compuesta por 20 secciones con pavimentos flexibles (asfálticos) y rígidos (hormigón). El clima de la región es mediterráneo, lo que influye en los patrones de deterioro del pavimento. La condición inicial media de la red es 6,8, según el Índice de Condición del Pavimento Urbano (UPCI), lo que indica una calidad intermedia.

Para los pavimentos asfálticos, los tratamientos evaluados incluyeron opciones de preservación, mantenimiento y rehabilitación. En preservación, el sellado de fisuras aumenta la vida útil en 2 años y tiene un coste de 0,99 USD/m². En el mantenimiento, el fresado y la repavimentación funcional ofrecen 10 años de vida útil por 23,24 USD/m². En rehabilitación, la rehabilitación en frío alcanza los 13 años con un coste de 36,50 USD/m².

Para los pavimentos de hormigón, los tratamientos incluyeron preservación y rehabilitación. El pulido con diamante aumenta la vida útil en 10 años y tiene un coste de 15,39 USD/m². La reconstrucción completa proporciona 25 años de servicio por un coste de 134,60 USD/m². Estos tratamientos representan opciones para diferentes niveles de deterioro y requisitos estructurales.

El programa optimizado mostró un impacto significativo en la efectividad a largo plazo (LTE). Se logró una mejora del 40 % en la LTE en comparación con las estrategias reactivas. Los tratamientos preventivos dominaron las decisiones, seleccionándose en el 80 % de los casos, lo que evidencia su mayor efectividad frente a opciones correctivas o de rehabilitación.

En términos de coste-eficacia, no se seleccionaron los tratamientos reciclados. Aunque ofrecen beneficios similares en términos de vida útil, su alto coste los hace menos competitivos frente a alternativas más económicas, lo que destaca la importancia de equilibrar costes y beneficios en el diseño de programas de mantenimiento.

Análisis de escenarios

1. Escenarios de inventario:

Se analizaron redes con diferentes proporciones de pavimentos asfálticos y de hormigón, con configuraciones del 25 %, 50 % y 75 % para cada tipo. También se estudiaron tres condiciones iniciales de las redes: buenas, intermedias y deficientes. Este análisis permitió evaluar la influencia de las características estructurales y del estado inicial en la optimización de los programas de mantenimiento.

En todos los casos, los resultados mostraron que la optimización mediante el algoritmo GRASP-TA era superior a las estrategias reactivas tradicionales. Esto demostró que el método es altamente adaptable a diversas configuraciones de red y capaz de ofrecer soluciones efectivas en términos de LTE, independientemente de las características de la red o de su estado inicial.

2. Escenarios presupuestarios:

El análisis incluyó variaciones en el presupuesto total, con incrementos y reducciones de hasta el 20 %, así como cambios en la distribución de los fondos a lo largo del tiempo. Se evaluaron dos configuraciones principales para entender su impacto en el rendimiento a largo plazo.

El escenario con mayor inversión en los primeros años mostró un aumento significativo de la LTE. Esto puso de manifiesto que la asignación temprana de fondos mejora sustancialmente los resultados del mantenimiento. Por el contrario, los aumentos progresivos anuales redujeron la LTE en un 15 % respecto al caso base, lo que indica que posponer la inversión perjudica el rendimiento de la red.

Conclusiones

Asignar más recursos durante los primeros años de un programa de mantenimiento es fundamental para optimizar el rendimiento a largo plazo de las infraestructuras. Este análisis pone de manifiesto la importancia de una planificación presupuestaria estratégica, ya que señala que el momento en que se invierten los recursos tiene un impacto considerable en los beneficios acumulados de la red.

  1. Eficiencia del método GRASP-TA: Diseña programas que maximizan la LTE bajo restricciones técnicas y económicas reales.
  2. Importancia de la prevención: Las actividades preventivas son significativamente más rentables a largo plazo.
  3. Estrategias presupuestarias: Es esencial priorizar mayores inversiones en los primeros años del programa para maximizar su impacto.
  4. Limitaciones de los tratamientos reciclados: Aunque presentan beneficios ambientales, su alto costo relativo limita su inclusión en las soluciones optimizadas cuando solo se consideran aspectos técnicos y económicos.

Como recomendaciones futuras habría que integrar criterios de sostenibilidad, como impactos ambientales y sociales, y extender el análisis a redes más grandes y diversas.

Referencia:

YEPES, V.; TORRES-MACHÍ, C.; CHAMORRO, A.; PELLICER, E. (2016). Optimal pavement maintenance programs based on a hybrid greedy randomized adaptive search procedure algorithm. Journal of Civil Engineering and Management, 22(4):540-550. DOI:10.3846/13923730.2015.1120770

Aquí os dejo el artículo por si os resulta de interés.

Descargar (PDF, 1.2MB)