Resultados intermedios del proyecto de investigación RESILIFE

En este momento, estamos elaborando la justificación técnica y económica del proyecto de investigación RESILIFE. Los investigadores principales son Víctor Yepes y Julián Alcalá. El proyecto comenzó el 1 de septiembre de 2024 y se prevé que finalice a finales de 2027. Hemos hablado mucho de este proyecto en el blog.

Se trata del proyecto PID2023-150003OB-I00, cuya denominación es: «Optimización resiliente del ciclo de vida de estructuras híbridas y modulares de alta eficiencia social y medioambiental bajo condiciones extremas».

En la fase intermedia del proyecto, se han publicado 25 artículos en revistas indexadas en el JCR, de los cuales 17 están en el primer cuartil y 8 en el segundo. Pero quizás sea importante destacar que de ellos, 13 se han publicado en revistas del primer decil. Entre ellos tenemos un Featured Paper Award de Engineering Structures. En las referencias, al final de esta entrada, tenéis los artículos y sus enlaces para su descarga.

Este esfuerzo ha sido fruto del trabajo de un buen número de investigadores de distintas nacionalidades. Han participado 22 autores: Yepes, Kripka, Sánchez-Garrido, Yepes-Bellver, Navarro, Negrín, Alcalá, Luque Castillo, Guaygua, Tres Junior, De Medeiros, Villalba, Fernández-Mora, Brun-Izquierdo, Martínez-Muñoz, Martí, Ruiz-Vélez, García, Partskhaladze, Vitorio Junior, Onetta y Chagoyén. Hay presencia internacional en países como Brasil, Chile, Ecuador, Perú, Georgia y Cuba.

La investigación reciente en ingeniería civil y construcción, sintetizada en el proyecto RESILIFE y en estudios asociados, marca un cambio de paradigma hacia un enfoque de diseño integral. Este enfoque trasciende la mera eficiencia económica para integrar la resiliencia ante eventos extremos (incendios, sismos y colapsos progresivos), la sostenibilidad multidimensional (ambiental, social y económica) y la eficiencia operativa mediante la digitalización.

Avances en optimización multiobjetivo, sostenibilidad y resiliencia en la ingeniería estructural

Los hallazgos clave incluyen:

  • Sistemas híbridos y modulares: las tipologías de acero y hormigón, así como los sistemas modulares prefabricados (PVMB), demuestran una superioridad técnica y medioambiental significativa. Por ejemplo, las vigas híbridas de sección transversal variable (THVS) pueden reducir los costes de fabricación hasta en un 70 % y las emisiones en un 32 %.
  • Resiliencia integrada: la incorporación de la seguridad contra incendios y de un diseño robusto frente al colapso progresivo en las fases conceptuales no solo mejora la seguridad, sino que también puede optimizar costes (reducción de hasta el 21 % en pasarelas con requisitos de confort dinámico).
  • Sostenibilidad social: el análisis del ciclo de vida social (S-LCA) emerge como un factor crítico, especialmente en viviendas sociales, donde los aspectos sociales representan casi el 40 % del peso en la toma de decisiones.
  • Digitalización y modelado: el uso de BIM (herramientas como Endurify 2.0) y modelos subrogados (redes neuronales y Kriging) permite gestionar con precisión la vida útil remanente y optimizar la huella de carbono con errores predictivos mínimos.

1. Optimización multiobjetivo y resiliencia ante eventos extremos

La integración de factores de riesgo extremo como criterio principal de diseño permite desarrollar infraestructuras más seguras sin comprometer la viabilidad económica.

1.1 Resiliencia al fuego en pasarelas híbridas

  • Enfoque integrado: se propone el rendimiento ante el fuego como motor de diseño, junto con el coste, el impacto ambiental y la comodidad del peatón.
  • Configuraciones óptimas: se recomienda utilizar acero de menor resistencia en el alma y de mayor en las alas (una relación de límite elástico de aproximadamente 1,6).
  • Compromisos de diseño: existe una dicotomía geométrica, ya que las vigas más compactas mejoran la seguridad frente a incendios, mientras que las geometrías esbeltas favorecen el rendimiento dinámico. Una inversión adicional del 23 % en el coste puede evitar el colapso durante 10 minutos de exposición al fuego.

1.2 Resistencia al colapso progresivo (PC) y sismos

  • Marco OBDRPC: este marco integra principios de diseño resistente al colapso progresivo y de optimización basada en simulaciones, en los que se considera la interacción suelo-estructura (SSI).
  • El impacto de la interacción suelo-estructura puede generar diferencias de hasta el 24,29 % en el uso de materiales de la superestructura si no se tiene en cuenta dicha interacción.
  • Sistemas modulares en zonas sísmicas: en regiones como Quito, los sistemas modulares de acero laminado en caliente ofrecen el mejor rendimiento global, ya que reducen los tiempos de construcción y el impacto social, aunque los costes iniciales son más altos.
  • Refuerzo sísmico: el uso de polímeros reforzados con fibra de carbono (CFRP) se identifica como la mejor alternativa para el refuerzo de las vigas de hormigón deficientes, debido a su menor impacto ambiental y social en comparación con el encamisado de acero o de hormigón.

2. Sostenibilidad y análisis del ciclo de vida (ACV)

La sostenibilidad se evalúa mediante un enfoque de «triple balance» que abarca las dimensiones económicas (LCC), ambientales (LCA) y sociales (S-LCA).

2.1. Descarbonización y eficiencia de materiales

  • Puentes y pasarelas: la optimización de los pasos superiores de las carreteras puede reducir la huella de carbono en un 12 %. En los puentes de losa pretensados, se recomienda una relación de esbeltez de 1/28 y hormigón C-40 para maximizar la eficiencia energética.
  • Economía circular: el uso de losas aligeradas con plástico reciclado reduce el consumo de hormigón y acero entre un 23 % y un 33 %, lo que se traduce en una disminución del 24 % del potencial de calentamiento global.
  • Relación coste-emisiones: Se ha identificado una relación lineal: cada dólar ahorrado en la optimización de pasarelas reduce las emisiones de CO2 en aproximadamente 0,7727 kg por metro.

2.2 Dimensión social de la construcción

  • Vivienda social: el sistema Light Steel Frame (LSF) destaca como la opción más favorable en contextos de desarrollo, ya que ofrece un buen equilibrio entre coste, durabilidad y menor mantenimiento.
  • Riesgos sociales: la implementación de sistemas de construcción circular y modelos de optimización reduce los riesgos sociales hasta en un 20 % en las categorías de trabajadores y de la comunidad local.

3. Tipologías estructurales innovadoras.

El desarrollo de nuevas geometrías y combinaciones de materiales es fundamental para la eficiencia industrial.

Tipología Beneficios clave identificados
Vigas THVS (híbridas transversales de sección variable) Reducción de costes de fabricación hasta el 70%; reducción de emisiones hasta el 32%; menor carga axial en columnas y cimientos debido a la reducción del peso propio.
Sistemas modulares (PVMB) Despliegue más rápido, mayor resiliencia social y reducción de los impactos ambientales en comparación con los métodos convencionales in situ.
Estructuras MMC en costa El uso de cemento sulforresistente, impregnación hidrofóbica y humo de sílice aumenta la calificación de sostenibilidad en un 86% frente a diseños base en ambientes marinos agresivos.
Almacenes de acero con cerramientos de acero Menor impacto ambiental que el de los cerramientos de ladrillo o de bloques de hormigón, especialmente en escenarios de reciclaje al final de la vida útil.

4. Digitalización y herramientas de decisión.

La complejidad de los criterios de competencia exige el uso de herramientas informáticas avanzadas.

4.1 BIM y gestión de la vida útil

  • Endurify 2.0: este complemento para entornos BIM automatiza la planificación de la rehabilitación estructural y estima la vida útil remanente (RUL). Su aplicación reduce los costes totales en un 15 % y el impacto por proximidad en un 10 % en comparación con la planificación basada en expertos.
  • Indicadores de daño: el sistema analiza cuatro indicadores críticos: carbonatación, fisuración transversal, fluencia y deflexión.

4.2. Modelos subrogados y algoritmos de optimización

  • Precisión predictiva: las redes neuronales artificiales (ANN) y el modelo Kriging han demostrado ser muy precisos para optimizar la huella de carbono y la energía embebida, aunque tienden a sobreestimar ligeramente los valores observados.
  • Algoritmos metaheurísticos: el uso de algoritmos como NSGA-III, CTAEA y SMS-EMOA permite equilibrar objetivos en conflicto (rendimiento estructural frente a la constructibilidad), siendo NSGA-III el que muestra la mayor convergencia hacia el frente de Pareto.
  • Múltiples criterios (MCDM): se emplean métodos híbridos (BWM, TOPSIS, VIKOR y DEMATEL) para reducir la subjetividad del juicio experto y modelar las interdependencias causales entre los criterios de sostenibilidad.

5. Conclusiones y directrices de diseño

La síntesis de las fuentes permite establecer directrices prácticas para la infraestructura moderna:

  1. Priorizar la hibridación: El uso de secciones híbridas (de acero con distintos límites elásticos) y de sistemas mixtos de acero y hormigón ofrece las mayores ventajas económicas y medioambientales.
  2. Mantenimiento preventivo: en entornos agresivos (como las costas), la inversión inicial en materiales especiales (como el humo de sílice o las impregnaciones) compensa con creces la reducción de las intervenciones de mantenimiento reactivo.
  3. Enfoque holístico en la vivienda: la evaluación de los proyectos de vivienda social debe integrar obligatoriamente las dimensiones técnica y social, no solo la económica, para garantizar la resiliencia de la comunidad.
  4. Optimización desde el proyecto: La resiliencia al fuego y al colapso debe integrarse en la fase de diseño conceptual para evitar sobrecostes innecesarios en etapas avanzadas del proyecto.

Referencias:

  1. TRES JUNIOR, F.L.; DE MEDEIROS, G.F.; KRIPKA, M.; YEPES, V. (2026). Integrated Optimization Framework for Fire-Resilient and Sustainable Hybrid Steel-Concrete Composite Footbridges. Engineering Structures, 360, 122779. DOI:10.1016/j.engstruct.2026.122779
  2. GUAYGUA, B.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2026). A multi-criteria life-cycle decision framework for sustainable modular hospitals in seismic regions. Results in Engineering, 30, 110371. DOI:10.1016/j.rineng.2026.110371
  3. FERNÁNDEZ-MORA, V.; NAVARRO, I.J.; YEPES, V. (2026). Extending Building Lifespan: Integrating BIM and MCDM for Strategic Rehabilitation. Journal of Information Technology in Construction, 31:398-419. DOI:10.36680/j.itcon.2026.018
  4. LUQUE CASTILLO, X.; YEPES-BELLVER, L.; YEPES, V. (2026). Towards Sustainable Social Housing: An Integrative Life Cycle and Multi-Criteria ApproachSustainable Cities and Society, 137, 107164. DOI:10.1016/j.scs.2026.107164
  5. SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2026). Multivariate Environmental and Social Life Cycle Assessment of Circular Recycled-Plastic Voided Slabs for Data-Driven Sustainable Construction. Environmental Impact Assessment Review, 118, 108297. DOI:10.1016/j.eiar.2025.108297
  6. SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2026). Optimizing reactive maintenance intervals for the sustainable rehabilitation of chloride-exposed coastal buildings with MMC-based concrete structure. Environmental Impact Assessment Review, 116, 108110. DOI:10.1016/j.eiar.2025.108110
  7. TRES JUNIOR, F.L.; DE MEDEIROS, G.F.; KRIPKA, M.; YEPES, V. (2025). Designing for Safety and Sustainability: Optimization of Fire-Exposed Steel-Concrete Composite Footbridges. Structural Engineering and Mechanics, 96 (4):337-350. DOI:10.12989/sem.2025.96.4.337
  8. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Life-cycle environmental impact optimization of an RC-THVS composite frame for sustainable construction. Engineering Structures, 345, 121461. DOI:10.1016/j.engstruct.2025.121461 Featured Paper Award
  9. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Manufacturing cost optimization of welded steel plate I-girders integrating hybrid construction and tapered geometry. International Journal of Advanced Manufacturing Technology, 140, 1601-1624DOI:10.1007/s00170-025-16365-2
  10. NEGRÍN, I.; CHAGOYÉN, E.; KRIPKA, M.; YEPES, V. (2025). An integrated framework for Optimization-based Robust Design to Progressive Collapse of RC skeleton buildings incorporating Soil-Structure Interaction effects. Innovative Infrastructure Solutions, 10:446. DOI:10.1007/s41062-025-02243-z
  11. YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Predictive modeling for carbon footprint optimization of prestressed road flyovers. Applied Sciences15(17), 9591. DOI:10.3390/app15179591
  12. VILLALBA, P.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2025). A Hybrid Fuzzy DEMATEL–DANP–TOPSIS Framework for Life Cycle-Based Sustainable Retrofit Decision-Making in Seismic RC Structures. Mathematics, 13(16), 2649. DOI:10.3390/math13162649
  13. LUQUE CASTILLO, X.; YEPES, V. (2025). Multi-criteria decision methods in the evaluation of social housing projects. Journal of Civil Engineering and Management, 31(6), 608–630. DOI:10.3846/jcem.2025.24425
  14. LUQUE CASTILLO, X.; YEPES, V. (2025). Life Cycle Assessment of Social Housing Construction: A Multicriteria Approach. Building and Environment, 282:113294. DOI:10.1016/j.buildenv.2025.113294
  15. VITORIO JUNIOR, P.C.; YEPES, V.; ONETTA, F.; KRIPKA, M. (2025). Comparative Life Cycle Assessment of Warehouse Construction Systems under Distinct End-of-Life Scenarios. Buildings, 15(9), 1445. DOI:10.3390/buildings15091445
  16. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Design optimization of a composite typology based on RC columns and THVS girders to reduce economic cost, emissions, and embodied energy of frame building construction. Energy and Buildings, 336:115607. DOI:10.1016/j.enbuild.2025.115607
  17. FERNÁNDEZ-MORA, V.; NAVARRO, I.J.; YEPES, V. (2025). Structural damage index evaluation in BIM environmentsStructures, 74:108544. DOI:10.1016/j.istruc.2025.108544
  18. VILLALBA, P.; GUAYGUA, B.; YEPES, V. (2025). Optimal seismic retrofit alternative for shear deficient RC beams: a multiple criteria decision-making approach. Applied Sciences, 15(5):2424. DOI:10.3390/app15052424
  19. YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.
  20. MARTÍNEZ-MUÑOZ, D.; MARTÍ, J.V.; YEPES, V. (2025). Game Theory-Based Multi-Objective Optimization for Enhancing Environmental and Social Life Cycle Assessment in Steel-Concrete Composite Bridges. Mathematics, 13(2):273. DOI:10.3390/math13020273
  21. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementationEngineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487
  22. GUAYGUA, B.; SÁNCHEZ-GARRIDO, A.; YEPES, V. (2024). Life cycle assessment of seismic resistant prefabricated modular buildingsHeliyon, 10(20), e39458. DOI:10.1016/j.heliyon.2024.e39458
  23. YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2024). Artificial neural network and Kriging surrogate model for embodied energy optimization of prestressed slab bridges. Sustainability, 16(19), 8450. DOI:10.3390/su16198450
  24. RUIZ-VÉLEZ, A.; GARCÍA, J.; PARTSKHALADZE, G.; ALCALÁ, J.; YEPES, V. (2024). Enhanced Structural Design of Prestressed Arched Trusses through Multi-Objective Optimization and MCDM. Mathematics, 12(16), 2567. DOI:10.3390/math12162567
  25. SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2024). Sustainable preventive maintenance of MMC-based concrete building structures in a harsh environment. Journal of Building Engineering, 95:110155. DOI:10.1016/j.jobe.2024.110155

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Por qué los números exactos están matando tus proyectos? El poder de la lógica difusa en la construcción

En el sector de la construcción, cada proyecto es, por definición, un prototipo único que se ejecuta bajo restricciones de tiempo, coste y alcance. Sin embargo, seguimos atrapados en la tiranía de la precisión determinista, intentando predecir resultados con una exactitud quirúrgica que la realidad, siempre cambiante, termina por desmentir. El método del Valor Ganado (EVM) es, sin duda, nuestra mejor herramienta de control, pero su dependencia de números «fríos» pasa por alto la vaguedad inherente a los datos de entrada.

Gestionar un entorno complejo basándose en la ilusión de la precisión no solo constituye un error técnico, sino también un riesgo estratégico. La aplicación de la lógica difusa no debe entenderse como un mero ejercicio matemático, sino como un enfoque más honesto y robusto para gestionar el caos y la imprecisión que definen nuestra industria.

No es azar, es imprecisión: la distinción vital.

Debemos evitar el sesgo de precisión, que confunde dos conceptos fundamentales: la incertidumbre y la imprecisión. El modelo propuesto por Ponz-Tienda et al. (2012) establece una distinción clara que es vital para la toma de decisiones:

  • Incertidumbre: de naturaleza aleatoria, estadística o probabilística.
  • Imprecisión: se refiere a una naturaleza vagamente definida o incompleta (por ejemplo, estimaciones de duración como «alrededor de 10 días»).

Mientras que la estadística tradicional intenta domar el azar, la teoría de los conjuntos difusos es la arquitectura diseñada para manejar lo impreciso. Esta metodología permite realizar operaciones aritméticas con valores que, aunque no se conocen con exactitud, pueden limitarse a fronteras de pertenencia.

Zadeh argumenta que «la probabilidad y la lógica difusa son complementarias, no competitivas. Ambas pueden y deben coexistir para proporcionar herramientas de análisis de la incertidumbre en modelos complejos del mundo real y para cubrir los vacíos que los métodos tradicionales no pueden llenar».

El «dial» de la confianza: ajustando el corte alfa (α-cut).

Una de las innovaciones más importantes del modelo difuso es el corte alfa (α-cut). Este parámetro actúa como un «dial» de control que permite al gestor ajustar la sensibilidad del modelo según su propia confianza o tolerancia al riesgo.

  • Un α-cut igual a 0 representa el soporte del número difuso; es el escenario de máxima vaguedad e incertidumbre, en el que los límites son más amplios.
  • Un α-cut de 1 representa el núcleo (kernel), elimina toda la ambigüedad y equivale al método determinista tradicional.

Esta capacidad de ajuste permite adaptar el modelo a las circunstancias específicas del proyecto. En las primeras fases o en entornos volátiles, un α-cut bajo permite visualizar todo el espectro de riesgos, mientras que en entornos estables, el gestor puede «cerrar» el dial hacia la precisión del núcleo.

El mito del cronograma único: la realidad del diagrama de Gantt difuso.

La metodología tradicional suele presentarnos un único cronograma factible como si fuera «la verdad absoluta». No obstante, las conclusiones basadas en un único escenario son inherentemente poco fiables. En la práctica, existe un número ilimitado de alternativas entre los tiempos de ejecución más tempranos y los más tardíos.

El modelo difuso rompe este mito al generar un diagrama de Gantt difuso. Este gráfico no traza una línea, sino que establece los límites superior e inferior de todos los cronogramas posibles. Al utilizar aritmética difusa en lugar de cálculos lineales, el resultado es significativamente más objetivo y proporciona una banda de cumplimiento que refleja la flexibilidad real —y los cuellos de botella potenciales— de la obra.

De métricas abstractas a la salud del proyecto: interpretación lingüística.

El EVM tradicional nos proporciona índices que a menudo no reflejan fielmente el desarrollo real del proyecto. El modelo de Ponz-Tienda innova al traducir variaciones numéricas complejas en categorías lingüísticas claras para los interesados. Esta interpretación se divide en tres dimensiones críticas:

  • Variación de cronograma (SV): evalúa la conformidad del progreso real con el cronograma programado en términos de producción.
  • Variación de coste (CV): mide la conformidad presupuestaria del trabajo efectivamente ejecutado.
  • Earned Schedule (ESch): traduce el rendimiento en unidades de tiempo reales, evitando los errores del SV tradicional cuando el proyecto excede la fecha de finalización prevista.

Según este modelo, cada dimensión se clasifica en cinco escenarios (del A al E) según el valor de α. Así, un proyecto puede clasificarse estratégicamente como «ligeramente retrasado en tiempo (ESch)», pero «bajo presupuesto (CV)», lo que permite una comunicación mucho más efectiva y humana que un simple decimal.

Innovación integral: el valor ganado difuso.

La propuesta de Ponz-Tienda et al. (2012) va más allá de la literatura existente al integrar no solo la duración de las tareas, sino también el coste y la producción en una formulación difusa no lineal. Esto se aplica directamente al BCWS (coste presupuestado del trabajo programado) y al BCWP (valor ganado) y permite capturar la complejidad de las relaciones entre estas variables de una forma que el EVM clásico no puede procesar.

A pesar de su profundidad académica, este modelo no es una utopía inalcanzable. Se ha demostrado su viabilidad técnica para su implementación en herramientas cotidianas, como Microsoft Excel. Esto es esencial, ya que permite superar la barrera académica y llevar la metodología a la práctica empresarial, sirviendo de puente para el desarrollo de software comercial especializado para directores de proyectos.

Conclusión: hacia una gestión de proyectos más humana y robusta.

El enfoque del Valor Ganado Difuso nos ofrece una «visión de conjunto» que acepta la imprecisión del mundo real en lugar de ignorarla. Al adoptar este modelo, pasamos de gestionar basándonos en puntos ficticios a tomar decisiones basadas en rangos realistas y sólidos.

Es importante entender que esta contribución no es una herramienta «llave en mano», sino un punto de partida para especialistas. El futuro de la gestión de riesgos en la construcción depende de nuestra capacidad para refinar estos modelos y establecer el valor de α-cut más cercano a la realidad de cada obra.

Como líderes, la pregunta final es inevitable: ¿Seguiremos gestionando nuestros proyectos bajo la falsa comodidad de un número exacto o daremos el paso hacia la honestidad estratégica de un rango difuso que realmente refleje la realidad?

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

Este vídeo resume bien los conceptos explicados.

Fuzzy_Earned_Value_Management

Referencia:

PONZ-TIENDA, J.L.; PELLICER, E.; YEPES, V. (2012). Complete fuzzy scheduling and fuzzy earned value management in construction projects. Journal of Zhejiang University-SCIENCE A (Applied Physics & Engineering), 13(1):56-68. DOI:10.1631/jzus.A1100160

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Fundamentos y procesos de la estimación de costes

Cada mañana, millones de personas realizan un ejercicio intuitivo de predicción: consultan el tiempo y deciden si llevarse un paraguas. Se trata de un acto de mitigación de riesgos basado en datos actuales. Sin embargo, cuando trasladamos esta lógica a la adquisición de sistemas de defensa o de infraestructuras críticas, la intuición no resulta de gran utilidad.

La estimación de costes no es un simple cálculo contable, sino una compleja combinación de arte y ciencia. Técnicamente, la definimos como una «instantánea de probabilidad» basada exclusivamente en la información disponible en un momento determinado.

Si cambian las suposiciones iniciales, la estimación variará inevitablemente. No es que el modelo sea erróneo, sino que ha mutado la realidad.

Como señaló el físico y premio Nobel Niels Bohr:

«Predecir es muy difícil, especialmente cuando se trata del futuro».

Lección 1: tus predecesores no eran incompetentes (y por qué eso importa).

Existe un mito persistente entre la alta dirección: que utilizar datos históricos para proyectar costes equivale a heredar las ineficiencias y los errores de los gestores anteriores. Se teme que, si el pasado fue accidentado, el futuro será un reflejo de esos fallos.

Nada más lejos de la realidad técnica. La búsqueda y la normalización de datos históricos son pilares de cualquier estimación científicamente fundamentada. Las desviaciones en proyectos pasados rara vez se deben a la incompetencia; suelen ser respuestas adaptativas a eventos externos e imprevisibles que escapan al control del director del programa. Al analizar el pasado, no buscamos replicar el error, sino comprender la volatilidad. En este sentido, la honestidad intelectual nos obliga a aceptar una máxima del sector:

«No cometerás los mismos errores que tus predecesores, ¡cometerás los tuyos propios!».

Esta perspectiva permite a los directivos sénior comprender que la gestión de proyectos complejos no consiste en eliminar la incertidumbre, sino en gestionarla mediante modelos cuantitativos transparentes y defendibles.

Lección 2: El «iceberg» de los costes del ciclo de vida.

Uno de los errores estratégicos más comunes en proyectos de infraestructura es centrarse exclusivamente en el “precio de etiqueta”, es decir, en el coste de construcción. En la consultoría de proyectos complejos se utiliza el análisis del coste del ciclo de vida (Life Cycle Cost Estimate, LCCE) para comprender el verdadero esfuerzo económico que conlleva una infraestructura desde su concepción hasta su retirada o renovación.

Un LCCE permite visualizar todos los recursos necesarios a lo largo del tiempo y suele estructurarse en cuatro grandes fases:

  1. Diseño y desarrollo (estudios previos, ingeniería, proyectos y ensayos).
  2. Inversión inicial (construcción y puesta en servicio).
  3. Operación y mantenimiento (explotación, conservación, energía, personal, reparaciones).
  4. Fin de vida o disposición (desmantelamiento, renovación o sustitución).

La metáfora del iceberg de los costes resulta especialmente útil para comprender este enfoque. La construcción visible —la parte que suele atraer toda la atención— es solo la punta del iceberg. Bajo la superficie se encuentran los costes acumulados durante décadas de operación y mantenimiento, que en muchos casos pueden representar la mayor parte del gasto total.

Sin embargo, un análisis riguroso exige reconocer que no existe una estructura de costes universal. La distribución del gasto depende en gran medida del tipo de activo y de su modelo de explotación.

Por ejemplo:

  • En infraestructuras digitales vinculadas a la ingeniería civil, como plataformas de gestión del tráfico o sistemas de control ferroviario, una parte muy significativa del coste puede concentrarse en el desarrollo tecnológico inicial, en el que la ingeniería y el software son determinantes.
  • En infraestructuras estandarizadas y repetitivas, como determinados tramos de carreteras o estructuras prefabricadas, el peso principal suele recaer en la fase de inversión inicial, donde materiales, maquinaria y ejecución concentran la mayor parte del presupuesto.
  • En infraestructuras intensivas en operación, como redes ferroviarias, aeropuertos, presas o grandes instalaciones hidráulicas, los costes dominantes suelen concentrarse en la fase de operación y mantenimiento: conservación, inspecciones, energía, personal especializado y renovación periódica de equipos.

La lección estratégica es clara: evaluar una infraestructura únicamente por su coste de construcción puede conducir a decisiones subóptimas. Incorporar una visión de ciclo de vida permite diseñar activos más eficientes, reducir costes futuros y tomar decisiones de inversión con una perspectiva verdaderamente estratégica.

Lección 3: La inercia estratégica de los «costes hundidos».

El cerebro humano tiene una vulnerabilidad bien conocida: la tendencia a intentar “salvar” un proyecto problemático solo porque ya se ha invertido mucho en él. En economía y gestión de proyectos, este fenómeno se conoce como la falacia del coste hundido.

En términos estrictamente financieros, el dinero gastado en el pasado ya no debería influir en las decisiones futuras, porque no puede recuperarse. Lo relevante para quien toma decisiones no es cuánto se ha gastado, sino cuánto costará terminar el proyecto a partir de ahora. Por eso, una de las métricas clave es el coste por completar (cost to go), es decir, el dinero adicional necesario para completar una infraestructura.

Veamos un ejemplo sencillo aplicado a la ingeniería civil. Imaginemos la construcción de una autovía o un gran puente cuyo presupuesto inicial se ha visto superado:

  • Estado actual del proyecto: ya se han invertido 200 millones de euros (coste hundido).
  • Coste estimado para terminar la obra: 100 millones adicionales.
  • Coste total final: 300 millones.

Ahora aparece una alternativa técnica: rediseñar el proyecto desde cero con otra solución constructiva, cuyo coste total sería de 250 millones.

Si miramos únicamente el coste total, la nueva solución (250 M€) parece más eficiente que el proyecto actual (300 M€). Sin embargo, desde el punto de vista financiero, el análisis correcto es otro.

El dinero ya invertido —los 200 millones— es un coste hundido y no puede recuperarse. La decisión debe basarse únicamente en el capital adicional necesario:

  • Terminar el proyecto actual requiere 100 millones adicionales.
  • Empezar una nueva solución requiere una nueva inversión de 250 millones.

Si ambas infraestructuras ofrecen un resultado equivalente en servicio, seguridad y prestaciones, la opción racional sería terminar el proyecto existente, ya que requiere mucho menos capital adicional.

Superar la inercia estratégica de los costes hundidos exige disciplina analítica: centrarse exclusivamente en los costes y beneficios futuros y no en el peso psicológico de lo ya gastado. En proyectos de infraestructura —donde las inversiones son muy elevadas y los plazos son largos— esta distinción es crucial para evitar decisiones económicamente ineficientes.

Lección 4: ¿Coste o precio? La distinción que lo cambia todo.

En el lenguaje coloquial, son sinónimos, pero en la estrategia de adquisiciones son conceptos totalmente distintos. El coste es la medición de los recursos consumidos para producir un bien. El precio es lo que el mercado está dispuesto a pagar y se ve afectado por el margen de beneficio, la competencia y el valor percibido. Nuestra máxima es que la profesión de la estimación se centra en los costes, no en el precio.

Para ilustrar esta complejidad, analicemos algo tan simple como una cabeza de lechuga. Para un consumidor, el precio es una cifra que ve en el estante. Para un estimador, el «coste» es un desglose multicapa que incluye el cultivo y la siembra, la irrigación y el mantenimiento, el proceso de cosecha, el embalaje en planta y, por último, la logística de transporte. Solo comprendiendo estas capas podemos evaluar si el precio de un sistema complejo es razonable o si estamos asumiendo riesgos financieros ocultos.

Lección 5: la «segunda opinión» como salvaguarda estratégica.

En muchos proyectos de ingeniería civil, la estimación independiente de costes (ICE, Independent Cost Estimate) suele percibirse por los directores de proyecto como una revisión incómoda o incluso como una señal de desconfianza hacia el trabajo del equipo interno. Sin embargo, en proyectos complejos —infraestructuras ferroviarias, grandes presas, túneles o corredores logísticos— contar con una segunda opinión técnica sobre los costes se ha consolidado como una práctica clave de gestión del riesgo.

Una estimación independiente no busca cuestionar al equipo del proyecto, sino aportar una visión externa y metodológicamente rigurosa que reduzca los sesgos inevitables de los equipos profundamente implicados en el diseño y la planificación. En proyectos de obra civil, donde intervienen múltiples disciplinas, contratistas y condicionantes regulatorios, es frecuente que el entusiasmo técnico o la presión por aprobar un proyecto conduzca a estimaciones demasiado optimistas.

Por ejemplo, en la planificación de una línea ferroviaria de alta velocidad, un equipo promotor puede basar su estimación en rendimientos teóricos de obra o en condiciones geotécnicas favorables. Una evaluación independiente puede introducir escenarios alternativos: variaciones en los costes de materiales, incertidumbres geológicas en los túneles o desviaciones en la productividad de los equipos. Del mismo modo, en la construcción de grandes infraestructuras hidráulicas o viarias, una revisión externa puede detectar partidas infravaloradas relacionadas con desvíos de servicios, con la gestión ambiental o con riesgos constructivos.

Las instituciones públicas que financian grandes infraestructuras han aprendido que la calidad de las estimaciones de costes es decisiva para la viabilidad de los proyectos. Como advierte la Government Accountability Office (GAO):

«La capacidad de generar estimaciones de costes fiables es necesaria para apoyar los procesos presupuestarios. Sin ella, existe el riesgo de sufrir sobrecostes, incumplimientos de plazos y deficiencias en el rendimiento, lo que implica que el Gobierno no pueda financiar tantos programas como pretendía».

En este contexto, la estimación independiente de costes funciona como una salvaguarda estratégica: no solo mejora la calidad de las previsiones económicas, sino que también fortalece la credibilidad de los proyectos ante financiadores, administraciones y la ciudadanía. En un sector donde las decisiones de inversión comprometen recursos durante décadas, disponer de una segunda opinión rigurosa no es una señal de debilidad, sino de buena gobernanza.

Conclusión: el «Estándar del Estudiante de Secundaria».

Una estimación de alta calidad no se mide por su capacidad de «acertar» el número final, sino por su trazabilidad y auditabilidad. En nuestro sector, aplicamos lo que se conoce como «Estándar del Estudiante de Secundaria»: el análisis debe ser lo suficientemente transparente y lógico como para que un estudiante con conocimientos básicos de aritmética pueda seguir los argumentos, formular suposiciones y obtener el mismo resultado.

Al final del día, quien controla las suposiciones controla el análisis. Al evaluar sus proyectos actuales, pregúntese: ¿sus estimaciones son cajas negras de complejidad innecesaria o documentos trazables que reflejan el coste real del ciclo de vida? La transparencia no es solo una buena práctica, sino la brújula que separa el éxito estratégico del desastre presupuestario.

Aquí puedes escuchar una conversación sobre los aspectos de mayor interés de este tema.

El vídeo resume bien los conceptos más importantes.

Strategic_Cost_Prediction

Referencias:

Mislick, G. K., & Nussbaum, D. A. (2015). Cost estimation: Methods and tools. John Wiley & Sons.

Yepes, V. (2022). Gestión de costes y producción de maquinaria de construcción. Universidad Politécnica de Valencia.

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Vivienda social sostenible: un enfoque integrador de ciclo de vida y evaluación multicriterio

Acaban de publicar un artículo nuestro en Sustainable Cities and Society, una de las revistas de mayor impacto científico, ubicada en el primer decil del JCR. En este trabajo se propone un enfoque integrador basado en el ciclo de vida y en métodos de evaluación multicriterio para analizar la vivienda social sostenible. La investigación se enmarca en el proyecto RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València. A continuación, se presenta un resumen del trabajo.

Los principales resultados revelan que el sistema Light Steel Frame (LSF) es la alternativa más sostenible, ya que logra un equilibrio superior entre la eficiencia en el uso de los recursos, la durabilidad y la reducción del mantenimiento. Un descubrimiento crucial es el papel de la dimensión social, que representó casi el 40 % del peso total en la evaluación, por encima de las dimensiones económica y medioambiental. El análisis causal identifica el coste de construcción, la funcionalidad y los agentes de la cadena de valor como los principales factores que condicionan el rendimiento sostenible del resto del sistema.

El artículo presenta un marco metodológico integrador que combina evaluaciones basadas en el ciclo de vida —análisis de ciclo de vida (LCA), análisis de coste del ciclo de vida (LCC) y análisis de ciclo de vida estocástico (S-LCA)— con técnicas avanzadas de decisión multicriterio: método mejor-peor (BWM), análisis DEMATEL difuso y análisis MARCOS. Esta integración permite incorporar ponderaciones de expertos, modelar relaciones causales entre criterios y sintetizar resultados frente a soluciones ideales o anti-ideales, lo que aumenta la transparencia en la priorización de alternativas constructivas. Este enfoque se ha aplicado a un caso real de vivienda social en Perú, en el que se han comparado cinco sistemas estructurales representativos: LSF, LBSPS, RCW, RCF-M y RCF-CP. El estudio ha proporcionado pruebas empíricas sobre los costes del ciclo de vida, los impactos ambientales y las prestaciones sociales que respaldan las decisiones de diseño y las políticas.

El estudio analiza cinco sistemas constructivos adaptados a contextos de urbanización rápida (específicamente en Lima, Perú), que van desde métodos convencionales hasta industrializados:

Entre las aportaciones metodológicas, la combinación de BWM con una agregación basada en credenciales profesionales reduce la carga de comparación y atenúa los sesgos en la agregación de juicios, mientras que la extensión difusa de DEMATEL permite identificar los criterios que funcionan como impulsores del sistema y los que actúan como receptores. Esta capacidad para distinguir entre causas y efectos permite aclarar qué palancas hay que modificar para lograr efectos amplificados en la sostenibilidad. Por último, la validación cruzada con otros métodos de MCDM y los ensayos de sensibilidad aumentan la confianza en la estabilidad de los resultados.

Discusión de resultados

Los análisis económicos muestran que, en un horizonte de 50 años y por metro cuadrado, los sistemas basados en acero ligero (LSF) tienen los menores costes totales de ciclo de vida, mientras que algunas alternativas prefabricadas, como el LBSPS, tienen los mayores costes de construcción. Estos datos implican que si solo se tiene en cuenta la inversión inicial, se pueden tomar decisiones subóptimas, ya que no se consideran el mantenimiento y el fin de vida.

En términos ambientales, la evaluación con ReCiPe (endpoint) sitúa al LSF como el sistema con el menor impacto agregado, principalmente debido a su menor intensidad material. Por el contrario, las soluciones con mayor presencia de hormigón y ladrillo presentan una carga superior, especialmente en la dimensión de recursos. Esta diferenciación pone de manifiesto la influencia del perfil material y del proceso de fabricación en la huella medioambiental de la vivienda y sugiere que, en la práctica profesional, se deben priorizar medidas que reduzcan la demanda de materiales energéticamente intensivos en la fase de fabricación.

La S-LCA revela una tensión entre la industrialización y la exposición social: las alternativas más industrializadas, como el LSF y el LBSPS, presentan mayores valores de exposición laboral y de funcionalidad exigente, mientras que las tipologías convencionales de hormigón muestran menores riesgos sociales, medidos en Medium Risk Hours. Este resultado indica que la adopción de sistemas industrializados exige prestar atención explícita a la gestión del trabajo, la formación y la coordinación de la cadena de suministro para evitar que los impactos negativos se transfieran al personal y a la comunidad.

La síntesis mediante MARCOS ubica a LSF como la alternativa mejor valorada en el escenario analizado, seguida de RCW y RCF-M. Los sistemas LBSPS y RCF-CP quedan en posiciones inferiores. Las pruebas de sensibilidad (variación de los pesos de ±15 %, escenarios de distancia de transporte y estratificación de expertos) muestran que el orden general se mantiene, lo que indica cierta robustez frente a perturbaciones razonables en los supuestos. Estos resultados permiten extraer una conclusión práctica: en contextos con características similares a las del caso estudiado, las soluciones ligeras industrializadas pueden mejorar la relación entre coste, impacto ambiental y rendimiento técnico, siempre que se gestionen adecuadamente los aspectos sociales y de ejecución.

Un aspecto metodológico de interés es la identificación de los criterios causales. La técnica DEMATEL identifica el coste de construcción, la funcionalidad y las interacciones con la cadena de valor como criterios que inciden en el resto del sistema, mientras que los indicadores ambientales, como la salud humana y la conservación de los ecosistemas, se presentan principalmente como efectos. Esto sugiere que las intervenciones en los costes de construcción y en la organización funcional pueden provocar mejoras indirectas en la sostenibilidad ambiental y social, lo cual resulta relevante al diseñar políticas y contratos que incentiven las prácticas integradas.

Futuras líneas de investigación

Una línea de trabajo inmediata consiste en ampliar la diversidad y el tamaño del panel de agentes consultados para captar las variaciones en las prioridades y las competencias profesionales. Esto permitiría evaluar la sensibilidad de las ponderaciones y mejorar la representatividad social del proceso. Otra opción es trasladar y recalibrar el marco a otros contextos geográficos y tipologías constructivas, como viviendas de mayor altura o equipamientos públicos, para evaluar la transferibilidad de la clasificación y de la estructura causal identificada en este estudio.

En el ámbito técnico, utilizar datos primarios de obras reales en lugar de bases de datos secundarias aumentará la fiabilidad de la evaluación del ciclo de vida (LCA) y del análisis del ciclo de vida (S-LCA) y mejorará la precisión de los modelos de coste del ciclo de vida (LCC). La incorporación de enfoques dinámicos, como la LCA dinámica o las simulaciones acopladas a plataformas BIM, puede facilitar las evaluaciones en etapas iniciales y permitir análisis de sensibilidad más detallados relacionados con la sustitución de componentes, las reparaciones y las evoluciones tecnológicas. Asimismo, explorar técnicas de optimización multiobjetivo que vinculen explícitamente las restricciones económicas con las metas ambientales y sociales podría proporcionar soluciones de diseño más operativas para promotores y organismos públicos.

Desde la perspectiva social, investigar intervenciones concretas de capacitación, reorganización de procesos y de contratos que reduzcan la exposición de los trabajadores a los sistemas industrializados aportará pruebas sobre cómo mantener los beneficios ambientales y económicos sin incrementar los impactos sociales. Por último, el estudio de la interacción entre políticas públicas, incentivos financieros y la adopción tecnológica ofrecerá información útil para diseñar instrumentos que favorezcan soluciones constructivas más equilibradas en el marco de los programas de vivienda social.

Conclusión

El estudio proporciona un marco metodológico replicable y sólido que combina la evaluación del ciclo de vida con técnicas multicriterio capaces de representar las interdependencias y la incertidumbre. Los resultados empíricos indican que, en el caso analizado, las soluciones ligeras industrializadas presentan ventajas en términos de coste y de huella ambiental, aunque se requieren medidas específicas para reducir los riesgos sociales derivados de su ejecución. La metodología y los resultados obtenidos sientan las bases para orientar las políticas y las decisiones de los proyectos y ponen de manifiesto la necesidad de ampliar los datos primarios, diversificar la muestra de expertos y conectar el análisis con herramientas digitales de diseño y gestión.

Referencia:

LUQUE CASTILLO, X.; YEPES-BELLVER, L.; YEPES, V. (2026). Towards Sustainable Social Housing: An Integrative Life Cycle and Multi-Criteria ApproachSustainable Cities and Society, 137, 107164. DOI:10.1016/j.scs.2026.107164

Dejo a continuación el artículo completo, ya que está publicado en abierto.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Primer aniversario de la DANA de Valencia: Anatomía de un desastre

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

Hoy, 29 de octubre de 2025, se cumple el primer aniversario de la DANA de Valencia de 2024, un evento que ha sido catalogado como una de las mayores catástrofes naturales ocurridas en España en décadas. La tragedia se produjo por unas precipitaciones históricas que pulverizaron récords nacionales, con máximos de más de 770 l/m² acumulados en 24 horas en Turís, lo que demuestra que el riesgo cero no existe en un contexto de cambio climático. El desastre no se explica únicamente por la cantidad de lluvia caída, sino por la trágica multiplicación entre el evento extremo, sobrealimentado por el calentamiento global, y el fallo estructural de un urbanismo que, durante décadas, ha ignorado las zonas de riesgo. Aunque la respuesta inmediata y los esfuerzos por restablecer las infraestructuras críticas han sido notables, la ingeniería de la reconstrucción no puede limitarse a reponer lo perdido, ya que replicar el estado previo implica aceptar que los efectos se repetirán. En este contexto, un medio de comunicación me ha solicitado una entrevista para abordar si, un año después, hemos avanzado hacia las soluciones de resiliencia y prevención que el conocimiento técnico lleva tiempo demandando. Os dejo la entrevista completa, por si os resulta de interés.

¿Cómo describiría desde un punto de vista técnico lo que ocurrió el 29 de octubre en Valencia? ¿Qué falló?

Desde el punto de vista técnico e ingenieril, el suceso del 29 de octubre en Valencia fue un evento de inundación extremo provocado por una DANA con un carácter pluviométrico extraordinario, ya que se registraron cifras extremas, como los 771,8 l/m² en 24 horas en Turís, y caudales en la Rambla del Poyo de hasta 2.283 m³/s antes de que los sensores fueran arrastrados, superando con creces cualquier expectativa de diseño y demostrando que el riesgo cero no existe. La magnitud del impacto fue consecuencia de una serie de factores concurrentes. El factor principal se produjo en la cuenca de la Rambla del Poyo, donde la virulencia del agua (con caudales medidos superiores a 2.200 m³/s y estimaciones simuladas que superan los 3.500 m³/s) se encontró con la ausencia de infraestructuras hidráulicas suficientes para la laminación de avenidas y otras medidas complementarias. Los proyectos de defensa contra inundaciones, que llevaban años planificados y con estudios previos, no se ejecutaron a tiempo. En contraste, el Nuevo Cauce del Turia y las presas de Forata y Buseo funcionaron eficazmente, protegiendo la ciudad de Valencia y otras poblaciones. Además de estas vulnerabilidades latentes, el impacto humano y material se vio agravado por desafíos en la respuesta, incluyendo la efectividad en los sistemas de alerta temprana (SAIH) bajo condiciones tan extremas y en la implantación de los planes de emergencia municipales, así como en la emisión de avisos con suficiente antelación a la población, impidiendo que esta pudiera reaccionar a tiempo.

¿Qué papel jugaron las infraestructuras y la planificación urbana en la magnitud de los daños? ¿Hubo zonas especialmente vulnerables o mal planificadas?

Las infraestructuras y la planificación urbana jugaron un papel determinante en la magnitud de los daños. Por un lado, las obras estructurales, como el Nuevo Cauce del Turia y las presas de Forata y Buseo, resultaron fundamentales, mitigando las inundaciones y protegiendo la ciudad de Valencia y otras poblaciones. Sin embargo, la magnitud de los daños se vio agravada por la ausencia de medidas integrales de defensa diseñadas para la laminación de avenidas, especialmente en la cuenca de la Rambla del Poyo, donde los proyectos planificados no se ejecutaron a tiempo. Los caudales extraordinarios superaron con creces la capacidad existente. Además, las infraestructuras lineales (carreteras, ferrocarriles y puentes) actuaron como puntos de estrangulamiento, reteniendo arrastres y aumentando el nivel de destrucción. Las zonas más vulnerables se concentraron en el cono aluvial de L’Horta Sud, una zona de alto riesgo urbanizada principalmente entre la riada de 1957 y la década de 1970, sin planificación adecuada ni infraestructuras de saneamiento suficientes. La falta de unidad de criterio en la ordenación territorial municipal y la prevalencia de intereses de desarrollo sobre las directrices de restricción de usos en zonas inundables (a pesar de instrumentos como el PATRICOVA) aumentaron la vulnerabilidad social y material del territorio. Aunque algunos hablan de emergencia hidrológica, probablemente sea más adecuado hablar de un profundo desafío urbanístico y de ordenación territorial.

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

Desde entonces, ¿qué medidas reales se han tomado —si las hay— para reducir el riesgo de que vuelva a suceder algo similar?

Desde la DANA de octubre de 2024, las medidas adoptadas se han enfocado en la reconstrucción con criterios de resiliencia y atención a urgencias, aunque las soluciones estructurales de gran calado, que requieren plazos de ejecución más largos, siguen mayormente pendientes. En la fase inmediata, se activaron obras de emergencia, destacando la reparación y refuerzo de infraestructuras críticas como las presas de Forata y Buseo, y la recuperación de cauces y del canal Júcar-Turia. Un ejemplo de reconstrucción en curso es la mejora de la red de drenaje de Paiporta, que forma parte de las primeras actuaciones tras la catástrofe. En el ámbito normativo, el Consell aprobó el Decreto-ley 20/2024 de medidas urbanísticas urgentes y se ha puesto sobre la mesa la revisión de normativas como el Código Técnico de la Edificación (CTE) para incluir requisitos para edificaciones en zonas inundables. También se prevé que los sistemas de comunicación y alerta estén coordinados en todas las cuencas mediterráneas, lo que podría evitar muertes en caso de repetirse el fenómeno. Sin embargo, es un hecho que, meses después, la legislación urbanística de fondo sigue sin cambios estructurales y que, en cuanto a las obras hidráulicas estructurales de prevención, como las presas de laminación, sus plazos de tramitación y ejecución impiden que se hayan materializado avances significativos todavía, dificultando el avance de proyectos críticos. Por tanto, existe una etapa de reconstrucción que debería ser inteligente y no dejar las infraestructuras como estaban antes de la DANA, pues eso implicaría asumir los mismos riesgos, y otra a medio y largo plazo que permita defender a la población, minimizando los riesgos.

¿Qué actuaciones considera urgentes o prioritarias para evitar repetir los errores del pasado?

Para evitar repetir los errores del pasado, es necesario un cambio de modelo que combine inversión estructural urgente con planificación territorial resiliente. En ingeniería hidráulica, la acción prioritaria es acelerar e implementar las obras de laminación contempladas en la planificación hidrológica, como la construcción de presas en las cuencas de la Rambla del Poyo y el río Magro, y destinar recursos extraordinarios para construir las estructuras de prevención necesarias y corregir el déficit de infraestructuras de prevención. También es prioritario eliminar obstáculos urbanísticos, como puentes y terraplenes insuficientes, y reconstruir infraestructuras lineales con criterios resilientes, permitiendo el paso seguro del agua. En urbanismo, la enseñanza principal es devolverle el espacio al agua, retirando estratégicamente infraestructuras de las zonas de flujo preferente para reducir la exposición al riesgo más elevado e iniciando un plan a largo plazo para reubicar infraestructuras críticas y viviendas vulnerables. Se recomienda revisar la normativa sobre garajes subterráneos en llanuras de inundación. Asimismo, es esencial invertir en sistemas de alerta hidrológica robustos, con más sensores y modelos predictivos que traduzcan la predicción en avisos concretos y accionables. Por último, es fundamental que la gobernanza supere la inercia burocrática mediante un modelo de ejecución de urgencia que priorice el conocimiento técnico y garantice que el riesgo no se convierta de nuevo en catástrofe humana.

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

¿Hasta qué punto Valencia está preparada para afrontar lluvias torrenciales o fenómenos extremos de este tipo en el futuro?

Desde una perspectiva técnica e ingenieril, a día de hoy, la vulnerabilidad de fondo persiste y no estamos preparados para afrontar una nueva DANA de la magnitud de la ocurrida en 2024. La situación es similar a la de una familia que circula en coche por la autopista a 120 km/h sin cinturones de seguridad: bastaría un obstáculo inesperado (una DANA) para que el accidente fuera mortal. Aceptar la reposición de lo perdido sin añadir nuevas medidas de protección estructural implicaría aceptar que los efectos del desastre se repetirán, algo inasumible. El problema principal es que prácticamente no se han ejecutado las grandes obras de laminación planificadas, especialmente en las cuencas de la Rambla del Poyo y del Magro, que constituyen la medida más eficaz para proteger zonas densamente pobladas mediante contención en cabecera. La DANA expuso un problema urbanístico severo. Meses después, mientras no se modifique la legislación territorial de fondo y se actúe sobre el territorio, el riesgo latente de la mala planificación persiste ante el próximo fenómeno extremo. La única forma de eliminar esta vulnerabilidad es mediante una acción integral que combine inversión urgente en obras estructurales con retirada estratégica de zonas de flujo preferente.

Os dejo un pequeño vídeo didáctico donde se resume lo acontecido en la DANA del 29 de octubre de 2024.

En las noticias de hoy, aparezco en varios reportajes:

En el Telediario de TVE, en horario de máxima audiencia, a las 21:00 h, se hizo un programa especial sobre la DANA donde tuve la ocasión de participar. Os dejo un trozo del vídeo.

 

Reconstruir Valencia un año después: «cirugía urbana» y zonas verdes para protegerse de futuras danas

Un año después de la DANA del 29-O, los expertos advierten: «Podría volver a pasar»

Valencia: expertos advierten que la región aún no está preparada para afrontar otro episodio climático extremo

Valencia se blinda frente al agua: garajes elevados e ingeniería verde tras la DANA

One year after Valencia’s deadly flooding experts warn ‘it could happen again’

Një vit pas përmbytjeve vdekjeprurëse në Valencia, ekspertët paralajmërojnë se ‘mund të ndodhë përsëri’

Egy évvel a valenciai árvíz után a szakértők figyelmeztetnek: «Ez újra megtörténhet»

Egy évvel a spanyol árvizek után: Tanulságok és kihívások a Valenciai Közösség számára

 

También os dejo los artículos que he ido escribiendo sobre este tema en este blog. Espero que os resulten de interés.

Lo que la catástrofe de Valencia nos obliga a repensar: cuatro lecciones. 30 de septiembre de 2025.

Resiliencia en las infraestructuras: cómo prepararnos para un futuro de incertidumbre. 26 de septiembre de 2025.

Iniciativa Legislativa Popular para la Modificación de la Ley de Aguas. 17 de julio de 2025.

Posibles consecuencias de una nueva DANA en el otoño de 2025. 16 de julio de 2025.

Discurso de apertura en el evento Innotransfer “Infraestructuras resilientes frente a eventos climáticos extremos”. 26 de mayo de 2025.

Ya son 6 meses desde el desastre de la DANA en Valencia. 29 de abril de 2025.

Jornada sobre infraestructuras resilientes al clima. 8 de abril de 2025.

Entrevista en Levante-EMV sobre la reconstrucción tras la DANA. 17 de marzo de 2025.

La ingeniería de la reconstrucción. 6 de marzo de 2025.

Lecciones aprendidas: proteger a la población es la prioridad. 25 de diciembre de 2024.

DANA 2024. Causas, consecuencias y soluciones. 3 de diciembre de 2024.

Qué es una presa. «La via verda», À Punt. 28 de noviembre de 2024.

Aplicación del modelo del queso suizo en la gestión de desastres. 10 de noviembre de 2024.

Gestión del riesgo de inundación en infraestructuras críticas: estrategias y medidas de resiliencia. 8 de noviembre de 2024.

Presas y control de inundaciones: estrategias integradas para la reducción de riesgos hídricos. 7 de noviembre de 2024.

Defensa integral contra inundaciones: un esbozo de las estrategias para la gestión de riesgos. 6 de noviembre de 2024.

Introducción a las crecidas en ingeniería hidráulica. 5 de noviembre de 2024.

Precipitación en ingeniería hidráulica: conceptos, medición y análisis. 4 de noviembre de 2024.

Efectos de las inundaciones en las estructuras de las edificaciones. 2 de noviembre de 2024.

Valencia frente a la amenaza de una nueva inundación: análisis, antecedentes y estrategias para mitigar el riesgo. 1 de noviembre de 2024.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Más allá de la resistencia: cinco claves sorprendentes sobre la infraestructura del futuro.

En el mundo de la ingeniería y la construcción, hay una pregunta fundamental que guía todo el proceso de diseño: «¿Qué tan seguro es “bastante seguro”?». Durante décadas, la respuesta parecía sencilla: construir estructuras lo bastante fuertes para soportar las fuerzas esperadas. El objetivo principal era la resistencia, es decir, la capacidad de mantenerse sin romperse.

Sin embargo, en un mundo cada vez más marcado por eventos extremos e impredecibles, desde huracanes más intensos hasta fallos en cadena en redes complejas, esta filosofía ya no es suficiente. La simple resistencia no tiene en cuenta lo que sucede después de un desastre. Es aquí donde surge un concepto mucho más relevante para nuestro tiempo: la resiliencia.

La resiliencia no se limita a soportar un golpe, sino que se centra en la capacidad de recuperación de un sistema tras recibirlo. Supone una nueva frontera en el diseño de ingeniería que va más allá de la fuerza bruta, ya que incorpora la rapidez, la creatividad y la capacidad de recuperación como características de diseño medibles.

Este artículo explorará cinco de los descubrimientos más sorprendentes e impactantes que nos ofrece esta filosofía emergente sobre cómo construir la infraestructura del mañana.

Los cinco descubrimientos clave sobre la resiliencia en ingeniería

1 .La noción de «seguridad» ha evolucionado drásticamente. Ya no se trata solo de resistir.

La forma en que los ingenieros definen la «seguridad» ha cambiado profundamente. Los métodos tradicionales, como el diseño por esfuerzos admisibles (ASD) o el diseño por factores de carga y resistencia (LRFD), se basaban en un principio sencillo: garantizar que la capacidad del sistema superara la demanda esperada. Aunque eran eficaces, estos enfoques no evaluaban la seguridad a nivel del sistema completo y no siempre producían los diseños más eficientes desde el punto de vista económico.

El primer gran avance fue el diseño basado en el desempeño (PBD). Esta filosofía cambió el enfoque de simplemente «no fallar» a evaluar el comportamiento de una estructura durante un evento extremo. El PBD introdujo métricas críticas de rendimiento, como las pérdidas económicas, el tiempo de inactividad y el número de víctimas. Aunque supuso un gran avance, aún dejaba fuera una parte esencial: la capacidad de recuperación del sistema.

El paso más reciente y transformador es el diseño basado en la resiliencia (RBD). La diferencia clave es que el RBD incorpora formalmente el proceso de recuperación del sistema tras un evento. Ya no solo importa cómo resiste el impacto, sino también cuán rápido y eficientemente puede volver a funcionar. Esto supone un cambio de paradigma fundamental en ingeniería, donde la resiliencia se convierte en una métrica tan importante como la resistencia.

La clave del cambio es que un análisis de resiliencia no solo considera los riesgos, sino también la capacidad de recuperación, integrando así la prevención, el impacto y la rehabilitación en una visión holística del diseño.

2. No se trata de ser irrompible. Recuperarse rápido es el nuevo superpoder.

Una de las ideas más contraintuitivas del diseño basado en la resiliencia es que la invulnerabilidad no es el objetivo final. En lugar de buscar estructuras que nunca fallen, la verdadera prioridad es la capacidad de un sistema para recuperarse rápidamente de un fallo, un atributo de diseño tan importante como su resistencia inicial.

Imaginemos dos estructuras, la «Estructura A» y la «Estructura B», ambas sometidas a un evento severo que supera sus límites de diseño. Como resultado, el rendimiento de ambas cae drásticamente. A primera vista, podrían parecer igualmente fallidas. Sin embargo, la resiliencia marca la diferencia.

La «Estructura A» ha sido diseñada de manera que, en caso de fallo, sus componentes puedan ser reparados o reemplazados de forma rápida y eficiente, lo que le permite recuperar su funcionalidad original en mucho menos tiempo. Por el contrario, la «Estructura B» tarda considerablemente más en volver a operar. Según la filosofía de la resiliencia, el diseño de la Estructura A es superior, ya que minimiza el tiempo total de interrupción del servicio.

La lección es clara: el diseño moderno ya no solo se pregunta «¿Qué tan fuerte es?», sino también «¿Qué tan rápido se recupera después de caer?». La rapidez de recuperación no es un extra, sino una característica de diseño fundamental.

3. La resiliencia no es una cualidad única, sino una combinación de cuatro «ingredientes» medibles.

Aunque la resiliencia puede parecer un concepto abstracto, los ingenieros la han desglosado en cuatro propiedades distintas y medibles. Comprender estos cuatro «ingredientes» es clave para diseñar sistemas verdaderamente resilientes.

  • La robustez es la capacidad de un sistema para soportar un cierto nivel de interrupción sin perder eficiencia. Representa la resistencia inherente para absorber el impacto inicial. Cuanto más robusto es un sistema, menos daño sufre desde el comienzo del evento.
  • La rapidez es la capacidad de un sistema para recuperar rápidamente su funcionamiento normal después de una interrupción. Este componente se centra en minimizar las pérdidas y evitar futuras interrupciones, de modo que el sistema vuelva a operar en el menor tiempo posible.
  • El ingenio es la capacidad de identificar problemas, establecer prioridades y movilizar recursos de manera eficaz. Un sistema con ingenio puede reducir el tiempo necesario para evaluar daños y organizar una respuesta eficaz, lo que facilita una recuperación más rápida. Es como un equipo de urgencias experto que sabe exactamente qué especialistas llamar y qué equipo utilizar, minimizando el tiempo entre la detección del problema y la solución eficaz.
  • La redundancia es la capacidad de los elementos dañados del sistema para ser sustituidos por otros. La redundancia permite que el sistema siga funcionando, aunque sea con capacidad reducida, redirigiendo la carga de los componentes fallidos a elementos auxiliares. Piénselo como la rueda de repuesto de un coche o los servidores de respaldo de un sitio web: recursos listos para asumir la función de un componente principal en caso de fallo.

4. La recuperación no es instantánea. Existe una «fase de evaluación» crítica tras el desastre.

Cuando un sistema se ve interrumpido, su rendimiento no mejora de forma inmediata una vez que el evento ha terminado. El análisis de resiliencia muestra que la recuperación sigue una curva con distintas fases críticas. Inicialmente, el rendimiento del sistema empeora durante el evento (de t1 a t2).

A continuación, aparece un período a menudo pasado por alto, pero crucial: la fase de evaluación (de t2 a t3). Durante esta etapa, la funcionalidad del sistema permanece baja y casi plana. No se observa una mejora significativa, ya que en este tiempo se evalúan los daños, se reúnen los recursos, se organizan los equipos de respuesta y se establece un plan de acción efectivo.

Un objetivo clave del diseño resiliente es acortar la duración de esta fase de «línea plana». Mediante una planificación previa más sólida, planes de respuesta a emergencias claros y una movilización eficiente de recursos, es posible reducir significativamente este período de inactividad.

Solo después de esta fase de evaluación comienza la fase de recuperación (de t3 a t4), durante la cual la funcionalidad del sistema empieza a restaurarse hasta alcanzar un nivel aceptable y recuperar gradualmente su capacidad total de operación.

Figura 2. Rendimiento del sistema bajo interrupción

5. La resiliencia no es solo un concepto, sino una cifra que se puede calcular.

Uno de los descubrimientos más importantes del diseño basado en la resiliencia es que esta no solo es un concepto cualitativo, sino también una métrica cuantificable. Los ingenieros pueden calcular un «índice de resiliencia», que a menudo se define como el área bajo la curva de rendimiento del sistema a lo largo del tiempo. Cuanto mayor sea esta área, mayor será la resiliencia del sistema.

Un ejemplo concreto proviene de un estudio realizado en el túnel del metro de Shanghái. Tras ser sometido a una sobrecarga extrema, el túnel perdió entre un 70 % y un 80 % de su rendimiento. Lo revelador del estudio fue que la simple eliminación de la sobrecarga, es decir, una recuperación pasiva, solo restauró el 1 % del rendimiento. Esto demuestra que esperar a que el problema desaparezca no es una estrategia de recuperación viable.

Para recuperar la funcionalidad, fue necesaria una intervención activa: la inyección de lechada de cemento en el suelo alrededor del túnel. No obstante, esta solución no fue inmediata, ya que se necesitaron cuatro años para recuperar un 12,4 % adicional del rendimiento. El estudio concluyó que, al mejorar y acelerar este proceso, el índice de resiliencia del túnel podría aumentar hasta un 73 %.

La capacidad de cuantificar la resiliencia transforma el enfoque de la ingeniería. Permite comparar objetivamente distintas opciones de diseño, justificar inversiones en estrategias de recuperación más rápidas y, en última instancia, tomar decisiones basadas en datos para construir infraestructuras más eficaces y seguras.

Conclusión: Diseñando para el mañana

El debate sobre la infraestructura del futuro está experimentando un profundo cambio. Hemos pasado de una obsesión por la fuerza y la resistencia a un enfoque más inteligente y holístico centrado en la recuperación. La resiliencia nos enseña que la forma en que un sistema se recupera de una avería es tan importante, si no más, que su capacidad para resistir el impacto inicial.

Al entender la resiliencia como una combinación medible de robustez, rapidez, ingenio y redundancia, podemos diseñar sistemas que no solo sobrevivan a los desafíos del siglo XXI, sino que también se recuperen de ellos de manera rápida, eficiente y predecible.

Ahora que la recuperación se considera un factor de diseño, surge una pregunta crítica: ¿qué infraestructura esencial de tu comunidad —eléctrica, de agua o de transporte— necesita ser rediseñada para ser no solo más fuerte, sino también más rápidamente recuperable?

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Construcción sostenible: por qué nuestra intuición nos falla.

En un mundo cada vez más consciente de la emergencia climática, la construcción sostenible ha dejado de ser una opción para convertirse en una necesidad. Arquitectos, ingenieros y promotores buscan constantemente el método constructivo «perfecto»: aquel que sea económico, ecológico y socialmente responsable. Sin embargo, ¿qué pasaría si nuestras ideas más arraigadas sobre lo que es «mejor» estuvieran equivocadas?

Un detallado estudio científico realizado por nuestro grupo de investigación, dentro del proyecto RESILIFE, ha puesto a prueba nuestras creencias. En él, los investigadores compararon de forma exhaustiva cuatro métodos de construcción para una vivienda unifamiliar: uno tradicional y tres alternativas industrializadas que prometen mayor eficiencia y sostenibilidad. Sus conclusiones no solo son sorprendentes, sino que también revelan por qué nuestra intuición sobre la construcción sostenible a menudo falla. Este artículo desvela los hallazgos que nos obligan a replantearnos qué significa realmente construir de forma sostenible.

Vivienda unifamiliar adosada analizada.

Intuición fallida n.º 1: la búsqueda de un «campeón» absoluto.

La primera gran revelación del estudio es que no existe una solución mágica que destaque en todas las categorías. Nuestra intuición busca un único «campeón» de la sostenibilidad, pero la realidad es un complejo juego de equilibrios. Cada método constructivo destacó en una dimensión diferente, lo que demuestra que la opción ideal depende de las prioridades del proyecto.

El estudio identificó un ganador claro para cada una de las tres dimensiones:

  • Dimensión económica: la alternativa «PRE» (losa de hormigón aligerada con discos huecos) fue la más económica. Su ventaja radica en su alta eficiencia estructural, ya que requiere «la mitad de material para las mismas solicitaciones estructurales» en comparación con la losa convencional.
  • Dimensión medioambiental: la alternativa «YTN» (prefabricada con hormigón celular autoclavado) obtuvo el mejor rendimiento ecológico. Esto se debe a que es un «material 100 % mineral» que necesita poca materia prima (1 m³ de materia prima produce 5 m³ de producto) y tiene un «bajo consumo de energía en su fabricación».
  • Dimensión social: la alternativa «ELE» (elementos de doble pared) fue la óptima desde una perspectiva social, impulsada en gran medida por un mayor confort de usuario, gracias a su excepcional rendimiento térmico, derivado de la gruesa capa de EPS utilizada como encofrado perdido.

Este hallazgo es fundamental. La sostenibilidad real no consiste en maximizar una única métrica, como la reducción de CO₂, sino en encontrar un equilibrio inteligente entre factores que, a menudo, están en conflicto.

Intuición fallida n.º 2: asumir que lo más «verde» es siempre lo mejor.

Podríamos pensar que la opción con menor impacto medioambiental (YTN) sería automáticamente la más sostenible, pero no es así. Sin embargo, el estudio demuestra que no es tan simple. Al combinar todos los factores en un «Índice Global de Sostenibilidad Estructural» (GSSI), la alternativa ganadora fue la «PRE» (losa aligerada).

¿Por qué ganó? La razón es el equilibrio. Aunque no fue la mejor en los ámbitos medioambiental y social, la alternativa PRE ofreció un excelente rendimiento económico y resultados muy sólidos en las otras dos áreas. El estudio la selecciona como la opción más sostenible porque, en sus palabras, presenta las respuestas más equilibradas a los criterios. Esta conclusión subraya una idea crucial: la solución más sostenible no es un extremo, sino un compromiso inteligente y equilibrado.

Los métodos «modernos» no son infalibles: sorpresas en los costes.

El estudio desveló dos realidades incómodas sobre los costes, tanto económicos como medioambientales, de algunas de las alternativas más innovadoras y puso en tela de juicio la idea de que «moderno» siempre significa «mejor».

En primer lugar, el método prefabricado (YTN), que a menudo se asocia con la eficiencia y el ahorro, resultó ser el más caro de todos. Su coste de construcción fue un 30,4 % superior al del método convencional de referencia.

Pero el sobrecoste económico no es el único precio oculto que reveló el estudio. La alternativa más tecnológica, ELE, conlleva una elevada factura medioambiental. Aunque fue la mejor valorada socialmente, su rendimiento ecológico fue pobre debido al enorme consumo de energía necesario para producir el poliestireno expandido (EPS) que utiliza como encofrado perdido. El estudio es contundente al respecto:

«Esto significa que, solo en los forjados, la alternativa ELE provoca un consumo de energía tres veces superior al necesario para obtener el EPS que requiere la solución de referencia».

Este hallazgo nos recuerda la importancia de analizar el ciclo de vida completo de los materiales y no dejarnos seducir únicamente por etiquetas como «moderno» o «tecnológico».

El mayor riesgo es el «business as usual»: el método tradicional fue el peor.

Quizás el hallazgo más importante y aleccionador del estudio es el pobre desempeño del método de construcción convencional (denominado «REF»). Al compararlo con las tres alternativas industrializadas, el sistema tradicional resultó ser la opción menos sostenible en todos los aspectos.

La conclusión de los investigadores es clara e inequívoca: «La alternativa REF es la peor opción en todos los criterios individuales y, en consecuencia, obtiene la menor prioridad en la caracterización de la sostenibilidad». Este resultado debe hacer reflexionar al sector: seguir construyendo como siempre se ha hecho, sin evaluar ni adoptar nuevas alternativas, es la decisión menos sostenible que podemos tomar.

Conclusión: repensando la construcción sostenible.

Este estudio demuestra que la sostenibilidad es un problema complejo que desafía las soluciones simplistas y las ideas preconcebidas. No se trata de encontrar una solución universal, sino de evaluar de manera integral y equilibrada las dimensiones económica, medioambiental y social de cada proyecto.

Como resumen, los propios autores: «Solo la consideración simultánea de los tres campos de la sostenibilidad […] conducirá a diseños adecuados». Esto nos obliga a cambiar nuestra pregunta fundamental: en lugar de buscar el material más ecológico o la técnica más barata, debemos preguntarnos cuál es la solución más equilibrada para un contexto específico.

Teniendo en cuenta estos resultados, ¿cómo deberíamos redefinir «la mejor forma de construir» para conseguir un futuro verdaderamente sostenible?

Aquí tenéis un audio que explica estos conceptos.

Os dejo un vídeo resumen sobre estas ideas.

Referencia:

SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2022). Multi-criteria decision-making applied to the sustainability of building structures based on Modern Methods of Construction. Journal of Cleaner Production, 330:129724. DOI:10.1016/j.jclepro.2021.129724

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Inteligencia artificial y eficiencia en el diseño de edificios

La inteligencia artificial (IA) está transformando de manera radical el diseño arquitectónico y la edificación. En la actualidad, el sector de la construcción se enfrenta a tres tendencias clave: la industrialización, la sostenibilidad y la transformación digital e inteligente. La convergencia de estos factores genera numerosas oportunidades, pero también desafíos significativos.

Los proyectos contemporáneos son cada vez más grandes y complejos, y están sujetos a requisitos ambientales más estrictos, lo que aumenta la presión sobre los equipos de diseño en términos de procesamiento de información, tiempo y recursos. En este contexto, la IA no solo optimiza los procesos, sino que también mejora la eficiencia de los métodos tradicionales de diseño.

A continuación, analizamos cómo la IA puede impulsar la eficiencia del diseño, fomentar la innovación y contribuir a la sostenibilidad de los proyectos. La tecnología ya está presente en todas las etapas del ciclo de vida del edificio, desde el análisis predictivo y la supervisión de la construcción hasta el mantenimiento de las instalaciones.

La digitalización ha transformado profundamente la forma en que concebimos, proyectamos y gestionamos las infraestructuras. Tras la aparición del diseño asistido por ordenador (CAD) y el modelado de información para la construcción (BIM), la inteligencia artificial (IA) se presenta como el siguiente gran avance tecnológico. A diferencia de otras herramientas, la IA no solo automatiza tareas, sino que también aprende, genera propuestas y ayuda a tomar decisiones complejas de manera óptima. Como señalan Li, Chen, Yu y Yang (2025), la IA se está consolidando como una herramienta fundamental para aumentar la eficiencia en el diseño arquitectónico e integrar criterios de sostenibilidad, industrialización y digitalización en toda la cadena de valor.

La IA se puede definir como un conjunto de técnicas informáticas que buscan reproducir procesos propios de la inteligencia humana, como el razonamiento, el aprendizaje o el reconocimiento de patrones. Entre sus ramas se incluyen el aprendizaje automático (machine learning o ML), basado en algoritmos que identifican patrones en grandes volúmenes de datos; las redes neuronales artificiales, que imitan el funcionamiento del cerebro y permiten resolver problemas complejos, como la predicción energética (Chen et al., 2023); los algoritmos genéticos, que simulan procesos evolutivos para hallar soluciones óptimas en problemas con múltiples variables, y la IA generativa, capaz de crear contenidos originales, como imágenes o planos, a partir de descripciones textuales. Este último enfoque, también conocido como AIGC (contenido generado por IA), ha popularizado herramientas como Stable Diffusion o Midjourney (Li et al., 2025).

En el sector de la construcción confluyen tres grandes tendencias: la industrialización, vinculada a la modularización y la prefabricación de componentes; el desarrollo sostenible, que impulsa diseños energéticamente eficientes y con menor impacto ambiental; y la digitalización inteligente, en la que la IA desempeña un papel protagonista (Asif, Naeem y Khalid, 2024). Estas tres dinámicas están interrelacionadas: sin tecnologías de análisis avanzado, como la IA, sería mucho más difícil cumplir los objetivos de sostenibilidad o gestionar procesos constructivos industrializados.

Tendencias de la construcción

Las aplicaciones de la IA se extienden a lo largo de todo el ciclo de vida del edificio. En las primeras fases de diseño, los algoritmos generan en segundos múltiples alternativas de distribución, optimizando la orientación, la iluminación natural o la ventilación. El diseño paramétrico asistido por IA permite explorar variaciones infinitas ajustando solo unos pocos parámetros (Li et al., 2025). Durante la fase de proyecto, los sistemas basados en procesamiento del lenguaje natural pueden interpretar normativas y detectar incumplimientos de forma automática, lo que reduce la probabilidad de modificaciones en obra (Xu et al., 2024). Además, las técnicas de simulación permiten prever el comportamiento estructural, acústico o energético de un edificio antes de su construcción, lo que proporciona seguridad y precisión en la toma de decisiones.

Avances de la IA en el diseño arquitectónico

En el sector de la construcción, la IA se combina con sensores y análisis de datos en tiempo real para optimizar la producción y la logística. En la construcción industrializada, los algoritmos ajustan la fabricación de elementos prefabricados, optimizan los cortes y los ensamblajes, y mejoran la gestión de las obras (Li et al., 2025). Al mismo tiempo, la monitorización inteligente permite anticiparse a las desviaciones, planificar los recursos con mayor eficiencia e incrementar la seguridad en entornos complejos.

Optimización del ciclo de vida del edificio con IA

Uno de los campos más avanzados es la predicción y optimización del consumo energético. Algoritmos como las redes neuronales, las máquinas de soporte vectorial o los métodos evolutivos permiten modelizar con gran precisión el comportamiento energético, incluso en las fases preliminares (Chen et al., 2023). Gracias a estas técnicas, es posible seleccionar soluciones constructivas más sostenibles, diseñar envolventes eficientes e integrar energías renovables en el proyecto. Como señalan Ding et al. (2018), estas herramientas facilitan el cumplimiento de los sistemas de evaluación ambiental y apoyan la transición hacia edificios de energía casi nula.

Las ventajas de la IA son evidentes: aumenta la eficiencia, reduce los errores y permite generar múltiples alternativas en mucho menos tiempo (Li et al., 2025). También optimiza los aspectos energéticos y estructurales, lo que hace que los proyectos sean más fiables y competitivos. La automatización de tareas repetitivas agiliza la creación de planos y documentos, mientras que los profesionales pueden dedicarse a tareas creativas. Además, las herramientas de gestión de proyectos con IA ayudan a organizar mejor los recursos y los plazos. Gracias a su capacidad para analizar grandes volúmenes de datos, fomentan la innovación, diversifican los métodos de diseño y facilitan la selección de materiales y el rendimiento energético.

Beneficios de la IA en el diseño

Sin embargo, la IA también plantea importantes desafíos. Su eficacia depende de la calidad de los datos; sin información fiable, los algoritmos pierden precisión. Además, integrarla con plataformas como CAD o BIM sigue siendo complicado (Xu et al., 2024). A esto se suman cuestiones éticas y legales, como la propiedad intelectual de los diseños generados por IA, la opacidad en la toma de decisiones y el riesgo de que los diseñadores pierdan cierto control. En algunos lugares, como EE. UU., se han revocado derechos de autor sobre obras generadas por IA, lo que refleja la incertidumbre legal existente.

Otros retos son la homogeneización del diseño si todos usan herramientas similares, la reticencia de algunos profesionales a adoptar soluciones de IA por dudas sobre la personalización y la fiabilidad, y los altos costes y la limitada disponibilidad de hardware y software especializados. Aún así, la IA sigue siendo una herramienta poderosa que, si se utiliza correctamente, puede transformar la eficiencia, la creatividad y la sostenibilidad en el sector de la construcción, abriendo un futuro lleno de oportunidades.

Desafíos de la adopción de la IA en el diseño

Ya existen ejemplos prácticos que muestran el potencial de estas tecnologías. Herramientas como Stable Diffusion o FUGenerator pueden generar imágenes y maquetas a partir de descripciones en lenguaje natural y actúan como asistentes que multiplican la productividad del proyectista (Li et al., 2025). Estas plataformas no sustituyen la creatividad humana, pero ofrecen un apoyo decisivo en la fase de ideación.

Bucle interactivo de inferencia de diseño arquitectónico de FUGenerator (Li et al., 2025)

La IA se está convirtiendo en un pilar fundamental de la construcción, integrándose cada vez más con tecnologías como la realidad aumentada (RA), la realidad virtual (RV), la realidad mixta (RM) y los gemelos digitales. Gracias a esta combinación, no solo es posible visualizar cómo será un edificio, sino también anticipar su comportamiento estructural, energético o acústico antes de su construcción (Xu et al., 2024). Esto permite a los diseñadores y a los clientes evaluar las propuestas en las primeras etapas, lo que mejora la calidad del diseño y la experiencia del usuario.

La IA del futuro será más inteligente y adaptable, capaz de predecir con gran precisión los resultados del diseño y ofrecer soluciones personalizadas. Su impacto no se limita al diseño arquitectónico: la gestión de la construcción se beneficiará de la robótica asistida, lo que aumentará la seguridad y la eficiencia en tareas complejas o de alto riesgo; la operación de los edificios podrá monitorizar su rendimiento, anticipar las necesidades de mantenimiento y prolongar su vida útil, lo que reducirá los costes, y el análisis de mercado aprovechará el big data para prever la demanda y los precios de los materiales, lo que optimizará la cadena de suministro.

En ingeniería civil, la integración de la IA y las tecnologías avanzadas permite tomar decisiones más fundamentadas, minimizar riesgos y entregar proyectos más seguros y sostenibles (Xu et al., 2024). Así, la construcción del futuro se perfila como un proceso más eficiente, innovador y conectado, en el que la tecnología y la planificación estratégica trabajan juntas para lograr resultados óptimos.

En conclusión, la IA no pretende sustituir a los ingenieros y arquitectos, sino ampliar sus capacidades, como ya hicieron el CAD o el BIM (Asif et al., 2024; Li et al., 2025). Automatiza tareas repetitivas, agiliza el diseño, facilita la toma de decisiones basada en datos y ayuda a elegir materiales, mejorar la eficiencia energética y estructural e inspirar soluciones creativas. Su impacto trasciende el diseño y se extiende a la planificación, la supervisión de la construcción y la gestión del ciclo de vida del edificio. No obstante, su adopción plantea desafíos como los altos costes, la escasez de software disponible y la necesidad de contar con datos de calidad y algoritmos robustos. Si se depende en exceso de la IA, los diseños podrían homogeneizarse, por lo que es fundamental definir claramente los roles entre los arquitectos y la IA. Si se utiliza correctamente, la IA puede potenciar la creatividad, la eficiencia y la sostenibilidad, y ofrecer un futuro más innovador y dinámico para la construcción.

Os dejo un vídeo que resume las ideas más importantes.

Referencias:

Glosario de términos clave

  • Inteligencia Artificial (IA): Una disciplina científica y tecnológica de vanguardia que simula el aprendizaje y la innovación humanos para extender el alcance de la aplicación de la tecnología.
  • Inteligencia Artificial Generativa (GAI): Un subconjunto de la IA que utiliza el aprendizaje automático y las capacidades de procesamiento del lenguaje natural para que las computadoras simulen la creatividad y el juicio humanos, produciendo automáticamente contenido que cumple con los requisitos.
  • Diseño Paramétrico: Un método de diseño en el que se utilizan algoritmos para definir la relación entre los elementos de diseño, permitiendo la generación de diversas variaciones de diseño mediante el ajuste de parámetros.
  • Diseño Asistido por IA: Métodos en los que las herramientas de IA ayudan a los diseñadores a optimizar diseños, analizar datos, resolver problemas y explorar conceptos creativos.
  • Colaboración Hombre-Máquina: Un enfoque en el que humanos y máquinas trabajan juntos en tareas complejas, con la IA apoyando la innovación humana y el intercambio de información eficiente.
  • Redes Neuronales Artificiales (RNA o ANN): Un tipo de algoritmo de IA, modelado a partir del cerebro humano, que se utiliza para modelar relaciones complejas entre entradas y salidas, a menudo empleadas en la predicción del consumo de energía de los edificios.
  • Aprendizaje Profundo (Deep Learning): Un subcampo del aprendizaje automático que utiliza redes neuronales con múltiples capas (redes neuronales profundas o DNN) para aprender representaciones de datos con múltiples niveles de abstracción.
  • Redes Neuronales Profundas (DNN): Redes neuronales con numerosas capas ocultas que permiten que el modelo aprenda patrones más complejos en los datos, mejorando la precisión en tareas como la predicción del consumo de energía.
  • Máquinas de Vectores de Soporte (SVM): Un algoritmo de aprendizaje supervisado utilizado para tareas de clasificación y regresión, especialmente eficaz con conjuntos de datos pequeños y para identificar relaciones no lineales.
  • Procesamiento del Lenguaje Natural (PLN o NLP): Un campo de la IA que se ocupa de la interacción entre las computadoras y el lenguaje humano, permitiendo a los sistemas interpretar y generar lenguaje humano.
  • Modelado de Información de Construcción (BIM): Una metodología para la gestión de la información de construcción a lo largo de su ciclo de vida, utilizada con la IA para mejorar las simulaciones de rendimiento del edificio.
  • Algoritmos Genéticos (GA): Una clase de algoritmos de optimización inspirados en el proceso de selección natural, utilizados para encontrar soluciones óptimas en tareas de diseño complejas.
  • Adaptación de Bajo Rango (LoRA): Un método de ajuste de bajo rango para modelos de lenguaje grandes, que permite modificar el comportamiento de los modelos añadiendo y entrenando nuevas capas de red sin alterar los parámetros del modelo original.
  • Stable Diffusion: Una herramienta avanzada de IA para generar imágenes a partir de descripciones de texto o dibujos de referencia, que a menudo utiliza el modelo LoRA para estilos específicos.
  • Inception Score (IS) y Fréchet Inception Distance (FID): Métricas cuantitativas utilizadas para evaluar la calidad y diversidad de las imágenes generadas por modelos de IA, con IS evaluando la calidad y FID la similitud de la distribución entre imágenes reales y generadas.
  • FUGenerator: Una plataforma que integra varios modelos de IA (como Diffusion Model, GAN, CLIP) para respaldar múltiples escenarios de aplicación de diseño arquitectónico, desde la descripción semántica hasta la generación de bocetos y el control.
  • Industrialización (en construcción): Énfasis en métodos de construcción modulares y automatizados para mejorar la eficiencia y estandarización.
  • Desarrollo Ecológico (en construcción): Enfoque en la conservación de energía durante el ciclo de vida, el uso de materiales sostenibles y la reducción del impacto ambiental.
  • Transformación Digital-Inteligente (en construcción): Integración de sistemas de digitalización e inteligencia, aprovechando tecnologías como la GAI para optimizar procesos y mejorar la creación de valor.
  • Problema Mal Definido (Ill-defined problem): Problemas de diseño, comunes en arquitectura, que tienen propósitos y medios iniciales poco claros.
  • Problema Malicioso (Wicked problem): Problemas de diseño caracterizados por interconexiones y objetivos poco claros, que requieren enfoques de resolución complejos.
  • Integración del Internet de las Cosas (IoT): La interconexión de dispositivos físicos con sensores, software y otras tecnologías para permitir la recopilación y el intercambio de datos, crucial para los sistemas de control de edificios inteligentes

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Lo que la catástrofe de Valencia nos obliga a repensar: cuatro lecciones

Ayer, cuando se cumplían 11 meses de la catástrofe de la DANA de 2024, volvimos a estar en alerta roja en Valencia. No se trató de un evento tan catastrófico como el que vivimos hace menos de un año. Pero volvieron los fantasmas y se volvió a poner a prueba todo el esfuerzo, con mayor o menor acierto, que se está realizando para evitar este tipo de catástrofes.

Queda mucho por hacer: necesitamos consenso en la gobernanza de los proyectos de futuro, desarrollo sostenible de los territorios, un mejor conocimiento para actuar de manera más eficaz por parte de las autoridades y los ciudadanos, y finalmente, aprender a convivir con las inundaciones.

A continuación, os resumo algunos pensamientos sobre este tema que he ido publicando en este blog. Espero que sirvan para reflexionar sobre este tema.

Introducción: cuando la «naturaleza» no es la única culpable.

Tras la devastadora DANA que asoló la provincia de Valencia en octubre de 2024, dejando una estela de dolor y destrucción, es natural buscar explicaciones. La tendencia humana nos lleva a señalar a la «furia de la naturaleza», a la «mala suerte» o a un evento tan extraordinario que era imposible de prever. Nos sentimos víctimas de una fuerza incontrolable.

Sin embargo, un análisis técnico y sereno nos obliga a mirar más allá del barro y el agua. Como se argumenta en foros de expertos, los desastres no son naturales, sino que son siempre el resultado de acciones y decisiones humanas que, acumuladas con el paso del tiempo, crean las condiciones perfectas para la tragedia. Esta idea no es nueva. Ya en 1755, tras el terremoto de Lisboa, Jean-Jacques Rousseau le escribía a Voltaire: «Convenga usted que la naturaleza no construyó las 20.000 casas de seis y siete pisos, y que, si los habitantes de esta gran ciudad hubieran vivido menos hacinados, con mayor igualdad y modestia, los estragos del terremoto hubieran sido menores, o quizá inexistentes».

Este artículo explora cuatro de las ideas menos obvias y más impactantes que surgen del análisis técnico del desastre. Cuatro revelaciones que nos invitan a dejar de buscar un único culpable para empezar a entender las verdaderas raíces del riesgo, repensar cómo nos preparamos para él y, sobre todo, cómo lo reconstruimos de forma más inteligente.

Primera revelación: un desastre no es azar, es la coincidencia de errores en cadena (el modelo del queso suizo).

La primera revelación consiste en abandonar la búsqueda de un único culpable. Un desastre no es un rayo que cae, sino una tormenta perfecta de debilidades sistémicas.

1. Las catástrofes no se producen por un único fallo, sino por una tormenta perfecta de pequeñas debilidades.

Para entender por qué un fenómeno meteorológico extremo se convierte en una catástrofe, los analistas de riesgos utilizan el «modelo del queso suizo» de James T. Reason. La idea es sencilla: nuestro sistema de protección es como una pila de lonchas de queso. Cada loncha representa una capa de defensa (infraestructuras, planes de emergencia, normativas urbanísticas) y los agujeros en cada una de ellas simbolizan fallos o debilidades. Ocurre un desastre cuando los agujeros de varias capas se alinean, creando una «trayectoria de oportunidad de accidente» que permite al peligro atravesar todas las barreras.

Aplicado a la gestión de inundaciones, este modelo identifica cuatro áreas principales donde se producen estos fallos:

  • Influencias organizativas: decisiones políticas a largo plazo, como «un contexto de austeridad» en el que las instituciones «reducen la inversión en infraestructuras de protección». Esto crea agujeros latentes en nuestras defensas.
  • Fallos de supervisión: falta de control efectivo sobre el cumplimiento de normativas, como la construcción en zonas inundables o el mantenimiento de infraestructuras de contención.
  • Condiciones latentes: Debilidades preexistentes que permanecen ocultas hasta que se produce la crisis. Un sistema de drenaje obsoleto, planes de evacuación anticuados o la «falta de concienciación y preparación en la comunidad» son ejemplos de condiciones latentes.
  • Acciones inseguras: errores activos cometidos durante la emergencia, como retrasos en la emisión de alertas o una comunicación deficiente con el público.

Esta perspectiva nos saca del juego de la culpa lineal —una presa que falló, una alerta que no llegó— y nos obliga a entender el desastre como un fallo sistémico acumulado, resultado de años de pequeñas decisiones, omisiones y debilidades que finalmente se alinearon en el peor momento posible.

Segunda revelación: La trampa de la reconstrucción apresurada.

2. Volver a construir lo mismo que se destruyó es programar la siguiente catástrofe.

Tras la conmoción, la presión política y social exige una respuesta inmediata: limpiar, reparar y reconstruir. Sin embargo, este impulso esconde una de las trampas más peligrosas. Si la reconstrucción se limita a la reposición de lo perdido, ignoramos la lección más importante y perpetuamos las mismas vulnerabilidades.

La forma en que se afronta la reconstrucción tras un desastre no puede limitarse a la reposición de lo perdido.

Aquí surge un conflicto fundamental. Por un lado, está el «enfoque táctico» de los políticos, que necesitan acciones rápidas y visibles. Como explican los análisis de ingeniería, «la rapidez en la ejecución de ciertas obras genera la percepción de una gestión eficaz, pero este proceder puede ocultar la ausencia de una estrategia que optimice las actuaciones a largo plazo». Por otro lado, está la necesidad técnica de llevar a cabo una reflexión estratégica que requiere tiempo para analizar qué ha fallado y diseñar soluciones resilientes que no repitan los errores del pasado.

Para evitar que la urgencia impida esta reflexión, es esencial contar con un equipo de análisis, una especie de «ministerio del pensamiento», que establezca directrices fundamentadas. Esta «trampa de la reconstrucción» es común porque la reflexión es lenta y políticamente menos rentable que una foto posando en la inauguración de un puente reparado. Evitarla tras la DANA de Valencia es crucial. No se trata solo de levantar muros, sino de aprovechar esta dolorosa oportunidad para reordenar el territorio, rediseñar las infraestructuras y construir una sociedad más segura.

Tercera revelación: El clima ha roto las reglas del juego.

3. Ya no podemos utilizar el pasado como guía infalible para diseñar el futuro de nuestras infraestructuras.

Durante un siglo, la ingeniería se ha basado en una premisa fundamental que hoy es una peligrosa falsedad: que el clima del pasado era una guía fiable para el futuro. Este principio, conocido como «estacionariedad climática», ha dejado de ser válido. Esta hipótesis partía de la base de que, aunque el clima es variable, sus patrones a largo plazo se mantenían estables, lo que permitía utilizar registros históricos para calcular estadísticamente los «periodos de retorno» y diseñar infraestructuras capaces de soportar, por ejemplo, la «tormenta de los 100 años», un evento que no ocurre cada 100 años, sino que tiene un 1 % de probabilidad de suceder en cualquier año.

El cambio climático ha invalidado esta hipótesis. El clima ya no es estacionario. La frecuencia e intensidad de los fenómenos meteorológicos extremos están aumentando a un ritmo que hace que los datos históricos dejen de ser una referencia fiable. Esta no estacionariedad aumenta los «agujeros» en nuestro queso suizo de defensas, haciendo que las vulnerabilidades sistémicas sean aún más críticas.

La consecuencia es alarmante: muchas de nuestras infraestructuras (puentes, sistemas de drenaje, presas) pueden haber sido diseñadas para unas condiciones que ya no existen, lo que aumenta drásticamente el riesgo estructural. La adaptación al cambio climático no es una opción ideológica, sino una necesidad inaplazable. Esto exige una revisión completa de los códigos de diseño y los planes de ordenación del territorio. Debemos dejar de mirar exclusivamente por el retrovisor para empezar a diseñar con la vista puesta en el futuro.

Cuarta revelación: Los argumentos técnicos no ganan batallas culturales.

4. El obstáculo más grande no es técnico ni económico, sino nuestra propia mente.

Ingenieros y científicos llevan años advirtiendo sobre los riesgos. Sin embargo, estas advertencias a menudo no se traducen en la voluntad política y social necesaria para actuar. La respuesta se halla en la psicología humana. El fenómeno de la «disonancia cognitiva» explica nuestra tendencia a rechazar información que contradiga nuestras creencias más profundas. A esto se suma la «asimetría cognitiva»: la brecha de comunicación existente entre los distintos «estratos» de la sociedad (científicos, técnicos, políticos y la opinión pública). Cada grupo opera con su propia percepción de la realidad, su lenguaje y sus prioridades, lo que crea mundos paralelos que rara vez se tocan.

Esto nos lleva a una de las ideas más frustrantes para los técnicos: la creencia de que es posible convencer a alguien solo con datos es, en muchos casos, una falacia.

«Cuando intentas convencer a alguien con argumentos respecto a un prejuicio que tiene, es imposible. Es un tema mental, es la disonancia cognitiva».

Cuando un dato choca con un interés o una creencia, lo más habitual no es cambiar de opinión, sino rechazar el dato. Esto explica por qué, a pesar de la evidencia sobre ciertos riesgos, se posponen las decisiones o se toman decisiones que van en direcciones contrarias. El problema no es la falta de conocimiento técnico, sino la enorme dificultad para comunicarlo de manera que sea aceptado eficazmente por quienes toman las decisiones y por la sociedad en su conjunto. Superar esta barrera mental es, quizás, el mayor desafío de todos.

Conclusión: reconstruir algo más que edificios y puentes.

Las lecciones de la DANA de 2024 nos obligan a conectar los puntos: los desastres son fallos sistémicos (como el queso suizo), cuyas debilidades se multiplican porque el clima ha cambiado las reglas del juego (no estacionariedad); la reconstrucción debe suponer una reinvención estratégica, no una copia; y las barreras humanas, alimentadas por la disonancia cognitiva, a menudo son más difíciles de superar que cualquier obstáculo técnico.

La verdadera lección, por tanto, no se limita a la hidráulica o al urbanismo. Se trata de cómo tomamos decisiones como sociedad frente a riesgos complejos y sistémicos. Se trata de nuestra capacidad para aprender, adaptarnos y actuar con valentía y visión de futuro.

Ahora que conocemos mejor las causas profundas del desastre, ¿estamos dispuestos como sociedad a adoptar las decisiones valientes que exige una reconstrucción inteligente o la urgencia nos hará tropezar de nuevo con la misma piedra?

En este audio hay ideas que os pueden servir para entender el problema.

Os dejo un vídeo que os puede ayudar a entender las ideas principales de este artículo.

Y por último, os dejo una intervención que tuve sobre este tema en el Colegio de Ingenieros de Caminos. Espero que os interese.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Ni ladrillo ni hormigón: las 5 claves sorprendentes de la casa del futuro

De vez en cuando, los resultados de los trabajos de investigación de nuestro grupo tienen una gran repercusión. En algunos artículos anteriores podéis ver un ejemplo de la repercusión del proyecto RESILIFE. En este caso, se trata de una entrevista que me realizó Eduard Muñoz para el programa Un día perfecte. Se trata de un espacio donde se abre una puerta a todas aquellas personas con inquietudes culturales y científicas. Mi agradecimiento.

A continuación, os dejo un resumen de la entrevista. Al final del artículo, podréis escucharla completa. Espero que os resulte interesante.

El acceso a una vivienda digna, asequible y sostenible es uno de los grandes desafíos de nuestra era. Ante la escasez, el aumento de los costes y la necesidad de reducir el impacto medioambiental, buscar soluciones se ha convertido en una urgencia global. A menudo, las respuestas más innovadoras no provienen de las oficinas de las grandes constructoras, sino de la investigación académica. En este caso, un equipo de la Universitat Politècnica de València (UPV), dirigido por el investigador Víctor Yepes y la doctoranda Ximena Luque, ha desarrollado una nueva metodología que cambia nuestra forma de entender la construcción. Sus conclusiones, fruto de un riguroso análisis, desafían muchas de nuestras ideas preconcebidas sobre cómo debe ser la casa del futuro.

Olvida la idea del «barracón»: la prefabricación de alta calidad ya está aquí.

En España, la palabra «prefabricado» suele evocar una imagen de baja calidad, de construcciones temporales o «barracones» poco estéticos. Sin embargo, como explica Yepes, esta percepción está completamente desactualizada. Para desmontar este mito, propone una analogía contundente: las autocaravanas de gran lujo o los yates son elementos industrializados y prefabricados que alcanzan un altísimo nivel de acabado y calidad. El principio es el mismo: fabricar componentes en un entorno de fábrica controlado permite un nivel de precisión y de control de calidad difícil de lograr en una obra a la intemperie. Este nuevo enfoque de construcción industrializada no es una solución de segunda categoría, sino una tendencia en auge en los países nórdicos y en ciudades como Londres, que demuestra que la eficiencia de la fabricación en serie puede ir de la mano de la excelencia y el diseño.

La vivienda más eficiente está hecha de acero ligero.

El proyecto de investigación RESILIFE se centró en un caso de estudio en Perú, un país que se enfrenta a dos grandes desafíos en materia de vivienda: la prevalencia de la autoconstrucción de baja calidad y el alto riesgo sísmico. Tras analizar múltiples alternativas, desde los tradicionales muros de ladrillo y hormigón armado hasta paneles prefabricados, el estudio halló la solución óptima para este contexto específico: un sistema industrializado de acero ligero conocido como light steel frame.

Esta solución resultó ser superior por varias razones clave:

  • Seguridad sísmica: cumple con la estricta normativa de zonas de alto riesgo sísmico.
  • Eficiencia energética: proporciona un alto rendimiento energético, lo que reduce los costes de mantenimiento a largo plazo.
  • Estructura liviana: se basa en paneles prefabricados que conforman una estructura muy ligera.
  • Velocidad de construcción: permite una edificación extraordinariamente rápida, una ventaja crucial en situaciones de emergencia, como demostró China al construir un hospital en 15 días durante la pandemia.

Este caso demuestra que los materiales tradicionales no siempre son la respuesta más inteligente.

«El hormigón y el ladrillo son formas tradicionales de construcción en España, pero no hay que descartar otras posibilidades que, gracias a las nuevas tecnologías de inteligencia artificial, diseño asistido por ordenador, etc., harán que en el futuro sean posiblemente las más rápidas y eficientes».

— Víctor Yepes, investigador del Instituto de Ciencia y Tecnología del Hormigón (ICITECH).

Reducir el coste de construcción no basta para solucionar la crisis de la vivienda.

Los sistemas industrializados, como el de acero ligero, pueden reducir los costes directos de construcción entre un 15 % y un 20 %, lo cual no es una cifra desdeñable. Sin embargo, este ahorro no es la solución mágica a la crisis de asequibilidad, al menos en España. El investigador señala una realidad estructural del mercado inmobiliario español: el suelo SUELE representa más del 50 % del precio final de una vivienda. Por lo tanto, aunque abaratar la construcción es un paso positivo, la solución fundamental para que los precios bajen pasa por otra vía: es necesario poner más suelo público en el mercado para equilibrar la oferta y la demanda.

La clave no es un tipo de casa, sino una «receta» inteligente para construirla.

Aunque la casa de acero ligero en Perú es un resultado interesante, el verdadero avance de esta investigación no es un producto, sino un proceso. El resultado más importante es la creación de una metodología universal y adaptable, un motor capaz de generar la mejor solución para cualquier lugar del mundo. El equipo ha desarrollado una herramienta objetiva e imparcial que, mediante el uso de inteligencia artificial, puede analizar las condiciones locales y determinar la solución constructiva más adecuada.

Esta metodología tiene en cuenta una gran variedad de factores para tomar la decisión más acertada.

  • Costes locales de energía, electricidad y transporte.
  • La normativa vigente en la zona.
  • Disponibilidad de materiales y mano de obra.
  • Nivel de especialización de los trabajadores locales.

Esto significa que la mejor solución para Perú no tiene por qué serlo para España o el Reino Unido. La verdadera innovación consiste en ofrecer una solución personalizada y optimizada para las circunstancias específicas de cada lugar.

El futuro de la construcción debe ser inteligente, pero también humano.

Este trabajo demuestra que el futuro de la vivienda no depende de aferrarse a un único material, sino de aplicar inteligencia y una visión holística. No obstante, los investigadores advierten contra una solución puramente tecnocrática. Un proceso industrial muy eficiente puede reducir costes, pero si deja de lado a la mano de obra local, simplemente cambia un problema por otro. Por ello, ahora estudian cómo integrar el «factor humano» en su metodología. La casa verdaderamente «inteligente» del futuro también debe tener un impacto social inteligente, equilibrando la eficiencia con el empleo.

El conocimiento para construir mejor ya existe. Como subraya Víctor Yepes, la ciencia y la universidad generan soluciones aplicables a problemas reales. Su llamamiento final es un recordatorio crucial para los responsables políticos y económicos: es hora de escuchar a la investigación y aplicar estos criterios para construir un futuro más sostenible y justo para todos.

Si la ciencia ya nos ofrece las herramientas para construir de forma más inteligente y sostenible, ¿estamos preparados como sociedad para adoptar el cambio?

Os dejo la entrevista completa. Espero que os resulte interesante.

Referencia

LUQUE-CASTILLO, X.; YEPES, V. (2025). Life Cycle Assessment of Social Housing Construction: A Multicriteria Approach. Building and Environment, 282:113294. DOI:10.1016/j.buildenv.2025.113294

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.