3 secretos sorprendentes detrás de las encuestas que rellenas cada día.

Introducción: La ciencia oculta de las encuestas.

Todos hemos pasado por ello: cuestionarios interminables, preguntas que parecen sacadas de un manual de psicología y, sobre todo, esa sensación de estar respondiendo a la misma pregunta una y otra vez. Es una experiencia tan común como, a menudo, frustrante. ¿Por qué algunas preguntas parecen extrañas o repetitivas? ¿Realmente merece la pena todo este esfuerzo?

La respuesta es un rotundo sí. Detrás de cada cuestionario bien diseñado se esconde la rigurosa ciencia de la psicometría, el campo dedicado al arte de la medición precisa. Conceptos como la fiabilidad y la validez son los pilares de cualquier instrumento de medición serio, ya sea una encuesta de satisfacción del cliente o un test de personalidad.

Este artículo desvela algunos de los secretos más sorprendentes y fascinantes sobre cómo se construyen estas escalas de medida. Descubrirás por qué la repetición puede ser una virtud, por qué la perfección a veces es sospechosa y por qué es posible estar equivocado de manera confiable.

Primer secreto: fiabilidad no es validez (y se puede estar fiablemente equivocado).

En el mundo de la medición, la fiabilidad y la validez son dos conceptos cruciales que a menudo se confunden. Sin embargo, comprender su diferencia es fundamental para entender por qué algunas encuestas funcionan y otras no.

  • La fiabilidad se refiere a la precisión o consistencia de una medida. Un instrumento fiable produce resultados muy similares cada vez que se utiliza en las mismas condiciones.
  • La validez es la exactitud de la medida. Un instrumento válido mide exactamente lo que se pretende medir. La validez va más allá de la simple exactitud, ya que se asegura de que las conclusiones que extraemos de los resultados de la encuesta estén justificadas y sean significativas.

La mejor manera de entenderlo es mediante la analogía de un tirador que apunta a una diana.

  • Fiabilidad sin validez: imagina a un tirador. Escuchas el sonido seco y repetitivo de los disparos impactando en la madera, agrupados en un área no mayor que una moneda, pero peligrosamente cerca del borde de la diana. El patrón es muy consistente (alta fiabilidad), pero erróneo sistemáticamente, ya que no da en el blanco (baja validez). Esto representa un error sistemático que nace de un defecto fundamental en el diseño del cuestionario, por ejemplo, preguntas mal redactadas o una escala de respuesta poco clara.
  • Validez con baja fiabilidad: ahora imagina a un tirador cuyos disparos están dispersos por toda la diana, pero cuya media se sitúa justo en el centro. No hay precisión en cada tiro (baja fiabilidad), pero, en conjunto, apuntan en la dirección correcta (alta validez). Esto representa errores aleatorios que pueden surgir de factores incontrolables, como distracciones, ruido ambiental o incluso el estado de ánimo temporal del encuestado.
Validez y fiabilidad (Morales, 2008)

La conclusión clave es que la validez es más importante que la fiabilidad. Como subrayan los expertos en la materia: «Un instrumento puede ser muy fiable (medir muy bien), pero no medir bien lo que se quería medir». De nada sirve medir algo con una precisión milimétrica si no es lo que realmente nos interesa.

Segundo secreto: ¿por qué las encuestas a veces parecen repetitivas?

Una de las quejas más comunes sobre los cuestionarios es que incluyen preguntas que parecen decir lo mismo de diferentes maneras. Lejos de ser un descuido, el uso de lo que los expertos denominan «ítems repetitivos» —expresar la misma idea de diversas formas— es una técnica deliberada y muy útil para garantizar la calidad de los datos. Esta «forma bidireccional de redactar los ítems» tiene dos ventajas principales:

  • Requiere mayor atención del sujeto: al presentar la misma idea con formulaciones distintas (a veces en positivo y otras en negativo), se evita que la persona responda de forma automática o sin pensar y se le obliga a procesar el significado de cada pregunta.
  • Permite comprobar la coherencia de las respuestas: sirve como control de calidad para detectar y mitigar dos de los sesgos más frecuentes al responder encuestas: la aquiescencia y el sesgo de confirmación.
    • Aquiescencia: tendencia a estar de acuerdo con todas las afirmaciones. Imagina a alguien que responde con prisas, marcando «Totalmente de acuerdo» a todo («Sí, el servicio fue excelente», «Sí, el producto es terrible»), con el único fin de terminar cuanto antes.
    • Deseabilidad social: tendencia a responder para proyectar una buena imagen. Este sesgo lo muestra la persona que, al ser preguntada por sus hábitos de reciclaje, se presenta como un ecologista modelo, aunque el contenido de su cubo de basura cuente una historia muy diferente.

Por lo tanto, la próxima vez que te encuentres con preguntas que te resulten familiares dentro de un mismo cuestionario, recuerda que no se trata de un error. Se trata de una herramienta diseñada para garantizar que tus respuestas sean más atentas, coherentes y, en última instancia, sinceras.

Tercer secreto: una fiabilidad «perfecta» puede ser una señal de alarma.

Intuitivamente, podríamos pensar que el objetivo de cualquier escala de medida es alcanzar la mayor fiabilidad posible. Sin embargo, en psicometría, una fiabilidad extremadamente alta puede ser una señal de alarma que indica un problema subyacente.

El coeficiente de fiabilidad más utilizado, el alfa de Cronbach, tiene una particularidad: su valor tiende a aumentar cuando se añaden más ítems a la escala. Esto crea la tentación de inflar artificialmente la fiabilidad simplemente alargando el cuestionario. Como advierte la literatura especializada: «No se debe buscar una fiabilidad alta aumentando sin más el número de ítems, sin pensar si realmente son válidos».

Un ejemplo hipotético ilustra perfectamente este peligro. Imaginemos que aplicamos un test a un grupo mixto compuesto por niñas de 10 años que hacen ballet y niños de 14 años que juegan al fútbol. Les preguntamos por su edad, su sexo y el deporte que practican. La fiabilidad estadística se dispara porque las preguntas son perfectamente consistentes a la hora de separar a los dos grupos. Si se pregunta sobre ballet, todas las niñas responden de una manera y todos los niños de otra. Si se pregunta sobre el fútbol, ocurre lo mismo. El algoritmo estadístico detecta esta consistencia impecable y reporta una fiabilidad altísima, sin comprender que el «rasgo» subyacente que se está midiendo es simplemente una mezcla de datos demográficos, no una característica psicológica coherente. A pesar de esa elevada fiabilidad, en realidad no estaríamos midiendo «nada interpretable».

Este ejemplo nos deja una lección fundamental que el texto fuente resume de manera brillante:

“En ningún caso la estadística sustituye al sentido común y al análisis lógico de nuestras acciones”.

Conclusión: la próxima vez que rellenes una encuesta…

Desde el dilema fundamental entre mediciones consistentes, pero erróneas (fiabilidad frente a validez), pasando por el uso deliberado de la repetición para burlar nuestros propios sesgos, hasta la idea contraintuitiva de que una puntuación «perfecta» puede indicar un resultado sin sentido, queda claro que elaborar una buena encuesta es un trabajo científico.

La próxima vez que te enfrentes a un cuestionario, en lugar de frustrarte por sus preguntas, ¿te detendrás a pensar qué rasgo están intentando medir y si realmente lo están logrando?

En este audio os dejo una conversación en torno a estas ideas.

Os dejo un vídeo que resume el contenido de este artículo.

Referencias:

Campbell, D. T., & Fiske, D. W. (1959). Convergent and discriminant validation by the multitrait–multimethod matrix. Psychological Bulletin, 56(2), 81–105. https://doi.org/10.1037/h0046016

Dunn, T. J., Baguley, T., & Brunsden, V. (2014). From alpha to omega: A practical solution to the pervasive problem of internal consistency estimation. British Journal of Psychology, 105, 399–412. https://doi.org/10.1111/bjop.12046

Farrell, A. M. (2010). Insufficient discriminant validity: A comment on Bove, Pervan, Beatty and Shiu (2009). Journal of Business Research, 63, 324–327. https://ssrn.com/abstract=3466257

Fornell, C., & Larcker, D. F. (1981). Evaluating structural equation models with unobservable variables and measurement error. Journal of Marketing Research, 18(1), 39–50. https://doi.org/10.1177/002224378101800104

Frías-Navarro, D. (2019). Apuntes de consistencia interna de las puntuaciones de un instrumento de medida. Universidad de Valencia. https://www.uv.es/friasnav/AlfaCronbach.pdf

Grande, I., & Abascal, E. (2009). Fundamentos y técnicas de investigación comercial. Madrid: ESIC.

Hernández, B. (2001). Técnicas estadísticas de investigación social. Madrid: Díaz de Santos.

Hair, J. F., Anderson, R. E., Tatham, R. L., & Black, W. C. (1995). Multivariate data analysis (Eds.). New York: Prentice Hall International, Inc.

Kotler, P., & Armstrong, G. (2001). Marketing. México: Pearson Prentice Hall.

Matas, A. (2018). Diseño del formato de escalas tipo Likert: un estado de la cuestión. Revista Electrónica de Investigación Educativa, 20(1), 38–47. http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1607-40412018000100038

Morales, P. (2006). Medición de actitudes en psicología y educación. Madrid: Universidad Pontificia de Comillas.

Morales, P. (2008). Estadística aplicada a las ciencias sociales. Madrid: Universidad Pontificia Comillas.

Nadler, J., Weston, R., & Voyles, E. (2015). Stuck in the middle: The use and interpretation of mid-points in items on questionnaires. The Journal of General Psychology, 142(2), 71–89. https://doi.org/10.1080/00221309.2014.994590

Nunnally, J. C. (1978). Psychometric theory. New York: McGraw-Hill.

Schmitt, N. (1996). Uses and abuses of coefficient alpha. Psychological Assessment, 8(4), 350–353. http://ist-socrates.berkeley.edu/~maccoun/PP279_Schmitt.pdf

Prats, P. (2005). Métodos para medir la satisfacción del cliente. Madrid: AENOR Ediciones.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

5 lecciones sorprendentes de ingeniería avanzada para construir puentes más sostenibles y económicos

Cuando pensamos en la construcción de grandes infraestructuras, como los puentes, a menudo nos viene a la mente una imagen de fuerza bruta: toneladas de hormigón y acero ensambladas con una precisión monumental. Se trata de una proeza de la ingeniería física, un testimonio de la capacidad humana para dominar los materiales y la geografía.

Sin embargo, detrás de esta fachada de poderío industrial se está produciendo una revolución silenciosa. La inteligencia artificial y los modelos computacionales avanzados, que pueden ejecutar el equivalente a décadas de diseño y pruebas de ingeniería en cuestión de horas, están redefiniendo las reglas del juego. Lejos de ser un mero ejercicio teórico, estas herramientas permiten a los ingenieros diseñar puentes que son no solo más resistentes, sino también sorprendentemente más económicos y respetuosos con el medio ambiente.

Las lecciones que siguen se basan en los hallazgos de una tesis doctoral, defendida por la profesora Lorena Yepes Bellver, innovadora en la optimización de puentes. La tesis obtuvo la máxima calificación de sobresaliente «cum laude». Las lecciones demuestran que el futuro de la construcción no radica únicamente en nuevos materiales milagrosos, sino en la aplicación de una inteligencia que permita usar los ya existentes de una forma mucho más eficiente.

De izquierda a derecha: Julián Alcalá, Salvador Ivorra, Lorena Yepes, Tatiana García y Antonio Tomás.

1. El pequeño coste de un gran impacto ecológico: pagar un 1 % más para emitir un 2 % menos de CO₂.

Uno de los principales obstáculos para la adopción de prácticas sostenibles ha sido siempre la creencia de que «ser verde» es significativamente más caro. Sin embargo, la investigación en optimización de puentes revela una realidad mucho más alentadora. Gracias a los diseños perfeccionados mediante metamodelos, es posible conseguir reducciones considerables de la huella de carbono con un impacto económico mínimo.

El dato clave del estudio es contundente: «Un modesto aumento de los costes de construcción (menos del 1 %) puede reducir sustancialmente las emisiones de CO₂ (más del 2 %)». Este hallazgo demuestra que la sostenibilidad no tiene por qué ser un lujo, sino el resultado de una ingeniería más inteligente.

 

«Esto demuestra que el diseño de puentes sostenibles puede ser económicamente viable».

Esta lección es fundamental, ya que pone fin a una falsa dicotomía entre economía y ecología. Demuestra que no es necesario elegir entre un puente asequible y uno respetuoso con el medio ambiente. Gracias a las decisiones de diseño inteligentes, guiadas por la optimización avanzada, es posible alcanzar ambos objetivos de forma simultánea, de modo que la sostenibilidad se convierte en una ventaja competitiva y no en una carga.

2. La paradoja de los materiales: añadir más componentes para reducir el consumo global.

La lógica convencional nos diría que, para construir de forma más sostenible, el objetivo debería ser reducir la cantidad total de materiales utilizados. Menos hormigón, menos acero, menos de todo. Sin embargo, uno de los hallazgos más sorprendentes de la tesis es una paradoja que desafía esta idea tan simple.

El diseño óptimo y más sostenible aumenta, de hecho, la cantidad de uno de sus componentes: la armadura pasiva (el acero de refuerzo convencional). A primera vista, esto parece contradictorio: ¿cómo puede ser más ecológico añadir más material?

La explicación reside en un enfoque sistémico. Este aumento estratégico y calculado del refuerzo pasivo permite reducir considerablemente el consumo de otros dos materiales clave: el hormigón y la armadura activa (el acero de pretensado). La producción de estos materiales, especialmente la del cemento y el acero de alta resistencia, es intensiva en energía y, por tanto, genera muchas emisiones de CO₂. En esencia, se sacrifica una pequeña cantidad de un material de menor impacto para ahorrar una cantidad mucho mayor de materiales de alto impacto.

Este enfoque, que podría describirse como «sacrificar una pieza para ganar el juego», es un ejemplo perfecto de cómo la optimización avanzada supera las reglas simplistas de reducción. En lugar de aplicar un recorte general, se analiza el sistema en su conjunto y se encuentra el equilibrio más eficiente. Este equilibrio inteligente de materiales solo es posible si se afina otro factor clave: la geometría misma de la estructura.

Retos en la optimización de puentes con metamodelos

3. Más esbelto es mejor: el secreto de la «delgadez» estructural para la sostenibilidad.

En el mundo de la ingeniería de puentes, el concepto de «esbeltez» es fundamental. En términos sencillos, se refiere a la relación entre el canto de la losa y la luz que debe cubrir. Una mayor esbeltez implica un diseño estructural, en palabras comunes, más «delgado» o «fino».

La investigación revela un hallazgo crucial: los diseños que son óptimos tanto en términos de emisiones de CO₂ como de energía incorporada se logran con relaciones de esbeltez altas, concretamente de entre 1/30 y 1/28. En otras palabras, los puentes más sostenibles son también los más delgados y se complementan con hormigones óptimos situados entre 35 y 40 MPa de resistencia característica.

¿Por qué es esto tan beneficioso? Un diseño más esbelto requiere inherentemente una menor cantidad de materiales, principalmente hormigón. Lo realmente notable es cómo se consigue. Los métodos tradicionales suelen basarse en reglas generales y márgenes de seguridad amplios, mientras que la optimización computacional permite a los ingenieros explorar miles, e incluso millones, de variaciones para acercarse al límite físico de la eficiencia sin sacrificar la seguridad. El resultado es una elegancia estructural casi contraintuitiva: puentes que alcanzan su fuerza no a través de la masa bruta, sino de una delgadez inteligentemente calculada, donde la sostenibilidad es una consecuencia natural de la eficiencia.

4. La optimización inteligente genera ahorros reales: reducción de costes de hasta un 6,5 %.

Más allá de los beneficios medioambientales, la aplicación de estas técnicas de optimización tiene un impacto económico directo y medible. El diseño de infraestructuras deja de ser un arte basado únicamente en la experiencia para convertirse en una ciencia precisa que busca la máxima eficiencia económica.

El resultado principal del estudio sobre la optimización de costes es claro: el uso de modelos sustitutos (metamodelos Kriging) guiados por algoritmos heurísticos, como el recocido simulado, logró una reducción de costes del 6,54 % en comparación con un diseño de referencia.

Estos ahorros no son teóricos, sino que provienen directamente de la reducción de materiales. En concreto, se consiguió una disminución del 14,8 % en el uso de hormigón y del 11,25 % en el acero activo (pretensado). Es crucial destacar que estas reducciones se consiguieron sin afectar a la integridad estructural ni a la capacidad de servicio del puente. No se trata de sacrificar calidad por precio, sino de diseñar de manera más inteligente. Esta metodología convierte la optimización del diseño de una tarea académica en una herramienta práctica y altamente eficaz para la gestión económica de grandes proyectos de ingeniería civil.

5. No todos los cerebros artificiales piensan igual; la clave está en elegir el modelo computacional adecuado.

Una de las lecciones más importantes de esta investigación es que no basta con aplicar «inteligencia artificial» de forma genérica. El éxito de la optimización depende de elegir la herramienta computacional correcta para cada tarea específica.

La tesis comparó dos potentes metamodelos: las redes neuronales artificiales (RNA) y los modelos Kriging. Se descubrió una diferencia crucial en su rendimiento: si bien las RNA ofrecían predicciones absolutas más precisas sobre el comportamiento de un diseño concreto, el modelo Kriging demostró ser mucho más eficaz a la hora de identificar los «óptimos locales», es decir, las zonas del mapa de diseño donde se encontraban las mejores soluciones.

Esto revela una capa más profunda de la optimización inteligente. Un modelo puede ser excelente para predecir un resultado (RNA), mientras que otro es más eficaz para guiar la búsqueda del mejor resultado posible (Kriging). No se trata solo de utilizar IA, sino de comprender qué «tipo de pensamiento» artificial es el más adecuado para cada fase del problema: predecir frente a optimizar. La verdadera maestría de la ingeniería moderna consiste en saber elegir las herramientas adecuadas para cada fase del problema.

Conclusión: la nueva frontera del diseño de infraestructuras.

La construcción de nuestras infraestructuras entra en una nueva era. La combinación de la ingeniería estructural clásica con el poder de los modelos computacionales avanzados, como el metamodelado Kriging y las redes neuronales artificiales, está abriendo una nueva frontera en la que la eficiencia y la sostenibilidad no son objetivos opcionales, sino resultados intrínsecos de un buen diseño.

Como hemos visto, los grandes avances no siempre provienen de materiales revolucionarios. A menudo, los «secretos» mejor guardados residen en la optimización inteligente de los diseños y materiales que ya conocemos. Obtener un mayor beneficio ecológico pagando menos, utilizar estratégicamente más de un material para reducir el consumo global o diseñar estructuras más esbeltas y elegantes son lecciones que van más allá de la construcción de puentes.

Nos dejan con una pregunta final que invita a la reflexión: si podemos lograr esto con los puentes, ¿qué otras áreas de la construcción y la industria están esperando a ser reinventadas por el poder de la optimización inteligente?

Os dejo un audio donde se discuten las ideas de la tesis doctoral. Espero que os guste.

Y en este vídeo, tenemos resumidas las ideas principales de esta tesis.

Referencias:

YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Predictive modeling for carbon footprint optimization of prestressed road flyovers. Applied Sciences15(17), 9591. DOI:10.3390/app15179591

VILLALBA, P.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2025). A Hybrid Fuzzy DEMATEL–DANP–TOPSIS Framework for Life Cycle-Based Sustainable Retrofit Decision-Making in Seismic RC Structures. Mathematics, 13(16), 2649. DOI:10.3390/math13162649

ZHOU, Z.; WANG, Y.J.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Intelligent monitoring of loess landslides and research on multi-factor coupling damage. Geomechanics for Energy and the Environment, 42:100692. DOI:10.1016/j.gete.2025.100692

ZHOU, Z.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Study on the failure mechanism of deep foundation pit of high-rise building: comprehensive test and microstructure coupling. Buildings, 15(8), 1270. DOI:10.3390/buildings15081270

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

BLIGHT, T.; MARTÍNEZ-PAGÁN, P.; ROSCHIER, L.; BOULET, D.; YEPES-BELLVER, L.; YEPES, V. (2025). Innovative approach of nomography application into an engineering educational context. Plos One, 20(2): e0315426. DOI:10.1371/journal.pone.0315426

NAVARRO, I.J.; VILLALBA, I.; YEPES-BELLVER, L.; ALCALÁ, J. Social Life Cycle Assessment of Railway Track Substructure AlternativesJ. Clean. Prod. 2024450, 142008.

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2024). Artificial neural network and Kriging surrogate model for embodied energy optimization of prestressed slab bridges. Sustainability, 16(19), 8450. DOI:10.3390/su16198450

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2023). Embodied energy optimization of prestressed concrete road flyovers by a two-phase Kriging surrogate model. Materials16(20); 6767. DOI:10.3390/ma16206767

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2022). CO₂-optimization of post-tensioned concrete slab-bridge decks using surrogate modeling. Materials, 15(14):4776. DOI:10.3390/ma15144776

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.;

Primer aniversario de la DANA de Valencia: Anatomía de un desastre

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

Hoy, 29 de octubre de 2025, se cumple el primer aniversario de la DANA de Valencia de 2024, un evento que ha sido catalogado como una de las mayores catástrofes naturales ocurridas en España en décadas. La tragedia se produjo por unas precipitaciones históricas que pulverizaron récords nacionales, con máximos de más de 770 l/m² acumulados en 24 horas en Turís, lo que demuestra que el riesgo cero no existe en un contexto de cambio climático. El desastre no se explica únicamente por la cantidad de lluvia caída, sino por la trágica multiplicación entre el evento extremo, sobrealimentado por el calentamiento global, y el fallo estructural de un urbanismo que, durante décadas, ha ignorado las zonas de riesgo. Aunque la respuesta inmediata y los esfuerzos por restablecer las infraestructuras críticas han sido notables, la ingeniería de la reconstrucción no puede limitarse a reponer lo perdido, ya que replicar el estado previo implica aceptar que los efectos se repetirán. En este contexto, un medio de comunicación me ha solicitado una entrevista para abordar si, un año después, hemos avanzado hacia las soluciones de resiliencia y prevención que el conocimiento técnico lleva tiempo demandando. Os dejo la entrevista completa, por si os resulta de interés.

¿Cómo describiría desde un punto de vista técnico lo que ocurrió el 29 de octubre en Valencia? ¿Qué falló?

Desde el punto de vista técnico e ingenieril, el suceso del 29 de octubre en Valencia fue un evento de inundación extremo provocado por una DANA con un carácter pluviométrico extraordinario, ya que se registraron cifras extremas, como los 771,8 l/m² en 24 horas en Turís, y caudales en la Rambla del Poyo de hasta 2.283 m³/s antes de que los sensores fueran arrastrados, superando con creces cualquier expectativa de diseño y demostrando que el riesgo cero no existe. La magnitud del impacto fue consecuencia de una serie de factores concurrentes. El factor principal se produjo en la cuenca de la Rambla del Poyo, donde la virulencia del agua (con caudales medidos superiores a 2.200 m³/s y estimaciones simuladas que superan los 3.500 m³/s) se encontró con la ausencia de infraestructuras hidráulicas suficientes para la laminación de avenidas y otras medidas complementarias. Los proyectos de defensa contra inundaciones, que llevaban años planificados y con estudios previos, no se ejecutaron a tiempo. En contraste, el Nuevo Cauce del Turia y las presas de Forata y Buseo funcionaron eficazmente, protegiendo la ciudad de Valencia y otras poblaciones. Además de estas vulnerabilidades latentes, el impacto humano y material se vio agravado por desafíos en la respuesta, incluyendo la efectividad en los sistemas de alerta temprana (SAIH) bajo condiciones tan extremas y en la implantación de los planes de emergencia municipales, así como en la emisión de avisos con suficiente antelación a la población, impidiendo que esta pudiera reaccionar a tiempo.

¿Qué papel jugaron las infraestructuras y la planificación urbana en la magnitud de los daños? ¿Hubo zonas especialmente vulnerables o mal planificadas?

Las infraestructuras y la planificación urbana jugaron un papel determinante en la magnitud de los daños. Por un lado, las obras estructurales, como el Nuevo Cauce del Turia y las presas de Forata y Buseo, resultaron fundamentales, mitigando las inundaciones y protegiendo la ciudad de Valencia y otras poblaciones. Sin embargo, la magnitud de los daños se vio agravada por la ausencia de medidas integrales de defensa diseñadas para la laminación de avenidas, especialmente en la cuenca de la Rambla del Poyo, donde los proyectos planificados no se ejecutaron a tiempo. Los caudales extraordinarios superaron con creces la capacidad existente. Además, las infraestructuras lineales (carreteras, ferrocarriles y puentes) actuaron como puntos de estrangulamiento, reteniendo arrastres y aumentando el nivel de destrucción. Las zonas más vulnerables se concentraron en el cono aluvial de L’Horta Sud, una zona de alto riesgo urbanizada principalmente entre la riada de 1957 y la década de 1970, sin planificación adecuada ni infraestructuras de saneamiento suficientes. La falta de unidad de criterio en la ordenación territorial municipal y la prevalencia de intereses de desarrollo sobre las directrices de restricción de usos en zonas inundables (a pesar de instrumentos como el PATRICOVA) aumentaron la vulnerabilidad social y material del territorio. Aunque algunos hablan de emergencia hidrológica, probablemente sea más adecuado hablar de un profundo desafío urbanístico y de ordenación territorial.

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

Desde entonces, ¿qué medidas reales se han tomado —si las hay— para reducir el riesgo de que vuelva a suceder algo similar?

Desde la DANA de octubre de 2024, las medidas adoptadas se han enfocado en la reconstrucción con criterios de resiliencia y atención a urgencias, aunque las soluciones estructurales de gran calado, que requieren plazos de ejecución más largos, siguen mayormente pendientes. En la fase inmediata, se activaron obras de emergencia, destacando la reparación y refuerzo de infraestructuras críticas como las presas de Forata y Buseo, y la recuperación de cauces y del canal Júcar-Turia. Un ejemplo de reconstrucción en curso es la mejora de la red de drenaje de Paiporta, que forma parte de las primeras actuaciones tras la catástrofe. En el ámbito normativo, el Consell aprobó el Decreto-ley 20/2024 de medidas urbanísticas urgentes y se ha puesto sobre la mesa la revisión de normativas como el Código Técnico de la Edificación (CTE) para incluir requisitos para edificaciones en zonas inundables. También se prevé que los sistemas de comunicación y alerta estén coordinados en todas las cuencas mediterráneas, lo que podría evitar muertes en caso de repetirse el fenómeno. Sin embargo, es un hecho que, meses después, la legislación urbanística de fondo sigue sin cambios estructurales y que, en cuanto a las obras hidráulicas estructurales de prevención, como las presas de laminación, sus plazos de tramitación y ejecución impiden que se hayan materializado avances significativos todavía, dificultando el avance de proyectos críticos. Por tanto, existe una etapa de reconstrucción que debería ser inteligente y no dejar las infraestructuras como estaban antes de la DANA, pues eso implicaría asumir los mismos riesgos, y otra a medio y largo plazo que permita defender a la población, minimizando los riesgos.

¿Qué actuaciones considera urgentes o prioritarias para evitar repetir los errores del pasado?

Para evitar repetir los errores del pasado, es necesario un cambio de modelo que combine inversión estructural urgente con planificación territorial resiliente. En ingeniería hidráulica, la acción prioritaria es acelerar e implementar las obras de laminación contempladas en la planificación hidrológica, como la construcción de presas en las cuencas de la Rambla del Poyo y el río Magro, y destinar recursos extraordinarios para construir las estructuras de prevención necesarias y corregir el déficit de infraestructuras de prevención. También es prioritario eliminar obstáculos urbanísticos, como puentes y terraplenes insuficientes, y reconstruir infraestructuras lineales con criterios resilientes, permitiendo el paso seguro del agua. En urbanismo, la enseñanza principal es devolverle el espacio al agua, retirando estratégicamente infraestructuras de las zonas de flujo preferente para reducir la exposición al riesgo más elevado e iniciando un plan a largo plazo para reubicar infraestructuras críticas y viviendas vulnerables. Se recomienda revisar la normativa sobre garajes subterráneos en llanuras de inundación. Asimismo, es esencial invertir en sistemas de alerta hidrológica robustos, con más sensores y modelos predictivos que traduzcan la predicción en avisos concretos y accionables. Por último, es fundamental que la gobernanza supere la inercia burocrática mediante un modelo de ejecución de urgencia que priorice el conocimiento técnico y garantice que el riesgo no se convierta de nuevo en catástrofe humana.

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

¿Hasta qué punto Valencia está preparada para afrontar lluvias torrenciales o fenómenos extremos de este tipo en el futuro?

Desde una perspectiva técnica e ingenieril, a día de hoy, la vulnerabilidad de fondo persiste y no estamos preparados para afrontar una nueva DANA de la magnitud de la ocurrida en 2024. La situación es similar a la de una familia que circula en coche por la autopista a 120 km/h sin cinturones de seguridad: bastaría un obstáculo inesperado (una DANA) para que el accidente fuera mortal. Aceptar la reposición de lo perdido sin añadir nuevas medidas de protección estructural implicaría aceptar que los efectos del desastre se repetirán, algo inasumible. El problema principal es que prácticamente no se han ejecutado las grandes obras de laminación planificadas, especialmente en las cuencas de la Rambla del Poyo y del Magro, que constituyen la medida más eficaz para proteger zonas densamente pobladas mediante contención en cabecera. La DANA expuso un problema urbanístico severo. Meses después, mientras no se modifique la legislación territorial de fondo y se actúe sobre el territorio, el riesgo latente de la mala planificación persiste ante el próximo fenómeno extremo. La única forma de eliminar esta vulnerabilidad es mediante una acción integral que combine inversión urgente en obras estructurales con retirada estratégica de zonas de flujo preferente.

Os dejo un pequeño vídeo didáctico donde se resume lo acontecido en la DANA del 29 de octubre de 2024.

En las noticias de hoy, aparezco en varios reportajes:

En el Telediario de TVE, en horario de máxima audiencia, a las 21:00 h, se hizo un programa especial sobre la DANA donde tuve la ocasión de participar. Os dejo un trozo del vídeo.

 

Reconstruir Valencia un año después: “cirugía urbana” y zonas verdes para protegerse de futuras danas

Un año después de la DANA del 29-O, los expertos advierten: “Podría volver a pasar”

Valencia: expertos advierten que la región aún no está preparada para afrontar otro episodio climático extremo

Valencia se blinda frente al agua: garajes elevados e ingeniería verde tras la DANA

One year after Valencia’s deadly flooding experts warn ‘it could happen again’

Një vit pas përmbytjeve vdekjeprurëse në Valencia, ekspertët paralajmërojnë se ‘mund të ndodhë përsëri’

Egy évvel a valenciai árvíz után a szakértők figyelmeztetnek: “Ez újra megtörténhet”

Egy évvel a spanyol árvizek után: Tanulságok és kihívások a Valenciai Közösség számára

 

También os dejo los artículos que he ido escribiendo sobre este tema en este blog. Espero que os resulten de interés.

Lo que la catástrofe de Valencia nos obliga a repensar: cuatro lecciones. 30 de septiembre de 2025.

Resiliencia en las infraestructuras: cómo prepararnos para un futuro de incertidumbre. 26 de septiembre de 2025.

Iniciativa Legislativa Popular para la Modificación de la Ley de Aguas. 17 de julio de 2025.

Posibles consecuencias de una nueva DANA en el otoño de 2025. 16 de julio de 2025.

Discurso de apertura en el evento Innotransfer “Infraestructuras resilientes frente a eventos climáticos extremos”. 26 de mayo de 2025.

Ya son 6 meses desde el desastre de la DANA en Valencia. 29 de abril de 2025.

Jornada sobre infraestructuras resilientes al clima. 8 de abril de 2025.

Entrevista en Levante-EMV sobre la reconstrucción tras la DANA. 17 de marzo de 2025.

La ingeniería de la reconstrucción. 6 de marzo de 2025.

Lecciones aprendidas: proteger a la población es la prioridad. 25 de diciembre de 2024.

DANA 2024. Causas, consecuencias y soluciones. 3 de diciembre de 2024.

Qué es una presa. “La via verda”, À Punt. 28 de noviembre de 2024.

Aplicación del modelo del queso suizo en la gestión de desastres. 10 de noviembre de 2024.

Gestión del riesgo de inundación en infraestructuras críticas: estrategias y medidas de resiliencia. 8 de noviembre de 2024.

Presas y control de inundaciones: estrategias integradas para la reducción de riesgos hídricos. 7 de noviembre de 2024.

Defensa integral contra inundaciones: un esbozo de las estrategias para la gestión de riesgos. 6 de noviembre de 2024.

Introducción a las crecidas en ingeniería hidráulica. 5 de noviembre de 2024.

Precipitación en ingeniería hidráulica: conceptos, medición y análisis. 4 de noviembre de 2024.

Efectos de las inundaciones en las estructuras de las edificaciones. 2 de noviembre de 2024.

Valencia frente a la amenaza de una nueva inundación: análisis, antecedentes y estrategias para mitigar el riesgo. 1 de noviembre de 2024.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Lo que los puentes nos enseñan sobre el futuro de la sostenibilidad.

Puente de Brooklyn. https://www.nuevayork.net/puente-brooklyn

Cuando pensamos en un puente, solemos verlo como una maravilla de la ingeniería, un símbolo de conexión y progreso. Es una estructura que nos lleva de un punto a otro, superando un obstáculo. Sin embargo, detrás de esa aparente simplicidad se esconde un desafío monumental: construir un puente que no solo sea funcional y seguro, sino también sostenible.

Esta tarea es mucho más compleja de lo que parece. La sostenibilidad en ingeniería no se reduce a marcar una casilla, sino que implica un complejo proceso de toma de decisiones para conciliar los objetivos a menudo contrapuestos de la economía, el medio ambiente y la sociedad. Esta complejidad es el tema central de un profundo estudio académico titulado A Review of Multi-Criteria Decision-Making Methods Applied to the Sustainable Bridge Design, que analiza 77 artículos de investigación publicados a lo largo de 25 años para comprender cómo toman los expertos estas decisiones cruciales.

Este artículo recoge las lecciones más impactantes y, en ocasiones, sorprendentes, de esa exhaustiva investigación. En él descubriremos qué aspectos dominan el debate sobre los puentes sostenibles, qué puntos ciegos persisten y cómo están evolucionando las herramientas para diseñar las infraestructuras del futuro.

Las 5 lecciones más sorprendentes sobre los puentes sostenibles.

El análisis de décadas de investigación revela patrones inesperados y desafíos ocultos en la búsqueda de la infraestructura perfecta. A continuación, exploramos los cinco hallazgos más sorprendentes.

Ecoducto en la Autopista A6 Austria-Eslovaquia. https://blogs.upm.es/puma/2019/01/14/ecoductos-puentes-verdes-para-la-fauna/

Lección 1: «Sostenible» no solo significa «ecológico», sino que es un delicado equilibrio a tres bandas.

La palabra «sostenible» a menudo se asocia exclusivamente con el medio ambiente. Sin embargo, el estudio subraya que la verdadera sostenibilidad se apoya en tres pilares fundamentales: los factores económicos (coste y mantenimiento), los ambientales (emisiones de CO₂ e impacto en el ecosistema) y los sociales (seguridad, impacto en la comunidad y estética).

Estos tres pilares suelen tener objetivos contrapuestos. Un material más barato puede tener un mayor impacto ambiental. Un diseño que minimice las molestias a la comunidad podría ser mucho más costoso. Lograr un consenso entre ellos es un acto de equilibrio complejo. Curiosamente, el estudio revela que los factores sociales son los menos estudiados y comprendidos de los tres. Esta brecha de conocimiento no es solo una curiosidad académica, sino una de las barreras más significativas que nos impiden conseguir infraestructuras que sirvan de verdad a la sociedad a largo plazo.

Lección 2: Nos obsesiona cómo viven los puentes, pero ignoramos cómo mueren.

El ciclo de vida de un puente abarca desde su diseño y construcción hasta su demolición o reciclaje final. El estudio presenta una estadística demoledora sobre en qué fase del ciclo de vida se centra la atención de los investigadores. De los 77 artículos analizados, un abrumador 68,83 % se centra en la fase de «operación y mantenimiento».

En un drástico contraste, solo un minúsculo 2,6 % de los estudios se dedica a la fase final de «demolición o reciclaje». Esta enorme diferencia pone de manifiesto una importante laguna. La investigación sugiere que esto podría deberse a que la fase final se percibe como de «menor impacto general». Sin embargo, a medida que la sostenibilidad se convierte en una preocupación primordial, esta suposición se está poniendo en tela de juicio, lo que nos obliga a considerar el impacto completo de nuestra infraestructura, desde su concepción hasta su eliminación.

Lección 3: La ingeniería de vanguardia a veces necesita lógica «difusa»

Dado que la investigación está tan fuertemente sesgada hacia la fase de mantenimiento, es lógico que las herramientas más populares sean las que mejor se adaptan a sus desafíos únicos. Esto nos lleva a una paradoja fascinante en la ingeniería: en un campo tan preciso, podría parecer contradictorio utilizar un método llamado «lógica difusa» (fuzzy logic). Sin embargo, el estudio la identifica como una de las herramientas más populares, ¿la razón? Muchas decisiones críticas se basan en información cualitativa, incierta o subjetiva.

https://www.linkedin.com/pulse/l%C3%B3gica-difusa-gabriel-mar%C3%ADn-d%C3%ADaz/

Una inspección visual para evaluar el estado de una estructura, por ejemplo, no proporciona un número exacto, sino una apreciación experta que puede contener vaguedad («ligero deterioro», «corrosión moderada»). La lógica difusa permite a los sistemas informáticos procesar esta «incertidumbre o vaguedad» del lenguaje humano y convertirla en datos matemáticos para tomar decisiones más sólidas. Es una fascinante paradoja: utilizar un concepto que suena impreciso para tomar decisiones de ingeniería de alta tecnología con mayor fiabilidad.

Lección 4: Las herramientas que usamos para decidir no son infalibles.

Para tomar decisiones tan complejas, los ingenieros utilizan «métodos de decisión multicriterio» (MCDM). Sin embargo, el estudio advierte de que los métodos tradicionales tienen importantes limitaciones. Imagínese que tiene que elegir un nuevo material para un puente. Esa única elección afecta simultáneamente al coste final, a la durabilidad de la estructura y a su huella de carbono. Estos factores están profundamente interconectados. No obstante, una limitación significativa de las herramientas tradicionales de toma de decisiones es que suelen partir de la poco realista suposición de que estos criterios son independientes entre sí. Ignorar estas interdependencias puede llevar a soluciones subóptimas.

Los métodos tradicionales de toma de decisiones suelen partir de supuestos poco realistas en relación con los problemas del mundo real, como la independencia de los criterios, la agregación lineal o la elección de la mejor alternativa entre un conjunto fijo en lugar de la alternativa que permita alcanzar los niveles de aspiración deseados.

Lección 5: el futuro no consiste en elegir la «mejor» opción, sino en alcanzar la «meta» deseada.

Este último punto supone un cambio de paradigma. Los métodos de decisión tradicionales funcionan como un concurso: se presenta una lista fija de alternativas (puente de acero, de hormigón o mixto) y el método las clasifica para seleccionar la «mejor».

Sin embargo, los nuevos métodos híbridos que están surgiendo proponen un enfoque diferente. En lugar de elegir simplemente una opción de una lista, buscan soluciones que alcancen «niveles de aspiración» o metas predefinidas. Por ejemplo, el objetivo podría ser diseñar un puente que no supere un coste X, no genere más de Y toneladas de CO₂ y tenga una vida útil de Z años. Este cambio de un modelo de «el mejor de la clase» a otro de «cumplir el objetivo» transforma fundamentalmente el desafío de la ingeniería. Transforma la tarea de seleccionar de un catálogo de opciones en inventar activamente nuevas soluciones que puedan satisfacer múltiples objetivos de sostenibilidad, a menudo contradictorios.

Conclusión: un puente hacia el futuro.

El viaje hacia la construcción de puentes verdaderamente sostenibles nos enseña que la ingeniería moderna es mucho más que cálculos y materiales. Se trata de un proceso de toma de decisiones dinámico, lleno de matices, compensaciones y una profunda reflexión sobre el impacto a largo plazo de nuestras creaciones. No se trata de seguir una simple lista de verificación «verde», sino de navegar por una compleja red de factores económicos, sociales y medioambientales en constante tensión.

El camino a seguir, iluminado por esta investigación, está claro. Debemos ampliar nuestra definición de sostenibilidad más allá de lo puramente ecológico para valorar adecuadamente el impacto social. Debemos diseñar para la demolición con la misma seriedad con la que diseñamos para la durabilidad. Además, debemos adoptar herramientas nuevas y más sofisticadas que reflejen la realidad interconectada de estas complejas decisiones. La próxima vez que cruces un puente, ¿solo verás una estructura de acero y hormigón o el resultado de un complejo debate entre economía, sociedad y medio ambiente?

Os dejo este audio donde podéis aprender más sobre el tema.

En este vídeo se resumen las ideas más interesantes de este artículo.

Referencia:

PENADÉS-PLÀ, V.; GARCÍA-SEGURA, T.; MARTÍ, J.V.; YEPES, V. (2016). A review of multi-criteria decision making methods applied to the sustainable bridge design. Sustainability, 8(12):1295

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Construcción sostenible: por qué nuestra intuición nos falla.

En un mundo cada vez más consciente de la emergencia climática, la construcción sostenible ha dejado de ser una opción para convertirse en una necesidad. Arquitectos, ingenieros y promotores buscan constantemente el método constructivo «perfecto»: aquel que sea económico, ecológico y socialmente responsable. Sin embargo, ¿qué pasaría si nuestras ideas más arraigadas sobre lo que es «mejor» estuvieran equivocadas?

Un detallado estudio científico realizado por nuestro grupo de investigación, dentro del proyecto RESILIFE, ha puesto a prueba nuestras creencias. En él, los investigadores compararon de forma exhaustiva cuatro métodos de construcción para una vivienda unifamiliar: uno tradicional y tres alternativas industrializadas que prometen mayor eficiencia y sostenibilidad. Sus conclusiones no solo son sorprendentes, sino que también revelan por qué nuestra intuición sobre la construcción sostenible a menudo falla. Este artículo desvela los hallazgos que nos obligan a replantearnos qué significa realmente construir de forma sostenible.

Vivienda unifamiliar adosada analizada.

Intuición fallida n.º 1: la búsqueda de un «campeón» absoluto.

La primera gran revelación del estudio es que no existe una solución mágica que destaque en todas las categorías. Nuestra intuición busca un único «campeón» de la sostenibilidad, pero la realidad es un complejo juego de equilibrios. Cada método constructivo destacó en una dimensión diferente, lo que demuestra que la opción ideal depende de las prioridades del proyecto.

El estudio identificó un ganador claro para cada una de las tres dimensiones:

  • Dimensión económica: la alternativa «PRE» (losa de hormigón aligerada con discos huecos) fue la más económica. Su ventaja radica en su alta eficiencia estructural, ya que requiere «la mitad de material para las mismas solicitaciones estructurales» en comparación con la losa convencional.
  • Dimensión medioambiental: la alternativa «YTN» (prefabricada con hormigón celular autoclavado) obtuvo el mejor rendimiento ecológico. Esto se debe a que es un «material 100 % mineral» que necesita poca materia prima (1 m³ de materia prima produce 5 m³ de producto) y tiene un «bajo consumo de energía en su fabricación».
  • Dimensión social: la alternativa «ELE» (elementos de doble pared) fue la óptima desde una perspectiva social, impulsada en gran medida por un mayor confort de usuario, gracias a su excepcional rendimiento térmico, derivado de la gruesa capa de EPS utilizada como encofrado perdido.

Este hallazgo es fundamental. La sostenibilidad real no consiste en maximizar una única métrica, como la reducción de CO₂, sino en encontrar un equilibrio inteligente entre factores que, a menudo, están en conflicto.

Intuición fallida n.º 2: asumir que lo más «verde» es siempre lo mejor.

Podríamos pensar que la opción con menor impacto medioambiental (YTN) sería automáticamente la más sostenible, pero no es así. Sin embargo, el estudio demuestra que no es tan simple. Al combinar todos los factores en un «Índice Global de Sostenibilidad Estructural» (GSSI), la alternativa ganadora fue la «PRE» (losa aligerada).

¿Por qué ganó? La razón es el equilibrio. Aunque no fue la mejor en los ámbitos medioambiental y social, la alternativa PRE ofreció un excelente rendimiento económico y resultados muy sólidos en las otras dos áreas. El estudio la selecciona como la opción más sostenible porque, en sus palabras, presenta las respuestas más equilibradas a los criterios. Esta conclusión subraya una idea crucial: la solución más sostenible no es un extremo, sino un compromiso inteligente y equilibrado.

Los métodos «modernos» no son infalibles: sorpresas en los costes.

El estudio desveló dos realidades incómodas sobre los costes, tanto económicos como medioambientales, de algunas de las alternativas más innovadoras y puso en tela de juicio la idea de que «moderno» siempre significa «mejor».

En primer lugar, el método prefabricado (YTN), que a menudo se asocia con la eficiencia y el ahorro, resultó ser el más caro de todos. Su coste de construcción fue un 30,4 % superior al del método convencional de referencia.

Pero el sobrecoste económico no es el único precio oculto que reveló el estudio. La alternativa más tecnológica, ELE, conlleva una elevada factura medioambiental. Aunque fue la mejor valorada socialmente, su rendimiento ecológico fue pobre debido al enorme consumo de energía necesario para producir el poliestireno expandido (EPS) que utiliza como encofrado perdido. El estudio es contundente al respecto:

«Esto significa que, solo en los forjados, la alternativa ELE provoca un consumo de energía tres veces superior al necesario para obtener el EPS que requiere la solución de referencia».

Este hallazgo nos recuerda la importancia de analizar el ciclo de vida completo de los materiales y no dejarnos seducir únicamente por etiquetas como «moderno» o «tecnológico».

El mayor riesgo es el «business as usual»: el método tradicional fue el peor.

Quizás el hallazgo más importante y aleccionador del estudio es el pobre desempeño del método de construcción convencional (denominado «REF»). Al compararlo con las tres alternativas industrializadas, el sistema tradicional resultó ser la opción menos sostenible en todos los aspectos.

La conclusión de los investigadores es clara e inequívoca: «La alternativa REF es la peor opción en todos los criterios individuales y, en consecuencia, obtiene la menor prioridad en la caracterización de la sostenibilidad». Este resultado debe hacer reflexionar al sector: seguir construyendo como siempre se ha hecho, sin evaluar ni adoptar nuevas alternativas, es la decisión menos sostenible que podemos tomar.

Conclusión: repensando la construcción sostenible.

Este estudio demuestra que la sostenibilidad es un problema complejo que desafía las soluciones simplistas y las ideas preconcebidas. No se trata de encontrar una solución universal, sino de evaluar de manera integral y equilibrada las dimensiones económica, medioambiental y social de cada proyecto.

Como resumen, los propios autores: «Solo la consideración simultánea de los tres campos de la sostenibilidad […] conducirá a diseños adecuados». Esto nos obliga a cambiar nuestra pregunta fundamental: en lugar de buscar el material más ecológico o la técnica más barata, debemos preguntarnos cuál es la solución más equilibrada para un contexto específico.

Teniendo en cuenta estos resultados, ¿cómo deberíamos redefinir «la mejor forma de construir» para conseguir un futuro verdaderamente sostenible?

Aquí tenéis un audio que explica estos conceptos.

Os dejo un vídeo resumen sobre estas ideas.

Referencia:

SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2022). Multi-criteria decision-making applied to the sustainability of building structures based on Modern Methods of Construction. Journal of Cleaner Production, 330:129724. DOI:10.1016/j.jclepro.2021.129724

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Ingeniería y resiliencia: la clave de los sistemas de apoyo a la decisión en la gestión de desastres.

En el panorama actual, marcado por una mayor complejidad e interconexión a nivel mundial, los efectos de los desastres son cada vez más graves. El cambio climático, por ejemplo, actúa como un multiplicador de riesgos, intensificando los peligros existentes y generando otros nuevos. Ante esta realidad, el concepto de resiliencia comunitaria se ha convertido en un elemento clave de las estrategias de gestión del riesgo de desastres. La misión de la ingeniería es proporcionar a las comunidades las herramientas necesarias para resistir, adaptarse y recuperarse de estos eventos. En este contexto, los sistemas de apoyo a la decisión (DSS) emergen como herramientas indispensables que transforman la manera en que abordamos la protección de las ciudades y sus ciudadanos.

¿Qué entendemos por resiliencia comunitaria?

En el ámbito de la ingeniería civil y la planificación urbana, la resiliencia se define como la capacidad de un sistema, comunidad o sociedad expuesta a peligros para resistir, absorber, adaptarse, transformarse y recuperarse de manera oportuna y eficiente de los efectos de un evento adverso. Esto incluye la preservación y restauración de sus estructuras y funciones básicas esenciales mediante una gestión de riesgos adecuada. Una comunidad resiliente es aquella que, tras un terremoto, una inundación o una ola de calor extrema, logra mantener operativas o recuperar rápidamente sus infraestructuras críticas —desde la red eléctrica hasta los hospitales—, minimizando el impacto en la vida de sus habitantes.

La gestión del riesgo de desastres (DRM) incluye las fases de prevención, preparación, respuesta y recuperación. La resiliencia está intrínsecamente vinculada a todas estas fases. Por ejemplo, la implementación de códigos de construcción más estrictos o sistemas de control de inundaciones es una medida de prevención que aumenta la resiliencia. La preparación, por su parte, permite que las comunidades se adapten mejor a una situación de desastre y se recuperen con mayor rapidez.

Sistemas de apoyo a la decisión (DSS): herramientas inteligentes para la gestión de crisis.

Los DSS son herramientas informáticas diseñadas para ayudar a los responsables de la toma de decisiones, ya que proporcionan análisis, información y recomendaciones, e incluso permiten simular diferentes escenarios. Son fundamentales para mejorar la resiliencia comunitaria, puesto que ofrecen soluciones rápidas y eficientes a los problemas relacionados con los desastres, integrando diversas fuentes de datos y perspectivas de múltiples interesados. Además, los DSS facilitan la operacionalización de la resiliencia, es decir, permiten traducir este concepto abstracto en acciones y modelos analíticos concretos en los que están implicados todos los actores clave, lo que ofrece una comprensión más profunda del proceso de resiliencia. Esto, a su vez, conduce a una toma de decisiones más objetiva y basada en pruebas, que mitiga la subjetividad humana.

Las técnicas de modelización en los DSS: un arsenal de estrategias.

Los DSS se construyen utilizando diversas técnicas de modelización, cada una con sus propias fortalezas. Entre ellas, las técnicas de optimización son las más utilizadas. Estas técnicas permiten encontrar la mejor solución a un problema teniendo en cuenta múltiples factores y restricciones, a menudo mediante algoritmos matemáticos que identifican la opción más eficiente o efectiva. Por ejemplo, se utilizan para decidir la asignación óptima de recursos para la reparación de infraestructuras tras un terremoto o para la gestión de intervenciones en infraestructuras interdependientes.

Otras técnicas destacadas incluyen:

  • Modelado espacial (SIG): utiliza sistemas de información geográfica (SIG) para capturar relaciones espaciales, analizar, predecir y visualizar la influencia de los factores geográficos en los procesos y las decisiones. Esta técnica resulta muy útil para visualizar la distribución de riesgos y recursos en una ubicación específica, lo que facilita la comprensión del estado de resiliencia.
  • Análisis de decisiones multicriterio (MCDA): ayuda a los responsables de la toma de decisiones a ponderar diferentes factores y evaluar alternativas frente a múltiples criterios, a menudo conflictivos, para identificar la opción más adecuada en función de las prioridades y los objetivos. Es idóneo para la toma de decisiones en grupo y para capturar aspectos cualitativos de un problema.
  • Simulación: crea un modelo digital para imitar sistemas o procesos del mundo real, lo que permite la experimentación y el análisis en un entorno controlado. Es excelente para probar el impacto de diversas políticas y decisiones en el comportamiento del sistema antes de su implementación real.
  • Teoría de grafos: estudia las relaciones entre objetos, que se representan como nodos y aristas en un grafo. Es fundamental para analizar la conectividad de las redes interdependientes, como las infraestructuras de transporte o suministro, y para encontrar rutas óptimas, por ejemplo, para la distribución de ayuda humanitaria.
  • Minería de texto: extrae conocimiento e información de grandes volúmenes de datos textuales mediante métodos computacionales. Un ejemplo práctico es el uso de chatbots que procesan datos de redes sociales para ofrecer información en tiempo real durante un desastre.

Aplicación de los DSS en las fases de gestión de desastres.

Es interesante observar que los DSS tienden a centrarse más en las fases de preparación y respuesta que en las de recuperación y mitigación. Por ejemplo, el modelado espacial se utiliza mucho en la fase de preparación (en el 80 % de los artículos consultados) para tomar decisiones estratégicas, como determinar la ubicación óptima de los refugios o cómo distribuir los recursos. Durante la fase de respuesta, los DSS espaciales permiten visualizar la situación en tiempo real, identificar rutas bloqueadas y distribuir la ayuda humanitaria de manera eficiente mediante algoritmos que calculan la ruta más corta.

La optimización, por su parte, se utiliza principalmente en la fase de recuperación (en el 75 % de los artículos consultados), particularmente en las decisiones relativas a la rehabilitación y reconstrucción de infraestructuras dañadas. Las técnicas de MCDA son adecuadas para la fase de preparación (el 75 % de los artículos), ya que permiten comparar planes y políticas alternativas con el tiempo necesario para su análisis. Los modelos de simulación también se utilizan en la fase de respuesta para imitar el comportamiento del sistema y de los individuos durante una catástrofe.

Desafíos en el desarrollo y la implementación de los DSS.

A pesar de su potencial, el desarrollo e implementación de sistemas de apoyo a la decisión para la resiliencia no están exentos de desafíos significativos. Uno de los principales desafíos es la disponibilidad y calidad de los datos. La modelización de la resiliencia es un proceso complejo en el que los datos, tanto cuantitativos como cualitativos, son fundamentales. A menudo, la información proviene de múltiples fuentes con diferentes niveles de precisión, lo que dificulta su integración. En los países menos desarrollados, el acceso a los datos públicos (censos, informes, etc.) es aún más complicado, lo que limita la aplicación de ciertos modelos.

Otro obstáculo es la incertidumbre inherente al contexto de un desastre y la necesidad de gestionar cambios en tiempo real. También es una preocupación crucial la privacidad de los datos sensibles sobre infraestructuras críticas o planes de emergencia.

Por último, la colaboración interdisciplinar es imprescindible, pero difícil de conseguir, y la integración de estos sistemas en las operaciones diarias de las organizaciones de emergencia sigue siendo un reto considerable.

La colaboración con los interesados es clave para el éxito.

La implicación de los diversos actores o partes interesadas (stakeholders) es fundamental en el ciclo de vida de un DSS para la resiliencia. Se identifican tres enfoques principales:

  1. Como fuente de datos: recopilando sus opiniones y datos (mediante entrevistas, encuestas o incluso información compartida en redes sociales).
  2. Participación en el diseño: involucrándolos en la identificación de problemas, la construcción del modelo y el desarrollo del sistema para garantizar que la herramienta sea relevante y práctica para sus necesidades reales
  3. Incorporación de preferencias en el modelo: reflejando sus prioridades como parámetros o funciones objetivo en los modelos matemáticos, lo que influirá directamente en las soluciones propuestas. Por ejemplo, se pueden integrar las preferencias comunitarias como restricciones en un modelo de optimización.

Conclusiones y futuras direcciones en ingeniería resiliente.

Los sistemas de apoyo a la decisión suponen un avance significativo en nuestra capacidad para crear comunidades más resilientes frente a los desastres. Aunque hemos logrado grandes avances, especialmente en las fases de preparación y respuesta, y con el uso intensivo de modelos de optimización, aún queda mucho por hacer. Es imperativo ampliar el enfoque a las fases de recuperación y mitigación e investigar cómo integrar fuentes de datos en tiempo real y tecnologías IoT para mejorar la capacidad de respuesta de los DSS en entornos dinámicos. Además, debemos seguir profundizando en la modelización de las interacciones entre los diversos actores de la comunidad para fomentar una colaboración más sólida y, en última instancia, crear un entorno más seguro y resiliente para todos.

Referencias:

Elkady, S., Hernantes, J., & Labaka, L. (2024). Decision-making for community resilience: A review of decision support systems and their applicationsHeliyon10(12).

Salas, J., & Yepes, V. (2020). Enhancing sustainability and resilience through multi-level infrastructure planningInternational Journal of Environmental Research and Public Health17(3), 962.

Zhou, Z. W., Alcalà, J., & Yepes, V. (2023). Carbon impact assessment of bridge construction based on resilience theoryJournal of Civil Engineering and Management29(6), 561-576.

Os dejo un audio que resume bien el artículo anterior. Espero que os sea de interés.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Inteligencia artificial y eficiencia en el diseño de edificios

La inteligencia artificial (IA) está transformando de manera radical el diseño arquitectónico y la edificación. En la actualidad, el sector de la construcción se enfrenta a tres tendencias clave: la industrialización, la sostenibilidad y la transformación digital e inteligente. La convergencia de estos factores genera numerosas oportunidades, pero también desafíos significativos.

Los proyectos contemporáneos son cada vez más grandes y complejos, y están sujetos a requisitos ambientales más estrictos, lo que aumenta la presión sobre los equipos de diseño en términos de procesamiento de información, tiempo y recursos. En este contexto, la IA no solo optimiza los procesos, sino que también mejora la eficiencia de los métodos tradicionales de diseño.

A continuación, analizamos cómo la IA puede impulsar la eficiencia del diseño, fomentar la innovación y contribuir a la sostenibilidad de los proyectos. La tecnología ya está presente en todas las etapas del ciclo de vida del edificio, desde el análisis predictivo y la supervisión de la construcción hasta el mantenimiento de las instalaciones.

La digitalización ha transformado profundamente la forma en que concebimos, proyectamos y gestionamos las infraestructuras. Tras la aparición del diseño asistido por ordenador (CAD) y el modelado de información para la construcción (BIM), la inteligencia artificial (IA) se presenta como el siguiente gran avance tecnológico. A diferencia de otras herramientas, la IA no solo automatiza tareas, sino que también aprende, genera propuestas y ayuda a tomar decisiones complejas de manera óptima. Como señalan Li, Chen, Yu y Yang (2025), la IA se está consolidando como una herramienta fundamental para aumentar la eficiencia en el diseño arquitectónico e integrar criterios de sostenibilidad, industrialización y digitalización en toda la cadena de valor.

La IA se puede definir como un conjunto de técnicas informáticas que buscan reproducir procesos propios de la inteligencia humana, como el razonamiento, el aprendizaje o el reconocimiento de patrones. Entre sus ramas se incluyen el aprendizaje automático (machine learning o ML), basado en algoritmos que identifican patrones en grandes volúmenes de datos; las redes neuronales artificiales, que imitan el funcionamiento del cerebro y permiten resolver problemas complejos, como la predicción energética (Chen et al., 2023); los algoritmos genéticos, que simulan procesos evolutivos para hallar soluciones óptimas en problemas con múltiples variables, y la IA generativa, capaz de crear contenidos originales, como imágenes o planos, a partir de descripciones textuales. Este último enfoque, también conocido como AIGC (contenido generado por IA), ha popularizado herramientas como Stable Diffusion o Midjourney (Li et al., 2025).

En el sector de la construcción confluyen tres grandes tendencias: la industrialización, vinculada a la modularización y la prefabricación de componentes; el desarrollo sostenible, que impulsa diseños energéticamente eficientes y con menor impacto ambiental; y la digitalización inteligente, en la que la IA desempeña un papel protagonista (Asif, Naeem y Khalid, 2024). Estas tres dinámicas están interrelacionadas: sin tecnologías de análisis avanzado, como la IA, sería mucho más difícil cumplir los objetivos de sostenibilidad o gestionar procesos constructivos industrializados.

Tendencias de la construcción

Las aplicaciones de la IA se extienden a lo largo de todo el ciclo de vida del edificio. En las primeras fases de diseño, los algoritmos generan en segundos múltiples alternativas de distribución, optimizando la orientación, la iluminación natural o la ventilación. El diseño paramétrico asistido por IA permite explorar variaciones infinitas ajustando solo unos pocos parámetros (Li et al., 2025). Durante la fase de proyecto, los sistemas basados en procesamiento del lenguaje natural pueden interpretar normativas y detectar incumplimientos de forma automática, lo que reduce la probabilidad de modificaciones en obra (Xu et al., 2024). Además, las técnicas de simulación permiten prever el comportamiento estructural, acústico o energético de un edificio antes de su construcción, lo que proporciona seguridad y precisión en la toma de decisiones.

Avances de la IA en el diseño arquitectónico

En el sector de la construcción, la IA se combina con sensores y análisis de datos en tiempo real para optimizar la producción y la logística. En la construcción industrializada, los algoritmos ajustan la fabricación de elementos prefabricados, optimizan los cortes y los ensamblajes, y mejoran la gestión de las obras (Li et al., 2025). Al mismo tiempo, la monitorización inteligente permite anticiparse a las desviaciones, planificar los recursos con mayor eficiencia e incrementar la seguridad en entornos complejos.

Optimización del ciclo de vida del edificio con IA

Uno de los campos más avanzados es la predicción y optimización del consumo energético. Algoritmos como las redes neuronales, las máquinas de soporte vectorial o los métodos evolutivos permiten modelizar con gran precisión el comportamiento energético, incluso en las fases preliminares (Chen et al., 2023). Gracias a estas técnicas, es posible seleccionar soluciones constructivas más sostenibles, diseñar envolventes eficientes e integrar energías renovables en el proyecto. Como señalan Ding et al. (2018), estas herramientas facilitan el cumplimiento de los sistemas de evaluación ambiental y apoyan la transición hacia edificios de energía casi nula.

Las ventajas de la IA son evidentes: aumenta la eficiencia, reduce los errores y permite generar múltiples alternativas en mucho menos tiempo (Li et al., 2025). También optimiza los aspectos energéticos y estructurales, lo que hace que los proyectos sean más fiables y competitivos. La automatización de tareas repetitivas agiliza la creación de planos y documentos, mientras que los profesionales pueden dedicarse a tareas creativas. Además, las herramientas de gestión de proyectos con IA ayudan a organizar mejor los recursos y los plazos. Gracias a su capacidad para analizar grandes volúmenes de datos, fomentan la innovación, diversifican los métodos de diseño y facilitan la selección de materiales y el rendimiento energético.

Beneficios de la IA en el diseño

Sin embargo, la IA también plantea importantes desafíos. Su eficacia depende de la calidad de los datos; sin información fiable, los algoritmos pierden precisión. Además, integrarla con plataformas como CAD o BIM sigue siendo complicado (Xu et al., 2024). A esto se suman cuestiones éticas y legales, como la propiedad intelectual de los diseños generados por IA, la opacidad en la toma de decisiones y el riesgo de que los diseñadores pierdan cierto control. En algunos lugares, como EE. UU., se han revocado derechos de autor sobre obras generadas por IA, lo que refleja la incertidumbre legal existente.

Otros retos son la homogeneización del diseño si todos usan herramientas similares, la reticencia de algunos profesionales a adoptar soluciones de IA por dudas sobre la personalización y la fiabilidad, y los altos costes y la limitada disponibilidad de hardware y software especializados. Aún así, la IA sigue siendo una herramienta poderosa que, si se utiliza correctamente, puede transformar la eficiencia, la creatividad y la sostenibilidad en el sector de la construcción, abriendo un futuro lleno de oportunidades.

Desafíos de la adopción de la IA en el diseño

Ya existen ejemplos prácticos que muestran el potencial de estas tecnologías. Herramientas como Stable Diffusion o FUGenerator pueden generar imágenes y maquetas a partir de descripciones en lenguaje natural y actúan como asistentes que multiplican la productividad del proyectista (Li et al., 2025). Estas plataformas no sustituyen la creatividad humana, pero ofrecen un apoyo decisivo en la fase de ideación.

Bucle interactivo de inferencia de diseño arquitectónico de FUGenerator (Li et al., 2025)

La IA se está convirtiendo en un pilar fundamental de la construcción, integrándose cada vez más con tecnologías como la realidad aumentada (RA), la realidad virtual (RV), la realidad mixta (RM) y los gemelos digitales. Gracias a esta combinación, no solo es posible visualizar cómo será un edificio, sino también anticipar su comportamiento estructural, energético o acústico antes de su construcción (Xu et al., 2024). Esto permite a los diseñadores y a los clientes evaluar las propuestas en las primeras etapas, lo que mejora la calidad del diseño y la experiencia del usuario.

La IA del futuro será más inteligente y adaptable, capaz de predecir con gran precisión los resultados del diseño y ofrecer soluciones personalizadas. Su impacto no se limita al diseño arquitectónico: la gestión de la construcción se beneficiará de la robótica asistida, lo que aumentará la seguridad y la eficiencia en tareas complejas o de alto riesgo; la operación de los edificios podrá monitorizar su rendimiento, anticipar las necesidades de mantenimiento y prolongar su vida útil, lo que reducirá los costes, y el análisis de mercado aprovechará el big data para prever la demanda y los precios de los materiales, lo que optimizará la cadena de suministro.

En ingeniería civil, la integración de la IA y las tecnologías avanzadas permite tomar decisiones más fundamentadas, minimizar riesgos y entregar proyectos más seguros y sostenibles (Xu et al., 2024). Así, la construcción del futuro se perfila como un proceso más eficiente, innovador y conectado, en el que la tecnología y la planificación estratégica trabajan juntas para lograr resultados óptimos.

En conclusión, la IA no pretende sustituir a los ingenieros y arquitectos, sino ampliar sus capacidades, como ya hicieron el CAD o el BIM (Asif et al., 2024; Li et al., 2025). Automatiza tareas repetitivas, agiliza el diseño, facilita la toma de decisiones basada en datos y ayuda a elegir materiales, mejorar la eficiencia energética y estructural e inspirar soluciones creativas. Su impacto trasciende el diseño y se extiende a la planificación, la supervisión de la construcción y la gestión del ciclo de vida del edificio. No obstante, su adopción plantea desafíos como los altos costes, la escasez de software disponible y la necesidad de contar con datos de calidad y algoritmos robustos. Si se depende en exceso de la IA, los diseños podrían homogeneizarse, por lo que es fundamental definir claramente los roles entre los arquitectos y la IA. Si se utiliza correctamente, la IA puede potenciar la creatividad, la eficiencia y la sostenibilidad, y ofrecer un futuro más innovador y dinámico para la construcción.

Os dejo un vídeo que resume las ideas más importantes.

Referencias:

Glosario de términos clave

  • Inteligencia Artificial (IA): Una disciplina científica y tecnológica de vanguardia que simula el aprendizaje y la innovación humanos para extender el alcance de la aplicación de la tecnología.
  • Inteligencia Artificial Generativa (GAI): Un subconjunto de la IA que utiliza el aprendizaje automático y las capacidades de procesamiento del lenguaje natural para que las computadoras simulen la creatividad y el juicio humanos, produciendo automáticamente contenido que cumple con los requisitos.
  • Diseño Paramétrico: Un método de diseño en el que se utilizan algoritmos para definir la relación entre los elementos de diseño, permitiendo la generación de diversas variaciones de diseño mediante el ajuste de parámetros.
  • Diseño Asistido por IA: Métodos en los que las herramientas de IA ayudan a los diseñadores a optimizar diseños, analizar datos, resolver problemas y explorar conceptos creativos.
  • Colaboración Hombre-Máquina: Un enfoque en el que humanos y máquinas trabajan juntos en tareas complejas, con la IA apoyando la innovación humana y el intercambio de información eficiente.
  • Redes Neuronales Artificiales (RNA o ANN): Un tipo de algoritmo de IA, modelado a partir del cerebro humano, que se utiliza para modelar relaciones complejas entre entradas y salidas, a menudo empleadas en la predicción del consumo de energía de los edificios.
  • Aprendizaje Profundo (Deep Learning): Un subcampo del aprendizaje automático que utiliza redes neuronales con múltiples capas (redes neuronales profundas o DNN) para aprender representaciones de datos con múltiples niveles de abstracción.
  • Redes Neuronales Profundas (DNN): Redes neuronales con numerosas capas ocultas que permiten que el modelo aprenda patrones más complejos en los datos, mejorando la precisión en tareas como la predicción del consumo de energía.
  • Máquinas de Vectores de Soporte (SVM): Un algoritmo de aprendizaje supervisado utilizado para tareas de clasificación y regresión, especialmente eficaz con conjuntos de datos pequeños y para identificar relaciones no lineales.
  • Procesamiento del Lenguaje Natural (PLN o NLP): Un campo de la IA que se ocupa de la interacción entre las computadoras y el lenguaje humano, permitiendo a los sistemas interpretar y generar lenguaje humano.
  • Modelado de Información de Construcción (BIM): Una metodología para la gestión de la información de construcción a lo largo de su ciclo de vida, utilizada con la IA para mejorar las simulaciones de rendimiento del edificio.
  • Algoritmos Genéticos (GA): Una clase de algoritmos de optimización inspirados en el proceso de selección natural, utilizados para encontrar soluciones óptimas en tareas de diseño complejas.
  • Adaptación de Bajo Rango (LoRA): Un método de ajuste de bajo rango para modelos de lenguaje grandes, que permite modificar el comportamiento de los modelos añadiendo y entrenando nuevas capas de red sin alterar los parámetros del modelo original.
  • Stable Diffusion: Una herramienta avanzada de IA para generar imágenes a partir de descripciones de texto o dibujos de referencia, que a menudo utiliza el modelo LoRA para estilos específicos.
  • Inception Score (IS) y Fréchet Inception Distance (FID): Métricas cuantitativas utilizadas para evaluar la calidad y diversidad de las imágenes generadas por modelos de IA, con IS evaluando la calidad y FID la similitud de la distribución entre imágenes reales y generadas.
  • FUGenerator: Una plataforma que integra varios modelos de IA (como Diffusion Model, GAN, CLIP) para respaldar múltiples escenarios de aplicación de diseño arquitectónico, desde la descripción semántica hasta la generación de bocetos y el control.
  • Industrialización (en construcción): Énfasis en métodos de construcción modulares y automatizados para mejorar la eficiencia y estandarización.
  • Desarrollo Ecológico (en construcción): Enfoque en la conservación de energía durante el ciclo de vida, el uso de materiales sostenibles y la reducción del impacto ambiental.
  • Transformación Digital-Inteligente (en construcción): Integración de sistemas de digitalización e inteligencia, aprovechando tecnologías como la GAI para optimizar procesos y mejorar la creación de valor.
  • Problema Mal Definido (Ill-defined problem): Problemas de diseño, comunes en arquitectura, que tienen propósitos y medios iniciales poco claros.
  • Problema Malicioso (Wicked problem): Problemas de diseño caracterizados por interconexiones y objetivos poco claros, que requieren enfoques de resolución complejos.
  • Integración del Internet de las Cosas (IoT): La interconexión de dispositivos físicos con sensores, software y otras tecnologías para permitir la recopilación y el intercambio de datos, crucial para los sistemas de control de edificios inteligentes

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Lo que la catástrofe de Valencia nos obliga a repensar: cuatro lecciones

Ayer, cuando se cumplían 11 meses de la catástrofe de la DANA de 2024, volvimos a estar en alerta roja en Valencia. No se trató de un evento tan catastrófico como el que vivimos hace menos de un año. Pero volvieron los fantasmas y se volvió a poner a prueba todo el esfuerzo, con mayor o menor acierto, que se está realizando para evitar este tipo de catástrofes.

Queda mucho por hacer: necesitamos consenso en la gobernanza de los proyectos de futuro, desarrollo sostenible de los territorios, un mejor conocimiento para actuar de manera más eficaz por parte de las autoridades y los ciudadanos, y finalmente, aprender a convivir con las inundaciones.

A continuación, os resumo algunos pensamientos sobre este tema que he ido publicando en este blog. Espero que sirvan para reflexionar sobre este tema.

Introducción: cuando la «naturaleza» no es la única culpable.

Tras la devastadora DANA que asoló la provincia de Valencia en octubre de 2024, dejando una estela de dolor y destrucción, es natural buscar explicaciones. La tendencia humana nos lleva a señalar a la «furia de la naturaleza», a la «mala suerte» o a un evento tan extraordinario que era imposible de prever. Nos sentimos víctimas de una fuerza incontrolable.

Sin embargo, un análisis técnico y sereno nos obliga a mirar más allá del barro y el agua. Como se argumenta en foros de expertos, los desastres no son naturales, sino que son siempre el resultado de acciones y decisiones humanas que, acumuladas con el paso del tiempo, crean las condiciones perfectas para la tragedia. Esta idea no es nueva. Ya en 1755, tras el terremoto de Lisboa, Jean-Jacques Rousseau le escribía a Voltaire: «Convenga usted que la naturaleza no construyó las 20.000 casas de seis y siete pisos, y que, si los habitantes de esta gran ciudad hubieran vivido menos hacinados, con mayor igualdad y modestia, los estragos del terremoto hubieran sido menores, o quizá inexistentes».

Este artículo explora cuatro de las ideas menos obvias y más impactantes que surgen del análisis técnico del desastre. Cuatro revelaciones que nos invitan a dejar de buscar un único culpable para empezar a entender las verdaderas raíces del riesgo, repensar cómo nos preparamos para él y, sobre todo, cómo lo reconstruimos de forma más inteligente.

Primera revelación: un desastre no es azar, es la coincidencia de errores en cadena (el modelo del queso suizo).

La primera revelación consiste en abandonar la búsqueda de un único culpable. Un desastre no es un rayo que cae, sino una tormenta perfecta de debilidades sistémicas.

1. Las catástrofes no se producen por un único fallo, sino por una tormenta perfecta de pequeñas debilidades.

Para entender por qué un fenómeno meteorológico extremo se convierte en una catástrofe, los analistas de riesgos utilizan el «modelo del queso suizo» de James T. Reason. La idea es sencilla: nuestro sistema de protección es como una pila de lonchas de queso. Cada loncha representa una capa de defensa (infraestructuras, planes de emergencia, normativas urbanísticas) y los agujeros en cada una de ellas simbolizan fallos o debilidades. Ocurre un desastre cuando los agujeros de varias capas se alinean, creando una «trayectoria de oportunidad de accidente» que permite al peligro atravesar todas las barreras.

Aplicado a la gestión de inundaciones, este modelo identifica cuatro áreas principales donde se producen estos fallos:

  • Influencias organizativas: decisiones políticas a largo plazo, como «un contexto de austeridad» en el que las instituciones «reducen la inversión en infraestructuras de protección». Esto crea agujeros latentes en nuestras defensas.
  • Fallos de supervisión: falta de control efectivo sobre el cumplimiento de normativas, como la construcción en zonas inundables o el mantenimiento de infraestructuras de contención.
  • Condiciones latentes: Debilidades preexistentes que permanecen ocultas hasta que se produce la crisis. Un sistema de drenaje obsoleto, planes de evacuación anticuados o la «falta de concienciación y preparación en la comunidad» son ejemplos de condiciones latentes.
  • Acciones inseguras: errores activos cometidos durante la emergencia, como retrasos en la emisión de alertas o una comunicación deficiente con el público.

Esta perspectiva nos saca del juego de la culpa lineal —una presa que falló, una alerta que no llegó— y nos obliga a entender el desastre como un fallo sistémico acumulado, resultado de años de pequeñas decisiones, omisiones y debilidades que finalmente se alinearon en el peor momento posible.

Segunda revelación: La trampa de la reconstrucción apresurada.

2. Volver a construir lo mismo que se destruyó es programar la siguiente catástrofe.

Tras la conmoción, la presión política y social exige una respuesta inmediata: limpiar, reparar y reconstruir. Sin embargo, este impulso esconde una de las trampas más peligrosas. Si la reconstrucción se limita a la reposición de lo perdido, ignoramos la lección más importante y perpetuamos las mismas vulnerabilidades.

La forma en que se afronta la reconstrucción tras un desastre no puede limitarse a la reposición de lo perdido.

Aquí surge un conflicto fundamental. Por un lado, está el «enfoque táctico» de los políticos, que necesitan acciones rápidas y visibles. Como explican los análisis de ingeniería, «la rapidez en la ejecución de ciertas obras genera la percepción de una gestión eficaz, pero este proceder puede ocultar la ausencia de una estrategia que optimice las actuaciones a largo plazo». Por otro lado, está la necesidad técnica de llevar a cabo una reflexión estratégica que requiere tiempo para analizar qué ha fallado y diseñar soluciones resilientes que no repitan los errores del pasado.

Para evitar que la urgencia impida esta reflexión, es esencial contar con un equipo de análisis, una especie de «ministerio del pensamiento», que establezca directrices fundamentadas. Esta «trampa de la reconstrucción» es común porque la reflexión es lenta y políticamente menos rentable que una foto posando en la inauguración de un puente reparado. Evitarla tras la DANA de Valencia es crucial. No se trata solo de levantar muros, sino de aprovechar esta dolorosa oportunidad para reordenar el territorio, rediseñar las infraestructuras y construir una sociedad más segura.

Tercera revelación: El clima ha roto las reglas del juego.

3. Ya no podemos utilizar el pasado como guía infalible para diseñar el futuro de nuestras infraestructuras.

Durante un siglo, la ingeniería se ha basado en una premisa fundamental que hoy es una peligrosa falsedad: que el clima del pasado era una guía fiable para el futuro. Este principio, conocido como «estacionariedad climática», ha dejado de ser válido. Esta hipótesis partía de la base de que, aunque el clima es variable, sus patrones a largo plazo se mantenían estables, lo que permitía utilizar registros históricos para calcular estadísticamente los «periodos de retorno» y diseñar infraestructuras capaces de soportar, por ejemplo, la «tormenta de los 100 años», un evento que no ocurre cada 100 años, sino que tiene un 1 % de probabilidad de suceder en cualquier año.

El cambio climático ha invalidado esta hipótesis. El clima ya no es estacionario. La frecuencia e intensidad de los fenómenos meteorológicos extremos están aumentando a un ritmo que hace que los datos históricos dejen de ser una referencia fiable. Esta no estacionariedad aumenta los «agujeros» en nuestro queso suizo de defensas, haciendo que las vulnerabilidades sistémicas sean aún más críticas.

La consecuencia es alarmante: muchas de nuestras infraestructuras (puentes, sistemas de drenaje, presas) pueden haber sido diseñadas para unas condiciones que ya no existen, lo que aumenta drásticamente el riesgo estructural. La adaptación al cambio climático no es una opción ideológica, sino una necesidad inaplazable. Esto exige una revisión completa de los códigos de diseño y los planes de ordenación del territorio. Debemos dejar de mirar exclusivamente por el retrovisor para empezar a diseñar con la vista puesta en el futuro.

Cuarta revelación: Los argumentos técnicos no ganan batallas culturales.

4. El obstáculo más grande no es técnico ni económico, sino nuestra propia mente.

Ingenieros y científicos llevan años advirtiendo sobre los riesgos. Sin embargo, estas advertencias a menudo no se traducen en la voluntad política y social necesaria para actuar. La respuesta se halla en la psicología humana. El fenómeno de la «disonancia cognitiva» explica nuestra tendencia a rechazar información que contradiga nuestras creencias más profundas. A esto se suma la «asimetría cognitiva»: la brecha de comunicación existente entre los distintos «estratos» de la sociedad (científicos, técnicos, políticos y la opinión pública). Cada grupo opera con su propia percepción de la realidad, su lenguaje y sus prioridades, lo que crea mundos paralelos que rara vez se tocan.

Esto nos lleva a una de las ideas más frustrantes para los técnicos: la creencia de que es posible convencer a alguien solo con datos es, en muchos casos, una falacia.

«Cuando intentas convencer a alguien con argumentos respecto a un prejuicio que tiene, es imposible. Es un tema mental, es la disonancia cognitiva».

Cuando un dato choca con un interés o una creencia, lo más habitual no es cambiar de opinión, sino rechazar el dato. Esto explica por qué, a pesar de la evidencia sobre ciertos riesgos, se posponen las decisiones o se toman decisiones que van en direcciones contrarias. El problema no es la falta de conocimiento técnico, sino la enorme dificultad para comunicarlo de manera que sea aceptado eficazmente por quienes toman las decisiones y por la sociedad en su conjunto. Superar esta barrera mental es, quizás, el mayor desafío de todos.

Conclusión: reconstruir algo más que edificios y puentes.

Las lecciones de la DANA de 2024 nos obligan a conectar los puntos: los desastres son fallos sistémicos (como el queso suizo), cuyas debilidades se multiplican porque el clima ha cambiado las reglas del juego (no estacionariedad); la reconstrucción debe suponer una reinvención estratégica, no una copia; y las barreras humanas, alimentadas por la disonancia cognitiva, a menudo son más difíciles de superar que cualquier obstáculo técnico.

La verdadera lección, por tanto, no se limita a la hidráulica o al urbanismo. Se trata de cómo tomamos decisiones como sociedad frente a riesgos complejos y sistémicos. Se trata de nuestra capacidad para aprender, adaptarnos y actuar con valentía y visión de futuro.

Ahora que conocemos mejor las causas profundas del desastre, ¿estamos dispuestos como sociedad a adoptar las decisiones valientes que exige una reconstrucción inteligente o la urgencia nos hará tropezar de nuevo con la misma piedra?

En este audio hay ideas que os pueden servir para entender el problema.

Os dejo un vídeo que os puede ayudar a entender las ideas principales de este artículo.

Y por último, os dejo una intervención que tuve sobre este tema en el Colegio de Ingenieros de Caminos. Espero que os interese.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Tus cimientos se diseñan con métodos desfasados? 5 revelaciones para proyectar de forma más segura y sostenible

Como profesionales de la ingeniería y la arquitectura, convivimos con una tensión permanente: garantizar la máxima seguridad de las estructuras mientras enfrentamos la presión de optimizar costes y reducir el impacto medioambiental. En el diseño de cimentaciones, esta tensión suele traducirse en incertidumbre y en un sobredimensionamiento conservador. Pero, ¿qué sucede cuando uno de los supuestos básicos de nuestros cálculos se aleja de la realidad?

Un ejemplo claro es el módulo de reacción vertical del suelo, conocido como coeficiente de balasto o módulo de Winkler (Ks), un parámetro clave en el diseño de losas de cimentación que a menudo se interpreta incorrectamente y se obtiene de tablas genéricas sin suficiente rigor. Una investigación reciente revela hallazgos significativos que cuestionan estas prácticas habituales y plantean alternativas para conseguir cimentaciones más seguras, eficientes en costes y con menor impacto medioambiental.

Este artículo sintetiza una investigación publicada en la revista del primer decil del JCR Environmental Impact Assessment Review en la que se presenta una metodología rigurosamente formulada para la estimación directa del módulo (Ks) en cimentaciones por losa, superando las deficiencias clave de los enfoques convencionales. Su principal aportación es un modelo directo que integra la teoría del semiespacio elástico, el análisis de asientos en suelos multicapa y la mecánica de consolidación edométrica, teniendo en cuenta explícitamente la profundidad de influencia y los efectos de la compensación de cargas. La investigación se enmarca dentro del proyecto RESILIFE que dirijo como investigador principal en la Universitat Politècnica de València. A continuación, se muestra un resumen del trabajo e información de contexto.

El estudio introduce un coeficiente de seguridad específico para Ks, lo que constituye una innovación que aborda la incertidumbre geotécnica y fortalece la fiabilidad del diseño en los estados límite de servicio. Esta metodología se integra en un marco de evaluación del ciclo de vida y decisión multicriterio (MCDM) que utiliza un proceso híbrido de AHP neutrosófico en grupo (NAHP-G) y ELECTRE IS para evaluar alternativas de diseño de cimentaciones según criterios económicos, ambientales y sociales.

Aplicado a un caso de estudio real, el método propuesto (denominado 3-NEW) demuestra ser la solución más sostenible. El diseño resultante (A3) mejora el rendimiento de sostenibilidad global en un 50 % y aumenta el índice de seguridad social en 2,5 veces en comparación con las metodologías de referencia. Este trabajo establece un marco unificado que avanza en la práctica del diseño geotécnico, optimiza el uso de materiales y alinea el diseño de cimentaciones con los principios de resiliencia y economía circular.

A continuación os dejo algunas ideas clave contenidas en este estudio.

1. El módulo de balasto (Ks) no es una propiedad del suelo, sino una consecuencia de la interacción.

La primera idea consiste en entender que el módulo de balasto (Ks) no es una constante intrínseca del terreno, como el peso específico o la cohesión, que podamos consultar en una tabla. Se trata de un concepto más complejo. Es un parámetro variable que depende de la carga y la profundidad de su influencia.

Esto significa que el módulo de balasto es el resultado de la interacción entre la cimentación (su tamaño y rigidez) y el terreno bajo una carga específica. Depende de la carga transmitida, la geometría de la losa y la profundidad del bulbo de presiones generado. Este cambio de perspectiva es crucial, pues nos obliga a abandonar las tablas genéricas y a realizar un cálculo adaptado a las condiciones reales de cada proyecto. Así, reconocemos que el «mismo» suelo se comportará de manera diferente bajo una pequeña zapata que bajo una gran losa de un edificio. Esta idea, conocida en el ámbito geotécnico, no debería pasarse por alto.

 

2. Los métodos tradicionales no explican ni integran la paradoja de la rigidez infinita en cimentaciones totalmente compensadas.

Cuando se proyectan cimentaciones con sótanos, la excavación compensa parte de la carga del edificio al retirar el peso del suelo existente. En estos casos, los métodos convencionales de cálculo de Ks (el 1-BAS, un método empírico, y el 2-REF, un método semidirecto) o no tienen en cuenta la «paradoja del balasto infinito» (1) o no la integran y armonizan (2).

Si la carga neta transmitida al terreno es próxima a cero o negativa, la deformación generada por la cimentación tiende a cero, ya que la profundidad de influencia del bulbo de tensiones tiende a cero y, por tanto, el valor del balasto vertical tiende a infinito. Con la propuesta metodológica del trabajo (3-NEW, un método directo) se resuelve esta paradoja al vincular Ks directamente con los asientos elásticos reales y las cargas transmitidas por la estructura, explica el fenómeno físico y elimina la paradoja en el cálculo mediante un límite mínimo de la profundidad de influencia (el 5 % de la carga bruta transmitida). En escenarios totalmente compensados, el método regula la respuesta mediante umbrales y el factor de seguridad (FS), evitando así resultados físicamente inconsistentes.

3. Estamos olvidando el factor de seguridad donde más importa: en los asientos.

En geotecnia, es una práctica habitual aplicar un factor de seguridad (FS) de entre 2,5 y 3,0 frente a la rotura del terreno. Sin embargo, cuando el diseño se basa en el límite de asientos (algo muy común en grandes losas), aplicamos un factor de seguridad de 1,0.

Se debería buscar una mayor coherencia a esta práctica, ya que, como señala la investigación, deja desprotegidos los límites de servicio (como los asientos) frente a la variabilidad e incertidumbre del subsuelo. En otras palabras, no dejamos margen de seguridad para proteger la estructura frente a la fisuración, las deformaciones excesivas o los daños en los acabados, que son consecuencia directa de los asientos. La investigación propone un factor de seguridad formal para el cálculo de Ks (FS = 1,2 en condiciones estándar), lo que permite armonizar la seguridad en los estados límite últimos y de servicio.

4. El diseño más seguro resultó ser también el más sostenible en su ciclo de vida.

El estudio comparó tres alternativas de diseño (A1-BAS, A2-REF y A3-NEW) mediante un análisis de sostenibilidad del ciclo de vida. Inicialmente, la alternativa A1 (diseñada con el método tradicional) parecía la más rentable en términos de costes y emisiones de CO₂.

Sin embargo, al introducir el criterio social de seguridad, que cuantifica la fiabilidad estructural y la seguridad para los usuarios y está derivado del nuevo marco de cálculo, la alternativa A1 fue penalizada drásticamente. La ganadora fue la alternativa A3 (diseñada con el nuevo método), no por ser la mejor en un único aspecto, sino por ofrecer el mejor equilibrio global, destacando en el criterio clave de seguridad. De hecho, A3 consiguió una mejora relativa del 50 % en el rendimiento de sostenibilidad agregado. En la práctica, esto se tradujo en un diseño que, en comparación con la alternativa A2, redujo los costes de construcción en un 12,5 % y, en comparación con la alternativa A1, disminuyó los costes de mantenimiento a largo plazo en casi un 24 %, demostrando que la seguridad y la eficiencia económica pueden ir de la mano.

5. Una mayor precisión en el cálculo no implica un sobrecoste, sino un uso más eficiente del suelo.

Un análisis más riguroso de un problema no tiene por qué dar soluciones conservadoras y, por tanto, costosas. Este estudio demuestra lo contrario. Al comparar la presión admisible bruta (Qba) que el terreno puede soportar sin exceder los asientos permitidos, los resultados fueron reveladores:

  • Método convencional (2-REF): Qba = 0,146 MPa.
  • Nuevo método propuesto (3-NEW): Qba = 0,265 MPa.

Este notable aumento no se debe a una alteración del suelo, sino a que el nuevo método modela con mayor precisión la interacción suelo-estructura, teniendo en cuenta la profundidad de influencia (19 metros en este caso) y los asientos elásticos reales, lo que evita el conservadurismo innecesario de los métodos simplificados. Esta mayor eficiencia se traduce directamente en un diseño más optimizado y competitivo. Esta optimización no solo reduce costes, sino que también minimiza el consumo de hormigón y acero, lo que la convierte en un pilar fundamental de la construcción sostenible.

Conclusión

Hemos visto que el módulo de balasto no es una propiedad intrínseca del suelo, sino una interacción dinámica; que los métodos tradicionales caen en paradojas; que pueden comprometer en algún caso la seguridad donde más importa; y que, al corregir estos errores, el diseño más seguro se revela también como el más sostenible y eficiente. Al abandonar las simplificaciones anticuadas o demasiado conservadoras y adoptar modelos que reflejen la realidad de la interacción suelo-estructura, no solo podremos construir con mayor confianza, sino también de manera más inteligente y responsable con nuestros recursos.

Así pues, nos surge una pregunta final: si los cimientos de nuestros edificios se basan en principios desactualizados, ¿qué otras suposiciones fundamentales de la ingeniería debemos reexaminar para construir un futuro más resiliente?

Referencia:

SÁNCHEZ-GARRIDO, A.J.; MORENO-SERRANO, J.F.; NAVARRO, I.J.; YEPES, V. (2026). Innovative safety framework and direct load–settlement method to optimize vertical subgrade modulus in sustainable mat foundationsEnvironmental Impact Assessment Review (accepted, in press).

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Rehabilitación sostenible de edificios costeros de hormigón: ¿cómo optimizar el mantenimiento?

Acaban de publicar un artículo nuestro en Environmental Impact Assessment Review, una de las revistas con mayor impacto científico, dentro del primer decil del JCR. En este trabajo se aborda, desde un enfoque innovador, la optimización de los intervalos de mantenimiento reactivo en edificios costeros construidos con métodos modernos de construcción (MMC). La investigación se enmarca dentro del proyecto RESILIFE que dirijo como investigador principal en la Universitat Politècnica de València. A continuación, se muestra un resumen del trabajo e información de contexto.

Quienes trabajamos en ingeniería de la construcción sabemos que los entornos costeros son un auténtico reto. La combinación de humedad, salinidad y vientos cargados de cloruros acelera la corrosión de las armaduras en el hormigón armado. Como consecuencia, estructuras tan comunes como hoteles de playa, bloques residenciales o edificios públicos junto al mar sufren un deterioro prematuro que reduce su vida útil, incrementa los costes de reparación y pone en riesgo la seguridad estructural.

Tradicionalmente, la industria de la construcción ha centrado sus esfuerzos en reducir el impacto ambiental de los materiales y de la fase inicial de obra, dejando en segundo plano la importancia del mantenimiento y la rehabilitación. Sin embargo, cada vez está más claro que prolongar la vida útil mediante estrategias de conservación es clave para lograr ciudades sostenibles.

La pregunta de partida

El equipo investigador se planteó la siguiente cuestión central: ¿qué combinación de diseño preventivo y mantenimiento reactivo permite alargar la vida útil de un edificio costero de hormigón armado de la forma más sostenible, equilibrando costes, impacto ambiental y repercusiones sociales?

Para responderla, compararon doce alternativas de diseño que mejoran la durabilidad frente a los cloruros y analizaron distintas estrategias de reparación en función del nivel de deterioro.

La aportación más destacada

Lo más novedoso del trabajo es la integración de un análisis del ciclo de vida (LCA) con un modelo de ayuda a la decisión basado en FUCOM-TOPSIS. Este enfoque híbrido no solo cuantifica los costes de construcción y mantenimiento, sino también los impactos ambientales (emisiones, recursos y salud humana) y sociales (seguridad de los trabajadores, generación de empleo, molestias a usuarios y a la comunidad local).

En otras palabras, el modelo permite determinar qué intervalos de mantenimiento reactivo son óptimos para cada diseño año tras año y compararlos desde una perspectiva de sostenibilidad global.

Cómo se ha llevado a cabo

  • Caso de estudio: un módulo de hotel en Sancti Petri (Cádiz), construido con losas aligeradas tipo Unidome mediante MMC.

  • Diseños preventivos analizados: desde adiciones (humo de sílice, cenizas volantes), cementos resistentes a sulfatos, reducción de la relación agua/cemento o mayor recubrimiento, hasta soluciones más avanzadas como aceros galvanizados o inoxidables.

  • Estrategias de mantenimiento: cuatro niveles de intervención, desde reparaciones superficiales hasta sustitución de armaduras corroídas.

  • Modelización: se aplicó el modelo de corrosión de Tuutti para estimar periodos de iniciación y propagación del daño.

  • Criterios de evaluación: ocho en total (dos económicos, dos ambientales y cuatro sociales), ponderados mediante FUCOM y evaluados con TOPSIS.

Resultados principales

Los resultados son muy ilustrativos para la práctica profesional.

  • Las soluciones más sostenibles combinaban cemento multirresistente, tratamientos hidrofóbicos anticorrosión y adiciones minerales, como el humo de sílice. Estas alcanzaron una mejora de la sostenibilidad de hasta el 86 % respecto al diseño base.
  • El cemento sulforresistente (SRC) se presentó como la alternativa más equilibrada, con un ciclo de mantenimiento cada 53 años y un ahorro del 65 % en comparación con el caso de referencia.
  • El acero inoxidable prácticamente elimina el mantenimiento durante 100 años, pero su impacto económico y medioambiental inicial lo convierte en una opción poco competitiva.
  • El acero galvanizado ofrece un buen compromiso, ya que es más duradero que el hormigón convencional y su coste es razonable, aunque su impacto ambiental es superior al de otras soluciones.
  • No siempre «menos mantenimiento» significa más sostenibilidad: la clave es intervenir en el momento adecuado para reducir costes y emisiones acumuladas a lo largo de todo el ciclo de vida.

Aplicaciones prácticas en la ingeniería

Este estudio aporta varias lecciones que se pueden aplicar directamente a la práctica:

  1. Planificación a largo plazo: las decisiones de diseño inicial deben ir acompañadas de una estrategia de mantenimiento clara, no solo de criterios de durabilidad normativa.

  2. Visión integral: al evaluar alternativas, no basta con comparar costes iniciales. También hay que tener en cuenta el impacto ambiental y social de cada opción.

  3. Aplicabilidad amplia: aunque el caso analizado es un hotel costero, la metodología es válida para puentes, puertos, depuradoras y cualquier otra estructura de hormigón expuesta a ambientes marinos.

  4. Alineación con la normativa europea: este tipo de enfoques encaja con las estrategias de descarbonización y economía circular de la UE, que exigen evaluar todo el ciclo de vida de las infraestructuras.

En definitiva, este trabajo nos recuerda que la sostenibilidad en la construcción no solo depende de lo que hacemos al levantar un edificio, sino también de cómo lo mantenemos a lo largo de su vida útil. Y, sobre todo, que la ingeniería ya cuenta con herramientas sólidas para planificar esas decisiones de manera objetiva, transparente y alineada con los Objetivos de Desarrollo Sostenible.

Referencia:

SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2026). Optimizing reactive maintenance intervals for the sustainable rehabilitation of chloride-exposed coastal buildings with MMC-based concrete structure. Environmental Impact Assessment Review, 116, 108110. DOI:10.1016/j.eiar.2025.108110

Como el artículo está publicado en abierto, os lo dejo para su descarga:

Descargar (PDF, 11.12MB)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.