Acaban de publicar un artículo nuestro en Results in Engineering, una de las revistas de mayor impacto científico, ubicada en el primer decil del JCR. Este trabajo trata sobre un sistema avanzado para el seguimiento de la salud estructural (SHM, por sus siglas en inglés) y la optimización de puentes de gran envergadura y estáticamente indeterminados (hiperestáticos).
La investigación se enmarca en el proyecto RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València. Además, muestra la internacionalización de nuestro grupo de investigación, en este caso, con China. A continuación, se presenta un resumen del trabajo y de la información de contexto.
El problema central que se aborda en este trabajo es la insuficiencia de los métodos de supervisión tradicionales, ya que no permiten una vigilancia continua, en tiempo real y a distancia, crucial para garantizar la seguridad, la longevidad y el mantenimiento rentable de estas complejas infraestructuras.
La solución propuesta es una plataforma inteligente en la nube para el control y la alerta temprana que integra la informática, la ingeniería de comunicaciones, el control y la automatización y la mecánica de ingeniería. Este sistema combina los datos de supervisión en tiempo real, obtenidos mediante la tecnología de Internet de las Cosas (IoT), con modelos de elementos finitos (FEM) para evaluar con precisión el estado de la estructura.
Su eficacia se demostró mediante un estudio de caso del Puente del Río Amarillo en China (LZYB). El análisis de los datos de seguimiento y las simulaciones por elementos finitos revelaron que el diseño original del puente era excesivamente conservador, ya que la deflexión vertical real bajo cargas operativas representaba entre el 26,5 % y el 33,9 % del valor predicho en el diseño.
Con base en este hallazgo, se optimizó el diseño de la viga principal del puente, lo que permitió reducir el volumen de hormigón de la losa de fondo en un 15 %. Un análisis posterior del ciclo de vida (LCA) cuantificó los beneficios de esta optimización, que incluyen una reducción de 2009,65 toneladas de emisiones de CO₂ y un ahorro económico de 2 694 189,55 CNY, sin comprometer la seguridad ni el rendimiento estructural. Este enfoque representa un nuevo paradigma para el mantenimiento seguro, económico y sostenible de infraestructuras críticas.
1. Introducción y desafíos de la auscultación estructural.
Los puentes de gran envergadura y estáticamente indeterminados están sometidos a múltiples factores que pueden afectar a su integridad, como la respuesta dinámica de la estructura y el daño por fatiga acumulada debido a la interacción de cargas múltiples y condiciones ambientales complejas. Las microfisuras internas pueden propagarse hasta convertirse en fisuras macroscópicas y provocar la inestabilidad y el fallo de la estructura.
1.1. Limitaciones de los métodos tradicionales.
Inspección visual: los métodos iniciales, basados en la inspección visual realizada por personal cualificado para detectar defectos superficiales, como las grietas por fatiga, son imprecisos y propensos a errores.
Supervisión de la salud estructural (SHM) convencional: ha mejorado la precisión, pero enfrenta desafíos como la falta de sensores adecuados para el monitoreo autónomo a largo plazo y de algoritmos eficaces para predecir y diagnosticar daños locales por fatiga.
Enfoques basados en algoritmos: existen dos métodos principales: los basados en modelos, que utilizan un modelo de elementos finitos preciso, pero que consumen mucho tiempo, y los basados en datos, que analizan series temporales continuas, pero que pueden verse limitados por las bajas tasas de transmisión de datos de las redes inalámbricas.
El estudio aborda estas limitaciones combinando las ventajas de ambos enfoques e integrando algoritmos innovadores de alta eficiencia para avanzar en la monitorización continua de la salud estructural.
2. Marco teórico e innovación del sistema.
El trabajo establece un modelo teórico complejo y una plataforma inteligente que integra múltiples disciplinas para superar las barreras técnicas del seguimiento tradicional.
2.1. Puntos clave de la innovación.
Modelo interdisciplinario: se desarrolló un modelo teórico modal complejo, multifactorial y de múltiples fuentes que combina la ciencia de la computación, la ingeniería de comunicaciones, el control y la automatización y la mecánica de ingeniería. Este modelo analiza el impacto de múltiples factores en las estructuras de los puentes y permite realizar un seguimiento de alertas tempranas en una plataforma en la nube.
Supervisión basada en IoT: se adopta un monitoreo en línea, automatizado y en tiempo real basado en el Internet de las cosas (IoT). De este modo, se soluciona la incapacidad de la tecnología tradicional para lograr un seguimiento espaciotemporal continuo y a gran distancia, y se transforma el seguimiento de un «basado en puntos, indirecto y de ajuste de curvas» a otro «espacial, directo y continuo».
Sistema de alerta temprana: proporciona un modelo eficaz de control y de alerta temprana para diversos tipos de deterioro, como grietas, deformaciones, envejecimiento y vibración dinámica. Valida la viabilidad de la estructura en términos de integridad, seguridad, durabilidad y control de la resistencia.
2.2. Componentes del modelo teórico.
El modelo matemático integra varios análisis para evaluar el estado de la estructura:
Daño por fatiga estructural: utiliza un modelo de daño por fatiga acumulativa no lineal para analizar la propagación de las fisuras y la degradación continua del módulo de elasticidad del hormigón.
Daño por fatiga del acero: se considera que la vida útil del puente está determinada principalmente por la fatiga de las barras de acero. El modelo calcula la profundidad crítica de la fisura y la tensión residual del acero.
Efecto de cargas múltiples: se aplica un modelo de mezcla gaussiana para analizar los datos de monitorización, que presentan una distribución de picos múltiples, y se calcula la deflexión total considerando la carga viva, la tensión térmica, la pérdida de pretensado y la retracción y la fluencia del hormigón.
Acoplamiento vehículo-puente: Construye una ecuación de un sistema de movimiento acoplado para analizar las interacciones mecánicas entre los vehículos y el puente.
Optimización dinámica estructural: utiliza un modelo matemático basado en la función lagrangiana para realizar un diseño de optimización dinámica con un ritmo de convergencia rápido.
3. Estudio de caso: el puente del río Amarillo (LZYB)
La metodología se aplicó a esta estructura atirantada, con un vano principal de 360 metros, ubicada en China.
3.1. Descripción del puente y sistema de control
Especificaciones: El LZYB es un puente extragrande para autopista de cuatro carriles con torres romboidales de hormigón armado (C50), una altura de torre de hasta 151 metros y cables atirantados de haces de alambre de acero paralelos galvanizados.
Sistema de monitorización: se instalaron 374 dispositivos de 10 tipos diferentes, incluidos sensores de temperatura y de humedad, acelerómetros, extensómetros y sensores de fibra óptica, entre otros. Estos dispositivos se ubicaron en puntos críticos de momento flector y de fuerza cortante, determinados mediante principios de mecánica y el modelo FEM. Los datos se transmiten en tiempo real a una plataforma en la nube basada en internet de las cosas (IoT, por sus siglas en inglés) para su análisis y alerta temprana.
Número
Elementos de control
Indicadores de alerta
Método de adquisición
1
Análisis del modelo de vehículo
Identificación de carga nominal (nº de ejes, longitud)
Videovigilancia
2
Análisis del flujo de tráfico
Autopista de 4 carriles (ADT 2 500-55 000 vehículos)
Videovigilancia; captura de video
3
Análisis de sobrepeso
Límite de 49 toneladas (se detectaron 82.5; 110 ton)
Frecuencia natural inferior al valor teórico calculado
Equipo de monitorización de fibra óptica
3.2. Análisis de los datos de monitorización en tiempo real (abril-julio).
Cargas de tráfico: se observó un crecimiento mensual significativo en el volumen total de tráfico, en el número de vehículos con sobrepeso y en el de vehículos que circulaban a exceso de velocidad. El tráfico medio diario osciló entre 7319 y 14 431 vehículos, con picos en junio y julio.
Respuesta estructural (deformación): la respuesta de deformación bajo cargas de vehículos mostró una distribución de picos múltiples. El análisis identificó que dicha respuesta se concentraba en la sección de 3.50 L a 5.50 L del lado oeste.
Acoplamiento temperatura-deflexión: se halló una fuerte correlación positiva entre la temperatura ambiental y la deflexión de la viga principal (R² = 0,6953). La deflexión máxima registrada fue de 628,9 mm. El análisis identificó las zonas de la viga principal en las que la influencia de la temperatura sobre la deflexión era más marcada.
3.3. Acoplamiento y análisis mediante el modelo de elementos finitos (MEF).
Se creó un modelo 3D del LZYB en Abaqus/CAE 2021 para simular su comportamiento bajo cargas de diseño. Los resultados de la simulación fueron los siguientes:
Energía: la energía máxima se concentró en la losa de fondo de la viga principal, entre los vanos 2 y 3.
Deformación: la máxima deformación (0,004813 µε) se observó en la parte media de los cables atirantados.
Tensión: La tensión máxima (991,175 MPa) se localizó también en los cables atirantados, concretamente en el cable 3-1.
Desplazamiento: El desplazamiento vertical máximo calculado fue de 0,002267 metros en el centro del vano principal (sección 6L/12 de la viga).
4. Discusión: optimización y evaluación de la sostenibilidad.
La comparación entre los datos de supervisión en tiempo real y los resultados del FEM sirvió de base para optimizar el diseño.
4.1. Redundancia estructural identificada.
El análisis comparativo reveló una discrepancia significativa: la deflexión vertical global del puente durante su funcionamiento (entre 0,0021 y 0,5944 m) representaba entre el 26,50 % y el 33,90 % del valor máximo predicho por el modelo FEM con cargas de diseño (hasta 2,2434 m). Este hecho indica que el diseño estructural es significativamente conservador o «redundante».
4.2. Optimización del diseño de la viga principal.
Aprovechando la redundancia identificada, se llevó a cabo un proceso de optimización del diseño acoplado de la viga principal. Se analizó el impacto de reducir el volumen de hormigón de la viga de forma iterativa.
Resultado de la optimización: se determinó que era posible reducir el volumen de hormigón de la losa de fondo de la viga principal en un 15 % (es decir, reducir su espesor a 70 mm) sin comprometer el cumplimiento de los requisitos de rendimiento bajo las cargas de diseño originales.
4.3. Evaluación del ciclo de vida (LCA) y de los beneficios.
Se realizó una evaluación del ciclo de vida (LCA) para cuantificar los beneficios ambientales y económicos del diseño optimizado.
Beneficios ambientales y económicos: la reducción del 15 % del hormigón utilizado en la viga principal se traduce en un ahorro significativo a lo largo de todo el ciclo de vida del proyecto.
Indicador de evaluación
Reducción
Calentamiento global (GWP100a)
2009,65 toneladas de CO2 eq.
Acidificación (AP)
8,86 toneladas de SO2 eq.
Eutrofización (FEP)
7,12 toneladas de PO4 eq.
Polvo en suspensión (PMFP)
79,63 toneladas
Ahorro económico (coste de material)
2 694 189,55 CNY
5. Conclusiones y hallazgos clave
La investigación demuestra con éxito la viabilidad de un sistema inteligente de supervisión en la nube, acoplado a un modelado FEM, para analizar la seguridad y optimizar el diseño de puentes de gran envergadura.
Resultados clave:
Fallo de cables: el fallo de los cables es un factor crítico para la estabilidad de los puentes atirantados y debe ser un objetivo principal del seguimiento.
Ubicación de la tensión máxima: la tensión más alta se concentra en los cables más largos (en este caso, el cable n.º 10), específicamente en la zona situada a menos de 2 metros de la parte superior de la torre principal.
Diseño del sistema de monitorización subóptimo: el diseño actual de los puntos de control resulta ineficiente. No hay sensores en la parte superior de la torre, donde la tensión es máxima, mientras que hay demasiados en la viga principal.
Enfoque del mantenimiento: el mantenimiento rutinario de los cables atirantados debe centrarse en las zonas de conexión de la parte superior de la torre y de la viga principal.
Innovación y limitaciones: La principal innovación del estudio consiste en aplicar de manera sistemática datos medidos y el modelado FEM 3D para resolver problemas de seguridad y optimización en puentes complejos. Esto ofrece un ejemplo práctico de supervisión en tiempo real y de análisis de la solidez de los datos. Una limitación reconocida es la falta de un estudio en profundidad sobre los efectos destructivos de las sobrecargas de peso y de velocidad, lo que sugiere una línea de investigación para el futuro.
Acaban de publicar un artículo nuestro en Structural Engineering and Mechanics, una de las revistas de referencia del JCR. Este trabajo sintetiza los resultados de un estudio en el que se presenta un marco de optimización multiobjetivo innovador para el diseño de pasarelas peatonales con estructuras mixtas de acero y hormigón.
La investigación se enmarca en el proyecto RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València. A continuación, se presenta un resumen del trabajo y de la información contextual.
El objetivo principal de esta investigación ha sido equilibrar la eficiencia económica y medioambiental con la seguridad estructural y el confort del usuario, integrando de manera única la resiliencia ante incendios. A diferencia de investigaciones previas, este trabajo incorpora seis escenarios distintos de exposición al fuego, desde 320 hasta 720 segundos, para evaluar el rendimiento de la estructura en condiciones extremas.
Los resultados revelan una relación directa y lineal entre el coste y las emisiones de CO₂, lo que demuestra que por cada dólar estadounidense (1 USD) ahorrado en el coste por metro de la estructura, se reduce la emisión de 0,7727 kg de CO₂. Este descubrimiento posiciona la optimización de costes como una estrategia que favorece la sostenibilidad económica y medioambiental.
Un descubrimiento clave es que se pueden lograr mejoras sustanciales en la seguridad contra incendios con inversiones moderadas. Un aumento del 23 % en el coste permite que la estructura resista casi 8 minutos (460 segundos) de exposición al fuego antes de colapsar, mientras que incrementos menores, del 3,91 % y 15,06 %, aseguran la estabilidad durante 320 y 400 segundos, respectivamente. El estudio también pone de manifiesto un cambio fundamental en la configuración del diseño óptimo: mientras que los diseños esbeltos son más eficientes en términos de coste y emisiones en condiciones normales, las configuraciones más compactas son necesarias para garantizar la seguridad en caso de exposición prolongada al fuego. Estos resultados ofrecen directrices prácticas para el desarrollo de infraestructuras urbanas más seguras, resilientes y sostenibles.
1. Marco de optimización multiobjetivo.
El estudio aborda una brecha crítica en ingeniería estructural: la falta de investigaciones que apliquen métodos de optimización a infraestructuras reales, integrando simultáneamente criterios de sostenibilidad (económicos, medioambientales y sociales) y de seguridad, especialmente en condiciones extremas, como la exposición al fuego.
1.1. Metodología aplicada
El análisis se centra en una pasarela peatonal de estructura mixta de acero y hormigón, con una luz de 17,5 metros, ubicada en el sur de Brasil. Con el fin de hallar las soluciones óptimas, se empleó un algoritmo de Búsqueda de Armonía Multiobjetivo (MOHS, por sus siglas en inglés), desarrollado a medida en Python. El proceso de optimización busca minimizar simultáneamente tres funciones objetivo:
Coste: coste de los materiales necesarios para construir la estructura, basado en los precios del mercado brasileño.
Emisiones de CO₂: el impacto ambiental, medido por las emisiones de CO₂ asociadas a la producción de los materiales, para lo que se han utilizado indicadores específicos de la región objeto de estudio.
Aceleración vertical máxima: medida del confort de los peatones, calculada a partir de las vibraciones inducidas por su movimiento.
El modelo tiene en cuenta ocho variables de diseño discretas, como el espesor de la losa de hormigón y las dimensiones de las vigas de acero, lo que da como resultado un espacio de búsqueda de 7×10¹¹ soluciones posibles.
Ilustración de la pasarela mixta
1.2. Escenarios de exposición al fuego.
Una de las innovaciones centrales del estudio es incorporar la resiliencia al fuego en el proceso de optimización. Se ha simulado un escenario de incendio de un vehículo debajo de una pasarela utilizando una curva tiempo-temperatura específica, desarrollada a partir de pruebas experimentales realizadas en puentes no confinados. Además de la condición a temperatura ambiente (0 segundos), se analizaron seis periodos de exposición al fuego que provocaron una degradación significativa de las propiedades mecánicas del acero.
Periodo de exposición al fuego (s)
Temperatura del acero (°C)
Factor de reducción (límite elástico)
Factor de reducción (módulo de elasticidad)
0
20
1,00
1,00
320
200
1,00
0,90
400
300
1,00
0,80
460
400
1,00
0,70
510
500
0,78
0,60
560
600
0,47
0,31
720
700
0,23
0,13
2. Hallazgos clave y análisis de resultados.
El proceso de optimización generó un frente de Pareto tridimensional que muestra los equilibrios entre coste, emisiones y confort en los distintos escenarios de incendio.
2.1. Relación lineal entre el coste y las emisiones de CO₂.
Se identificó una relación directa y consistente entre el coste de fabricación y las emisiones de CO₂ en todos los escenarios analizados. Los datos demuestran que cada real brasileño (R$) ahorrado mediante la optimización equivale a una reducción de 0,1358 kg de CO₂. Convertido a dólares estadounidenses, esto equivale a una reducción de 0,7727 kg de CO₂ por cada dólar estadounidense ahorrado por metro de pasarela.
Esta correlación confirma que la optimización económica es una herramienta eficaz para promover la sostenibilidad medioambiental, especialmente en regiones que necesitan desarrollar infraestructuras sin sacrificar la eficiencia económica.
2.2. Intercambio entre la resistencia al fuego y el coste.
Como era de esperar, aumentar la resistencia de la estructura al fuego implica un mayor coste y, por tanto, más emisiones. Sin embargo, el estudio demuestra que es posible lograr mejoras significativas en la seguridad con incrementos de coste relativamente bajos o moderados.
Un incremento del 3,91 % en el coste permite que la estructura resista durante 320 segundos (5 minutos) de fuego.
Un incremento del 15,06 % extiende la resistencia a 400 segundos (6,5 minutos).
Un incremento moderado del 23 % evita el colapso durante casi ocho minutos (460 segundos), lo que proporciona un tiempo valioso para la evacuación.
Diseñar para resistir un incendio de 12 minutos (720 segundos) incrementa el coste en más del 400 %, por lo que resulta inviable en la mayoría de los casos.
2.3. Impacto en el confort de los peatones.
Los objetivos de coste y confort son conflictivos: un mayor confort (menor aceleración vertical) exige una mayor rigidez estructural, lo que se traduce en un mayor consumo de materiales.
Pasar de un nivel de confort «mínimo» a «medio» implica un aumento del coste promedio del 44 %.
Mejorar el nivel de confort de «medio» a «máximo» solo requiere un aumento promedio del 6 % en el coste, lo que sugiere que es una inversión factible en la mayoría de los escenarios.
La excepción es el escenario de 12 minutos de fuego, en el que alcanzar el nivel de confort «máximo» supone un 68 % más que el «medio», debido a la grave degradación del rendimiento del acero.
3. Implicaciones prácticas y configuraciones óptimas de diseño.
El análisis de las variables de diseño de las soluciones óptimas revela patrones claros y ofrece implicaciones prácticas para la ingeniería.
3.1. Evolución del diseño en función de la exposición al fuego.
La configuración geométrica óptima de la pasarela varía drásticamente según el tiempo de exposición al fuego considerado.
En ausencia de fuego o con una exposición breve, la solución más eficiente es un diseño de alta esbeltez, con vigas de acero altas y delgadas que se acercan a los límites normativos. Así se minimiza el consumo de material, lo que reduce costes y emisiones.
Con una exposición prolongada al fuego (es decir, superior a 510 segundos), la solución óptima se desplaza hacia configuraciones más compactas y menos esbeltas. Se observa un aumento considerable del espesor del alma y de las alas de las vigas de acero.
Este cambio se debe a que, a altas temperaturas, el límite de esbeltez (que depende del módulo de elasticidad y del límite elástico del acero) disminuye considerablemente. En los escenarios más extremos, el límite de esbeltez deja de ser una restricción activa y el algoritmo prioriza la robustez geométrica para cumplir con otros requisitos de diseño.
Periodo de exposición (s)
Esbeltez óptima / Límite de esbeltez
0
99,17 %
460
99,54 %
560
68,45 %
720
46,98 %
3.2. Estrategias de materiales.
Preferencia por el acero: el estudio revela que, para aumentar la seguridad contra incendios, es más rentable y sostenible incrementar el consumo de acero (a pesar de la degradación de sus propiedades) que aumentar la rigidez mediante una losa de hormigón más gruesa.
Interacción total: en todas las soluciones óptimas de menor coste, el grado de interacción entre la viga de acero y la losa de hormigón es del 100 % (α = 1,0), lo que indica que el comportamiento compuesto completo es la opción más eficiente.
4. Conclusiones principales
El estudio presenta un marco sólido para el diseño de pasarelas mixtas de acero y hormigón y demuestra que es posible equilibrar sostenibilidad, economía y seguridad. Las conclusiones más relevantes son las siguientes:
Sostenibilidad y coste vinculados: existe una relación lineal y cuantificable entre la reducción de costes y la disminución de las emisiones de CO₂, por lo que la optimización económica puede utilizarse como herramienta para la sostenibilidad ambiental.
Seguridad contra incendios asequible: es posible mejorar significativamente la seguridad de una pasarela ante un incendio con incrementos de coste moderados y económicamente viables.
El diseño se adapta al riesgo: la configuración óptima de una estructura no es universal; los diseños esbeltos son ideales para condiciones normales, pero las configuraciones compactas son cruciales para la resiliencia en escenarios de incendio prolongados.
Implicaciones para el diseño: los resultados subrayan la importancia de incorporar escenarios de riesgo extremo en las primeras fases del diseño estructural para crear infraestructuras más seguras y resilientes sin comprometer desproporcionadamente los recursos.
Estas conclusiones se aplican únicamente a la tipología de estructura y al escenario de incendio estudiados, así como a los costes y a los factores de emisión regionales. Por tanto, se requieren más investigaciones para validar y extender estos resultados a otros contextos.
En esta ocasión comparto con los lectores una entrevista que me han realizado a propósito de un reciente estudio publicado en Nature Communications —Vaserman, E., Weaver, J.C., Hayhow, C. et al. (2025), An unfinished Pompeian construction site reveals ancient Roman building technology— que ha generado un notable interés tanto en la comunidad científica como en los medios. El trabajo ha sido también objeto de un artículo en El País (“Así construían los albañiles de la Antigua Roma”, disponible en: https://elpais.com/ciencia/2025-12-09/asi-construian-los-albaniles-de-la-antigua-roma.html), en el que se recoge mi valoración sobre sus implicaciones para la ingeniería civil y la comprensión de las técnicas constructivas romanas. Presento aquí la entrevista completa, con el fin de profundizar en los aspectos técnicos y arqueológicos que hacen de este estudio un caso excepcional para el análisis de los materiales históricos.
El artículo sostiene que en Pompeya se empleaba con cierta frecuencia la mezcla en caliente con cal viva, ¿cómo interpreta esta afirmación?
El trabajo presenta una serie de análisis microestructurales y químicos que indican claramente que en la Domus IX 10,1 se utilizó un procedimiento basado en la mezcla de cal viva con materiales puzolánicos en estado seco. Los resultados son coherentes con esta hipótesis y están bien fundamentados en este contexto arqueológico, especialmente debido al hallazgo de montones de material premezclado seco que contenían gránulos de cal viva. No obstante, desde la perspectiva de la ingeniería civil, conviene subrayar que se trata de una evidencia localizada en un momento de reconstrucción posterior al terremoto del año 62 d. C., por lo que no es posible extrapolarla automáticamente a todo el ámbito del Imperio romano. La diversidad de materiales y prácticas constructivas descrita por autores como Vitruvio, quien abogaba por el apagado previo de la cal, hace recomendable interpretar este estudio como una muestra de la coexistencia de métodos alternativos al canon clásico, pero no como una descripción universal.
El estudio plantea que los morteros podrían haber experimentado procesos de autorreparación a muy largo plazo. ¿Cómo valora usted esta idea?
Los datos indican que ciertos clastos de calcita pudieron seguir reaccionando durante un periodo prolongado, actuando como fuente de calcio reactivo. Esto habría favorecido el relleno de microfisuras mediante la recristalización de carbonato cálcico en sus polimorfos de calcita y aragonito. Este comportamiento es interesante desde el punto de vista científico, ya que permite comprender mejor la evolución mineralógica en la interfaz entre los áridos volcánicos y la matriz cementante. No obstante, desde el punto de vista de la ingeniería estructural moderna, es importante tener en cuenta su contexto, ya que se trata de un proceso geoquímico lento, con efectos localizados y condicionado por los ciclos de humedad ambiental. Esta característica ayuda a explicar la durabilidad observada, pero no tiene una equivalencia directa con los mecanismos de reparación activa inmediata que se investigan actualmente en la obra civil.
¿Podría interpretarse la presencia de clastos de cal como un indicio de una mezcla defectuosa?
En determinadas obras históricas, la presencia de grumos de cal puede deberse a procesos de mezcla incompletos o a un apagado insuficiente. Sin embargo, en este caso particular, los análisis de espectroscopía infrarroja y de isótopos estables de carbono y oxígeno indican que estos grumos se formaron durante un proceso térmico y químico compatible con la utilización deliberada de cal viva. Los investigadores documentan, además, la segregación intencionada de materiales: montones de premezcla con cal viva para muros estructurales frente a ánforas con cal apagada para acabados. Por tanto, las pruebas apuntan a una técnica constructiva específica (hot mixing) y no a una ejecución negligente.
¿Cree que estos resultados pueden considerarse representativos del conjunto de la construcción romana?
Los datos corresponden a un escenario muy concreto, que se conserva excepcionalmente bien gracias a la ceniza volcánica de la erupción del 79 d. C., lo que permite analizar materiales «congelados» en plena fase de obra. Precisamente por su carácter singular, lo más prudente es entender que este estudio aporta información específica sobre la logística de una obra doméstica en Pompeya del siglo I, sin que ello implique que todos los constructores romanos actuaran de la misma manera en obras de infraestructura pública o en otras provincias. Para avanzar en esta cuestión, será necesario realizar estudios comparativos con metodologías similares en otros yacimientos u enclaves imperiales.
El artículo distingue entre morteros estructurales y de acabado. ¿Considera acertada esa diferenciación?
Esta diferenciación es coherente con lo que cabría esperar en cualquier tradición constructiva con un mínimo grado de especialización. El estudio documenta el uso de cal apagada almacenada en ánforas recicladas, presumiblemente destinada a morteros de reparación o revestimientos pictóricos, mientras que la cal viva se reservaba para la mampostería estructural. Las propiedades requeridas para un muro de carga no son idénticas a las necesarias para un acabado fino y el análisis químico (ratios Ca/Si) del artículo parece respaldar que se ajustaban las formulaciones según la función. La propuesta es razonable y encaja con el análisis logístico del flujo de trabajo en la obra.
¿Qué aspectos de este trabajo pueden interesar a la ingeniería civil actual, especialmente en relación con los hormigones modernos?
Este estudio contribuye a una comprensión más completa de la evolución de ciertos morteros históricos a lo largo del tiempo, lo que puede resultar inspirador para el desarrollo de nuevos materiales de restauración compatibles y con menor huella de carbono. El uso de la reactividad residual de los clastos de cal para sellar fisuras es un principio valioso para la sostenibilidad. No obstante, los materiales actuales ofrecen prestaciones y un nivel de control muy superiores. Disponemos de cementos compuestos y de normativas de seguridad que permiten diseñar con una fiabilidad estandarizada que no existía en la antigüedad. Por tanto, los morteros romanos son un referente histórico y una fuente de inspiración, pero no un modelo que pueda utilizarse directamente en las grandes infraestructuras contemporáneas.
Algunos autores han sugerido que parte de los carbonatos observados podría ser producto de procesos posteriores a la construcción. ¿Cómo valora la argumentación del estudio?
El artículo describe una serie de observaciones que indican que parte de los carbonatos se formaron durante la vida útil inicial del material. Concretamente, el análisis de isótopos permite distinguir entre la carbonatación rápida en condiciones de mezcla en caliente (fraccionamiento cinético) y la carbonatación lenta en equilibrio. Esto permite a los autores argumentar que los clastos no son únicamente producto de la degradación postdeposicional. No obstante, en materiales con tantos siglos de antigüedad, es razonable tener en cuenta también la influencia del entorno. El estudio aborda este aspecto mediante el análisis de los bordes de reacción de los áridos volcánicos, donde se observa una remineralización continua. Desde un enfoque técnico, el estudio aporta pruebas sólidas para distinguir ambas fases.
Desde su perspectiva como catedrático de ingeniería de la construcción, ¿qué aportación considera más destacable y qué limitaciones observa?
El estudio destaca por ofrecer una visión muy detallada de un proceso constructivo interrumpido, lo que supone una oportunidad excepcional. La identificación de herramientas in situ (plomadas, azadas, pesas) junto con los materiales permite reconstruir el flujo de trabajo real, algo que rara vez se conserva. La principal limitación es su naturaleza localizada, ya que describe un caso concreto de una domus privada en reparación, lo que no permite, por sí solo, establecer conclusiones de alcance general sobre la gran ingeniería pública romana. También sería interesante complementar estas investigaciones en el futuro con datos de resistencia mecánica comparada para realizar una valoración más completa desde el punto de vista de la ingeniería estructural.
En este audio se puede escuchar una conversación que trata sobre este artículo recientemente publicado
Las ideas más interesantes del artículo se puede ver en este vídeo.
En esta presentación se resumen las ideas más importantes.
Acaban de publicar nuestro artículo en la revista Environmental Impact Assessment Review (primer cuartil del JCR), en el que se propone un método directo y más riguroso para calcular el módulo de balasto en losas de cimentación, que incorpora un nuevo enfoque de seguridad y criterios de sostenibilidad para mejorar el diseño suelo-estructura.
Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València.
En las últimas décadas, el diseño de cimentaciones ha evolucionado hacia soluciones más seguras, eficientes y sostenibles. Sin embargo, el módulo de balasto vertical (Ks), uno de los parámetros más utilizados en la modelización del contacto suelo-estructura, sigue empleándose en muchos proyectos como si se tratara de una propiedad intrínseca del terreno. El artículo analizado sugiere un cambio de paradigma en esta práctica, al introducir un método directo para estimar Ks a partir de la relación carga-asentamiento, así como un nuevo marco de seguridad orientado al diseño sostenible. Esta aportación es especialmente relevante en el caso de las cimentaciones tipo losa, habituales en edificios y estructuras industriales.
El estudio parte de una cuestión fundamental: ¿cómo se puede estimar de forma rigurosa el módulo de balasto vertical (Ks) en losas de cimentación, considerando parámetros geotécnicos habitualmente ignorados y, al mismo tiempo, integrando criterios de sostenibilidad y seguridad en el diseño?
Esta cuestión surge de las deficiencias detectadas en los métodos indirectos y semidirectos que se emplean comúnmente, ya que no consideran aspectos clave como la profundidad de la influencia o los efectos de compensación de cargas.
Los autores desarrollan una metodología directa que combina varias herramientas avanzadas de análisis geotécnico:
Teoría del semiespacio elástico para representar el comportamiento del terreno.
Análisis de asientos por capas, con el fin de capturar la variabilidad en profundidad.
Mecánica de consolidación basada en ensayos edométricos, que permite incorporar la respuesta deformacional del suelo bajo carga.
Consideración explícita de la profundidad de la influencia y de la compensación de cargas, factores que rara vez se incluyen en los métodos tradicionales.
Con este planteamiento, se obtiene directamente un valor de Ks coherente con los principios de la energía elástica y adecuado para modelos avanzados de interacción suelo-estructura. El valor resultante, 5,30 MN/m³, se sitúa entre los límites inferiores y superiores calculados, lo que confirma la consistencia del método.
El estudio no se limita al aspecto puramente geotécnico, sino que también integra una evaluación de la sostenibilidad del ciclo de vida de tres alternativas de losa de hormigón armado. Para ello, combina un proceso jerárquico analítico neutrosófico (NAHP-G) con el método de decisión multicriterio ELECTRE III, considerando dimensiones estructurales, ambientales y socioeconómicas.
Además, se introduce un coeficiente de seguridad específico para Ks, calibrado para considerar la variabilidad espacial del subsuelo y mejorar el diseño en términos de servicio.
Los resultados del trabajo son especialmente significativos:
El método directo permite obtener un Ks más representativo del comportamiento real del terreno y de la losa bajo carga.
El nuevo coeficiente de seguridad proporciona un diseño más fiable y coherente con la incertidumbre del subsuelo.
Se logra una mejora de 2,5 veces en el índice de seguridad social y una reducción del 50 % en los impactos ambientales respecto a metodologías convencionales.
El estudio redefine Ks como una variable de diseño, no como una constante del suelo, corrigiendo así décadas de uso inapropiado en la ingeniería geotécnica.
Las conclusiones del artículo tienen un impacto directo en la práctica profesional:
Mejora del diseño de losas: el método permite ajustar mejor los modelos numéricos y evitar tanto el sobredimensionamiento como los fallos por asientos excesivos.
Integración de la sostenibilidad en fases tempranas del proyecto: el marco NAHP-G + ELECTRE IS proporciona una herramienta objetiva para comparar alternativas de cimentación no solo por criterios técnicos, sino también por criterios ambientales y sociales.
Mayor seguridad y fiabilidad: el nuevo coeficiente de seguridad para Ks ayuda a gestionar la incertidumbre y aumenta los márgenes de seguridad de forma cuantificada.
Aplicación en proyectos con elevada heterogeneidad del terreno: el enfoque resulta especialmente útil en suelos con variabilidad marcada, donde los métodos simplificados generan resultados poco fiables.
La Universitat Politècnica de València (UPV) ha obtenido un reconocimiento destacado europeo al ganar el premio al mejor proyecto en la categoría «AI for Sustainable Development» de la European Universities Competition on Artificial Intelligence, organizada por la HAW Hamburg.
El trabajo galardonado, desarrollado en el ICITECH por el doctorando Iván Negrín, demuestra cómo la inteligencia artificial puede transformar el diseño estructural para hacerlo más sostenible y resiliente, con reducciones de hasta un 32 % en la huella de carbono respecto a los sistemas convencionales. Este logro posiciona a la UPV como un referente europeo en innovación ética e impacto y reafirma su compromiso con la búsqueda de soluciones frente al cambio climático y al desarrollo insostenible.
El trabajo se enmarca en el proyecto de investigación RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València. La tesis doctoral de Iván la dirigen los profesores Víctor Yepes y Moacir Kripka.
Introducción: El dilema de la construcción moderna.
La industria de la construcción se enfrenta a un reto monumental: edificar las ciudades del futuro sin agotar los recursos del presente. El enorme impacto medioambiental de los materiales y procesos tradicionales, especialmente las emisiones de CO₂, es uno de los problemas más acuciantes de nuestra era.
¿Y si la solución a este problema no radicara en un nuevo material milagroso, sino en una nueva forma de pensar? ¿Y si la inteligencia artificial (IA) pudiera enseñarnos a construir de manera mucho más eficiente y segura?
Esa es precisamente la hazaña que ha logrado un innovador proyecto de la Universitat Politècnica de València (UPV). Su enfoque es tan revolucionario que acaba de ganar un prestigioso premio europeo, lo que demuestra que la IA ya no es una promesa, sino una herramienta tangible para la ingeniería sostenible.
Clave 1: una innovación europea premiada al más alto nivel.
Este no es un proyecto académico cualquiera. La investigación, dirigida por el doctorando Iván Negrín del Instituto de Ciencia y Tecnología del Hormigón (ICITECH) de la UPV, ha recibido el máximo reconocimiento continental.
Inicialmente seleccionado como uno de los diez finalistas, el proyecto tuvo que defenderse en una presentación final ante un jurado de expertos. Tras la deliberación del jurado, el proyecto fue galardonado como el mejor en la categoría «AI for Sustainable Development Projects» de la competición «European Universities Competition on Artificial Intelligence to Promote Sustainable Development and Address Climate Change», organizada por la Universidad de Ciencias Aplicadas de Hamburgo (HAW Hamburg). Este reconocimiento consolida la reputación del proyecto en el ámbito de la innovación europea.
Clave 2: adiós al CO₂: reduce la huella de carbono en más del 30 %.
El resultado más impactante de esta investigación es su capacidad para abordar el principal problema medioambiental del sector de la construcción: las emisiones de carbono. La plataforma de diseño asistido por IA puede reducir la huella de carbono de los edificios de manera significativa.
En concreto, consigue una reducción del 32 % de la huella de carbono en comparación con los sistemas convencionales de hormigón armado, que ya habían sido optimizados. Esta reducción abarca todo el ciclo de vida del edificio, desde la extracción de materiales y la construcción hasta su mantenimiento y su eventual demolición.
En un sector tan difícil de descarbonizar, un avance de esta magnitud, impulsado por un diseño inteligente y no por un nuevo material, supone un cambio de paradigma fundamental para la ingeniería sostenible.
Clave 3: Rompe el mito: más sostenible no significa menos resistente.
Uno de los aspectos más revolucionarios del proyecto es la forma en que resuelve un conflicto histórico en ingeniería: la sostenibilidad frente a la resiliencia. La IA ha superado la barrera que obligaba a elegir entre usar menos material para ser sostenible o más material para ser resistente.
En una primera fase, el modelo optimizó estructuras mixtas de acero y hormigón (denominadas técnicamente RC-THVS) para que fueran altamente sostenibles, aunque con una resiliencia baja. Lejos de detenerse, la IA iteró sobre su propio diseño y, en una evolución posterior (RC-THVS-R), logró una solución altamente sostenible y resiliente frente a eventos extremos.
La metodología desarrollada permite compatibilizar la sostenibilidad y la resiliencia, superando el tradicional conflicto entre ambos objetivos.
Clave 4: Ahorro desde los cimientos. Menos costes, energía y materiales.
Los beneficios de esta IA no solo benefician al planeta, sino también al bolsillo y a la eficiencia del proyecto. La optimización inteligente de las estructuras se traduce en ahorros tangibles y medibles desde las primeras fases de la construcción.
Los datos demuestran un ahorro significativo en múltiples frentes:
-16 % de energía incorporada.
-6 % de coste económico.
– Reducción del 17 % de las cargas transmitidas a columnas y cimentaciones.
Este último punto es clave. Una menor carga en los cimientos no solo supone un ahorro directo de materiales, sino que tiene un efecto cascada en materia de sostenibilidad: al usar menos hormigón, se reduce la cantidad de cemento empleado, uno de los principales generadores de CO₂ a nivel mundial.
Clave 5: un enfoque versátil para las ciudades del futuro (y del presente).
La aplicación de esta metodología no se limita a los grandes edificios de nueva construcción. Su versatilidad la convierte en una herramienta estratégica para el desarrollo urbano integral.
Puede aplicarse a infraestructuras de transporte, como puentes y pasarelas, para minimizar su impacto ambiental. También es fundamental para la rehabilitación de estructuras existentes, ya que permite optimizar su seguridad y reducir las emisiones asociadas a los refuerzos.
Este enfoque se alinea con los Objetivos de Desarrollo Sostenible (ODS) de la ONU, concretamente con los ODS 9 (Industria, innovación e infraestructura), 11 (Ciudades y comunidades sostenibles) y 13 (Acción por el clima).
Conclusión: construyendo un futuro inteligente.
Este proyecto de la UPV demuestra que la inteligencia artificial ha dejado de ser una tecnología futurista para convertirse en una herramienta imprescindible en la ingeniería civil. Ya no se trata de promesas, sino de soluciones prácticas que resuelven problemas reales, medibles y urgentes.
La capacidad de diseñar estructuras más baratas, ecológicas, seguras y resistentes abre un nuevo capítulo en la construcción.
¿Estamos a las puertas de una nueva era en la ingeniería en la que la sostenibilidad y la máxima seguridad ya no son objetivos contrapuestos, sino aliados inseparables gracias a la inteligencia artificial?
En futuros artículos, explicaremos con más detalle el contenido de este proyecto ganador. De momento, os dejo una conversación que lo explica muy bien y un vídeo que resume lo más importante. Espero que os resulte interesante.
Os dejo un documento resumen, por si queréis ampliar la información.
El campo de la innovación en la construcción está lleno de siglas y términos que pueden resultar abrumadores para cualquiera que se inicie en este mundo. Acrónimos como MMC, IC, OSC y conceptos como prefabricación o construcción modular se utilizan a menudo de manera inconsistente, lo que crea una barrera de confusión para quienes se inician en este campo.
El propósito de este artículo es actuar como un decodificador, no solo por rigor académico, sino porque la capacidad de la industria para resolver desafíos urgentes, como la crisis de la vivienda, la productividad estancada y la descarbonización del entorno construido, depende de una comprensión común y una estrategia coherente.
La situación actual es como si hubiera un conjunto de etiquetas superpuestas para describir un mismo ecosistema: unas describen el clima (el enfoque general), otras las especies de árboles (los sistemas técnicos) y otras el suelo en el que crecen (las tecnologías habilitadoras). Sin un mapa que las organice, es fácil perderse.
En esta guía, basada en el trabajo de Paul D. Kremer, desglosaremos esta jerga compleja, empezando por los tres términos más amplios y confusos, que actúan como grandes «paraguas» conceptuales.
2. Los grandes «paraguas»: aclarando MMC, IC y OSC/OSM.
Los términos más confusos son aquellos que buscan describir enfoques generales para modernizar la construcción. Aunque a menudo se usan como sinónimos, representan ideas fundamentalmente distintas.
Métodos Modernos de Construcción (MMC): es un «término paraguas» amplio, principalmente impulsado por políticas gubernamentales, que carece de una definición técnica estable y coherente. La investigación es clara al respecto y señala que el MMC funciona «en gran medida como un paraguas impulsado por políticas con poca o ninguna frontera técnica coherente». En la práctica, su significado varía según el contexto. En algunos documentos, MMC puede referirse a sistemas modulares volumétricos, a herramientas digitales de gestión o a un conjunto de estrategias para mejorar la productividad. Es un término retórico útil para las políticas públicas, pero analíticamente débil por su ambigüedad.
Construcción industrializada (CI): es el paradigma más coherente y estable de los tres. Consiste en aplicar la lógica de la fabricación al proceso constructivo. No se trata simplemente de construir en una fábrica, sino de reconfigurar todo el sistema de producción. Sus características principales son:
Repetibilidad y normalización: trata la construcción como un sistema de producción orquestado, con componentes y procesos estandarizados, en lugar de una serie de prototipos únicos.
Logística coordinada: enfatiza la planificación de la producción y las operaciones de la cadena de suministro totalmente integradas, similar a la de una línea de ensamblaje de automóviles.
Enfoque en el proceso: se centra en cómo se organiza la construcción (el flujo de trabajo, la estandarización, la eficiencia) y no solo en dónde ocurre (en la obra o en una fábrica).
Construcción/fabricación en taller (OSC/OSM): (del inglés, Off-Site Construction/Manufacturing) se refiere a la ubicación. Su función principal es indicar que una parte o la totalidad del proceso de construcción se traslada de la obra a un entorno controlado, como una fábrica. Sin embargo, el término no especifica nada sobre el sistema de producción subyacente. La investigación en este campo suele centrarse en las interfaces entre la fábrica y la obra, las restricciones de transporte y la secuencia de instalación, pero rara vez aborda los principios de fabricación o la integración digital que definen un sistema de producción completo.
Síntesis comparativa
Para visualizar mejor las diferencias, aquí tienes una tabla comparativa:
Característica
Métodos modernos de construcción (MMC)
Construcción industrializada (IC)
Construcción en taller (OSC/OSM)
Concepto clave
Un «paraguas» de políticas que agrupa diversas innovaciones.
Una filosofía de producción basada en la lógica de la fabricación.
Un descriptor que indica la ubicación de la producción (fábrica vs. obra).
Enfoque principal
Modernización de la industria en un sentido amplio y flexible.
Eficiencia del proceso, repetibilidad y cadena de suministro integrada.
El traslado de actividades fuera de la obra para mejorar el control y la calidad.
Analogía simple
Una etiqueta de «comida saludable» (puede significar muchas cosas).
La «cocina de un chef» (un sistema organizado con procesos definidos).
«Comida para llevar» (hecha en otro lugar, sin importar cómo se cocinó).
Ahora que hemos aclarado estos conceptos generales, podemos explorar los tipos de sistemas técnicos más específicos que suelen estar englobados por estos «paraguas».
3. Los «ladrillos»: tipos de sistemas técnicos.
A diferencia de los «paraguas» conceptuales, términos como prefabricado, modular y panelizado se refieren a arquetipos técnicos específicos o «subdominios». Son los verdaderos «ladrillos» con los que se construye.
Sistemas modulares volumétricos: se trata de módulos tridimensionales (3D) altamente prefabricados en fábrica, como habitaciones completas, módulos de baño o de cocina. Estos «bloques» se transportan a la obra y se ensamblan rápidamente. Su principal ventaja es la rapidez de instalación, que reduce drásticamente el tiempo de construcción.
Sistemas panelizados: son componentes bidimensionales (2D), como paredes, losas de piso o paneles de techo, fabricados con alta precisión en una fábrica. Estos paneles se ensamblan en la obra para conformar la estructura del edificio. Un ejemplo prominente son los sistemas de madera de ingeniería (Mass Timber), como el CLT (Cross-Laminated Timber), que demuestran un gran potencial para la construcción rápida y la reducción de emisiones de carbono. Ofrecen una gran flexibilidad de configuración y diseño, ya que los paneles pueden combinarse de múltiples maneras.
Sistemas híbridos: son una mezcla inteligente de componentes prefabricados (modulares o panelizados) y de construcción tradicional in situ. Por ejemplo, se puede construir un podio de hormigón en la obra y luego montar módulos prefabricados encima. A menudo superan a los sistemas totalmente modulares o totalmente in situ en términos de coste y viabilidad, especialmente en entornos urbanos complejos con restricciones de espacio.
Prefabricación (como término general): es importante señalar que el término «prefabricación» es amplio y abarca tanto los sistemas modulares como los panelizados. Simplemente significa que los componentes del edificio se fabrican en un lugar distinto de su ubicación final antes de ser instalados.
Estos sistemas técnicos no funcionan de manera aislada, sino que dependen de un conjunto de tecnologías y metodologías transversales que garantizan su eficiencia y coherencia.
4. Los «habilitadores»: las tecnologías que lo unen todo.
Independientemente del sistema constructivo utilizado (modular, panelizado o híbrido), hay dos «habilitadores» transversales fundamentales para que la construcción moderna funcione de manera integrada y eficiente: la DfMA y la digitalización.
Diseño para la fabricación y el ensamblaje (DfMA): El DfMA no es un método de construcción, sino un «sistema operativo de diseño». Se trata de una metodología que obliga a considerar la fabricación y el ensamblaje desde las primeras etapas del diseño, en lugar de resolverlos sobre la marcha. Sus funciones clave son las siguientes:
Alinear el diseño con la realidad: asegura que el diseño arquitectónico sea compatible con las limitaciones y capacidades de la fabricación desde el principio.
Considerar la logística como diseño: incorpora variables como las tolerancias de fabricación, la secuencia de transporte y la logística de ensamblaje como parte integral del proceso de diseño.
Actuar como núcleo conector: funciona como el nexo que conecta el concepto arquitectónico con la producción industrializada, garantizando que lo que se diseña se pueda fabricar y ensamblar eficientemente.
Digitalización: es la «infraestructura de información» que coordina todo el proceso, desde el diseño hasta el ensamblaje final. Proporciona las herramientas necesarias para gestionar la complejidad de la construcción industrializada. Entre las herramientas clave se encuentran el modelado de información para la construcción (BIM), los gemelos digitales, el modelado paramétrico, los configuradores de diseño, la simulación de procesos y la robótica. Todas ellas conforman la infraestructura de información que coordina los entornos de fábrica y de obra. Con todas estas piezas —los paraguas, los ladrillos y los habilitadores— sobre la mesa, es posible entender un nuevo marco que busca unificarlo todo de manera coherente.
5. Uniendo las piezas: el marco de la neoconstrucción.
Para resolver la fragmentación y la ambigüedad conceptual que hemos analizado, la investigación propone un nuevo término integrador: «neoconstrucción». Este marco no pretende sustituir los términos existentes, sino organizarlos en una estructura lógica.
La neoconstrucción se define como un paradigma de construcción sociotécnica, coordinado digitalmente, industrializado y circular, que integra principios de fabricación, modelos organizativos orientados a plataformas y flujos de trabajo de diseño a producción, dirigidos por DfMA, para entregar sistemas del entorno construido configurables y de alto rendimiento.
Esta densa definición se puede desglosar en cinco componentes esenciales que forman el núcleo del marco:
Integración digital: coordinación basada en modelos (BIM), sistemas de configuración paramétricos y herramientas de soporte a la decisión digital, que constituyen la columna vertebral de la información que conecta el diseño, la producción y la logística.
Producción industrializada: flujos de producción estructurados, estandarización y logística coordinada que conforman la lógica subyacente al paradigma de «construcción como fabricación».
Gobernanza de plataforma: uso de plataformas de productos, definición de interfaces y de ecosistemas de cadena de suministro integrados para permitir la escalabilidad, la consistencia y la coordinación del ecosistema.
Lógicas de diseño a producción (DfMA): integración de la «fabricabilidad», tolerancias, reglas de ensamblaje y principios de diseño circular (DfMA) para garantizar que el diseño se alinee con la realidad de la fabricación y la logística.
Circularidad y rendimiento de por vida: principios de diseño para el desmontaje, la reutilización, la adaptabilidad y la recuperación de materiales para alinear el marco con los imperativos de sostenibilidad y el valor a largo plazo.
Este marco organiza de manera coherente los términos anteriores, posicionando la construcción industrializada (CI) como la «columna vertebral de la producción» y el DfMA como el «sistema operativo de diseño». Esta claridad conceptual no es solo un ejercicio académico, sino que es fundamental para el futuro de una industria que necesita innovar de manera estructurada y escalable.
6. Conclusión: de la confusión a la claridad.
Entender la jerga de la construcción moderna no es tarea imposible. Al organizar los términos en una jerarquía lógica, podemos pasar de la confusión a la claridad.
A continuación, se presenta un resumen de las distinciones clave:
MMC: es un término de política, amplio y retórico, no una categoría técnica.
IC: es una filosofía de producción centrada en la lógica de la fabricación.
OSC: es un descriptor de ubicación que indica dónde se realiza el trabajo.
Modular/panelizado: se trata de productos técnicos, los «ladrillos» del sistema.
DfMA y digitalización: son los habilitadores transversales, el «sistema operativo» y la «infraestructura de información» que lo unen todo.
Para cualquier estudiante o profesional del sector, dominar esta jerarquía proporciona una base sólida para navegar por la innovación en la construcción. La clave está en ir más allá de los términos de moda y centrarse en la lógica subyacente que realmente impulsa el cambio: una mentalidad de fabricación, un diseño integrado y una coordinación digital impecable. Solo con esta claridad conceptual, la industria podrá afrontar de manera sistemática sus grandes retos en materia de productividad, sostenibilidad y resiliencia.
En esta conversación podéis escuchar aspectos interesantes sobre este tema:
Aquí tenéis un vídeo que resume lo más interesante.
En este documento también os dejo las ideas principales del trabajo de Kremer (2025).
Figura 1. Control del nivel freático. https://www.flickr.com/photos/wsdot/4997287082/
En este artículo se analiza un documento anexo al final: una guía formal de drenaje que detalla las lecciones aprendidas durante un proyecto de ingeniería civil excepcionalmente complejo en Christchurch (Nueva Zelanda), que se llevó a cabo de 2011 a 2016 tras un terremoto. Proporciona un marco para evaluar, diseñar e implementar el drenaje en programas de reconstrucción de infraestructuras o de recuperación tras desastres naturales, con énfasis en las prácticas de construcción y la geología local.
La guía examina diversos sistemas de control del nivel freático, como sumideros, sistemas de well-points y pozos, y ofrece criterios para seleccionar los métodos según la permeabilidad del suelo y la profundidad de la excavación. Además, establece un sistema para determinar la categoría de riesgo de un proyecto de drenaje y describe las medidas necesarias para mitigar los efectos ambientales y prevenir la subsidencia del terreno.
1.0 Introducción y principios fundamentales.
1.1 La importancia crítica del control del agua subterránea.
El control del nivel freático es un factor determinante para el éxito de cualquier proyecto de construcción que implique excavaciones. Una gestión inadecuada o la ausencia de un control efectivo puede comprometer gravemente la estabilidad de las excavaciones, la integridad de las estructuras permanentes y, en última instancia, la viabilidad económica y temporal del proyecto. El agua subterránea no controlada puede generar riesgos geotécnicos significativos, como la tubificación (piping), que es la erosión interna del suelo por el flujo de agua; el levantamiento del fondo (uplift), causado por presiones ascendentes que superan el peso del suelo en la base de la excavación, y una reducción general de la estabilidad del suelo, que puede provocar fallos en los taludes. Este manual recopila las lecciones aprendidas durante el programa de reconstrucción de la infraestructura de Christchurch (SCIRT), en el que la gestión del agua subterránea en condiciones geotécnicas complejas y tras el sismo fue un desafío diario y crítico para el éxito del proyecto. Estos fenómenos no solo suponen una amenaza para la seguridad de los trabajadores, sino que también pueden ocasionar daños en infraestructuras adyacentes y provocar retrasos y sobrecostes considerables.
Figura 2. Rotura de fondo o tapozano
1.2. Propósito y alcance del manual.
El manual proporciona una guía práctica y un proceso normalizado para evaluar, seleccionar, diseñar y monitorizar los sistemas de drenaje en obras de construcción. Con base en las enseñanzas extraídas de proyectos de infraestructura complejos, este documento pretende dotar a los ingenieros y gerentes de proyecto de las herramientas necesarias para prever y gestionar los desafíos relacionados con el nivel freático. El objetivo final es reducir los costes y los retrasos asociados a problemas imprevistos mediante una planificación proactiva y un diseño técnico riguroso de las obras temporales de drenaje.
Este manual aborda el ciclo completo de la gestión del agua subterránea en la construcción e incluye:
El contexto geológico y su influencia directa en las estrategias de desagüe.
Los sistemas de control del nivel freático disponibles, sus aplicaciones y limitaciones.
La mitigación de los efectos ambientales y el cumplimiento de las normativas vigentes.
Un marco para la evaluación sistemática de riesgos y la planificación de contingencias.
El documento se centra principalmente en los métodos de control del nivel freático, que consisten en interceptar y extraer el agua subterránea mediante bombeo. También se mencionan brevemente los procedimientos de contención, como las tablestacas o los muros pantalla, que buscan bloquear el flujo de agua hacia la excavación.
Figura 3. Combinación de pantallas con (a) bombeo convencional o (b) barreras horizontales. Adaptado de Cashman y Preene (2012)
1.3. Importancia del contexto geológico.
Análisis de acuíferos: una comprensión fundamental de la hidrogeología del emplazamiento es el pilar de cualquier diseño de un drenaje. Es crucial identificar la naturaleza de los acuíferos presentes, ya sean confinados, no confinados o artesianos. La fuente del agua (por ejemplo, la infiltración de lluvia o la recarga de un río) y la presión a la que se encuentra determinan directamente la selección y la eficacia del sistema de drenaje. Por ejemplo, un acuífero confinado o artesiano puede ejercer una presión ascendente significativa, lo que requiere métodos de control más robustos que los de un simple acuífero no confinado. Este conocimiento también es importante para planificar y evitar impactos no deseados en el entorno, como la afectación de pozos de agua cercanos o la inducción de asentamientos en estructuras adyacentes.
Análisis del perfil del suelo: el comportamiento del agua subterránea está intrínsecamente ligado a las propiedades del suelo. La permeabilidad del suelo, es decir, su capacidad para permitir el paso del agua, es el factor más crítico, ya que determina la facilidad con la que se puede extraer agua mediante bombeo.
Gravas y arenas limpias: son altamente permeables y ceden agua con facilidad, pero pueden generar grandes caudales de entrada.
Limos y arcillas: presentan baja permeabilidad, ceden agua muy lentamente y son susceptibles a la consolidación y al asentamiento cuando se reduce la presión del agua.
Suelos estratificados: la presencia de capas alternas de alta y baja permeabilidad puede crear condiciones complejas, como acuíferos colgados, que requieren un diseño cuidadoso para su drenaje eficaz.
Síntesis de los desafíos geotécnicos: la interacción entre la geología local y las actividades de construcción genera una serie de desafíos específicos que deben anticiparse.
Tabla 1: Desafíos geotécnicos comunes y sus implicaciones.
Desafío geotécnico
Implicaciones para las operaciones de drenaje
Presencia de turba y suelos orgánicos
Estos suelos tienen un alto contenido de agua y son muy compresibles. El drenaje puede provocar asentamientos significativos y dañar la infraestructura cercana. Por ello, es necesario realizar una evaluación de riesgos muy cuidadosa y un seguimiento de los asentamientos.
Gravas superficiales
Las capas de grava poco profundas pueden complicar la instalación de sistemas como los well-points y generar volúmenes de entrada de agua muy elevados que superen la capacidad de los sistemas de bombeo estándar.
Riesgo de encontrar condiciones artesianas
La intercepción de un acuífero artesiano puede provocar un flujo de agua incontrolado hacia la excavación, lo que conlleva un riesgo de inundación, levantamiento del fondo y fallo catastrófico. Por ello, es necesario realizar una investigación geotécnica exhaustiva y elaborar un plan de contingencia robusto.
Niveles freáticos variables
Los niveles freáticos pueden fluctuar estacionalmente o en respuesta a eventos de lluvia. El diseño debe ser capaz de manejar el nivel freático más alto esperado, considerando que las variaciones estacionales en Christchurch pueden alcanzar hasta 3 metros.
Por lo tanto, la comprensión profunda del contexto geológico es el primer paso indispensable para realizar una evaluación sistemática de los riesgos y diseñar un sistema de control del nivel freático adecuado.
2.0 Evaluación previa a la construcción y al análisis de riesgos.
2.1 La fase crítica de planificación.
La fase previa a la construcción ofrece la oportunidad más rentable para identificar, analizar y mitigar los riesgos asociados al drenaje de aguas subterráneas. Una evaluación rigurosa en esta etapa permite diseñar adecuadamente las obras temporales, evitar fallos durante la ejecución y realizar una asignación presupuestaria precisa, lo que evita sobrecostos y retrasos imprevistos. Aunque un diseño proactivo suponga una inversión inicial, casi siempre resulta un ahorro global para el proyecto.
2.2 Pasos clave para el diseño del drenaje.
Desarrollo del modelo geotécnico: para diseñar un control del nivel freático eficaz, es esencial construir un modelo conceptual del subsuelo. Este proceso debe ser dirigido por un técnico competente y consta de los siguientes pasos:
Revisión de estudios previos: consultar fuentes de información existentes como mapas geológicos, bases de datos geotécnicas, investigaciones previas en la zona y fotografías aéreas.
Evaluación de la permeabilidad: utilizar la información disponible para estimar preliminarmente la permeabilidad de las diferentes capas del suelo.
Evaluación de riesgos inicial: realizar una evaluación de alto nivel sobre la posible presencia de suelos o aguas subterráneas contaminadas, la probabilidad de encontrar grava a poca profundidad y el riesgo de que haya condiciones artesianas.
Decisión sobre investigaciones adicionales: en función de la complejidad y el perfil de riesgo del proyecto, se debe determinar si la información existente es suficiente o si se requieren investigaciones de campo específicas (por ejemplo, sondeos o ensayos de permeabilidad) para definir adecuadamente el modelo del terreno.
Técnicas para determinar la permeabilidad: la permeabilidad es el parámetro clave que guía el diseño del control del nivel freático. La siguiente tabla resume los métodos disponibles para su determinación, ordenados aproximadamente por coste y fiabilidad.
Método
Descripción
Aplicabilidad
Coste y fiabilidad relativa
1. Empírico (registros de sondeo)
Se asignan valores de permeabilidad basados en las descripciones de los suelos obtenidas de los registros de perforación, que se comparan con valores típicos de referencia.
Útil para evaluaciones preliminares y proyectos de bajo riesgo.
Coste: el más bajo (solo horas de diseño).
Fiabilidad: baja; solo proporciona un orden de magnitud.
2. Empírico (método de Hazen)
Estimación de la permeabilidad a partir de las curvas de distribución granulométrica del suelo.
Aplicable solo si se cuenta con ensayos de granulometría en suelos arenosos.
Coste: bajo si los datos ya existen; de lo contrario, requiere muestreo y ensayos de laboratorio.
Fiabilidad: baja a moderada.
3. Ensayo de laboratorio (carga constante)
Mide el flujo de agua a través de una muestra de suelo bajo un gradiente hidráulico constante.
Adecuado para suelos con permeabilidades relativamente altas (10⁻² a 10⁻⁵ m/s), como arenas y gravas.
Coste: relativamente bajo, pero requiere la obtención de muestras inalteradas.
Fiabilidad: moderada, pero puede no ser representativa de la masa de suelo a gran escala.
4. Ensayo de laboratorio (consolidación/triaxial)
Mide la permeabilidad como parte de ensayos de consolidación o de ensayos triaxiales.
Adecuado para suelos de baja permeabilidad (≤ 10⁻⁶ m/s), como los limos y las arcillas.
Coste: relativamente bajo, pero requiere muestras inalteradas.
Fiabilidad: moderada, sujeta a las mismas limitaciones que el ensayo de carga constante.
5. Ensayo de carga instantánea (slug test)
Se induce un cambio rápido en el nivel del agua en un pozo o piezómetro y se mide la velocidad de recuperación del nivel.
Realizado in situ en la zona saturada. Puede ser demasiado rápido para suelos muy permeables.
Coste: menor que el de un ensayo de bombeo.
Fiabilidad: Proporciona una indicación de la permeabilidad local alrededor del pozo, pero no a escala de sitio.
6. Ensayo de bombeo
Se bombea agua desde un pozo a un caudal constante y se mide el abatimiento del nivel freático en el pozo de bombeo y en pozos de observación cercanos.
Proporciona datos a gran escala y es adecuado para proyectos de desagüe profundos o de larga duración.
Coste: el más alto y el que consume más tiempo (dura de 24 horas a 7 días).
Fiabilidad: la más alta, ya que mide la respuesta del acuífero a una escala representativa de las condiciones reales del proyecto.
2.3 Metodología de evaluación de riesgos
Puntuación de riesgos: Para estandarizar el nivel de análisis y supervisión requerido, se propone un sistema de puntuación de riesgos, desarrollado y probado durante el programa SCIRT, que categoriza cada proyecto de control del nivel freático. Este enfoque permite asignar los recursos de diseño de manera proporcional al riesgo identificado, de modo que los proyectos de alta complejidad reciben la atención de especialistas y los de bajo riesgo pueden gestionarse mediante prácticas normalizadas.
Matriz de categorización de riesgos: el número de categoría de riesgo (RCN) se calcula multiplicando las puntuaciones asignadas a seis áreas de riesgo clave (RCN = A x B x C x D x E x F), tal y como se muestra en la siguiente tabla:
A: Profundidad de excavación
Puntuación
B: Agua subterránea
Puntuación
C: Condiciones del terreno
Puntuación
< 2 m
1
No se requiere abatimiento
0
Suelos competentes sin necesidad de soporte temporal
1
2 – 3 m
2
Abatimiento < 1 m requerido
1
Limos y arcillas de baja permeabilidad
2
3 – 6 m
6
Abatimiento 1 – 3 m requerido
2
Arenas limosas
3
6 – 15 m
10
Abatimiento 3 – 6 m requerido
5
Turba y suelos orgánicos
3
> 15 m
12
Influencia en cuerpos de agua superficial
7
Intercepta gravas de moderada a alta permeabilidad
6
Abatimiento > 6 – 9 m requerido
10
Arenas fluidas
10
Intercepta acuífero artesiano
10
Suelos contaminados
10
Agua subterránea contaminada
10
D: Duración del drenaje
Puntuación
E: Coste de componentes del proyecto influenciados por el drenaje
Puntuación
F: Efectos en servicios, infraestructuras y propiedades adyacentes
Puntuación
Excavación abierta por 1 – 2 días
1
< $0.1M
1
Sitio sin construcciones
1
Excavación abierta < 1 semana
2
$0.1M a $0.5M
2
Vía local
2
Excavación abierta por 1 – 4 semanas
3
$0.5M a $1M
3
Vía arterial principal o secundaria
3
Excavación abierta por 1 – 6 meses
4
$1M a $5M
4
Propiedad privada a una distancia menor que la altura de la excavación o estructuras adyacentes sobre pilotes
3
Excavación abierta > 6 meses
5
> $5M
5
Autopista
4
Vías férreas
4
Estructuras históricas con cimentaciones superficiales
4
Infraestructura crítica vulnerable a asentamientos
5
Nota:El Número de Categoría de Riesgo (RCN) se calcula como el producto de las puntuaciones de las 6 áreas (A x B x C x D x E x F).
Niveles de acción de diseño recomendados: una vez calculado el RCN, la siguiente tabla define las acciones mínimas de diseño que deben llevarse a cabo.
Número de categoría de riesgo (RCN)
Consecuencia del riesgo
Acciones mínimas de diseño recomendadas
0 – 10
Bajo
• No se requiere un estudio de drenaje específico para el proyecto.
• Implementar el sistema de control del nivel freático basado en la experiencia local previa.
11 – 75
Medio
• Realizar un estudio de escritorio de alto nivel para evaluar las condiciones del terreno y los riesgos de drenaje.
• Seleccionar métodos de control de nivel freático apropiados considerando restricciones y riesgos.
• Realizar cálculos manuales simples para verificar la idoneidad del diseño de las obras temporales.
76 – 2,500
Alto
• Realizar un estudio de escritorio detallado.
• Confirmar las condiciones del terreno y la granulometría mediante al menos un sondeo.
• Realizar cálculos de diseño de drenaje (de simples a complejos según corresponda).
• Desarrollar e implementar un plan de control de asentamientos simple si es necesario.
• Controlar de cerca los sólidos en suspensión durante la descarga.
2,500 – 187,500
Muy Alto
• Revisar un informe geotécnico detallado.
• Contratar a un técnico cualificado y experimentado para brindar asesoramiento profesional.
• Realizar investigaciones de campo adicionales (p. ej., ensayos de permeabilidad, ensayos de bombeo).
• Desarrollar e implementar un plan de control de asentamientos.
• Realizar inspecciones de la condición de las propiedades adyacentes antes de comenzar los trabajos.
Una vez evaluado el riesgo y definido el nivel de diseño requerido, el siguiente paso es comprender en detalle las prácticas y metodologías de drenaje disponibles para su ejecución en campo.
3.0 Métodos y prácticas de control del nivel freático
3.1 Introducción a las metodologías
Los métodos de control del nivel freático más comunes en la construcción se basan en la extracción de agua del subsuelo para reducir dicho nivel. La elección del método más adecuado es una decisión técnica que depende fundamentalmente de las condiciones del suelo, la profundidad de la excavación, el caudal de agua previsto y los objetivos específicos del proyecto. Cada método tiene sus propias ventajas y limitaciones, que deben evaluarse cuidadosamente.
Descripción y aplicación: el bombeo desde sumideros es el método más simple y, a menudo, el más económico. Consiste en excavar zanjas o pozos (sumideros) en el punto más bajo de la excavación para que el agua subterránea fluya por gravedad hacia ellos y, desde allí, sea bombeada y evacuada. Este método es efectivo en suelos con permeabilidad alta o moderada, como las gravas y las arenas gruesas. Su principal limitación es que el agua fluye hacia la excavación antes de ser controlada, lo que puede causar inestabilidad en los taludes y en el fondo. Existe un alto riesgo de tubificación (piping) y de arrastre de finos, lo que puede provocar asentamientos y generar una descarga de agua cargada de sedimentos que requiere un tratamiento exhaustivo.
Requisitos de diseño e instalación: para que un sumidero sea eficaz, debe cumplir los siguientes requisitos:
Profundidad: Suficiente para drenar la excavación y permitir la acumulación de sedimentos sin afectar la toma de la bomba.
Tamaño: Mucho mayor que el de la bomba para facilitar la limpieza y el mantenimiento.
Filtro: El sumidero debe estar protegido con una tubería ranurada o perforada, rodeada de grava gruesa (20-40 mm) para evitar la succión de partículas finas del suelo.
Acceso: Debe permitir la retirada de las bombas para el mantenimiento y la limpieza periódica de los sedimentos acumulados.
Como mejor práctica, se recomienda sobreexcavar el fondo del sumidero y rellenarlo con material grueso para elevar la entrada de la bomba y minimizar la movilización de partículas finas.
Figura 4. Esquema de sumidero y bomba de achique para pequeñas excavaciones, basado en Powers (1992).
Análisis comparativo
Ventajas
Inconvenientes
• Coste relativamente bajo.
• Moviliza sedimentos del terreno, lo que requiere tratamiento de la descarga.
• Equipos móviles y fáciles de instalar y operar.
• No puede utilizarse en «arenas fluidas».
• Solo opera durante los trabajos de construcción.
• Tiene un alto potencial de liberar sedimentos en el medio ambiente y es el método más común para incumplir las condiciones de los permisos ambientales.
Descripción y aplicación: un sistema de well-points consiste en una serie de tubos de pequeño diámetro (aproximadamente 50 mm) con una sección ranurada en el extremo inferior. Estos tubos se instalan en el terreno a intervalos regulares. Estos tubos, también denominados «puntas de lanza», se conectan a un colector principal, que, a su vez, está conectado a una bomba de vacío. La bomba crea un vacío en el sistema que extrae el agua del subsuelo.
Este método es particularmente efectivo en arenas o suelos con capas de arena. Su principal limitación es la altura de succión, que en condiciones cercanas al nivel del mar es de hasta 8 metros. Para excavaciones más profundas, sería necesario utilizar sistemas escalonados en las bermas.
Consideraciones de diseño
Espaciamiento: el espaciamiento entre los pozos de extracción (que suele oscilar entre 0,6 y 3 m) depende de la permeabilidad del suelo, de la geometría de la excavación y del abatimiento requerido. Cuanto más permeable es el suelo, menor debe ser el espaciamiento.
Paquetes de filtro: en suelos finos o estratificados, es crucial instalar un paquete de filtro (generalmente, arena de textura media a gruesa) alrededor de cada pozo de extracción. Así se evita el bombeo de finos y se crea una ruta de drenaje vertical más eficiente.
Figura 5. Componentes del sistema. Cortesía de ISCHEBECK. http://www.ischebeck.es/assets/wp-content/uploads/agotamiento_agua/Cat%C3%A1logo%20Wellpoint%2016022012.pdf
Análisis comparativo
Ventajas
Inconvenientes
• Descarga limpia: Una vez establecido, el sistema extrae agua limpia que requiere poco o ningún tratamiento.
• El desagüe debe realizarse muy cerca del área de trabajo.
• Abatimiento localizado del nivel freático, lo que resulta en menores volúmenes de descarga.
• Funciona mejor en suelos uniformes.
• La instalación puede ocupar un espacio considerable en el entorno vial.
• Requiere experiencia para una instalación y colocación efectivas.
• Potencial de rendimiento (caudal) y de abatimiento limitados por la altura de succión.
3.4 Pozos de bombeo profundo (dewatering wells)
Descripción y aplicación: los pozos de bombeo profundo son pozos perforados de mayor diámetro y profundidad que los well-points y están equipados con una bomba sumergible. Se trata de un sistema de ingeniería que debe ser diseñado por un especialista. Cada pozo incluye componentes clave, como una rejilla dimensionada para el terreno, un paquete de filtro diseñado específicamente y un sello anular en la superficie para evitar la recarga superficial.
Este método es adecuado para excavaciones grandes, profundas o de larga duración y puede manejar grandes caudales de agua.
Consideraciones de diseño: el diseño de un sistema de pozos profundos requiere un análisis detallado de los siguientes parámetros:
Profundidad y diámetro del pozo: el diámetro debe ser suficiente para alojar la bomba necesaria y la profundidad debe ser significativamente mayor que el abatimiento deseado.
Tamaño de la ranura de la rejilla: se diseña en función del tamaño de grano del suelo o del material filtrante para maximizar la entrada de agua y minimizar la entrada de partículas finas.
Diseño del filtro: el filtro granular que rodea la rejilla es fundamental para evitar que los materiales finos del acuífero migren hacia el pozo.
Distancia entre pozos: Los pozos se espacian típicamente entre 10 y 50 metros. Su diseño es complejo, ya que se basa en la interacción entre los conos de abatimiento de cada pozo.
Figura 6. Agotamiento profundo del nivel freático mediante un pozo filtrante. Elaboración propia basado en Pérez Valcárcel (2004).
Análisis comparativo
Ventajas
Inconvenientes
• Ideal para excavaciones de gran envergadura y proyectos de larga duración.
• Si se extrae más agua de la necesaria, puede afectar a un área mayor de la prevista, lo que puede causar problemas de asentamiento en suelos compresibles (por ejemplo, turba).
• Descarga limpia una vez que el pozo está desarrollado correctamente.
• Puede requerir un tiempo de preparación más largo para lograr el abatimiento del nivel freático.
• Alta capacidad de bombeo, superando problemas de variabilidad del suelo.
• Se requiere un mayor nivel de diseño, planificación y ensayos de campo, como los ensayos de bombeo.
• Puede instalarse fuera del área de trabajo directa, liberando espacio en las zonas congestionadas.
• Las bombas sumergibles son mucho más silenciosas, ideales para áreas sensibles al ruido.
Tras describir los métodos individuales, el siguiente paso lógico es proporcionar una guía clara para seleccionar el sistema más apropiado para cada situación en el campo.
4.0 Selección del método apropiado
4.1 Una decisión estratégica
La elección del sistema de control del nivel freático adecuado es una decisión estratégica que debe equilibrar la eficacia técnica, el coste de implementación y de operación y el impacto ambiental potencial. Una elección informada no se basa en la intuición, sino en la recopilación y el análisis de datos específicos del emplazamiento. Una elección incorrecta puede provocar un rendimiento deficiente, sobrecostes y retrasos significativos en el proyecto.
4.2 Datos clave para la decisión
Para tomar una decisión fundamentada sobre el método de drenaje, es imprescindible recopilar la siguiente información:
Perfil y tipo de suelo, incluyendo la permeabilidad de cada estrato.
Dimensiones de la excavación: ancho, largo y profundidad.
Nivel freático existente, así como el nivel al que se necesita bajar (abatimiento requerido).
Método de excavación y soporte propuesto: por ejemplo, taludes abiertos o tablestacas.
Proximidad a estructuras existentes, cursos de agua y otras infraestructuras sensibles.
4.3 Matriz de decisión
La siguiente tabla sirve de guía para seleccionar una metodología de drenaje según el tipo de suelo predominante.
Guía para la selección de métodos de drenaje según el tipo de suelo.
Tipo de suelo
Tasa de flujo de agua subterránea
Posibles problemas
Metodología de drenaje recomendada
Gravas / cantos
Alta
Se requieren grandes flujos de agua que pueden provenir de pozos profundos para excavaciones profundas o de sumideros para excavaciones superficiales.
Pozos de bombeo profundo y de bombeo desde sumideros.
Arena
Baja a media
Baja estabilidad de la zanja si se permite que la arena fluya hacia la excavación (arena fluida).
Sistemas well-point.
Limo
Baja
Estabilidad variable y bajo rendimiento de agua, lo que puede requerir un espaciado muy reducido de las puntas de lanza y provocar perching localizado.
Sistemas de puntas de lanza (well-pointing) y de bombeo desde sumideros.
Arcilla
Muy baja
Se han detectado problemas mínimos de estabilidad de la zanja y una posible formación de un nivel freático colgado localizado.
Sistemas de puntas de lanza (well-pointing) y de bombeo desde sumideros.
Turba
Variable (baja a alta)
El drenaje puede provocar la compresión de las capas, lo que provoca asentamientos y daños en los terrenos y en la infraestructura circundantes.
Se requiere asesoramiento especializado.
Suelos mixtos
Variable (baja a alta)
La metodología se basa generalmente en el tipo de suelo predominante y en la unidad geológica que presenta el mayor rendimiento hídrico.
Depende de la hidrogeología y de la unidad geológica de mayor rendimiento hídrico.
4.4 Criterios de aplicación específicos
Condiciones que favorecen el bombeo desde sumideros (sump pumping):
Suelos como grava arenosa bien graduada, grava limpia o arcilla firme o rígida.
Acuífero no confinado.
Se requiere un abatimiento moderado y no hay fuentes de recarga cercanas (por ejemplo, un arroyo).
La excavación tiene taludes poco pronunciados o está protegida por tablestacas hincadas a gran profundidad.
Cargas de cimentación ligeras.
Condiciones que favorecen los sistemas well-point:
Suelos arenosos o interestratificados que incluyan arenas (permeabilidad k = 10⁻³ a 10⁻⁵ m/s).
Acuífero no confinado.
Se requiere un abatimiento de 5 metros o menos (o de hasta 10 metros si el área de excavación es grande y permite sistemas escalonados).
Condiciones que favorecen la instalación de pozos de bombeo profundo (wells):
Las condiciones del terreno son demasiado permeables como para que los well-points sean viables.
Suelos limosos que requieren un diseño de filtro preciso.
Se requiere un abatimiento de más de 8 metros o un abatimiento en un área extensa durante un período prolongado.
El acceso a la excavación está restringido o el lugar está congestionado (los pozos pueden ubicarse fuera de las zonas de trabajo).
Independientemente del método elegido, es imperativo gestionar los impactos ambientales asociados, un aspecto crucial que se detallará en la siguiente sección.
Figura 7. Selección del método de drenaje adecuado.
5.0 Mitigación de efectos ambientales y gestión de impactos
5.1 Responsabilidad ambiental y cumplimiento normativo
La gestión del agua subterránea no termina con su extracción, sino que conlleva la responsabilidad de cumplir con la normativa medioambiental y minimizar cualquier impacto negativo en el entorno. Una planificación cuidadosa debe abordar dos aspectos principales: la gestión de la calidad del agua de descarga para proteger los cuerpos de agua receptores y la prevención del asentamiento del terreno, que podría dañar la infraestructura y las propiedades adyacentes.
5.2 Gestión de la calidad del agua extraída
Sólidos en suspensión totales (TSS): el agua bombeada desde una excavación, especialmente desde sumideros, a menudo presenta una alta concentración de sedimentos. La normativa medioambiental exige que esta agua sea tratada para eliminar los sólidos antes de su vertido. Por ejemplo, muchos permisos establecen un límite de 150 g/m³ de TSS. Para el control in situ, una herramienta práctica es la evaluación visual comparativa. En un laboratorio, se pueden preparar muestras estándar con concentraciones conocidas de TSS (por ejemplo, 150 g/m³), que sirven como referencia visual para compararlas rápidamente con las muestras de descarga tomadas en el lugar, lo que permite tomar medidas correctivas inmediatas en caso de observar una turbidez excesiva.
Agua subterránea contaminada: existe el riesgo de encontrar contaminantes en el agua subterránea, especialmente en áreas urbanas o industriales con un historial de actividades potencialmente contaminantes. Durante la fase de planificación, es crucial identificar las zonas de riesgo. Si el proyecto se ubica en una de estas zonas o si se sospecha de contaminación, deberán realizarse muestreos específicos del agua subterránea para analizar la presencia y concentración de contaminantes. Así se puede planificar un sistema de tratamiento adecuado si fuera necesario.
5.3 Métodos de tratamiento de la descarga
Los tanques de sedimentación son el método principal y más común para tratar la descarga. Su principio de funcionamiento es sencillo: reducir la velocidad del flujo de agua para que las partículas de sedimento se asienten por gravedad. Un diseño eficaz incluye cuatro zonas funcionales:
Zona de entrada: Distribuye el flujo de manera uniforme para evitar turbulencias.
Zona de asentamiento: El área principal donde ocurre la sedimentación.
Zona de recolección: El fondo del tanque donde se acumulan los sedimentos.
Zona de salida: Recolecta el agua clarificada para su descarga.
El dimensionamiento adecuado del tanque es fundamental y debe basarse en el caudal de bombeo y el tamaño de las partículas a eliminar.
Otros métodos
Filtrado a través de la vegetación: El agua se descarga sobre una superficie cubierta de vegetación densa (por ejemplo, césped), que actúa como un filtro natural. Este método solo es adecuado como tratamiento secundario tras un tanque de sedimentación.
Bolsas de control de sedimentos: Se trata de bolsas de geotextil que se conectan a la salida de la bomba y filtran los sedimentos. Son útiles para caudales bajos y áreas pequeñas, pero pueden obstruirse rápidamente ante altas concentraciones de sedimentos.
5.4 Control del asentamiento del terreno
Causas y riesgos: El abatimiento del nivel freático puede provocar asentamientos del terreno por tres mecanismos principales:
Aumento de la tensión efectiva: al descender el nivel freático, disminuye la presión del agua en los poros del suelo, lo que incrementa la carga que puede soportar el esqueleto sólido del suelo. Esto provoca su compresión y el consiguiente hundimiento de la superficie.
Pérdida de finos: Un diseño de filtro inadecuado o velocidades de flujo excesivas pueden arrastrar partículas finas del suelo y generar vacíos, lo que provoca asentamientos localizados.
Inestabilidad de los taludes: una reducción insuficiente de las presiones de poro o un control inadecuado de las filtraciones puede comprometer la estabilidad de los taludes de la excavación, lo que provoca fallos localizados y desprendimientos de material.
Los suelos blandos y de baja permeabilidad, como los limos, las arcillas y los suelos orgánicos (turba), son los más susceptibles a sufrir asentamientos significativos por consolidación.
Estrategias de mitigación: Para minimizar el riesgo de asentamientos perjudiciales, deben implementarse las siguientes estrategias:
Diseño adecuado de los filtros: hay que asegurarse de que los filtros de pozos o well-points estén correctamente dimensionados para retener las partículas del suelo.
Control de finos: controlar la cantidad de sólidos disueltos en el agua de descarga. Un aumento sostenido puede indicar una posible pérdida de material del subsuelo.
Control del radio de influencia: diseñar el sistema para limitar la bajada del nivel freático más allá de los límites de la zona, utilizando, si es necesario, barreras de corte o pozos de reinyección.
Control de los asentamientos en el terreno: implementar un plan de supervisión para detectar cualquier movimiento del terreno.
Control de asentamientos: Se debe establecer un plan de supervisión que incluya la instalación de marcadores topográficos en edificios y estructuras cercanos. Es fundamental contar con un punto de referencia estable ubicado fuera de la zona de influencia del drenaje. Se deben establecer umbrales de alerta y de actuación para los asentamientos medidos. Si se alcanzan estos umbrales, se deben adoptar medidas correctivas que pueden ir desde la modificación del funcionamiento de la estación de bombeo hasta la interrupción total del drenaje.
La gestión proactiva de estos riesgos operativos y medioambientales debe complementarse con la preparación ante eventos inesperados, lo que nos lleva a la planificación de contingencias.
6.0 Planificación de contingencias: intercepción accidental de acuíferos artesianos
6.1 Preparación para lo imprevisto.
A pesar de una planificación y ejecución cuidadosas, siempre existe la posibilidad de toparse con condiciones geológicas imprevistas, como la intercepción de un acuífero artesiano o la aparición de caudales de entrada mucho mayores de lo esperado. Estas situaciones pueden escalar rápidamente y provocar un colapso catastrófico de la excavación. Por lo tanto, una preparación adecuada y un plan de respuesta rápida no son opcionales, sino parte esencial de la gestión de riesgos en cualquier proyecto de drenaje.
6.2 Medidas preparatorias
Procedimientos operativos: Antes de iniciar cualquier trabajo de excavación o perforación en zonas de riesgo, se deben establecer los siguientes procedimientos:
Realizar investigaciones geotécnicas adecuadas para identificar la posible presencia de acuíferos artesianos.
Disponer de medios para cerrar rápidamente los pozos de bombeo o las puntas de lanza si se detecta un flujo incontrolado.
Localizar de antemano proveedores de emergencia de materiales como cemento Portland, bentonita y geotextil.
Comprender el procedimiento de cálculo del diseño de la mezcla de lechada para detener el flujo. Se debe medir la carga artesiana y añadir la mezcla de lechada para lograr un equilibrio de presión.
Establecer y distribuir una lista de contactos de emergencia que incluya al ingeniero del proyecto, al contratista de desagüe y a las autoridades ambientales pertinentes.
Equipamiento de emergencia Se debe tener disponible en el sitio el siguiente equipamiento y suministros de emergencia, según el sistema en uso:
Para sistemas well-point:
Chips de bentonita no recubiertos para el sellado del collar.
Válvulas para instalar en todas las tuberías de well-points en áreas con sospecha de presión artesiana.
Equipo de inyección de lechada de cemento y suministros.
Geotextil y sacos de arena.
Para pozos de bombeo profundo:
Chips de bentonita no recubiertos para el sellado del collar.
Obturadores, tubería ascendente, manómetros y accesorios apropiados para cortar el flujo y medir la presión.
Equipo de inyección de lechada de cemento y suministros.
Geotextil y sacos de arena.
Lodo de perforación polimérico para compensar y suprimir flujos artesianos bajos durante la perforación del pozo.
Además, es necesario contar con un teléfono móvil con cámara, secciones de tubería extensibles para medir la altura de la presión artesiana y el diseño de la mezcla de lechada de contingencia.
6.3 Protocolo de implantación y respuesta
Pasos inmediatos: En caso de detectar un flujo de agua incontrolado, se debe seguir el siguiente protocolo de manera inmediata y secuencial:
Evaluar la situación: Determinar si el caudal y la turbidez del agua son constantes o están aumentando. Verificar si el flujo está confinado al pozo o se está extendiendo por la excavación.
Notificar al ingeniero y al gerente del proyecto: Proporcionar una descripción detallada de las condiciones, el caudal estimado y los eventos que llevaron al incidente. Enviar fotografías o videos en tiempo real si es posible.
Notificar a las autoridades pertinentes: Informar a las autoridades ambientales y a otras partes interesadas sobre la situación y las medidas de contención planificadas.
Acciones de emergencia: Una vez notificado el incidente, se pueden tomar una o más de las siguientes acciones de emergencia para controlar la situación:
Rellenar la excavación: Comenzar a rellenarla con material hasta que el peso del relleno sea suficiente para controlar el flujo y el transporte de sedimentos.
Medir la presión artesiana: Utilizar secciones de tubería para medir la altura a la que llega el agua y así determinar la presión del acuífero.
Controlar la descarga: Dirigir cualquier descarga de agua a través de las medidas de control de erosión y sedimentos establecidas en el sitio.
Inundar la excavación: Como medida drástica, rellenar la excavación con agua hasta el nivel freático original para equilibrar las presiones y estabilizar la situación mientras se reconsidera el diseño.
La combinación de una planificación rigurosa, una ejecución cuidadosa y una preparación exhaustiva ante contingencias es la clave para una gestión exitosa y segura del agua subterránea en cualquier proyecto de construcción.
En este audio podéis escuchar una conversación sobre este tema.
Este es un vídeo que resume bien las ideas principales.
Os dejo el documento completo; espero que os sea de interés.
CASHMAN, P.M.; and PREENE, M. (2012). Groundwater Lowering in Construction: A Practical Guide to Dewatering, 2nd edition. CRC Press, Boca Raton, 645 pp.
HERTZ, W.; ARNDTS, E. (1973). Theorie und praxis der grundwasserabsenkung. Ernst & Sohn, Berlin.
JUSTO ALPAÑES, J.L.; BAUZÁ, J.D. (2010). Tema 10: Excavaciones y drenajes. Curso de doctorado: El requisito básico de seguridad estructural en la ley orgánica de la edificación. Código Técnico de la Edificación. ETS. de Arquitectura, Universidad de Sevilla.
MUZAS, F. (2007). Mecánica del suelo y cimentaciones, Vol. II. Universidad Nacional de Educación a Distancia, Madrid.
POWERS, J.P. (1992). Construction dewatering: New methods and applications. Ed. Wiley et al., New York.
PREENE, M.; ROBERTS, T.O.L.; POWRIE, W. (2016). Groundwater Control – Design and Practice, 2nd Edition. Construction Industry Research and Information Association, CIRIA Report C750, London.
SCHULZE, W.E.; SIMMER, K. (1978). Cimentaciones. Editorial Blume, Madrid, 365 pp.
TOMLINSON, M.J. (1982). Diseño y construcción de cimientos. URMO, S.A. de Ediciones, Bilbao, 825 pp.
En el mundo profesional, la diversidad de los equipos a menudo se percibe como un desafío de gestión: un complejo puzle de estilos de comunicación y normas culturales que deben ensamblarse cuidadosamente para evitar fricciones. Esta visión, aunque comprensible, pasa por alto una verdad fundamental.
En lugar de ser un obstáculo que superar, la diversidad cultural es, en realidad, un «superpoder» para la innovación y la resolución de problemas complejos. Esto es especialmente cierto en campos técnicos como la ingeniería, donde la convergencia de múltiples perspectivas puede revelar soluciones que un grupo homogéneo nunca encontraría.
Un estudio reciente con 79 estudiantes de grado y de máster en ingeniería, muchos de ellos internacionales, arroja luz sobre este fenómeno y revela algunas verdades sorprendentes sobre cómo funcionan realmente los equipos multiculturales. Este artículo resume los hallazgos más importantes de dicha investigación.
La diversidad no solo enriquece: mejora activamente la capacidad de resolver problemas
El primer gran hallazgo del estudio es contundente. Lo sorprendente no es que la diversidad sea valorada, sino el consenso casi absoluto que genera en un campo que a menudo se estereotipa como puramente técnico e individualista. Según el estudio, los estudiantes de ingeniería perciben de forma abrumadora que la diversidad cultural no solo enriquece las interacciones y fomenta la creatividad, sino que también mejora directamente la capacidad de decisión y la capacidad del equipo para resolver problemas.
El dato que lo respalda es rotundo: la afirmación «La diversidad cultural y las experiencias previas de los estudiantes mejoran la dinámica de aprendizaje, así como la capacidad para resolver problemas en equipo» obtuvo una puntuación media de 4,19 sobre 5. Desde una perspectiva pedagógica, este dato es crucial, ya que no se trata de una teoría abstracta, sino de la percepción directa de las personas que experimentan sus beneficios en tareas colaborativas complejas.
Las mujeres lo ven aún más claro
Al profundizar en los datos, el estudio halló una diferencia estadísticamente significativa en la percepción entre hombres y mujeres. Las estudiantes encuestadas mostraron un grado de acuerdo «significativamente mayor» que el de sus compañeros varones respecto a la idea de que la diversidad mejora la resolución de problemas en equipo. El análisis de los intervalos de confianza del 95 % para las medias no se solapa, lo que indica que esta diferencia no es casual.
Lo que esto sugiere es fascinante. Este hallazgo podría reflejar una mayor sintonía con la dinámica de grupo o una valoración más acentuada de los beneficios de la colaboración y la comunicación, competencias que la diversidad pone de manifiesto. Este resultado abre una interesante línea de investigación sobre cómo diferentes grupos experimentan y valoran la dinámica colaborativa.
El valor de la diversidad se aprecia más cuando se experimenta de primera mano
El estudio comparó las respuestas de grupos de máster, compuestos casi en su totalidad por estudiantes internacionales, con las de un grupo de grado, en el que el 70 % de los encuestados eran españoles. El resultado fue revelador: el grupo de grado, más homogéneo, valoró en menor medida el impacto positivo de la diversidad. La conclusión del estudio es directa y contundente: queda claro que cuanto mayor es la diversidad, más se valora.
Esto no significa que los grupos homogéneos rechacen la diversidad. Más bien, subraya un principio fundamental del aprendizaje intercultural: la apreciación de la diversidad no es un ejercicio teórico, sino una competencia que se desarrolla mediante la inmersión y la experiencia directa. Para valorar plenamente sus beneficios, primero hay que experimentarlos.
No es un beneficio mágico, sino el resultado de dos factores clave
Quizás la aportación más poderosa del estudio es desmitificar el proceso. Si bien muchas investigaciones confirman que la diversidad es beneficiosa, este estudio indaga en el porqué y traslada la conversación del «qué» al «cómo». Mediante un análisis estadístico, los investigadores identificaron los dos mecanismos principales que explican esta percepción positiva.
Esta habilidad se basa en dos factores específicos y medibles:
Desarrollo de habilidades interpersonales: Trabajar en equipos diversos impulsa a sus miembros a mejorar sus habilidades de comunicación y negociación, lo que facilita directamente la colaboración técnica.
Un entorno de ideación más rico: La diversidad cultural en el aula crea un ambiente más dinámico que fomenta un mayor intercambio de ideas, lo que enriquece la comprensión global de los problemas.
Estos dos factores, por sí solos, explican el 63,3 % de la percepción positiva, lo que demuestra que los beneficios de la diversidad no son abstractos, sino que se traducen en una mejora tangible de la comunicación y de la generación de ideas.
Conclusión: De la convivencia a la estrategia
Los resultados de este estudio reafirman una idea fundamental: la diversidad cultural no es una obligación social, sino un recurso estratégico para la innovación. Hemos pasado de intuir que se trata de un «superpoder» a comprender la mecánica que lo activa: fomenta mejores habilidades de comunicación y genera un ecosistema de ideas más rico.
Aunque puedan existir pequeños desafíos de integración, reflejados en la puntuación más baja en el ítem sobre las dificultades para unificar ideas, los beneficios en la creatividad, la toma de decisiones y el desarrollo de competencias son mucho mayores. No aprovechar este motor de forma deliberada es una enorme oportunidad perdida.
Así pues, nos queda una última pregunta: si la diversidad es un motor tan potente de la innovación y ya sabemos cómo funciona, ¿estamos haciendo lo suficiente para fomentarla estratégicamente en nuestros equipos y organizaciones?
En este audio os dejo una conversación sobre este tema.
Por otra parte, en este vídeo, podéis ver las cuestiones más interesantes planteadas.
Referencia:
Yepes, V.; Yepes-Bellver, L. y Martínez-Pagán, P. (2025). Impacto de la diversidad cultural en la resolución colaborativa de problemas en la docencia universitaria de ingeniería. En libro de actas: XI Congreso de Innovación Educativa y Docencia en Red. Valencia, 17 y 18 de julio de 2025. Doi: https://doi.org/10.4995/InRed2025.2025.20606
Arthur Casagrande (1902–1981). https://gyaconstructora.wordpress.com/2015/11/30/arthur-casagrande-y-la-mecanica-de-suelos/
Arthur Casagrande (28 de agosto de 1902 – 6 de septiembre de 1981) fue un ingeniero civil estadounidense de origen austrohúngaro, cuya obra sentó las bases del desarrollo inicial de la geotecnia y de la mecánica de suelos. Su nombre está asociado a innovaciones en el diseño de aparatos experimentales y a contribuciones fundamentales al estudio de la filtración, la licuefacción de suelos y el comportamiento mecánico de las arcillas. También es conocido por crear el histórico programa de enseñanza de la mecánica de suelos en la Universidad de Harvard, que más tarde sería imitado por universidades de todo el mundo. Junto con Karl Terzaghi, es reconocido como uno de los padres de la mecánica de suelos moderna.
Casagrande nació en Ajdovščina, en la actual Eslovenia, que entonces formaba parte del Imperio austrohúngaro. Tras cursar su primer año escolar en Linz, se mudó con su familia a Trieste. Al llegar a la edad de ingresar en la enseñanza secundaria, fue admitido en la Realschule, un tipo de escuela destinada a estudiantes que posteriormente cursarían estudios técnicos o un aprendizaje profesional. Su decisión de asistir a este centro estuvo influida por la tradición familiar materna, ya que muchos de sus parientes se habían dedicado a las ingenierías mecánica y química. En 1924, se graduó como ingeniero civil en la Technische Hochschule (TH) de Viena y continuó trabajando allí como asistente a tiempo completo del profesor Schaffernak en el laboratorio de hidráulica.
La disolución del Imperio austrohúngaro tras la Primera Guerra Mundial dejó el sector de la construcción prácticamente paralizado, lo que limitó en gran medida las oportunidades para los jóvenes ingenieros. Este difícil contexto, sumado al fallecimiento de su padre en 1924, incrementó su responsabilidad económica familiar y reforzó su deseo de participar en grandes proyectos de ingeniería. A pesar de la oposición de su madre y de su profesor, decidió emprender el arriesgado viaje a Estados Unidos. Tras llegar a Nueva York en 1926, se alojó durante diez días en un albergue de la YMCA antes de mudarse a Nueva Jersey, donde trabajó durante unos meses como delineante.
Una visita al Massachusetts Institute of Technology (MIT) en busca de empleo cambiaría su carrera para siempre. Allí conoció a Karl von Terzaghi, que acababa de llegar, y le ofreció inmediatamente un puesto de asistente privado. Desde 1926 hasta 1932, Casagrande trabajó como asistente de investigación asignado al MIT para el US Bureau of Public Roads, colaborando con Terzaghi en numerosos proyectos destinados a mejorar las técnicas y los equipos de ensayo de suelos. En 1929, viajó con él a Viena para ayudarle a establecer un laboratorio de mecánica de suelos que pronto se convertiría en un centro de referencia mundial. Durante este viaje por Europa, Casagrande visitó todos los laboratorios de mecánica de suelos existentes en ese momento, lo que le permitió adquirir un conocimiento excepcional del estado del arte internacional.
A su regreso al MIT, desarrolló equipos que sentarían las bases de los utilizados actualmente: el aparato del límite líquido, la prueba del hidrómetro, el ensayo capilar horizontal, el odómetro y la caja de corte. También fue pionero en realizar ensayos triaxiales y en estudiar los cambios volumétricos de los suelos durante el esfuerzo cortante en Estados Unidos. Gracias a sus avances experimentales, realizó aportaciones fundamentales: fue uno de los primeros en comprender el desarrollo de las presiones de poros durante los cortes no drenados, destacó la diferencia crítica entre las arcillas intactas y las remoldeadas y estableció los procedimientos estándar para identificar la presión de preconsolidación en los suelos sobreeconsolidados. Además, la conocida «línea A» de la carta de plasticidad probablemente lleva su nombre.
En 1932 se trasladó a la Universidad de Harvard, donde en 1946 fue nombrado titular de la nueva cátedra de Mecánica de Suelos e Ingeniería de Cimentaciones. Allí organizó un programa de posgrado que pasó de contar con 12 estudiantes en 1932 a más de 80 tras la Segunda Guerra Mundial. Entre 1942 y 1944, a petición del Army Corps of Engineers, formó intensivamente en mecánica de suelos aplicada a la construcción de aeródromos a unos cuatrocientos oficiales. Aunque Terzaghi llegaría posteriormente a Harvard con la ayuda de Casagrande para escapar de la inestabilidad política en Europa, lo cierto es que Casagrande trabajó prácticamente solo en la sección de mecánica de suelos debido a las prolongadas ausencias de Terzaghi y a su escaso interés por las tareas administrativas. El éxito del programa de Harvard, que hacía hincapié en los cursos de laboratorio y en el estudio detallado de la filtración, se debía claramente a Casagrande y su metodología serviría más tarde de modelo en universidades de todo el mundo.
En 1936, organizó la primera Conferencia Internacional de Mecánica de Suelos e Ingeniería de Cimentaciones. Aunque Terzaghi consideraba que suponía un riesgo excesivo para una disciplina aún joven, el evento fue un éxito rotundo. La conferencia dio lugar a la creación de la actual International Society for Soil Mechanics and Geotechnical Engineering (ISSMGE) y marcó el momento en que la mecánica de suelos se convirtió en una parte esencial de la ingeniería civil. Alec Skempton describió posteriormente el periodo comprendido entre la publicación de Erdbaumechanik (Terzaghi, 1925) y esta conferencia como la etapa formativa clave de la mecánica de suelos moderna.
En paralelo a su labor académica, Casagrande desarrolló una destacada actividad como consultor, especialmente en proyectos relacionados con presas de tierra y en la investigación de fallos en dichas estructuras. Su interés por las presas se refleja en sus estudios sobre la filtración y la licuefacción. Tras la Segunda Guerra Mundial, el Corps of Engineers le encargó investigar los posibles efectos de las explosiones atómicas sobre la estabilidad de los taludes del Canal de Panamá. Esta investigación lo convirtió en uno de los primeros especialistas en la investigación de la resistencia dinámica de los suelos. También fue él quien introdujo el término «licuefacción» en la literatura de mecánica de suelos, aunque posteriormente consideró que su uso era inadecuado para describir los fenómenos asociados a cargas sísmicas cíclicas e insistió en que el término debía reservarse para suelos que experimentaran un notable ablandamiento por deformación, lo que conlleva un comportamiento cercano al flujo.
Su reconocimiento internacional se reflejó en numerosos premios. Fue nombrado primer Rankine Lecturer por la British Geotechnical Association y recibió la prestigiosa distinción de Terzaghi Lecturer, otorgada por la ASCE. En su honor, se creó posteriormente el Arthur Casagrande Professional Development Award, destinado a impulsar la carrera de jóvenes ingenieros e investigadores en geotecnia. A lo largo de su carrera, escribió más de cien textos e informes sobre mecánica de suelos, asentamientos, comportamiento dinámico y problemas relacionados con presas y cimentaciones.
Arthur Casagrande falleció en Estados Unidos el 6 de septiembre de 1981, a los 79 años. Su legado científico y pedagógico sigue profundamente arraigado en la ingeniería geotécnica contemporánea. Su nombre sigue asociado a la rigurosidad experimental, la innovación técnica y la consolidación definitiva de la mecánica de suelos como disciplina moderna.
Os dejo un vídeo que resume los aspectos básicos de su biografía.
La construcción, pilar de la economía mundial, tiene una merecida fama de ser un sector tradicional y reacio al cambio. Sin embargo, bajo esa apariencia de métodos probados, la feroz competencia y las nuevas exigencias de los clientes están provocando una evolución silenciosa pero crucial. El progreso está ocurriendo, pero de maneras que podrían sorprender a muchos.
Entonces, ¿cómo es realmente la innovación en un mundo de ladrillos y cemento y qué nos estamos perdiendo si solo miramos la superficie?
Este artículo revela cuatro de las conclusiones más impactantes e intuitivas sobre la verdadera naturaleza del cambio en la construcción, basadas en una exhaustiva revisión de la investigación en el campo.
1. La mayoría de las innovaciones provienen de fuera del sector.
Una de las ideas más arraigadas es que la innovación debe nacer en el seno de las propias empresas constructoras. Sin embargo, las pruebas sugieren lo contrario. Un análisis de Pries y Dorée (2005), que examinó 55 años de publicaciones en dos importantes revistas profesionales, llegó a una conclusión sorprendente: dos tercios de las innovaciones en la construcción provienen de las industrias proveedoras.
Este hallazgo es fundamental, ya que cambia por completo el enfoque para fomentar el progreso. Desafía la noción de que las constructoras deben inventarlo todo por sí mismas. En cambio, destaca que la verdadera palanca de cambio reside en la colaboración, en la gestión de la cadena de suministro y en la capacidad de integrar soluciones desarrolladas por otros. El progreso no es una tarea solitaria, sino un esfuerzo de todo el ecosistema.
2. La verdadera innovación es incremental, no radical.
La cultura popular está obsesionada con la «innovación disruptiva»: ideas revolucionarias que cambian las reglas del juego de la noche a la mañana. Sin embargo, en el sector de la construcción, la realidad es mucho más comedida. Slaughter (1998) clasificó la innovación en varias categorías según su grado de novedad, incluyendo «incremental» (pequeños cambios) y «radical» (cambios significativos).
La conclusión principal de múltiples estudios es que la innovación en la industria de la construcción es predominantemente incremental. El progreso no se basa en grandes saltos revolucionarios, sino en una base sólida de pequeñas mejoras continuas, ajustes de procesos y optimizaciones constantes. Reconocer estos pequeños pasos es fundamental para comprender cómo avanza realmente el sector de manera segura, probada y constante.
3. Para ser innovación, debe cumplir tres requisitos clave.
En un sector donde los procesos están en constante ajuste, es fácil confundir cualquier cambio con una innovación. Para evitar esta ambigüedad, el Manual de Oslo de la OCDE y Eurostat proporciona una definición de «innovación empresarial» que resulta particularmente útil y aplicable. Según este marco, para que algo se considere una verdadera innovación, debe cumplir tres condiciones:
Debe ser un producto o un proceso de negocio nuevo o mejorado.
Debe ser significativamente diferente de los productos o procesos anteriores de la empresa.
Debe haber sido introducido en el mercado o puesto en uso por la empresa.
Tener una definición tan precisa es crucial. El tercer requisito, la implementación, actúa como un guardián que separa las ideas fugaces de la innovación empresarial genuina. No basta con tener una idea brillante; para que un cambio aporte valor real, debe ponerse a prueba en el mercado o integrarse en las operaciones de la empresa. Es este paso final el que transforma una sesión de lluvia de ideas en un verdadero motor de progreso.
4. Medir el impacto real implica descontar lo que «hubiera pasado de todos modos».
Medir el éxito de una innovación es un gran desafío, especialmente en el sector de la construcción. La complejidad inherente al sector —con su naturaleza específica para cada proyecto, la diversidad de grupos de interés, las operaciones in situ y las cadenas de suministro temporales— dificulta percibir y cuantificar el impacto. Aquí es donde entra en juego el concepto de «peso muerto»: el resultado que se habría producido de todos modos, incluso sin nuestra intervención.
Para capturar el verdadero valor, debemos aislar el efecto real de la innovación. La definición de impacto de Clark et al. (2004) lo resume a la perfección:
«La porción del resultado total que se produjo como resultado de la actividad de la empresa, por encima y más allá de lo que habría sucedido de todos modos».
Esta idea obliga a las empresas a ser mucho más críticas y honestas respecto del valor de sus innovaciones. Ya no basta con observar una mejora y atribuirla a un cambio reciente; ahora hay que demostrar que esa mejora no se habría producido de otro modo. Esa es la diferencia fundamental entre correlación y causalidad y el verdadero estándar para medir el impacto.
Conclusión: mirando al futuro de la construcción.
La innovación en este sector es más sutil, colaborativa e incremental de lo que se suele pensar. No se trata de grandes revoluciones tecnológicas, sino de una evolución constante, a menudo impulsada por socios externos y validada mediante una medición rigurosa de su impacto real.
Sabiendo que el verdadero progreso proviene de pequeños pasos y de fuentes externas, la pregunta clave es: ¿cómo podemos, como industria y sociedad, crear un entorno que identifique, mida y celebre mejor estas innovaciones a menudo ocultas que están construyendo nuestro futuro?
En este audio podéis escuchar una conversación interesante sobre este tema.
Este es un vídeo que resume bien las ideas expuestas.
Referencias:
Clark, C., Rosenzweig, W., Long, D., & Olsen, S. (2004). Double bottom line project report: Assessing social impact in double bottom line ventures.
López, S., & Yepes, V. (2026). Innovation in construction: Assessing the role of transformational leadership and knowledge governance.Journal of Civil Engineering and Management. (In press).
López, S., & Yepes, V. (2020). Impact of R&D&I on the performance of Spanish construction companies.Advances in Civil Engineering, 2020(1), 7835231.
Pellicer, E., Yepes, V., Correa, C. L., & Alarcón, L. F. (2014). Model for systematic innovation in construction companies.Journal of Construction Engineering and Management, 140(4), B4014001.
Pellicer, E., Correa, C. L., Yepes, V., & Alarcón, L. F. (2012). Organizational improvement through standardization of the innovation process in construction firms.Engineering Management Journal, 24(2), 40–53.
Pries, F., & Dorée, A. (2005). A century of innovation in the Dutch construction industry.Construction Management and Economics, 23(6), 561–564.
Slaughter, E. S. (1998). Models of construction innovation.Journal of Construction Engineering and Management, 124(3), 226–231.
Tabatabaee, S. M. E., Iordanova, I., & Poirier, E. (2025). Assessing the Impact of Innovation in Construction: A Literature Review. En P. Zangeneh et al. (Eds.), Proceedings of the Canadian Society for Civil Engineering Annual Conference 2024, Volume 3, Lecture Notes in Civil Engineering 697 (págs. 131–142). Canadian Society for Civil Engineering.
Yepes, V., Pellicer, E., Alarcón, L. F., & Correa, L. C. (2016). Creative innovation in Spanish construction firms.Journal of Professional Issues in Engineering Education and Practice, 142(1), 04015006.