En esta ocasión comparto con los lectores una entrevista que me han realizado a propósito de un reciente estudio publicado en Nature Communications —Vaserman, E., Weaver, J.C., Hayhow, C. et al. (2025), An unfinished Pompeian construction site reveals ancient Roman building technology— que ha generado un notable interés tanto en la comunidad científica como en los medios. El trabajo ha sido también objeto de un artículo en El País (“Así construían los albañiles de la Antigua Roma”, disponible en: https://elpais.com/ciencia/2025-12-09/asi-construian-los-albaniles-de-la-antigua-roma.html), en el que se recoge mi valoración sobre sus implicaciones para la ingeniería civil y la comprensión de las técnicas constructivas romanas. Presento aquí la entrevista completa, con el fin de profundizar en los aspectos técnicos y arqueológicos que hacen de este estudio un caso excepcional para el análisis de los materiales históricos.
El artículo sostiene que en Pompeya se empleaba con cierta frecuencia la mezcla en caliente con cal viva, ¿cómo interpreta esta afirmación?
El trabajo presenta una serie de análisis microestructurales y químicos que indican claramente que en la Domus IX 10,1 se utilizó un procedimiento basado en la mezcla de cal viva con materiales puzolánicos en estado seco. Los resultados son coherentes con esta hipótesis y están bien fundamentados en este contexto arqueológico, especialmente debido al hallazgo de montones de material premezclado seco que contenían gránulos de cal viva. No obstante, desde la perspectiva de la ingeniería civil, conviene subrayar que se trata de una evidencia localizada en un momento de reconstrucción posterior al terremoto del año 62 d. C., por lo que no es posible extrapolarla automáticamente a todo el ámbito del Imperio romano. La diversidad de materiales y prácticas constructivas descrita por autores como Vitruvio, quien abogaba por el apagado previo de la cal, hace recomendable interpretar este estudio como una muestra de la coexistencia de métodos alternativos al canon clásico, pero no como una descripción universal.
El estudio plantea que los morteros podrían haber experimentado procesos de autorreparación a muy largo plazo. ¿Cómo valora usted esta idea?
Los datos indican que ciertos clastos de calcita pudieron seguir reaccionando durante un periodo prolongado, actuando como fuente de calcio reactivo. Esto habría favorecido el relleno de microfisuras mediante la recristalización de carbonato cálcico en sus polimorfos de calcita y aragonito. Este comportamiento es interesante desde el punto de vista científico, ya que permite comprender mejor la evolución mineralógica en la interfaz entre los áridos volcánicos y la matriz cementante. No obstante, desde el punto de vista de la ingeniería estructural moderna, es importante tener en cuenta su contexto, ya que se trata de un proceso geoquímico lento, con efectos localizados y condicionado por los ciclos de humedad ambiental. Esta característica ayuda a explicar la durabilidad observada, pero no tiene una equivalencia directa con los mecanismos de reparación activa inmediata que se investigan actualmente en la obra civil.
¿Podría interpretarse la presencia de clastos de cal como un indicio de una mezcla defectuosa?
En determinadas obras históricas, la presencia de grumos de cal puede deberse a procesos de mezcla incompletos o a un apagado insuficiente. Sin embargo, en este caso particular, los análisis de espectroscopía infrarroja y de isótopos estables de carbono y oxígeno indican que estos grumos se formaron durante un proceso térmico y químico compatible con la utilización deliberada de cal viva. Los investigadores documentan, además, la segregación intencionada de materiales: montones de premezcla con cal viva para muros estructurales frente a ánforas con cal apagada para acabados. Por tanto, las pruebas apuntan a una técnica constructiva específica (hot mixing) y no a una ejecución negligente.
¿Cree que estos resultados pueden considerarse representativos del conjunto de la construcción romana?
Los datos corresponden a un escenario muy concreto, que se conserva excepcionalmente bien gracias a la ceniza volcánica de la erupción del 79 d. C., lo que permite analizar materiales «congelados» en plena fase de obra. Precisamente por su carácter singular, lo más prudente es entender que este estudio aporta información específica sobre la logística de una obra doméstica en Pompeya del siglo I, sin que ello implique que todos los constructores romanos actuaran de la misma manera en obras de infraestructura pública o en otras provincias. Para avanzar en esta cuestión, será necesario realizar estudios comparativos con metodologías similares en otros yacimientos u enclaves imperiales.
El artículo distingue entre morteros estructurales y de acabado. ¿Considera acertada esa diferenciación?
Esta diferenciación es coherente con lo que cabría esperar en cualquier tradición constructiva con un mínimo grado de especialización. El estudio documenta el uso de cal apagada almacenada en ánforas recicladas, presumiblemente destinada a morteros de reparación o revestimientos pictóricos, mientras que la cal viva se reservaba para la mampostería estructural. Las propiedades requeridas para un muro de carga no son idénticas a las necesarias para un acabado fino y el análisis químico (ratios Ca/Si) del artículo parece respaldar que se ajustaban las formulaciones según la función. La propuesta es razonable y encaja con el análisis logístico del flujo de trabajo en la obra.
¿Qué aspectos de este trabajo pueden interesar a la ingeniería civil actual, especialmente en relación con los hormigones modernos?
Este estudio contribuye a una comprensión más completa de la evolución de ciertos morteros históricos a lo largo del tiempo, lo que puede resultar inspirador para el desarrollo de nuevos materiales de restauración compatibles y con menor huella de carbono. El uso de la reactividad residual de los clastos de cal para sellar fisuras es un principio valioso para la sostenibilidad. No obstante, los materiales actuales ofrecen prestaciones y un nivel de control muy superiores. Disponemos de cementos compuestos y de normativas de seguridad que permiten diseñar con una fiabilidad estandarizada que no existía en la antigüedad. Por tanto, los morteros romanos son un referente histórico y una fuente de inspiración, pero no un modelo que pueda utilizarse directamente en las grandes infraestructuras contemporáneas.
Algunos autores han sugerido que parte de los carbonatos observados podría ser producto de procesos posteriores a la construcción. ¿Cómo valora la argumentación del estudio?
El artículo describe una serie de observaciones que indican que parte de los carbonatos se formaron durante la vida útil inicial del material. Concretamente, el análisis de isótopos permite distinguir entre la carbonatación rápida en condiciones de mezcla en caliente (fraccionamiento cinético) y la carbonatación lenta en equilibrio. Esto permite a los autores argumentar que los clastos no son únicamente producto de la degradación postdeposicional. No obstante, en materiales con tantos siglos de antigüedad, es razonable tener en cuenta también la influencia del entorno. El estudio aborda este aspecto mediante el análisis de los bordes de reacción de los áridos volcánicos, donde se observa una remineralización continua. Desde un enfoque técnico, el estudio aporta pruebas sólidas para distinguir ambas fases.
Desde su perspectiva como catedrático de ingeniería de la construcción, ¿qué aportación considera más destacable y qué limitaciones observa?
El estudio destaca por ofrecer una visión muy detallada de un proceso constructivo interrumpido, lo que supone una oportunidad excepcional. La identificación de herramientas in situ (plomadas, azadas, pesas) junto con los materiales permite reconstruir el flujo de trabajo real, algo que rara vez se conserva. La principal limitación es su naturaleza localizada, ya que describe un caso concreto de una domus privada en reparación, lo que no permite, por sí solo, establecer conclusiones de alcance general sobre la gran ingeniería pública romana. También sería interesante complementar estas investigaciones en el futuro con datos de resistencia mecánica comparada para realizar una valoración más completa desde el punto de vista de la ingeniería estructural.
En este audio se puede escuchar una conversación que trata sobre este artículo recientemente publicado
Las ideas más interesantes del artículo se puede ver en este vídeo.
En esta presentación se resumen las ideas más importantes.
Acaban de publicar nuestro artículo en la revista Environmental Impact Assessment Review (primer cuartil del JCR), en el que se propone un método directo y más riguroso para calcular el módulo de balasto en losas de cimentación, que incorpora un nuevo enfoque de seguridad y criterios de sostenibilidad para mejorar el diseño suelo-estructura.
Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València.
En las últimas décadas, el diseño de cimentaciones ha evolucionado hacia soluciones más seguras, eficientes y sostenibles. Sin embargo, el módulo de balasto vertical (Ks), uno de los parámetros más utilizados en la modelización del contacto suelo-estructura, sigue empleándose en muchos proyectos como si se tratara de una propiedad intrínseca del terreno. El artículo analizado sugiere un cambio de paradigma en esta práctica, al introducir un método directo para estimar Ks a partir de la relación carga-asentamiento, así como un nuevo marco de seguridad orientado al diseño sostenible. Esta aportación es especialmente relevante en el caso de las cimentaciones tipo losa, habituales en edificios y estructuras industriales.
El estudio parte de una cuestión fundamental: ¿cómo se puede estimar de forma rigurosa el módulo de balasto vertical (Ks) en losas de cimentación, considerando parámetros geotécnicos habitualmente ignorados y, al mismo tiempo, integrando criterios de sostenibilidad y seguridad en el diseño?
Esta cuestión surge de las deficiencias detectadas en los métodos indirectos y semidirectos que se emplean comúnmente, ya que no consideran aspectos clave como la profundidad de la influencia o los efectos de compensación de cargas.
Los autores desarrollan una metodología directa que combina varias herramientas avanzadas de análisis geotécnico:
Teoría del semiespacio elástico para representar el comportamiento del terreno.
Análisis de asientos por capas, con el fin de capturar la variabilidad en profundidad.
Mecánica de consolidación basada en ensayos edométricos, que permite incorporar la respuesta deformacional del suelo bajo carga.
Consideración explícita de la profundidad de la influencia y de la compensación de cargas, factores que rara vez se incluyen en los métodos tradicionales.
Con este planteamiento, se obtiene directamente un valor de Ks coherente con los principios de la energía elástica y adecuado para modelos avanzados de interacción suelo-estructura. El valor resultante, 5,30 MN/m³, se sitúa entre los límites inferiores y superiores calculados, lo que confirma la consistencia del método.
El estudio no se limita al aspecto puramente geotécnico, sino que también integra una evaluación de la sostenibilidad del ciclo de vida de tres alternativas de losa de hormigón armado. Para ello, combina un proceso jerárquico analítico neutrosófico (NAHP-G) con el método de decisión multicriterio ELECTRE III, considerando dimensiones estructurales, ambientales y socioeconómicas.
Además, se introduce un coeficiente de seguridad específico para Ks, calibrado para considerar la variabilidad espacial del subsuelo y mejorar el diseño en términos de servicio.
Los resultados del trabajo son especialmente significativos:
El método directo permite obtener un Ks más representativo del comportamiento real del terreno y de la losa bajo carga.
El nuevo coeficiente de seguridad proporciona un diseño más fiable y coherente con la incertidumbre del subsuelo.
Se logra una mejora de 2,5 veces en el índice de seguridad social y una reducción del 50 % en los impactos ambientales respecto a metodologías convencionales.
El estudio redefine Ks como una variable de diseño, no como una constante del suelo, corrigiendo así décadas de uso inapropiado en la ingeniería geotécnica.
Las conclusiones del artículo tienen un impacto directo en la práctica profesional:
Mejora del diseño de losas: el método permite ajustar mejor los modelos numéricos y evitar tanto el sobredimensionamiento como los fallos por asientos excesivos.
Integración de la sostenibilidad en fases tempranas del proyecto: el marco NAHP-G + ELECTRE IS proporciona una herramienta objetiva para comparar alternativas de cimentación no solo por criterios técnicos, sino también por criterios ambientales y sociales.
Mayor seguridad y fiabilidad: el nuevo coeficiente de seguridad para Ks ayuda a gestionar la incertidumbre y aumenta los márgenes de seguridad de forma cuantificada.
Aplicación en proyectos con elevada heterogeneidad del terreno: el enfoque resulta especialmente útil en suelos con variabilidad marcada, donde los métodos simplificados generan resultados poco fiables.
La Universitat Politècnica de València (UPV) ha obtenido un reconocimiento destacado europeo al ganar el premio al mejor proyecto en la categoría «AI for Sustainable Development» de la European Universities Competition on Artificial Intelligence, organizada por la HAW Hamburg.
El trabajo galardonado, desarrollado en el ICITECH por el doctorando Iván Negrín, demuestra cómo la inteligencia artificial puede transformar el diseño estructural para hacerlo más sostenible y resiliente, con reducciones de hasta un 32 % en la huella de carbono respecto a los sistemas convencionales. Este logro posiciona a la UPV como un referente europeo en innovación ética e impacto y reafirma su compromiso con la búsqueda de soluciones frente al cambio climático y al desarrollo insostenible.
El trabajo se enmarca en el proyecto de investigación RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València. La tesis doctoral de Iván la dirigen los profesores Víctor Yepes y Moacir Kripka.
Introducción: El dilema de la construcción moderna.
La industria de la construcción se enfrenta a un reto monumental: edificar las ciudades del futuro sin agotar los recursos del presente. El enorme impacto medioambiental de los materiales y procesos tradicionales, especialmente las emisiones de CO₂, es uno de los problemas más acuciantes de nuestra era.
¿Y si la solución a este problema no radicara en un nuevo material milagroso, sino en una nueva forma de pensar? ¿Y si la inteligencia artificial (IA) pudiera enseñarnos a construir de manera mucho más eficiente y segura?
Esa es precisamente la hazaña que ha logrado un innovador proyecto de la Universitat Politècnica de València (UPV). Su enfoque es tan revolucionario que acaba de ganar un prestigioso premio europeo, lo que demuestra que la IA ya no es una promesa, sino una herramienta tangible para la ingeniería sostenible.
Clave 1: una innovación europea premiada al más alto nivel.
Este no es un proyecto académico cualquiera. La investigación, dirigida por el doctorando Iván Negrín del Instituto de Ciencia y Tecnología del Hormigón (ICITECH) de la UPV, ha recibido el máximo reconocimiento continental.
Inicialmente seleccionado como uno de los diez finalistas, el proyecto tuvo que defenderse en una presentación final ante un jurado de expertos. Tras la deliberación del jurado, el proyecto fue galardonado como el mejor en la categoría «AI for Sustainable Development Projects» de la competición «European Universities Competition on Artificial Intelligence to Promote Sustainable Development and Address Climate Change», organizada por la Universidad de Ciencias Aplicadas de Hamburgo (HAW Hamburg). Este reconocimiento consolida la reputación del proyecto en el ámbito de la innovación europea.
Clave 2: adiós al CO₂: reduce la huella de carbono en más del 30 %.
El resultado más impactante de esta investigación es su capacidad para abordar el principal problema medioambiental del sector de la construcción: las emisiones de carbono. La plataforma de diseño asistido por IA puede reducir la huella de carbono de los edificios de manera significativa.
En concreto, consigue una reducción del 32 % de la huella de carbono en comparación con los sistemas convencionales de hormigón armado, que ya habían sido optimizados. Esta reducción abarca todo el ciclo de vida del edificio, desde la extracción de materiales y la construcción hasta su mantenimiento y su eventual demolición.
En un sector tan difícil de descarbonizar, un avance de esta magnitud, impulsado por un diseño inteligente y no por un nuevo material, supone un cambio de paradigma fundamental para la ingeniería sostenible.
Clave 3: Rompe el mito: más sostenible no significa menos resistente.
Uno de los aspectos más revolucionarios del proyecto es la forma en que resuelve un conflicto histórico en ingeniería: la sostenibilidad frente a la resiliencia. La IA ha superado la barrera que obligaba a elegir entre usar menos material para ser sostenible o más material para ser resistente.
En una primera fase, el modelo optimizó estructuras mixtas de acero y hormigón (denominadas técnicamente RC-THVS) para que fueran altamente sostenibles, aunque con una resiliencia baja. Lejos de detenerse, la IA iteró sobre su propio diseño y, en una evolución posterior (RC-THVS-R), logró una solución altamente sostenible y resiliente frente a eventos extremos.
La metodología desarrollada permite compatibilizar la sostenibilidad y la resiliencia, superando el tradicional conflicto entre ambos objetivos.
Clave 4: Ahorro desde los cimientos. Menos costes, energía y materiales.
Los beneficios de esta IA no solo benefician al planeta, sino también al bolsillo y a la eficiencia del proyecto. La optimización inteligente de las estructuras se traduce en ahorros tangibles y medibles desde las primeras fases de la construcción.
Los datos demuestran un ahorro significativo en múltiples frentes:
-16 % de energía incorporada.
-6 % de coste económico.
– Reducción del 17 % de las cargas transmitidas a columnas y cimentaciones.
Este último punto es clave. Una menor carga en los cimientos no solo supone un ahorro directo de materiales, sino que tiene un efecto cascada en materia de sostenibilidad: al usar menos hormigón, se reduce la cantidad de cemento empleado, uno de los principales generadores de CO₂ a nivel mundial.
Clave 5: un enfoque versátil para las ciudades del futuro (y del presente).
La aplicación de esta metodología no se limita a los grandes edificios de nueva construcción. Su versatilidad la convierte en una herramienta estratégica para el desarrollo urbano integral.
Puede aplicarse a infraestructuras de transporte, como puentes y pasarelas, para minimizar su impacto ambiental. También es fundamental para la rehabilitación de estructuras existentes, ya que permite optimizar su seguridad y reducir las emisiones asociadas a los refuerzos.
Este enfoque se alinea con los Objetivos de Desarrollo Sostenible (ODS) de la ONU, concretamente con los ODS 9 (Industria, innovación e infraestructura), 11 (Ciudades y comunidades sostenibles) y 13 (Acción por el clima).
Conclusión: construyendo un futuro inteligente.
Este proyecto de la UPV demuestra que la inteligencia artificial ha dejado de ser una tecnología futurista para convertirse en una herramienta imprescindible en la ingeniería civil. Ya no se trata de promesas, sino de soluciones prácticas que resuelven problemas reales, medibles y urgentes.
La capacidad de diseñar estructuras más baratas, ecológicas, seguras y resistentes abre un nuevo capítulo en la construcción.
¿Estamos a las puertas de una nueva era en la ingeniería en la que la sostenibilidad y la máxima seguridad ya no son objetivos contrapuestos, sino aliados inseparables gracias a la inteligencia artificial?
En futuros artículos, explicaremos con más detalle el contenido de este proyecto ganador. De momento, os dejo una conversación que lo explica muy bien y un vídeo que resume lo más importante. Espero que os resulte interesante.
Os dejo un documento resumen, por si queréis ampliar la información.
El campo de la innovación en la construcción está lleno de siglas y términos que pueden resultar abrumadores para cualquiera que se inicie en este mundo. Acrónimos como MMC, IC, OSC y conceptos como prefabricación o construcción modular se utilizan a menudo de manera inconsistente, lo que crea una barrera de confusión para quienes se inician en este campo.
El propósito de este artículo es actuar como un decodificador, no solo por rigor académico, sino porque la capacidad de la industria para resolver desafíos urgentes, como la crisis de la vivienda, la productividad estancada y la descarbonización del entorno construido, depende de una comprensión común y una estrategia coherente.
La situación actual es como si hubiera un conjunto de etiquetas superpuestas para describir un mismo ecosistema: unas describen el clima (el enfoque general), otras las especies de árboles (los sistemas técnicos) y otras el suelo en el que crecen (las tecnologías habilitadoras). Sin un mapa que las organice, es fácil perderse.
En esta guía, basada en el trabajo de Paul D. Kremer, desglosaremos esta jerga compleja, empezando por los tres términos más amplios y confusos, que actúan como grandes «paraguas» conceptuales.
2. Los grandes «paraguas»: aclarando MMC, IC y OSC/OSM.
Los términos más confusos son aquellos que buscan describir enfoques generales para modernizar la construcción. Aunque a menudo se usan como sinónimos, representan ideas fundamentalmente distintas.
Métodos Modernos de Construcción (MMC): es un «término paraguas» amplio, principalmente impulsado por políticas gubernamentales, que carece de una definición técnica estable y coherente. La investigación es clara al respecto y señala que el MMC funciona «en gran medida como un paraguas impulsado por políticas con poca o ninguna frontera técnica coherente». En la práctica, su significado varía según el contexto. En algunos documentos, MMC puede referirse a sistemas modulares volumétricos, a herramientas digitales de gestión o a un conjunto de estrategias para mejorar la productividad. Es un término retórico útil para las políticas públicas, pero analíticamente débil por su ambigüedad.
Construcción industrializada (CI): es el paradigma más coherente y estable de los tres. Consiste en aplicar la lógica de la fabricación al proceso constructivo. No se trata simplemente de construir en una fábrica, sino de reconfigurar todo el sistema de producción. Sus características principales son:
Repetibilidad y normalización: trata la construcción como un sistema de producción orquestado, con componentes y procesos estandarizados, en lugar de una serie de prototipos únicos.
Logística coordinada: enfatiza la planificación de la producción y las operaciones de la cadena de suministro totalmente integradas, similar a la de una línea de ensamblaje de automóviles.
Enfoque en el proceso: se centra en cómo se organiza la construcción (el flujo de trabajo, la estandarización, la eficiencia) y no solo en dónde ocurre (en la obra o en una fábrica).
Construcción/fabricación en taller (OSC/OSM): (del inglés, Off-Site Construction/Manufacturing) se refiere a la ubicación. Su función principal es indicar que una parte o la totalidad del proceso de construcción se traslada de la obra a un entorno controlado, como una fábrica. Sin embargo, el término no especifica nada sobre el sistema de producción subyacente. La investigación en este campo suele centrarse en las interfaces entre la fábrica y la obra, las restricciones de transporte y la secuencia de instalación, pero rara vez aborda los principios de fabricación o la integración digital que definen un sistema de producción completo.
Síntesis comparativa
Para visualizar mejor las diferencias, aquí tienes una tabla comparativa:
Característica
Métodos modernos de construcción (MMC)
Construcción industrializada (IC)
Construcción en taller (OSC/OSM)
Concepto clave
Un «paraguas» de políticas que agrupa diversas innovaciones.
Una filosofía de producción basada en la lógica de la fabricación.
Un descriptor que indica la ubicación de la producción (fábrica vs. obra).
Enfoque principal
Modernización de la industria en un sentido amplio y flexible.
Eficiencia del proceso, repetibilidad y cadena de suministro integrada.
El traslado de actividades fuera de la obra para mejorar el control y la calidad.
Analogía simple
Una etiqueta de «comida saludable» (puede significar muchas cosas).
La «cocina de un chef» (un sistema organizado con procesos definidos).
«Comida para llevar» (hecha en otro lugar, sin importar cómo se cocinó).
Ahora que hemos aclarado estos conceptos generales, podemos explorar los tipos de sistemas técnicos más específicos que suelen estar englobados por estos «paraguas».
3. Los «ladrillos»: tipos de sistemas técnicos.
A diferencia de los «paraguas» conceptuales, términos como prefabricado, modular y panelizado se refieren a arquetipos técnicos específicos o «subdominios». Son los verdaderos «ladrillos» con los que se construye.
Sistemas modulares volumétricos: se trata de módulos tridimensionales (3D) altamente prefabricados en fábrica, como habitaciones completas, módulos de baño o de cocina. Estos «bloques» se transportan a la obra y se ensamblan rápidamente. Su principal ventaja es la rapidez de instalación, que reduce drásticamente el tiempo de construcción.
Sistemas panelizados: son componentes bidimensionales (2D), como paredes, losas de piso o paneles de techo, fabricados con alta precisión en una fábrica. Estos paneles se ensamblan en la obra para conformar la estructura del edificio. Un ejemplo prominente son los sistemas de madera de ingeniería (Mass Timber), como el CLT (Cross-Laminated Timber), que demuestran un gran potencial para la construcción rápida y la reducción de emisiones de carbono. Ofrecen una gran flexibilidad de configuración y diseño, ya que los paneles pueden combinarse de múltiples maneras.
Sistemas híbridos: son una mezcla inteligente de componentes prefabricados (modulares o panelizados) y de construcción tradicional in situ. Por ejemplo, se puede construir un podio de hormigón en la obra y luego montar módulos prefabricados encima. A menudo superan a los sistemas totalmente modulares o totalmente in situ en términos de coste y viabilidad, especialmente en entornos urbanos complejos con restricciones de espacio.
Prefabricación (como término general): es importante señalar que el término «prefabricación» es amplio y abarca tanto los sistemas modulares como los panelizados. Simplemente significa que los componentes del edificio se fabrican en un lugar distinto de su ubicación final antes de ser instalados.
Estos sistemas técnicos no funcionan de manera aislada, sino que dependen de un conjunto de tecnologías y metodologías transversales que garantizan su eficiencia y coherencia.
4. Los «habilitadores»: las tecnologías que lo unen todo.
Independientemente del sistema constructivo utilizado (modular, panelizado o híbrido), hay dos «habilitadores» transversales fundamentales para que la construcción moderna funcione de manera integrada y eficiente: la DfMA y la digitalización.
Diseño para la fabricación y el ensamblaje (DfMA): El DfMA no es un método de construcción, sino un «sistema operativo de diseño». Se trata de una metodología que obliga a considerar la fabricación y el ensamblaje desde las primeras etapas del diseño, en lugar de resolverlos sobre la marcha. Sus funciones clave son las siguientes:
Alinear el diseño con la realidad: asegura que el diseño arquitectónico sea compatible con las limitaciones y capacidades de la fabricación desde el principio.
Considerar la logística como diseño: incorpora variables como las tolerancias de fabricación, la secuencia de transporte y la logística de ensamblaje como parte integral del proceso de diseño.
Actuar como núcleo conector: funciona como el nexo que conecta el concepto arquitectónico con la producción industrializada, garantizando que lo que se diseña se pueda fabricar y ensamblar eficientemente.
Digitalización: es la «infraestructura de información» que coordina todo el proceso, desde el diseño hasta el ensamblaje final. Proporciona las herramientas necesarias para gestionar la complejidad de la construcción industrializada. Entre las herramientas clave se encuentran el modelado de información para la construcción (BIM), los gemelos digitales, el modelado paramétrico, los configuradores de diseño, la simulación de procesos y la robótica. Todas ellas conforman la infraestructura de información que coordina los entornos de fábrica y de obra. Con todas estas piezas —los paraguas, los ladrillos y los habilitadores— sobre la mesa, es posible entender un nuevo marco que busca unificarlo todo de manera coherente.
5. Uniendo las piezas: el marco de la neoconstrucción.
Para resolver la fragmentación y la ambigüedad conceptual que hemos analizado, la investigación propone un nuevo término integrador: «neoconstrucción». Este marco no pretende sustituir los términos existentes, sino organizarlos en una estructura lógica.
La neoconstrucción se define como un paradigma de construcción sociotécnica, coordinado digitalmente, industrializado y circular, que integra principios de fabricación, modelos organizativos orientados a plataformas y flujos de trabajo de diseño a producción, dirigidos por DfMA, para entregar sistemas del entorno construido configurables y de alto rendimiento.
Esta densa definición se puede desglosar en cinco componentes esenciales que forman el núcleo del marco:
Integración digital: coordinación basada en modelos (BIM), sistemas de configuración paramétricos y herramientas de soporte a la decisión digital, que constituyen la columna vertebral de la información que conecta el diseño, la producción y la logística.
Producción industrializada: flujos de producción estructurados, estandarización y logística coordinada que conforman la lógica subyacente al paradigma de «construcción como fabricación».
Gobernanza de plataforma: uso de plataformas de productos, definición de interfaces y de ecosistemas de cadena de suministro integrados para permitir la escalabilidad, la consistencia y la coordinación del ecosistema.
Lógicas de diseño a producción (DfMA): integración de la «fabricabilidad», tolerancias, reglas de ensamblaje y principios de diseño circular (DfMA) para garantizar que el diseño se alinee con la realidad de la fabricación y la logística.
Circularidad y rendimiento de por vida: principios de diseño para el desmontaje, la reutilización, la adaptabilidad y la recuperación de materiales para alinear el marco con los imperativos de sostenibilidad y el valor a largo plazo.
Este marco organiza de manera coherente los términos anteriores, posicionando la construcción industrializada (CI) como la «columna vertebral de la producción» y el DfMA como el «sistema operativo de diseño». Esta claridad conceptual no es solo un ejercicio académico, sino que es fundamental para el futuro de una industria que necesita innovar de manera estructurada y escalable.
6. Conclusión: de la confusión a la claridad.
Entender la jerga de la construcción moderna no es tarea imposible. Al organizar los términos en una jerarquía lógica, podemos pasar de la confusión a la claridad.
A continuación, se presenta un resumen de las distinciones clave:
MMC: es un término de política, amplio y retórico, no una categoría técnica.
IC: es una filosofía de producción centrada en la lógica de la fabricación.
OSC: es un descriptor de ubicación que indica dónde se realiza el trabajo.
Modular/panelizado: se trata de productos técnicos, los «ladrillos» del sistema.
DfMA y digitalización: son los habilitadores transversales, el «sistema operativo» y la «infraestructura de información» que lo unen todo.
Para cualquier estudiante o profesional del sector, dominar esta jerarquía proporciona una base sólida para navegar por la innovación en la construcción. La clave está en ir más allá de los términos de moda y centrarse en la lógica subyacente que realmente impulsa el cambio: una mentalidad de fabricación, un diseño integrado y una coordinación digital impecable. Solo con esta claridad conceptual, la industria podrá afrontar de manera sistemática sus grandes retos en materia de productividad, sostenibilidad y resiliencia.
En esta conversación podéis escuchar aspectos interesantes sobre este tema:
Aquí tenéis un vídeo que resume lo más interesante.
En este documento también os dejo las ideas principales del trabajo de Kremer (2025).
Figura 1. Control del nivel freático. https://www.flickr.com/photos/wsdot/4997287082/
En este artículo se analiza un documento anexo al final: una guía formal de drenaje que detalla las lecciones aprendidas durante un proyecto de ingeniería civil excepcionalmente complejo en Christchurch (Nueva Zelanda), que se llevó a cabo de 2011 a 2016 tras un terremoto. Proporciona un marco para evaluar, diseñar e implementar el drenaje en programas de reconstrucción de infraestructuras o de recuperación tras desastres naturales, con énfasis en las prácticas de construcción y la geología local.
La guía examina diversos sistemas de control del nivel freático, como sumideros, sistemas de well-points y pozos, y ofrece criterios para seleccionar los métodos según la permeabilidad del suelo y la profundidad de la excavación. Además, establece un sistema para determinar la categoría de riesgo de un proyecto de drenaje y describe las medidas necesarias para mitigar los efectos ambientales y prevenir la subsidencia del terreno.
1.0 Introducción y principios fundamentales.
1.1 La importancia crítica del control del agua subterránea.
El control del nivel freático es un factor determinante para el éxito de cualquier proyecto de construcción que implique excavaciones. Una gestión inadecuada o la ausencia de un control efectivo puede comprometer gravemente la estabilidad de las excavaciones, la integridad de las estructuras permanentes y, en última instancia, la viabilidad económica y temporal del proyecto. El agua subterránea no controlada puede generar riesgos geotécnicos significativos, como la tubificación (piping), que es la erosión interna del suelo por el flujo de agua; el levantamiento del fondo (uplift), causado por presiones ascendentes que superan el peso del suelo en la base de la excavación, y una reducción general de la estabilidad del suelo, que puede provocar fallos en los taludes. Este manual recopila las lecciones aprendidas durante el programa de reconstrucción de la infraestructura de Christchurch (SCIRT), en el que la gestión del agua subterránea en condiciones geotécnicas complejas y tras el sismo fue un desafío diario y crítico para el éxito del proyecto. Estos fenómenos no solo suponen una amenaza para la seguridad de los trabajadores, sino que también pueden ocasionar daños en infraestructuras adyacentes y provocar retrasos y sobrecostes considerables.
Figura 2. Rotura de fondo o tapozano
1.2. Propósito y alcance del manual.
El manual proporciona una guía práctica y un proceso normalizado para evaluar, seleccionar, diseñar y monitorizar los sistemas de drenaje en obras de construcción. Con base en las enseñanzas extraídas de proyectos de infraestructura complejos, este documento pretende dotar a los ingenieros y gerentes de proyecto de las herramientas necesarias para prever y gestionar los desafíos relacionados con el nivel freático. El objetivo final es reducir los costes y los retrasos asociados a problemas imprevistos mediante una planificación proactiva y un diseño técnico riguroso de las obras temporales de drenaje.
Este manual aborda el ciclo completo de la gestión del agua subterránea en la construcción e incluye:
El contexto geológico y su influencia directa en las estrategias de desagüe.
Los sistemas de control del nivel freático disponibles, sus aplicaciones y limitaciones.
La mitigación de los efectos ambientales y el cumplimiento de las normativas vigentes.
Un marco para la evaluación sistemática de riesgos y la planificación de contingencias.
El documento se centra principalmente en los métodos de control del nivel freático, que consisten en interceptar y extraer el agua subterránea mediante bombeo. También se mencionan brevemente los procedimientos de contención, como las tablestacas o los muros pantalla, que buscan bloquear el flujo de agua hacia la excavación.
Figura 3. Combinación de pantallas con (a) bombeo convencional o (b) barreras horizontales. Adaptado de Cashman y Preene (2012)
1.3. Importancia del contexto geológico.
Análisis de acuíferos: una comprensión fundamental de la hidrogeología del emplazamiento es el pilar de cualquier diseño de un drenaje. Es crucial identificar la naturaleza de los acuíferos presentes, ya sean confinados, no confinados o artesianos. La fuente del agua (por ejemplo, la infiltración de lluvia o la recarga de un río) y la presión a la que se encuentra determinan directamente la selección y la eficacia del sistema de drenaje. Por ejemplo, un acuífero confinado o artesiano puede ejercer una presión ascendente significativa, lo que requiere métodos de control más robustos que los de un simple acuífero no confinado. Este conocimiento también es importante para planificar y evitar impactos no deseados en el entorno, como la afectación de pozos de agua cercanos o la inducción de asentamientos en estructuras adyacentes.
Análisis del perfil del suelo: el comportamiento del agua subterránea está intrínsecamente ligado a las propiedades del suelo. La permeabilidad del suelo, es decir, su capacidad para permitir el paso del agua, es el factor más crítico, ya que determina la facilidad con la que se puede extraer agua mediante bombeo.
Gravas y arenas limpias: son altamente permeables y ceden agua con facilidad, pero pueden generar grandes caudales de entrada.
Limos y arcillas: presentan baja permeabilidad, ceden agua muy lentamente y son susceptibles a la consolidación y al asentamiento cuando se reduce la presión del agua.
Suelos estratificados: la presencia de capas alternas de alta y baja permeabilidad puede crear condiciones complejas, como acuíferos colgados, que requieren un diseño cuidadoso para su drenaje eficaz.
Síntesis de los desafíos geotécnicos: la interacción entre la geología local y las actividades de construcción genera una serie de desafíos específicos que deben anticiparse.
Tabla 1: Desafíos geotécnicos comunes y sus implicaciones.
Desafío geotécnico
Implicaciones para las operaciones de drenaje
Presencia de turba y suelos orgánicos
Estos suelos tienen un alto contenido de agua y son muy compresibles. El drenaje puede provocar asentamientos significativos y dañar la infraestructura cercana. Por ello, es necesario realizar una evaluación de riesgos muy cuidadosa y un seguimiento de los asentamientos.
Gravas superficiales
Las capas de grava poco profundas pueden complicar la instalación de sistemas como los well-points y generar volúmenes de entrada de agua muy elevados que superen la capacidad de los sistemas de bombeo estándar.
Riesgo de encontrar condiciones artesianas
La intercepción de un acuífero artesiano puede provocar un flujo de agua incontrolado hacia la excavación, lo que conlleva un riesgo de inundación, levantamiento del fondo y fallo catastrófico. Por ello, es necesario realizar una investigación geotécnica exhaustiva y elaborar un plan de contingencia robusto.
Niveles freáticos variables
Los niveles freáticos pueden fluctuar estacionalmente o en respuesta a eventos de lluvia. El diseño debe ser capaz de manejar el nivel freático más alto esperado, considerando que las variaciones estacionales en Christchurch pueden alcanzar hasta 3 metros.
Por lo tanto, la comprensión profunda del contexto geológico es el primer paso indispensable para realizar una evaluación sistemática de los riesgos y diseñar un sistema de control del nivel freático adecuado.
2.0 Evaluación previa a la construcción y al análisis de riesgos.
2.1 La fase crítica de planificación.
La fase previa a la construcción ofrece la oportunidad más rentable para identificar, analizar y mitigar los riesgos asociados al drenaje de aguas subterráneas. Una evaluación rigurosa en esta etapa permite diseñar adecuadamente las obras temporales, evitar fallos durante la ejecución y realizar una asignación presupuestaria precisa, lo que evita sobrecostos y retrasos imprevistos. Aunque un diseño proactivo suponga una inversión inicial, casi siempre resulta un ahorro global para el proyecto.
2.2 Pasos clave para el diseño del drenaje.
Desarrollo del modelo geotécnico: para diseñar un control del nivel freático eficaz, es esencial construir un modelo conceptual del subsuelo. Este proceso debe ser dirigido por un técnico competente y consta de los siguientes pasos:
Revisión de estudios previos: consultar fuentes de información existentes como mapas geológicos, bases de datos geotécnicas, investigaciones previas en la zona y fotografías aéreas.
Evaluación de la permeabilidad: utilizar la información disponible para estimar preliminarmente la permeabilidad de las diferentes capas del suelo.
Evaluación de riesgos inicial: realizar una evaluación de alto nivel sobre la posible presencia de suelos o aguas subterráneas contaminadas, la probabilidad de encontrar grava a poca profundidad y el riesgo de que haya condiciones artesianas.
Decisión sobre investigaciones adicionales: en función de la complejidad y el perfil de riesgo del proyecto, se debe determinar si la información existente es suficiente o si se requieren investigaciones de campo específicas (por ejemplo, sondeos o ensayos de permeabilidad) para definir adecuadamente el modelo del terreno.
Técnicas para determinar la permeabilidad: la permeabilidad es el parámetro clave que guía el diseño del control del nivel freático. La siguiente tabla resume los métodos disponibles para su determinación, ordenados aproximadamente por coste y fiabilidad.
Método
Descripción
Aplicabilidad
Coste y fiabilidad relativa
1. Empírico (registros de sondeo)
Se asignan valores de permeabilidad basados en las descripciones de los suelos obtenidas de los registros de perforación, que se comparan con valores típicos de referencia.
Útil para evaluaciones preliminares y proyectos de bajo riesgo.
Coste: el más bajo (solo horas de diseño).
Fiabilidad: baja; solo proporciona un orden de magnitud.
2. Empírico (método de Hazen)
Estimación de la permeabilidad a partir de las curvas de distribución granulométrica del suelo.
Aplicable solo si se cuenta con ensayos de granulometría en suelos arenosos.
Coste: bajo si los datos ya existen; de lo contrario, requiere muestreo y ensayos de laboratorio.
Fiabilidad: baja a moderada.
3. Ensayo de laboratorio (carga constante)
Mide el flujo de agua a través de una muestra de suelo bajo un gradiente hidráulico constante.
Adecuado para suelos con permeabilidades relativamente altas (10⁻² a 10⁻⁵ m/s), como arenas y gravas.
Coste: relativamente bajo, pero requiere la obtención de muestras inalteradas.
Fiabilidad: moderada, pero puede no ser representativa de la masa de suelo a gran escala.
4. Ensayo de laboratorio (consolidación/triaxial)
Mide la permeabilidad como parte de ensayos de consolidación o de ensayos triaxiales.
Adecuado para suelos de baja permeabilidad (≤ 10⁻⁶ m/s), como los limos y las arcillas.
Coste: relativamente bajo, pero requiere muestras inalteradas.
Fiabilidad: moderada, sujeta a las mismas limitaciones que el ensayo de carga constante.
5. Ensayo de carga instantánea (slug test)
Se induce un cambio rápido en el nivel del agua en un pozo o piezómetro y se mide la velocidad de recuperación del nivel.
Realizado in situ en la zona saturada. Puede ser demasiado rápido para suelos muy permeables.
Coste: menor que el de un ensayo de bombeo.
Fiabilidad: Proporciona una indicación de la permeabilidad local alrededor del pozo, pero no a escala de sitio.
6. Ensayo de bombeo
Se bombea agua desde un pozo a un caudal constante y se mide el abatimiento del nivel freático en el pozo de bombeo y en pozos de observación cercanos.
Proporciona datos a gran escala y es adecuado para proyectos de desagüe profundos o de larga duración.
Coste: el más alto y el que consume más tiempo (dura de 24 horas a 7 días).
Fiabilidad: la más alta, ya que mide la respuesta del acuífero a una escala representativa de las condiciones reales del proyecto.
2.3 Metodología de evaluación de riesgos
Puntuación de riesgos: Para estandarizar el nivel de análisis y supervisión requerido, se propone un sistema de puntuación de riesgos, desarrollado y probado durante el programa SCIRT, que categoriza cada proyecto de control del nivel freático. Este enfoque permite asignar los recursos de diseño de manera proporcional al riesgo identificado, de modo que los proyectos de alta complejidad reciben la atención de especialistas y los de bajo riesgo pueden gestionarse mediante prácticas normalizadas.
Matriz de categorización de riesgos: el número de categoría de riesgo (RCN) se calcula multiplicando las puntuaciones asignadas a seis áreas de riesgo clave (RCN = A x B x C x D x E x F), tal y como se muestra en la siguiente tabla:
A: Profundidad de excavación
Puntuación
B: Agua subterránea
Puntuación
C: Condiciones del terreno
Puntuación
< 2 m
1
No se requiere abatimiento
0
Suelos competentes sin necesidad de soporte temporal
1
2 – 3 m
2
Abatimiento < 1 m requerido
1
Limos y arcillas de baja permeabilidad
2
3 – 6 m
6
Abatimiento 1 – 3 m requerido
2
Arenas limosas
3
6 – 15 m
10
Abatimiento 3 – 6 m requerido
5
Turba y suelos orgánicos
3
> 15 m
12
Influencia en cuerpos de agua superficial
7
Intercepta gravas de moderada a alta permeabilidad
6
Abatimiento > 6 – 9 m requerido
10
Arenas fluidas
10
Intercepta acuífero artesiano
10
Suelos contaminados
10
Agua subterránea contaminada
10
D: Duración del drenaje
Puntuación
E: Coste de componentes del proyecto influenciados por el drenaje
Puntuación
F: Efectos en servicios, infraestructuras y propiedades adyacentes
Puntuación
Excavación abierta por 1 – 2 días
1
< $0.1M
1
Sitio sin construcciones
1
Excavación abierta < 1 semana
2
$0.1M a $0.5M
2
Vía local
2
Excavación abierta por 1 – 4 semanas
3
$0.5M a $1M
3
Vía arterial principal o secundaria
3
Excavación abierta por 1 – 6 meses
4
$1M a $5M
4
Propiedad privada a una distancia menor que la altura de la excavación o estructuras adyacentes sobre pilotes
3
Excavación abierta > 6 meses
5
> $5M
5
Autopista
4
Vías férreas
4
Estructuras históricas con cimentaciones superficiales
4
Infraestructura crítica vulnerable a asentamientos
5
Nota:El Número de Categoría de Riesgo (RCN) se calcula como el producto de las puntuaciones de las 6 áreas (A x B x C x D x E x F).
Niveles de acción de diseño recomendados: una vez calculado el RCN, la siguiente tabla define las acciones mínimas de diseño que deben llevarse a cabo.
Número de categoría de riesgo (RCN)
Consecuencia del riesgo
Acciones mínimas de diseño recomendadas
0 – 10
Bajo
• No se requiere un estudio de drenaje específico para el proyecto.
• Implementar el sistema de control del nivel freático basado en la experiencia local previa.
11 – 75
Medio
• Realizar un estudio de escritorio de alto nivel para evaluar las condiciones del terreno y los riesgos de drenaje.
• Seleccionar métodos de control de nivel freático apropiados considerando restricciones y riesgos.
• Realizar cálculos manuales simples para verificar la idoneidad del diseño de las obras temporales.
76 – 2,500
Alto
• Realizar un estudio de escritorio detallado.
• Confirmar las condiciones del terreno y la granulometría mediante al menos un sondeo.
• Realizar cálculos de diseño de drenaje (de simples a complejos según corresponda).
• Desarrollar e implementar un plan de control de asentamientos simple si es necesario.
• Controlar de cerca los sólidos en suspensión durante la descarga.
2,500 – 187,500
Muy Alto
• Revisar un informe geotécnico detallado.
• Contratar a un técnico cualificado y experimentado para brindar asesoramiento profesional.
• Realizar investigaciones de campo adicionales (p. ej., ensayos de permeabilidad, ensayos de bombeo).
• Desarrollar e implementar un plan de control de asentamientos.
• Realizar inspecciones de la condición de las propiedades adyacentes antes de comenzar los trabajos.
Una vez evaluado el riesgo y definido el nivel de diseño requerido, el siguiente paso es comprender en detalle las prácticas y metodologías de drenaje disponibles para su ejecución en campo.
3.0 Métodos y prácticas de control del nivel freático
3.1 Introducción a las metodologías
Los métodos de control del nivel freático más comunes en la construcción se basan en la extracción de agua del subsuelo para reducir dicho nivel. La elección del método más adecuado es una decisión técnica que depende fundamentalmente de las condiciones del suelo, la profundidad de la excavación, el caudal de agua previsto y los objetivos específicos del proyecto. Cada método tiene sus propias ventajas y limitaciones, que deben evaluarse cuidadosamente.
Descripción y aplicación: el bombeo desde sumideros es el método más simple y, a menudo, el más económico. Consiste en excavar zanjas o pozos (sumideros) en el punto más bajo de la excavación para que el agua subterránea fluya por gravedad hacia ellos y, desde allí, sea bombeada y evacuada. Este método es efectivo en suelos con permeabilidad alta o moderada, como las gravas y las arenas gruesas. Su principal limitación es que el agua fluye hacia la excavación antes de ser controlada, lo que puede causar inestabilidad en los taludes y en el fondo. Existe un alto riesgo de tubificación (piping) y de arrastre de finos, lo que puede provocar asentamientos y generar una descarga de agua cargada de sedimentos que requiere un tratamiento exhaustivo.
Requisitos de diseño e instalación: para que un sumidero sea eficaz, debe cumplir los siguientes requisitos:
Profundidad: Suficiente para drenar la excavación y permitir la acumulación de sedimentos sin afectar la toma de la bomba.
Tamaño: Mucho mayor que el de la bomba para facilitar la limpieza y el mantenimiento.
Filtro: El sumidero debe estar protegido con una tubería ranurada o perforada, rodeada de grava gruesa (20-40 mm) para evitar la succión de partículas finas del suelo.
Acceso: Debe permitir la retirada de las bombas para el mantenimiento y la limpieza periódica de los sedimentos acumulados.
Como mejor práctica, se recomienda sobreexcavar el fondo del sumidero y rellenarlo con material grueso para elevar la entrada de la bomba y minimizar la movilización de partículas finas.
Figura 4. Esquema de sumidero y bomba de achique para pequeñas excavaciones, basado en Powers (1992).
Análisis comparativo
Ventajas
Inconvenientes
• Coste relativamente bajo.
• Moviliza sedimentos del terreno, lo que requiere tratamiento de la descarga.
• Equipos móviles y fáciles de instalar y operar.
• No puede utilizarse en «arenas fluidas».
• Solo opera durante los trabajos de construcción.
• Tiene un alto potencial de liberar sedimentos en el medio ambiente y es el método más común para incumplir las condiciones de los permisos ambientales.
Descripción y aplicación: un sistema de well-points consiste en una serie de tubos de pequeño diámetro (aproximadamente 50 mm) con una sección ranurada en el extremo inferior. Estos tubos se instalan en el terreno a intervalos regulares. Estos tubos, también denominados «puntas de lanza», se conectan a un colector principal, que, a su vez, está conectado a una bomba de vacío. La bomba crea un vacío en el sistema que extrae el agua del subsuelo.
Este método es particularmente efectivo en arenas o suelos con capas de arena. Su principal limitación es la altura de succión, que en condiciones cercanas al nivel del mar es de hasta 8 metros. Para excavaciones más profundas, sería necesario utilizar sistemas escalonados en las bermas.
Consideraciones de diseño
Espaciamiento: el espaciamiento entre los pozos de extracción (que suele oscilar entre 0,6 y 3 m) depende de la permeabilidad del suelo, de la geometría de la excavación y del abatimiento requerido. Cuanto más permeable es el suelo, menor debe ser el espaciamiento.
Paquetes de filtro: en suelos finos o estratificados, es crucial instalar un paquete de filtro (generalmente, arena de textura media a gruesa) alrededor de cada pozo de extracción. Así se evita el bombeo de finos y se crea una ruta de drenaje vertical más eficiente.
Figura 5. Componentes del sistema. Cortesía de ISCHEBECK. http://www.ischebeck.es/assets/wp-content/uploads/agotamiento_agua/Cat%C3%A1logo%20Wellpoint%2016022012.pdf
Análisis comparativo
Ventajas
Inconvenientes
• Descarga limpia: Una vez establecido, el sistema extrae agua limpia que requiere poco o ningún tratamiento.
• El desagüe debe realizarse muy cerca del área de trabajo.
• Abatimiento localizado del nivel freático, lo que resulta en menores volúmenes de descarga.
• Funciona mejor en suelos uniformes.
• La instalación puede ocupar un espacio considerable en el entorno vial.
• Requiere experiencia para una instalación y colocación efectivas.
• Potencial de rendimiento (caudal) y de abatimiento limitados por la altura de succión.
3.4 Pozos de bombeo profundo (dewatering wells)
Descripción y aplicación: los pozos de bombeo profundo son pozos perforados de mayor diámetro y profundidad que los well-points y están equipados con una bomba sumergible. Se trata de un sistema de ingeniería que debe ser diseñado por un especialista. Cada pozo incluye componentes clave, como una rejilla dimensionada para el terreno, un paquete de filtro diseñado específicamente y un sello anular en la superficie para evitar la recarga superficial.
Este método es adecuado para excavaciones grandes, profundas o de larga duración y puede manejar grandes caudales de agua.
Consideraciones de diseño: el diseño de un sistema de pozos profundos requiere un análisis detallado de los siguientes parámetros:
Profundidad y diámetro del pozo: el diámetro debe ser suficiente para alojar la bomba necesaria y la profundidad debe ser significativamente mayor que el abatimiento deseado.
Tamaño de la ranura de la rejilla: se diseña en función del tamaño de grano del suelo o del material filtrante para maximizar la entrada de agua y minimizar la entrada de partículas finas.
Diseño del filtro: el filtro granular que rodea la rejilla es fundamental para evitar que los materiales finos del acuífero migren hacia el pozo.
Distancia entre pozos: Los pozos se espacian típicamente entre 10 y 50 metros. Su diseño es complejo, ya que se basa en la interacción entre los conos de abatimiento de cada pozo.
Figura 6. Agotamiento profundo del nivel freático mediante un pozo filtrante. Elaboración propia basado en Pérez Valcárcel (2004).
Análisis comparativo
Ventajas
Inconvenientes
• Ideal para excavaciones de gran envergadura y proyectos de larga duración.
• Si se extrae más agua de la necesaria, puede afectar a un área mayor de la prevista, lo que puede causar problemas de asentamiento en suelos compresibles (por ejemplo, turba).
• Descarga limpia una vez que el pozo está desarrollado correctamente.
• Puede requerir un tiempo de preparación más largo para lograr el abatimiento del nivel freático.
• Alta capacidad de bombeo, superando problemas de variabilidad del suelo.
• Se requiere un mayor nivel de diseño, planificación y ensayos de campo, como los ensayos de bombeo.
• Puede instalarse fuera del área de trabajo directa, liberando espacio en las zonas congestionadas.
• Las bombas sumergibles son mucho más silenciosas, ideales para áreas sensibles al ruido.
Tras describir los métodos individuales, el siguiente paso lógico es proporcionar una guía clara para seleccionar el sistema más apropiado para cada situación en el campo.
4.0 Selección del método apropiado
4.1 Una decisión estratégica
La elección del sistema de control del nivel freático adecuado es una decisión estratégica que debe equilibrar la eficacia técnica, el coste de implementación y de operación y el impacto ambiental potencial. Una elección informada no se basa en la intuición, sino en la recopilación y el análisis de datos específicos del emplazamiento. Una elección incorrecta puede provocar un rendimiento deficiente, sobrecostes y retrasos significativos en el proyecto.
4.2 Datos clave para la decisión
Para tomar una decisión fundamentada sobre el método de drenaje, es imprescindible recopilar la siguiente información:
Perfil y tipo de suelo, incluyendo la permeabilidad de cada estrato.
Dimensiones de la excavación: ancho, largo y profundidad.
Nivel freático existente, así como el nivel al que se necesita bajar (abatimiento requerido).
Método de excavación y soporte propuesto: por ejemplo, taludes abiertos o tablestacas.
Proximidad a estructuras existentes, cursos de agua y otras infraestructuras sensibles.
4.3 Matriz de decisión
La siguiente tabla sirve de guía para seleccionar una metodología de drenaje según el tipo de suelo predominante.
Guía para la selección de métodos de drenaje según el tipo de suelo.
Tipo de suelo
Tasa de flujo de agua subterránea
Posibles problemas
Metodología de drenaje recomendada
Gravas / cantos
Alta
Se requieren grandes flujos de agua que pueden provenir de pozos profundos para excavaciones profundas o de sumideros para excavaciones superficiales.
Pozos de bombeo profundo y de bombeo desde sumideros.
Arena
Baja a media
Baja estabilidad de la zanja si se permite que la arena fluya hacia la excavación (arena fluida).
Sistemas well-point.
Limo
Baja
Estabilidad variable y bajo rendimiento de agua, lo que puede requerir un espaciado muy reducido de las puntas de lanza y provocar perching localizado.
Sistemas de puntas de lanza (well-pointing) y de bombeo desde sumideros.
Arcilla
Muy baja
Se han detectado problemas mínimos de estabilidad de la zanja y una posible formación de un nivel freático colgado localizado.
Sistemas de puntas de lanza (well-pointing) y de bombeo desde sumideros.
Turba
Variable (baja a alta)
El drenaje puede provocar la compresión de las capas, lo que provoca asentamientos y daños en los terrenos y en la infraestructura circundantes.
Se requiere asesoramiento especializado.
Suelos mixtos
Variable (baja a alta)
La metodología se basa generalmente en el tipo de suelo predominante y en la unidad geológica que presenta el mayor rendimiento hídrico.
Depende de la hidrogeología y de la unidad geológica de mayor rendimiento hídrico.
4.4 Criterios de aplicación específicos
Condiciones que favorecen el bombeo desde sumideros (sump pumping):
Suelos como grava arenosa bien graduada, grava limpia o arcilla firme o rígida.
Acuífero no confinado.
Se requiere un abatimiento moderado y no hay fuentes de recarga cercanas (por ejemplo, un arroyo).
La excavación tiene taludes poco pronunciados o está protegida por tablestacas hincadas a gran profundidad.
Cargas de cimentación ligeras.
Condiciones que favorecen los sistemas well-point:
Suelos arenosos o interestratificados que incluyan arenas (permeabilidad k = 10⁻³ a 10⁻⁵ m/s).
Acuífero no confinado.
Se requiere un abatimiento de 5 metros o menos (o de hasta 10 metros si el área de excavación es grande y permite sistemas escalonados).
Condiciones que favorecen la instalación de pozos de bombeo profundo (wells):
Las condiciones del terreno son demasiado permeables como para que los well-points sean viables.
Suelos limosos que requieren un diseño de filtro preciso.
Se requiere un abatimiento de más de 8 metros o un abatimiento en un área extensa durante un período prolongado.
El acceso a la excavación está restringido o el lugar está congestionado (los pozos pueden ubicarse fuera de las zonas de trabajo).
Independientemente del método elegido, es imperativo gestionar los impactos ambientales asociados, un aspecto crucial que se detallará en la siguiente sección.
Figura 7. Selección del método de drenaje adecuado.
5.0 Mitigación de efectos ambientales y gestión de impactos
5.1 Responsabilidad ambiental y cumplimiento normativo
La gestión del agua subterránea no termina con su extracción, sino que conlleva la responsabilidad de cumplir con la normativa medioambiental y minimizar cualquier impacto negativo en el entorno. Una planificación cuidadosa debe abordar dos aspectos principales: la gestión de la calidad del agua de descarga para proteger los cuerpos de agua receptores y la prevención del asentamiento del terreno, que podría dañar la infraestructura y las propiedades adyacentes.
5.2 Gestión de la calidad del agua extraída
Sólidos en suspensión totales (TSS): el agua bombeada desde una excavación, especialmente desde sumideros, a menudo presenta una alta concentración de sedimentos. La normativa medioambiental exige que esta agua sea tratada para eliminar los sólidos antes de su vertido. Por ejemplo, muchos permisos establecen un límite de 150 g/m³ de TSS. Para el control in situ, una herramienta práctica es la evaluación visual comparativa. En un laboratorio, se pueden preparar muestras estándar con concentraciones conocidas de TSS (por ejemplo, 150 g/m³), que sirven como referencia visual para compararlas rápidamente con las muestras de descarga tomadas en el lugar, lo que permite tomar medidas correctivas inmediatas en caso de observar una turbidez excesiva.
Agua subterránea contaminada: existe el riesgo de encontrar contaminantes en el agua subterránea, especialmente en áreas urbanas o industriales con un historial de actividades potencialmente contaminantes. Durante la fase de planificación, es crucial identificar las zonas de riesgo. Si el proyecto se ubica en una de estas zonas o si se sospecha de contaminación, deberán realizarse muestreos específicos del agua subterránea para analizar la presencia y concentración de contaminantes. Así se puede planificar un sistema de tratamiento adecuado si fuera necesario.
5.3 Métodos de tratamiento de la descarga
Los tanques de sedimentación son el método principal y más común para tratar la descarga. Su principio de funcionamiento es sencillo: reducir la velocidad del flujo de agua para que las partículas de sedimento se asienten por gravedad. Un diseño eficaz incluye cuatro zonas funcionales:
Zona de entrada: Distribuye el flujo de manera uniforme para evitar turbulencias.
Zona de asentamiento: El área principal donde ocurre la sedimentación.
Zona de recolección: El fondo del tanque donde se acumulan los sedimentos.
Zona de salida: Recolecta el agua clarificada para su descarga.
El dimensionamiento adecuado del tanque es fundamental y debe basarse en el caudal de bombeo y el tamaño de las partículas a eliminar.
Otros métodos
Filtrado a través de la vegetación: El agua se descarga sobre una superficie cubierta de vegetación densa (por ejemplo, césped), que actúa como un filtro natural. Este método solo es adecuado como tratamiento secundario tras un tanque de sedimentación.
Bolsas de control de sedimentos: Se trata de bolsas de geotextil que se conectan a la salida de la bomba y filtran los sedimentos. Son útiles para caudales bajos y áreas pequeñas, pero pueden obstruirse rápidamente ante altas concentraciones de sedimentos.
5.4 Control del asentamiento del terreno
Causas y riesgos: El abatimiento del nivel freático puede provocar asentamientos del terreno por tres mecanismos principales:
Aumento de la tensión efectiva: al descender el nivel freático, disminuye la presión del agua en los poros del suelo, lo que incrementa la carga que puede soportar el esqueleto sólido del suelo. Esto provoca su compresión y el consiguiente hundimiento de la superficie.
Pérdida de finos: Un diseño de filtro inadecuado o velocidades de flujo excesivas pueden arrastrar partículas finas del suelo y generar vacíos, lo que provoca asentamientos localizados.
Inestabilidad de los taludes: una reducción insuficiente de las presiones de poro o un control inadecuado de las filtraciones puede comprometer la estabilidad de los taludes de la excavación, lo que provoca fallos localizados y desprendimientos de material.
Los suelos blandos y de baja permeabilidad, como los limos, las arcillas y los suelos orgánicos (turba), son los más susceptibles a sufrir asentamientos significativos por consolidación.
Estrategias de mitigación: Para minimizar el riesgo de asentamientos perjudiciales, deben implementarse las siguientes estrategias:
Diseño adecuado de los filtros: hay que asegurarse de que los filtros de pozos o well-points estén correctamente dimensionados para retener las partículas del suelo.
Control de finos: controlar la cantidad de sólidos disueltos en el agua de descarga. Un aumento sostenido puede indicar una posible pérdida de material del subsuelo.
Control del radio de influencia: diseñar el sistema para limitar la bajada del nivel freático más allá de los límites de la zona, utilizando, si es necesario, barreras de corte o pozos de reinyección.
Control de los asentamientos en el terreno: implementar un plan de supervisión para detectar cualquier movimiento del terreno.
Control de asentamientos: Se debe establecer un plan de supervisión que incluya la instalación de marcadores topográficos en edificios y estructuras cercanos. Es fundamental contar con un punto de referencia estable ubicado fuera de la zona de influencia del drenaje. Se deben establecer umbrales de alerta y de actuación para los asentamientos medidos. Si se alcanzan estos umbrales, se deben adoptar medidas correctivas que pueden ir desde la modificación del funcionamiento de la estación de bombeo hasta la interrupción total del drenaje.
La gestión proactiva de estos riesgos operativos y medioambientales debe complementarse con la preparación ante eventos inesperados, lo que nos lleva a la planificación de contingencias.
6.0 Planificación de contingencias: intercepción accidental de acuíferos artesianos
6.1 Preparación para lo imprevisto.
A pesar de una planificación y ejecución cuidadosas, siempre existe la posibilidad de toparse con condiciones geológicas imprevistas, como la intercepción de un acuífero artesiano o la aparición de caudales de entrada mucho mayores de lo esperado. Estas situaciones pueden escalar rápidamente y provocar un colapso catastrófico de la excavación. Por lo tanto, una preparación adecuada y un plan de respuesta rápida no son opcionales, sino parte esencial de la gestión de riesgos en cualquier proyecto de drenaje.
6.2 Medidas preparatorias
Procedimientos operativos: Antes de iniciar cualquier trabajo de excavación o perforación en zonas de riesgo, se deben establecer los siguientes procedimientos:
Realizar investigaciones geotécnicas adecuadas para identificar la posible presencia de acuíferos artesianos.
Disponer de medios para cerrar rápidamente los pozos de bombeo o las puntas de lanza si se detecta un flujo incontrolado.
Localizar de antemano proveedores de emergencia de materiales como cemento Portland, bentonita y geotextil.
Comprender el procedimiento de cálculo del diseño de la mezcla de lechada para detener el flujo. Se debe medir la carga artesiana y añadir la mezcla de lechada para lograr un equilibrio de presión.
Establecer y distribuir una lista de contactos de emergencia que incluya al ingeniero del proyecto, al contratista de desagüe y a las autoridades ambientales pertinentes.
Equipamiento de emergencia Se debe tener disponible en el sitio el siguiente equipamiento y suministros de emergencia, según el sistema en uso:
Para sistemas well-point:
Chips de bentonita no recubiertos para el sellado del collar.
Válvulas para instalar en todas las tuberías de well-points en áreas con sospecha de presión artesiana.
Equipo de inyección de lechada de cemento y suministros.
Geotextil y sacos de arena.
Para pozos de bombeo profundo:
Chips de bentonita no recubiertos para el sellado del collar.
Obturadores, tubería ascendente, manómetros y accesorios apropiados para cortar el flujo y medir la presión.
Equipo de inyección de lechada de cemento y suministros.
Geotextil y sacos de arena.
Lodo de perforación polimérico para compensar y suprimir flujos artesianos bajos durante la perforación del pozo.
Además, es necesario contar con un teléfono móvil con cámara, secciones de tubería extensibles para medir la altura de la presión artesiana y el diseño de la mezcla de lechada de contingencia.
6.3 Protocolo de implantación y respuesta
Pasos inmediatos: En caso de detectar un flujo de agua incontrolado, se debe seguir el siguiente protocolo de manera inmediata y secuencial:
Evaluar la situación: Determinar si el caudal y la turbidez del agua son constantes o están aumentando. Verificar si el flujo está confinado al pozo o se está extendiendo por la excavación.
Notificar al ingeniero y al gerente del proyecto: Proporcionar una descripción detallada de las condiciones, el caudal estimado y los eventos que llevaron al incidente. Enviar fotografías o videos en tiempo real si es posible.
Notificar a las autoridades pertinentes: Informar a las autoridades ambientales y a otras partes interesadas sobre la situación y las medidas de contención planificadas.
Acciones de emergencia: Una vez notificado el incidente, se pueden tomar una o más de las siguientes acciones de emergencia para controlar la situación:
Rellenar la excavación: Comenzar a rellenarla con material hasta que el peso del relleno sea suficiente para controlar el flujo y el transporte de sedimentos.
Medir la presión artesiana: Utilizar secciones de tubería para medir la altura a la que llega el agua y así determinar la presión del acuífero.
Controlar la descarga: Dirigir cualquier descarga de agua a través de las medidas de control de erosión y sedimentos establecidas en el sitio.
Inundar la excavación: Como medida drástica, rellenar la excavación con agua hasta el nivel freático original para equilibrar las presiones y estabilizar la situación mientras se reconsidera el diseño.
La combinación de una planificación rigurosa, una ejecución cuidadosa y una preparación exhaustiva ante contingencias es la clave para una gestión exitosa y segura del agua subterránea en cualquier proyecto de construcción.
En este audio podéis escuchar una conversación sobre este tema.
Este es un vídeo que resume bien las ideas principales.
Os dejo el documento completo; espero que os sea de interés.
CASHMAN, P.M.; and PREENE, M. (2012). Groundwater Lowering in Construction: A Practical Guide to Dewatering, 2nd edition. CRC Press, Boca Raton, 645 pp.
HERTZ, W.; ARNDTS, E. (1973). Theorie und praxis der grundwasserabsenkung. Ernst & Sohn, Berlin.
JUSTO ALPAÑES, J.L.; BAUZÁ, J.D. (2010). Tema 10: Excavaciones y drenajes. Curso de doctorado: El requisito básico de seguridad estructural en la ley orgánica de la edificación. Código Técnico de la Edificación. ETS. de Arquitectura, Universidad de Sevilla.
MUZAS, F. (2007). Mecánica del suelo y cimentaciones, Vol. II. Universidad Nacional de Educación a Distancia, Madrid.
POWERS, J.P. (1992). Construction dewatering: New methods and applications. Ed. Wiley et al., New York.
PREENE, M.; ROBERTS, T.O.L.; POWRIE, W. (2016). Groundwater Control – Design and Practice, 2nd Edition. Construction Industry Research and Information Association, CIRIA Report C750, London.
SCHULZE, W.E.; SIMMER, K. (1978). Cimentaciones. Editorial Blume, Madrid, 365 pp.
TOMLINSON, M.J. (1982). Diseño y construcción de cimientos. URMO, S.A. de Ediciones, Bilbao, 825 pp.
Arthur Casagrande (1902–1981). https://gyaconstructora.wordpress.com/2015/11/30/arthur-casagrande-y-la-mecanica-de-suelos/
Arthur Casagrande (28 de agosto de 1902 – 6 de septiembre de 1981) fue un ingeniero civil estadounidense de origen austrohúngaro, cuya obra sentó las bases del desarrollo inicial de la geotecnia y de la mecánica de suelos. Su nombre está asociado a innovaciones en el diseño de aparatos experimentales y a contribuciones fundamentales al estudio de la filtración, la licuefacción de suelos y el comportamiento mecánico de las arcillas. También es conocido por crear el histórico programa de enseñanza de la mecánica de suelos en la Universidad de Harvard, que más tarde sería imitado por universidades de todo el mundo. Junto con Karl Terzaghi, es reconocido como uno de los padres de la mecánica de suelos moderna.
Casagrande nació en Ajdovščina, en la actual Eslovenia, que entonces formaba parte del Imperio austrohúngaro. Tras cursar su primer año escolar en Linz, se mudó con su familia a Trieste. Al llegar a la edad de ingresar en la enseñanza secundaria, fue admitido en la Realschule, un tipo de escuela destinada a estudiantes que posteriormente cursarían estudios técnicos o un aprendizaje profesional. Su decisión de asistir a este centro estuvo influida por la tradición familiar materna, ya que muchos de sus parientes se habían dedicado a las ingenierías mecánica y química. En 1924, se graduó como ingeniero civil en la Technische Hochschule (TH) de Viena y continuó trabajando allí como asistente a tiempo completo del profesor Schaffernak en el laboratorio de hidráulica.
La disolución del Imperio austrohúngaro tras la Primera Guerra Mundial dejó el sector de la construcción prácticamente paralizado, lo que limitó en gran medida las oportunidades para los jóvenes ingenieros. Este difícil contexto, sumado al fallecimiento de su padre en 1924, incrementó su responsabilidad económica familiar y reforzó su deseo de participar en grandes proyectos de ingeniería. A pesar de la oposición de su madre y de su profesor, decidió emprender el arriesgado viaje a Estados Unidos. Tras llegar a Nueva York en 1926, se alojó durante diez días en un albergue de la YMCA antes de mudarse a Nueva Jersey, donde trabajó durante unos meses como delineante.
Una visita al Massachusetts Institute of Technology (MIT) en busca de empleo cambiaría su carrera para siempre. Allí conoció a Karl von Terzaghi, que acababa de llegar, y le ofreció inmediatamente un puesto de asistente privado. Desde 1926 hasta 1932, Casagrande trabajó como asistente de investigación asignado al MIT para el US Bureau of Public Roads, colaborando con Terzaghi en numerosos proyectos destinados a mejorar las técnicas y los equipos de ensayo de suelos. En 1929, viajó con él a Viena para ayudarle a establecer un laboratorio de mecánica de suelos que pronto se convertiría en un centro de referencia mundial. Durante este viaje por Europa, Casagrande visitó todos los laboratorios de mecánica de suelos existentes en ese momento, lo que le permitió adquirir un conocimiento excepcional del estado del arte internacional.
A su regreso al MIT, desarrolló equipos que sentarían las bases de los utilizados actualmente: el aparato del límite líquido, la prueba del hidrómetro, el ensayo capilar horizontal, el odómetro y la caja de corte. También fue pionero en realizar ensayos triaxiales y en estudiar los cambios volumétricos de los suelos durante el esfuerzo cortante en Estados Unidos. Gracias a sus avances experimentales, realizó aportaciones fundamentales: fue uno de los primeros en comprender el desarrollo de las presiones de poros durante los cortes no drenados, destacó la diferencia crítica entre las arcillas intactas y las remoldeadas y estableció los procedimientos estándar para identificar la presión de preconsolidación en los suelos sobreeconsolidados. Además, la conocida «línea A» de la carta de plasticidad probablemente lleva su nombre.
En 1932 se trasladó a la Universidad de Harvard, donde en 1946 fue nombrado titular de la nueva cátedra de Mecánica de Suelos e Ingeniería de Cimentaciones. Allí organizó un programa de posgrado que pasó de contar con 12 estudiantes en 1932 a más de 80 tras la Segunda Guerra Mundial. Entre 1942 y 1944, a petición del Army Corps of Engineers, formó intensivamente en mecánica de suelos aplicada a la construcción de aeródromos a unos cuatrocientos oficiales. Aunque Terzaghi llegaría posteriormente a Harvard con la ayuda de Casagrande para escapar de la inestabilidad política en Europa, lo cierto es que Casagrande trabajó prácticamente solo en la sección de mecánica de suelos debido a las prolongadas ausencias de Terzaghi y a su escaso interés por las tareas administrativas. El éxito del programa de Harvard, que hacía hincapié en los cursos de laboratorio y en el estudio detallado de la filtración, se debía claramente a Casagrande y su metodología serviría más tarde de modelo en universidades de todo el mundo.
En 1936, organizó la primera Conferencia Internacional de Mecánica de Suelos e Ingeniería de Cimentaciones. Aunque Terzaghi consideraba que suponía un riesgo excesivo para una disciplina aún joven, el evento fue un éxito rotundo. La conferencia dio lugar a la creación de la actual International Society for Soil Mechanics and Geotechnical Engineering (ISSMGE) y marcó el momento en que la mecánica de suelos se convirtió en una parte esencial de la ingeniería civil. Alec Skempton describió posteriormente el periodo comprendido entre la publicación de Erdbaumechanik (Terzaghi, 1925) y esta conferencia como la etapa formativa clave de la mecánica de suelos moderna.
En paralelo a su labor académica, Casagrande desarrolló una destacada actividad como consultor, especialmente en proyectos relacionados con presas de tierra y en la investigación de fallos en dichas estructuras. Su interés por las presas se refleja en sus estudios sobre la filtración y la licuefacción. Tras la Segunda Guerra Mundial, el Corps of Engineers le encargó investigar los posibles efectos de las explosiones atómicas sobre la estabilidad de los taludes del Canal de Panamá. Esta investigación lo convirtió en uno de los primeros especialistas en la investigación de la resistencia dinámica de los suelos. También fue él quien introdujo el término «licuefacción» en la literatura de mecánica de suelos, aunque posteriormente consideró que su uso era inadecuado para describir los fenómenos asociados a cargas sísmicas cíclicas e insistió en que el término debía reservarse para suelos que experimentaran un notable ablandamiento por deformación, lo que conlleva un comportamiento cercano al flujo.
Su reconocimiento internacional se reflejó en numerosos premios. Fue nombrado primer Rankine Lecturer por la British Geotechnical Association y recibió la prestigiosa distinción de Terzaghi Lecturer, otorgada por la ASCE. En su honor, se creó posteriormente el Arthur Casagrande Professional Development Award, destinado a impulsar la carrera de jóvenes ingenieros e investigadores en geotecnia. A lo largo de su carrera, escribió más de cien textos e informes sobre mecánica de suelos, asentamientos, comportamiento dinámico y problemas relacionados con presas y cimentaciones.
Arthur Casagrande falleció en Estados Unidos el 6 de septiembre de 1981, a los 79 años. Su legado científico y pedagógico sigue profundamente arraigado en la ingeniería geotécnica contemporánea. Su nombre sigue asociado a la rigurosidad experimental, la innovación técnica y la consolidación definitiva de la mecánica de suelos como disciplina moderna.
Os dejo un vídeo que resume los aspectos básicos de su biografía.
Karl von Terzaghi (1883–1963). https://www.tuwien.at/en/cee/geotechnik/igb/soil-mechanics-laboratory/terzaghi-archive
Karl von Terzaghi nació el 2 de octubre de 1883 en Praga, que por entonces formaba parte del Imperio austrohúngaro. Hijo del teniente coronel Anton von Terzaghi y de Amalia Eberle, creció en el riguroso ambiente cultural y disciplinario de la tradición militar austríaca. Desde niño, destacó por su curiosidad por la astronomía, la geografía y, más tarde, las matemáticas y la geometría. A los diez años ingresó en una escuela militar y, a los catorce, pasó a otra academia en Hranice, donde se graduó con honores. En 1900, inició estudios de ingeniería mecánica en la Universidad Técnica de Graz, donde reforzó su interés por la mecánica teórica, la geología, las ciencias naturales y la observación del paisaje, pasiones que conservaría toda su vida. Se graduó con honores en 1904, tras superar incluso un intento de expulsión.
Realizó el servicio militar obligatorio, durante el cual tradujo Outline of Field Geology, ampliándolo con nuevo contenido, lo que marcó el comienzo de su extensa producción escrita. Después, volvió a la universidad para estudiar asignaturas relacionadas con la geología y la ingeniería civil y publicó su primer artículo sobre las terrazas geológicas del sur de Estiria. Empezó su carrera profesional en la empresa Adolph von Pittel, donde participó en proyectos hidroeléctricos y llegó a encargarse del diseño y la construcción de estructuras de hormigón armado. Tras trabajar en presas de Croacia y pasar seis meses en Rusia, desarrolló métodos gráficos para tanques industriales que empleó en su tesis doctoral. En 1912 obtuvo el doctorado en Ciencias Técnicas por la Universidad Técnica de Graz.
Ese mismo año viajó por Estados Unidos para estudiar presas y obras hidráulicas, lo que amplió su visión sobre la ingeniería civil. Regresó a Austria en 1913, pero la Primera Guerra Mundial interrumpió su trayectoria: fue movilizado como oficial de ingenieros, llegó a dirigir hasta mil hombres y participó en misiones de combate, como la toma de Belgrado. Posteriormente, fue transferido a la aviación, donde fue comandante de la estación de ensayos aeronáuticos de Aspern.
Tras la guerra, se trasladó a Estambul, donde fue profesor en la Escuela Imperial de Ingeniería (posteriormente, la Universidad Técnica de Estambul) y también colaboró con el Robert College. Entre 1919 y 1925 llevó a cabo investigaciones experimentales fundamentales sobre permeabilidad, empujes en muros de contención y el comportamiento del suelo saturado. Durante este periodo, desarrolló sus primeras teorías unificadas y diseñó equipos experimentales originales. En 1925, publicó Erdbaumechanik auf Bodenphysikalischer Grundlage, la primera formulación integral de la mecánica de suelos moderna, en la que introdujo su mayor aportación conceptual: el principio de tensiones efectivas, piedra angular para comprender asentamientos, la resistencia al corte, la consolidación, la permeabilidad y la erosión.
Su obra llamó la atención a nivel internacional, especialmente en Estados Unidos, y ese mismo año fue invitado al MIT. Publicó artículos en la revista Engineering News-Record que contribuyeron a difundir sus ideas. En Cambridge, aunque tuvo dificultades académicas y administrativas, estableció el primer laboratorio estadounidense de mecánica de suelos y formó al joven Arthur Casagrande, que sería su asistente privado entre 1926 y 1932, y una figura clave en el desarrollo de métodos experimentales, de clasificación de suelos y de técnicas de campo. Ese mismo año, trabajó con Aurelia Schober Plath, quien tradujo manuscritos y amplió el alcance de su producción escrita. Durante este periodo, impartió cursos que sentaron las bases de los programas modernos de mecánica de suelos, desarrolló redes de flujo, métodos de medición de presiones de poros, estudios de consolidación y análisis de asentamientos, y formuló principios que todavía hoy estructuran la práctica geotécnica.
En 1928 conoció a la geóloga Ruth Dogget, con quien se casó poco después, y en 1929 aceptó una cátedra en la Technische Hochschule de Viena. Antes de instalarse, realizó consultorías en la URSS, experiencia que lo marcó políticamente: detestó el sistema soviético y se declaró en contra de él. Desde Viena, obtuvo gran prestigio internacional asesorando en proyectos en Europa, en el norte de África y en Rusia. Trabajó en inyecciones (grouting), en cimentaciones sobre diferentes suelos y en la ampliación de Erdbaumechanik. Su interés intelectual abarcaba no solo la ingeniería y la geología, sino también la filosofía, la ética, la literatura, la arquitectura, el arte, la música, las flores, los viajes, la conversación, la natación y la escritura. Era un lector y observador incansable, un excelente cronista y un prolífico corresponsal con una tendencia natural a clasificar el mundo: rocas, suelos, ideas, personas y fenómenos.
En 1935 tomó un año sabático en el que realizó una consultoría para los planes monumentales de Núremberg, donde llegó a discutir cuestiones de cimentación con Adolf Hitler, una experiencia que le resultó profundamente inquietante. En 1936, organizó y presidió en Harvard la Primera Conferencia Internacional de Mecánica de Suelos e Ingeniería de Cimentaciones, germen de la ISSMGE. Poco después, regresó a Viena, donde se enfrentó a controversias profesionales —especialmente con Paul Fillunger— y a tensiones políticas en aumento. Su amarga reflexión resumió la situación: «Mi país me tachó de nazi, los nazis de bolchevique y los bolcheviques de conservador idealista. Solo uno podía tener razón… y fueron los bolcheviques». Para escapar de ese ambiente, se dedicó a consultorías en Inglaterra, Italia, Francia, Argelia y Letonia.
En 1938 emigró definitivamente a Estados Unidos y aceptó un puesto en la Universidad de Harvard, donde sentó las bases de la ingeniería geotécnica moderna. Allí impartió clases, investigó, publicó y trabajó como consultor en proyectos emblemáticos, como el metro de Chicago, las instalaciones navales de Newport News, el reflotamiento del Normandie y numerosas presas en Norteamérica. En marzo de 1943 se hizo ciudadano estadounidense.
Durante las décadas de 1940 y 1950, amplió su ámbito técnico para abarcar la clasificación de suelos y rocas, así como los fenómenos capilares. También estudió la tubificación y su prevención, así como el diseño y la construcción de presas de tierra, roca y hormigón sobre distintos tipos de cimentación. Trabajó en el análisis de redes de flujo bidimensionales y tridimensionales, así como en el diseño de anclajes para puentes colgantes. Desarrolló aportes importantes en ingeniería de túneles, pilas de cimentación, hincado de pilotes y en la compactación y mejora del terreno. Asimismo, investigó la ingeniería del permafrost y el diseño para prevenir socavaciones. Analizó la subsidencia regional causada por la extracción de petróleo y por el proceso de formación y colapso de sumideros. Finalmente, impulsó avances en la instrumentación de campo y de laboratorio, además de promover la documentación precisa de fallos. Su libro Soil Mechanics in Engineering Practice (junto con Ralph Peck) se convirtió en un clásico mundial.
En 1954, fue nombrado presidente del Consejo Consultivo de la Gran Presa de Asuán, cargo del que dimitió en 1959 debido a sus desacuerdos con los ingenieros soviéticos. Continuó asesorando en proyectos hidroeléctricos, en particular en Columbia Británica. Respecto a su jubilación, se citan con frecuencia dos fechas: 1953 y 1956. En ambos casos, continuó con su actividad docente y de consultoría durante varios años más.
En 1926, a los 43 años, se consolidó la evolución de sus objetivos vitales: tras haber cumplido su meta juvenil de formular una teoría analítica y empírica del comportamiento del suelo, dedicó su madurez a ajustarla y someterla a la realidad física mediante la práctica profesional. Su preocupación constante era la dificultad para conocer con suficiente antelación la morfología y las propiedades del terreno antes de construir. Esa inquietud lo llevó a desarrollar, junto con Ralph Peck, el método observacional, que se basa en la incorporación de mediciones y observaciones durante la ejecución para adaptar el diseño en tiempo real. Aunque fue un pionero teórico, solía decir que el ingeniero debía mantenerse en contacto con el comportamiento real del suelo y no dejarse cegar por modelos o teorías.
Su personalidad reflejaba ese rigor crítico: era un oyente excepcional, un lector apasionado, un observador meticuloso y un crítico severo de quienes se dejaban atrapar por teorías sin base empírica o de quienes no tenían teoría alguna. Defendía estrictos principios profesionales: aceptar solo encargos que pudiera manejar con competencia, asumir escenarios geotécnicos conservadores, examinar todos los ángulos de un problema, evitar simplificar en exceso el comportamiento del terreno, documentar fallos, publicar resultados y ajustar diseños según datos reales.
Fue un educador influyente en Estambul, el MIT, Viena y Harvard, así como conferenciante en Berlín, Texas e Illinois. Paradójicamente, desconfiaba de la educación formal cuando esta entorpecía la observación directa y admiraba a los «hombres hechos a sí mismos» que aprendían con los ojos y la mente abiertos.
A lo largo de su vida recibió numerosos honores: nueve doctorados honoris causa, cuatro Medallas Norman de la ASCE, la creación en 1960 del Premio Karl Terzaghi, la instauración en 1963 de la Karl Terzaghi Lecture y, más tarde, conmemoraciones como la emisión del sello austríaco de 1983 y el «Terzaghi Day». La presa Mission, en Columbia Británica, fue renombrada en 1965 como presa Terzaghi. Sus cenizas reposan en South Waterford (Maine).
Karl von Terzaghi murió el 25 de octubre de 1963, dejando un legado inmenso. Su combinación de teoría, observación, instrumentación, análisis, docencia y práctica sentó las bases del campo que hoy conocemos como ingeniería geotécnica y sus ideas siguen guiando esta disciplina en todo el mundo.
Os dejo un vídeo en el que se condensa parte de su biografía.
Sir Edmund Happold (1930 – 1996). https://www.burohappold.com/news/celebrating-30-years-of-the-happold-foundation/
Sir Edmund «Ted» Happold (Leeds, 8 de noviembre de 1930 – Bath, 12 de enero de 1996) fue una de las figuras más singulares y admiradas de la ingeniería estructural del siglo XX. Conocido como «ingeniero del arquitecto y arquitecto del ingeniero», defendía que «un mundo que ve el arte y la ingeniería como ámbitos separados no está viendo el mundo en su conjunto». Su reputación internacional se cimentó en su enfoque creativo y profundamente humano del diseño estructural, así como en su participación directa en el desarrollo de los principios estructurales de algunos de los edificios más emblemáticos de la arquitectura moderna.
Nacido en el seno de una familia académica, era hijo de Frank Happold, profesor de bioquímica en la Universidad de Leeds, y de una madre socialista convencida. Criado en un ambiente de pensamiento crítico y compromiso social, Happold estudió en el Leeds Grammar School, aunque su paso por este centro fue conflictivo, ya que se negó a unirse al cuerpo de adiestramiento militar juvenil por convicción pacifista. Posteriormente, lo enviaron al Bootham School de York, un colegio cuáquero cuyo entorno se ajustaba mejor a sus valores. Fiel a su fe cuáquera durante toda su vida, cuando fue llamado a filas, se registró como objetor de conciencia y fue destinado a trabajos agrícolas y de transporte. Esta experiencia despertó su interés por la construcción y lo llevó de nuevo a la Universidad de Leeds, donde se licenció en ingeniería civil en 1957, tras haber estudiado previamente geología.
Tras graduarse, trabajó brevemente con el arquitecto finlandés Alvar Aalto, lo que reforzó su visión integradora entre ingeniería y arquitectura. En 1956, se incorporó a Ove Arup & Partners, una de las firmas más innovadoras de la época, que en aquellos años participó en el diseño estructural de la catedral de Coventry, de Basil Spence, y de la ópera de Sídney, de Jørn Utzon. Su talento y curiosidad le llevaron a estudiar arquitectura por las noches, convencido de que la ingeniería debía dialogar con el arte y el espacio.
En 1958 viajó a Estados Unidos para trabajar con Fred Severud en la consultora Severud, Elstad y Kruger de Nueva York. Allí se vio profundamente influido por Eero Saarinen y su estadio de hockey, David S. Ingalls, de la Universidad de Yale, con sus cubiertas orgánicas y tensadas. De vuelta en Londres en 1961, retomó su carrera en Ove Arup, donde pronto destacó por su capacidad de liderazgo y su visión interdisciplinar.
Durante su etapa en Arup, Happold colaboró con equipos de arquitectos, como el de Sir Basil Spence, en los proyectos de la Universidad de Sussex y de los Knightsbridge Barracks, y con el arquitecto Ted Hollamby, en el ayuntamiento de Lambeth. Allí trabajó en proyectos de vivienda social, como Central Hill, y en equipamientos públicos, como la biblioteca y el auditorio de West Norwood, donde se casó con Evelyn Matthews en 1967.
Su progresión fue meteórica: en 1967 se convirtió en jefe del departamento Structures 3 de Ove Arup, unidad que impulsó una nueva generación de estructuras ligeras y experimentales. Desde ese puesto, participó en proyectos internacionales, como el Centro Pompidou de París, ganador del concurso de 1971, junto a Richard Rogers, Renzo Piano, Peter Rice y su equipo. Rogers reconocería años después que «todo fue idea de Ted». También colaboró en el Teatro Crucible de Sheffield (con Renton, Howard, Wood y Levin) y en la ampliación Sainsbury del Worcester College de Oxford (con MacCormac, Jamieson y Prichard).
Centro Pompidou de París. https://de.wikipedia.org/wiki/Edmund_Happold
Durante este tiempo, Happold mantuvo una estrecha colaboración con el arquitecto e ingeniero Frei Otto, con quien fundó un laboratorio para el estudio de estructuras tensadas y neumáticas. Junto a Rolf Gutbrod y Otto, desarrolló proyectos innovadores en Oriente Medio, como el Centro de Conferencias de Riad (1966), un complejo hotelero en La Meca (1966), premiado con el Aga Khan Award, y, más tarde, el Club Diplomático de Riad (1986) y el Pabellón Deportivo del Rey Abdul Aziz en Yeda (1977). También colaboró con ellos en los pabellones de la Exposición de Jardines de Mannheim (1975) y, junto a Otto y Richard Burton (de ABK), en los experimentos con madera verde estructural en Hooke Park, Dorset (1985-1991).
Pabellón para la Exposición Federal de Jardinería de Mannheim (1975), considerado una de sus obras más emblemáticas (en colaboración con Frei Otto). https://expoarquitectura.com.ar/pabellon-multihalle-de-frei-otto-mannheim/
Entre sus innovaciones estructurales más notables se encuentran la «sombrilla de La Meca», una cubierta con forma de abanico estabilizada por el peso del cerramiento; el uso de dobles mallas reticuladas en las cubiertas de Mannheim para evitar el pandeo, y la introducción del tejido metálico inoxidable en el aviario del zoológico de Múnich, que permitió crear una envolvente orgánica capaz de soportar la carga de la nieve sin rigidez visual.
En 1976, tras el rechazo de Arup a abrir una oficina en Bath, Happold decidió fundar su propio estudio, Buro Happold, con siete compañeros e incorporarse a la Universidad de Bath como profesor de Ingeniería de la Edificación y de Diseño Arquitectónico. Allí consolidó un espacio de cooperación entre disciplinas, en el que ingenieros y arquitectos trabajaban de manera integrada. Promovió la creación del Centre for Window and Cladding Technology y de un grupo de investigación en estructuras inflables, sentando las bases del pensamiento interdisciplinar que caracteriza a la ingeniería moderna.
Su compromiso con la profesión se tradujo en una intensa actividad institucional: fue nombrado Royal Designer for Industry (RDI) en 1983, fue vicepresidente de la Institution of Structural Engineers (1982-1986), presidió el Construction Industry Council (1988-1991), fue vicepresidente de la Royal Society of Arts (1991-1996), fue nombrado Senior Fellow del Royal College of Art en 1993 y fue nombrado caballero del Imperio Británico en 1994. También fundó el Building Industry Council, germen del actual Construction Industry Council, y fomentó la colaboración entre los distintos agentes del sector, fiel a su espíritu cuáquero.
Happold era un hombre lleno de ideas, capaz de contagiar entusiasmo y encontrar soluciones brillantes a problemas complejos. Sus colegas recordaban con humor sus largas y divertidas explicaciones sobre los últimos retos estructurales, así como su capacidad para resolver cuestiones empresariales o técnicas con la misma lucidez. Falleció en su casa de Bath en 1996, mientras esperaba un trasplante de corazón.
Entre los numerosos reconocimientos que recibió figuran la Medalla Guthrie Brown (1970), la Medalla Eiffel de la École Centrale de París, la Medalla Kerensky de la Asociación Internacional de Puentes y Estructuras y la medalla de oro de la Institution of Structural Engineers (1991). Entre sus obras se encuentran proyectos como la Bootham School (1964), el Centro de Conferencias de Riad (1967), los Hyde Park Barracks de Londres (1970), la Casa de Reuniones Cuáquera de Blackheath (1971-1972), el Centro Pompidou (1971-1977), el Aviario de Múnich (1978-1982) y Hooke Park (1985-1991).
El legado de Sir Edmund Happold trasciende sus estructuras. Fue un pionero que entendió que la ingeniería y la arquitectura no son disciplinas enfrentadas, sino expresiones complementarias de una misma visión del mundo, que concibe la belleza, la técnica y la humanidad como partes inseparables del acto de construir.
La madera fue el primer material estructural utilizado en la construcción de puentes, mucho antes que la piedra, el metal o el hormigón. La madera permite fabricar piezas lineales aptas para resistir esfuerzos de compresión y tracción y, por tanto, también de flexión. Su uso ha evolucionado desde los rudimentarios troncos apoyados en los cauces hasta las complejas estructuras actuales de madera laminada y materiales compuestos. En la actualidad, este material está experimentando un notable resurgimiento, impulsado por sus virtudes técnicas: una excelente relación resistencia-peso, facilidad de mecanizado y de transporte, y la capacidad de crear elementos prefabricados de gran longitud.
A diferencia de la mampostería, que requiere morteros y recurre al arco para salvar grandes luces, la madera permite ensamblajes con continuidad estructural. Esto permite diseñar diseños lineales, ligeros y flexibles que se adaptan a una amplia variedad de vanos. El desarrollo de la madera laminada encolada (en inglés, glulam), los adhesivos estructurales, los tratamientos de protección en autoclave y las normativas estandarizadas, como el Eurocódigo 5, han consolidado la madera como una alternativa duradera y viable frente a los materiales convencionales.
Clasificación estructural
Los puentes de placas de madera son estructuras que funcionan como placas continuas, normalmente compuestas por tableros de madera contralaminada (CLT), y tienen luces limitadas o se combinan con vigas para alcanzar dimensiones mayores. Por otro lado, los puentes de barras de madera están formados por piezas lineales que configuran vigas, arcos o cerchas (vigas reticuladas), lo que les permite cubrir luces más amplias.
Tipo estructural
Descripción
Luz típica
Vigas
Vigas macizas o de glulam, a menudo en configuraciones triarticuladas.
3 a 24 m
Viga reticulada (cercha)
Sistema triangulado (p. ej., tipo Howe o Pratt) de barras que operan bajo esfuerzo axial.
9 a 45 m
Arco triarticulado
Fabricado en glulam, sometido predominantemente a compresión.
12 a 70 m
Colgante
El tablero está suspendido mediante cables de acero anclados a mástiles.
Luces variables
De apertura
Tablero con piezas móviles o deslizantes.
Hasta 24 m
2. Evolución histórica de los puentes de madera.
Orígenes antiguos e ingeniería primitiva: La madera es uno de los materiales estructurales más antiguos que la humanidad ha utilizado para superar obstáculos naturales. Desde la prehistoria, concretamente desde la invención del hacha de piedra, alrededor del año 15 000 a. C., los seres humanos utilizaban troncos como puentes sobre ríos o arroyos. Los palafitos eran construcciones de madera levantadas sobre el agua, similares a los puentes. En algunas culturas subtropicales también empleaban lianas, que prefiguraban los puentes colgantes. No obstante, los ejemplos más sofisticados datan de épocas posteriores. Aunque en la Antigüedad clásica los puentes de piedra en arco fueron los más duraderos, la madera desempeñó un papel esencial en la ingeniería militar. Uno de los ejemplos más conocidos es el puente que Julio César construyó sobre el Rin, diseñado para montarse y desmontarse rápidamente aprovechando las corrientes del río para estabilizar sus uniones. Otro ejemplo es el legendario Ponte Sublicio (c. 642 a. C.) sobre el Tíber, concebido para ser destruido en caso necesario, lo que subraya la importancia estratégica de los puentes de madera en la Antigüedad.
Puente de Julio César en el Rin. https://www.cienciahistorica.com/2015/08/25/acojonar-enemigo/
Edad Media, Renacimiento y «siglo de oro» europeo: Aunque durante la Edad Media predominaban las estructuras de mampostería, la madera seguía utilizándose en puentes, especialmente en forma de cubiertas que protegían la superestructura de las inclemencias del tiempo. Ya desde el Renacimiento, ingenieros como Leonardo da Vinci idearon puentes de madera desmontables o de montaje rápido, lo que evidencia una notable anticipación técnica. En Suiza, por ejemplo, los puentes cubiertos como el Kapellbrücke y el Spreuerbrücke (siglos XIV-XVI) demuestran que la cubierta de madera prolongaba la vida útil de la estructura al protegerla de la humedad y del sol. El siglo XVIII se considera un periodo de auge de los puentes de madera en Europa. Ingenieros como Hans Ulrich Grubenmann, en Suiza, desarrollaron puentes de madera laminada empernada y arcos rebajados, logrando luces de más de 50 metros, lo que situó a la madera, en términos de vano, en niveles comparables a los de la piedra.
Puente Kapellbrücke de Lucerna (Suiza). https://worldcitytrail.com/es/2025/01/04/spreuerbrucke-en-lucerna/
El impulso industrial y las cerchas reticuladas: El gran salto tecnológico en la construcción de puentes de madera se produjo en el siglo XIX, como resultado de la Revolución Industrial y del desarrollo de las redes ferroviarias, sobre todo en Norteamérica. La necesidad de construir puentes de forma rápida y con luces mayores impulsó el uso de conexiones metálicas y de tipos estructurales más eficientes. Aparecieron patentes como las de Ithiel Town (cercha Town), William Howe (cercha Howe) y Thomas Pratt (cercha Pratt). Un ejemplo histórico es el puente Colossus Bridge, construido por Lewis Wernwag en 1812 sobre el río Schuylkill, en Filadelfia. Con un vano de 103,7 metros y conectores de hierro, en su época se consideró el puente de madera de vano único más largo de Estados Unidos. Estas innovaciones permitieron que la madera compitiera con otros materiales estructurales.
Puente Colossus Bridge, construido por Lewis Wernwag en 1812 sobre el río Schuylkill, en Filadelfia. https://www.structuremag.org/article/the-colossus-of-the-schuylkill-river/
Siglos XX y XXI: innovación tecnológica y sostenibilidad: Durante gran parte del siglo XX, los materiales dominantes fueron el acero y el hormigón, que relegaron en parte a la madera. No obstante, en ese periodo se sentaron las bases para su renacimiento: la invención de la madera laminada encolada (glulam), los adhesivos estructurales de alto rendimiento y los tratamientos en autoclave mejoraron sustancialmente la estabilidad dimensional, la durabilidad y la fiabilidad de la madera como material estructural. En la actualidad, la madera está experimentando un notable resurgimiento en la ingeniería de puentes, gracias también a los criterios de sostenibilidad y de ecología. Normativas como el Eurocódigo 5 (EN 1995-2: Puentes de madera) han aportado solidez a su uso desde el punto de vista ingenieril. Además, la aparición de la madera contralaminada (CLT) y el desarrollo de estructuras híbridas (madera-acero o madera-hormigón), junto con las herramientas de modelado digital (BIM) y la prefabricación, han devuelto a la madera su papel esencial en las infraestructuras sostenibles.
Puente de madera laminada sobre el Pisuerga. http://www.mediamadera.com/es/puentes-de-madera
3. Consideraciones técnicas y materiales
Los puentes modernos se construyen con madera de ingeniería, un material estable y de alto rendimiento.
A. Materiales estructurales clave
Madera laminada encolada (glulam): permite fabricar vigas curvadas o rectas de gran sección y longitud, optimizando la resistencia.
Madera contralaminada (CLT): paneles de gran formato y rigidez bidireccional, muy utilizados en tableros de placa por su capacidad de prefabricación modular.
Maderas compuestas estructurales (LVL, PSL): productos derivados de chapas o de virutas que ofrecen uniformidad y alto rendimiento mecánico.
B. Durabilidad, protección y mantenimiento
La longevidad de un puente de madera depende fundamentalmente de un diseño inteligente que controle la humedad:
Protección constructiva: el diseño debe evitar la acumulación de agua mediante drenajes e inclinaciones y asegurar una ventilación adecuada. La cubierta protectora sigue siendo la mejor defensa a largo plazo.
Tratamiento: selección de especies duraderas (según EN 350) o aplicación de tratamientos protectores en autoclave (sales de cobre, etc.) para alcanzar las clases de uso 3 y 4.
Mantenimiento: revisiones periódicas y reaplicación de protectores superficiales para combatir la radiación UV solar.
El diseño estructural de los puentes de madera se basa en normativas internacionales rigurosas. En Europa, la referencia principal es el Eurocódigo 5 (EN 1995-2: Puentes), que establece los criterios esenciales de cálculo por el método de estados límite, la durabilidad de la madera y el dimensionamiento de las uniones e incorpora factores de modificación críticos. Además, el Manual de diseño de puentes AASHTO LRFD (Load and Resistance Factor Design) ofrece una metodología de diseño basada en factores de carga y resistencia que predomina en Norteamérica y otras regiones. Estas dos directrices se complementan con las guías técnicas detalladas del US Forest Service, que ofrecen buenas prácticas especializadas para la construcción y la durabilidad de estas estructuras.
4. Aplicaciones y mercado
Los puentes de madera tienen una amplia gama de usos:
Vehiculares: carreteras secundarias y entornos rurales, diseñados para soportar cargas moderadas.
Peatonales y para ciclistas: son los más comunes y destacan por su estética cálida y su excelente integración paisajística en parques y entornos naturales.
Sistemas híbridos: la combinación de glulam con losas de hormigón o acero permite construir puentes con vanos más largos y con mayor resistencia al tráfico pesado.
La sostenibilidad es el motor actual. La madera es un material renovable, reciclable y que captura carbono, y se suministra mediante sistemas de construcción industrializados (prefabricación), lo que asegura una rápida ejecución en obra. En el mercado actual se integran fabricantes de glulam, ingenierías especializadas y constructoras modulares, capaces de producir estructuras completas mediante sistemas industrializados.
5. Comparativa de materiales estructurales para puentes
Propiedad / criterio
Madera estructural
Acero
Hormigón armado / pretensado
Piedra
Resistencia específica (resistencia/peso)
Muy alta (estructuras ligeras).
Alta.
Media.
Baja.
Durabilidad natural
Limitada si no se protege; mejorable con tratamientos.
Alta si se protege contra la corrosión.
Muy alta.
Muy alta.
Mantenimiento
Requiere revisiones y repintado o reaplicación de protector.
Requiere control de la corrosión y de la pintura.
Bajo.
Mínimo.
Coste inicial
Medio o bajo (según el tipo de madera y el diseño).
Alto.
Medio.
Alto.
Coste de mantenimiento
Moderado.
Alto.
Bajo.
Muy bajo.
Comportamiento frente al fuego
Predecible (carbonización superficial).
Excelente.
Muy bueno.
Excelente.
Comportamiento ante agentes climáticos
Sensible a la humedad y a los rayos UV; requiere protección.
Lejos de ser obras provisionales, los puentes de madera son una síntesis de tradición e innovación tecnológica. Desde los primeros troncos prehistóricos hasta los diseños actuales con madera laminada encolada, contralaminada y estructuras híbridas, la madera ha demostrado su versatilidad, sostenibilidad y competitividad técnica. Gracias a la ingeniería moderna y a las normativas internacionales, la madera se consolida como un material estructural de referencia en el ámbito de las infraestructuras sostenibles.
Los procedimientos de montaje por movimientos horizontales de puentes atirantados se aplican cuando el puente —total o parcialmente— se construye fuera de su posición definitiva y se traslada posteriormente hasta ella. Este enfoque permite reducir la interferencia con el cauce, el tráfico o las infraestructuras existentes, además de mejorar la seguridad y el control de calidad, ya que la mayor parte de los trabajos se realizan en condiciones estables sobre tierra firme.
En todos los casos, las torres y el tablero deben comportarse de forma solidaria durante el desplazamiento, apoyándose el conjunto en pilas o apoyos provisionales que garanticen la estabilidad global. La elección del método depende de las condiciones geométricas del emplazamiento, de las luces principales, de la rigidez del sistema atirantado y de la disponibilidad de medios auxiliares.
Se distinguen tres métodos fundamentales de ejecución:
a) Puentes empujados longitudinalmente
Este procedimiento es similar al empleado en los puentes de vigas lanzadas incrementalmente, pero está adaptado a la configuración atirantada. El tablero se construye por tramos en una orilla y se empuja progresivamente hacia el vano principal mediante gatos hidráulicos. Para compensar los momentos negativos en el frente de avance, se coloca una nariz de lanzamiento o una estructura auxiliar ligera.
Durante el empuje, los apoyos provisionales y las torres soportan cargas variables, por lo que es necesario controlar continuamente la tensión en los tirantes y realizar ajustes secuenciales para evitar sobreesfuerzos o deformaciones excesivas. Para ello, se utilizan dispositivos deslizantes de baja fricción, como placas de neopreno-PTFE sobre acero inoxidable o carros rodantes en combinación con gatos sincronizados. Además, se realiza una instrumentación topográfica y extensométrica en tiempo real para controlar la geometría de avance.
Un ejemplo representativo es el puente de la calle Jülicher, en Düsseldorf, donde este sistema se aplicó con éxito, combinando el control hidráulico de las tensiones en los tirantes con el uso de apoyos provisionales sobre las pilas intermedias durante el avance del tablero. El mismo procedimiento se empleó en el puente de la calle Franklin, también en Düsseldorf, siguiendo una metodología constructiva similar.
Puente de la calle Jülicher en Düsseldorf, Alemania. https://de.wikipedia.org/wiki/Br%C3%BCcke_J%C3%BClicher_Stra%C3%9Fe
b) Puentes girados
Cuando las condiciones del terreno o del cauce hacen inviable el empuje longitudinal, se puede recurrir al giro del puente completo o de sus semitableros desde una posición lateral de montaje. El conjunto se apoya temporalmente sobre una articulación o pivote reforzado bajo la torre principal, mientras el extremo libre describe un sector circular hasta alcanzar su posición definitiva.
Durante la maniobra, es fundamental mantener el equilibrio del centro de gravedad y la estabilidad frente al vuelco o la torsión, por lo que suelen emplearse lastres temporales y gatos hidráulicos sincronizados. La precisión se garantiza mediante un control topográfico y de tensiones en los tirantes antes y después del giro.
El puente sobre el canal del Danubio, en Viena, es un ejemplo clásico de dos semipuentes girados hasta su posición final. Otro caso notable es el puente de Ben-Ahin (Père Pire) sobre el río Mosa, en Bélgica, que se construyó por completo en una orilla y se giró alrededor de su pila principal en 1987. La maniobra, que desplazó decenas de miles de toneladas, supuso en su momento un récord europeo por el peso movilizado mediante una rotación controlada. Este puente, construido en 1988, fue en su momento el de mayor masa girada del mundo. La pila tiene 84 metros de altura; el tablero mide 341 metros de largo y pesa 16 000 toneladas. Lo soportan 40 cables en abanico situados en un plano.
Puente de Ben-Ahin, Bélgica. Imagen: C. Pujos. Fuente: http://www.puentemania.com/3502
c) Puentes ripados transversalmente
El ripado o traslación transversal consiste en construir el puente en su ubicación final y trasladarlo lateralmente mediante sistemas de deslizamiento controlado. Este método requiere alineamientos precisos entre la posición inicial y la definitiva, así como patines o cojinetes de deslizamiento lubricados, que a menudo se combinan con transportadores modulares autopropulsados (SPMT, por sus siglas en inglés) o con gatos de empuje y freno.
El puente de Oberkassel, en Düsseldorf, es un ejemplo representativo de este tipo de maniobra. La estructura principal se desplazó lateralmente desde su zona de ensamblaje hasta el eje del río mediante carros rodantes y guías transversales, bajo una monitorización topográfica en tiempo real que garantizó la precisión del posicionamiento final. El puente tiene una luz principal de 257,75 m y una torre central de 100 m de altura sobre el tablero. Su superestructura metálica, de 35 m de ancho, está formada por una viga cajón de tres células con losa ortótropa.
Puente sobre el Rin Düsseldorf-Oberkassel. Fuente: https://www.visitduesseldorf.de/en/attractions/oberkasseler-bruecke-bridge-b2338616ec
El ripado presenta ventajas en emplazamientos con suficiente espacio lateral, ya que reduce los trabajos en el cauce y minimiza las afecciones medioambientales o de tráfico. No obstante, exige un estudio detallado del coeficiente de fricción, de las reacciones en los apoyos provisionales y de los esfuerzos transitorios en los tirantes y en las pilas durante el movimiento.
Consideraciones generales
En los puentes atirantados, los movimientos horizontales requieren una planificación constructiva precisa y un análisis estructural temporal que contemple la evolución de las tensiones, las deformaciones y la estabilidad global en cada fase. Es fundamental modelar los estados transitorios y definir procedimientos de tensado, destensado y control geométrico con el apoyo de instrumentación avanzada (celdas de carga, inclinómetros y estaciones totales automatizadas).
En la práctica, estos métodos ofrecen varias ventajas: permiten trabajar en seco y en condiciones controladas, reducen los riesgos laborales y minimizan la interferencia con el entorno. Entre sus principales limitaciones se encuentran el coste de los equipos especializados, la complejidad de las maniobras y la necesidad de personal altamente cualificado.
En resumen, el montaje por movimientos horizontales es una técnica versátil y segura, plenamente consolidada en la ingeniería de puentes moderna, que combina la precisión geométrica con la eficiencia constructiva. Ha demostrado su viabilidad en numerosos puentes atirantados europeos, como los de Düsseldorf, Viena y Ben-Ahin.