La tesis doctoral leída recientemente por Lorena Yepes Bellver se centra en la optimización del diseño de puentes de losa de hormigón pretensado para pasos elevados con el fin de mejorar la sostenibilidad económica y ambiental mediante la minimización de costes, energía incorporada y emisiones de CO₂. Con el fin de reducir la elevada carga computacional del análisis estructural, la metodología emplea un marco de optimización de dos fases asistido por modelos sustitutos, en el que se destaca el uso de Kriging y redes neuronales artificiales (RNA).
En concreto, la optimización basada en Kriging condujo a una reducción de costes del 6,54 % al disminuir significativamente el consumo de hormigón y acero activo sin comprometer la integridad estructural. Si bien las redes neuronales demostraron una mayor precisión predictiva global, el modelo Kriging resultó más eficaz para identificar los óptimos locales durante el proceso de búsqueda. El estudio concluye que las configuraciones de diseño óptimas priorizan el uso de altos coeficientes de esbeltez y suponen una reducción del hormigón y del acero activo en favor del acero pasivo, con el fin de mejorar la eficiencia energética. Finalmente, la investigación integra la toma de decisiones multicriterio (MCDM, por sus siglas en inglés) para evaluar de manera integral los diseños en función de sus objetivos económicos, estructurales y ambientales.
Cuando pensamos en la construcción de grandes infraestructuras, como los puentes, suele venirnos a la mente la imagen de proyectos masivos, increíblemente caros y con un gran impacto ambiental. Son gigantes de hormigón y acero que, aunque necesarios, parecen irrenunciablemente vinculados a un alto coste económico y ecológico.
Sin embargo, ¿y si la inteligencia artificial nos estuviera mostrando un camino para que estos gigantes de hormigón fueran más ligeros, económicos y respetuosos con el planeta? Una reciente tesis doctoral sobre la optimización de puentes está desvelando hallazgos impactantes y, en muchos casos, sorprendentes. Este artículo resume esa compleja investigación en cinco lecciones clave y a menudo sorprendentes que no solo se aplican a los puentes, sino que anuncian una nueva era en el diseño de infraestructuras.
1. La sostenibilidad cuesta mucho menos de lo que crees.
Uno de los descubrimientos más importantes de la investigación es que la idea de que la sostenibilidad siempre implica un alto sobrecoste es, en gran medida, un mito. La optimización computacional demuestra que la viabilidad económica y la reducción del impacto ambiental no son objetivos opuestos.
La tesis doctoral lo cuantifica con precisión: un modesto aumento de los costes de construcción (inferior al 1 %) puede reducir sustancialmente las emisiones de CO₂ (en más de un 2 %). Este dato es muy relevante, ya que demuestra que con un diseño inteligente asistido por modelos predictivos se puede conseguir un beneficio medioambiental significativo con una inversión mínima. La sostenibilidad y la rentabilidad pueden y deben coexistir en el diseño de las infraestructuras del futuro.
2. El secreto está en la esbeltez: cuanto más fino, más eficiente.
En el diseño de un puente, la «relación de esbeltez» es un concepto clave que define la proporción entre la altura del tablero (su grosor) y la longitud del vano principal. Tradicionalmente, podríamos pensar que «más robusto es más seguro», pero la investigación demuestra lo contrario.
El estudio identificó una relación de esbeltez óptima para minimizar el impacto ambiental. Concretamente, el estudio halló una relación de esbeltez de aproximadamente 1/30 para optimizar las emisiones de CO₂ y de aproximadamente 1/28 para optimizar la energía incorporada. Esto significa que, en lugar de construir puentes masivos por defecto, los modelos de IA demuestran que un diseño más esbelto y afinado no solo es estructuralmente sólido, sino también mucho más eficiente en el uso de materiales. Este diseño más esbelto se logra no solo usando menos material en general, sino también mediante un sorprendente reequilibrio entre los componentes clave de la estructura, como veremos a continuación.
3. El equilibrio de materiales: menos hormigón, más acero (pasivo).
Quizás uno de los descubrimientos más sorprendentes es que el diseño más sostenible no consiste simplemente en utilizar menos cantidad de todos los materiales. La solución óptima es más un reequilibrio inteligente que una simple reducción general.
La investigación revela que los diseños optimizados lograron reducir el uso de hormigón en un 14,8 % y de acero activo (el acero de pretensado que tensa la estructura) en un 11,25 %. Sin embargo, este descenso se compensa con un aumento de la armadura pasiva (el acero convencional que refuerza el hormigón). Esto resulta contraintuitivo, ya que la intuición ingenieril a menudo favorece una reducción uniforme de los materiales. Sin embargo, los modelos computacionales identifican un complejo intercambio —sacrificar un material más barato (hormigón) por otro más caro (acero pasivo)— para alcanzar un diseño globalmente óptimo en términos de coste y emisiones de CO₂, un equilibrio que sería extremadamente difícil de lograr con métodos de diseño tradicionales.
4. Precisión frente a dirección: El verdadero poder de los modelos predictivos.
Al comparar diferentes modelos de IA, como las redes neuronales artificiales y los modelos Kriging, la tesis doctoral reveló una lección fundamental sobre su verdadero propósito en ingeniería.
El estudio reveló que, si bien las redes neuronales ofrecían predicciones absolutas más precisas, el modelo Kriging era más eficaz para identificar las regiones de diseño óptimas. Esto pone de manifiesto un aspecto crucial sobre el uso de la IA en el diseño: su mayor potencial no radica en predecir un valor exacto, como si fuera una bola de cristal, sino en guiar al ingeniero hacia la «región» del diseño donde se encuentran las mejores soluciones posibles. La IA es una herramienta de exploración y dirección que permite navegar por un universo de posibilidades para encontrar de forma eficiente los diseños más prometedores.
5. La optimización va directo al bolsillo: reducción de costes superior al 6 %.
Más allá de los objetivos medioambientales, la investigación demuestra que estos modelos de IA son herramientas muy potentes para la optimización económica directa. Este descubrimiento no se refiere al equilibrio entre coste y sostenibilidad, sino a la reducción pura y dura de los costes del proyecto.
La tesis doctoral muestra que el método de optimización basado en Kriging consigue una reducción de costes del 6,54 %. Esta importante reducción se consigue principalmente minimizando el uso de materiales: un 14,8 % menos de hormigón y un 11,25 % menos de acero activo, el acero de pretensado más especializado y costoso. Esto demuestra de forma contundente que los modelos sustitutivos no solo sirven para alcanzar metas ecológicas, sino que también son una herramienta de gran impacto para la optimización económica en proyectos a gran escala.
Conclusión: Diseñando el futuro, un puente a la vez.
La inteligencia artificial y los modelos de optimización han dejado de ser conceptos abstractos para convertirse en herramientas prácticas que permiten descubrir formas novedosas y eficientes de construir la infraestructura del futuro. Los resultados de esta investigación demuestran que es posible diseñar y construir puentes que sean más económicos y sostenibles al mismo tiempo.
Estos descubrimientos no solo se aplican a los puentes, sino que abren la puerta a una nueva forma de entender la ingeniería. Si la IA puede rediseñar algo tan grande como un puente para hacerlo más sostenible, ¿qué otras grandes industrias están a punto de transformarse con un enfoque similar?
En este audio podéis escuchar una conversación sobre este tema.
Este vídeo resume las ideas principales.
Aquí tenéis un documento resumen de las ideas básicas.
De izquierda a derecha: Fermín Navarrina, Víctor Yepes, Iván Negrín, Tatiana García y Rasmus Rempling.
Hoy, 19 de diciembre de 2025, ha tenido lugar la defensa de la tesis doctoral de D. Iván Antonio Negrín Díaz, titulada “Metaheuristic optimization for the sustainable and resilient design of hybrid and composite frame building structures with advanced integrated modeling”, dirigida por los profesores Víctor Yepes y Moacir Kripka. La tesis ha obtenido la máxima calificación de sobresaliente «cum laude». A continuación, presentamos un breve resumen de la misma.
El cambio climático y la rápida expansión de las áreas urbanas han intensificado el impacto ambiental del sector de la construcción, responsable de cerca del 37 % de las emisiones globales de CO₂ y de más de un tercio del consumo energético mundial. Por tanto, mejorar la sostenibilidad y la resiliencia de las estructuras de edificios se ha convertido en una prioridad esencial, plenamente alineada con los Objetivos de Desarrollo Sostenible de las Naciones Unidas. Esta tesis doctoral aborda este reto mediante el desarrollo de un marco de diseño optimizado que permite obtener soluciones innovadoras, sostenibles y resilientes para estructuras porticadas.
El objetivo principal de la investigación es crear y validar metodologías avanzadas que integren tipologías estructurales híbridas y mixtas con estrategias de optimización de vanguardia apoyadas en modelos estructurales de alta fiabilidad. Para ello, se formulan problemas de optimización que consideran conjuntamente criterios económicos, ambientales, constructivos, de durabilidad y de seguridad estructural, e incorporan, además, aspectos frecuentemente ignorados, como la interacción suelo-estructura, la robustez frente al colapso progresivo y el desempeño ambiental a lo largo del ciclo de vida de la estructura. Entre los objetivos específicos, destacan los siguientes: evaluar metaheurísticas avanzadas y técnicas de optimización asistida por metamodelos; cuantificar los riesgos de modelos estructurales simplificados; integrar la resiliencia como restricción de diseño; valorar los beneficios de tipologías híbridas y mixtas; explorar estrategias de optimización multiobjetivo; y comparar enfoques de diseño basados en fases iniciales y en el ciclo de vida.
Los resultados muestran que las estrategias metaheurísticas avanzadas y asistidas por metamodelos (como BBO-CINS, enfoques basados en Kriging y Optimización Escalarizada de Pareto) superan claramente a los algoritmos tradicionales, ya que logran reducciones de hasta el 90 % en el coste computacional en problemas de un solo objetivo y mejoras de hasta el 140 % en la calidad del frente de Pareto en problemas de varios objetivos. Asimismo, se evidencia el riesgo de simplificar en exceso los modelos estructurales: omitir aspectos críticos, como la interacción suelo-estructura o los elementos secundarios (forjados, muros), puede distorsionar el diseño, comprometer la seguridad (por ejemplo, al subestimar la resistencia al colapso) y aumentar los impactos ambientales a largo plazo, debido al deterioro acelerado y a las mayores necesidades de mantenimiento. También se demuestra que, al incorporar la resiliencia como restricción de diseño en lugar de tratarla como un objetivo de optimización, es posible mejorar la robustez frente al colapso progresivo sin perjudicar la sostenibilidad y reducir la carga ambiental del diseño robusto en torno al 11 % al considerar elementos estructurales secundarios.
A nivel de componentes estructurales, la optimización de las vigas de acero soldadas confirmó las ventajas de la hibridación y de las geometrías variables, lo que dio lugar a la tipología Transversely Hybrid Variable Section (THVS), que reduce los costes de fabricación hasta en un 70 % respecto a las vigas I convencionales. Su integración en pórticos compuestos de hormigón armado y elementos THVS proporcionó mejoras adicionales en sostenibilidad, con reducciones del 16 % en emisiones y del 11 % en energía incorporada en las fases iniciales de diseño, y hasta un 30 % en emisiones de ciclo de vida en comparación con los sistemas tradicionales de hormigón armado. La inclusión de forjados y muros estructurales amplificó estos beneficios, reduciendo los impactos del ciclo de vida hasta en un 42 % respecto a configuraciones de pórticos en las que solo el esqueleto trabaja estructuralmente (omitiendo forjados y muros).
En conjunto, esta tesis demuestra que las metodologías de diseño basadas en la optimización, apoyadas en modelos estructurales realistas y en estrategias computacionales avanzadas, permiten concebir edificios que, al mismo tiempo, son más sostenibles y resilientes. Al resaltar las ventajas de las tipologías híbridas y mixtas e integrar la resiliencia sin comprometer la sostenibilidad, la investigación establece un marco claro para el diseño contemporáneo. Además, al enfatizar la optimización a lo largo de todo el ciclo de vida, ofrece una base metodológica sólida para impulsar una nueva generación de edificaciones alineadas con los objetivos globales de sostenibilidad y de acción climática.
Sir Benjamin Baker (1840 – 1907). https://es.wikipedia.org/wiki/Benjamin_Baker_(ingeniero)
Sir Benjamin Baker (31 de marzo de 1840 – 19 de mayo de 1907) fue un ingeniero civil británico de la época victoriana y una de las figuras más influyentes de la ingeniería del siglo XIX. Nació en Keyford, actualmente parte de Frome (Somerset), hijo de Benjamin Baker, asistente principal en la ferrería de Tondu, y de Sarah Hollis. Estudió en la Cheltenham Grammar School y, a los dieciséis años, comenzó su aprendizaje en los talleres de ferrería de Messrs. Price y Fox, en Neath Abbey. Tras completarlo, trabajó durante dos años como asistente de W. H. Wilson, antes de trasladarse a Londres, donde inició una larga colaboración con Sir John Fowler. En 1861 comenzó a trabajar como su asistente y en 1869 se convirtió en su jefe de ingenieros. En 1875, se hizo socio. Ese mismo año, asumió la responsabilidad de la construcción del ferrocarril subterráneo de distrito entre Westminster y la City de Londres y, pronto, fue consultado para otros proyectos de líneas subterráneas que empleaban túneles tubulares profundos de hierro fundido, tecnología que se convertiría en un estándar para el desarrollo del metro de Londres. También participó en la construcción del Ferrocarril Metropolitano de Londres y, en paralelo, colaboró en el diseño del tren elevado de Nueva York, inaugurado en 1868 y del que aún se conserva una parte como paseo peatonal.
Ya en esta etapa temprana, se consolidó como experto en estructuras metálicas y en obras ferroviarias urbanas, lo que lo situó en la primera línea de la ingeniería aplicada al rápido crecimiento de las grandes ciudades industriales.
Durante la década de 1860 y principios de la de 1870, Baker escribió importantes artículos sobre puentes de gran longitud y sobre vigas y travesaños, entre los que destacan los de 1867 y su serie The Strength of Brickwork, de 1872, en la que sostenía que la resistencia a tracción del cemento no debía pasarse por alto en los cálculos estructurales. En la década de 1870, publicó un libro sobre puentes ferroviarios de gran longitud que anticipó el uso generalizado del acero en grandes estructuras y demostró que este material permitía luces mucho mayores. También diseñó los muelles de Avonmouth y Hull, y proyectó tanto el barco como el dispositivo utilizado para transportar desde Egipto y volver a erigir en Londres el obelisco conocido como «Aguja de Cleopatra», que llegó al Reino Unido entre 1877 y 1878 y que actualmente se encuentra a orillas del Támesis. Su participación en el traslado de la Aguja de Cleopatra fue ampliamente comentada en la prensa técnica de la época y reforzó su reputación como ingeniero capaz de resolver problemas logísticos y estructurales de gran complejidad.
En 1879 se produjo el desastre del puente ferroviario del Tay, que se derrumbó causando numerosas víctimas. Al año siguiente, Baker fue nombrado perito judicial en la investigación oficial del accidente. Aunque actuaba en nombre del ingeniero Thomas Bouch, mantuvo su independencia profesional en todo momento. Rebatió la hipótesis de que el puente hubiera sido derribado por el viento y llevó a cabo un análisis exhaustivo de las estructuras cercanas, concluyendo que la presión del viento la noche del derrumbe no había superado las 15 libras por pie cuadrado, muy por debajo del mínimo necesario para provocar la caída. Esta intervención reforzó aún más su prestigio internacional en el ámbito de la ingeniería de puentes. A raíz de esta investigación, Baker insistió en la necesidad de criterios de cálculo más rigurosos frente a cargas de viento y en la revisión crítica de los métodos empíricos empleados hasta entonces en el diseño de grandes puentes de celosía.
Puente del Tay original visto desde el norte. https://es.wikipedia.org/wiki/Benjamin_Baker_(ingeniero)
Poco después comenzó el proyecto que marcaría su carrera: la construcción del puente de Forth. Tras desestimarse en 1880 el proyecto original de Thomas Bouch a raíz de las conclusiones de la investigación del puente del Tay, Baker y Fowler se encargaron del diseño del nuevo puente, cuya construcción se llevó a cabo entre 1882 y 1890 bajo la dirección de William Arrol. Construido completamente en acero, se convirtió en una obra pionera y en el puente en ménsula más grande del mundo. Con una longitud total de 2528,6 metros, tramos principales de 521,2 metros y torres de 104 metros de altura, el proyecto fue sin precedentes. Se utilizaron más de 55 000 toneladas de acero, 18 122 m³ de granito y más de ocho millones de remaches. En la obra participaron cerca de 4600 trabajadores y la cifra de fallecidos, estimada originalmente en 57, fue revisada posteriormente hasta alcanzar 98 víctimas. Baker popularizó el diseño mediante conferencias y célebres demostraciones públicas en las que utilizaba a personas para ilustrar la estabilidad del sistema en voladizo. El puente fue inaugurado el 4 de marzo de 1890 por el príncipe de Gales, el futuro Eduardo VII, quien remachó la última pieza, un remache de oro. El coste total de la obra ascendió a tres millones de libras, una cifra extraordinaria para la época. Como reconocimiento a esta hazaña, Baker fue nombrado caballero y la Royal Society lo eligió como miembro ese mismo año. Más tarde, en 1892, la Academia de Ciencias de Francia concedió a Fowler y a Baker el premio Poncelet, duplicando la cuantía para Baker, quien recibió 2000 francos. Los análisis metalúrgicos realizados en torno a 2002 confirmaron la alta calidad del acero empleado.
El puente de Forth se convirtió enseguida en un símbolo de la ingeniería victoriana y fue considerado durante décadas un paradigma de seguridad estructural, hasta el punto de emplearse como ejemplo en manuales y cursos de ingeniería de todo el mundo. Su sistema de ménsulas y anclajes, junto con el uso masivo del acero, influyó directamente en el diseño de otros grandes puentes ferroviarios y contribuyó a fijar nuevas normas de cálculo para estructuras hiperestáticas de gran luz.
Puente de Forth. https://es.wikipedia.org/wiki/Puente_de_Forth
Además de su trabajo en el Reino Unido, Baker participó en numerosos proyectos internacionales. En Estados Unidos, asesoró a James B. Eads en San Luis y fue consultado para diseñar un sistema de trabajo que permitiera completar el túnel bajo el río Hudson de forma segura, cuando su construcción corría el riesgo de hundimiento. También participó en el proyecto de la torre de Watkin, impulsado en 1891 por el magnate ferroviario Edward Watkin con el objetivo de superar en altura a la Torre Eiffel. Baker fue designado para supervisar su construcción, pero los problemas económicos provocaron que las obras se detuvieran en 1895 y que la estructura, inacabada, fuera demolida en 1907. Su actuación como consultor en Estados Unidos consolidó su perfil de ingeniero “global”, capaz de intervenir en problemas que iban desde grandes puentes metálicos hasta obras subterráneas complejas bajo ríos de caudal considerable.
Entre 1898 y 1902, participó como ingeniero consultor en la construcción de la primera presa de Asuán, diseñada por Sir William Willcocks y ejecutada por la compañía de Sir John Aird. Esta obra formaba parte de los esfuerzos británicos por regular las crecidas del Nilo tras la ocupación de Egipto. La presa fue inaugurada el 10 de diciembre de 1902 por Arturo de Connaught y constituyó uno de los proyectos hidráulicos más importantes de su tiempo. Por su contribución a esta obra, Baker fue nombrado caballero comandante de la Orden del Baño (KCB). Su experiencia previa en grandes estructuras metálicas y en el análisis de cargas fue fundamental para evaluar la estabilidad de la presa frente a las variaciones extremas del caudal del Nilo.
A lo largo de su carrera, Baker escribió numerosos artículos y publicaciones técnicas y recibió reconocimientos importantes. Entre 1895 y 1896 fue presidente de la Institución de Ingenieros Civiles y vicepresidente de la Royal Society desde ese año hasta su fallecimiento. En 1899, fue elegido miembro honorario extranjero de la Academia Estadounidense de las Artes y las Ciencias y en 1902, se convirtió en miembro honorario de la Real Sociedad de Edimburgo. Su figura también se honra con una vidriera situada en el lado norte de la nave de la Abadía de Westminster. Además, se le dedicaron obituarios extensos en las principales revistas técnicas británicas, que lo presentaban como el prototipo del ingeniero victoriano: competente, práctico y, al mismo tiempo, atento al desarrollo de la teoría estructural.
Sir Benjamin Baker falleció en Pangbourne, Berkshire, en 1907, donde pasó sus últimos años. Fue enterrado en Idbury (Oxfordshire). Su legado perdura como uno de los ingenieros más brillantes y versátiles de la era victoriana, y como protagonista de algunas de las obras más emblemáticas de la ingeniería civil moderna. En la historiografía actual se le reconoce como una figura puente entre la ingeniería basada en la experiencia empírica del hierro y la ingeniería del acero apoyada en métodos de cálculo más rigurosos, y su nombre sigue asociado de manera casi inseparable al puente de Forth.
William Le Baron Jenney (1832-1907). https://es.wikipedia.org/wiki/William_Le_Baron_Jenney
William Le Baron Jenney (1832-1907), arquitecto e ingeniero estadounidense nacido en Massachusetts, destacó en una época en la que Estados Unidos experimentaba una rápida expansión industrial, lo que supuso un hito en la historia de la ingeniería y la arquitectura. Comenzó su formación en la prestigiosa École Polytechnique de París, también conocida como L’École Centrale, una de las escuelas de ingeniería más importantes de Europa. Allí adquirió conocimientos avanzados sobre técnicas constructivas y estructuras metálicas, así como sobre la doctrina funcionalista de Jean-Nicolas-Louis Durand, lo que le permitió mantenerse al día de las técnicas más innovadoras de su tiempo. Su formación en Europa fue decisiva, ya que le permitió incorporar influencias del movimiento arquitectónico europeo, vitales para su desarrollo profesional. Esta sólida base técnica sentó las bases de sus futuros logros en arquitectura y construcción.
En 1861, con el estallido de la guerra de Secesión estadounidense, Jenney regresó a su país y se alistó en el Ejército de la Unión como ingeniero militar, alcanzando el rango de mayor del Cuerpo de Ingenieros. Durante el conflicto, diseñó fortificaciones para los generales Sherman y Grant y participó en proyectos de gran envergadura, como la construcción de una carretera de 13 km entre Young’s Point y Bowers’ Landing, en Luisiana, que tuvo que ser completamente pontonada debido a los encharcamientos del terreno. Esta experiencia en el campo de batalla también le enseñó la importancia de la planificación y la logística en la construcción, habilidades que aplicaría más tarde en su carrera arquitectónica. Su experiencia en la gestión de proyectos complejos y en ingeniería estructural durante la guerra resultaría determinante para su posterior carrera civil.
Al finalizar la guerra, Jenney se trasladó a Chicago en 1868, antes del devastador incendio de 1871 que destruyó gran parte de la ciudad. Esta catástrofe supuso una oportunidad histórica para la reconstrucción urbana y Jenney, junto con otros arquitectos visionarios como Daniel Hudson Burnham, John Wellborn Root y Louis H. Sullivan, se convirtió en una de las figuras centrales de lo que posteriormente se conocería como la Escuela de Chicago. Este movimiento fue fundamental en el desarrollo de la arquitectura moderna, promoviendo el uso de nuevas tecnologías y materiales. En 1868, abrió su propio estudio de arquitectura, especializado en edificios comerciales y residenciales, así como en planificación urbana. Entre 1876 y 1880, ejerció como profesor de arquitectura en la Universidad de Michigan en Chicago, donde formó a muchos de los futuros líderes de la Escuela de Chicago.
Jenney también colaboró con los arquitectos paisajistas Frederick Law Olmsted y Calvert Vaux en la planificación de Riverside, Illinois, una ciudad impulsada por el desarrollo ferroviario. Entre sus contribuciones urbanísticas, en 1871 proyectó un depósito de agua corriente al que, en 1890, añadió un edificio de bombas y un pabellón de manantial.
Su mayor logro técnico y conceptual fue la invención y el perfeccionamiento del sistema de esqueleto de acero, que permitió construir edificios más altos sin recurrir a muros de carga masivos. Este sistema empezó a utilizarse en el primer edificio Leiter (1879), que ya tenía estructura de hierro, aunque los pilares exteriores aún cumplían una función portante. La innovación consistía en que los pilares de hierro colado y las vigas de acero formaban una estructura resistente y en que las fachadas podían liberarse de las cargas estructurales. Este enfoque revolucionó la arquitectura al permitir un diseño más flexible y creativo. Este concepto se consolidó en el segundo Leiter Building (1888-1891), donde Jenney perfeccionó el esqueleto metálico, lo que permitió incrementar la altura de los edificios sin comprometer el espacio interior ni la estabilidad.
Home Insurance Building. https://es.wikipedia.org/wiki/Home_Insurance_Building
El Home Insurance Building (1885) de Chicago es considerado el primer rascacielos completamente metálico. Sus dos primeras plantas contaban con pilares de granito sobre los que se apoyaban soportes de hierro fundido, rellenos de hormigón y revestidos de ladrillo, mientras que el resto del edificio se construyó con un esqueleto de acero. Aunque las fachadas eran funcionales, conservaban elementos decorativos de estilo clásico, como pilares angulares y superficies murales ornamentadas, y los soportes interiores se diseñaron como columnas. Ampliado con dos plantas en 1891 y demolido en 1931, el edificio introdujo el concepto de muro-cortina al liberar los muros exteriores y permitir grandes ventanales que mejoraban la iluminación y la estética. De esta manera, marcó el inicio de una nueva era en la arquitectura de rascacielos.
A partir de esta primera experiencia, se construyeron el Fair Building y el Manhattan Building (1890), con dieciséis plantas, lo que fue todo un récord para la época. Estos edificios consolidaron la viabilidad del rascacielos y demostraron que las estructuras metálicas podían ser estéticamente atractivas y funcionales. Las fachadas de Jenney seguían un estilo ecléctico que combinaba ornamentación clásica con un ritmo regular de huecos que aportaba modernidad y claridad visual.
Además de sus obras, Jenney desempeñó un papel fundamental en la creación de la Escuela de Chicago. Arquitectos como D. H. Burnham, J. W. Root, William Holabird y Louis H. Sullivan comenzaron su carrera en sus propios estudios y continuaron desarrollando los principios arquitectónicos que Jenney había introducido. La Escuela de Chicago no solo influyó en la arquitectura estadounidense, sino que también tuvo un impacto global, sentando las bases para el desarrollo de rascacielos en otras ciudades del mundo. Su influencia en la arquitectura de altura fue profunda y duradera, lo que permitió que las ciudades modernas crecieran verticalmente sin sacrificar la seguridad ni la estética.
Jenney también desarrolló destacados proyectos urbanos y residenciales, como el edificio Ludington (1891), el edificio de la compañía de seguros New York Life (1894), el Pabellón Hortícola para la Exposición Universal de 1893, diversos parques urbanos como Garfield Park y Humboldt Park, y el monumento conmemorativo de Illinois en Vicksburg (1906). Su enfoque en la integración de la naturaleza en el entorno urbano constituye un legado que perdura en la planificación de las ciudades contemporáneas. Su obra combina innovación técnica, funcionalidad y estética, evidenciando la fusión entre ingeniería y arquitectura que definió su carrera.
William Le Baron Jenney falleció en Los Ángeles, California, el 15 de junio de 1907. Sus cenizas fueron depositadas junto a la tumba de su esposa en el cementerio de Graceland, en Chicago. Su legado también incluye una influencia duradera en la educación arquitectónica, formando a generaciones de arquitectos que continuarían con su visión. Sus cuadernos y documentos originales, incluidos el cuaderno de 1884 con los cálculos para el Home Insurance Building y el borrador «Clave del rascacielos», se conservan en el Instituto de Arte de Chicago. Su legado técnico y académico, junto con su influencia en la Escuela de Chicago, sentó las bases de los rascacielos modernos, demostrando que la construcción vertical podía ser segura, funcional y estéticamente atractiva.
A continuación, os dejo unos vídeos de la Escuela de Chicago. Espero que os gusten.
Acaban de publicar un artículo nuestro en Structural Engineering and Mechanics, una de las revistas de referencia del JCR. Este trabajo sintetiza los resultados de un estudio en el que se presenta un marco de optimización multiobjetivo innovador para el diseño de pasarelas peatonales con estructuras mixtas de acero y hormigón.
La investigación se enmarca en el proyecto RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València. A continuación, se presenta un resumen del trabajo y de la información contextual.
El objetivo principal de esta investigación ha sido equilibrar la eficiencia económica y medioambiental con la seguridad estructural y el confort del usuario, integrando de manera única la resiliencia ante incendios. A diferencia de investigaciones previas, este trabajo incorpora seis escenarios distintos de exposición al fuego, desde 320 hasta 720 segundos, para evaluar el rendimiento de la estructura en condiciones extremas.
Los resultados revelan una relación directa y lineal entre el coste y las emisiones de CO₂, lo que demuestra que por cada dólar estadounidense (1 USD) ahorrado en el coste por metro de la estructura, se reduce la emisión de 0,7727 kg de CO₂. Este descubrimiento posiciona la optimización de costes como una estrategia que favorece la sostenibilidad económica y medioambiental.
Un descubrimiento clave es que se pueden lograr mejoras sustanciales en la seguridad contra incendios con inversiones moderadas. Un aumento del 23 % en el coste permite que la estructura resista casi 8 minutos (460 segundos) de exposición al fuego antes de colapsar, mientras que incrementos menores, del 3,91 % y 15,06 %, aseguran la estabilidad durante 320 y 400 segundos, respectivamente. El estudio también pone de manifiesto un cambio fundamental en la configuración del diseño óptimo: mientras que los diseños esbeltos son más eficientes en términos de coste y emisiones en condiciones normales, las configuraciones más compactas son necesarias para garantizar la seguridad en caso de exposición prolongada al fuego. Estos resultados ofrecen directrices prácticas para el desarrollo de infraestructuras urbanas más seguras, resilientes y sostenibles.
1. Marco de optimización multiobjetivo.
El estudio aborda una brecha crítica en ingeniería estructural: la falta de investigaciones que apliquen métodos de optimización a infraestructuras reales, integrando simultáneamente criterios de sostenibilidad (económicos, medioambientales y sociales) y de seguridad, especialmente en condiciones extremas, como la exposición al fuego.
1.1. Metodología aplicada
El análisis se centra en una pasarela peatonal de estructura mixta de acero y hormigón, con una luz de 17,5 metros, ubicada en el sur de Brasil. Con el fin de hallar las soluciones óptimas, se empleó un algoritmo de Búsqueda de Armonía Multiobjetivo (MOHS, por sus siglas en inglés), desarrollado a medida en Python. El proceso de optimización busca minimizar simultáneamente tres funciones objetivo:
Coste: coste de los materiales necesarios para construir la estructura, basado en los precios del mercado brasileño.
Emisiones de CO₂: el impacto ambiental, medido por las emisiones de CO₂ asociadas a la producción de los materiales, para lo que se han utilizado indicadores específicos de la región objeto de estudio.
Aceleración vertical máxima: medida del confort de los peatones, calculada a partir de las vibraciones inducidas por su movimiento.
El modelo tiene en cuenta ocho variables de diseño discretas, como el espesor de la losa de hormigón y las dimensiones de las vigas de acero, lo que da como resultado un espacio de búsqueda de 7×10¹¹ soluciones posibles.
Ilustración de la pasarela mixta
1.2. Escenarios de exposición al fuego.
Una de las innovaciones centrales del estudio es incorporar la resiliencia al fuego en el proceso de optimización. Se ha simulado un escenario de incendio de un vehículo debajo de una pasarela utilizando una curva tiempo-temperatura específica, desarrollada a partir de pruebas experimentales realizadas en puentes no confinados. Además de la condición a temperatura ambiente (0 segundos), se analizaron seis periodos de exposición al fuego que provocaron una degradación significativa de las propiedades mecánicas del acero.
Periodo de exposición al fuego (s)
Temperatura del acero (°C)
Factor de reducción (límite elástico)
Factor de reducción (módulo de elasticidad)
0
20
1,00
1,00
320
200
1,00
0,90
400
300
1,00
0,80
460
400
1,00
0,70
510
500
0,78
0,60
560
600
0,47
0,31
720
700
0,23
0,13
2. Hallazgos clave y análisis de resultados.
El proceso de optimización generó un frente de Pareto tridimensional que muestra los equilibrios entre coste, emisiones y confort en los distintos escenarios de incendio.
2.1. Relación lineal entre el coste y las emisiones de CO₂.
Se identificó una relación directa y consistente entre el coste de fabricación y las emisiones de CO₂ en todos los escenarios analizados. Los datos demuestran que cada real brasileño (R$) ahorrado mediante la optimización equivale a una reducción de 0,1358 kg de CO₂. Convertido a dólares estadounidenses, esto equivale a una reducción de 0,7727 kg de CO₂ por cada dólar estadounidense ahorrado por metro de pasarela.
Esta correlación confirma que la optimización económica es una herramienta eficaz para promover la sostenibilidad medioambiental, especialmente en regiones que necesitan desarrollar infraestructuras sin sacrificar la eficiencia económica.
2.2. Intercambio entre la resistencia al fuego y el coste.
Como era de esperar, aumentar la resistencia de la estructura al fuego implica un mayor coste y, por tanto, más emisiones. Sin embargo, el estudio demuestra que es posible lograr mejoras significativas en la seguridad con incrementos de coste relativamente bajos o moderados.
Un incremento del 3,91 % en el coste permite que la estructura resista durante 320 segundos (5 minutos) de fuego.
Un incremento del 15,06 % extiende la resistencia a 400 segundos (6,5 minutos).
Un incremento moderado del 23 % evita el colapso durante casi ocho minutos (460 segundos), lo que proporciona un tiempo valioso para la evacuación.
Diseñar para resistir un incendio de 12 minutos (720 segundos) incrementa el coste en más del 400 %, por lo que resulta inviable en la mayoría de los casos.
2.3. Impacto en el confort de los peatones.
Los objetivos de coste y confort son conflictivos: un mayor confort (menor aceleración vertical) exige una mayor rigidez estructural, lo que se traduce en un mayor consumo de materiales.
Pasar de un nivel de confort «mínimo» a «medio» implica un aumento del coste promedio del 44 %.
Mejorar el nivel de confort de «medio» a «máximo» solo requiere un aumento promedio del 6 % en el coste, lo que sugiere que es una inversión factible en la mayoría de los escenarios.
La excepción es el escenario de 12 minutos de fuego, en el que alcanzar el nivel de confort «máximo» supone un 68 % más que el «medio», debido a la grave degradación del rendimiento del acero.
3. Implicaciones prácticas y configuraciones óptimas de diseño.
El análisis de las variables de diseño de las soluciones óptimas revela patrones claros y ofrece implicaciones prácticas para la ingeniería.
3.1. Evolución del diseño en función de la exposición al fuego.
La configuración geométrica óptima de la pasarela varía drásticamente según el tiempo de exposición al fuego considerado.
En ausencia de fuego o con una exposición breve, la solución más eficiente es un diseño de alta esbeltez, con vigas de acero altas y delgadas que se acercan a los límites normativos. Así se minimiza el consumo de material, lo que reduce costes y emisiones.
Con una exposición prolongada al fuego (es decir, superior a 510 segundos), la solución óptima se desplaza hacia configuraciones más compactas y menos esbeltas. Se observa un aumento considerable del espesor del alma y de las alas de las vigas de acero.
Este cambio se debe a que, a altas temperaturas, el límite de esbeltez (que depende del módulo de elasticidad y del límite elástico del acero) disminuye considerablemente. En los escenarios más extremos, el límite de esbeltez deja de ser una restricción activa y el algoritmo prioriza la robustez geométrica para cumplir con otros requisitos de diseño.
Periodo de exposición (s)
Esbeltez óptima / Límite de esbeltez
0
99,17 %
460
99,54 %
560
68,45 %
720
46,98 %
3.2. Estrategias de materiales.
Preferencia por el acero: el estudio revela que, para aumentar la seguridad contra incendios, es más rentable y sostenible incrementar el consumo de acero (a pesar de la degradación de sus propiedades) que aumentar la rigidez mediante una losa de hormigón más gruesa.
Interacción total: en todas las soluciones óptimas de menor coste, el grado de interacción entre la viga de acero y la losa de hormigón es del 100 % (α = 1,0), lo que indica que el comportamiento compuesto completo es la opción más eficiente.
4. Conclusiones principales
El estudio presenta un marco sólido para el diseño de pasarelas mixtas de acero y hormigón y demuestra que es posible equilibrar sostenibilidad, economía y seguridad. Las conclusiones más relevantes son las siguientes:
Sostenibilidad y coste vinculados: existe una relación lineal y cuantificable entre la reducción de costes y la disminución de las emisiones de CO₂, por lo que la optimización económica puede utilizarse como herramienta para la sostenibilidad ambiental.
Seguridad contra incendios asequible: es posible mejorar significativamente la seguridad de una pasarela ante un incendio con incrementos de coste moderados y económicamente viables.
El diseño se adapta al riesgo: la configuración óptima de una estructura no es universal; los diseños esbeltos son ideales para condiciones normales, pero las configuraciones compactas son cruciales para la resiliencia en escenarios de incendio prolongados.
Implicaciones para el diseño: los resultados subrayan la importancia de incorporar escenarios de riesgo extremo en las primeras fases del diseño estructural para crear infraestructuras más seguras y resilientes sin comprometer desproporcionadamente los recursos.
Estas conclusiones se aplican únicamente a la tipología de estructura y al escenario de incendio estudiados, así como a los costes y a los factores de emisión regionales. Por tanto, se requieren más investigaciones para validar y extender estos resultados a otros contextos.
En esta ocasión comparto con los lectores una entrevista que me han realizado a propósito de un reciente estudio publicado en Nature Communications —Vaserman, E., Weaver, J.C., Hayhow, C. et al. (2025), An unfinished Pompeian construction site reveals ancient Roman building technology— que ha generado un notable interés tanto en la comunidad científica como en los medios. El trabajo ha sido también objeto de un artículo en El País (“Así construían los albañiles de la Antigua Roma”, disponible en: https://elpais.com/ciencia/2025-12-09/asi-construian-los-albaniles-de-la-antigua-roma.html), en el que se recoge mi valoración sobre sus implicaciones para la ingeniería civil y la comprensión de las técnicas constructivas romanas. Presento aquí la entrevista completa, con el fin de profundizar en los aspectos técnicos y arqueológicos que hacen de este estudio un caso excepcional para el análisis de los materiales históricos.
El artículo sostiene que en Pompeya se empleaba con cierta frecuencia la mezcla en caliente con cal viva, ¿cómo interpreta esta afirmación?
El trabajo presenta una serie de análisis microestructurales y químicos que indican claramente que en la Domus IX 10,1 se utilizó un procedimiento basado en la mezcla de cal viva con materiales puzolánicos en estado seco. Los resultados son coherentes con esta hipótesis y están bien fundamentados en este contexto arqueológico, especialmente debido al hallazgo de montones de material premezclado seco que contenían gránulos de cal viva. No obstante, desde la perspectiva de la ingeniería civil, conviene subrayar que se trata de una evidencia localizada en un momento de reconstrucción posterior al terremoto del año 62 d. C., por lo que no es posible extrapolarla automáticamente a todo el ámbito del Imperio romano. La diversidad de materiales y prácticas constructivas descrita por autores como Vitruvio, quien abogaba por el apagado previo de la cal, hace recomendable interpretar este estudio como una muestra de la coexistencia de métodos alternativos al canon clásico, pero no como una descripción universal.
El estudio plantea que los morteros podrían haber experimentado procesos de autorreparación a muy largo plazo. ¿Cómo valora usted esta idea?
Los datos indican que ciertos clastos de calcita pudieron seguir reaccionando durante un periodo prolongado, actuando como fuente de calcio reactivo. Esto habría favorecido el relleno de microfisuras mediante la recristalización de carbonato cálcico en sus polimorfos de calcita y aragonito. Este comportamiento es interesante desde el punto de vista científico, ya que permite comprender mejor la evolución mineralógica en la interfaz entre los áridos volcánicos y la matriz cementante. No obstante, desde el punto de vista de la ingeniería estructural moderna, es importante tener en cuenta su contexto, ya que se trata de un proceso geoquímico lento, con efectos localizados y condicionado por los ciclos de humedad ambiental. Esta característica ayuda a explicar la durabilidad observada, pero no tiene una equivalencia directa con los mecanismos de reparación activa inmediata que se investigan actualmente en la obra civil.
¿Podría interpretarse la presencia de clastos de cal como un indicio de una mezcla defectuosa?
En determinadas obras históricas, la presencia de grumos de cal puede deberse a procesos de mezcla incompletos o a un apagado insuficiente. Sin embargo, en este caso particular, los análisis de espectroscopía infrarroja y de isótopos estables de carbono y oxígeno indican que estos grumos se formaron durante un proceso térmico y químico compatible con la utilización deliberada de cal viva. Los investigadores documentan, además, la segregación intencionada de materiales: montones de premezcla con cal viva para muros estructurales frente a ánforas con cal apagada para acabados. Por tanto, las pruebas apuntan a una técnica constructiva específica (hot mixing) y no a una ejecución negligente.
¿Cree que estos resultados pueden considerarse representativos del conjunto de la construcción romana?
Los datos corresponden a un escenario muy concreto, que se conserva excepcionalmente bien gracias a la ceniza volcánica de la erupción del 79 d. C., lo que permite analizar materiales «congelados» en plena fase de obra. Precisamente por su carácter singular, lo más prudente es entender que este estudio aporta información específica sobre la logística de una obra doméstica en Pompeya del siglo I, sin que ello implique que todos los constructores romanos actuaran de la misma manera en obras de infraestructura pública o en otras provincias. Para avanzar en esta cuestión, será necesario realizar estudios comparativos con metodologías similares en otros yacimientos u enclaves imperiales.
El artículo distingue entre morteros estructurales y de acabado. ¿Considera acertada esa diferenciación?
Esta diferenciación es coherente con lo que cabría esperar en cualquier tradición constructiva con un mínimo grado de especialización. El estudio documenta el uso de cal apagada almacenada en ánforas recicladas, presumiblemente destinada a morteros de reparación o revestimientos pictóricos, mientras que la cal viva se reservaba para la mampostería estructural. Las propiedades requeridas para un muro de carga no son idénticas a las necesarias para un acabado fino y el análisis químico (ratios Ca/Si) del artículo parece respaldar que se ajustaban las formulaciones según la función. La propuesta es razonable y encaja con el análisis logístico del flujo de trabajo en la obra.
¿Qué aspectos de este trabajo pueden interesar a la ingeniería civil actual, especialmente en relación con los hormigones modernos?
Este estudio contribuye a una comprensión más completa de la evolución de ciertos morteros históricos a lo largo del tiempo, lo que puede resultar inspirador para el desarrollo de nuevos materiales de restauración compatibles y con menor huella de carbono. El uso de la reactividad residual de los clastos de cal para sellar fisuras es un principio valioso para la sostenibilidad. No obstante, los materiales actuales ofrecen prestaciones y un nivel de control muy superiores. Disponemos de cementos compuestos y de normativas de seguridad que permiten diseñar con una fiabilidad estandarizada que no existía en la antigüedad. Por tanto, los morteros romanos son un referente histórico y una fuente de inspiración, pero no un modelo que pueda utilizarse directamente en las grandes infraestructuras contemporáneas.
Algunos autores han sugerido que parte de los carbonatos observados podría ser producto de procesos posteriores a la construcción. ¿Cómo valora la argumentación del estudio?
El artículo describe una serie de observaciones que indican que parte de los carbonatos se formaron durante la vida útil inicial del material. Concretamente, el análisis de isótopos permite distinguir entre la carbonatación rápida en condiciones de mezcla en caliente (fraccionamiento cinético) y la carbonatación lenta en equilibrio. Esto permite a los autores argumentar que los clastos no son únicamente producto de la degradación postdeposicional. No obstante, en materiales con tantos siglos de antigüedad, es razonable tener en cuenta también la influencia del entorno. El estudio aborda este aspecto mediante el análisis de los bordes de reacción de los áridos volcánicos, donde se observa una remineralización continua. Desde un enfoque técnico, el estudio aporta pruebas sólidas para distinguir ambas fases.
Desde su perspectiva como catedrático de ingeniería de la construcción, ¿qué aportación considera más destacable y qué limitaciones observa?
El estudio destaca por ofrecer una visión muy detallada de un proceso constructivo interrumpido, lo que supone una oportunidad excepcional. La identificación de herramientas in situ (plomadas, azadas, pesas) junto con los materiales permite reconstruir el flujo de trabajo real, algo que rara vez se conserva. La principal limitación es su naturaleza localizada, ya que describe un caso concreto de una domus privada en reparación, lo que no permite, por sí solo, establecer conclusiones de alcance general sobre la gran ingeniería pública romana. También sería interesante complementar estas investigaciones en el futuro con datos de resistencia mecánica comparada para realizar una valoración más completa desde el punto de vista de la ingeniería estructural.
En este audio se puede escuchar una conversación que trata sobre este artículo recientemente publicado
Las ideas más interesantes del artículo se puede ver en este vídeo.
En esta presentación se resumen las ideas más importantes.
Acaban de publicar nuestro artículo en la revista Environmental Impact Assessment Review (primer cuartil del JCR), en el que se propone un método directo y más riguroso para calcular el módulo de balasto en losas de cimentación, que incorpora un nuevo enfoque de seguridad y criterios de sostenibilidad para mejorar el diseño suelo-estructura.
Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València.
En las últimas décadas, el diseño de cimentaciones ha evolucionado hacia soluciones más seguras, eficientes y sostenibles. Sin embargo, el módulo de balasto vertical (Ks), uno de los parámetros más utilizados en la modelización del contacto suelo-estructura, sigue empleándose en muchos proyectos como si se tratara de una propiedad intrínseca del terreno. El artículo analizado sugiere un cambio de paradigma en esta práctica, al introducir un método directo para estimar Ks a partir de la relación carga-asentamiento, así como un nuevo marco de seguridad orientado al diseño sostenible. Esta aportación es especialmente relevante en el caso de las cimentaciones tipo losa, habituales en edificios y estructuras industriales.
El estudio parte de una cuestión fundamental: ¿cómo se puede estimar de forma rigurosa el módulo de balasto vertical (Ks) en losas de cimentación, considerando parámetros geotécnicos habitualmente ignorados y, al mismo tiempo, integrando criterios de sostenibilidad y seguridad en el diseño?
Esta cuestión surge de las deficiencias detectadas en los métodos indirectos y semidirectos que se emplean comúnmente, ya que no consideran aspectos clave como la profundidad de la influencia o los efectos de compensación de cargas.
Los autores desarrollan una metodología directa que combina varias herramientas avanzadas de análisis geotécnico:
Teoría del semiespacio elástico para representar el comportamiento del terreno.
Análisis de asientos por capas, con el fin de capturar la variabilidad en profundidad.
Mecánica de consolidación basada en ensayos edométricos, que permite incorporar la respuesta deformacional del suelo bajo carga.
Consideración explícita de la profundidad de la influencia y de la compensación de cargas, factores que rara vez se incluyen en los métodos tradicionales.
Con este planteamiento, se obtiene directamente un valor de Ks coherente con los principios de la energía elástica y adecuado para modelos avanzados de interacción suelo-estructura. El valor resultante, 5,30 MN/m³, se sitúa entre los límites inferiores y superiores calculados, lo que confirma la consistencia del método.
El estudio no se limita al aspecto puramente geotécnico, sino que también integra una evaluación de la sostenibilidad del ciclo de vida de tres alternativas de losa de hormigón armado. Para ello, combina un proceso jerárquico analítico neutrosófico (NAHP-G) con el método de decisión multicriterio ELECTRE III, considerando dimensiones estructurales, ambientales y socioeconómicas.
Además, se introduce un coeficiente de seguridad específico para Ks, calibrado para considerar la variabilidad espacial del subsuelo y mejorar el diseño en términos de servicio.
Los resultados del trabajo son especialmente significativos:
El método directo permite obtener un Ks más representativo del comportamiento real del terreno y de la losa bajo carga.
El nuevo coeficiente de seguridad proporciona un diseño más fiable y coherente con la incertidumbre del subsuelo.
Se logra una mejora de 2,5 veces en el índice de seguridad social y una reducción del 50 % en los impactos ambientales respecto a metodologías convencionales.
El estudio redefine Ks como una variable de diseño, no como una constante del suelo, corrigiendo así décadas de uso inapropiado en la ingeniería geotécnica.
Las conclusiones del artículo tienen un impacto directo en la práctica profesional:
Mejora del diseño de losas: el método permite ajustar mejor los modelos numéricos y evitar tanto el sobredimensionamiento como los fallos por asientos excesivos.
Integración de la sostenibilidad en fases tempranas del proyecto: el marco NAHP-G + ELECTRE IS proporciona una herramienta objetiva para comparar alternativas de cimentación no solo por criterios técnicos, sino también por criterios ambientales y sociales.
Mayor seguridad y fiabilidad: el nuevo coeficiente de seguridad para Ks ayuda a gestionar la incertidumbre y aumenta los márgenes de seguridad de forma cuantificada.
Aplicación en proyectos con elevada heterogeneidad del terreno: el enfoque resulta especialmente útil en suelos con variabilidad marcada, donde los métodos simplificados generan resultados poco fiables.
La Universitat Politècnica de València (UPV) ha obtenido un reconocimiento destacado europeo al ganar el premio al mejor proyecto en la categoría «AI for Sustainable Development» de la European Universities Competition on Artificial Intelligence, organizada por la HAW Hamburg.
El trabajo galardonado, desarrollado en el ICITECH por el doctorando Iván Negrín, demuestra cómo la inteligencia artificial puede transformar el diseño estructural para hacerlo más sostenible y resiliente, con reducciones de hasta un 32 % en la huella de carbono respecto a los sistemas convencionales. Este logro posiciona a la UPV como un referente europeo en innovación ética e impacto y reafirma su compromiso con la búsqueda de soluciones frente al cambio climático y al desarrollo insostenible.
El trabajo se enmarca en el proyecto de investigación RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València. La tesis doctoral de Iván la dirigen los profesores Víctor Yepes y Moacir Kripka.
Introducción: El dilema de la construcción moderna.
La industria de la construcción se enfrenta a un reto monumental: edificar las ciudades del futuro sin agotar los recursos del presente. El enorme impacto medioambiental de los materiales y procesos tradicionales, especialmente las emisiones de CO₂, es uno de los problemas más acuciantes de nuestra era.
¿Y si la solución a este problema no radicara en un nuevo material milagroso, sino en una nueva forma de pensar? ¿Y si la inteligencia artificial (IA) pudiera enseñarnos a construir de manera mucho más eficiente y segura?
Esa es precisamente la hazaña que ha logrado un innovador proyecto de la Universitat Politècnica de València (UPV). Su enfoque es tan revolucionario que acaba de ganar un prestigioso premio europeo, lo que demuestra que la IA ya no es una promesa, sino una herramienta tangible para la ingeniería sostenible.
Clave 1: una innovación europea premiada al más alto nivel.
Este no es un proyecto académico cualquiera. La investigación, dirigida por el doctorando Iván Negrín del Instituto de Ciencia y Tecnología del Hormigón (ICITECH) de la UPV, ha recibido el máximo reconocimiento continental.
Inicialmente seleccionado como uno de los diez finalistas, el proyecto tuvo que defenderse en una presentación final ante un jurado de expertos. Tras la deliberación del jurado, el proyecto fue galardonado como el mejor en la categoría «AI for Sustainable Development Projects» de la competición «European Universities Competition on Artificial Intelligence to Promote Sustainable Development and Address Climate Change», organizada por la Universidad de Ciencias Aplicadas de Hamburgo (HAW Hamburg). Este reconocimiento consolida la reputación del proyecto en el ámbito de la innovación europea.
Clave 2: adiós al CO₂: reduce la huella de carbono en más del 30 %.
El resultado más impactante de esta investigación es su capacidad para abordar el principal problema medioambiental del sector de la construcción: las emisiones de carbono. La plataforma de diseño asistido por IA puede reducir la huella de carbono de los edificios de manera significativa.
En concreto, consigue una reducción del 32 % de la huella de carbono en comparación con los sistemas convencionales de hormigón armado, que ya habían sido optimizados. Esta reducción abarca todo el ciclo de vida del edificio, desde la extracción de materiales y la construcción hasta su mantenimiento y su eventual demolición.
En un sector tan difícil de descarbonizar, un avance de esta magnitud, impulsado por un diseño inteligente y no por un nuevo material, supone un cambio de paradigma fundamental para la ingeniería sostenible.
Clave 3: Rompe el mito: más sostenible no significa menos resistente.
Uno de los aspectos más revolucionarios del proyecto es la forma en que resuelve un conflicto histórico en ingeniería: la sostenibilidad frente a la resiliencia. La IA ha superado la barrera que obligaba a elegir entre usar menos material para ser sostenible o más material para ser resistente.
En una primera fase, el modelo optimizó estructuras mixtas de acero y hormigón (denominadas técnicamente RC-THVS) para que fueran altamente sostenibles, aunque con una resiliencia baja. Lejos de detenerse, la IA iteró sobre su propio diseño y, en una evolución posterior (RC-THVS-R), logró una solución altamente sostenible y resiliente frente a eventos extremos.
La metodología desarrollada permite compatibilizar la sostenibilidad y la resiliencia, superando el tradicional conflicto entre ambos objetivos.
Clave 4: Ahorro desde los cimientos. Menos costes, energía y materiales.
Los beneficios de esta IA no solo benefician al planeta, sino también al bolsillo y a la eficiencia del proyecto. La optimización inteligente de las estructuras se traduce en ahorros tangibles y medibles desde las primeras fases de la construcción.
Los datos demuestran un ahorro significativo en múltiples frentes:
-16 % de energía incorporada.
-6 % de coste económico.
– Reducción del 17 % de las cargas transmitidas a columnas y cimentaciones.
Este último punto es clave. Una menor carga en los cimientos no solo supone un ahorro directo de materiales, sino que tiene un efecto cascada en materia de sostenibilidad: al usar menos hormigón, se reduce la cantidad de cemento empleado, uno de los principales generadores de CO₂ a nivel mundial.
Clave 5: un enfoque versátil para las ciudades del futuro (y del presente).
La aplicación de esta metodología no se limita a los grandes edificios de nueva construcción. Su versatilidad la convierte en una herramienta estratégica para el desarrollo urbano integral.
Puede aplicarse a infraestructuras de transporte, como puentes y pasarelas, para minimizar su impacto ambiental. También es fundamental para la rehabilitación de estructuras existentes, ya que permite optimizar su seguridad y reducir las emisiones asociadas a los refuerzos.
Este enfoque se alinea con los Objetivos de Desarrollo Sostenible (ODS) de la ONU, concretamente con los ODS 9 (Industria, innovación e infraestructura), 11 (Ciudades y comunidades sostenibles) y 13 (Acción por el clima).
Conclusión: construyendo un futuro inteligente.
Este proyecto de la UPV demuestra que la inteligencia artificial ha dejado de ser una tecnología futurista para convertirse en una herramienta imprescindible en la ingeniería civil. Ya no se trata de promesas, sino de soluciones prácticas que resuelven problemas reales, medibles y urgentes.
La capacidad de diseñar estructuras más baratas, ecológicas, seguras y resistentes abre un nuevo capítulo en la construcción.
¿Estamos a las puertas de una nueva era en la ingeniería en la que la sostenibilidad y la máxima seguridad ya no son objetivos contrapuestos, sino aliados inseparables gracias a la inteligencia artificial?
En futuros artículos, explicaremos con más detalle el contenido de este proyecto ganador. De momento, os dejo una conversación que lo explica muy bien y un vídeo que resume lo más importante. Espero que os resulte interesante.
Os dejo un documento resumen, por si queréis ampliar la información.
El campo de la innovación en la construcción está lleno de siglas y términos que pueden resultar abrumadores para cualquiera que se inicie en este mundo. Acrónimos como MMC, IC, OSC y conceptos como prefabricación o construcción modular se utilizan a menudo de manera inconsistente, lo que crea una barrera de confusión para quienes se inician en este campo.
El propósito de este artículo es actuar como un decodificador, no solo por rigor académico, sino porque la capacidad de la industria para resolver desafíos urgentes, como la crisis de la vivienda, la productividad estancada y la descarbonización del entorno construido, depende de una comprensión común y una estrategia coherente.
La situación actual es como si hubiera un conjunto de etiquetas superpuestas para describir un mismo ecosistema: unas describen el clima (el enfoque general), otras las especies de árboles (los sistemas técnicos) y otras el suelo en el que crecen (las tecnologías habilitadoras). Sin un mapa que las organice, es fácil perderse.
En esta guía, basada en el trabajo de Paul D. Kremer, desglosaremos esta jerga compleja, empezando por los tres términos más amplios y confusos, que actúan como grandes «paraguas» conceptuales.
2. Los grandes «paraguas»: aclarando MMC, IC y OSC/OSM.
Los términos más confusos son aquellos que buscan describir enfoques generales para modernizar la construcción. Aunque a menudo se usan como sinónimos, representan ideas fundamentalmente distintas.
Métodos Modernos de Construcción (MMC): es un «término paraguas» amplio, principalmente impulsado por políticas gubernamentales, que carece de una definición técnica estable y coherente. La investigación es clara al respecto y señala que el MMC funciona «en gran medida como un paraguas impulsado por políticas con poca o ninguna frontera técnica coherente». En la práctica, su significado varía según el contexto. En algunos documentos, MMC puede referirse a sistemas modulares volumétricos, a herramientas digitales de gestión o a un conjunto de estrategias para mejorar la productividad. Es un término retórico útil para las políticas públicas, pero analíticamente débil por su ambigüedad.
Construcción industrializada (CI): es el paradigma más coherente y estable de los tres. Consiste en aplicar la lógica de la fabricación al proceso constructivo. No se trata simplemente de construir en una fábrica, sino de reconfigurar todo el sistema de producción. Sus características principales son:
Repetibilidad y normalización: trata la construcción como un sistema de producción orquestado, con componentes y procesos estandarizados, en lugar de una serie de prototipos únicos.
Logística coordinada: enfatiza la planificación de la producción y las operaciones de la cadena de suministro totalmente integradas, similar a la de una línea de ensamblaje de automóviles.
Enfoque en el proceso: se centra en cómo se organiza la construcción (el flujo de trabajo, la estandarización, la eficiencia) y no solo en dónde ocurre (en la obra o en una fábrica).
Construcción/fabricación en taller (OSC/OSM): (del inglés, Off-Site Construction/Manufacturing) se refiere a la ubicación. Su función principal es indicar que una parte o la totalidad del proceso de construcción se traslada de la obra a un entorno controlado, como una fábrica. Sin embargo, el término no especifica nada sobre el sistema de producción subyacente. La investigación en este campo suele centrarse en las interfaces entre la fábrica y la obra, las restricciones de transporte y la secuencia de instalación, pero rara vez aborda los principios de fabricación o la integración digital que definen un sistema de producción completo.
Síntesis comparativa
Para visualizar mejor las diferencias, aquí tienes una tabla comparativa:
Característica
Métodos modernos de construcción (MMC)
Construcción industrializada (IC)
Construcción en taller (OSC/OSM)
Concepto clave
Un «paraguas» de políticas que agrupa diversas innovaciones.
Una filosofía de producción basada en la lógica de la fabricación.
Un descriptor que indica la ubicación de la producción (fábrica vs. obra).
Enfoque principal
Modernización de la industria en un sentido amplio y flexible.
Eficiencia del proceso, repetibilidad y cadena de suministro integrada.
El traslado de actividades fuera de la obra para mejorar el control y la calidad.
Analogía simple
Una etiqueta de «comida saludable» (puede significar muchas cosas).
La «cocina de un chef» (un sistema organizado con procesos definidos).
«Comida para llevar» (hecha en otro lugar, sin importar cómo se cocinó).
Ahora que hemos aclarado estos conceptos generales, podemos explorar los tipos de sistemas técnicos más específicos que suelen estar englobados por estos «paraguas».
3. Los «ladrillos»: tipos de sistemas técnicos.
A diferencia de los «paraguas» conceptuales, términos como prefabricado, modular y panelizado se refieren a arquetipos técnicos específicos o «subdominios». Son los verdaderos «ladrillos» con los que se construye.
Sistemas modulares volumétricos: se trata de módulos tridimensionales (3D) altamente prefabricados en fábrica, como habitaciones completas, módulos de baño o de cocina. Estos «bloques» se transportan a la obra y se ensamblan rápidamente. Su principal ventaja es la rapidez de instalación, que reduce drásticamente el tiempo de construcción.
Sistemas panelizados: son componentes bidimensionales (2D), como paredes, losas de piso o paneles de techo, fabricados con alta precisión en una fábrica. Estos paneles se ensamblan en la obra para conformar la estructura del edificio. Un ejemplo prominente son los sistemas de madera de ingeniería (Mass Timber), como el CLT (Cross-Laminated Timber), que demuestran un gran potencial para la construcción rápida y la reducción de emisiones de carbono. Ofrecen una gran flexibilidad de configuración y diseño, ya que los paneles pueden combinarse de múltiples maneras.
Sistemas híbridos: son una mezcla inteligente de componentes prefabricados (modulares o panelizados) y de construcción tradicional in situ. Por ejemplo, se puede construir un podio de hormigón en la obra y luego montar módulos prefabricados encima. A menudo superan a los sistemas totalmente modulares o totalmente in situ en términos de coste y viabilidad, especialmente en entornos urbanos complejos con restricciones de espacio.
Prefabricación (como término general): es importante señalar que el término «prefabricación» es amplio y abarca tanto los sistemas modulares como los panelizados. Simplemente significa que los componentes del edificio se fabrican en un lugar distinto de su ubicación final antes de ser instalados.
Estos sistemas técnicos no funcionan de manera aislada, sino que dependen de un conjunto de tecnologías y metodologías transversales que garantizan su eficiencia y coherencia.
4. Los «habilitadores»: las tecnologías que lo unen todo.
Independientemente del sistema constructivo utilizado (modular, panelizado o híbrido), hay dos «habilitadores» transversales fundamentales para que la construcción moderna funcione de manera integrada y eficiente: la DfMA y la digitalización.
Diseño para la fabricación y el ensamblaje (DfMA): El DfMA no es un método de construcción, sino un «sistema operativo de diseño». Se trata de una metodología que obliga a considerar la fabricación y el ensamblaje desde las primeras etapas del diseño, en lugar de resolverlos sobre la marcha. Sus funciones clave son las siguientes:
Alinear el diseño con la realidad: asegura que el diseño arquitectónico sea compatible con las limitaciones y capacidades de la fabricación desde el principio.
Considerar la logística como diseño: incorpora variables como las tolerancias de fabricación, la secuencia de transporte y la logística de ensamblaje como parte integral del proceso de diseño.
Actuar como núcleo conector: funciona como el nexo que conecta el concepto arquitectónico con la producción industrializada, garantizando que lo que se diseña se pueda fabricar y ensamblar eficientemente.
Digitalización: es la «infraestructura de información» que coordina todo el proceso, desde el diseño hasta el ensamblaje final. Proporciona las herramientas necesarias para gestionar la complejidad de la construcción industrializada. Entre las herramientas clave se encuentran el modelado de información para la construcción (BIM), los gemelos digitales, el modelado paramétrico, los configuradores de diseño, la simulación de procesos y la robótica. Todas ellas conforman la infraestructura de información que coordina los entornos de fábrica y de obra. Con todas estas piezas —los paraguas, los ladrillos y los habilitadores— sobre la mesa, es posible entender un nuevo marco que busca unificarlo todo de manera coherente.
5. Uniendo las piezas: el marco de la neoconstrucción.
Para resolver la fragmentación y la ambigüedad conceptual que hemos analizado, la investigación propone un nuevo término integrador: «neoconstrucción». Este marco no pretende sustituir los términos existentes, sino organizarlos en una estructura lógica.
La neoconstrucción se define como un paradigma de construcción sociotécnica, coordinado digitalmente, industrializado y circular, que integra principios de fabricación, modelos organizativos orientados a plataformas y flujos de trabajo de diseño a producción, dirigidos por DfMA, para entregar sistemas del entorno construido configurables y de alto rendimiento.
Esta densa definición se puede desglosar en cinco componentes esenciales que forman el núcleo del marco:
Integración digital: coordinación basada en modelos (BIM), sistemas de configuración paramétricos y herramientas de soporte a la decisión digital, que constituyen la columna vertebral de la información que conecta el diseño, la producción y la logística.
Producción industrializada: flujos de producción estructurados, estandarización y logística coordinada que conforman la lógica subyacente al paradigma de «construcción como fabricación».
Gobernanza de plataforma: uso de plataformas de productos, definición de interfaces y de ecosistemas de cadena de suministro integrados para permitir la escalabilidad, la consistencia y la coordinación del ecosistema.
Lógicas de diseño a producción (DfMA): integración de la «fabricabilidad», tolerancias, reglas de ensamblaje y principios de diseño circular (DfMA) para garantizar que el diseño se alinee con la realidad de la fabricación y la logística.
Circularidad y rendimiento de por vida: principios de diseño para el desmontaje, la reutilización, la adaptabilidad y la recuperación de materiales para alinear el marco con los imperativos de sostenibilidad y el valor a largo plazo.
Este marco organiza de manera coherente los términos anteriores, posicionando la construcción industrializada (CI) como la «columna vertebral de la producción» y el DfMA como el «sistema operativo de diseño». Esta claridad conceptual no es solo un ejercicio académico, sino que es fundamental para el futuro de una industria que necesita innovar de manera estructurada y escalable.
6. Conclusión: de la confusión a la claridad.
Entender la jerga de la construcción moderna no es tarea imposible. Al organizar los términos en una jerarquía lógica, podemos pasar de la confusión a la claridad.
A continuación, se presenta un resumen de las distinciones clave:
MMC: es un término de política, amplio y retórico, no una categoría técnica.
IC: es una filosofía de producción centrada en la lógica de la fabricación.
OSC: es un descriptor de ubicación que indica dónde se realiza el trabajo.
Modular/panelizado: se trata de productos técnicos, los «ladrillos» del sistema.
DfMA y digitalización: son los habilitadores transversales, el «sistema operativo» y la «infraestructura de información» que lo unen todo.
Para cualquier estudiante o profesional del sector, dominar esta jerarquía proporciona una base sólida para navegar por la innovación en la construcción. La clave está en ir más allá de los términos de moda y centrarse en la lógica subyacente que realmente impulsa el cambio: una mentalidad de fabricación, un diseño integrado y una coordinación digital impecable. Solo con esta claridad conceptual, la industria podrá afrontar de manera sistemática sus grandes retos en materia de productividad, sostenibilidad y resiliencia.
En esta conversación podéis escuchar aspectos interesantes sobre este tema:
Aquí tenéis un vídeo que resume lo más interesante.
En este documento también os dejo las ideas principales del trabajo de Kremer (2025).
Figura 1. Control del nivel freático. https://www.flickr.com/photos/wsdot/4997287082/
En este artículo se analiza un documento anexo al final: una guía formal de drenaje que detalla las lecciones aprendidas durante un proyecto de ingeniería civil excepcionalmente complejo en Christchurch (Nueva Zelanda), que se llevó a cabo de 2011 a 2016 tras un terremoto. Proporciona un marco para evaluar, diseñar e implementar el drenaje en programas de reconstrucción de infraestructuras o de recuperación tras desastres naturales, con énfasis en las prácticas de construcción y la geología local.
La guía examina diversos sistemas de control del nivel freático, como sumideros, sistemas de well-points y pozos, y ofrece criterios para seleccionar los métodos según la permeabilidad del suelo y la profundidad de la excavación. Además, establece un sistema para determinar la categoría de riesgo de un proyecto de drenaje y describe las medidas necesarias para mitigar los efectos ambientales y prevenir la subsidencia del terreno.
1.0 Introducción y principios fundamentales.
1.1 La importancia crítica del control del agua subterránea.
El control del nivel freático es un factor determinante para el éxito de cualquier proyecto de construcción que implique excavaciones. Una gestión inadecuada o la ausencia de un control efectivo puede comprometer gravemente la estabilidad de las excavaciones, la integridad de las estructuras permanentes y, en última instancia, la viabilidad económica y temporal del proyecto. El agua subterránea no controlada puede generar riesgos geotécnicos significativos, como la tubificación (piping), que es la erosión interna del suelo por el flujo de agua; el levantamiento del fondo (uplift), causado por presiones ascendentes que superan el peso del suelo en la base de la excavación, y una reducción general de la estabilidad del suelo, que puede provocar fallos en los taludes. Este manual recopila las lecciones aprendidas durante el programa de reconstrucción de la infraestructura de Christchurch (SCIRT), en el que la gestión del agua subterránea en condiciones geotécnicas complejas y tras el sismo fue un desafío diario y crítico para el éxito del proyecto. Estos fenómenos no solo suponen una amenaza para la seguridad de los trabajadores, sino que también pueden ocasionar daños en infraestructuras adyacentes y provocar retrasos y sobrecostes considerables.
Figura 2. Rotura de fondo o tapozano
1.2. Propósito y alcance del manual.
El manual proporciona una guía práctica y un proceso normalizado para evaluar, seleccionar, diseñar y monitorizar los sistemas de drenaje en obras de construcción. Con base en las enseñanzas extraídas de proyectos de infraestructura complejos, este documento pretende dotar a los ingenieros y gerentes de proyecto de las herramientas necesarias para prever y gestionar los desafíos relacionados con el nivel freático. El objetivo final es reducir los costes y los retrasos asociados a problemas imprevistos mediante una planificación proactiva y un diseño técnico riguroso de las obras temporales de drenaje.
Este manual aborda el ciclo completo de la gestión del agua subterránea en la construcción e incluye:
El contexto geológico y su influencia directa en las estrategias de desagüe.
Los sistemas de control del nivel freático disponibles, sus aplicaciones y limitaciones.
La mitigación de los efectos ambientales y el cumplimiento de las normativas vigentes.
Un marco para la evaluación sistemática de riesgos y la planificación de contingencias.
El documento se centra principalmente en los métodos de control del nivel freático, que consisten en interceptar y extraer el agua subterránea mediante bombeo. También se mencionan brevemente los procedimientos de contención, como las tablestacas o los muros pantalla, que buscan bloquear el flujo de agua hacia la excavación.
Figura 3. Combinación de pantallas con (a) bombeo convencional o (b) barreras horizontales. Adaptado de Cashman y Preene (2012)
1.3. Importancia del contexto geológico.
Análisis de acuíferos: una comprensión fundamental de la hidrogeología del emplazamiento es el pilar de cualquier diseño de un drenaje. Es crucial identificar la naturaleza de los acuíferos presentes, ya sean confinados, no confinados o artesianos. La fuente del agua (por ejemplo, la infiltración de lluvia o la recarga de un río) y la presión a la que se encuentra determinan directamente la selección y la eficacia del sistema de drenaje. Por ejemplo, un acuífero confinado o artesiano puede ejercer una presión ascendente significativa, lo que requiere métodos de control más robustos que los de un simple acuífero no confinado. Este conocimiento también es importante para planificar y evitar impactos no deseados en el entorno, como la afectación de pozos de agua cercanos o la inducción de asentamientos en estructuras adyacentes.
Análisis del perfil del suelo: el comportamiento del agua subterránea está intrínsecamente ligado a las propiedades del suelo. La permeabilidad del suelo, es decir, su capacidad para permitir el paso del agua, es el factor más crítico, ya que determina la facilidad con la que se puede extraer agua mediante bombeo.
Gravas y arenas limpias: son altamente permeables y ceden agua con facilidad, pero pueden generar grandes caudales de entrada.
Limos y arcillas: presentan baja permeabilidad, ceden agua muy lentamente y son susceptibles a la consolidación y al asentamiento cuando se reduce la presión del agua.
Suelos estratificados: la presencia de capas alternas de alta y baja permeabilidad puede crear condiciones complejas, como acuíferos colgados, que requieren un diseño cuidadoso para su drenaje eficaz.
Síntesis de los desafíos geotécnicos: la interacción entre la geología local y las actividades de construcción genera una serie de desafíos específicos que deben anticiparse.
Tabla 1: Desafíos geotécnicos comunes y sus implicaciones.
Desafío geotécnico
Implicaciones para las operaciones de drenaje
Presencia de turba y suelos orgánicos
Estos suelos tienen un alto contenido de agua y son muy compresibles. El drenaje puede provocar asentamientos significativos y dañar la infraestructura cercana. Por ello, es necesario realizar una evaluación de riesgos muy cuidadosa y un seguimiento de los asentamientos.
Gravas superficiales
Las capas de grava poco profundas pueden complicar la instalación de sistemas como los well-points y generar volúmenes de entrada de agua muy elevados que superen la capacidad de los sistemas de bombeo estándar.
Riesgo de encontrar condiciones artesianas
La intercepción de un acuífero artesiano puede provocar un flujo de agua incontrolado hacia la excavación, lo que conlleva un riesgo de inundación, levantamiento del fondo y fallo catastrófico. Por ello, es necesario realizar una investigación geotécnica exhaustiva y elaborar un plan de contingencia robusto.
Niveles freáticos variables
Los niveles freáticos pueden fluctuar estacionalmente o en respuesta a eventos de lluvia. El diseño debe ser capaz de manejar el nivel freático más alto esperado, considerando que las variaciones estacionales en Christchurch pueden alcanzar hasta 3 metros.
Por lo tanto, la comprensión profunda del contexto geológico es el primer paso indispensable para realizar una evaluación sistemática de los riesgos y diseñar un sistema de control del nivel freático adecuado.
2.0 Evaluación previa a la construcción y al análisis de riesgos.
2.1 La fase crítica de planificación.
La fase previa a la construcción ofrece la oportunidad más rentable para identificar, analizar y mitigar los riesgos asociados al drenaje de aguas subterráneas. Una evaluación rigurosa en esta etapa permite diseñar adecuadamente las obras temporales, evitar fallos durante la ejecución y realizar una asignación presupuestaria precisa, lo que evita sobrecostos y retrasos imprevistos. Aunque un diseño proactivo suponga una inversión inicial, casi siempre resulta un ahorro global para el proyecto.
2.2 Pasos clave para el diseño del drenaje.
Desarrollo del modelo geotécnico: para diseñar un control del nivel freático eficaz, es esencial construir un modelo conceptual del subsuelo. Este proceso debe ser dirigido por un técnico competente y consta de los siguientes pasos:
Revisión de estudios previos: consultar fuentes de información existentes como mapas geológicos, bases de datos geotécnicas, investigaciones previas en la zona y fotografías aéreas.
Evaluación de la permeabilidad: utilizar la información disponible para estimar preliminarmente la permeabilidad de las diferentes capas del suelo.
Evaluación de riesgos inicial: realizar una evaluación de alto nivel sobre la posible presencia de suelos o aguas subterráneas contaminadas, la probabilidad de encontrar grava a poca profundidad y el riesgo de que haya condiciones artesianas.
Decisión sobre investigaciones adicionales: en función de la complejidad y el perfil de riesgo del proyecto, se debe determinar si la información existente es suficiente o si se requieren investigaciones de campo específicas (por ejemplo, sondeos o ensayos de permeabilidad) para definir adecuadamente el modelo del terreno.
Técnicas para determinar la permeabilidad: la permeabilidad es el parámetro clave que guía el diseño del control del nivel freático. La siguiente tabla resume los métodos disponibles para su determinación, ordenados aproximadamente por coste y fiabilidad.
Método
Descripción
Aplicabilidad
Coste y fiabilidad relativa
1. Empírico (registros de sondeo)
Se asignan valores de permeabilidad basados en las descripciones de los suelos obtenidas de los registros de perforación, que se comparan con valores típicos de referencia.
Útil para evaluaciones preliminares y proyectos de bajo riesgo.
Coste: el más bajo (solo horas de diseño).
Fiabilidad: baja; solo proporciona un orden de magnitud.
2. Empírico (método de Hazen)
Estimación de la permeabilidad a partir de las curvas de distribución granulométrica del suelo.
Aplicable solo si se cuenta con ensayos de granulometría en suelos arenosos.
Coste: bajo si los datos ya existen; de lo contrario, requiere muestreo y ensayos de laboratorio.
Fiabilidad: baja a moderada.
3. Ensayo de laboratorio (carga constante)
Mide el flujo de agua a través de una muestra de suelo bajo un gradiente hidráulico constante.
Adecuado para suelos con permeabilidades relativamente altas (10⁻² a 10⁻⁵ m/s), como arenas y gravas.
Coste: relativamente bajo, pero requiere la obtención de muestras inalteradas.
Fiabilidad: moderada, pero puede no ser representativa de la masa de suelo a gran escala.
4. Ensayo de laboratorio (consolidación/triaxial)
Mide la permeabilidad como parte de ensayos de consolidación o de ensayos triaxiales.
Adecuado para suelos de baja permeabilidad (≤ 10⁻⁶ m/s), como los limos y las arcillas.
Coste: relativamente bajo, pero requiere muestras inalteradas.
Fiabilidad: moderada, sujeta a las mismas limitaciones que el ensayo de carga constante.
5. Ensayo de carga instantánea (slug test)
Se induce un cambio rápido en el nivel del agua en un pozo o piezómetro y se mide la velocidad de recuperación del nivel.
Realizado in situ en la zona saturada. Puede ser demasiado rápido para suelos muy permeables.
Coste: menor que el de un ensayo de bombeo.
Fiabilidad: Proporciona una indicación de la permeabilidad local alrededor del pozo, pero no a escala de sitio.
6. Ensayo de bombeo
Se bombea agua desde un pozo a un caudal constante y se mide el abatimiento del nivel freático en el pozo de bombeo y en pozos de observación cercanos.
Proporciona datos a gran escala y es adecuado para proyectos de desagüe profundos o de larga duración.
Coste: el más alto y el que consume más tiempo (dura de 24 horas a 7 días).
Fiabilidad: la más alta, ya que mide la respuesta del acuífero a una escala representativa de las condiciones reales del proyecto.
2.3 Metodología de evaluación de riesgos
Puntuación de riesgos: Para estandarizar el nivel de análisis y supervisión requerido, se propone un sistema de puntuación de riesgos, desarrollado y probado durante el programa SCIRT, que categoriza cada proyecto de control del nivel freático. Este enfoque permite asignar los recursos de diseño de manera proporcional al riesgo identificado, de modo que los proyectos de alta complejidad reciben la atención de especialistas y los de bajo riesgo pueden gestionarse mediante prácticas normalizadas.
Matriz de categorización de riesgos: el número de categoría de riesgo (RCN) se calcula multiplicando las puntuaciones asignadas a seis áreas de riesgo clave (RCN = A x B x C x D x E x F), tal y como se muestra en la siguiente tabla:
A: Profundidad de excavación
Puntuación
B: Agua subterránea
Puntuación
C: Condiciones del terreno
Puntuación
< 2 m
1
No se requiere abatimiento
0
Suelos competentes sin necesidad de soporte temporal
1
2 – 3 m
2
Abatimiento < 1 m requerido
1
Limos y arcillas de baja permeabilidad
2
3 – 6 m
6
Abatimiento 1 – 3 m requerido
2
Arenas limosas
3
6 – 15 m
10
Abatimiento 3 – 6 m requerido
5
Turba y suelos orgánicos
3
> 15 m
12
Influencia en cuerpos de agua superficial
7
Intercepta gravas de moderada a alta permeabilidad
6
Abatimiento > 6 – 9 m requerido
10
Arenas fluidas
10
Intercepta acuífero artesiano
10
Suelos contaminados
10
Agua subterránea contaminada
10
D: Duración del drenaje
Puntuación
E: Coste de componentes del proyecto influenciados por el drenaje
Puntuación
F: Efectos en servicios, infraestructuras y propiedades adyacentes
Puntuación
Excavación abierta por 1 – 2 días
1
< $0.1M
1
Sitio sin construcciones
1
Excavación abierta < 1 semana
2
$0.1M a $0.5M
2
Vía local
2
Excavación abierta por 1 – 4 semanas
3
$0.5M a $1M
3
Vía arterial principal o secundaria
3
Excavación abierta por 1 – 6 meses
4
$1M a $5M
4
Propiedad privada a una distancia menor que la altura de la excavación o estructuras adyacentes sobre pilotes
3
Excavación abierta > 6 meses
5
> $5M
5
Autopista
4
Vías férreas
4
Estructuras históricas con cimentaciones superficiales
4
Infraestructura crítica vulnerable a asentamientos
5
Nota:El Número de Categoría de Riesgo (RCN) se calcula como el producto de las puntuaciones de las 6 áreas (A x B x C x D x E x F).
Niveles de acción de diseño recomendados: una vez calculado el RCN, la siguiente tabla define las acciones mínimas de diseño que deben llevarse a cabo.
Número de categoría de riesgo (RCN)
Consecuencia del riesgo
Acciones mínimas de diseño recomendadas
0 – 10
Bajo
• No se requiere un estudio de drenaje específico para el proyecto.
• Implementar el sistema de control del nivel freático basado en la experiencia local previa.
11 – 75
Medio
• Realizar un estudio de escritorio de alto nivel para evaluar las condiciones del terreno y los riesgos de drenaje.
• Seleccionar métodos de control de nivel freático apropiados considerando restricciones y riesgos.
• Realizar cálculos manuales simples para verificar la idoneidad del diseño de las obras temporales.
76 – 2,500
Alto
• Realizar un estudio de escritorio detallado.
• Confirmar las condiciones del terreno y la granulometría mediante al menos un sondeo.
• Realizar cálculos de diseño de drenaje (de simples a complejos según corresponda).
• Desarrollar e implementar un plan de control de asentamientos simple si es necesario.
• Controlar de cerca los sólidos en suspensión durante la descarga.
2,500 – 187,500
Muy Alto
• Revisar un informe geotécnico detallado.
• Contratar a un técnico cualificado y experimentado para brindar asesoramiento profesional.
• Realizar investigaciones de campo adicionales (p. ej., ensayos de permeabilidad, ensayos de bombeo).
• Desarrollar e implementar un plan de control de asentamientos.
• Realizar inspecciones de la condición de las propiedades adyacentes antes de comenzar los trabajos.
Una vez evaluado el riesgo y definido el nivel de diseño requerido, el siguiente paso es comprender en detalle las prácticas y metodologías de drenaje disponibles para su ejecución en campo.
3.0 Métodos y prácticas de control del nivel freático
3.1 Introducción a las metodologías
Los métodos de control del nivel freático más comunes en la construcción se basan en la extracción de agua del subsuelo para reducir dicho nivel. La elección del método más adecuado es una decisión técnica que depende fundamentalmente de las condiciones del suelo, la profundidad de la excavación, el caudal de agua previsto y los objetivos específicos del proyecto. Cada método tiene sus propias ventajas y limitaciones, que deben evaluarse cuidadosamente.
Descripción y aplicación: el bombeo desde sumideros es el método más simple y, a menudo, el más económico. Consiste en excavar zanjas o pozos (sumideros) en el punto más bajo de la excavación para que el agua subterránea fluya por gravedad hacia ellos y, desde allí, sea bombeada y evacuada. Este método es efectivo en suelos con permeabilidad alta o moderada, como las gravas y las arenas gruesas. Su principal limitación es que el agua fluye hacia la excavación antes de ser controlada, lo que puede causar inestabilidad en los taludes y en el fondo. Existe un alto riesgo de tubificación (piping) y de arrastre de finos, lo que puede provocar asentamientos y generar una descarga de agua cargada de sedimentos que requiere un tratamiento exhaustivo.
Requisitos de diseño e instalación: para que un sumidero sea eficaz, debe cumplir los siguientes requisitos:
Profundidad: Suficiente para drenar la excavación y permitir la acumulación de sedimentos sin afectar la toma de la bomba.
Tamaño: Mucho mayor que el de la bomba para facilitar la limpieza y el mantenimiento.
Filtro: El sumidero debe estar protegido con una tubería ranurada o perforada, rodeada de grava gruesa (20-40 mm) para evitar la succión de partículas finas del suelo.
Acceso: Debe permitir la retirada de las bombas para el mantenimiento y la limpieza periódica de los sedimentos acumulados.
Como mejor práctica, se recomienda sobreexcavar el fondo del sumidero y rellenarlo con material grueso para elevar la entrada de la bomba y minimizar la movilización de partículas finas.
Figura 4. Esquema de sumidero y bomba de achique para pequeñas excavaciones, basado en Powers (1992).
Análisis comparativo
Ventajas
Inconvenientes
• Coste relativamente bajo.
• Moviliza sedimentos del terreno, lo que requiere tratamiento de la descarga.
• Equipos móviles y fáciles de instalar y operar.
• No puede utilizarse en «arenas fluidas».
• Solo opera durante los trabajos de construcción.
• Tiene un alto potencial de liberar sedimentos en el medio ambiente y es el método más común para incumplir las condiciones de los permisos ambientales.
Descripción y aplicación: un sistema de well-points consiste en una serie de tubos de pequeño diámetro (aproximadamente 50 mm) con una sección ranurada en el extremo inferior. Estos tubos se instalan en el terreno a intervalos regulares. Estos tubos, también denominados «puntas de lanza», se conectan a un colector principal, que, a su vez, está conectado a una bomba de vacío. La bomba crea un vacío en el sistema que extrae el agua del subsuelo.
Este método es particularmente efectivo en arenas o suelos con capas de arena. Su principal limitación es la altura de succión, que en condiciones cercanas al nivel del mar es de hasta 8 metros. Para excavaciones más profundas, sería necesario utilizar sistemas escalonados en las bermas.
Consideraciones de diseño
Espaciamiento: el espaciamiento entre los pozos de extracción (que suele oscilar entre 0,6 y 3 m) depende de la permeabilidad del suelo, de la geometría de la excavación y del abatimiento requerido. Cuanto más permeable es el suelo, menor debe ser el espaciamiento.
Paquetes de filtro: en suelos finos o estratificados, es crucial instalar un paquete de filtro (generalmente, arena de textura media a gruesa) alrededor de cada pozo de extracción. Así se evita el bombeo de finos y se crea una ruta de drenaje vertical más eficiente.
Figura 5. Componentes del sistema. Cortesía de ISCHEBECK. http://www.ischebeck.es/assets/wp-content/uploads/agotamiento_agua/Cat%C3%A1logo%20Wellpoint%2016022012.pdf
Análisis comparativo
Ventajas
Inconvenientes
• Descarga limpia: Una vez establecido, el sistema extrae agua limpia que requiere poco o ningún tratamiento.
• El desagüe debe realizarse muy cerca del área de trabajo.
• Abatimiento localizado del nivel freático, lo que resulta en menores volúmenes de descarga.
• Funciona mejor en suelos uniformes.
• La instalación puede ocupar un espacio considerable en el entorno vial.
• Requiere experiencia para una instalación y colocación efectivas.
• Potencial de rendimiento (caudal) y de abatimiento limitados por la altura de succión.
3.4 Pozos de bombeo profundo (dewatering wells)
Descripción y aplicación: los pozos de bombeo profundo son pozos perforados de mayor diámetro y profundidad que los well-points y están equipados con una bomba sumergible. Se trata de un sistema de ingeniería que debe ser diseñado por un especialista. Cada pozo incluye componentes clave, como una rejilla dimensionada para el terreno, un paquete de filtro diseñado específicamente y un sello anular en la superficie para evitar la recarga superficial.
Este método es adecuado para excavaciones grandes, profundas o de larga duración y puede manejar grandes caudales de agua.
Consideraciones de diseño: el diseño de un sistema de pozos profundos requiere un análisis detallado de los siguientes parámetros:
Profundidad y diámetro del pozo: el diámetro debe ser suficiente para alojar la bomba necesaria y la profundidad debe ser significativamente mayor que el abatimiento deseado.
Tamaño de la ranura de la rejilla: se diseña en función del tamaño de grano del suelo o del material filtrante para maximizar la entrada de agua y minimizar la entrada de partículas finas.
Diseño del filtro: el filtro granular que rodea la rejilla es fundamental para evitar que los materiales finos del acuífero migren hacia el pozo.
Distancia entre pozos: Los pozos se espacian típicamente entre 10 y 50 metros. Su diseño es complejo, ya que se basa en la interacción entre los conos de abatimiento de cada pozo.
Figura 6. Agotamiento profundo del nivel freático mediante un pozo filtrante. Elaboración propia basado en Pérez Valcárcel (2004).
Análisis comparativo
Ventajas
Inconvenientes
• Ideal para excavaciones de gran envergadura y proyectos de larga duración.
• Si se extrae más agua de la necesaria, puede afectar a un área mayor de la prevista, lo que puede causar problemas de asentamiento en suelos compresibles (por ejemplo, turba).
• Descarga limpia una vez que el pozo está desarrollado correctamente.
• Puede requerir un tiempo de preparación más largo para lograr el abatimiento del nivel freático.
• Alta capacidad de bombeo, superando problemas de variabilidad del suelo.
• Se requiere un mayor nivel de diseño, planificación y ensayos de campo, como los ensayos de bombeo.
• Puede instalarse fuera del área de trabajo directa, liberando espacio en las zonas congestionadas.
• Las bombas sumergibles son mucho más silenciosas, ideales para áreas sensibles al ruido.
Tras describir los métodos individuales, el siguiente paso lógico es proporcionar una guía clara para seleccionar el sistema más apropiado para cada situación en el campo.
4.0 Selección del método apropiado
4.1 Una decisión estratégica
La elección del sistema de control del nivel freático adecuado es una decisión estratégica que debe equilibrar la eficacia técnica, el coste de implementación y de operación y el impacto ambiental potencial. Una elección informada no se basa en la intuición, sino en la recopilación y el análisis de datos específicos del emplazamiento. Una elección incorrecta puede provocar un rendimiento deficiente, sobrecostes y retrasos significativos en el proyecto.
4.2 Datos clave para la decisión
Para tomar una decisión fundamentada sobre el método de drenaje, es imprescindible recopilar la siguiente información:
Perfil y tipo de suelo, incluyendo la permeabilidad de cada estrato.
Dimensiones de la excavación: ancho, largo y profundidad.
Nivel freático existente, así como el nivel al que se necesita bajar (abatimiento requerido).
Método de excavación y soporte propuesto: por ejemplo, taludes abiertos o tablestacas.
Proximidad a estructuras existentes, cursos de agua y otras infraestructuras sensibles.
4.3 Matriz de decisión
La siguiente tabla sirve de guía para seleccionar una metodología de drenaje según el tipo de suelo predominante.
Guía para la selección de métodos de drenaje según el tipo de suelo.
Tipo de suelo
Tasa de flujo de agua subterránea
Posibles problemas
Metodología de drenaje recomendada
Gravas / cantos
Alta
Se requieren grandes flujos de agua que pueden provenir de pozos profundos para excavaciones profundas o de sumideros para excavaciones superficiales.
Pozos de bombeo profundo y de bombeo desde sumideros.
Arena
Baja a media
Baja estabilidad de la zanja si se permite que la arena fluya hacia la excavación (arena fluida).
Sistemas well-point.
Limo
Baja
Estabilidad variable y bajo rendimiento de agua, lo que puede requerir un espaciado muy reducido de las puntas de lanza y provocar perching localizado.
Sistemas de puntas de lanza (well-pointing) y de bombeo desde sumideros.
Arcilla
Muy baja
Se han detectado problemas mínimos de estabilidad de la zanja y una posible formación de un nivel freático colgado localizado.
Sistemas de puntas de lanza (well-pointing) y de bombeo desde sumideros.
Turba
Variable (baja a alta)
El drenaje puede provocar la compresión de las capas, lo que provoca asentamientos y daños en los terrenos y en la infraestructura circundantes.
Se requiere asesoramiento especializado.
Suelos mixtos
Variable (baja a alta)
La metodología se basa generalmente en el tipo de suelo predominante y en la unidad geológica que presenta el mayor rendimiento hídrico.
Depende de la hidrogeología y de la unidad geológica de mayor rendimiento hídrico.
4.4 Criterios de aplicación específicos
Condiciones que favorecen el bombeo desde sumideros (sump pumping):
Suelos como grava arenosa bien graduada, grava limpia o arcilla firme o rígida.
Acuífero no confinado.
Se requiere un abatimiento moderado y no hay fuentes de recarga cercanas (por ejemplo, un arroyo).
La excavación tiene taludes poco pronunciados o está protegida por tablestacas hincadas a gran profundidad.
Cargas de cimentación ligeras.
Condiciones que favorecen los sistemas well-point:
Suelos arenosos o interestratificados que incluyan arenas (permeabilidad k = 10⁻³ a 10⁻⁵ m/s).
Acuífero no confinado.
Se requiere un abatimiento de 5 metros o menos (o de hasta 10 metros si el área de excavación es grande y permite sistemas escalonados).
Condiciones que favorecen la instalación de pozos de bombeo profundo (wells):
Las condiciones del terreno son demasiado permeables como para que los well-points sean viables.
Suelos limosos que requieren un diseño de filtro preciso.
Se requiere un abatimiento de más de 8 metros o un abatimiento en un área extensa durante un período prolongado.
El acceso a la excavación está restringido o el lugar está congestionado (los pozos pueden ubicarse fuera de las zonas de trabajo).
Independientemente del método elegido, es imperativo gestionar los impactos ambientales asociados, un aspecto crucial que se detallará en la siguiente sección.
Figura 7. Selección del método de drenaje adecuado.
5.0 Mitigación de efectos ambientales y gestión de impactos
5.1 Responsabilidad ambiental y cumplimiento normativo
La gestión del agua subterránea no termina con su extracción, sino que conlleva la responsabilidad de cumplir con la normativa medioambiental y minimizar cualquier impacto negativo en el entorno. Una planificación cuidadosa debe abordar dos aspectos principales: la gestión de la calidad del agua de descarga para proteger los cuerpos de agua receptores y la prevención del asentamiento del terreno, que podría dañar la infraestructura y las propiedades adyacentes.
5.2 Gestión de la calidad del agua extraída
Sólidos en suspensión totales (TSS): el agua bombeada desde una excavación, especialmente desde sumideros, a menudo presenta una alta concentración de sedimentos. La normativa medioambiental exige que esta agua sea tratada para eliminar los sólidos antes de su vertido. Por ejemplo, muchos permisos establecen un límite de 150 g/m³ de TSS. Para el control in situ, una herramienta práctica es la evaluación visual comparativa. En un laboratorio, se pueden preparar muestras estándar con concentraciones conocidas de TSS (por ejemplo, 150 g/m³), que sirven como referencia visual para compararlas rápidamente con las muestras de descarga tomadas en el lugar, lo que permite tomar medidas correctivas inmediatas en caso de observar una turbidez excesiva.
Agua subterránea contaminada: existe el riesgo de encontrar contaminantes en el agua subterránea, especialmente en áreas urbanas o industriales con un historial de actividades potencialmente contaminantes. Durante la fase de planificación, es crucial identificar las zonas de riesgo. Si el proyecto se ubica en una de estas zonas o si se sospecha de contaminación, deberán realizarse muestreos específicos del agua subterránea para analizar la presencia y concentración de contaminantes. Así se puede planificar un sistema de tratamiento adecuado si fuera necesario.
5.3 Métodos de tratamiento de la descarga
Los tanques de sedimentación son el método principal y más común para tratar la descarga. Su principio de funcionamiento es sencillo: reducir la velocidad del flujo de agua para que las partículas de sedimento se asienten por gravedad. Un diseño eficaz incluye cuatro zonas funcionales:
Zona de entrada: Distribuye el flujo de manera uniforme para evitar turbulencias.
Zona de asentamiento: El área principal donde ocurre la sedimentación.
Zona de recolección: El fondo del tanque donde se acumulan los sedimentos.
Zona de salida: Recolecta el agua clarificada para su descarga.
El dimensionamiento adecuado del tanque es fundamental y debe basarse en el caudal de bombeo y el tamaño de las partículas a eliminar.
Otros métodos
Filtrado a través de la vegetación: El agua se descarga sobre una superficie cubierta de vegetación densa (por ejemplo, césped), que actúa como un filtro natural. Este método solo es adecuado como tratamiento secundario tras un tanque de sedimentación.
Bolsas de control de sedimentos: Se trata de bolsas de geotextil que se conectan a la salida de la bomba y filtran los sedimentos. Son útiles para caudales bajos y áreas pequeñas, pero pueden obstruirse rápidamente ante altas concentraciones de sedimentos.
5.4 Control del asentamiento del terreno
Causas y riesgos: El abatimiento del nivel freático puede provocar asentamientos del terreno por tres mecanismos principales:
Aumento de la tensión efectiva: al descender el nivel freático, disminuye la presión del agua en los poros del suelo, lo que incrementa la carga que puede soportar el esqueleto sólido del suelo. Esto provoca su compresión y el consiguiente hundimiento de la superficie.
Pérdida de finos: Un diseño de filtro inadecuado o velocidades de flujo excesivas pueden arrastrar partículas finas del suelo y generar vacíos, lo que provoca asentamientos localizados.
Inestabilidad de los taludes: una reducción insuficiente de las presiones de poro o un control inadecuado de las filtraciones puede comprometer la estabilidad de los taludes de la excavación, lo que provoca fallos localizados y desprendimientos de material.
Los suelos blandos y de baja permeabilidad, como los limos, las arcillas y los suelos orgánicos (turba), son los más susceptibles a sufrir asentamientos significativos por consolidación.
Estrategias de mitigación: Para minimizar el riesgo de asentamientos perjudiciales, deben implementarse las siguientes estrategias:
Diseño adecuado de los filtros: hay que asegurarse de que los filtros de pozos o well-points estén correctamente dimensionados para retener las partículas del suelo.
Control de finos: controlar la cantidad de sólidos disueltos en el agua de descarga. Un aumento sostenido puede indicar una posible pérdida de material del subsuelo.
Control del radio de influencia: diseñar el sistema para limitar la bajada del nivel freático más allá de los límites de la zona, utilizando, si es necesario, barreras de corte o pozos de reinyección.
Control de los asentamientos en el terreno: implementar un plan de supervisión para detectar cualquier movimiento del terreno.
Control de asentamientos: Se debe establecer un plan de supervisión que incluya la instalación de marcadores topográficos en edificios y estructuras cercanos. Es fundamental contar con un punto de referencia estable ubicado fuera de la zona de influencia del drenaje. Se deben establecer umbrales de alerta y de actuación para los asentamientos medidos. Si se alcanzan estos umbrales, se deben adoptar medidas correctivas que pueden ir desde la modificación del funcionamiento de la estación de bombeo hasta la interrupción total del drenaje.
La gestión proactiva de estos riesgos operativos y medioambientales debe complementarse con la preparación ante eventos inesperados, lo que nos lleva a la planificación de contingencias.
6.0 Planificación de contingencias: intercepción accidental de acuíferos artesianos
6.1 Preparación para lo imprevisto.
A pesar de una planificación y ejecución cuidadosas, siempre existe la posibilidad de toparse con condiciones geológicas imprevistas, como la intercepción de un acuífero artesiano o la aparición de caudales de entrada mucho mayores de lo esperado. Estas situaciones pueden escalar rápidamente y provocar un colapso catastrófico de la excavación. Por lo tanto, una preparación adecuada y un plan de respuesta rápida no son opcionales, sino parte esencial de la gestión de riesgos en cualquier proyecto de drenaje.
6.2 Medidas preparatorias
Procedimientos operativos: Antes de iniciar cualquier trabajo de excavación o perforación en zonas de riesgo, se deben establecer los siguientes procedimientos:
Realizar investigaciones geotécnicas adecuadas para identificar la posible presencia de acuíferos artesianos.
Disponer de medios para cerrar rápidamente los pozos de bombeo o las puntas de lanza si se detecta un flujo incontrolado.
Localizar de antemano proveedores de emergencia de materiales como cemento Portland, bentonita y geotextil.
Comprender el procedimiento de cálculo del diseño de la mezcla de lechada para detener el flujo. Se debe medir la carga artesiana y añadir la mezcla de lechada para lograr un equilibrio de presión.
Establecer y distribuir una lista de contactos de emergencia que incluya al ingeniero del proyecto, al contratista de desagüe y a las autoridades ambientales pertinentes.
Equipamiento de emergencia Se debe tener disponible en el sitio el siguiente equipamiento y suministros de emergencia, según el sistema en uso:
Para sistemas well-point:
Chips de bentonita no recubiertos para el sellado del collar.
Válvulas para instalar en todas las tuberías de well-points en áreas con sospecha de presión artesiana.
Equipo de inyección de lechada de cemento y suministros.
Geotextil y sacos de arena.
Para pozos de bombeo profundo:
Chips de bentonita no recubiertos para el sellado del collar.
Obturadores, tubería ascendente, manómetros y accesorios apropiados para cortar el flujo y medir la presión.
Equipo de inyección de lechada de cemento y suministros.
Geotextil y sacos de arena.
Lodo de perforación polimérico para compensar y suprimir flujos artesianos bajos durante la perforación del pozo.
Además, es necesario contar con un teléfono móvil con cámara, secciones de tubería extensibles para medir la altura de la presión artesiana y el diseño de la mezcla de lechada de contingencia.
6.3 Protocolo de implantación y respuesta
Pasos inmediatos: En caso de detectar un flujo de agua incontrolado, se debe seguir el siguiente protocolo de manera inmediata y secuencial:
Evaluar la situación: Determinar si el caudal y la turbidez del agua son constantes o están aumentando. Verificar si el flujo está confinado al pozo o se está extendiendo por la excavación.
Notificar al ingeniero y al gerente del proyecto: Proporcionar una descripción detallada de las condiciones, el caudal estimado y los eventos que llevaron al incidente. Enviar fotografías o videos en tiempo real si es posible.
Notificar a las autoridades pertinentes: Informar a las autoridades ambientales y a otras partes interesadas sobre la situación y las medidas de contención planificadas.
Acciones de emergencia: Una vez notificado el incidente, se pueden tomar una o más de las siguientes acciones de emergencia para controlar la situación:
Rellenar la excavación: Comenzar a rellenarla con material hasta que el peso del relleno sea suficiente para controlar el flujo y el transporte de sedimentos.
Medir la presión artesiana: Utilizar secciones de tubería para medir la altura a la que llega el agua y así determinar la presión del acuífero.
Controlar la descarga: Dirigir cualquier descarga de agua a través de las medidas de control de erosión y sedimentos establecidas en el sitio.
Inundar la excavación: Como medida drástica, rellenar la excavación con agua hasta el nivel freático original para equilibrar las presiones y estabilizar la situación mientras se reconsidera el diseño.
La combinación de una planificación rigurosa, una ejecución cuidadosa y una preparación exhaustiva ante contingencias es la clave para una gestión exitosa y segura del agua subterránea en cualquier proyecto de construcción.
En este audio podéis escuchar una conversación sobre este tema.
Este es un vídeo que resume bien las ideas principales.
Os dejo el documento completo; espero que os sea de interés.
CASHMAN, P.M.; and PREENE, M. (2012). Groundwater Lowering in Construction: A Practical Guide to Dewatering, 2nd edition. CRC Press, Boca Raton, 645 pp.
HERTZ, W.; ARNDTS, E. (1973). Theorie und praxis der grundwasserabsenkung. Ernst & Sohn, Berlin.
JUSTO ALPAÑES, J.L.; BAUZÁ, J.D. (2010). Tema 10: Excavaciones y drenajes. Curso de doctorado: El requisito básico de seguridad estructural en la ley orgánica de la edificación. Código Técnico de la Edificación. ETS. de Arquitectura, Universidad de Sevilla.
MUZAS, F. (2007). Mecánica del suelo y cimentaciones, Vol. II. Universidad Nacional de Educación a Distancia, Madrid.
POWERS, J.P. (1992). Construction dewatering: New methods and applications. Ed. Wiley et al., New York.
PREENE, M.; ROBERTS, T.O.L.; POWRIE, W. (2016). Groundwater Control – Design and Practice, 2nd Edition. Construction Industry Research and Information Association, CIRIA Report C750, London.
SCHULZE, W.E.; SIMMER, K. (1978). Cimentaciones. Editorial Blume, Madrid, 365 pp.
TOMLINSON, M.J. (1982). Diseño y construcción de cimientos. URMO, S.A. de Ediciones, Bilbao, 825 pp.