El desastre silencioso bajo tus pies: la verdad sobre los suelos expansivos

Arcillas expansivas. https://archxde.com/arcillas-expansivas/

Pocas cosas simbolizan mejor la estabilidad que los cimientos de una construcción. Representan la frontera entre la arquitectura y la tierra firme. Sin embargo, bajo esa aparente solidez se esconde un enemigo persistente y silencioso: los suelos expansivos.

Lejos de ser una masa inerte, el suelo es un sistema vivo y dinámico que responde a los cambios de humedad con una energía capaz de fracturar losas, deformar zapatas y arruinar viviendas enteras.

Estos suelos, ricos en minerales arcillosos activos (principalmente montmorillonita o esmectita), pueden aumentar de volumen cuando se humedecen y contraerse al secarse, lo que provoca movimientos verticales y horizontales que, en muchos casos, superan la resistencia de las estructuras apoyadas sobre ellos. La magnitud de estos cambios depende de la mineralogía, la fracción de arcilla, la capacidad de intercambio catiónico y la succión matricial, es decir, la tensión negativa del agua en los poros del suelo.

Su comportamiento, descrito con precisión en la teoría de los suelos no saturados por Fredlund y Rahardjo (1993), convierte a estas arcillas en uno de los materiales más complejos y peligrosos de la ingeniería civil.

1. Un desastre oculto, más costoso que los terremotos.

Los suelos expansivos no acaparan titulares, pero su impacto económico es asombroso. Según Jones y Holtz (1973), este tipo de suelos causa más daños estructurales anuales que todos los demás fenómenos naturales combinados, incluidos los terremotos y las inundaciones. Krohn y Slosson estimaron que, solo en Estados Unidos, las pérdidas anuales ascendían a 7000 millones de dólares, una cifra que no ha dejado de crecer con la expansión urbana.

La causa de esta devastación radica en la naturaleza progresiva y acumulativa del fenómeno. Mientras que un seísmo actúa en segundos, la expansión del suelo opera día a día, modificando lentamente las condiciones de apoyo. Su carácter insidioso le ha valido el apodo de «el desastre oculto».

El daño estructural comienza con movimientos diferenciales de pocos milímetros, que al principio son imperceptibles, pero que con el tiempo se transforman en grietas en los muros, inclinaciones de losas o puertas que ya no cierran. Lo más preocupante es que estos síntomas suelen interpretarse como defectos de construcción, cuando en realidad son la manifestación visible de un proceso geotécnico profundo.

Agrietamiento de estructura por movimiento céntrico (Fredlund y Rahardjo, 1993)

2. La paradoja de la ligereza: las casas pequeñas son las más afectadas.

Resulta sorprendente que las estructuras ligeras se vean más afectadas por este fenómeno. Uno podría pensar que los edificios más pesados son los más susceptibles al movimiento del terreno, pero ocurre lo contrario.

Los suelos expansivos ejercen presiones de hinchamiento considerables, pero los proyectos a gran escala suelen incluir estudios de mecánica de suelos, pruebas de laboratorio (como las de hinchamiento libre o de volumen constante, según ASTM D4546) y diseños de cimentación apropiados. En cambio, las viviendas unifamiliares y las edificaciones ligeras, al considerarse de carga reducida, se construyen con escasa o nula investigación geotécnica y, a menudo, se basan en prácticas empíricas.

Fredlund (1993) señala que las estructuras que sufren mayores daños son precisamente aquellas que tuvieron un diseño de ingeniería menor antes de la construcción. A esto se suma un factor económico: los ingenieros geotécnicos suelen mostrarse reacios a intervenir en proyectos residenciales porque los honorarios son bajos en comparación con el alto riesgo de litigio. El resultado es un círculo vicioso: casas mal cimentadas sobre suelos hiperactivos que, con el tiempo, se deforman de forma irremediable.

3. La trampa de la compactación: cuando «mejorar» el terreno lo empeora.

A primera vista, compactar un suelo parece una acción positiva. En la mayoría de los casos, aumenta la densidad y la capacidad portante. Sin embargo, en los suelos expansivos, la compactación puede ser una trampa técnica.

Holtz y Gibbs (1956) demostraron que una compactación a alta densidad y bajo contenido de humedad incrementa significativamente el potencial de hinchamiento. Las partículas de arcilla, con carga negativa, se acercan tanto que acumulan una gran energía potencial de repulsión electrostática. Cuando posteriormente penetra agua, las moléculas se insertan entre las láminas cristalinas y las separan bruscamente, lo que provoca una expansión volumétrica explosiva.

El mismo estudio reveló que compactar por encima del contenido óptimo de agua reduce el potencial de expansión. En otras palabras, la práctica tradicional de buscar la máxima densidad seca puede resultar contraproducente. Comprender esta paradoja es esencial para la ingeniería moderna: no todos los suelos deben compactarse de la misma manera y, en algunos casos, un exceso de «mejora» puede acarrear un fracaso futuro.

4. Soluciones que desafían la lógica: cómo responde la ingeniería al suelo.

El reto de los suelos expansivos no consiste en vencer su fuerza, sino en comprender su dinámica. Por ello, las soluciones más efectivas no buscan resistir el movimiento del terreno, sino controlar la humedad o aislar la estructura de sus variaciones.

Entre las estrategias más estudiadas se encuentran:

  • Prehumedecimiento, una idea fallida: En teoría, saturar el suelo antes de construir debería eliminar su capacidad de expansión. En la práctica, esto rara vez funciona. Fredlund (1993) advierte que, durante el prehumedecimiento, las capas superiores se hinchan y sellan el suelo, impidiendo que el agua alcance los estratos más profundos. El resultado es una expansión parcial y una falsa sensación de seguridad, ya que el suelo parece estable hasta que, años después, las capas profundas se hidratan lentamente y la estructura comienza a levantarse.
  • Barreras capilares, el poder de una paradoja: Una de las técnicas más elegantes es la barrera capilar, que consiste en colocar sobre el suelo expansivo una capa de material granular grueso, como grava o arena. A simple vista parece absurdo: ¿cómo se puede proteger una arcilla del agua cubriéndola con un material permeable? Sin embargo, la física de los suelos no saturados demuestra que, cuando la grava se mantiene con baja saturación, su capacidad de transmisión capilar disminuye drásticamente y el agua infiltrada se almacena cerca de la superficie. Así, la humedad se evapora antes de llegar a las arcillas subyacentes. En palabras de Fredlund y Rahardjo (1993), esta técnica «reduce significativamente el flujo descendente de agua y estabiliza el régimen de humedad del perfil».
  • Estabilización química y control ambiental: El tratamiento con cal puede reducir la plasticidad y la actividad de las arcillas, convirtiéndolas en materiales prácticamente inertes. Asimismo, son indispensables el control del drenaje superficial, la prevención de fugas subterráneas y la exclusión de raíces profundas. No se trata solo de una cuestión estructural, sino también de una cuestión hidrológica y ambiental: la humedad del suelo debe mantenerse lo más constante posible.

Conclusión: hay que escuchar al suelo antes de construir.

El suelo no es un enemigo, sino un sistema natural que exige ser comprendido. Su comportamiento responde a leyes físico-químicas y climáticas que la ingeniería puede medir, modelar y respetar. Ignorarlas es, literalmente, construir sobre terreno inestable. El fenómeno de los suelos expansivos nos recuerda una verdad fundamental: no hay cimiento sólido sobre un terreno mal entendido. Cada grieta que aparece en una pared, cada losa que se levanta, es la voz del subsuelo que nos recuerda que el diseño estructural comienza mucho antes de colocar el primer ladrillo; comienza con el conocimiento del terreno.

Referencias

  • Fredlund, D. G., & Rahardjo, H. (1993). Soil mechanics for unsaturated soils. John Wiley & Sons.

  • Fredlund, D. G. (1983). Prediction of ground movements in swelling clays. En 31st Annual ASCE Soil Mechanics and Foundation Engineering Conference (Ponencia). Minneapolis, MN, Estados Unidos.

  • Holtz, W. G., & Gibbs, H. J. (1956). Engineering properties of expansive soils. Transactions of the American Society of Civil Engineers, 121, 641–663.

  • Jones, D. E., Jr., & Holtz, W. G. (1973). Expansive soils — The hidden disaster. Civil Engineering (ASCE), 43(8), 49–51.

  • Krohn, J. P., & Slosson, J. E. (1980). Assessment of expansive soils in the United States. En D. J. Miller (Ed.), Proceedings of the Fourth International Conference on Expansive Soils (pp. 596–608). ASCE.

  • Nelson, J. D., & Miller, D. J. (1992). Expansive soils: Problems and practice in foundation and pavement engineering. John Wiley & Sons.

  • Van der Merwe, D. H. (1964). The prediction of heave from the plasticity index and percent fraction of soils. Civil Engineering in South Africa, 6(6), 103–107.

  • Skempton, A. W. (1953). The colloidal activity of clays. En Proceedings of the 3rd International Conference on Soil Mechanics and Foundation Engineering (Vol. 1, pp. 57–61). International Society for Soil Mechanics and Foundation Engineering.

  • Hamilton, J. J. (1969). Effects of environment on the performance of shallow foundations. Canadian Geotechnical Journal, 6(1), 65–80.

Cursos:

Curso de Procedimientos de Construcción de cimentaciones y estructuras de contención en obra civil y edificación.

Curso de compactación superficial y profunda de suelos en obras de ingeniería civil y edificación.

En este audio tenéis una conversación sobre este tema tan relevante.

Un vídeo que resume el contenido del tema, con carácter divulgativo, lo tenéis aquí:

Aquí también tenéis un vídeo sobre cómo identificar estas arcillas expansivas en el laboratorio de suelos.

Os dejo un documento técnico de la empresa Geopier. Espero que os resulte de interés.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Sir Edmund “Ted” Happold: un ingeniero que unió arte, técnica y humanidad

Sir Edmund Happold (1930 –  1996). https://www.burohappold.com/news/celebrating-30-years-of-the-happold-foundation/

Sir Edmund «Ted» Happold (Leeds, 8 de noviembre de 1930 – Bath, 12 de enero de 1996) fue una de las figuras más singulares y admiradas de la ingeniería estructural del siglo XX. Conocido como «ingeniero del arquitecto y arquitecto del ingeniero», defendía que «un mundo que ve el arte y la ingeniería como ámbitos separados no está viendo el mundo en su conjunto». Su reputación internacional se cimentó en su enfoque creativo y profundamente humano del diseño estructural, así como en su participación directa en el desarrollo de los principios estructurales de algunos de los edificios más emblemáticos de la arquitectura moderna.

Nacido en el seno de una familia académica, era hijo de Frank Happold, profesor de bioquímica en la Universidad de Leeds, y de una madre socialista convencida. Criado en un ambiente de pensamiento crítico y compromiso social, Happold estudió en el Leeds Grammar School, aunque su paso por este centro fue conflictivo, ya que se negó a unirse al cuerpo de adiestramiento militar juvenil por convicción pacifista. Posteriormente, lo enviaron al Bootham School de York, un colegio cuáquero cuyo entorno se ajustaba mejor a sus valores. Fiel a su fe cuáquera durante toda su vida, cuando fue llamado a filas, se registró como objetor de conciencia y fue destinado a trabajos agrícolas y de transporte. Esta experiencia despertó su interés por la construcción y lo llevó de nuevo a la Universidad de Leeds, donde se licenció en ingeniería civil en 1957, tras haber estudiado previamente geología.

Tras graduarse, trabajó brevemente con el arquitecto finlandés Alvar Aalto, lo que reforzó su visión integradora entre ingeniería y arquitectura. En 1956, se incorporó a Ove Arup & Partners, una de las firmas más innovadoras de la época, que en aquellos años participó en el diseño estructural de la catedral de Coventry, de Basil Spence, y de la ópera de Sídney, de Jørn Utzon. Su talento y curiosidad le llevaron a estudiar arquitectura por las noches, convencido de que la ingeniería debía dialogar con el arte y el espacio.

En 1958 viajó a Estados Unidos para trabajar con Fred Severud en la consultora Severud, Elstad y Kruger de Nueva York. Allí se vio profundamente influido por Eero Saarinen y su estadio de hockey, David S. Ingalls, de la Universidad de Yale, con sus cubiertas orgánicas y tensadas. De vuelta en Londres en 1961, retomó su carrera en Ove Arup, donde pronto destacó por su capacidad de liderazgo y su visión interdisciplinar.

Durante su etapa en Arup, Happold colaboró con equipos de arquitectos, como el de Sir Basil Spence, en los proyectos de la Universidad de Sussex y de los Knightsbridge Barracks, y con el arquitecto Ted Hollamby, en el ayuntamiento de Lambeth. Allí trabajó en proyectos de vivienda social, como Central Hill, y en equipamientos públicos, como la biblioteca y el auditorio de West Norwood, donde se casó con Evelyn Matthews en 1967.

Su progresión fue meteórica: en 1967 se convirtió en jefe del departamento Structures 3 de Ove Arup, unidad que impulsó una nueva generación de estructuras ligeras y experimentales. Desde ese puesto, participó en proyectos internacionales, como el Centro Pompidou de París, ganador del concurso de 1971, junto a Richard RogersRenzo PianoPeter Rice y su equipo. Rogers reconocería años después que «todo fue idea de Ted». También colaboró en el Teatro Crucible de Sheffield (con Renton, Howard, Wood y Levin) y en la ampliación Sainsbury del Worcester College de Oxford (con MacCormac, Jamieson y Prichard).

Centro Pompidou de París. https://de.wikipedia.org/wiki/Edmund_Happold

Durante este tiempo, Happold mantuvo una estrecha colaboración con el arquitecto e ingeniero Frei Otto, con quien fundó un laboratorio para el estudio de estructuras tensadas y neumáticas. Junto a Rolf Gutbrod y Otto, desarrolló proyectos innovadores en Oriente Medio, como el Centro de Conferencias de Riad (1966), un complejo hotelero en La Meca (1966), premiado con el Aga Khan Award, y, más tarde, el Club Diplomático de Riad (1986) y el Pabellón Deportivo del Rey Abdul Aziz en Yeda (1977). También colaboró con ellos en los pabellones de la Exposición de Jardines de Mannheim (1975) y, junto a Otto y Richard Burton (de ABK), en los experimentos con madera verde estructural en Hooke Park, Dorset (1985-1991).

Pabellón para la Exposición Federal de Jardinería de Mannheim (1975), considerado una de sus obras más emblemáticas (en colaboración con Frei Otto). https://expoarquitectura.com.ar/pabellon-multihalle-de-frei-otto-mannheim/

Entre sus innovaciones estructurales más notables se encuentran la «sombrilla de La Meca», una cubierta con forma de abanico estabilizada por el peso del cerramiento; el uso de dobles mallas reticuladas en las cubiertas de Mannheim para evitar el pandeo, y la introducción del tejido metálico inoxidable en el aviario del zoológico de Múnich, que permitió crear una envolvente orgánica capaz de soportar la carga de la nieve sin rigidez visual.

En 1976, tras el rechazo de Arup a abrir una oficina en Bath, Happold decidió fundar su propio estudio, Buro Happold, con siete compañeros e incorporarse a la Universidad de Bath como profesor de Ingeniería de la Edificación y de Diseño Arquitectónico. Allí consolidó un espacio de cooperación entre disciplinas, en el que ingenieros y arquitectos trabajaban de manera integrada. Promovió la creación del Centre for Window and Cladding Technology y de un grupo de investigación en estructuras inflables, sentando las bases del pensamiento interdisciplinar que caracteriza a la ingeniería moderna.

Su compromiso con la profesión se tradujo en una intensa actividad institucional: fue nombrado Royal Designer for Industry (RDI) en 1983, fue vicepresidente de la Institution of Structural Engineers (1982-1986), presidió el Construction Industry Council (1988-1991), fue vicepresidente de la Royal Society of Arts (1991-1996), fue nombrado Senior Fellow del Royal College of Art en 1993 y fue nombrado caballero del Imperio Británico en 1994. También fundó el Building Industry Council, germen del actual Construction Industry Council, y fomentó la colaboración entre los distintos agentes del sector, fiel a su espíritu cuáquero.

Happold era un hombre lleno de ideas, capaz de contagiar entusiasmo y encontrar soluciones brillantes a problemas complejos. Sus colegas recordaban con humor sus largas y divertidas explicaciones sobre los últimos retos estructurales, así como su capacidad para resolver cuestiones empresariales o técnicas con la misma lucidez. Falleció en su casa de Bath en 1996, mientras esperaba un trasplante de corazón.

Entre los numerosos reconocimientos que recibió figuran la Medalla Guthrie Brown (1970), la Medalla Eiffel de la École Centrale de París, la Medalla Kerensky de la Asociación Internacional de Puentes y Estructuras y la medalla de oro de la Institution of Structural Engineers (1991). Entre sus obras se encuentran proyectos como la Bootham School (1964), el Centro de Conferencias de Riad (1967), los Hyde Park Barracks de Londres (1970), la Casa de Reuniones Cuáquera de Blackheath (1971-1972), el Centro Pompidou (1971-1977), el Aviario de Múnich (1978-1982) y Hooke Park (1985-1991).

El legado de Sir Edmund Happold trasciende sus estructuras. Fue un pionero que entendió que la ingeniería y la arquitectura no son disciplinas enfrentadas, sino expresiones complementarias de una misma visión del mundo, que concibe la belleza, la técnica y la humanidad como partes inseparables del acto de construir.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Cómo se construyen los puentes por voladizos sucesivos: ingeniería en el aire.

Figura 1. Construcción por voladizos sucesivos. By Störfix [GFDL (http://www.gnu.org/copyleft/fdl.html) or CC-BY-SA-3.0 (http://creativecommons.org/licenses/by-sa/3.0/)], from Wikimedia Commons

Al cruzar un gran viaducto que se alza sobre un profundo valle, es inevitable preguntarse cómo se construye una estructura de esa magnitud sin apoyos en el suelo. No hay andamios que se eleven cientos de metros hasta alcanzar el tablero. La respuesta reside en un método constructivo que, a primera vista, parece desafiar la gravedad: la construcción mediante voladizos sucesivos.

El sistema de construcción por voladizos sucesivos in situ es un método avanzado para la construcción de puentes de hormigón pretensado desarrollado en la década de 1950. Está diseñado específicamente para superar grandes luces, de entre 60 y más de 200 metros, un rango en el que las soluciones tradicionales con cimbradas o empujadas no son viables. El principio fundamental consiste en construir el tablero del puente de manera progresiva y simétrica a ambos lados de una pila. El tablero se divide en segmentos denominados «dovelas», que se hormigonan in situ y se anclan a la sección previamente construida mediante cables de pretensado.

A continuación, desvelamos cinco claves que explican cómo la ingeniería hace posible levantar estos gigantes de hormigón «en el aire».

1. El equilibrio perfecto: construir hacia el vacío.

El principio esencial de este sistema es el equilibrio. En lugar de avanzar desde el terreno hacia arriba, el puente se construye hacia los lados desde la parte superior de cada pilastra, extendiéndose en voladizo en ambas direcciones simultáneamente. Cada nuevo segmento, o dovela, se añade alternativamente en ambos sentidos, manteniendo las cargas compensadas. Así, la pila actúa como un eje de un balancín: si un lado crece, el otro debe crecer también para mantener la estabilidad.

Figura 2. Esquema del principio de la construcción por voladizos. Dibujo: V. Yepes

Cuando, por necesidades de la obra, se avanza más en un extremo que en otro, se instalan apoyos provisionales para garantizar la seguridad. Por lo general, cada ciclo constructivo permite ejecutar un par de dovelas por semana. Estas piezas se fijan a la parte ya construida mediante pretensado, tensando cables de acero internos que comprimen el hormigón y le confieren una gran resistencia.

2. Las máquinas colgantes: los carros de avance.

La construcción en voladizo es posible gracias a unas máquinas tan ingeniosas como espectaculares: los carros de avance. Estas estructuras móviles se suspenden del tablero ya construido y sirven como plataformas de trabajo desde las cuales se colocan las armaduras, el encofrado y el hormigón fresco del siguiente tramo.

Históricamente, se empleaban dos tipos: los de vigas superiores y los de vigas inferiores. Los primeros, más ligeros, tendían a deformarse bajo el peso del hormigón, lo que podía provocar fisuras en las juntas. Los segundos resolvían este problema, pero requerían tensiones de pretensado mayores. La evolución tecnológica ha llevado a los carros autoportantes, sistemas más rígidos y precisos en los que el propio encofrado actúa como estructura indeformable. En la actualidad, son auténticas fábricas colgantes que avanzan paso a paso sobre el vacío construyendo el puente del que dependen.

Figura 3. Carro de avance moderno, anclado al tablero. http://www.sten.es/encofrados/viaductos/

3. El puente no es «un» puente hasta el final.

Durante gran parte del proceso, el puente no existe como estructura continua. Cada pila soporta dos voladizos independientes que se acercan sin tocarse. Solo al final del proceso se unen mediante dos operaciones críticas. En primer lugar, se ejecuta la dovela de cierre, es decir, el segmento que une físicamente los extremos de los voladizos. Sin embargo, en ese momento, la estructura aún se comporta como dos piezas simplemente apoyadas. La verdadera transformación se produce con el tesado de continuidad: se introducen nuevos cables de acero a lo largo del eje del tablero y se tensan, de modo que el conjunto se convierte en una viga continua. Tras este paso, el puente empieza a comportarse como una unidad estructural, aunque el proceso de ajuste no termina ahí. Con el tiempo, el hormigón experimenta una redistribución lenta de esfuerzos debido a la fluencia, una deformación progresiva que lleva la estructura a su estado de equilibrio final.

4. La dovela más compleja: el punto de partida.

Aunque una pareja de dovelas estándar puede ejecutarse en una semana, la dovela 0 —la primera— requiere una atención especial. Se construye directamente sobre la pila y sirve de base para instalar los carros de avance. A diferencia del resto, no se ejecuta con el sistema en voladizo, sino mediante procedimientos convencionales en tres fases: losa inferior, almas y losa superior.

Además, incorpora riostras interiores robustas para resistir las grandes cargas iniciales. Su ejecución puede prolongarse hasta cuatro semanas, a las que hay que sumar otro mes para el montaje de los equipos auxiliares. Es un proceso lento, pero esencial para que el resto del proceso se desarrolle con rapidez y seguridad.

5. Apuntar alto para acabar recto: el arte de la contraflecha.

A medida que el tablero avanza, su propio peso hace que los voladizos tiendan a descender ligeramente. Para compensar este efecto, los ingenieros aplican una contraflecha: cada dovela se construye unos milímetros por encima de su posición final. Cuando la estructura está terminada y las cargas se equilibran, el puente alcanza la alineación horizontal perfecta.

Este ajuste requiere un control predictivo extraordinario. Hay que tener en cuenta variables como el peso de cada dovela, la posición de los carros, la magnitud del pretensado, la fluencia del hormigón, la relajación de los cables y las deformaciones diferidas. Durante toda la obra se realiza un control topográfico continuo que compara la posición real con los cálculos previstos. Si se detectan desviaciones, se corrigen en el ciclo siguiente. Gracias a esta precisión, las dos mitades del puente que avanzan desde pilas opuestas pueden encontrarse en el centro del vano perfectamente alineadas y a la cota prevista.

La ingeniería invisible que nos sostiene.

Cada gran viaducto que vemos como una estructura estática es, en realidad, el resultado de una compleja coreografía de equilibrio, maquinaria y cálculo. La construcción mediante voladizos sucesivos combina precisión geométrica, control estructural y un profundo conocimiento del comportamiento del hormigón. La próxima vez que cruces un gran puente, quizá recuerdes que, durante meses, hubo bajo tus pies una auténtica danza de ingeniería suspendida en el aire.

Os dejo esta conversación en la que se habla sobre esta técnica de construcción de puentes.

En este vídeo tenéis un resumen de las ideas básicas, explicadas de forma divulgativa.

Referencias:

Cursos:

Curso de estructuras auxiliares en la construcción: andamios, apeos, entibaciones, encofrados y cimbras.

Curso de fabricación y puesta en obra del hormigón.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Los puentes de madera: evolución, tipología y relevancia actual

Puente de madera de Cofrentes, sobre el río Cabriel, junto al puente nuevo construido en 1911 (Sanchis, 1993).

1. Definición y tipología estructural.

La madera fue el primer material estructural utilizado en la construcción de puentes, mucho antes que la piedra, el metal o el hormigón. La madera permite fabricar piezas lineales aptas para resistir esfuerzos de compresión y tracción y, por tanto, también de flexión. Su uso ha evolucionado desde los rudimentarios troncos apoyados en los cauces hasta las complejas estructuras actuales de madera laminada y materiales compuestos. En la actualidad, este material está experimentando un notable resurgimiento, impulsado por sus virtudes técnicas: una excelente relación resistencia-peso, facilidad de mecanizado y de transporte, y la capacidad de crear elementos prefabricados de gran longitud.

A diferencia de la mampostería, que requiere morteros y recurre al arco para salvar grandes luces, la madera permite ensamblajes con continuidad estructural. Esto permite diseñar diseños lineales, ligeros y flexibles que se adaptan a una amplia variedad de vanos. El desarrollo de la madera laminada encolada (en inglés, glulam), los adhesivos estructurales, los tratamientos de protección en autoclave y las normativas estandarizadas, como el Eurocódigo 5, han consolidado la madera como una alternativa duradera y viable frente a los materiales convencionales.

Clasificación estructural

Los puentes de placas de madera son estructuras que funcionan como placas continuas, normalmente compuestas por tableros de madera contralaminada (CLT), y tienen luces limitadas o se combinan con vigas para alcanzar dimensiones mayores. Por otro lado, los puentes de barras de madera están formados por piezas lineales que configuran vigas, arcos o cerchas (vigas reticuladas), lo que les permite cubrir luces más amplias.

Tipo estructural Descripción Luz típica
Vigas Vigas macizas o de glulam, a menudo en configuraciones triarticuladas. 3 a 24 m
Viga reticulada (cercha) Sistema triangulado (p. ej., tipo Howe o Pratt) de barras que operan bajo esfuerzo axial. 9 a 45 m
Arco triarticulado Fabricado en glulam, sometido predominantemente a compresión. 12 a 70 m
Colgante El tablero está suspendido mediante cables de acero anclados a mástiles. Luces variables
De apertura Tablero con piezas móviles o deslizantes. Hasta 24 m

2. Evolución histórica de los puentes de madera.

  • Orígenes antiguos e ingeniería primitiva: La madera es uno de los materiales estructurales más antiguos que la humanidad ha utilizado para superar obstáculos naturales. Desde la prehistoria, concretamente desde la invención del hacha de piedra, alrededor del año 15 000 a. C., los seres humanos utilizaban troncos como puentes sobre ríos o arroyos. Los palafitos eran construcciones de madera levantadas sobre el agua, similares a los puentes. En algunas culturas subtropicales también empleaban lianas, que prefiguraban los puentes colgantes. No obstante, los ejemplos más sofisticados datan de épocas posteriores. Aunque en la Antigüedad clásica los puentes de piedra en arco fueron los más duraderos, la madera desempeñó un papel esencial en la ingeniería militar. Uno de los ejemplos más conocidos es el puente que Julio César construyó sobre el Rin, diseñado para montarse y desmontarse rápidamente aprovechando las corrientes del río para estabilizar sus uniones. Otro ejemplo es el legendario Ponte Sublicio (c. 642 a. C.) sobre el Tíber, concebido para ser destruido en caso necesario, lo que subraya la importancia estratégica de los puentes de madera en la Antigüedad.
Puente de Julio César en el Rin. https://www.cienciahistorica.com/2015/08/25/acojonar-enemigo/
  • Edad Media, Renacimiento y «siglo de oro» europeo: Aunque durante la Edad Media predominaban las estructuras de mampostería, la madera seguía utilizándose en puentes, especialmente en forma de cubiertas que protegían la superestructura de las inclemencias del tiempo. Ya desde el Renacimiento, ingenieros como Leonardo da Vinci idearon puentes de madera desmontables o de montaje rápido, lo que evidencia una notable anticipación técnica. En Suiza, por ejemplo, los puentes cubiertos como el Kapellbrücke y el Spreuerbrücke (siglos XIV-XVI) demuestran que la cubierta de madera prolongaba la vida útil de la estructura al protegerla de la humedad y del sol. El siglo XVIII se considera un periodo de auge de los puentes de madera en Europa. Ingenieros como Hans Ulrich Grubenmann, en Suiza, desarrollaron puentes de madera laminada empernada y arcos rebajados, logrando luces de más de 50 metros, lo que situó a la madera, en términos de vano, en niveles comparables a los de la piedra.
Puente Kapellbrücke de Lucerna (Suiza). https://worldcitytrail.com/es/2025/01/04/spreuerbrucke-en-lucerna/
  • El impulso industrial y las cerchas reticuladas: El gran salto tecnológico en la construcción de puentes de madera se produjo en el siglo XIX, como resultado de la Revolución Industrial y del desarrollo de las redes ferroviarias, sobre todo en Norteamérica. La necesidad de construir puentes de forma rápida y con luces mayores impulsó el uso de conexiones metálicas y de tipos estructurales más eficientes. Aparecieron patentes como las de Ithiel Town (cercha Town), William Howe (cercha Howe) y Thomas Pratt (cercha Pratt). Un ejemplo histórico es el puente Colossus Bridge, construido por Lewis Wernwag en 1812 sobre el río Schuylkill, en Filadelfia. Con un vano de 103,7 metros y conectores de hierro, en su época se consideró el puente de madera de vano único más largo de Estados Unidos. Estas innovaciones permitieron que la madera compitiera con otros materiales estructurales.
Puente Colossus Bridge, construido por Lewis Wernwag en 1812 sobre el río Schuylkill, en Filadelfia. https://www.structuremag.org/article/the-colossus-of-the-schuylkill-river/
  • Siglos XX y XXI: innovación tecnológica y sostenibilidad: Durante gran parte del siglo XX, los materiales dominantes fueron el acero y el hormigón, que relegaron en parte a la madera. No obstante, en ese periodo se sentaron las bases para su renacimiento: la invención de la madera laminada encolada (glulam), los adhesivos estructurales de alto rendimiento y los tratamientos en autoclave mejoraron sustancialmente la estabilidad dimensional, la durabilidad y la fiabilidad de la madera como material estructural. En la actualidad, la madera está experimentando un notable resurgimiento en la ingeniería de puentes, gracias también a los criterios de sostenibilidad y de ecología. Normativas como el Eurocódigo 5 (EN 1995-2: Puentes de madera) han aportado solidez a su uso desde el punto de vista ingenieril. Además, la aparición de la madera contralaminada (CLT) y el desarrollo de estructuras híbridas (madera-acero o madera-hormigón), junto con las herramientas de modelado digital (BIM) y la prefabricación, han devuelto a la madera su papel esencial en las infraestructuras sostenibles.
Puente de madera laminada sobre el Pisuerga. http://www.mediamadera.com/es/puentes-de-madera

3. Consideraciones técnicas y materiales

Los puentes modernos se construyen con madera de ingeniería, un material estable y de alto rendimiento.

A. Materiales estructurales clave

  • Madera laminada encolada (glulam): permite fabricar vigas curvadas o rectas de gran sección y longitud, optimizando la resistencia.
  • Madera contralaminada (CLT): paneles de gran formato y rigidez bidireccional, muy utilizados en tableros de placa por su capacidad de prefabricación modular.
  • Maderas compuestas estructurales (LVL, PSL): productos derivados de chapas o de virutas que ofrecen uniformidad y alto rendimiento mecánico.

B. Durabilidad, protección y mantenimiento

La longevidad de un puente de madera depende fundamentalmente de un diseño inteligente que controle la humedad:

  1. Protección constructiva: el diseño debe evitar la acumulación de agua mediante drenajes e inclinaciones y asegurar una ventilación adecuada. La cubierta protectora sigue siendo la mejor defensa a largo plazo.
  2. Tratamiento: selección de especies duraderas (según EN 350) o aplicación de tratamientos protectores en autoclave (sales de cobre, etc.) para alcanzar las clases de uso 3 y 4.
  3. Mantenimiento: revisiones periódicas y reaplicación de protectores superficiales para combatir la radiación UV solar.

El diseño estructural de los puentes de madera se basa en normativas internacionales rigurosas. En Europa, la referencia principal es el Eurocódigo 5 (EN 1995-2: Puentes), que establece los criterios esenciales de cálculo por el método de estados límite, la durabilidad de la madera y el dimensionamiento de las uniones e incorpora factores de modificación críticos. Además, el Manual de diseño de puentes AASHTO LRFD (Load and Resistance Factor Design) ofrece una metodología de diseño basada en factores de carga y resistencia que predomina en Norteamérica y otras regiones. Estas dos directrices se complementan con las guías técnicas detalladas del US Forest Service, que ofrecen buenas prácticas especializadas para la construcción y la durabilidad de estas estructuras.

4. Aplicaciones y mercado

Los puentes de madera tienen una amplia gama de usos:

  • Vehiculares: carreteras secundarias y entornos rurales, diseñados para soportar cargas moderadas.
  • Peatonales y para ciclistas: son los más comunes y destacan por su estética cálida y su excelente integración paisajística en parques y entornos naturales.
  • Sistemas híbridos: la combinación de glulam con losas de hormigón o acero permite construir puentes con vanos más largos y con mayor resistencia al tráfico pesado.

La sostenibilidad es el motor actual. La madera es un material renovable, reciclable y que captura carbono, y se suministra mediante sistemas de construcción industrializados (prefabricación), lo que asegura una rápida ejecución en obra. En el mercado actual se integran fabricantes de glulam, ingenierías especializadas y constructoras modulares, capaces de producir estructuras completas mediante sistemas industrializados.

5. Comparativa de materiales estructurales para puentes

Propiedad / criterio Madera estructural Acero Hormigón armado / pretensado Piedra
Resistencia específica (resistencia/peso) Muy alta (estructuras ligeras). Alta. Media. Baja.
Durabilidad natural Limitada si no se protege; mejorable con tratamientos. Alta si se protege contra la corrosión. Muy alta. Muy alta.
Mantenimiento Requiere revisiones y repintado o reaplicación de protector. Requiere control de la corrosión y de la pintura. Bajo. Mínimo.
Coste inicial Medio o bajo (según el tipo de madera y el diseño). Alto. Medio. Alto.
Coste de mantenimiento Moderado. Alto. Bajo. Muy bajo.
Comportamiento frente al fuego Predecible (carbonización superficial). Excelente. Muy bueno. Excelente.
Comportamiento ante agentes climáticos Sensible a la humedad y a los rayos UV; requiere protección. Sensible a la corrosión. Buena durabilidad. Muy buena.
Sostenibilidad y huella de carbono Excelente. Material renovable y reciclable. Elevada huella de CO₂. Alta huella de CO₂. Alta huella energética.
Estética e integración paisajística Muy alta. Calidez y naturalidad. Industrial. Neutra. Tradicional.
Rapidez de construcción Muy alta (prefabricación). Alta. Media. Muy baja.
Aplicaciones recomendadas Pasarelas, carreteras secundarias, entornos naturales. Grandes luces, tráfico intenso. Infraestructura masiva. Monumentos y obras históricas.

Conclusión

Lejos de ser obras provisionales, los puentes de madera son una síntesis de tradición e innovación tecnológica. Desde los primeros troncos prehistóricos hasta los diseños actuales con madera laminada encolada, contralaminada y estructuras híbridas, la madera ha demostrado su versatilidad, sostenibilidad y competitividad técnica. Gracias a la ingeniería moderna y a las normativas internacionales, la madera se consolida como un material estructural de referencia en el ámbito de las infraestructuras sostenibles.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Montaje por movimientos horizontales de puentes atirantados

Los procedimientos de montaje por movimientos horizontales de puentes atirantados se aplican cuando el puente —total o parcialmente— se construye fuera de su posición definitiva y se traslada posteriormente hasta ella. Este enfoque permite reducir la interferencia con el cauce, el tráfico o las infraestructuras existentes, además de mejorar la seguridad y el control de calidad, ya que la mayor parte de los trabajos se realizan en condiciones estables sobre tierra firme.

En todos los casos, las torres y el tablero deben comportarse de forma solidaria durante el desplazamiento, apoyándose el conjunto en pilas o apoyos provisionales que garanticen la estabilidad global. La elección del método depende de las condiciones geométricas del emplazamiento, de las luces principales, de la rigidez del sistema atirantado y de la disponibilidad de medios auxiliares.

Se distinguen tres métodos fundamentales de ejecución:

a) Puentes empujados longitudinalmente

Este procedimiento es similar al empleado en los puentes de vigas lanzadas incrementalmente, pero está adaptado a la configuración atirantada. El tablero se construye por tramos en una orilla y se empuja progresivamente hacia el vano principal mediante gatos hidráulicos. Para compensar los momentos negativos en el frente de avance, se coloca una nariz de lanzamiento o una estructura auxiliar ligera.

Durante el empuje, los apoyos provisionales y las torres soportan cargas variables, por lo que es necesario controlar continuamente la tensión en los tirantes y realizar ajustes secuenciales para evitar sobreesfuerzos o deformaciones excesivas. Para ello, se utilizan dispositivos deslizantes de baja fricción, como placas de neopreno-PTFE sobre acero inoxidable o carros rodantes en combinación con gatos sincronizados. Además, se realiza una instrumentación topográfica y extensométrica en tiempo real para controlar la geometría de avance.

Un ejemplo representativo es el puente de la calle Jülicher, en Düsseldorf, donde este sistema se aplicó con éxito, combinando el control hidráulico de las tensiones en los tirantes con el uso de apoyos provisionales sobre las pilas intermedias durante el avance del tablero. El mismo procedimiento se empleó en el puente de la calle Franklin, también en Düsseldorf, siguiendo una metodología constructiva similar.

Puente de la calle Jülicher en Düsseldorf, Alemania. https://de.wikipedia.org/wiki/Br%C3%BCcke_J%C3%BClicher_Stra%C3%9Fe

b) Puentes girados

Cuando las condiciones del terreno o del cauce hacen inviable el empuje longitudinal, se puede recurrir al giro del puente completo o de sus semitableros desde una posición lateral de montaje. El conjunto se apoya temporalmente sobre una articulación o pivote reforzado bajo la torre principal, mientras el extremo libre describe un sector circular hasta alcanzar su posición definitiva.

Durante la maniobra, es fundamental mantener el equilibrio del centro de gravedad y la estabilidad frente al vuelco o la torsión, por lo que suelen emplearse lastres temporales y gatos hidráulicos sincronizados. La precisión se garantiza mediante un control topográfico y de tensiones en los tirantes antes y después del giro.

El puente sobre el canal del Danubio, en Viena, es un ejemplo clásico de dos semipuentes girados hasta su posición final. Otro caso notable es el puente de Ben-Ahin (Père Pire) sobre el río Mosa, en Bélgica, que se construyó por completo en una orilla y se giró alrededor de su pila principal en 1987. La maniobra, que desplazó decenas de miles de toneladas, supuso en su momento un récord europeo por el peso movilizado mediante una rotación controlada. Este puente, construido en 1988, fue en su momento el de mayor masa girada del mundo. La pila tiene 84 metros de altura; el tablero mide 341 metros de largo y pesa 16 000 toneladas. Lo soportan 40 cables en abanico situados en un plano.

Puente de Ben-Ahin, Bélgica. Imagen: C. Pujos. Fuente: http://www.puentemania.com/3502

c) Puentes ripados transversalmente

El ripado o traslación transversal consiste en construir el puente en su ubicación final y trasladarlo lateralmente mediante sistemas de deslizamiento controlado. Este método requiere alineamientos precisos entre la posición inicial y la definitiva, así como patines o cojinetes de deslizamiento lubricados, que a menudo se combinan con transportadores modulares autopropulsados (SPMT, por sus siglas en inglés) o con gatos de empuje y freno.

El puente de Oberkassel, en Düsseldorf, es un ejemplo representativo de este tipo de maniobra. La estructura principal se desplazó lateralmente desde su zona de ensamblaje hasta el eje del río mediante carros rodantes y guías transversales, bajo una monitorización topográfica en tiempo real que garantizó la precisión del posicionamiento final. El puente tiene una luz principal de 257,75 m y una torre central de 100 m de altura sobre el tablero. Su superestructura metálica, de 35 m de ancho, está formada por una viga cajón de tres células con losa ortótropa.

Puente sobre el Rin Düsseldorf-Oberkassel. Fuente: https://www.visitduesseldorf.de/en/attractions/oberkasseler-bruecke-bridge-b2338616ec

El ripado presenta ventajas en emplazamientos con suficiente espacio lateral, ya que reduce los trabajos en el cauce y minimiza las afecciones medioambientales o de tráfico. No obstante, exige un estudio detallado del coeficiente de fricción, de las reacciones en los apoyos provisionales y de los esfuerzos transitorios en los tirantes y en las pilas durante el movimiento.

Consideraciones generales

En los puentes atirantados, los movimientos horizontales requieren una planificación constructiva precisa y un análisis estructural temporal que contemple la evolución de las tensiones, las deformaciones y la estabilidad global en cada fase. Es fundamental modelar los estados transitorios y definir procedimientos de tensado, destensado y control geométrico con el apoyo de instrumentación avanzada (celdas de carga, inclinómetros y estaciones totales automatizadas).

En la práctica, estos métodos ofrecen varias ventajas: permiten trabajar en seco y en condiciones controladas, reducen los riesgos laborales y minimizan la interferencia con el entorno. Entre sus principales limitaciones se encuentran el coste de los equipos especializados, la complejidad de las maniobras y la necesidad de personal altamente cualificado.

En resumen, el montaje por movimientos horizontales es una técnica versátil y segura, plenamente consolidada en la ingeniería de puentes moderna, que combina la precisión geométrica con la eficiencia constructiva. Ha demostrado su viabilidad en numerosos puentes atirantados europeos, como los de Düsseldorf, Viena y Ben-Ahin.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Harold M. Westergaard: el ingeniero que cimentó la teoría moderna de estructuras

Harold Malcolm Westergaard (1888 – 1950). https://sv.wikipedia.org/wiki/Harald_Westergaard

Harold Malcolm Westergaard (Copenhague, Dinamarca, 9 de octubre de 1888 – Cambridge, Massachusetts, Estados Unidos, 22 de junio de 1950) fue un ingeniero estructural danés cuya influencia en la teoría de estructuras y en el análisis del hormigón armado ha perdurado a lo largo de todo el siglo XX. Fue profesor de Mecánica Teórica y Aplicada en la Universidad de Illinois en Urbana y, posteriormente, de Ingeniería Civil en la Universidad de Harvard, donde llegó a ocupar el decanato de la Escuela de Posgrado de Ingeniería.

Westergaard nació en el seno de una familia profundamente vinculada al mundo académico. Su abuelo fue profesor de lenguas orientales en la Universidad de Copenhague y su padre, catedrático de economía y estadística en la misma institución. Esta herencia intelectual marcó su vocación científica desde joven. Estudió ingeniería en el Instituto Técnico de Copenhague (Danmarks Tekniske Højskole), donde trabajó bajo la dirección del destacado ingeniero civil Asger Ostenfeld, graduándose en 1911. Mantuvo contacto con su maestro hasta la muerte de este en 1931, conservando siempre una profunda admiración por su figura.

Tras finalizar sus estudios, Westergaard adquirió experiencia práctica en la construcción de estructuras de hormigón armado en Copenhague, Hamburgo y Londres. Después se mudó a Alemania, donde se impregnó del ambiente científico de la escuela de Göttingen, en torno a figuras como Felix Klein. Allí estudió bajo la dirección de Ludwig Prandtl, uno de los padres de la mecánica de fluidos moderna. En 1915, con la ayuda de August Föppl, preparó la edición escrita de su disertación doctoral en la Königlich Bayerische Technische Hochschule München (actual Universidad Técnica de Múnich). Sin embargo, la Primera Guerra Mundial interrumpió su proceso académico y no pudo defender su tesis hasta septiembre de 1921, ante Sebastian Finsterwalder y Ludwig Föppl. El reconocimiento oficial de su título de doctor ingeniero no llegaría hasta 1925, cuando su tesis doctoral fue finalmente publicada.

Durante esos años, Westergaard se trasladó a Estados Unidos con una beca de la American Scandinavian Foundation. En 1916 obtuvo el doctorado en la Universidad de Illinois en Urbana y, por recomendación de su mentor, Ostenfeld, fue nombrado profesor de mecánica teórica y aplicada en esa misma universidad. Su carrera académica fue ascendente: en 1921 fue ascendido a assistant professor, en 1924 a associate professor y en 1927 alcanzó la categoría de full professor.

La producción científica de Westergaard fue tan precoz como influyente. En 1920, publicó un estudio sobre la resistencia de materiales dúctiles sometidos a esfuerzos combinados en dos o tres direcciones perpendiculares. Al año siguiente, presentó un artículo sobre momentos y tensiones en losas de hormigón armado junto con William. A. Slater. Este trabajo pionero en su campo le valió la prestigiosa Medalla Wason del American Concrete Institute (ACI) en 1922. Ese mismo año, también publicó un estudio sobre el pandeo de estructuras elásticas que ampliaría más tarde con nuevos resultados teóricos.

A partir de 1923, comenzó a investigar la interacción entre los pavimentos de hormigón y el terreno de apoyo para la construcción de carreteras, un campo en el que sus aportaciones se convirtieron en una referencia obligada. Entre 1925 y 1926, publicó varios artículos fundamentales sobre el cálculo de tensiones en pavimentos de hormigón, como Stress in concrete pavements, computed by theoretical analysis y Computation of stresses in concrete roads, que sentaron las bases de la normativa moderna para el diseño de firmes rígidos. En sus modelos, Westergaard representaba los pavimentos como losas delgadas elásticas sobre un lecho tipo Winkler, siguiendo la teoría de placas de Kirchhoff. Aunque años más tarde otros autores, como Losberg (1960) o Ioannides (1985), señalaron inconsistencias teóricas en sus ecuaciones, su modelo se mantuvo como el estándar de referencia durante décadas, incluso más allá de la «fase de innovación» de la teoría de estructuras (1950-1975).

Westergaard también se interesó por la aplicación del análisis estructural a problemas reales de ingeniería civil. En 1930, publicó One Hundred Years Advance in Structural Analysis, una obra histórica que se considera el primer estudio sistemático sobre la evolución de la teoría de estructuras en Estados Unidos. Ese mismo año elaboró un trabajo sobre losas de puentes sometidas a cargas móviles (Computation of stresses in bridge slabs due to wheel loads). En 1933 publicó su influyente estudio Water Pressures on Dams During Earthquakes, fruto de su labor como asesor técnico del Bureau of Reclamation de los Estados Unidos durante el diseño de la presa Hoover, una de las obras más emblemáticas de la ingeniería moderna.

En 1935, presentó una contribución teórica de gran profundidad: la General Solution of the Problem of Elastostatics in an n-Dimensional Homogeneous Isotropic Solid in an n-Dimensional Space, en la que ofreció una formulación general del problema de la elastostática en espacios de dimensión arbitraria. Poco después, en 1939, publicó dos trabajos clave: Bearing Pressures and Cracks, sobre las presiones de apoyo y la aparición de fisuras, y Stresses in Concrete Runways of Airports, en el que extendió sus investigaciones sobre pavimentos al ámbito aeroportuario.

En 1936 fue nombrado profesor Gordon McKay de Ingeniería Estructural en la Universidad de Harvard y entre 1937 y 1946 ejerció como decano de la Escuela de Posgrado de Ingeniería. Durante este periodo, se centró en los fundamentos teóricos de la mecánica, abordando cuestiones de mecánica de fractura, un campo en el que sus estudios supusieron un hito. En 1942 publicó Stresses Concentration in Plates Loaded Over Small Areas y, en 1948, New Formulas for Stresses in Concrete Pavements of Airfields, obras que consolidaron su autoridad en el análisis estructural del hormigón.

Durante la Segunda Guerra Mundial, Westergaard sirvió como comandante del Cuerpo de Ingenieros Civiles de la Marina de Estados Unidos. También participó en la comisión encargada de evaluar los efectos estructurales de las bombas atómicas de Hiroshima y Nagasaki y contribuyó, con su experiencia, a la comprensión del comportamiento de las estructuras sometidas a cargas extremas.

En la primavera de 1949, comenzó a recopilar su extensa producción científica, que constaba de casi cuarenta artículos. A pesar de su grave enfermedad, logró completar la primera parte de su manuscrito sobre teoría de la elasticidad, que se publicó póstumamente en 1952 con el título Theory of Elasticity and Plasticity. Falleció el 22 de junio de 1950 en Cambridge, Massachusetts.

La muerte de Harold M. Westergaard supuso la pérdida de una de las figuras más brillantes e influyentes de la ingeniería estructural estadounidense en su etapa de gestación (1925-1950). Su colega Nathan Newmark lo describió como «una figura impresionante, intelectualmente brillante y físicamente fuerte. Amaba el arte y la música, y aunque era algo tímido, era cálido y atento con los demás».

Su legado científico es extenso y trascendente. Entre sus principales contribuciones destacan:

  • On the Resistance of Ductile Materials to Combined Stresses in Two or Three Directions Perpendicular to One Another (1920)
  • Moments and Stresses in Slabs (1921)
  • Buckling of Elastic Structures (1922)
  • Anwendung der Statik auf die Ausgleichsrechnung (1925)
  • Stress in Concrete Pavements Computed by Theoretical Analysis (1926/1)
  • Computation of Stresses in Concrete Roads (1926/2)
  • One Hundred Years Advance in Structural Analysis (1930/1)
  • Computation of Stresses in Bridge Slabs Due to Wheel Loads (1930/2)
  • Water Pressures on Dams During Earthquakes (1933)
  • General Solution of the Problem of Elastostatics in an n-dimensional Homogeneous Isotropic Solid in an n-dimensional Space (1935)
  • Bearing Pressures and Cracks (1939)
  • Theory of Elasticity and Plasticity (1952)

Harold Malcolm Westergaard fue, sin duda, un ingeniero con una amplitud intelectual poco común: un científico riguroso, un profesor inspirador y un hombre comprometido con su tiempo. Sus teorías, obras y visión interdisciplinar siguen siendo una referencia fundamental en la historia de la ingeniería estructural moderna.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

5 lecciones sorprendentes de ingeniería avanzada para construir puentes más sostenibles y económicos

Cuando pensamos en la construcción de grandes infraestructuras, como los puentes, a menudo nos viene a la mente una imagen de fuerza bruta: toneladas de hormigón y acero ensambladas con una precisión monumental. Se trata de una proeza de la ingeniería física, un testimonio de la capacidad humana para dominar los materiales y la geografía.

Sin embargo, detrás de esta fachada de poderío industrial se está produciendo una revolución silenciosa. La inteligencia artificial y los modelos computacionales avanzados, que pueden ejecutar el equivalente a décadas de diseño y pruebas de ingeniería en cuestión de horas, están redefiniendo las reglas del juego. Lejos de ser un mero ejercicio teórico, estas herramientas permiten a los ingenieros diseñar puentes que son no solo más resistentes, sino también sorprendentemente más económicos y respetuosos con el medio ambiente.

Las lecciones que siguen se basan en los hallazgos de una tesis doctoral, defendida por la profesora Lorena Yepes Bellver, innovadora en la optimización de puentes. La tesis obtuvo la máxima calificación de sobresaliente «cum laude». Las lecciones demuestran que el futuro de la construcción no radica únicamente en nuevos materiales milagrosos, sino en la aplicación de una inteligencia que permita aprovechar los ya existentes de forma mucho más eficiente.

De izquierda a derecha: Julián Alcalá, Salvador Ivorra, Lorena Yepes, Tatiana García y Antonio Tomás.

1. El pequeño coste de un gran impacto ecológico: pagar un 1 % más para emitir un 2 % menos de CO₂.

Uno de los principales obstáculos para la adopción de prácticas sostenibles ha sido siempre la creencia de que «ser verde» es significativamente más caro. Sin embargo, la investigación en optimización de puentes revela una realidad mucho más alentadora. Gracias a los diseños perfeccionados mediante metamodelos, es posible lograr reducciones significativas de la huella de carbono con un impacto económico mínimo.

El dato clave del estudio es contundente: «Un modesto aumento de los costes de construcción (menos del 1 %) puede reducir sustancialmente las emisiones de CO₂ (más del 2 %)». Este hallazgo demuestra que la sostenibilidad no tiene por qué ser un lujo, sino el resultado de una ingeniería más inteligente.

 

«Esto demuestra que el diseño de puentes sostenibles puede ser económicamente viable».

Esta lección es fundamental, ya que pone fin a una falsa dicotomía entre la economía y la ecología. Demuestra que no es necesario elegir entre un puente asequible y otro respetuoso con el medio ambiente. Gracias a las decisiones de diseño inteligentes, guiadas por la optimización avanzada, es posible alcanzar ambos objetivos simultáneamente, de modo que la sostenibilidad se convierte en una ventaja competitiva y no en una carga.

2. La paradoja de los materiales: añadir más componentes para reducir el consumo global.

La lógica convencional nos diría que, para construir de forma más sostenible, el objetivo debería ser reducir la cantidad total de materiales utilizados. Menos hormigón, menos acero, menos de todo. Sin embargo, uno de los hallazgos más sorprendentes de la tesis es una paradoja que desafía esta idea tan simple.

El diseño óptimo y más sostenible aumenta, de hecho, la cantidad de uno de sus componentes: la armadura pasiva (el acero de refuerzo convencional). A primera vista, esto parece contradictorio: ¿cómo puede ser más ecológico añadir más material?

La explicación se debe a un enfoque sistémico. Este aumento estratégico y calculado del refuerzo pasivo permite reducir considerablemente el consumo de otros dos materiales clave: el hormigón y la armadura activa (el acero de pretensado). La producción de estos materiales, especialmente la del cemento y del acero de alta resistencia, es intensiva en energía y, por tanto, genera numerosas emisiones de CO₂. En esencia, se sacrifica una pequeña cantidad de un material de menor impacto para ahorrar una cantidad mucho mayor de materiales de alto impacto.

Este enfoque, que podría describirse como «sacrificar una pieza para ganar el juego», es un ejemplo perfecto de cómo la optimización avanzada supera las reglas simplistas de reducción. En lugar de aplicar un recorte general, se analiza el sistema en su conjunto y se determina el equilibrio más eficiente. Este equilibrio inteligente de materiales solo es posible si se afina otro factor clave: la geometría de la estructura.

Retos en la optimización de puentes con metamodelos

3. Más esbelto es mejor: el secreto de la «delgadez» estructural para la sostenibilidad.

En el ámbito de la ingeniería de puentes, el concepto de «esbeltez» es fundamental. En términos sencillos, se refiere a la relación entre el canto de la losa y la luz que debe cubrir. Una mayor esbeltez implica un diseño estructural, en palabras comunes, más «delgado» o «fino».

La investigación revela un hallazgo crucial: los diseños que son óptimos tanto en términos de emisiones de CO₂ como de energía incorporada se logran con relaciones de esbeltez altas, concretamente de entre 1/30 y 1/28. En otras palabras, los puentes más sostenibles son también los más delgados y se complementan con hormigones óptimos situados entre 35 y 40 MPa de resistencia característica.

¿Por qué es esto tan beneficioso? Un diseño más esbelto requiere, inherentemente, una menor cantidad de materiales, principalmente de hormigón. Lo realmente notable es cómo se consigue. Los métodos tradicionales suelen basarse en reglas generales y márgenes de seguridad amplios, mientras que la optimización computacional permite a los ingenieros explorar miles, e incluso millones, de variaciones para acercarse al límite físico de la eficiencia sin sacrificar la seguridad. El resultado es una elegancia estructural casi contraintuitiva: puentes que alcanzan su fuerza no a través de la masa bruta, sino mediante una delgadez inteligentemente calculada, donde la sostenibilidad es una consecuencia natural de la eficiencia.

4. La optimización inteligente genera ahorros reales: una reducción de costes de hasta un 6,5 %.

Más allá de los beneficios medioambientales, la aplicación de estas técnicas de optimización tiene un impacto económico directo y medible. El diseño de infraestructuras deja de ser un arte basado únicamente en la experiencia para convertirse en una ciencia precisa que busca la máxima eficiencia económica.

El resultado principal del estudio sobre la optimización de costes es claro: el uso de modelos sustitutos (metamodelos Kriging) guiados por algoritmos heurísticos, como el recocido simulado, logró una reducción de costes del 6,54 % en comparación con un diseño de referencia.

Estos ahorros no son teóricos, sino que provienen directamente de la reducción de materiales. En concreto, se consiguió una disminución del 14,8 % en el uso de hormigón y del 11,25 % en el acero activo (pretensado). Es crucial destacar que estas reducciones se consiguieron sin afectar a la integridad estructural ni a la capacidad de servicio del puente. No se trata de sacrificar la calidad por el precio, sino de diseñar de manera más inteligente. Esta metodología convierte la optimización del diseño en una tarea académica en una herramienta práctica y altamente eficaz para la gestión económica de grandes proyectos de ingeniería civil.

5. No todos los cerebros artificiales piensan igual; la clave está en elegir el modelo computacional adecuado.

Una de las lecciones más importantes de esta investigación es que no basta con aplicar «inteligencia artificial» de forma genérica. El éxito de la optimización depende de elegir la herramienta computacional adecuada para cada tarea específica.

La tesis comparó dos potentes metamodelos: las redes neuronales artificiales (RNA) y los modelos de Kriging. Se descubrió una diferencia crucial en su rendimiento: si bien las RNA ofrecían predicciones absolutas más precisas sobre el comportamiento de un diseño concreto, el modelo de Kriging demostró ser mucho más eficaz para identificar los «óptimos locales», es decir, las zonas del mapa de diseño donde se encontraban las mejores soluciones.

Esto revela una capa más profunda de la optimización inteligente. Un modelo puede ser excelente para predecir un resultado (RNA), mientras que otro es más eficaz para guiar la búsqueda del mejor resultado posible (Kriging). No se trata solo de utilizar IA, sino de comprender qué «tipo de pensamiento» artificial es el más adecuado para cada fase del problema: predecir frente a optimizar. La verdadera maestría de la ingeniería moderna consiste en saber elegir las herramientas adecuadas para cada fase del problema.

Conclusión: la nueva frontera del diseño de infraestructuras.

La construcción de nuestras infraestructuras entra en una nueva era. La combinación de la ingeniería estructural clásica con el poder de los modelos computacionales avanzados, como el metamodelado Kriging y las redes neuronales artificiales, está abriendo una nueva frontera en la que la eficiencia y la sostenibilidad no son objetivos opcionales, sino resultados intrínsecos de un buen diseño.

Como hemos visto, los grandes avances no siempre provienen de materiales revolucionarios. A menudo, los «secretos» mejor guardados residen en la optimización inteligente de los diseños y materiales que ya conocemos. Obtener un mayor beneficio ecológico pagando menos, utilizar estratégicamente más de un material para reducir el consumo global o diseñar estructuras más esbeltas y elegantes son lecciones que van más allá de la construcción de puentes.

Nos dejan con una pregunta final que invita a la reflexión: si podemos lograr esto con los puentes, ¿qué otras áreas de la construcción y la industria están esperando a ser reinventadas por el poder de la optimización inteligente?

Os dejo un audio en el que se discuten las ideas de la tesis doctoral. Espero que os guste.

Y en este vídeo, tenemos resumidas las ideas principales de esta tesis.

Referencias:

YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Predictive modeling for carbon footprint optimization of prestressed road flyovers. Applied Sciences15(17), 9591. DOI:10.3390/app15179591

VILLALBA, P.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2025). A Hybrid Fuzzy DEMATEL–DANP–TOPSIS Framework for Life Cycle-Based Sustainable Retrofit Decision-Making in Seismic RC Structures. Mathematics, 13(16), 2649. DOI:10.3390/math13162649

ZHOU, Z.; WANG, Y.J.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Intelligent monitoring of loess landslides and research on multi-factor coupling damage. Geomechanics for Energy and the Environment, 42:100692. DOI:10.1016/j.gete.2025.100692

ZHOU, Z.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Study on the failure mechanism of deep foundation pit of high-rise building: comprehensive test and microstructure coupling. Buildings, 15(8), 1270. DOI:10.3390/buildings15081270

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

BLIGHT, T.; MARTÍNEZ-PAGÁN, P.; ROSCHIER, L.; BOULET, D.; YEPES-BELLVER, L.; YEPES, V. (2025). Innovative approach of nomography application into an engineering educational context. Plos One, 20(2): e0315426. DOI:10.1371/journal.pone.0315426

NAVARRO, I.J.; VILLALBA, I.; YEPES-BELLVER, L.; ALCALÁ, J. Social Life Cycle Assessment of Railway Track Substructure AlternativesJ. Clean. Prod. 2024450, 142008.

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2024). Artificial neural network and Kriging surrogate model for embodied energy optimization of prestressed slab bridges. Sustainability, 16(19), 8450. DOI:10.3390/su16198450

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2023). Embodied energy optimization of prestressed concrete road flyovers by a two-phase Kriging surrogate model. Materials16(20); 6767. DOI:10.3390/ma16206767

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2022). CO₂-optimization of post-tensioned concrete slab-bridge decks using surrogate modeling. Materials, 15(14):4776. DOI:10.3390/ma15144776

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.;

Prohibieron la IA en sus clases de ingeniería. Ahora es su mejor herramienta para enseñar a pensar.

Introducción: El dilema de la IA en las aulas.

En los pasillos de la educación superior, un debate resuena con fuerza: ¿qué hacemos con la inteligencia artificial generativa (IAG)? Para muchos, herramientas como ChatGPT suponen una amenaza directa para el pensamiento crítico, ya que facilitan el plagio y fomentan la superficialidad académica. El temor es comprensible y está muy extendido.

Sin embargo, ¿y si el problema no fuera la herramienta, sino nuestra forma de reaccionar ante ella? El proyecto PROFUNDIA (acrónimo de PROFUNDo y autonomÍA) surge de esta cuestión, pero con un enfoque inesperado. Esta iniciativa de innovación educativa en ingeniería estructural no surgió de una prohibición teórica, sino de un problema práctico y urgente: el uso no regulado de la IA por parte de los estudiantes estaba deteriorando la calidad de su aprendizaje.

En lugar de intensificar la prohibición, este proyecto propone una solución radicalmente diferente. Este artículo explora los cuatro descubrimientos clave de un enfoque que busca transformar la IA de una amenaza en una de las herramientas pedagógicas más potentes.

Los 4 descubrimientos clave del proyecto PROFUNDIA

1. La cruda realidad es que el uso no supervisado de la IA estaba deteriorando el aprendizaje.

El proyecto PROFUNDIA no se basó en una hipótesis abstracta, sino que surgió de una necesidad urgente detectada en las aulas a partir del curso 2023-2024. El profesorado comenzó a observar un patrón preocupante en los trabajos de los estudiantes.

Las estadísticas internas confirmaron la sospecha: las encuestas revelaron que más del 60 % del alumnado ya utilizaba la IA para hacer sus trabajos. Sin embargo, el dato más alarmante era otro: solo el 25 % de ellos revisaba críticamente los resultados que la herramienta generaba.

La consecuencia fue una «notable disminución de la calidad técnica y argumentativa» de los proyectos. El problema era específico y grave: aunque la herramienta ofrecía soluciones funcionales, no podía verificar las hipótesis iniciales ni razonar la adecuación del modelo al contexto técnico. Los estudiantes dependían de la IA de forma acrítica, entregando trabajos con «errores conceptuales importantes» y debilitando su capacidad de razonamiento. Esto demostró que mirar hacia otro lado no era una opción, sino que era necesaria una intervención educativa guiada.

2. El cambio de paradigma: de la prohibición a la integración crítica.

Hasta entonces, la política en las asignaturas implicadas era clara: el uso de la IA «estaba explícitamente prohibido». Sin embargo, la realidad demostró que esta medida era ineficaz y contraproducente.

En lugar de librar una batalla perdida contra una tecnología omnipresente, el proyecto PROFUNDIA optó por un cambio de 180 grados: integrarla de forma «explícita, guiada y crítica». La nueva filosofía consistía en enseñar a los estudiantes a utilizar la herramienta de manera inteligente en lugar de ignorarla.

La esencia de este nuevo paradigma se resume en su declaración de intenciones:

Frente a enfoques que restringen o penalizan el uso de la IA, PROFUNDIA propone su integración crítica y formativa como herramienta cognitiva para potenciar el aprendizaje profundo, la interpretación técnica, la argumentación fundamentada y el desarrollo de la autonomía del estudiante.

3. El método: aprender a pensar «enseñando» a la IA.

La propuesta metodológica supone un cambio estructural en el aprendizaje, ya que se pasa de un proceso lineal (profesor-estudiante) a otro triangular (profesor-estudiante-IA). En primer lugar, los estudiantes resuelven un problema por sus propios medios. Después, piden a la IA que resuelva el mismo problema. La fase clave llega a continuación: deben comparar críticamente su solución con la de la IA.

En este punto radica la innovación más profunda del método. La IA se incorpora «como un agente más en el proceso, con un papel activo y con un sesgo deliberado hacia el error». El papel del estudiante cambia radicalmente: deja de ser un usuario pasivo para convertirse en entrenador activo de la IA. Su tarea ya no consiste en obtener una respuesta, sino en identificar, cuestionar y corregir los errores de la herramienta, lo que les lleva a «enseñar» a la IA a resolver problemas complejos y, en el proceso, a dominar el tema a un nivel mucho más profundo.

El objetivo final de este proceso es la «reflexión metacognitiva». Se pretende que el estudiante «reflexione sobre cómo piensa y aprende» al contrastar su razonamiento con el de la IA, sus compañeros y el profesor.

4. La meta final: la IA como una «mindtool» para crear mejores ingenieros.

Este enfoque no es solo una técnica ingeniosa, sino que se fundamenta en un concepto pedagógico sólido: el de las mindtools o «herramientas para la mente». Esta idea defiende el uso de la tecnología no como un sustituto del esfuerzo intelectual, sino como un andamio para potenciar el pensamiento crítico y la construcción activa del conocimiento, es decir, tratar la tecnología no como una muleta, sino como un gimnasio para la mente.

Este planteamiento conecta directamente con las demandas del mercado laboral actual. Como señalan estudios previos (Pellicer et al., 2017), las empresas no solo buscan egresados con conocimientos técnicos, sino también con habilidades transversales como la resolución de problemas, la autonomía y el juicio crítico.

Por tanto, los resultados de aprendizaje que se persiguen son extremadamente precisos y potentes. El objetivo es formar ingenieros que puedan:

  1. Formular problemas técnicos complejos con la precisión necesaria para que la IAG pueda analizarlos.
  2. Evaluar y validar críticamente las soluciones generadas por la IAG, justificando sus decisiones.
  3. Gestionar de forma autónoma el uso de la IAG dentro de estrategias complejas de resolución de problemas.

En definitiva, se les prepara para un entorno profesional «complejo, colaborativo y en constante evolución».

Conclusión: ¿Y si dejamos de temer a la tecnología y empezamos a usarla para pensar mejor?

El proyecto PROFUNDIA demuestra que es posible cambiar la perspectiva sobre la IA en la educación. Transforma lo que muchos consideran una amenaza para el aprendizaje en una oportunidad única para fomentar un pensamiento más profundo, crítico y autónomo.

Su reflexión trasciende las aulas de ingeniería. ¿Qué otras tecnologías emergentes podríamos empezar a integrar en nuestras profesiones, no como un atajo, sino como un catalizador para desarrollar un pensamiento más crítico y sofisticado?

Os dejo un audio en el que dos personas hablan y discuten sobre este tema.

También os dejo un vídeo que resume muy bien el contenido del proyecto.

Referencias:

Blight, T., Martínez-Pagán, P., Roschier, L., Boulet, D., Yepes-Bellver, L., & Yepes, V. (2025). Innovative approach of nomography application into an engineering educational context. PloS one, 20(2), e0315426.

Castro-Aristizabal, G., Acosta-Ortega, F., & Moreno-Charris, A. V. (2024). Los entornos de aprendizaje y el éxito escolar en Latinoamérica. Lecturas de Economía, (101), 7-46.

Hadgraft, R. G., & Kolmos, A. (2020). Emerging learning environments in engineering education. Australasian Journal of Engineering Education, 25(1), 3-16.

Jiang, N., Zhou, W., Hasanzadeh, S., & Duffy Ph D, V. G. (2025). Application of Generative AI in Civil Engineering Education: A Systematic Review of Current Research and Future Directions. In CIB Conferences (Vol. 1, No. 1, p. 306).

Jonassen, D. H., Peck, K. L., & Wilson, B. G. (1999). Learning with technology: A constructivist perspective. Columbus, OH: Merrill/Prentice-Hall.

Liao, W., Lu, X., Fei, Y., Gu, Y., & Huang, Y. (2024). Generative AI design for building structures. Automation in Construction157, 105187.

Navarro, I. J., Marti, J. V., & Yepes, V. (2023). Evaluation of Higher Education Students’ Critical Thinking Skills on Sustainability. International Journal of Engineering Education, 39(3), 592-603.

Onatayo, D., Onososen, A., Oyediran, A. O., Oyediran, H., Arowoiya, V., & Onatayo, E. (2024). Generative AI applications in architecture, engineering, and construction: Trends, implications for practice, education & imperatives for upskilling—a review. Architecture4(4), 877-902.

Pellicer, E., Yepes, V., Ortega, A. J., & Carrión, A. (2017). Market demands on construction management: View from graduate students. Journal of Professional Issues in Engineering Education and Practice143(4), 04017005.

Perkins, D., & Unger, C. (1999). La enseñanza para la comprensión. Argentina: Paidós.

Torres-Machí, C., Carrión, A., Yepes, V., & Pellicer, E. (2013). Employability of graduate students in construction management. Journal of Professional Issues in Engineering Education and Practice139(2), 163-170.

Xu, G., & Guo, T. (2025). Advances in AI-powered civil engineering throughout the entire lifecycle. Advances in Structural Engineering, 13694332241307721.

Zhou, Z., Tian, Q., Alcalá, J., & Yepes, V. (2025). Research on the coupling of talent cultivation and reform practice of higher education in architecture. Computers and Education Open, 100268.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Más allá de la resistencia: cinco claves sorprendentes sobre la infraestructura del futuro.

En el mundo de la ingeniería y la construcción, hay una pregunta fundamental que guía todo el proceso de diseño: «¿Qué tan seguro es “bastante seguro”?». Durante décadas, la respuesta parecía sencilla: construir estructuras lo bastante fuertes para soportar las fuerzas esperadas. El objetivo principal era la resistencia, es decir, la capacidad de mantenerse sin romperse.

Sin embargo, en un mundo cada vez más marcado por eventos extremos e impredecibles, desde huracanes más intensos hasta fallos en cadena en redes complejas, esta filosofía ya no es suficiente. La simple resistencia no tiene en cuenta lo que sucede después de un desastre. Es aquí donde surge un concepto mucho más relevante para nuestro tiempo: la resiliencia.

La resiliencia no se limita a soportar un golpe, sino que se centra en la capacidad de recuperación de un sistema tras recibirlo. Supone una nueva frontera en el diseño de ingeniería que va más allá de la fuerza bruta, ya que incorpora la rapidez, la creatividad y la capacidad de recuperación como características de diseño medibles.

Este artículo explorará cinco de los descubrimientos más sorprendentes e impactantes que nos ofrece esta filosofía emergente sobre cómo construir la infraestructura del mañana.

Los cinco descubrimientos clave sobre la resiliencia en ingeniería

1 .La noción de «seguridad» ha evolucionado drásticamente. Ya no se trata solo de resistir.

La forma en que los ingenieros definen la «seguridad» ha cambiado profundamente. Los métodos tradicionales, como el diseño por esfuerzos admisibles (ASD) o el diseño por factores de carga y resistencia (LRFD), se basaban en un principio sencillo: garantizar que la capacidad del sistema superara la demanda esperada. Aunque eran eficaces, estos enfoques no evaluaban la seguridad a nivel del sistema completo y no siempre producían los diseños más eficientes desde el punto de vista económico.

El primer gran avance fue el diseño basado en el desempeño (PBD). Esta filosofía cambió el enfoque de simplemente «no fallar» a evaluar el comportamiento de una estructura durante un evento extremo. El PBD introdujo métricas críticas de rendimiento, como las pérdidas económicas, el tiempo de inactividad y el número de víctimas. Aunque supuso un gran avance, aún dejaba fuera una parte esencial: la capacidad de recuperación del sistema.

El paso más reciente y transformador es el diseño basado en la resiliencia (RBD). La diferencia clave es que el RBD incorpora formalmente el proceso de recuperación del sistema tras un evento. Ya no solo importa cómo resiste el impacto, sino también cuán rápido y eficientemente puede volver a funcionar. Esto supone un cambio de paradigma fundamental en ingeniería, donde la resiliencia se convierte en una métrica tan importante como la resistencia.

La clave del cambio es que un análisis de resiliencia no solo considera los riesgos, sino también la capacidad de recuperación, integrando así la prevención, el impacto y la rehabilitación en una visión holística del diseño.

2. No se trata de ser irrompible. Recuperarse rápido es el nuevo superpoder.

Una de las ideas más contraintuitivas del diseño basado en la resiliencia es que la invulnerabilidad no es el objetivo final. En lugar de buscar estructuras que nunca fallen, la verdadera prioridad es la capacidad de un sistema para recuperarse rápidamente de un fallo, un atributo de diseño tan importante como su resistencia inicial.

Imaginemos dos estructuras, la «Estructura A» y la «Estructura B», ambas sometidas a un evento severo que supera sus límites de diseño. Como resultado, el rendimiento de ambas cae drásticamente. A primera vista, podrían parecer igualmente fallidas. Sin embargo, la resiliencia marca la diferencia.

La «Estructura A» ha sido diseñada de manera que, en caso de fallo, sus componentes puedan ser reparados o reemplazados de forma rápida y eficiente, lo que le permite recuperar su funcionalidad original en mucho menos tiempo. Por el contrario, la «Estructura B» tarda considerablemente más en volver a operar. Según la filosofía de la resiliencia, el diseño de la Estructura A es superior, ya que minimiza el tiempo total de interrupción del servicio.

La lección es clara: el diseño moderno ya no solo se pregunta «¿Qué tan fuerte es?», sino también «¿Qué tan rápido se recupera después de caer?». La rapidez de recuperación no es un extra, sino una característica de diseño fundamental.

3. La resiliencia no es una cualidad única, sino una combinación de cuatro «ingredientes» medibles.

Aunque la resiliencia puede parecer un concepto abstracto, los ingenieros la han desglosado en cuatro propiedades distintas y medibles. Comprender estos cuatro «ingredientes» es clave para diseñar sistemas verdaderamente resilientes.

  • La robustez es la capacidad de un sistema para soportar un cierto nivel de interrupción sin perder eficiencia. Representa la resistencia inherente para absorber el impacto inicial. Cuanto más robusto es un sistema, menos daño sufre desde el comienzo del evento.
  • La rapidez es la capacidad de un sistema para recuperar rápidamente su funcionamiento normal después de una interrupción. Este componente se centra en minimizar las pérdidas y evitar futuras interrupciones, de modo que el sistema vuelva a operar en el menor tiempo posible.
  • El ingenio es la capacidad de identificar problemas, establecer prioridades y movilizar recursos de manera eficaz. Un sistema con ingenio puede reducir el tiempo necesario para evaluar daños y organizar una respuesta eficaz, lo que facilita una recuperación más rápida. Es como un equipo de urgencias experto que sabe exactamente qué especialistas llamar y qué equipo utilizar, minimizando el tiempo entre la detección del problema y la solución eficaz.
  • La redundancia es la capacidad de los elementos dañados del sistema para ser sustituidos por otros. La redundancia permite que el sistema siga funcionando, aunque sea con capacidad reducida, redirigiendo la carga de los componentes fallidos a elementos auxiliares. Piénselo como la rueda de repuesto de un coche o los servidores de respaldo de un sitio web: recursos listos para asumir la función de un componente principal en caso de fallo.

4. La recuperación no es instantánea. Existe una «fase de evaluación» crítica tras el desastre.

Cuando un sistema se ve interrumpido, su rendimiento no mejora de forma inmediata una vez que el evento ha terminado. El análisis de resiliencia muestra que la recuperación sigue una curva con distintas fases críticas. Inicialmente, el rendimiento del sistema empeora durante el evento (de t1 a t2).

A continuación, aparece un período a menudo pasado por alto, pero crucial: la fase de evaluación (de t2 a t3). Durante esta etapa, la funcionalidad del sistema permanece baja y casi plana. No se observa una mejora significativa, ya que en este tiempo se evalúan los daños, se reúnen los recursos, se organizan los equipos de respuesta y se establece un plan de acción efectivo.

Un objetivo clave del diseño resiliente es acortar la duración de esta fase de «línea plana». Mediante una planificación previa más sólida, planes de respuesta a emergencias claros y una movilización eficiente de recursos, es posible reducir significativamente este período de inactividad.

Solo después de esta fase de evaluación comienza la fase de recuperación (de t3 a t4), durante la cual la funcionalidad del sistema empieza a restaurarse hasta alcanzar un nivel aceptable y recuperar gradualmente su capacidad total de operación.

Figura 2. Rendimiento del sistema bajo interrupción

5. La resiliencia no es solo un concepto, sino una cifra que se puede calcular.

Uno de los descubrimientos más importantes del diseño basado en la resiliencia es que esta no solo es un concepto cualitativo, sino también una métrica cuantificable. Los ingenieros pueden calcular un «índice de resiliencia», que a menudo se define como el área bajo la curva de rendimiento del sistema a lo largo del tiempo. Cuanto mayor sea esta área, mayor será la resiliencia del sistema.

Un ejemplo concreto proviene de un estudio realizado en el túnel del metro de Shanghái. Tras ser sometido a una sobrecarga extrema, el túnel perdió entre un 70 % y un 80 % de su rendimiento. Lo revelador del estudio fue que la simple eliminación de la sobrecarga, es decir, una recuperación pasiva, solo restauró el 1 % del rendimiento. Esto demuestra que esperar a que el problema desaparezca no es una estrategia de recuperación viable.

Para recuperar la funcionalidad, fue necesaria una intervención activa: la inyección de lechada de cemento en el suelo alrededor del túnel. No obstante, esta solución no fue inmediata, ya que se necesitaron cuatro años para recuperar un 12,4 % adicional del rendimiento. El estudio concluyó que, al mejorar y acelerar este proceso, el índice de resiliencia del túnel podría aumentar hasta un 73 %.

La capacidad de cuantificar la resiliencia transforma el enfoque de la ingeniería. Permite comparar objetivamente distintas opciones de diseño, justificar inversiones en estrategias de recuperación más rápidas y, en última instancia, tomar decisiones basadas en datos para construir infraestructuras más eficaces y seguras.

Conclusión: Diseñando para el mañana

El debate sobre la infraestructura del futuro está experimentando un profundo cambio. Hemos pasado de una obsesión por la fuerza y la resistencia a un enfoque más inteligente y holístico centrado en la recuperación. La resiliencia nos enseña que la forma en que un sistema se recupera de una avería es tan importante, si no más, que su capacidad para resistir el impacto inicial.

Al entender la resiliencia como una combinación medible de robustez, rapidez, ingenio y redundancia, podemos diseñar sistemas que no solo sobrevivan a los desafíos del siglo XXI, sino que también se recuperen de ellos de manera rápida, eficiente y predecible.

Ahora que la recuperación se considera un factor de diseño, surge una pregunta crítica: ¿qué infraestructura esencial de tu comunidad —eléctrica, de agua o de transporte— necesita ser rediseñada para ser no solo más fuerte, sino también más rápidamente recuperable?

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Lo que los puentes nos enseñan sobre el futuro de la sostenibilidad.

Puente de Brooklyn. https://www.nuevayork.net/puente-brooklyn

Cuando pensamos en un puente, solemos verlo como una maravilla de la ingeniería, un símbolo de conexión y progreso. Es una estructura que nos lleva de un punto a otro, superando un obstáculo. Sin embargo, detrás de esa aparente simplicidad se esconde un desafío monumental: construir un puente que no solo sea funcional y seguro, sino también sostenible.

Esta tarea es mucho más compleja de lo que parece. La sostenibilidad en ingeniería no se reduce a marcar una casilla, sino que implica un complejo proceso de toma de decisiones para conciliar los objetivos a menudo contrapuestos de la economía, el medio ambiente y la sociedad. Esta complejidad es el tema central de un profundo estudio académico titulado A Review of Multi-Criteria Decision-Making Methods Applied to the Sustainable Bridge Design, que analiza 77 artículos de investigación publicados a lo largo de 25 años para comprender cómo toman los expertos estas decisiones cruciales.

Este artículo recoge las lecciones más impactantes y, en ocasiones, sorprendentes, de esa exhaustiva investigación. En él descubriremos qué aspectos dominan el debate sobre los puentes sostenibles, qué puntos ciegos persisten y cómo están evolucionando las herramientas para diseñar las infraestructuras del futuro.

Las 5 lecciones más sorprendentes sobre los puentes sostenibles.

El análisis de décadas de investigación revela patrones inesperados y desafíos ocultos en la búsqueda de la infraestructura perfecta. A continuación, exploramos los cinco hallazgos más sorprendentes.

Ecoducto en la Autopista A6 Austria-Eslovaquia. https://blogs.upm.es/puma/2019/01/14/ecoductos-puentes-verdes-para-la-fauna/

Lección 1: «Sostenible» no solo significa «ecológico», sino que es un delicado equilibrio a tres bandas.

La palabra «sostenible» a menudo se asocia exclusivamente con el medio ambiente. Sin embargo, el estudio subraya que la verdadera sostenibilidad se apoya en tres pilares fundamentales: los factores económicos (coste y mantenimiento), los ambientales (emisiones de CO₂ e impacto en el ecosistema) y los sociales (seguridad, impacto en la comunidad y estética).

Estos tres pilares suelen tener objetivos contrapuestos. Un material más barato puede tener un mayor impacto ambiental. Un diseño que minimice las molestias a la comunidad podría ser mucho más costoso. Lograr un consenso entre ellos es un acto de equilibrio complejo. Curiosamente, el estudio revela que los factores sociales son los menos estudiados y comprendidos de los tres. Esta brecha de conocimiento no es solo una curiosidad académica, sino una de las barreras más significativas que nos impiden conseguir infraestructuras que sirvan de verdad a la sociedad a largo plazo.

Lección 2: Nos obsesiona cómo viven los puentes, pero ignoramos cómo mueren.

El ciclo de vida de un puente abarca desde su diseño y construcción hasta su demolición o reciclaje final. El estudio presenta una estadística demoledora sobre en qué fase del ciclo de vida se centra la atención de los investigadores. De los 77 artículos analizados, un abrumador 68,83 % se centra en la fase de «operación y mantenimiento».

En un drástico contraste, solo un minúsculo 2,6 % de los estudios se dedica a la fase final de «demolición o reciclaje». Esta enorme diferencia pone de manifiesto una importante laguna. La investigación sugiere que esto podría deberse a que la fase final se percibe como de «menor impacto general». Sin embargo, a medida que la sostenibilidad se convierte en una preocupación primordial, esta suposición se está poniendo en tela de juicio, lo que nos obliga a considerar el impacto completo de nuestra infraestructura, desde su concepción hasta su eliminación.

Lección 3: La ingeniería de vanguardia a veces necesita lógica «difusa»

Dado que la investigación está tan fuertemente sesgada hacia la fase de mantenimiento, es lógico que las herramientas más populares sean las que mejor se adaptan a sus desafíos únicos. Esto nos lleva a una paradoja fascinante en la ingeniería: en un campo tan preciso, podría parecer contradictorio utilizar un método llamado «lógica difusa» (fuzzy logic). Sin embargo, el estudio la identifica como una de las herramientas más populares, ¿la razón? Muchas decisiones críticas se basan en información cualitativa, incierta o subjetiva.

https://www.linkedin.com/pulse/l%C3%B3gica-difusa-gabriel-mar%C3%ADn-d%C3%ADaz/

Una inspección visual para evaluar el estado de una estructura, por ejemplo, no proporciona un número exacto, sino una apreciación experta que puede contener vaguedad («ligero deterioro», «corrosión moderada»). La lógica difusa permite a los sistemas informáticos procesar esta «incertidumbre o vaguedad» del lenguaje humano y convertirla en datos matemáticos para tomar decisiones más sólidas. Es una fascinante paradoja: utilizar un concepto que suena impreciso para tomar decisiones de ingeniería de alta tecnología con mayor fiabilidad.

Lección 4: Las herramientas que usamos para decidir no son infalibles.

Para tomar decisiones tan complejas, los ingenieros utilizan «métodos de decisión multicriterio» (MCDM). Sin embargo, el estudio advierte de que los métodos tradicionales tienen importantes limitaciones. Imagínese que tiene que elegir un nuevo material para un puente. Esa única elección afecta simultáneamente al coste final, a la durabilidad de la estructura y a su huella de carbono. Estos factores están profundamente interconectados. No obstante, una limitación significativa de las herramientas tradicionales de toma de decisiones es que suelen partir de la poco realista suposición de que estos criterios son independientes entre sí. Ignorar estas interdependencias puede llevar a soluciones subóptimas.

Los métodos tradicionales de toma de decisiones suelen partir de supuestos poco realistas en relación con los problemas del mundo real, como la independencia de los criterios, la agregación lineal o la elección de la mejor alternativa entre un conjunto fijo en lugar de la alternativa que permita alcanzar los niveles de aspiración deseados.

Lección 5: el futuro no consiste en elegir la «mejor» opción, sino en alcanzar la «meta» deseada.

Este último punto supone un cambio de paradigma. Los métodos de decisión tradicionales funcionan como un concurso: se presenta una lista fija de alternativas (puente de acero, de hormigón o mixto) y el método las clasifica para seleccionar la «mejor».

Sin embargo, los nuevos métodos híbridos que están surgiendo proponen un enfoque diferente. En lugar de elegir simplemente una opción de una lista, buscan soluciones que alcancen «niveles de aspiración» o metas predefinidas. Por ejemplo, el objetivo podría ser diseñar un puente que no supere un coste X, no genere más de Y toneladas de CO₂ y tenga una vida útil de Z años. Este cambio de un modelo de «el mejor de la clase» a otro de «cumplir el objetivo» transforma fundamentalmente el desafío de la ingeniería. Transforma la tarea de seleccionar de un catálogo de opciones en inventar activamente nuevas soluciones que puedan satisfacer múltiples objetivos de sostenibilidad, a menudo contradictorios.

Conclusión: un puente hacia el futuro.

El viaje hacia la construcción de puentes verdaderamente sostenibles nos enseña que la ingeniería moderna es mucho más que cálculos y materiales. Se trata de un proceso de toma de decisiones dinámico, lleno de matices, compensaciones y una profunda reflexión sobre el impacto a largo plazo de nuestras creaciones. No se trata de seguir una simple lista de verificación «verde», sino de navegar por una compleja red de factores económicos, sociales y medioambientales en constante tensión.

El camino a seguir, iluminado por esta investigación, está claro. Debemos ampliar nuestra definición de sostenibilidad más allá de lo puramente ecológico para valorar adecuadamente el impacto social. Debemos diseñar para la demolición con la misma seriedad con la que diseñamos para la durabilidad. Además, debemos adoptar herramientas nuevas y más sofisticadas que reflejen la realidad interconectada de estas complejas decisiones. La próxima vez que cruces un puente, ¿solo verás una estructura de acero y hormigón o el resultado de un complejo debate entre economía, sociedad y medio ambiente?

Os dejo este audio donde podéis aprender más sobre el tema.

En este vídeo se resumen las ideas más interesantes de este artículo.

Referencia:

PENADÉS-PLÀ, V.; GARCÍA-SEGURA, T.; MARTÍ, J.V.; YEPES, V. (2016). A review of multi-criteria decision making methods applied to the sustainable bridge design. Sustainability, 8(12):1295

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.