Evaluación de sistemas de cerramiento en naves industriales de acero: impacto ambiental y estrategias de final de vida.

Acaban de publicar nuestro artículo en la revista Buildings, de la editorial Elsevier, indexada en el JCR. El trabajo se realiza un exhaustivo análisis comparativo, basado en la metodología de Análisis de Ciclo de Vida (LCA) «de la cuna a la tumba», de tres soluciones de cerramiento para naves industriales de acero (chapas de acero, combinación de acero y ladrillo de arcilla y combinación de acero y bloque de hormigón) bajo dos escenarios de fin de vida (vertedero y reciclaje). Partiendo de una unidad funcional de 500 m² de envolvente lateral y utilizando el método ReCiPe 2016 Midpoint en 18 categorías de impacto, se desglosan detalladamente los inventarios de materiales, factores de reposición, procesos de extracción y fabricación, así como las repercusiones de distintas rutas de gestión de residuos. El estudio identifica los puntos críticos en las fases preoperativa, operativa y postoperativa, cuantifica las ventajas ambientales del reciclaje frente al vertido y evidencia que, pese a la preponderancia del acero, los indicadores de toxicidad humana y ecotoxicidad superan ampliamente la huella de carbono en importancia relativa. Por último, se discuten las limitaciones, se destacan las conclusiones clave y se proponen líneas de actuación futuras para enriquecer la sostenibilidad en el diseño y la gestión de las naves industriales.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València, y es fruto de la colaboración internacional con investigadores de la Universidad Tecnológica Federal de Paraná (Universidade Tecnológica Federal do Paraná, UTFPR), de Brasil.

En el sector de la construcción existe una fuerte demanda de sustituir las técnicas tradicionales por sistemas más sostenibles que cuantifiquen y reduzcan sus impactos ambientales más allá de las simples emisiones de CO₂ o la energía incorporada. Sin embargo, son escasos los estudios comparativos de LCA en naves industriales de acero que contrasten diversas opciones de cerramiento y analicen simultáneamente distintos escenarios de fin de vida. Este trabajo compara tres sistemas de cerramiento en naves de acero (SW: paneles de acero, SClaW: acero + ladrillo de arcilla y SConW: acero + bloque de hormigón) bajo dos rutas de fin de vida (vertedero frente a reciclaje), evaluando su desempeño en 18 categorías de impacto del método ReCiPe 2016 Midpoint. El objetivo es determinar qué combinaciones de materiales y gestión de residuos ofrecen el menor impacto ambiental global y, en consecuencia, orientar futuras decisiones de diseño y gestión.

Siguiendo la norma ISO 14040/44, se define el alcance como el ciclo completo de vida de las naves (extracción de materias primas, producción, construcción, uso y fin de vida). La unidad funcional elegida es 500 m² de cerramiento lateral equivalente a la envolvente de dos muros completos de la nave (superficie total: 600 m², 30 m × 20 m × 5 m). Se excluyó el tratamiento de los residuos generados en la obra y en el mantenimiento por falta de datos fiables y para garantizar la comparabilidad entre los tres diseños.

Las naves comparten estructura de perfiles de acero (ASTM A36 y A572 Gr. 50) y techo de chapa trapezoidal galvanizada de 0,5 mm de espesor y una pendiente del 5 %. Los cerramientos varían únicamente:

  • SW: chapa de acero (2500,78 kg).
  • SClaW: chapa (1190,85 kg) + ladrillo de arcilla (17 503,33 kg) + mortero (10 860,95 kg).
  • SConW: chapa (1190,85 kg) + bloque de hormigón (51 102,57 kg) + mortero (11 235,08 kg).

Para la etapa de uso, se asumió una vida útil de la nave de 50 años y de 40 años para el cerramiento (ABNT NBR 15575), por lo que se calculó un factor de reposición RF = 50/(40−1) = 0,25. Es decir, durante la explotación se sustituyó el 25 % de los materiales del cerramiento.

Se empleó SimaPro 9.6.0.1 con la base de datos Ecoinvent 3.10 y el método ReCiPe 2016 Midpoint (perspectiva jerárquica), con el que se caracterizaron 18 categorías: desde el «potencial de calentamiento global» o GWP hasta la toxicidad humana y la ecotoxicidad (terrestre, dulce y marina), pasando por la eutrofización, el agotamiento de recursos y el consumo de agua. El análisis abarca las fases preoperacional, operativa (incluido el RF) y postoperativa (vertederos inertes/sanitarios según la norma CONAMA 307/2002 frente a rutas de reciclaje).

Resultados: fases preoperativa y operativa

  • SW presenta los mayores impactos en seis categorías clave (eutrofización, ecotoxicidad y toxicidad humana), debido a la extracción y procesamiento intensivos del acero, con liberación de metales pesados y compuestos que elevan la eutrofización de las aguas continentales, la eutrofización marina, la ecotoxicidad terrestre, la ecotoxicidad de las aguas continentales, la eutrofización marina y la toxicidad carcinógena humana.
  • SClaW es el más perjudicial en otras seis categorías (escasez de recursos fósiles, escasez de recursos minerales, GWP, formación de partículas finas, radiación ionizante y toxicidad no carcinógena humana) debido al alto consumo de combustibles fósiles y materias primas en la cocción de ladrillos.
  • SConW lidera las 6 categorías restantes (ozonación, ozonización humana y terrestre, acidificación terrestre, consumo de agua, uso del suelo), atribuibles a la producción de cemento y hormigón (SO₂, NO_x, consumo de áridos y agua).

El impacto operativo equivale a un 25 % del preoperacional en todas las categorías, debido al RF uniforme, por lo que se suma directamente para el análisis conjunto.

Resultados: fase postoperativa

  • En el Escenario 1 (vertedero), SW arroja los mayores impactos en GWP, escasez de recursos fósiles, toxicidad y consumo de agua al verter acero (100 % reciclable) en un vertedero sanitario, lo que aumenta la demanda de material virgen y las emisiones asociadas.
  • En el Escenario 2 (reciclaje), todos los impactos se reducen drásticamente para los tres proyectos; la magnitud de esta reducción es mayor en SW debido a su alta proporción de acero, lo que penaliza severamente su perfil ambiental en el vertedero.

Este contraste evidencia que la estrategia de gestión de residuos (vertedero frente a reciclaje) tiene un efecto igual o más importante que la elección del material de cerramiento.

Resultados: ciclo de vida completo y comparativa cuantitativa.

En el ciclo de vida completo bajo el escenario 2, el SW + reciclaje obtiene el mejor desempeño ambiental en 9 de las 18 categorías. Por ejemplo, en GWP registra 7 823,752 kg CO₂ eq, con el SClaW al 98,34 % y el SConW al 72,66 % de ese valor; en Ozone Depletion es 0,00126 kg CFC11 eq (SClaW al 78,62 %, SConW al 176,45 %); en Ionizing Radiation registra 221,576 kBq Co-60 eq (33,85 % y −4,54 % respectivamente).

En contraste, el SW + vertedero es la peor alternativa en siete categorías (ecotoxicidad terrestre y acuática, carcinogenicidad y eutrofización), lo que subraya el impacto negativo de no reciclar el acero.

La normalización revela que las categorías de ecotoxicidad (terrestre, dulce y marina) y toxicidad no carcinógena para los humanos dominan el impacto total, superando ampliamente a la de GWP. Esto indica que existen riesgos locales y laborales por exposición a contaminantes pesados y compuestos tóxicos, que a menudo quedan fuera de los debates centrados únicamente en el cambio climático.

Discusión de los resultados

  • La opción más favorable en la mitad de las categorías ambientales evaluadas es la elección de chapas de acero reciclables, combinada con un programa de reciclaje efectivo.
  • El estudio demuestra la relevancia de ampliar el alcance de los indicadores más allá del CO₂, ya que categorías como la ecotoxicidad y la toxicidad humana pueden ser hasta 20 veces más significativas en términos normalizados.
  • La disposición de materiales reciclables (acero, ladrillo, hormigón) en vertederos supone un «punto caliente» que puede anular parcialmente las ventajas de un diseño ligero o materialmente eficiente.

Limitaciones y futuras líneas de investigación

Los autores reconocen que el estudio presenta varias limitaciones derivadas del ámbito de los datos y del alcance metodológico. En primer lugar, se ha excluido del inventario la generación de residuos durante las fases de construcción y mantenimiento, debido a la falta de datos fiables y específicos para proyectos de naves industriales. Además, la dependencia de procesos y materiales modelados en la base de datos genérica Ecoinvent, sin tener en cuenta los inventarios locales brasileños, puede afectar a la representatividad regional de los resultados y sesgar las conclusiones. Por último, el análisis se ha centrado exclusivamente en indicadores ambientales, dejando fuera las dimensiones económica y social, como los costes de ciclo de vida y el impacto social, así como aspectos operativos clave, como el confort térmico y la eficiencia energética durante el uso de las naves.

Para superar estas limitaciones y enriquecer la sostenibilidad de futuros estudios, se proponen una serie de recomendaciones. En primer lugar, se sugiere incorporar inventarios primarios locales que reflejen de manera más precisa los procesos y materiales de cada región, especialmente en contextos como el brasileño. En segundo lugar, se debe ampliar el abanico de sistemas constructivos analizados, incluyendo soluciones con aislantes y materiales híbridos que puedan ofrecer mejores prestaciones ambientales. En tercer lugar, se debe avanzar hacia un análisis integrado de costes y aspectos sociales mediante una metodología LCSA (Life Cycle Sustainability Assessment), que combine las dimensiones económica, ambiental y social. Por último, se debe evaluar el rendimiento en uso de las naves y relacionar los resultados de la LCA ambiental con parámetros de eficiencia energética y confort térmico para ofrecer una visión más completa del ciclo de vida del edificio.

Referencia:

VITORIO JUNIOR, P.C.; YEPES, V.; ONETTA, F.; KRIPKA, M. (2025). Comparative Life Cycle Assessment of Warehouse Construction Systems under Distinct End-of-Life Scenarios. Buildings, 15(9), 1445. DOI:10.3390/buildings15091445

Como el artículo está publicado en abierto, lo dejo para su descarga.

Pincha aquí para descargar

 

Luigi Cremona: el ingeniero que revolucionó la geometría y modernizó la educación técnica en Italia

Luigi Cremona (1830-1903). https://en.wikipedia.org/wiki/Luigi_Cremona

Antonio Luigi Gaudenzio Giuseppe Cremona (Pavía, 7 de diciembre de 1830-Roma, 10 de junio de 1903) fue un influyente matemático italiano, conocido por su decisiva contribución al desarrollo de la geometría algebraica y a la reforma de la enseñanza superior de las matemáticas en Italia. Fundador de la escuela italiana de geometría algebraica, dedicó su vida al estudio de las curvas y superficies algebraicas, y a la modernización de la enseñanza de las matemáticas en Italia. Junto a Francesco Brioschi y Eugenio Beltrami, fue una figura clave para que Italia se posicionara como una potencia en matemáticas hacia finales del siglo XIX.

Cremona nació en Pavía, que entonces formaba parte del Reino Lombardo-Véneto bajo dominio austríaco. Era el hijo mayor de Gaudenzio Cremona y su segunda esposa, Teresa Andereoli. Su hermano menor, Tranquillo Cremona, alcanzó la fama como pintor. Estudió en el ginnasio de Pavía y, tras la muerte de su padre cuando tenía once años, sus hermanastros lo ayudaron a continuar sus estudios. Se graduó cum laude en latín y griego, y luego ingresó en la Universidad de Pavía.

En 1848, con apenas 17 años, se unió como voluntario al Batallón «Italia Libre» para luchar por la independencia italiana contra el ejército austriaco. En este batallón alcanzó el rango de sargento y participó en la fallida defensa de Venecia, que capituló el 24 de agosto del mismo año. Tras regresar a Pavía y fallecer su madre, reanudó sus estudios con el respaldo familiar. El 27 de noviembre de 1849 obtuvo autorización para estudiar ingeniería civil con Bordoni y Gabba, y especialmente con Francesco Brioschi, a quien más tarde consideraría una de las figuras más influyentes de su vida académica. En 1853 se graduó como Dottore negli Studi di Ingegnere Civile e Architetto. Su pasado le impidió ejercer la docencia, pues los austriacos controlaban todavía la región lombarda.

Debido a su historial militar, no pudo obtener un cargo oficial al inicio de su carrera y trabajó como tutor privado de diversas familias notables. En 1854 se casó. Su primera publicación matemática, Sulle tangenti sfero-conjugate, apareció en marzo de 1855. En noviembre de ese mismo año, recibió autorización para enseñar física de manera provisional en el instituto de Pavía. Al año siguiente, fue nombrado profesor asociado y, en enero de 1857, profesor titular en el instituto de Cremona.

Durante su estancia en Cremona (1857-1859), escribió varios artículos originales, entre los que destacan sus contribuciones en geometría proyectiva y el análisis de curvas mediante métodos proyectivos. Entre sus trabajos más relevantes de esta etapa se encuentran:

  • Sulle linee del terz’ ordine a doppia curvatura (1858, dos partes)

  • Intorno alle superficie della seconda classe inscritte in una stessa superficie sviluppabile della quarta classe—nota (1858)

  • Intorno alle coniche inscritte in una stessa superficie del quart’ ordine e terza classe—nota (1859)

El 28 de noviembre de 1859 fue nombrado docente en el Liceo San Alejandro de Milán. En 1860 fue nombrado profesor de geometría superior en la Universidad de Bolonia y, en 1866, pasó al Colegio Técnico Superior de Milán para enseñar geometría superior y estática gráfica. Ese mismo año compitió por el Premio Steiner de la Academia de Berlín con su Mémoire sur les surfaces du troisieme ordre, que compartió con J. C. F. Sturm. En 1868 volvió a recibir este galardón, esta vez sin competencia.

Durante su etapa en Bolonia (1860-1867), desarrolló sus investigaciones más influyentes sobre transformaciones geométricas. Entre sus publicaciones destacan:

  • Introduzione ad una teoria geometrica delle curve piane (1861)

  • Sulle trasformazioni geometriche delle figure piane (1863)

  • Mémoire de géométrie pure sur les surfaces du troisième ordre (1866)

Estas obras fueron luego traducidas al alemán y publicadas como Grundzüge der allgemeinen Theorie der Oberflächen in synthetischer Behandlung (1870). Fue entonces cuando formuló la teoría de las transformaciones de Cremona, un avance clave en geometría birracional.

En octubre de 1867 fue trasladado por decreto real al Instituto Técnico de Milán, donde continuó su labor docente e investigadora hasta 1873. En ese año se le ofreció el cargo de secretario general del reciente gobierno italiano, que declinó por preferir sus actividades académicas. Sin embargo, al ser nombrado director de la Escuela Politécnica de Ingeniería de Roma ese mismo año, debió suspender temporalmente sus investigaciones a causa de la ingente labor burocrática que debía atender. Durante este periodo escribió sobre temas tan diversos como cúbicas torcidas, superficies desarrollables, teoría de las cónicas, curvas planas, superficies de tercer y cuarto grado, estática y geometría proyectiva. También publicó textos fundamentales:

  • Le figure reciproche nella statica grafica (1872)

  • Elementi di geometria proiettiva (1873)

  • Elementi di calcolo grafico (1874)

En 1873 rechazó un cargo político, pero fue nombrado director de la recién creada Escuela Real de Ingeniería de Roma y profesor de matemáticas superiores en la universidad. Su carga administrativa redujo su producción científica, aunque su influencia como pedagogo aumentó considerablemente.

Desde 1856 había comenzado a contribuir a revistas como Annali di scienze matematiche e fisiche y Annali di matematica, llegando a ser coeditor de esta última. Publicó artículos en importantes revistas de Italia, Francia, Alemania e Inglaterra. Varias de sus obras fueron traducidas al inglés y publicadas por la Clarendon Press, como Graphical Statics y Elements of Projective Geometry.

En noviembre de 1877 fue nombrado titular de la cátedra de matemáticas superiores en la Universidad de Roma. En 1879 fue elegido miembro correspondiente de la Royal Society y, ese mismo año, senador del Reino de Italia. En 1898 fue ministro de Educación durante un breve periodo de tiempo. En 1901, la Academia Real de Ciencias de Suecia lo nombró miembro suyo, y en 1902 recibió la distinción alemana Pour le Mérite for Sciences and Arts.

El 10 de junio de 1903, tras levantarse de su lecho de enfermo para intervenir en una sesión legislativa, sufrió un infarto que le causó la muerte.

Las contribuciones de Cremona se destacan en geometría proyectiva, estática gráfica y transformaciones birracionales. Su claridad expositiva y su visión integradora consolidaron una teoría unificada en geometría, situando a Italia a la vanguardia de las matemáticas a finales del siglo XIX.

Diagrama de Cremona. https://es.wikipedia.org/

En el ámbito de las estructuras, es conocido el método gráfico de Cremona. El diagrama de Cremona, también conocido como método de Cremona-Maxwell, es una técnica gráfica desarrollada en el siglo XIX por el matemático italiano Luigi Cremona. Su objetivo es analizar estructuras isostáticas de celosías, como puentes, cerchas o marquesinas. El método se basa en representar gráficamente las fuerzas que actúan en cada nudo de la estructura mediante polígonos funiculares. Para aplicar correctamente este método, la estructura debe estar triangulada y cumplir la relación 2n – 3 = b, donde n es el número de nudos y b el de barras.

El diagrama establece una correspondencia geométrica entre los elementos de la estructura original y los elementos del diagrama: a cada vértice le corresponde un triángulo, a cada barra un segmento y a cada región un punto. La distancia entre los puntos que representan las barras refleja el esfuerzo axial que actúa en ellas, por lo que el diagrama permite calcular las fuerzas internas en cada barra.

Para construir el diagrama, primero se dibujan semirrectas en la dirección de cada fuerza aplicada sobre los nudos. Estas líneas, junto con las barras de la estructura, dividen el plano en regiones numeradas. A partir de un punto inicial asignado a una de las regiones, se ubican los demás puntos del diagrama mediante vectores que representan las fuerzas conocidas. Las regiones interiores se completan con intersecciones de rectas paralelas a los bordes de las regiones adyacentes.

Una vez finalizado el diagrama, las distancias entre los puntos permiten obtener las magnitudes de las fuerzas en las barras, mientras que el tipo de esfuerzo (tracción o compresión) se determina mediante un algoritmo adicional. Este método sigue siendo útil y vigente en el análisis gráfico de estructuras reticulares simples.

Obras fundamentales:

  • Le figure reciproche nella statica grafica (1872)

  • Die reciproken Figuren in der graphischen Statik (1873)

  • Elementi di geometria proiettiva (1873)

  • Elementi di calcolo grafico (1874)

  • Opere matematiche (1914–1917)

Os dejo algunos vídeos del método gráfico de Cremona para la resolución de estructuras.

Puentes de fundición en la ingeniería ferroviaria

Figura 1. Puente de hierro de Stephenson atravesando el río Gaunless. https://es.wikipedia.org/wiki/Ferrocarril_de_Stockton_y_Darlington

Durante el siglo XIX, el crecimiento vertiginoso de las redes ferroviarias en el Reino Unido y Estados Unidos planteó un gran desafío técnico: construir puentes capaces de soportar trenes cada vez más pesados y recorrer distancias más largas.

Los materiales tradicionales, como la madera y la piedra, no podían hacer frente a estas nuevas exigencias. En este contexto, surgió un nuevo material en la historia de la ingeniería: el hierro fundido.

¿Qué es el hierro fundido?

El hierro fundido, también conocido como fundición de hierro o hierro colado, es una aleación de hierro con un alto contenido de carbono (normalmente entre un 2 % y un 4 %), lo que facilita su fundición y moldeado. Se obtenía vertiendo el metal fundido en moldes, lo que permitía fabricar piezas con formas complejas y repetitivas. Su gran resistencia a la compresión lo hacía ideal para soportar cargas pesadas, especialmente en elementos estructurales como arcos y pilares.

Sin embargo, también tenía una limitación importante: era frágil, es decir, podía romperse de forma repentina si se sometía a esfuerzos de tracción o impactos bruscos. Esta característica marcaría el principio y el final de su uso en los puentes ferroviarios, como veremos.

Los primeros puentes de fundición

Figura 2. Vista del Iron Bridge. https://es.wikipedia.org/wiki/Iron_Bridge

Los primeros puentes metálicos se fabricaron de fundición y la mayoría tienen estructuras poco claras, heredadas de los puentes de piedra y de madera. La herencia de tipologías anteriores es habitual cuando se comienza con un nuevo material.

El primer puente metálico del mundo se construyó en 1779 en Coalbrookdale (Reino Unido). Se trataba de un arco de fundición de 30,5 m de altura que cruzaba el río Severn. Este puente demostró que era posible utilizar metales con éxito en grandes estructuras. En estos primeros puentes, los arcos se construían con barras unidas por pernos.

Décadas más tarde, en 1839, Estados Unidos siguió este ejemplo con un puente similar de 24,5 m en Brownsville (Pensilvania). Estos arcos de fundición fueron los primeros puentes ferroviarios metálicos y su uso se extendió rápidamente a medida que las locomotoras se volvían más pesadas y las distancias más largas.

Uno de los puentes más antiguos que aún se conserva es el de Merthyr Tydfil (Gales), construido en 1793. Con una longitud de 14 m, fue concebido para una línea industrial de tranvías y constituye el puente ferroviario de hierro colado más antiguo que aún se mantiene en pie.

En 1823, George Stephenson —uno de los padres del ferrocarril moderno— construyó el primer puente de hierro fundido para una línea pública: el ferrocarril de Stockton a Darlington. Para ello, se utilizaron tramos de 3,8 m en forma de lentes, apoyados sobre caballetes. Esta solución sentó un precedente para numerosas otras estructuras que facilitarían el cruce de valles anchos o profundos sin pendientes pronunciadas, aspecto fundamental debido a la limitada capacidad de tracción de las primeras locomotoras.

El desarrollo del hierro fundido en la ingeniería ferroviaria

A medida que las exigencias del ferrocarril aumentaban, ingenieros británicos de renombre como Robert Stephenson e Isambard Kingdom Brunel diseñaron puentes de arco de fundición que demostraban una eficacia notable en la compresión. A partir de 1830, se inició la construcción de arcos y vigas de fundición en el Reino Unido. En Estados Unidos, la empresa ferroviaria B&O se dedicó a la fabricación de vigas de fundición en 1846, siendo seguida por otras compañías como Pennsylvania Railroad en 1853 y Boston and Albany Railroad en 1860.

El primer puente ferroviario de Richmond fue construido por el contratista Thomas Brassey y diseñado por los ingenieros civiles Joseph Locke y J. E. Errington en nombre del Ferrocarril de Londres y del Suroeste (L&SWR). El puente ferroviario de Richmond, Windsor y Staines fue inaugurado en 1848. Debido a las preocupaciones sobre el uso de la fundición en su construcción, fue reconstruido durante la década de 1900, siendo el principal cambio la sustitución de elementos de hierro por otros de acero.

Cabe señalar que uno de los hitos más destacados fue el viaducto de Crumlin, en Gales, construido en 1857. Con una estructura mixta y elementos de fundición, permitía atravesar un valle de forma eficiente y fue considerado un logro técnico en su época.

En paralelo, en Estados Unidos se empezó a usar predominantemente cerchas compuestas por madera, hierro fundido y hierro forjado, una aleación de hierro que resulta más dúctil y resistente a la tracción. Un ejemplo notable es la cercha tipo Howe, que integra elementos de compresión en hierro fundido y de tracción en hierro forjado, complementados con piezas de madera.

La fragilidad del hierro fundido y su declive

Figura 3. Desastre del puente del Dee. https://es.wikipedia.org/wiki/Desastre_del_puente_del_Dee

A pesar de sus ventajas, el hierro fundido presentaba una desventaja significativa: su fragilidad ante cargas dinámicas y golpes. En 1847, el colapso del puente ferroviario del Dee, con vigas de fundición en el Reino Unido, generó un extenso debate entre ingenieros británicos (Figura 3). Provocó cinco víctimas mortales y puso de manifiesto la debilidad de los puentes de vigas de fundición de hierro reforzadas con tirantes de hierro forjado. Además, recibió fuertes críticas hacia su diseñador, el ingeniero Robert Stephenson, hijo del también ingeniero George Stephenson. Se llegó a la conclusión de que, a pesar de su resistencia a la compresión, el hierro fundido no demostraba una respuesta óptima ante las fuerzas de tracción ni ante los impactos generados por las locomotoras al atravesar los puentes.

En Estados Unidos, el problema también se hizo evidente. Tras el lamentable incidente del derrumbe de un puente de hierro en la línea Erie Railroad en 1850, algunas compañías se vieron compelidas a sustituir las estructuras de hierro por otras de madera. No obstante, otras, como el ferrocarril B&O, mantuvieron la utilización del hierro fundido, aunque con mayores medidas de precaución y principalmente en elementos que solo operaban bajo compresión.

A partir de la década de 1850, el uso del hierro forjado se fue imponiendo progresivamente por su mayor resistencia a los esfuerzos de tracción. En Europa, la construcción de puentes ferroviarios de hierro colado cesó alrededor de 1867. Un ejemplo notable fue el puente sobre el río Garona en Francia, construido por Gustave Eiffel en 1860, con una longitud de 488 m.

En Estados Unidos, el hierro fundido continuó siendo utilizado durante un período adicional de aproximadamente una década, aunque con una aplicación más restringida a usos altamente específicos.

Conclusión

El hierro fundido supuso un hito revolucionario en la historia de la ingeniería, posibilitando la construcción de los primeros grandes puentes metálicos. Su facilidad de fabricación y resistencia a la compresión lo convirtieron en una solución ideal en los inicios del ferrocarril. No obstante, su vulnerabilidad ante cargas dinámicas motivó a los ingenieros a explorar materiales más robustos, como el hierro forjado y, posteriormente, el acero.

A pesar de sus limitaciones, el legado del hierro fundido perdura en numerosas estructuras que desafían el paso del tiempo, más de dos siglos después. Más allá de su función estructural, los puentes ferroviarios de hierro fundido también son valorados por su importancia estética, con diseños elaborados que embellecen el entorno donde se sitúan.

 

Joseph Louis Lagrange: El arte de la matemática aplicada a la mecánica

Joseph-Louis Lagrange (1736-1813). https://es.wikipedia.org/wiki/Joseph-Louis_Lagrange

Joseph-Louis Lagrange, inscrito al nacer como Giuseppe Lodovico Lagrangia, nació en Turín el 25 de enero de 1736, en el entonces Reino de Cerdeña. Fue un matemático, físico y astrónomo que desarrolló la mayor parte de su carrera en Prusia y Francia. Falleció en París el 10 de abril de 1813. Lagrange fue una de las mentes más brillantes del siglo XVIII en el ámbito de las matemáticas y la mecánica. Su legado, aún vigente en numerosos campos de la ingeniería y la ciencia, lo sitúa como una figura clave en la historia de la mecánica teórica. Es considerado uno de los científicos más influyentes de todos los tiempos gracias a la profundidad y el volumen de sus contribuciones.

Provenía de una familia de origen parisino asentada en Turín. Su padre era tesorero del Departamento de Obras Públicas y Fortificaciones, pero su afición al juego arruinó la fortuna familiar. Esto le impidió seguir una carrera militar. Estudió en la Universidad de Turín y no mostró interés por las matemáticas hasta los 17 años, cuando la lectura de un ensayo de Edmund Halley despertó su vocación científica.

Con tan solo 19 años, en 1755, se convirtió en profesor de la Escuela Real de Artillería de Turín. Ese mismo año publicó sus primeros trabajos matemáticos independientes, en los que introdujo innovaciones basadas en las teorías de Robins y Euler. No obstante, su enfoque teórico y abstracto fue criticado por su escasa conexión con la práctica militar.

Poco después, en 1757, fundó junto a un grupo de estudiantes la Academia de Ciencias de Turín. El primer volumen de sus Mémoires, publicado en 1759, contenía artículos que ya le situaban entre los grandes científicos del siglo XVIII. Uno de sus alumnos más destacados fue François Daviet de Foncenex, quien se especializó más adelante en análisis dimensional. Durante estos primeros años, centró su trabajo en el estudio de ecuaciones diferenciales, el cálculo de variaciones y sus aplicaciones a la mecánica celeste.

La fama de Lagrange creció rápidamente. En 1757 fue admitido como miembro correspondiente de la Academia de Ciencias de Berlín, gracias a la recomendación de Leonhard Euler. En 1766, tras la marcha de Euler a San Petersburgo, el rey Federico II de Prusia, animado por Jean le Rond d’Alembert, lo invitó a ocupar su lugar. A sus 30 años, Lagrange se instaló en Berlín, donde permaneció dos décadas.

Durante su estancia en Prusia, escribió más de cincuenta tratados sobre matemáticas, mecánica y astronomía. Entre sus avances más notables se encuentran sus contribuciones a la teoría de pandeo en estructuras (Sur la figure des colonnes, 1770–1773), desarrollando la teoría de la estabilidad iniciada por Euler y determinando los modos propios del segundo caso de Euler. Su obra magna, Mécanique analytique, empezó a tomar forma durante este periodo. También dirigió la Academia de Ciencias de Berlín, sucediendo al propio Euler.

La muerte de Federico II en 1786 y el nuevo clima poco favorable a la ciencia le llevaron a aceptar la invitación de Luis XVI para trasladarse a París en 1787 e integrarse en la Academia de Ciencias de Francia. Instalado en el Louvre, continuó su labor científica a pesar de un nuevo episodio depresivo que le llevó a ignorar la publicación de su Mécanique analytique, que había terminado en Berlín y que vio la luz en 1788 gracias a la ayuda de Adrien-Marie Legendre. Esta obra supuso una revolución en la forma de entender la mecánica, ya que Lagrange logró derivar toda la teoría a partir de un único principio: el de las velocidades virtuales.

Curiosamente, la publicación de esta obra coincidió con un periodo de agotamiento personal. Afectado por lo que hoy denominaríamos síndrome de burnout, Lagrange ni siquiera abrió los ejemplares impresos cuando llegaron. Durante un tiempo, se refugió en la teología y la filosofía.

Durante la Revolución Francesa, que marcó un punto de inflexión en su vida, Lagrange permaneció en París. Participó activamente en la reforma del sistema de pesos y medidas, siendo clave en la adopción del sistema métrico decimal en 1799. Fue nombrado profesor de la École Normale en 1795 y, en 1797, pasó a formar parte del claustro de la recién fundada École Polytechnique, donde impartió clases de cálculo diferencial e integral. Sus clases dieron origen a importantes obras como Théorie des fonctions analytiques (1797) y Leçons sur le calcul des fonctions (1799), aunque no logró dotar al análisis matemático de una base plenamente axiomática.

Lagrange llevó una vida metódica y discreta, y siempre evitó la polémica. Era reservado y tímido, y su frágil salud mental le acompañó durante toda su vida, alternando períodos de intensa actividad intelectual con episodios de melancolía.

A pesar de su timidez, su matrimonio en 1792 con una joven que simpatizaba con su carácter reservado marcó un período de estabilidad personal. Recibió numerosos reconocimientos, entre ellos la Gran Cruz de la Orden Imperial de la Reunión, que le concedió Napoleón Bonaparte dos días antes de su muerte.

Joseph Louis Lagrange falleció en París el 10 de abril de 1813. Tres días después fue enterrado en el Panteón, junto a otras grandes figuras de la historia de Francia. En su elogio fúnebre, Pierre-Simon Laplace destacó que, al igual que Newton, Lagrange poseía “el más alto grado de maestría en la medida más afortunada, lo que le permitió descubrir los principios generales que constituyen la verdadera esencia de la ciencia”.

Sus escritos, especialmente Mécanique analytique y sus estudios sobre estructuras y cálculo de variaciones, considerados clásicos de las matemáticas y de la mecánica teórica, siguen siendo valorados no solo por su profundidad conceptual, sino también por su elegancia formal. En palabras del matemático Hamel, su estilo es “profundo, transparente, prudente, puro, claro, encantador, e incluso elegante”: una muestra de lo que puede ser la auténtica belleza matemática.

Principales aportaciones a la teoría de estructuras y la mecánica:

  • Sur la figure des colonnes (1770–1773): desarrollo de la teoría del pandeo.

  • Mécanique analytique (1788): reformulación de la mecánica clásica desde principios variacionales.

  • Analytische Mechanik (edición póstuma de 1887): versión alemana con gran influencia posterior.

Os dejo un enlace a un vídeo sobre este personaje.

https://www.youtube.com/watch?v=av5WgKdOAd8

Compatibilidad entre cementos y aditivos: análisis y criterios de evaluación

En este artículo se resumen las ideas básicas de la guía elaborada por la Plataforma Tecnológica Española del Hormigón en relación con la compatibilidad entre cementos y aditivos.

En esta guía se analiza la compatibilidad entre cementos y aditivos superplastificantes, especialmente los basados en policarboxilatos, y se destacan los retos asociados a los cementos con menores emisiones de CO₂.

Se propone un método de ensayo con morteros normalizados para evaluar parámetros como fluidez, consistencia, densidad y tiempos de fraguado, teniendo en cuenta las implicaciones normativas y ambientales.

Además, se explica el impacto de las adiciones en el rendimiento del hormigón y la importancia de elegir aditivos adecuados para garantizar su estabilidad y funcionalidad. También se abordan las implicaciones normativas actuales y futuras en este ámbito.

El texto concluye con recomendaciones sobre la evaluación de nuevas formulaciones cementicias para mantener o mejorar las propiedades del hormigón.

Introducción al análisis de la compatibilidad cemento-aditivo

A lo largo de las últimas décadas, la industria del hormigón ha incorporado nuevas formulaciones de aditivos, en particular superplastificantes basados en polímeros de policarboxilato (PCE), que han permitido alcanzar elevados niveles de fluidez y mantener una consistencia prolongada. Sin embargo, el uso de nuevos tipos de cementos, principalmente aquellos con bajo contenido de clínker y mayor proporción de adiciones, ha planteado desafíos específicos en cuanto a su compatibilidad con estos aditivos. Esta guía se centra en identificar, comprender y evaluar dichos desafíos, y propone un método de contraste basado en ensayos de morteros normalizados que permite anticipar posibles desviaciones en el rendimiento del hormigón debidas a cambios en la química del cemento o del aditivo.

1. Objeto

El objetivo de la guía es evaluar la interacción entre cemento y aditivos superplastificantes mediante un método de ensayo basado en morteros normalizados. Esta metodología permite identificar variaciones en parámetros como fluidez, mantenimiento de la consistencia, aire ocluido, densidad y tiempos de fraguado, tanto frente a modificaciones en la composición del cemento como al empleo de distintos tipos de aditivos, utilizando un protocolo que establece relaciones a/c precisas y reproducibles.

2. Alcance

Este enfoque es especialmente adecuado para cementos con bajo contenido de clínker, elevada finura o presencia de diversas adiciones. Se centra en cementos experimentales cuyo desarrollo tiene como objetivo reducir la huella de carbono y cuya aplicación requiere validar su comportamiento antes de su uso industrial, tanto en hormigón preparado como en prefabricado. En este contexto, la evaluación de compatibilidad se vuelve una herramienta indispensable para prever rendimientos y ajustar formulaciones en función de la tecnología disponible.

3. Mecanismo de actuación de los aditivos superplastificantes y compatibilidad cemento-aditivo

Los aditivos superplastificantes basados en PCE actúan sobre la superficie de las partículas de cemento mediante adsorción, generando una repulsión estérica entre ellas. Esta acción se traduce en una mejora de la fluidez del sistema. La capacidad de mantener el efecto en el tiempo depende del equilibrio dinámico entre la fracción de aditivo adsorbida, la disuelta en solución y la encapsulada en productos de hidratación como la etringita.

La compatibilidad se define como la capacidad del sistema para mantener la consistencia deseada sin pérdidas prematuras de fluidez. Las principales causas de incompatibilidad son una adsorción excesiva o deficiente, la absorción por materiales porosos o las interacciones químicas que inhiben el aditivo. Estos efectos están estrechamente relacionados con las propiedades del cemento, como su finura, el contenido de sulfato soluble, la presencia de adiciones con baja reactividad o carácter absorbente y la relación molar SO₄²⁻/C₃A.

El uso de cementos muy finos puede acelerar la adsorción del aditivo y reducir su reserva disponible, lo que compromete la durabilidad del efecto. Las adiciones absorbentes reducen la proporción de aditivo útil, lo que provoca una pérdida prematura de fluidez. En casos extremos, como defectos de sulfato soluble, puede producirse una inactivación casi total del aditivo. Para ajustar la elección del aditivo más adecuado, es fundamental evaluar detalladamente la compatibilidad y tener en cuenta estos aspectos.

4. Método de ensayo de contraste con morteros normalizados

El procedimiento implica la elaboración de morteros con y sin aditivo superplastificante, manteniendo constante la relación a/c, y la medición de propiedades como la consistencia utilizando una mesa de sacudidas, la densidad, el aire ocluido y los tiempos de fraguado.

Se emplea equipamiento normalizado según la normativa europea (EN 196-1, EN 1015-3, EN 480-1), cuidando las condiciones de amasado y la temperatura de los componentes. El ensayo se realiza en intervalos temporales (T0, T30 y T60) para registrar la evolución de la fluidez.

Los datos obtenidos permiten contrastar el comportamiento del mortero con aditivo respecto al patrón y detectar posibles efectos de incompatibilidad. También se registra la resistencia mecánica a flexión y compresión en diferentes edades para validar el rendimiento final del sistema.

5. Cementos que se recomienda ensayar

El impulso hacia cementos con menor huella de carbono ha llevado al desarrollo de formulaciones con una mayor proporción de adiciones, como cenizas volantes, escorias, puzolanas y calizas. El objetivo de estas estrategias es reducir el contenido de clínker, el componente que más emisiones genera.

Reducir el clínker afecta a la reactividad inicial, la trabajabilidad del hormigón y su estabilidad a largo plazo. La adición de materiales puzolánicos o inertes modifica el comportamiento reológico, por lo que es posible que sea necesario incorporar activadores o ajustar la formulación del aditivo.

La utilización de cementos con adiciones suele implicar la necesidad de aditivos de alta eficiencia, incluidos superplastificantes combinados con retardadores o aceleradores, así como aditivos reductores de retracción. A la hora de elegir, hay que tener en cuenta el tipo de adición y su interacción con el sistema.

Las normativas UNE-EN 197-1, 197-5 y 197-6 han ampliado el espectro de cementos aceptados, incluyendo nuevos tipos como el CEM VI y aquellos con materiales reciclados. Estas actualizaciones ofrecen una mayor flexibilidad en la formulación de cementos sostenibles, pero también exigen métodos de validación más precisos para garantizar la compatibilidad con aditivos y la calidad del producto final.

6. Cementos empleados y sensibilidad del método

El capítulo seis de la guía analiza los resultados obtenidos al aplicar el método de contraste a diversos tipos de cementos disponibles en el mercado, especialmente a aquellos que incorporan adiciones en proporciones significativas. El objetivo de este análisis es comprobar la capacidad del método para detectar diferencias sutiles en la interacción entre el cemento y el aditivo, y así evaluar su sensibilidad ante variaciones compositivas que, en principio, podrían parecer menores.

Se ha comprobado que el método de ensayo propuesto es sensible a las diferencias específicas en los comportamientos según el tipo de adición presente en el cemento. Entre las variables ensayadas, destacan la fluidez inicial, el mantenimiento de la consistencia, la cantidad de aire ocluido, la densidad del mortero fresco y los tiempos de fraguado. Estos parámetros permiten obtener una lectura clara de los efectos derivados del uso de diferentes tipos de adiciones, como escorias, cenizas volantes, calizas o puzolanas naturales.

Asimismo, el procedimiento permite observar los efectos de adiciones con altos grados de vitrificación o bajo nivel de ionización inicial, lo que puede inducir reacciones retardadas en la adsorción del aditivo. En estos casos, el ensayo no solo refleja una merma en la fluidez inicial, sino también un fenómeno de refluidificación tardía, lo que compromete la estabilidad del mortero con el paso del tiempo.

En general, los resultados confirman que el método de contraste no solo es reproducible, sino que su sensibilidad es suficiente para discriminar entre situaciones de compatibilidad aceptable y aquellas en las que existen limitaciones importantes que podrían comprometer el rendimiento del hormigón en aplicaciones reales.

7. Conclusiones

El análisis realizado en esta guía confirma que la compatibilidad entre cemento y aditivos no es un parámetro fijo o inherente al producto, sino que depende de un equilibrio dinámico y ajustado que debe evaluarse en función de cada combinación específica. La evolución de los cementos hacia formulaciones con menor huella de carbono ha introducido nuevas variables que afectan a este equilibrio, desde cambios en la mineralogía hasta variaciones en la reactividad de las adiciones utilizadas.

El método de ensayo de contraste con morteros normalizados propuesto ha demostrado ser eficaz para anticipar el comportamiento del sistema cemento-aditivo, ya que permite identificar de manera temprana posibles desviaciones en propiedades clave como la fluidez, la consistencia, la oclusión de aire, la densidad y los tiempos de fraguado. Su implementación sistemática ofrece una herramienta de diagnóstico útil tanto en las fases de diseño como en el control de calidad de la producción industrial.

En definitiva, comprender las variables que afectan a la compatibilidad entre cementos y aditivos y disponer de herramientas de evaluación sensibles y bien estructuradas es fundamental para garantizar el rendimiento del hormigón en contextos de creciente exigencia ambiental y tecnológica.

Aquí tenéis un mapa mental de lo anteriormente expuesto.

Además, os dejo el documento completo para su consulta.

Pincha aquí para descargar

Cimentaciones en suelos blandos: análisis integral de mecanismos de fallo

Acaban de publicar nuestro artículo en la revista Buildings, de la editorial Elsevier, indexada en el JCR. El trabajo ofrece una contribución significativa al estudio de los mecanismos de fallo en fosos de cimentación profunda, especialmente en entornos geotécnicos desfavorables caracterizados por suelos blandos limosos. A diferencia de los enfoques previos, que tratan los problemas de estabilidad desde una perspectiva parcial, esta investigación desarrolla un modelo integral que combina simulaciones numéricas en tres dimensiones, pruebas de campo a escala real y un enfoque de acoplamiento microestructural para analizar el comportamiento del terreno y los elementos estructurales en condiciones reales de obra.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València, y es fruto de la colaboración internacional con investigadores de la Hunan University of Science and Engineering (China).

Uno de los principales logros del estudio radica en la aplicación de un modelo multidisciplinar acoplado que tiene en cuenta factores como la consolidación del terreno, la deformabilidad del sistema de contención, la presión del agua subterránea y la calidad de la ejecución del piloteado. Este modelo no solo permite diagnosticar fallos con alta precisión, sino también anticipar comportamientos críticos antes de que se manifiesten de forma visible. Esta capacidad predictiva supone un avance significativo en el campo del control de calidad y la seguridad estructural en cimentaciones profundas.

Además, el trabajo plantea una metodología replicable basada en el uso combinado de tecnologías de ensayo estático, pruebas de onda de baja deformación y modelado por elementos finitos. La gran cantidad de datos empíricos obtenidos, junto con su correlación con los resultados simulados, constituye una base sólida para el desarrollo de futuras normativas de control y supervisión de obras en suelos con baja capacidad portante.

La investigación se ha estructurado en torno a tres ejes metodológicos principales: pruebas de campo, ensayos de laboratorio y modelado numérico. En primer lugar, se llevaron a cabo ensayos in situ que incluyeron pruebas de penetración estándar, ensayos de penetración dinámica, pruebas de velocidad de onda de corte y muestreo mediante perforación mecánica. Estos ensayos se llevaron a cabo en el entorno del proyecto XSS-10D, una obra de gran escala con un foso de cimentación profunda sometido a condiciones geotécnicas complejas.

En segundo lugar, se realizaron ensayos geotécnicos de laboratorio sobre más de 140 muestras de suelo para determinar propiedades como la densidad seca y húmeda, el contenido de humedad, el límite líquido, la cohesión y el ángulo de fricción interna. Estos datos fueron fundamentales para definir los parámetros de entrada de los modelos numéricos.

Finalmente, se construyó un modelo tridimensional por elementos finitos utilizando el programa informático Abaqus CAE. Dicho modelo incorporó las características del suelo, las estructuras de contención, los pilotes y la acción de cargas externas, teniendo en cuenta tanto el comportamiento estático como las deformaciones diferidas. Además, se emplearon modelos viscoelásticos, como el de Kelvin, y se aplicó el criterio de rotura de Mohr-Coulomb para simular el comportamiento plástico del suelo.

Los resultados obtenidos a partir del estudio del proyecto XSS-10D confirman la eficacia del modelo acoplado para detectar defectos estructurales en cimentaciones profundas. En particular, se identificó que el pilote ZH2-194 presentaba una serie de análisis anómalos en los ensayos de baja deformación, los cuales se corroboraron mediante pruebas de carga estática y muestreo con extracción de testigos.

Las pruebas de carga estática evidenciaron desplazamientos superiores a los límites de servicio, mientras que el análisis del testigo reveló defectos de fabricación como oquedades, segregación de hormigón y contaminación con materiales finos. Estas deficiencias se atribuyeron a problemas en el proceso de hormigonado, como la intrusión de lodo en el interior de la perforación, la pérdida de trabajabilidad del hormigón y la falta de compactación adecuada.

El modelo numérico reprodujo con exactitud la distribución de esfuerzos y desplazamientos en la zona afectada y localizó los puntos de mayor concentración de tensiones en las inmediaciones del pilote defectuoso. Se observó un fenómeno de desplazamiento lateral y una redistribución de esfuerzos en el sistema de contención, lo que refuerza la necesidad de tener en cuenta la interacción entre el suelo y la estructura en su conjunto.

Los resultados también mostraron la importancia de factores como la presión del agua subterránea, la consolidación secundaria del suelo y la heterogeneidad estratigráfica en la evolución de los mecanismos de fallo. En particular, la capa de limos blandos localizada en el estrato 3 resultó ser un elemento clave en la pérdida de capacidad portante y el desarrollo de deformaciones excesivas.

A partir de los resultados del presente estudio, se abren diversas posibilidades para profundizar en el análisis de cimentaciones en entornos complejos. Una dirección prometedora consiste en incorporar técnicas de inteligencia artificial para detectar automáticamente los defectos mediante el procesamiento de datos de sensores de deformación y pruebas dinámicas. Esta integración permitiría establecer sistemas de supervisión continua con capacidad de aprendizaje adaptativo.

También es pertinente investigar nuevos materiales con propiedades reológicas adaptadas a entornos saturados o con baja resistencia al corte, como morteros tixotrópicos o mezclas de hormigón autocompactante con aditivos antifisuración.

Otra línea de investigación interesante es el estudio del comportamiento de los sistemas de contención bajo acciones cíclicas o sísmicas, ya que los modelos actuales tienden a centrarse en condiciones estáticas. La incorporación de elementos de análisis dinámico permitiría mejorar la resistencia global del sistema ante eventos extremos.

Por último, se propone la estandarización de protocolos para la inspección microestructural de pilotes defectuosos, en los que se establecen umbrales de aceptabilidad y criterios objetivos de intervención.

En conclusión, el estudio realizado constituye una aportación relevante y detallada al conocimiento sobre los mecanismos de fallo en cimentaciones profundas en suelos blandos. Su enfoque integral, que combina simulaciones numéricas, ensayos geotécnicos y análisis microestructurales, ofrece herramientas eficaces para detectar patologías estructurales de manera temprana. Además, sentará las bases para mejorar los procesos constructivos y desarrollar nuevas metodologías de control de calidad adaptadas a entornos complejos. La replicabilidad del modelo y su aplicabilidad en casos reales lo convierten en una referencia útil para estudiantes y profesionales de la ingeniería civil.

Referencia:

ZHOU, Z.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Study on the failure mechanism of deep foundation pit of high-rise building: comprehensive test and microstructure coupling. Buildings, 15(8), 1270. DOI:10.3390/buildings15081270

Como el artículo es en abierto, os lo dejo para su descarga:

Pincha aquí para descargar

Principio de Saint-Venant

Figura 1. Principio de Saint-Venant. https://ocw.bib.upct.es/

En el análisis de estructuras de los ámbitos de la ingeniería civil y mecánica se presentan numerosas situaciones en las que se aplican cargas en regiones localizadas de un cuerpo elástico. En estos casos, el estudio detallado del comportamiento del esfuerzo y la deformación cerca de los puntos de carga puede resultar complejo o innecesario si el interés del análisis se centra en regiones alejadas de estas zonas. Para abordar este tipo de problemas de forma más eficiente, se recurre al principio de Saint-Venant, formulado por el científico francés Adhémar Jean Claude Barré de Saint-Venant en 1855.

El principio de Saint-Venant se basa en una observación fundamental:

Los esfuerzos y deformaciones unitarias producidos en puntos del cuerpo que están suficientemente alejados de la zona donde se aplica una carga son prácticamente iguales a los que se producirían si en su lugar se aplicara otra distribución de cargas estáticamente equivalente sobre la misma región.

En otras palabras, si dos sistemas de fuerzas generan la misma resultante y el mismo momento resultante en una región concreta del cuerpo, entonces su efecto sobre el campo de tensiones y deformaciones a cierta distancia de esa zona será prácticamente el mismo, independientemente de cómo se distribuya la carga exactamente en esa región.

Este principio también implica que los efectos locales, como concentraciones de esfuerzo o distribuciones complejas cerca de los apoyos o puntos de aplicación, se disipan progresivamente hacia el interior del cuerpo y dejan de tener influencia significativa en zonas alejadas.

Desde el punto de vista físico, el principio de Saint-Venant se basa en la capacidad de los materiales elásticos para redistribuir las tensiones internamente. Las cargas aplicadas en una pequeña región producen un campo de tensiones localmente complejo, pero este campo tiende a estabilizarse a medida que nos alejamos de la fuente de perturbación.

Por ejemplo, una carga puntual aplicada sobre una estructura provoca, en teoría, una tensión infinita en su punto de aplicación. Para modelar correctamente esta situación, se reemplaza por una distribución continua de carga sobre una pequeña superficie, de modo que se mantiene el equilibrio estático (misma fuerza y mismo momento). Aunque el reparto de tensiones es diferente cerca del punto de carga, el comportamiento del cuerpo será el mismo en regiones lejanas para ambas situaciones.

Figura 2. Distribución de tensiones en el plano central vertical. https://spotcursos.com.br/blogs/mecanica-das-estruturas/posts/o-principio-de-saint-vernant

Este principio tiene consecuencias directas en el análisis estructural, ya que permite simplificar el estudio de esfuerzos y deformaciones sin necesidad de conocer con detalle la forma real de aplicación de las cargas. Algunas aplicaciones clave son:

  • Idealización de cargas complejas: las cargas concentradas, como ruedas, apoyos o uniones, pueden modelarse como distribuciones equivalentes sin alterar el análisis global.
  • Diseño por tramos o secciones: el comportamiento de una viga o columna puede estudiarse por secciones lejos de los apoyos sin considerar la distribución exacta de las reacciones.
  • Análisis numérico (por el método de elementos finitos): en zonas alejadas de las condiciones de contorno, no es necesario modelar con alta precisión el contacto o la geometría de la carga.

En general, esta «distancia suficiente» a partir de la cual se puede aplicar el principio con seguridad depende de las dimensiones características del cuerpo. En el caso de las vigas, suele ser de una a dos veces la altura de la sección transversal.

Para facilitar la comprensión, puede resumirse de la siguiente manera:

Al estudiar la distribución de esfuerzos en un cuerpo, si nos situamos en una sección suficientemente alejada de los puntos de aplicación de la carga, no necesitamos conocer la forma exacta en que se aplicaron esas cargas.

Lo relevante es que cualquier otra carga aplicada en la misma región y que sea estáticamente equivalente generará en esa sección los mismos esfuerzos y deformaciones unitarias. En consecuencia, los efectos locales se «suavizan» con la distancia y, en las zonas alejadas, predomina el equilibrio global de fuerzas.

A pesar de su utilidad, el principio de Saint-Venant no debe aplicarse en ciertas condiciones, como por ejemplo:

  • Análisis de tensiones cerca de puntos de carga o apoyos, donde los efectos locales no se han disipado.
  • Situaciones donde se presentan fenómenos como fatiga, fisuración o plastificación, que dependen críticamente de concentraciones de tensiones.
  • Cuerpos donde la distancia entre la zona de carga y la zona de interés es comparable a las dimensiones del sólido, por lo que no puede garantizarse la atenuación de efectos.

Tampoco es válido en materiales no elásticos o no lineales, donde la redistribución interna del esfuerzo no sigue el comportamiento descrito por la teoría elástica clásica.

El principio de Saint-Venant es un pilar fundamental en la formulación de modelos estructurales simplificados. Su aplicación permite al ingeniero centrarse en el análisis global sin necesidad de resolver problemas localmente complejos cerca de las cargas o apoyos.

En resumen, este principio nos recuerda que:

  • Los detalles locales importan poco a gran distancia, siempre que se conserve el equilibrio estático.
  • Las cargas reales pueden sustituirse por distribuciones ideales equivalentes en regiones alejadas.
  • La disipación de los efectos locales permite resolver problemas estructurales con mayor eficiencia sin sacrificar precisión en la mayoría de los casos prácticos.

Os dejo algunos vídeos explicativos. Espero que os sean de interés.

Referencias:

  • Berrocal, L. O. (2007). Resistencia de materiales. McGraw-Hill.
  • Hibbeler, R. C. (2006). Mecánica de materiales. Pearson educación.
  • Rui-Wamba, J. (2020). Teoría unificada de estructuras y cimientos: Una mirada transversal. Reverte.

Fazlur Rahman Khan: el ingeniero que reinventó los rascacielos

Fazlur Rahman Khan (1929-1982). https://en.wikipedia.org/wiki/Fazlur_Rahman_Khan

Fazlur Rahman Khan nació el 3 de abril de 1929 en Dhaka, que entonces formaba parte del Raj británico y hoy es la capital de Bangladés. Provenía de una familia bengalí musulmana: su padre, Khan Bahadur Abdur Rahman Khan, destacó como profesor, y su madre, Khadijah Khatun, pertenecía a una familia zamindar. Durante su infancia en una ciudad con construcciones modestas, comenzó a desarrollar una sensibilidad por el entorno construido que marcaría su carrera.

Tras completar sus estudios secundarios en el Armanitola Government High School, se graduó con honores en 1950 en el Bengal Engineering College, que por entonces estaba adscrito a la Universidad de Dhaka. En 1952, gracias a una beca Fulbright y con el apoyo del Gobierno de Pakistán, se trasladó a Estados Unidos para estudiar en la Universidad de Illinois en Urbana-Champaign. En tan solo tres años, obtuvo dos másteres y un doctorado en Ingeniería Estructural, centrando su tesis en el estudio de vigas pretensadas de hormigón.

En 1955 se incorporó a Skidmore, Owings & Merrill (SOM), una de las firmas de arquitectura e ingeniería más prestigiosas de Estados Unidos, con sede en Chicago. Allí entabló una colaboración clave con el arquitecto Bruce Graham. Su ascenso fue rápido: en 1966 fue nombrado socio y en 1970 alcanzó el rango de socio general. Trabajó en SOM durante toda su vida profesional, excepto por una breve interrupción.

John Hancock Center. https://en.wikipedia.org/

En esa etapa, Khan revolucionó el diseño de rascacielos al dejar de depender de las estructuras de acero convencionales. Inspirándose en la resistencia del bambú, ideó el concepto estructural de «tubo», que convertía las fachadas en elementos portantes. Este enfoque aumentó la eficiencia frente a cargas laterales, como el viento o los seísmos, y redujo la necesidad de materiales y el espacio interior necesario. Desarrolló distintas variantes del sistema: el tubo enmarcado, el tubo-en-tubo, el tubo agrupado y el tubo diagonalizado.

El primer edificio en incorporar esta tecnología fue el DeWitt-Chestnut Apartments (actualmente Plaza on DeWitt), en Chicago, concluido en 1963. En 1965, aplicó por primera vez el sistema de tubo con celosía en la estructura del John Hancock Center, logrando reducir notablemente el uso de acero en comparación con edificaciones anteriores, como el Empire State. En 1973, la Willis Tower (anteriormente Sears Tower) llevó su innovación aún más lejos al emplear el sistema de tubos agrupados, con los que se alcanzaron los 442 metros de altura con una estructura compuesta por nueve módulos unidos.

 

Willis Tower. https://en.wikipedia.org/

Además, Khan implementó el sistema tubo-en-tubo en el One Shell Plaza y el sistema de interacción marco-muro cortante en el Brunswick Building. También introdujo estructuras con arriostramientos y vigas de traspaso en edificios como la BHP House y el First Wisconsin Center, que resultan especialmente útiles en edificios de altura media.

Fue pionero en el uso de tecnologías de cálculo estructural por ordenador. Convenció a SOM de invertir en un mainframe y se encargó personalmente de programar tanto los cálculos como los dibujos técnicos, situando a la empresa a la vanguardia del diseño asistido por ordenador. También promovió el uso de prefabricados y hormigón ligero en edificios altos.

Durante los años setenta, su trabajo fue ampliamente reconocido. Recibió la Medalla Wason del American Concrete Institute (1971), el Thomas Middlebrooks Award (1972), el Alfred Lindau Award (1973), la Kimbrough Medal del American Institute of Steel Construction (1973) y la medalla Oscar Faber de la Institution of Structural Engineers de Londres (1973). Ese mismo año ingresó en la Academia Nacional de Ingeniería de Estados Unidos. En 1972, Engineering News-Record lo reconoció como «Hombre del Año» y lo incluyó cinco veces entre las figuras más influyentes del sector. Recibió doctorados honoris causa de las universidades Northwestern, Lehigh y ETH Zúrich.

En 1977 obtuvo el premio Ernest Howard de la Sociedad Americana de Ingenieros Civiles (ASCE). En 1981, diseñó la terminal del Hajj del Aeropuerto Internacional Rey Abdulaziz, en Arabia Saudí, que cuenta con cubiertas tensadas tipo tienda, lo que impulsó el uso de tejidos estructurales. También participó en proyectos como la Universidad Rey Abdulaziz, la Academia de la Fuerza Aérea de EE. UU. en Colorado Springs y el estadio Hubert H. Humphrey Metrodome de Mineápolis.

En sus últimos años desarrolló, junto al ingeniero Mark Fintel, conceptos pioneros para la protección sísmica de edificios mediante mecanismos de absorción de energía, que son el antecedente directo de los actuales sistemas de aislamiento sísmico.

El 27 de marzo de 1982, durante un viaje a Yeda (Arabia Saudí), Khan falleció de un infarto a la edad de 52 años. En ese momento era socio general de SOM. Su cuerpo fue trasladado a Estados Unidos y enterrado en el cementerio Graceland de Chicago. Su muerte supuso una gran pérdida para la ingeniería estructural, pero su legado perdura y sigue creciendo.

Tras su fallecimiento, continuaron los reconocimientos. En 1983 recibió el International Award of Merit in Structural Engineering de la IABSE y el AIA Institute Honor del American Institute of Architects. En 1987 fue galardonado con el John Parmer Award de la Asociación de Ingenieros Estructurales de Illinois y, en 2006, ingresó en el Salón de la Fama de la Ingeniería de Illinois.

El Consejo de Edificios Altos y Habitat Urbano instituyó la Medalla a la Trayectoria Fazlur Khan y estableció la cátedra Fazlur Rahman Khan Endowed Chair en la Universidad de Lehigh, actualmente ocupada por el profesor Dan Frangopol. Estas iniciativas promueven la investigación y la formación en arquitectura e ingeniería estructural.

En 2009, en su discurso en la Universidad de El Cairo, el presidente Barack Obama mencionó a Khan como ejemplo del legado de los ciudadanos musulmanes en Estados Unidos. En 2017, Google le dedicó un Doodle con motivo de su 88.º aniversario. En 2021, la directora Laila Kazmi inició la producción del documental Reaching New Heights: Fazlur Rahman Khan and the Skyscraper, con el apoyo de ITVS y la productora Kazbar Media.

Khan redefinió la forma de concebir los rascacielos. Gracias a su innovación estructural, fue posible construir edificios más altos, seguros, económicos y habitables. Entre sus principales aportaciones técnicas destacan:

  • Tubo enmarcado: estructura perimetral rígida que actúa como un gran tubo vertical anclado en la base. Permite una gran eficiencia ante cargas laterales. Ejemplo: World Trade Center (1973).

  • Tubo-en-tubo: combina un núcleo interno resistente con una estructura perimetral conectada por los forjados. Aumenta la rigidez global.

  • Tubos agrupados: sistema compuesto por varios tubos verticales unidos que forman una única estructura, como la Willis Tower (1975).

  • Tubo diagonalizado: incorpora diagonales visibles en fachada, que refuerzan el conjunto y generan una estética singular. Ejemplo: John Hancock Center (1970).

Más allá de la técnica, Khan fue un pensador ético y humanista. Durante la guerra de independencia de Bangladés en 1971, fundó el Movimiento por la Liberación de su país en Estados Unidos. También fue un puente entre ingeniería y arquitectura, defendiendo un enfoque integral y sensible al contexto.

Su hija, Yasmin Sabina Khan, le rindió homenaje con el libro Engineering Architecture: the Vision of Fazlur R. Khan (2004), un testimonio tanto técnico como humano. Como escribió Engineering News-Record en su obituario: “El consuelo es que sus estructuras seguirán en pie durante años, y sus ideas nunca morirán”.

Khan también hizo importantes contribuciones académicas. Entre sus publicaciones más influyentes figuran:

  • Computer Design of 100-Story John Hancock Center (1966)

  • On Some Special Problems of Analysis and Design of Shear Wall Structures (1966)

  • 100-Story John Hancock Center in Chicago – A Case Study of the Design Process (1972)

  • New Structural Systems for Tall Buildings and their Scale Effects on Cities (1974)

El ingeniero alemán Werner Sobek lo describió como «la vanguardia de la segunda escuela de Chicago», una corriente que integró de forma ejemplar la eficiencia estructural con la expresión arquitectónica.

En definitiva, Fazlur Rahman Khan no solo transformó la forma de construir en altura, sino que también cambió la manera de entender la arquitectura desde la ingeniería. Su vida fue una lección de innovación, compromiso y visión. Sus edificios, en pie en todo el mundo, siguen hablándonos hoy de su genialidad.

Os dejo un vídeo sobre este ilustre ingeniero (en inglés).

Jornada sobre infraestructuras resilientes al clima

El Colegio de Ingenieros de Caminos, Canales y Puertos organizó una jornada sobre Infraestructuras Resilientes al Clima el 4 de abril en el Auditorio Agustín de Betancourt. Estas jornadas tan interesantes se grabaron en un vídeo, que ahora os dejo.

El vídeo, titulado «Jornada sobre Infraestructuras Resilientes al Clima», es un recurso muy valioso que aborda la creciente necesidad de desarrollar infraestructuras que puedan resistir y adaptarse a los efectos del cambio climático.

Durante la jornada, se presentaron diferentes puntos de vista sobre cómo la ingeniería civil puede hacer frente a estos desafíos, resaltando la importancia de la resiliencia climática en la planificación y gestión de infraestructuras. Y ahora, vamos a echar un vistazo más de cerca a todo lo que se habló en la jornada.

 

 

 

1. Importancia de la resiliencia climática

La resiliencia climática se ha convertido en un concepto central en la planificación de infraestructuras, debido a la creciente vulnerabilidad de las comunidades ante eventos climáticos extremos.

Los impactos del cambio climático, tales como huracanes, inundaciones y sequías, han aumentado en frecuencia e intensidad. Estos fenómenos no solo afectan a las infraestructuras físicas, sino que también tienen repercusiones sociales y económicas significativas, que incluyen la pérdida de vidas, desplazamientos forzados y daños económicos.

A modo ilustrativo, en la jornada se expusieron ejemplos de comunidades que han adoptado soluciones resilientes, tales como sistemas de drenaje mejorados, infraestructura verde y edificaciones diseñadas para resistir eventos extremos. Estos ejemplos ponen de manifiesto los beneficios tangibles a largo plazo que conlleva la inversión en resiliencia.

2. Oportunidades profesionales en ingeniería civil

La jornada puso de manifiesto que la búsqueda de infraestructuras resilientes está generando nuevas oportunidades profesionales para los ingenieros civiles.

Se evidenció una demanda de especialistas debido a la necesidad imperante de adaptación al cambio climático, lo que ha generado una demanda de expertos en diversas áreas, tales como la gestión de recursos hídricos, la planificación urbana sostenible y la ingeniería de infraestructuras.

Se subrayó la relevancia de la educación continua y la formación especializada para que los profesionales puedan afrontar los desafíos emergentes en este campo. Los programas de capacitación y certificación en resiliencia climática son de vital importancia para la preparación de los ingenieros del futuro.

3. Retos normativos y de implementación

Uno de los asuntos más críticos que se ha planteado es la necesidad imperativa de adaptar las normativas vigentes para facilitar la implementación de infraestructuras resilientes.

Un número significativo de normativas vigentes no han sido concebidas para hacer frente a los riesgos asociados al cambio climático. Esta situación puede generar obstáculos para la implementación de soluciones innovadoras y efectivas.

En este sentido, se destacó la importancia de la colaboración interdisciplinaria entre ingenieros, urbanistas, arquitectos y responsables políticos. Un enfoque interdisciplinario puede ayudar a crear un marco normativo que apoye la resiliencia y facilite la implementación de proyectos.

Finalmente, se presentan ejemplos de mejores prácticas de otras regiones que han logrado adaptar sus normativas con éxito, lo que puede servir de modelo para otras comunidades.

4. Ingeniería humanitaria y adaptación a emergencias

En las jornadas también se subrayó el rol de la ingeniería humanitaria en el desarrollo de infraestructuras resilientes.

En lo que respecta a los denominados «Proyectos de respuesta rápida», se debatieron enfoques para el diseño de infraestructuras que puedan ser implantadas con celeridad en situaciones de emergencia, garantizando que las comunidades afectadas tengan acceso a servicios básicos de manera inmediata.

Por último, se abordó la importancia de la capacitación y los recursos, así como la formación de equipos de respuesta a emergencias y la disponibilidad de recursos adecuados, elementos esenciales para asegurar que las infraestructuras puedan soportar eventos extremos y facilitar la recuperación.

5. Educación y conciencia social

La jornada puso de manifiesto la importancia de la educación y la comunicación en la promoción de infraestructuras resilientes.

Es imperativo que la sociedad comprenda la relevancia de invertir en infraestructuras resilientes. En este sentido, la educación desempeña un papel crucial, ya que permite a las comunidades identificar los beneficios a largo plazo de tales inversiones.

Se propusieron programas de sensibilización que involucren a la comunidad en la planificación y diseño de infraestructuras, fomentando un sentido de propiedad y responsabilidad.

6. Financiación de infraestructuras resilientes

La financiación constituye uno de los desafíos más significativos en el desarrollo de infraestructuras resilientes.

En lo que respecta a las fuentes de financiación, se presentan diversas estrategias para asegurar fondos, tales como la colaboración entre los sectores público y privado, así como la búsqueda de fondos internacionales destinados a proyectos de adaptación y mitigación del cambio climático.

También se presentaron ejemplos de modelos de inversión exitosos que han permitido financiar proyectos de infraestructura resiliente, destacando la importancia de demostrar el retorno de inversión a largo plazo.

7. Implementación de directivas y normativas en España

La jornada abordó la implantación de la directiva de gestión de avenidas en España, cuyo objetivo es el de mejorar la preparación y respuesta ante inundaciones.

Se abordó la cuestión de las dificultades que enfrentan las autoridades para aplicar estas directivas de manera efectiva, así como las adaptaciones necesarias para enfrentar fenómenos climáticos inesperados.

Finalmente, se presentaron las lecciones aprendidas de la implantación de estas directivas, así como recomendaciones para mejorar la efectividad de las políticas existentes.

8. Innovaciones tecnológicas y soluciones sostenibles

La jornada destacó la importancia de la tecnología en el desarrollo de infraestructuras resilientes. También se abordó el tema de tecnologías emergentes, tales como la inteligencia artificial y el modelado predictivo, que tienen el potencial de ayudar a anticipar y gestionar los riesgos climáticos.

En lo que respecta a la Infraestructura Verde, se expusieron soluciones basadas en la integración de la naturaleza, como los techos verdes y los sistemas de drenaje sostenible, que se presentan como una estrategia eficaz para aumentar la resiliencia de las infraestructuras.

9. Perspectivas futuras y llamado a la acción

La jornada concluyó con una exhortación a la acción dirigida a todos los profesionales implicados en la planificación y gestión de infraestructuras.

Se hizo especial hincapié en que la responsabilidad de hacer frente al cambio climático es compartida y requiere la colaboración de todos los sectores de la sociedad.

Asimismo, se instó a los profesionales a adoptar una visión a largo plazo en la planificación de infraestructuras, contemplando no solo las necesidades actuales, sino también los desafíos futuros que plantea el cambio climático.

Conclusión

La jornada sobre infraestructuras resilientes al clima constituye un llamamiento a la acción dirigido a los profesionales de la ingeniería civil y otros actores implicados en la planificación y gestión de infraestructuras. La adaptación al cambio climático no solo es una responsabilidad, sino una oportunidad para innovar y crear un futuro más seguro y sostenible. Para ello, resulta imprescindible la colaboración, la educación y la inversión, que son pilares fundamentales para lograr infraestructuras que no solo resistan los desafíos actuales, sino que también estén preparadas para los retos del futuro. Este enfoque integral resulta imperativo para asegurar que las comunidades no solo sobrevivan, sino que prosperen en un mundo cada vez más afectado por el cambio climático.

Aquí tenéis un mapa conceptual de la jornada.

Pero creo que lo mejor es que, si tenéis un rato, oigáis de primera mano todas y cada una de las intervenciones en este vídeo. Espero que os sea de interés.

Glosario de términos clave

  • Adaptación al Cambio Climático: Proceso de ajuste a los impactos actuales o esperados del cambio climático. En el contexto de las infraestructuras, implica modificar su diseño, construcción y operación para soportar condiciones climáticas extremas.
  • Resiliencia (Climática): Capacidad de un sistema, comunidad o infraestructura para anticipar, resistir, adaptarse y recuperarse de eventos adversos del clima.
  • Dana (Depresión Aislada en Niveles Altos): Fenómeno meteorológico que puede causar lluvias torrenciales e inundaciones severas, mencionado en el texto como causa de trágicas consecuencias.
  • Niveles Preindustriales: Periodo de referencia (antes de la Revolución Industrial) utilizado para medir el aumento de la temperatura global debido a las actividades humanas.
  • Fenómenos Meteorológicos Extremos: Eventos climáticos de intensidad inusual, como olas de calor, sequías, inundaciones torrenciales y tormentas severas.
  • Infraestructuras Críticas: Infraestructuras esenciales para el funcionamiento de la sociedad y la economía, como las de transporte, energía, agua y telecomunicaciones, cuya afectación tiene consecuencias significativas.
  • Plan Nacional de Adaptación al Cambio Climático (PNACC): Marco de acción en España para integrar el cambio climático en la planificación sectorial, incluyendo las infraestructuras.
  • Ley de Cambio Climático y Transición Energética (2021): Ley española que establece objetivos de reducción de emisiones y promueve la adaptación al cambio climático en diversos sectores.
  • Directiva de Resiliencia de Infraestructuras Críticas: Normativa de la Unión Europea que obliga a los Estados miembros a adoptar estrategias para mejorar la resiliencia de sus infraestructuras esenciales.
  • Seopán: Asociación de Empresas Constructoras y Concesionarias de Infraestructuras, mencionada por su análisis de inversión en infraestructuras prioritarias.
  • CEDEX (Centro de Estudios y Experimentación de Obras Públicas): Organismo técnico español que realiza estudios y análisis relacionados con la ingeniería civil y el medio ambiente.
  • Cuencas Hidráulicas: Áreas geográficas donde el agua drena hacia un río principal, mencionadas en relación con la planificación hidrológica y la gestión de inundaciones.
  • Soluciones Basadas en la Naturaleza: Enfoques para abordar los desafíos ambientales que utilizan o imitan procesos naturales para proporcionar beneficios tanto para el medio ambiente como para la sociedad.
  • Sistemas de Saneamiento: Infraestructuras urbanas destinadas a la recogida y tratamiento de aguas residuales y pluviales.
  • Vías Separativas: Sistemas de saneamiento en los que las aguas residuales y las aguas pluviales se recogen y transportan por redes de tuberías separadas.
  • Resiliencia Estructural: Capacidad de una estructura para mantener su función y recuperarse después de ser sometida a eventos extremos o perturbaciones.
  • Robustez: Capacidad de una infraestructura o sistema para resistir un evento adverso sin una pérdida significativa de funcionalidad.
  • Rapidez (en Resiliencia): Velocidad con la que un sistema o infraestructura puede recuperarse y restaurar su funcionalidad después de una perturbación.
  • Análisis de Riesgos Climáticos: Evaluación de la probabilidad e impacto potencial de los eventos climáticos adversos sobre las infraestructuras.
  • Marco de Sendai para la Reducción del Riesgo de Desastres (2015-2030): Acuerdo internacional que establece un marco global para la reducción del riesgo de desastres, incluyendo la importancia de invertir en resiliencia.
  • Predicción y Modelos Predictivos: Uso de datos y herramientas para anticipar futuros eventos climáticos y sus posibles impactos.
  • Incertidumbre Profunda: Situación en la que hay una falta de conocimiento sobre las probabilidades o los posibles resultados de un evento.
  • Cisne Negro (Teoría): Término utilizado para describir eventos altamente improbables, de gran impacto y que solo se pueden explicar o predecir en retrospectiva.
  • Disponibilidad: Capacidad de una infraestructura para estar operativa y proporcionar su servicio.
  • Capacidad (en Infraestructura): Volumen o nivel de servicio que una infraestructura puede soportar o manejar.
  • Vulnerabilidad: Susceptibilidad de una infraestructura a sufrir daños o perder funcionalidad debido a un evento climático adverso.
  • Exposición: Grado en que una infraestructura está situada en un área propensa a eventos climáticos adversos.
  • Sensibilidad: Grado en que una infraestructura se ve afectada por un evento climático adverso una vez expuesta a él.
  • Escenarios de Cambio Climático: Proyecciones de posibles futuras condiciones climáticas basadas en diferentes supuestos sobre las emisiones de gases de efecto invernadero.
  • Trayectorias Socioeconómicas Compartidas (SSP): Marcos utilizados en la investigación del cambio climático para describir posibles futuros socioeconómicos y sus implicaciones para las emisiones y la adaptación.
  • Análisis Coste-Beneficio: Método para evaluar la rentabilidad de diferentes opciones de inversión, comparando los costos y beneficios esperados.
  • Gobernanza: Procesos y estructuras para tomar decisiones e implementar acciones, en este contexto, relacionadas con la resiliencia de las infraestructuras.
  • Inventario de Activos: Base de datos que contiene información detallada sobre las infraestructuras y sus componentes.
  • Sistemas de Ayuda a la Decisión: Herramientas informáticas y modelos que asisten en la toma de decisiones complejas, como la gestión de inundaciones o sequías.
  • Llanuras de Inundación Controlada: Áreas designadas para ser inundadas de manera planificada durante eventos de crecida para reducir el riesgo en otras zonas.
  • Probable Maximum Flood (PMF) / Avenida Máxima Probable: Estimación del evento de inundación más severo que es razonablemente posible en un lugar dado.
  • Flash Floods / Crecidas Repentinas: Inundaciones rápidas y violentas que ocurren con poca o ninguna advertencia, a menudo causadas por lluvias torrenciales intensas.
  • Six Sigma: Metodología de gestión de procesos que busca reducir al mínimo la probabilidad de defectos o errores.
  • Poka-yoke: Sistemas a prueba de errores diseñados para prevenir o detectar errores humanos.
  • Consorcio Administrativo: Entidad legal formada por varias administraciones públicas para coordinar y ejecutar acciones conjuntas.
  • Gemelos Digitales: Réplicas virtuales de sistemas o infraestructuras físicas que permiten la simulación y el análisis.
  • Big Data: Conjuntos de datos muy grandes y complejos que pueden ser analizados para revelar patrones y tendencias.
  • Ingeniería Humanitaria: Aplicación de principios y habilidades de ingeniería para abordar crisis humanitarias y promover el bienestar humano.
  • Estacionariedad Climática: Suposición de que las propiedades estadísticas del clima (como las distribuciones de precipitación o temperatura) permanecen constantes a lo largo del tiempo.
  • Análisis Probabilístico: Enfoque para evaluar la probabilidad de ocurrencia de eventos y sus posibles consecuencias.
  • Métodos Semiprobalísticos: Métodos de diseño estructural que utilizan factores de seguridad parciales basados en consideraciones probabilísticas.
  • Trayectorias Adaptativas: Secuencias de medidas de adaptación que se pueden implementar a lo largo del tiempo para hacer frente a los impactos cambiantes del cambio climático.
  • KPIs Financieros (Indicadores Clave de Rendimiento Financiero): Métricas utilizadas para evaluar el desempeño financiero, que pueden incorporarse en el análisis de la resiliencia de las infraestructuras.

De vertedero a pavimento: La ciencia que mide el beneficio social de reciclar neumáticos en asfaltos

Imagine una carretera que no solo conecta lugares, sino que también genera beneficios sociales en las comunidades por donde pasa. Estamos colaborando con ingenieros chilenos para transformar neumáticos desechados en un innovador aditivo para asfalto llamado Fityre, demostrando que la sostenibilidad vial va más allá de reducir emisiones.

Un reciente estudio publicado en Applied Sciences, revista Q1 del JCR, revela que este material, elaborado con fibras textiles recicladas, supera a alternativas tradicionales en impacto social mediante una revolucionaria metodología: mapas cognitivos difusos. Estas herramientas no solo miden la resistencia o el coste, sino también cómo cada componente afecta a los empleos locales, los riesgos sanitarios y el cumplimiento de las políticas ambientales. ¿El resultado? Un modelo que podría redefinir la forma en que elegimos los materiales para construir las carreteras del futuro.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, en la Universitat Politècnica de València, y es fruto de la colaboración internacional con investigadores de Chile.

El estudio establece un nuevo paradigma metodológico para cuantificar la sostenibilidad social de materiales de construcción mediante mapas cognitivos difusos (FCM), abordando una laguna crítica en la evaluación de infraestructuras. La innovación central consiste en modelar 116 interrelaciones entre 16 indicadores sociales, desde la creación de empleo local hasta la alineación con políticas de economía circular, superando las aproximaciones estáticas convencionales. Este enfoque dinámico permite simular efectos de segundo orden y dependencias no lineales entre variables, y proporciona una herramienta predictiva para diseñar políticas de materiales con un impacto social positivo.

La validación experimental del aditivo Fityre, compuesto por fibras textiles de neumáticos postconsumo (TfELT), demuestra que los materiales reciclados pueden superar a las alternativas importadas en múltiples dimensiones sociales. El análisis revela que Fityre aumenta entre un 30 y un 40 % los indicadores clave de reducción de riesgos sanitarios (I5) y contribución a la revalorización de residuos (I10), sentando un precedente para sustituir insumos vírgenes en países en vías de industrialización. Además, el marco metodológico desarrollado es adaptable para evaluar otros componentes de infraestructura, como hormigones y sistemas de drenaje urbano.

La investigación combina técnicas cualitativas y cuantitativas en tres fases secuenciales:

  1. Construcción del modelo conceptual: mediante la triangulación de entrevistas semiestructuradas (42 expertos), la revisión de normativas chilenas (Ley REP 20.920) y el análisis de manuales técnicos, se identificaron 16 indicadores sociales agrupados en 7 criterios. Un panel Delphi de trece especialistas validó la estructura mediante consenso binomial (75 % de acuerdo).
  2. Desarrollo del FCM: se mapearon las relaciones causales entre los indicadores mediante encuestas que asignaron pesos lingüísticos (desde muy baja hasta muy alta influencia) y polaridad (+/-) utilizando la plataforma QuestionPro. Un sistema de inferencia difusa (FIS) con funciones de membresía triangulares transformó estas respuestas cualitativas en pesos numéricos normalizados (entre -1 y +1). La estabilidad del modelo se verificó mediante iteraciones sucesivas hasta alcanzar la convergencia (<0,001 de variación entre ciclos 5-6).
  3. Evaluación dinámica: cuatro aditivos (Fityre, fibra de vidrio, poliéster y aramida) se analizaron mediante simulación de estados iniciales (t₀) basados en datos técnicos y socioeconómicos chilenos. La contribución social se cuantificó mediante la distancia de Manhattan respecto a un punto anti-ideal, considerando tres etapas del ciclo de vida: extracción, producción y mezclado.

El FCM revela patrones que van en contra de la intuición: mientras que los indicadores técnicos (I3: contribución técnica, I14: certificaciones) muestran una alta centralidad (grado de influencia = 8,7), su impacto en la sostenibilidad social es moderado (λ = 0,42). Esto sugiere que las mejoras técnicas no garantizan beneficios sociales automáticos, por lo que son necesarias intervenciones complementarias en materia de formación laboral y divulgación comunitaria.

En el caso de Fityre, se observa un efecto multiplicador en los criterios de revalorización: cada punto porcentual en I2 (extensión de la vida útil) genera incrementos del 0,8 % en I10 (cumplimiento del REP) y del 0,5 % en I5 (reducción de incendios). Este acoplamiento refuerza la viabilidad de modelos de negocio basados en simbiosis industrial, en los que los residuos de un sector se convierten en insumos críticos para otro.

Las fibras importadas, aunque superiores en I13 (interés de los productores, 75 % frente al 51 % de Fityre), presentan vulnerabilidades sistémicas: una variación del 10 % en los costes logísticos reduce su contribución social total en un 12,4 %, frente al 4,1 % de Fityre. Esto pone de manifiesto la importancia de desarrollar cadenas de suministro locales para materiales sostenibles.

Este estudio ofrece interesantes líneas de investigación futura:

  • Integración con análisis de ciclo de vida híbrido: combinación de FCM con ACV mediante modelos de entrada-salida extendidos, que permiten evaluar el impacto de las decisiones sobre la huella de carbono y la creación de empleo cualificado.
  • Optimización multiobjetivo: aplicar algoritmos genéticos para identificar dosificaciones óptimas de aditivos que maximicen simultáneamente parámetros sociales (I4: empleo nacional), técnicos (resistencia a la fatiga) y económicos (coste por tonelada).
  • Estudios de percepción social: implementar sistemas de supervisión participativa en proyectos piloto para correlacionar indicadores modelados (I9: aceptación al cambio) con métricas empíricas de satisfacción comunitaria.
  • Escalado industrial: desarrollar protocolos para adaptar el modelo a escalas de producción masiva y analizar los efectos de las economías de escala en indicadores como I15 (disponibilidad de fibra) y I7 (cantidad requerida por mezcla).
  • Arquitecturas de gestión: investigar modelos de contratación pública que internalicen los hallazgos del FCM mediante cláusulas de compra verde con ponderaciones sociales explícitas en licitaciones viales.

En conclusión, este trabajo trasciende el enfoque convencional en las propiedades mecánicas de los materiales y propone un marco sistémico para la toma de decisiones en ingeniería civil. Al cuantificar cómo elecciones técnicas afectan a dinámicas sociales complejas, proporciona herramientas para alinear proyectos de infraestructura con los ODS 9 (industria innovadora) y 12 (producción responsable). Los resultados justifican políticas activas de fomento del uso de materiales reciclados locales, no solo por sus beneficios ambientales, sino también por su capacidad para generar capital social en economías emergentes.

Referencia:

SIERRA-VARELA, L.; CALABI-FLOODY, A.; VALDÉS-VIDAL, G.; YEPES, V.; FILUN-SANTANA, A. (2025). Determination of the social contribution of sustainable additives for asphalt mixes through fuzzy cognitive mapping. Applied Sciences, 15(7):3994. DOI:10.3390/app15073994

Como el artículo está publicado en abierto, os lo dejo para su descarga.

Pincha aquí para descargar