Seguimiento inteligente de deslizamientos en suelos de loess: aplicaciones prácticas y lecciones para el ingeniero civil

Acaban de publicar un artículo en la revista, Geomechanics for Energy and the Environment, de la editorial Elsevier, indexada en el JCR. El presente artículo examina un estudio que combina medición en pilotes de hormigón armado, tecnologías GNSS e InSAR y simulaciones de elementos finitos para entender cómo interactúan factores como la presión, la temperatura y la humedad en la evolución de taludes colapsables.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València, y es fruto de la colaboración internacional con investigadores de la Hunan University of Science and Engineering (China).

Podéis descargar el artículo de forma gratuita, hasta el 22 de julio de 2025, en la siguiente dirección: https://authors.elsevier.com/c/1lCKs8MtfNSrg1

En entornos donde los suelos de loess presentan alta susceptibilidad a deslizamientos, disponer de información precisa y temprana resulta determinante para garantizar la estabilidad de las infraestructuras y la seguridad de las comunidades.  A partir de los datos de campo y de la validación numérica, se extraen conclusiones clave sobre cómo dimensionar sistemas de refuerzo, configurar umbrales de alerta temprana y optimizar el diseño de pilotes en proyectos reales. A lo largo del texto se detallan tanto la metodología empleada como las aportaciones más relevantes, la interpretación de los resultados y las líneas futuras de investigación, de modo que el profesional del sector disponga de criterios sólidos para aplicar en obra o en la elaboración de proyectos de contención y estabilización en loess.

Metodología

El estudio combina la vigilancia de campo y simulación numérica para caracterizar el comportamiento de deslizamientos en suelos de loess. Se diseñó una red de instrumentación que incluye:

  • Pilotes de hormigón armado con sensores de presión y temperatura instalados a distintas profundidades (entre 2 m y 16 m). Estos sensores registran continuamente variaciones de tensión y temperatura, permitiendo asociar cambios térmicos con redistribuciones de fricción lateral entre pilote y suelo.
  • Receptores GNSS de alta precisión para medir desplazamientos superficiales con cadencia diaria.
  • Técnicas InSAR destinadas a generar mapas de deformación de superficie con resolución milimétrica.
  • Sensores de alambre vibrante para detectar cambios en humedad y densidad del terreno, claves para evaluar la resistencia interna del suelo y su evolución ante variaciones de carga y humedad.

En paralelo, en laboratorio se realizaron ensayos geomecánicos sobre muestras de loess. Se determinaron parámetros fundamentales: cohesión, ángulo de fricción, módulo de deformación y relación de vacíos. Estos datos alimentaron un modelo tridimensional de elementos finitos de tipo termomecánico, que incorpora:

  1. Parámetros de resistencia al corte y rigidez del suelo, calibrados mediante comparación con los desplazamientos y tensiones reales observados en campo.
  2. Condiciones de contorno tomadas de las lecturas de GNSS, InSAR y sensores en pilotes, para reproducir las condiciones de carga estática y los ciclos térmicos naturales.
  3. Proceso de optimización iterativa, ajustando el modelo hasta que las predicciones de deformación coincidieran con los datos de monitorización (diferencia inferior al 5 % entre desplazamientos numéricos y medidos) .

Este enfoque dual—campo y simulación—garantiza que las conclusiones numéricas se basen en datos reales y que los sistemas de seguimiento puedan ser validados frente a un modelo predictivo confiable.

Aportaciones relevantes

El artículo introduce un método integral de monitorización inteligente que va más allá del registro de desplazamientos superficiales. Los aspectos más destacados, con aplicación directa para el ingeniero civil, son:

  • Medición de tensiones internas en profundidad: La instalación de sensores de presión en pilotes permite identificar aumentos de carga a diferentes niveles. Los resultados mostraron que la presión tiende a incrementarse de forma monótona con la profundidad, lo que indica que los estratos inferiores soportan una mayor carga estática. Este comportamiento aporta información valiosa para dimensionar pilotes y elementos de refuerzo, pues revela en qué zonas del talud se concentran esfuerzos críticos antes de que se trasladen a la superficie.
  • Indicadores térmicos de fricción lateral: Las variaciones de temperatura registradas en los pilotes resultan ser un indicador temprano de cambios en la interacción entre el hormigón y el terreno. Aumentos de temperatura intermedios de hasta 3 °C por ciclos diurnos se correlacionaron con un incremento momentáneo de fricción lateral, lo que puede retrasar o anticipar movimientos dependientes de la descompresión del terreno. Para el ingeniero, esto significa que el seguimiento térmico aporta información adicional sobre el estado crítico del pilote antes de observar movimientos visibles.
  • Integración de GNSS e InSAR: Al combinar medidas GNSS (desplazamientos puntuales diarios) con mapas InSAR (cobertura continua de la superficie), se obtiene una visión conjunta de movimientos tanto profundos como superficiales. En el estudio, los desplazamientos de superficie máximos alcanzaron 26,2 mm, con velocidades de 0,11 mm/día, mientras que en profundidad se observaron desplazamientos de hasta 5,64 mm. Estos resultados permiten calibrar sistemas de alerta temprana sobre umbrales de desplazamiento en superficie que reflejen con mayor fiabilidad la evolución interna del talud.
  • Validación del modelo numérico: La comparación entre las simulaciones de elementos finitos y los datos de campo mostró concordancia en las tendencias de deformación. El modelo predijo con precisión que los bloques con geometría más inclinada y menor cohesión interna sufrirían desplazamientos sustanciales (hasta 6,48 m en algunos tramos simulados), mientras que bloques de forma más estable presentaron desplazamientos medios inferiores a 0,20 m. Esta validación otorga credibilidad al modelo para anticipar magnitudes de deformación en función de propiedades geomecánicas y geometría del talud.

En conjunto, estas aportaciones proveen al ingeniero civil una base sólida para diseñar sistemas de protección y refuerzo, establecer niveles de alerta basados en parámetros internos (presión y temperatura) y optimizar diseños de pilotes según las condiciones específicas del terreno de loess.

Discusión de resultados

Los registros de presión en pilotes revelaron que a profundidades superiores a 10 m los valores oscilan entre 50 kPa y 65 kPa, mientras que en los primeros metros (2 m–5 m) se sitúan entre 5 kPa y 20 kPa. Estos gradientes de presión confirman que la mayor parte de la carga estática recae en los estratos inferiores, algo habitual en suelos colapsables. Para el ingeniero, esta información práctica implica que, al diseñar pilotes de refuerzo, debe dimensionarse la sección y longitud considerando un incremento significativo de esfuerzos por debajo de 10 m de profundidad.

Asimismo, las variaciones térmicas registradas mostraron que, durante días con escasa precipitación, las temperaturas del hormigón en pilotes oscilan en un rango de 2 °C a 3 °C en zonas intermedias. Este efecto térmico se traduce en un aumento temporal de la fricción entre el pilote y el suelo, lo que actúa como un freno temporal al movimiento. Sin embargo, tras eventos de lluvia intensa, la entrada de agua reduce la temperatura y, simultáneamente, se observa una disminución de la fricción lateral, provocando repentinamente un aumento de desplazamientos en la superficie. Para el diseño práctico, esto sugiere que los sistemas de alerta temprana deben incorporar sensores de temperatura en pilotes para correlacionar descensos térmicos con posibles incrementos de desplazamiento.

Los desplazamientos superficiales medidos mediante GNSS e InSAR confirman que los movimientos más significativos (hasta 26,2 mm) se producen después de periodos de lluvia intensa, cuando la capacidad de drenaje del loess se ve limitada y presta a la saturación parcial del estrato superior. En estos momentos, los desplazamientos profundos (hasta 5,64 mm) preceden a los superficiales, lo que indica que la evolución interna puede anticipar la inestabilidad. En la práctica, esto recomienda que el seguimiento continuo de movimientos profundos—detectables por un ligero desplazamiento en pilotes o por un ligero aumento de presión de poros—sea prioridad para emitir avisos antes de observar grandes desplazamientos en la superficie.

Desde el punto de vista de la simulación numérica, el modelo de elementos finitos calibrado con los parámetros geomecánicos del loess mostró que los desplazamientos máximos simulados en bloques con ángulos de inclinación superiores a 30° podrían alcanzar valores de hasta 6,48 m en escenarios extremos de carga gradual. En contraste, bloques con inclinación por debajo de 20° presentaron apenas 0,20 m de deformación promedio. Estos resultados empíricos permiten al ingeniero estimar rangos de deformación potenciales según la geometría del talud y decidir si es necesario instalar medidas de contención adicionales (muros de mampostería, gaviones o anclajes). Asimismo, la validación numérica asegura que, en proyectos futuros, el ingeniero pueda confiar en simulaciones previamente calibradas para evaluar la viabilidad de distintas intervenciones.

Futuras líneas de investigación

Con el objetivo de mejorar la práctica profesional, se proponen las siguientes líneas de estudio:

  1. Escenarios sísmicos y precipitaciones extremas: Ampliar la investigación hacia eventos sísmicos de magnitud superior a 5,0 Ritcher y lluvias prolongadas con más de 50 mm/día. Es preciso analizar la respuesta dinámica del suelo y del hormigón en pilotes, incorporando modelos viscoelásticos que reflejen el comportamiento frente a aceleraciones y ciclos de carga rápidos. Esto permitirá definir nuevos criterios de seguridad para zonas de riesgo sísmico y diseñar pilotes con mayor ductilidad o sistemas de disipación de energía.
  2. Control de humedad y nivel freático: Incluir sensores de humedad de alta frecuencia y piezómetros para registrar en tiempo real la evolución del nivel de agua en el subsuelo. Vincular estos datos con la variación de presión de poros y temperatura en pilotes facilitará una lectura más precisa de la dinámica agua-suelo, identificando umbrales de saturación que reduzcan drásticamente la cohesión del loess. Para la práctica, esto significa instar a la instalación de estaciones meteorológicas locales y piezómetros en proyectos en zonas colapsables.
  3. Algoritmos de aprendizaje automático: Desarrollar modelos que integren todos los datos multi-sensoriales (GNSS, InSAR, presión, temperatura, vibración y humedad) para detectar patrones tempranos de reactivación. Las redes neuronales profundas o las máquinas de soporte vectorial pueden clasificar con mayor antelación estados de riesgo, automatizando alertas y permitiendo intervenciones más eficientes. El ingeniero podría disponer de una herramienta que genere notificaciones automáticas al superar umbrales críticos combinados.
  4. Durabilidad de pilotes y fatiga térmica: Investigar la resistencia a largo plazo de los pilotes de hormigón sometidos a ciclos térmicos y mecánicos. Ensayos acelerados de fatiga térmica, por ejemplo, podrían simular 10 años de degradación en semanas de laboratorio, determinando la resistencia residual del hormigón y sus revestimientos. Estos estudios serían útiles para seleccionar aditivos o recubrimientos que impidan la aparición de fisuras por dilataciones y contracciones repetidas.
  5. Interacción entre tráfico e inestabilidades de talud: Analizar cómo las vibraciones generadas por tráfico rodado intenso afectan el desarrollo de grietas y concentraciones de tensión en suelos de loess. Mediante modelos acoplados vehículo-terreno, se podría determinar si reemplazar capas de refuerzo rígido por materiales con mayor capacidad disipadora de energía reduce los efectos adversos en taludes cercanos a carreteras. Esta línea resultará de utilidad para ingenieros de firmes y geotecnia que trabajen en infraestructuras viales cercanas a zonas inestables.

Conclusión

El estudio presenta una estrategia de seguimiento inteligente que combina mediciones de presión y temperatura en profundidad, datos GNSS e InSAR, y simulaciones numéricas termomecánicas para describir con detalle el comportamiento de deslizamientos en loess. Para el ingeniero civil, los hallazgos prácticos son:

  • La presión en pilotes crece significativamente con la profundidad, por lo que el dimensionado debe contemplar refuerzos más robustos bajo los 10 m.
  • Las variaciones térmicas en pilotes anticipan cambios de fricción lateral, recomendando el uso de sensores de temperatura para mejorar sistemas de alerta.
  • Los desplazamientos profundos preceden a los superficiales tras lluvias intensas, por lo que priorizar la monitorización interna puede prevenir movimientos de gran magnitud en superficie.
  • Los bloques con ángulos de inclinación superiores a 30° son más vulnerables y requieren medidas de contención adicionales, hecho que valida la simulación numérica como herramienta predictiva.

En definitiva, la combinación de datos de campo y modelización proporciona una base sólida para diseñar soluciones de refuerzo y sistemas de alerta temprana más ajustados a la realidad del terreno. Herramientas adicionales—como el seguimiento continuo de humedad, algoritmos de inteligencia artificial y estudios de fatiga térmica—podrían perfeccionar las estrategias de diseño y mantenimiento de infraestructuras en zonas de loess, favoreciendo la seguridad y la eficiencia de las intervenciones.

Referencia:

ZHOU, Z.; WANG, Y.J.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Intelligent monitoring of loess landslides and research on multi-factor coupling damage. Geomechanics for Energy and the Environment, DOI:10.1016/j.gete.2025.100692

Valentín Vallhonrat: ingeniería estructural y modernidad técnica en los inicios del hormigón armado en España

https://www.aperos.es/2018/12/valentin-vallhonrat-y-gomez-ingeniero-y.html

A comienzos del siglo XX, el desarrollo del hormigón armado en España transformó de forma decisiva las técnicas constructivas, dando lugar a nuevas formas de proyectar y ejecutar edificios e infraestructuras. En este contexto, surgieron figuras que, aunque no siempre fueron reconocidas en el discurso oficial de la ingeniería o la arquitectura, desempeñaron un papel esencial en la consolidación del hormigón armado como material estructural preferente. Entre ellas destaca Valentín Vallhonrat y Gómez, ingeniero de formación y constructor por vocación, cuya obra anticipó muchos de los principios que rigen el diseño estructural moderno en la actualidad.

Examinamos brevemente la trayectoria técnica y profesional de Vallhonrat, poniendo énfasis en su capacidad para integrar innovación, funcionalidad y colaboración interdisciplinaria en una época de escasa estandarización normativa. Al revisar sus principales proyectos, métodos constructivos y decisiones técnicas, se pone de manifiesto que su enfoque no solo contribuyó a resolver los desafíos de su tiempo, sino también a sentar las bases de una ingeniería estructural más precisa, eficiente y adaptada a las necesidades arquitectónicas contemporáneas.

Desde sus primeros años, Vallhonrat demostró ser una persona con un talento especial para el estudio. Nacido en Almodóvar del Campo (Ciudad Real) en 1884, finalizó sus estudios de Ingeniería de Minas en 1906 como primero de su promoción. Este dato, además de reflejar su capacidad intelectual, pone de manifiesto la fuerte vocación por el conocimiento técnico de la persona que se esconde detrás del ingeniero.

Tras finalizar sus estudios, ingresó de manera inmediata en la Sociedad Hidroeléctrica Ibérica, donde inició su especialización en construcciones de hormigón, que derivó más adelante en la fundación de su propia empresa constructora. En este ámbito, desempeñó un papel destacado como uno de los introductores de esta tecnología constructiva en el panorama técnico español. El empleo del hormigón, un material que por entonces estaba surgiendo, le permitió incorporarse al sector de las grandes presas de embalse, infraestructuras estratégicas para el aprovechamiento de la energía hidráulica. En el desarrollo de estas obras, sustituyó progresivamente a los especialistas alemanes que hasta entonces monopolizaban este tipo de intervenciones y alcanzó el cargo de jefe de explotación, como señala Urrutia y Llano.

Entre las contribuciones técnicas más relevantes, destaca su papel como introductor del uso pionero del hormigón armado en varios ámbitos: estructuras en altura, rehabilitación de patrimonio histórico, edificación industrial y obras hidráulicas. Fue responsable de la ejecución de algunas de las primeras cimentaciones especiales con hormigón armado en suelos blandos, como en el edificio del Banco Pastor, y de naves industriales de gran luz, como las de Babcock & Wilcox. Asimismo, introdujo en España el hormigón seco (sand-cement) colocado por bombeo en la presa de Ordunte, lo que supuso un salto tecnológico equivalente al que se vivía en Estados Unidos en el mismo periodo.

En paralelo, impulsó sistemas constructivos propios y desarrolló patentes como la de forjados con cielo raso plano, que se aplicaron en obras emblemáticas como el hotel Nacional. Este enfoque proyectista, alejado de una ejecución meramente repetitiva, lo sitúa como un verdadero ingeniero de diseño estructural, capaz de desarrollar soluciones adaptadas al contexto y a las necesidades arquitectónicas.

Su colaboración con arquitectos como Modesto López Otero, Luis Gutiérrez Soto y Antonio Tenreiro demuestra que Vallhonrat asumía un papel activo en la definición estructural del proyecto, integrando criterios técnicos y formales, anticipando así el perfil del ingeniero contemporáneo. Así, participó en la creación de algunos de los edificios más emblemáticos de su época, como el cine Callao o el edificio de la Unión y el Fénix, ambos en Madrid.

Anuncio publicitario. Autor desconocido. 1917. Arquitectura y construcción, (1917),
p. 394

En términos empresariales, su compañía, Valentín Vallhonrat S. A., operó durante más de tres décadas, ejecutando tanto proyectos privados como grandes contratos de obra pública, incluyendo tramos ferroviarios y presas. Su capacidad para organizar equipos técnicos multidisciplinares y licitar proyectos de gran escala revela también un avanzado perfil empresarial para la época.

La obra de Valentín Vallhonrat es un conjunto coherente de soluciones técnicas adelantadas a su tiempo. No solo fue un constructor de éxito, sino también un profesional que intervino directamente en el desarrollo y aplicación de técnicas estructurales innovadoras en contextos muy diversos. El análisis de sus obras permite detectar líneas de continuidad en su método: racionalización de procesos, atención a los condicionantes del terreno, adaptación al diseño arquitectónico y mejora de la eficiencia constructiva.

En la construcción del Banco Pastor en A Coruña (1920-1922), Vallhonrat no solo resolvió con éxito la cimentación profunda en un terreno de baja capacidad portante, sino que además lo hizo con un ritmo de ejecución que evidencia una planificación rigurosa: una planta completa cada dos semanas y media. Este dato, unido a la precisión técnica de la ejecución, proyecta una imagen de modernidad organizativa muy poco común en ese momento.

Otro ejemplo significativo es la ejecución del cine Callao, donde se utilizaron vigas tipo Vierendeel con luces de hasta 22 metros. Gracias a esta solución, se pudo prescindir de diagonales estructurales, lo que permitió crear un espacio escénico libre y adaptable. Aquí, como en otras obras, se observa cómo la estructura no impone restricciones a la arquitectura, sino que la hace posible.

La rehabilitación del Palacio de Carlos V, dentro del conjunto de la Alhambra, es un caso singular. El uso de hormigón armado en un edificio renacentista evidencia una mentalidad integradora que entendía los materiales modernos como medios para recuperar condiciones de seguridad y usos sin alterar la autenticidad formal del patrimonio. Este tipo de intervenciones, que hoy son ampliamente aceptadas, eran poco frecuentes en el momento y requerían una visión técnica sensible al contexto.

El caso de la presa de Ordunte demuestra un salto técnico y logístico. La automatización parcial del proceso de producción del hormigón y su colocación mediante bombeo, junto con el uso de materiales in situ, indican un dominio avanzado del ciclo constructivo. El empleo de 220 000 m³ de hormigón, la ejecución de un túnel hidráulico de 6000 l/s de capacidad y una conducción ovoide de más de 30 km en un contexto tecnológico limitado posicionan esta obra como un hito de la ingeniería civil española de la época.

Su biografía se completa con su posterior retorno al servicio público y la docencia tras la disolución de su empresa en 1950. Como profesor de hidráulica en la Escuela de Minas de Madrid y posteriormente como presidente del Consejo de la Minería, Vallhonrat continuó ligado a la ingeniería desde una perspectiva institucional. En un contexto marcado por los efectos de la Guerra Civil y la transformación del Estado, esta trayectoria da cuenta de una figura que, más allá de sus realizaciones, encarnó una concepción amplia de la profesión.

La obra de Valentín Vallhonrat y Gómez articula una síntesis entre conocimiento técnico, capacidad ejecutiva e innovación formal que resultó determinante para el desarrollo del hormigón armado en España y anticipó prácticas y perfiles profesionales contemporáneos. Su legado no solo perdura en las estructuras que ha dejado, sino también en la manera en que enfrentó los desafíos constructivos: con un enfoque integrador, sistemático y técnicamente solvente.

Vallhonrat se posiciona como un agente clave en la transición hacia una construcción moderna en España. Desde una perspectiva contemporánea, su figura aporta también elementos valiosos para la formación de los estudiantes de ingeniería civil: capacidad crítica, rigor técnico, apertura a la innovación y voluntad de colaborar con otras disciplinas. Reivindicar a Valentín Vallhonrat no es solo un acto de memoria profesional, sino también una oportunidad para reflexionar sobre el papel del conocimiento técnico en la construcción de nuestras ciudades y territorios.

Os dejo a continuación un par de artículo que permiten profundizar en la figura de este ingeniero. Espero que os resulten de interés.

Descargar (PDF, 1.3MB)

Descargar (PDF, 39KB)

Descargar (PDF, 2.54MB)

¿Cuáles son las características de una buena estimación de costes?

En la ingeniería o la arquitectura, la estimación de costes no constituye únicamente una labor técnica, sino que representa un componente esencial en la planificación, gestión y toma de decisiones de todo proyecto. Ya sea para la construcción de una presa, una carretera o una infraestructura ferroviaria, es fundamental contar con una estimación precisa, bien fundamentada y comunicada adecuadamente, ya que esto puede marcar la diferencia entre el éxito y el fracaso de una iniciativa. En el presente artículo, se aborda la evaluación de las competencias que constituyen una estimación de costes sólida y conforme a las normas profesionales y las prácticas óptimas del sector.

Una estimación de costes sólida y confiable debe cumplir con cuatro características relevantes: exhaustividad, razonabilidad, credibilidad y solidez analítica. Estos principios aseguran que el análisis sea riguroso desde el punto de vista técnico, así como útil y comprensible para quienes toman decisiones.

En primer lugar, toda estimación sólida debe basarse en el rendimiento histórico de programas anteriores. Por lo tanto, es necesario utilizar datos de proyectos análogos como referencia, ya sean similares en alcance, naturaleza o contexto, para respaldar el análisis. Estas experiencias previas deben estar claramente identificadas como fuentes de datos, aportando así transparencia y reforzando la confianza en los resultados.

Sin embargo, si bien los datos históricos constituyen el punto de partida, es imperativo considerar las posibles mejoras en diseño, materiales y procesos constructivos que puedan incorporarse en el nuevo proyecto. A pesar de la ausencia de datos empíricos que respalden estos avances, es necesario evaluar su impacto de manera rigurosa y fundamentada. En tales circunstancias, se acude al juicio profesional o conocimiento experto (también denominado subject matter expertise), cuya aplicación debe estar debidamente documentada y justificada.

Otro aspecto clave es la claridad en la comunicación. Una estimación sólida debe ser comprensible, especialmente para los responsables de programas y directivos que, si bien toman decisiones estratégicas, pueden carecer del tiempo o del perfil técnico necesario para profundizar en los detalles metodológicos. Por ello, se recomienda optar por enfoques sencillos, evitando complejidades innecesarias, para que la estimación pueda ser fácilmente interpretada por sus destinatarios.

Asimismo, es preciso identificar las reglas de base y los supuestos. Como se suele decir en el ámbito del análisis: «Permítame realizar las suposiciones, y usted podrá realizar los cálculos». Esta frase resume la enorme influencia que tienen las hipótesis en cualquier estimación. Si bien es difícil que todos los agentes implicados compartan exactamente los mismos supuestos, la mejor estrategia consiste en incorporar análisis de sensibilidad. Estos instrumentos permiten evaluar la variación de la estimación ante diferentes escenarios y contribuyen a una gestión más eficiente de la incertidumbre.

Precisamente, una buena estimación debe abordar de forma explícita los riesgos y las incertidumbres inherentes al proyecto. Si bien el resultado final se manifiesta a través de una cifra concreta —conocida como «punto estimado»—, es importante destacar que dicha cifra es el resultado de una serie de supuestos. Por lo tanto, es posible que esta haya variado si los supuestos hubiesen sido distintos. Por tanto, es esencial señalar las sensibilidades del modelo y mostrar cómo afectan al resultado final, para ofrecer una visión más completa y realista del coste previsto.

Desde una perspectiva técnica, existen otras cualidades que refuerzan la validez y utilidad de la estimación. Una de las características esenciales que debe cumplir es que esté impulsada por los requisitos del proyecto. Resulta improcedente solicitar una estimación del coste de rehabilitar una cocina sin definir previamente el alcance de dicha rehabilitación. En el ámbito de los proyectos civiles de gran envergadura, resulta imperativo que los requisitos funcionales y técnicos se encuentren debidamente documentados, ya sea a través de especificaciones técnicas, documentos de alcance, solicitudes de propuesta (RFP) o, en el caso de proyectos públicos, mediante instrumentos normalizados como el «Cost Analysis Requirements Description» (CARD).

Otra condición esencial es que el proyecto esté suficientemente definido desde el punto de vista técnico y que se hayan identificado las áreas de mayor riesgo. De este modo, se garantizará una selección meticulosa de la metodología de estimación más apropiada y una aplicación precisa de las herramientas de análisis.

En proyectos de gran envergadura, especialmente en el ámbito público, se recomienda disponer de una estimación independiente. Esta función de validación externa contribuye a reforzar la credibilidad del análisis. De igual manera, es importante contar con estimaciones independientes que respalden los presupuestos en los grandes proyectos.

Finalmente, una estimación de calidad debe ser trazable y auditable. Por lo tanto, es imperativo que sea posible reconstruirla a partir de los datos, supuestos y fuentes utilizadas. Existe un consenso tácito entre los profesionales de la estimación, según el cual cualquier individuo con conocimientos básicos de análisis cuantitativo debería estar en condiciones de seguir los pasos del cálculo, aplicar los datos y reproducir el resultado. La transparencia, por tanto, no es solo un valor añadido, sino un requisito indispensable para asegurar la fiabilidad del proceso.

En el ámbito de la ingeniería civil, donde los proyectos conllevan frecuentemente inversiones significativas y pueden afectar a miles de personas, la estimación de costes deja de ser una tarea secundaria para convertirse en una herramienta estratégica esencial. El cálculo de cifras por sí solo no es suficiente; es imperativo comprender el proyecto en su totalidad, anticipar escenarios, comunicar con claridad y tomar decisiones con fundamento.

Invito a todas las personas —ya sean profesionales con experiencia o estudiantes en proceso de formación— a considerar la estimación de costes no como un mero trámite técnico, sino como una disciplina que integra ciencia, experiencia y criterio. Reflexionar sobre el proceso de construcción de nuestras estimaciones, los supuestos que las sustentan y la manera en que las comunicamos, puede resultar fundamental para mejorar la eficiencia, la transparencia y la sostenibilidad de nuestras infraestructuras.

Glosario de términos clave

  • Estimación de costes: Proceso de predecir el coste monetario de un proyecto o iniciativa, basándose en datos disponibles, supuestos y metodologías de análisis.
  • Exhaustividad: Característica de una estimación que implica considerar todos los elementos relevantes del proyecto y sus posibles costes asociados.
  • Razonabilidad: Característica que indica que la estimación está lógicamente estructurada y los valores utilizados tienen sentido dentro del contexto del proyecto y la experiencia previa.
  • Credibilidad: Característica que denota la confianza en la estimación, basada en la solidez de la metodología, la transparencia en los datos y supuestos, y la validación (interna o externa).
  • Solidez analítica: Característica que se refiere a que la estimación se basa en métodos de análisis cuantitativos rigurosos y bien aplicados.
  • Rendimiento histórico: Datos de coste y ejecución de proyectos anteriores similares que se utilizan como base empírica para una nueva estimación.
  • Juicio profesional (o conocimiento experto): Aplicación de la experiencia y conocimiento de expertos en la materia para realizar estimaciones o tomar decisiones cuando los datos empíricos son limitados.
  • Reglas de base y supuestos: Las hipótesis fundamentales y las condiciones iniciales que subyacen a una estimación y sobre las cuales se realizan los cálculos.
  • Análisis de sensibilidad: Técnica que evalúa cómo varía el resultado de una estimación cuando se modifican los supuestos o parámetros clave, ayudando a entender el impacto de la incertidumbre.
  • Punto estimado: La cifra única que representa el resultado más probable o esperado de la estimación de costes.
  • Requisitos del proyecto: Las especificaciones funcionales, técnicas y de rendimiento que definen el alcance y los objetivos de un proyecto, y que deben impulsar la estimación de costes.
  • Cost Analysis Requirements Description (CARD): Instrumento normalizado, especialmente en proyectos públicos, que documenta los requisitos necesarios para realizar un análisis de costes.
  • Estimación independiente: Una estimación de costes realizada por un equipo o entidad separada del equipo principal del proyecto, con el fin de validar o contrastar la estimación principal.
  • Trazabilidad: La capacidad de seguir y documentar el proceso de estimación, desde los datos y supuestos iniciales hasta el resultado final.
  • Auditabilidad: La capacidad de verificar la exactitud y fiabilidad de una estimación, examinando los datos, métodos y supuestos utilizados, de modo que otro analista pueda reproducirla.

Referencias:

Mislick, G. K., & Nussbaum, D. A. (2015). Cost estimation: Methods and tools. John Wiley & Sons.

Yepes, V. (2022). Gestión de costes y producción de maquinaria de construcción. Universidad Politécnica de Valencia.

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

 

Discurso de apertura en el evento Innotransfer “Infraestructuras resilientes frente a eventos climáticos extremos”

Os anuncio que el próximo miércoles, 28 de mayo de 2025, tendré la oportunidad de dar el discurso de apertura en el evento, presencial y en línea, InnotransferInfraestructuras resilientes frente a eventos climáticos extremos” centrada en los ámbitos de carreteras, ferrocarriles e infraestructuras hidráulicas, dentro del programa INNOTRANSFER, dedicado a facilitar conexión entre demandantes y oferentes de soluciones innovadoras en la Comunitat Valenciana. Este año, en particular, estamos enfocando estos eventos a necesidades puestas de manifiesto con la DANA.

En los últimos años, la frecuencia e intensidad de los fenómenos meteorológicos extremos han aumentado de manera sostenida. Episodios como lluvias torrenciales, vientos huracanados, tornados, olas de calor y frío o temporales marítimos han provocado un incremento de las catástrofes naturales asociadas, incluyendo inundaciones, destrucción y regresión litoral, incendios forestales y sequías prolongadas.

Esta tendencia, impulsada por el cambio climático, plantea un desafío creciente que exige soluciones innovadoras en el diseño de infraestructuras resilientes. Estas infraestructuras deben abarcar la planificación y construcción de carreterasinfraestructuras hidráulicas y redes de transporte ferroviario, garantizando no solo la resistencia ante situaciones críticas, sino también la capacidad de minimizar daños y asegurar una rápida recuperación.

En la Comunitat Valenciana, esta necesidad es especialmente relevante debido al incremento de fenómenos climáticos extremos como las DANAs (Depresiones Aisladas en Niveles Altos). La jornada tiene como objetivo abordar el desarrollo de infraestructuras urbanas y rurales capaces de adaptarse al clima cambiante, reduciendo el impacto negativo en la población y en los recursos económicos locales.

Esta jornada Innotransfer reunirá a expertos, empresas e instituciones para explorar soluciones innovadoras en infraestructuras resilientes, aprovechando el potencial de la Compra Pública de Innovación como herramienta clave para facilitar su adopción por parte de las Administraciones Públicas. Dichas propuestas han sido identificadas por la Ciudad Politécnica de la Innovación (CPI), parque científico de la Universitat Politècnica de València (UPV).

El objetivo de la jornada es crear oportunidades de colaboración y un networking de alto impacto entre los diferentes actores del ecosistema valenciano de innovación, fomentando el desarrollo conjunto de proyectos de I+D+i de alto impacto.

La participación en el evento es gratuita, y se puede hacer accediendo al siguiente enlace: https://innotransfer.org/evento/infraestructuras-resilientes-frente-a-eventos-climaticos-extremos/

Os dejo el programa, por si os interesa.

Tendencias futuras y retos de la inteligencia artificial en la ingeniería civil

La ingeniería civil se encuentra inmersa en un proceso de transformación profunda, impulsada por los avances en inteligencia artificial (IA) y tecnologías digitales emergentes. Estas innovaciones están redefiniendo los procesos de diseño y la gestión y operación de las infraestructuras, lo que permite la implementación de soluciones más eficientes, sostenibles y seguras. En este contexto, resulta imperativo explorar las principales tendencias que delinearán el futuro del sector en los próximos años, así como los desafíos que deberán superarse para lograr una adopción exitosa y generalizada.

Este artículo examina el impacto transformador de la IA y las tecnologías digitales en la ingeniería civil. Se destacan tendencias futuras clave como la creación de infraestructuras inteligentes con monitorización en tiempo real, el diseño generativo y la planificación asistida por inteligencia artificial. También se aborda el uso de la IA para la construcción sostenible, la proliferación de máquinas autónomas y robótica, y la mejora de la colaboración entre humanos y máquinas mediante la inteligencia aumentada. El documento también detalla los principales desafíos para la adopción exitosa de la IA, como la calidad de los datos, la integración con sistemas existentes, las consideraciones éticas y la escasez de talento. Por último, se destaca la importancia de abordar estos desafíos para lograr una transformación integral y sostenible del sector.

Tendencias futuras

La primera gran línea de evolución es la de las infraestructuras inteligentes, donde la IA combinada con el Internet de las Cosas (IoT) permitirá monitorizar en tiempo real el estado de puentes, túneles y redes de transporte, y adaptar automáticamente parámetros como la iluminación, el drenaje o la ventilación según la demanda.

El diseño generativo y la planificación asistida por IA tienen el potencial de transformar significativamente las etapas iniciales del proceso de diseño. Mediante algoritmos capaces de explorar un amplio espectro de alternativas, se optimizarán los criterios de costo, consumo de material y rendimiento estructural, reduciendo la subjetividad y acelerando la toma de decisiones.

En el ámbito de la construcción sostenible, la IA aportará análisis avanzados de consumo energético y huella de carbono, facilitando la selección de materiales y métodos constructivos de menor impacto ambiental, así como el dimensionado óptimo de sistemas de climatización y redes de servicios.

El despliegue de las máquinas autónomas y la robótica de obra continuará su curso: excavadoras, camiones y drones operarán con escasa supervisión humana, ejecutando movimientos precisos y recolectando datos topográficos que retroalimentan modelos predictivos de rendimiento y seguridad.

La colaboración entre humanos y máquinas se potenciará a través de la inteligencia aumentada, permitiendo a los profesionales liberarse de tareas repetitivas para enfocarse en la supervisión e interpretación de los resultados generados por sistemas de IA, combinando intuición y rigor analítico.

Las analíticas predictivas alcanzarán nuevas cotas de sofisticación, ofreciendo a los gestores de proyecto visibilidad temprana de desviaciones de costes, plazos y riesgos, y sugiriendo medidas preventivas basadas en patrones históricos.

La tecnología blockchain se explorará como garante de la trazabilidad, la transparencia y la inmutabilidad de los registros de obra, contratos y certificaciones, mitigando fraudes y disputas al proteger la integridad de los datos.

El edge computing permitirá procesar la información localmente en la obra —por ejemplo, en drones o en nodos IoT—, reduciendo la latencia y garantizando una respuesta inmediata en aplicaciones críticas, como la detección de fallos estructurales.

Los gemelos digitales, réplicas virtuales permanentemente actualizadas de activos reales, se consolidarán para simular escenarios de mantenimiento, rehabilitación y operación, optimizando ciclos de vida y costes asociados.

Por último, la personalización de soluciones IA permitirá adaptar herramientas y modelos a las necesidades específicas de cada proyecto, lo que facilitará una adopción más ágil y homogénea.

Retos asociados

No obstante, la plena materialización de estas tendencias se enfrenta a múltiples desafíos. En primer lugar, es preciso señalar que la calidad y la disponibilidad de los datos siguen siendo insuficientes. Los proyectos de gran envergadura generan información dispersa y heterogénea, lo que dificulta el entrenamiento fiable de modelos.

La integración con sistemas existentes, tales como software de gestión, bases de datos heredadas o flujos de trabajo manuales, puede ocasionar interrupciones en la operativa y en los cronogramas establecidos. Por lo tanto, se hace necesario implementar estrategias de migración y adaptación progresiva.

Las consideraciones éticas y el sesgo algorítmico obligan a implementar mecanismos de transparencia y gobernanza que garanticen la rendición de cuentas y la equidad en decisiones críticas.

La escasez de talento experto en IA y construcción limita la creación, el despliegue y el mantenimiento de estas soluciones, apuntando a la necesidad de planes de formación duales en ingeniería y ciencia de datos.

La ausencia de marcos regulatorios y legales claros genera incertidumbre en cuanto a las responsabilidades, licencias y cumplimiento normativo en caso de fallos o litigios.

El coste inicial de adquisición e implementación de tecnologías IA puede resultar prohibitivo para las pequeñas y medianas empresas (PYMES) y proyectos con márgenes ajustados. Por ello, es importante demostrar el retorno de la inversión a medio y largo plazo.

La privacidad y la seguridad de los datos, cada vez más extensos y sensibles, requieren arquitecturas robustas que eviten fugas y ciberataques, especialmente cuando se integran sensores IoT y servicios en la nube.

Los problemas de interoperabilidad entre plataformas, estándares y formatos de datos comprometen la colaboración multidisciplinar y el intercambio fluido de información.

La adaptación al ritmo vertiginoso de la evolución tecnológica exige un aprendizaje continuo y revisiones frecuentes de las infraestructuras de TI para no quedarse obsoletos.

Finalmente, la resistencia al cambio por parte de profesionales y directivos puede frenar la adopción, subrayando la importancia de campañas de sensibilización y casos de éxito tangibles.

Conclusión

El futuro de la IA en ingeniería civil se perfila como un escenario de grandes oportunidades para la creación de infraestructuras más inteligentes, eficientes y sostenibles. No obstante, es imperativo que se aborden con éxito los desafíos técnicos, éticos y organizativos para evitar que la implementación de estas tecnologías se limite a proyectos aislados y, en cambio, promueva una transformación integral y sostenible del sector.

Glosario de términos clave

  • Inteligencia artificial (IA): Sistemas o máquinas que imitan la inteligencia humana para realizar tareas, aprendiendo de la información que procesan.
  • Internet de las cosas (IoT): Red de objetos físicos (“cosas”) integrados con sensores, software y otras tecnologías que les permiten recopilar e intercambiar datos.
  • Infraestructuras inteligentes: Estructuras físicas (puentes, túneles, redes) equipadas con tecnología para monitorear y adaptar su funcionamiento en tiempo real.
  • Diseño generativo: Proceso de diseño que utiliza algoritmos para explorar múltiples soluciones basadas en un conjunto de parámetros y restricciones definidos.
  • Construcción sostenible: Prácticas de construcción que minimizan el impacto ambiental, optimizan el uso de recursos y consideran el ciclo de vida completo de las estructuras.
  • Máquinas autónomas: Equipos o vehículos capaces de operar sin supervisión humana directa, utilizando sensores y software para tomar decisiones.
  • Robótica de obra: Uso de robots para ejecutar tareas en el sitio de construcción, a menudo repetitivas o peligrosas para los humanos.
  • Inteligencia aumentada: Enfoque que combina las capacidades de la inteligencia artificial con la inteligencia humana para mejorar el rendimiento y la toma de decisiones.
  • Analíticas predictivas: Empleo de datos históricos, algoritmos y técnicas de aprendizaje automático para identificar la probabilidad de resultados futuros.
  • Blockchain: Tecnología de registro distribuido que permite transacciones transparentes, seguras e inmutables.
  • Edge Computing: Procesamiento de datos cerca de donde se generan (en el “borde” de la red) en lugar de enviarlos a un centro de datos central.
  • Gemelos digitales: Réplicas virtuales de activos físicos, procesos o sistemas que se actualizan en tiempo real y pueden usarse para simulación y análisis.
  • Sesgo algorítmico: Error sistemático en un algoritmo que produce resultados injustamente discriminatorios o sesgados.
  • Interoperabilidad: Capacidad de diferentes sistemas, plataformas o software para trabajar juntos e intercambiar datos sin problemas.
  • Resistencia al cambio: Falta de disposición de individuos u organizaciones para adoptar nuevas tecnologías, procesos o formas de trabajar.

Referencias:

DONAIRE-MARDONES, S.; BARRAZA ALONSO, R.; MARTÍNEZ-PAGÁN, P.; YEPES-BELLVER, L.; YEPES, V.; MARTÍNEZ-SEGURA, M.A. (2024). Innovación educativa con realidad aumentada: perspectivas en la educación superior en ingeniería. En libro de actas: X Congreso de Innovación Educativa y Docencia en Red. Valencia, 11 – 12 de julio de 2024. DOI: https://doi.org/10.4995/INRED2024.2024.18365

GARCÍA, J.; VILLAVICENCIO, G.; ALTIMIRAS, F.; CRAWFORD, B.; SOTO, R.; MINTATOGAWA, V.; FRANCO, M.; MARTÍNEZ-MUÑOZ, D.; YEPES, V. (2022). Machine learning techniques applied to construction: A hybrid bibliometric analysis of advances and future directions. Automation in Construction, 142:104532. DOI:10.1016/j.autcon.2022.104532

FERNÁNDEZ-MORA, V.; NAVARRO, I.J.; YEPES, V. (2022). Integration of the structural project into the BIM paradigm: a literature review. Journal of Building Engineering, 53:104318. DOI:10.1016/j.jobe.2022.104318.

YEPES, V.; KRIPKA, M.; YEPES-BELLVER, L.; GARCÍA, J. (2023). La inteligencia artificial en la ingeniería civil: oportunidades y desafíosIC Ingeniería Civil, 642:20-23.

¿Se puede predecir el futuro? Claves de la estimación de costes en proyectos de ingeniería

En el ámbito de la ingeniería civil, planificar correctamente no es solo deseable, sino que es imprescindible para garantizar la eficiencia y la calidad en el desarrollo de proyectos. En todas las etapas de un proyecto, ya sea la construcción de una carretera, un puente o una infraestructura hidráulica, la estimación de costes es un componente esencial. La estimación precisa del costo de una obra es fundamental para tomar decisiones informadas, optimizar recursos y reducir riesgos. Para proceder con la estimación de costes, es preciso definir de manera precisa el concepto. Para ello, es necesario establecer los fundamentos técnicos y metodológicos que rigen dicha práctica.

El físico danés Niels Bohr, distinguido con el Premio Nobel en 1922, expresó en una ocasión: «Predecir es sumamente complejo, especialmente en lo que respecta al futuro». Esta expresión, originariamente empleada en el contexto de la física, resulta de aplicación en el ámbito de la estimación de costes, dada su compatibilidad tanto con su dimensión técnica como con la naturaleza incierta inherente a todo proceso de planificación.

La estimación de costes puede definirse como el proceso mediante el cual se recopilan y analizan datos históricos, y se aplican modelos cuantitativos, técnicas, herramientas y bases de datos con el objetivo de prever el coste futuro de un producto, proyecto, programa o tarea. En esencia, se trata de una práctica que integra elementos del arte y la ciencia, con el objetivo de estimar el valor, alcance o características probables de un elemento, en función de la información disponible en un momento determinado.

Uno de los pilares fundamentales de esta disciplina son los datos históricos. Como ocurre en cualquier otra actividad científica, la estimación de costes se apoya en evidencias contrastadas. Dado que no es posible disponer de datos futuros, es imperativo recurrir a la información relevante del pasado. La búsqueda y tratamiento de datos históricos es una labor esencial del profesional de la estimación. La recopilación, organización, normalización y gestión adecuadas de los datos históricos son valiosos para sentar una base sólida para el análisis posterior.

En lo que respecta a la estimación de costes, esta se fundamenta en el empleo de modelos cuantitativos, los cuales deben caracterizarse por su transparencia, racionalidad y capacidad de revisión por parte de terceros. Este componente científico ha sido determinante para que la asignatura de estimación de costes se integre de manera habitual en los departamentos universitarios de ingeniería de sistemas, investigación operativa o administración de empresas, lo que refleja su naturaleza técnica y rigurosa.

Un aspecto central de esta profesión es la capacidad de predecir. Frecuentemente, se escucha la afirmación de que «no se puede predecir el futuro», pero esta idea es engañosa. Si alguien afirma que «mañana va a llover», podrá estar en lo cierto o equivocado, pero en cualquier caso estará realizando una predicción. De hecho, muchas de nuestras decisiones cotidianas —como la elección de un paraguas o la planificación de una inversión— se fundamentan precisamente en el intento de anticipar el futuro. Predecir, también conocido como pronosticar, es una actividad legítima y valiosa, especialmente en campos como la ingeniería civil, donde los proyectos suelen implicar plazos largos, recursos significativos y un alto grado de incertidumbre.

Algunas voces críticas señalan que la utilización de datos históricos para estimar costes futuros podría implicar la repetición de errores del pasado en la toma de decisiones. Según esta lógica, estaríamos asumiendo que los gestores actuales cometerán los mismos fallos que sus predecesores, lo cual, según afirman, carece de sentido. Sin embargo, esta objeción se fundamenta en un error de base. Por un lado, los errores del pasado no suelen deberse a la incompetencia de quienes lideraban los proyectos, sino más bien a factores externos que escapaban a su control. Por otro lado, quienes gestionan proyectos en la actualidad se enfrentarán a un contexto diferente, con nuevos retos y condicionantes que también podrían obligarles a desviarse de sus planes iniciales. Como respuesta más irónica (pero igualmente válida), podría decirse que «no cometerás los mismos errores que tus antecesores: cometerás los tuyos propios».

Por último, es fundamental tener presente que toda estimación se realiza con base en la información disponible en el momento. Si bien nos gustaría contar con datos precisos sobre las condiciones futuras en las que se ejecutará un proyecto, la realidad es que solo podemos trabajar con lo que sabemos hoy, e intentar prever las circunstancias del mañana. Es comprensible que no sea posible anticipar todos los cambios que puedan producirse, especialmente en proyectos a largo plazo. A modo ilustrativo, si se está calculando el coste para producir de 200 m³ de hormigón en una planta propia para una obra, pero más adelante el cliente quiere un modificado de obra que nos obliga a producir 2000 m³, es evidente que nuestra estimación inicial no será válida para ese nuevo escenario. Sin embargo, en su momento, la estimación se ajustó a los supuestos establecidos. Por ello, el profesional encargado de estimar costes debe contemplar posibles contingencias y estar preparado para ajustar sus cálculos a medida que evolucionen los planes o cambien las condiciones del entorno.

En definitiva, la estimación de costes constituye una disciplina de gran importancia en el ámbito de la ingeniería civil y otras ramas técnicas, pues facilita la toma de decisiones fundamentadas en entornos caracterizados por la incertidumbre. Para su correcta aplicación, se requiere una combinación de análisis histórico, rigor matemático y juicio profesional. Se trata de una herramienta fundamental para el éxito de cualquier proyecto de gran envergadura.

Glosario de términos clave

  • Estimación de costes: Proceso de prever el coste futuro de un producto, proyecto, programa o tarea mediante la recopilación y análisis de datos históricos y la aplicación de modelos cuantitativos, técnicas, herramientas y bases de datos.
  • Datos históricos: Información relevante del pasado utilizada como evidencia para fundamentar la estimación de costes, dada la imposibilidad de disponer de datos futuros.
  • Modelos cuantitativos: Herramientas matemáticas y estadísticas empleadas en la estimación de costes, caracterizadas por ser transparentes, racionales y revisables.
  • Predecir/Pronosticar: La actividad de anticipar o prever eventos o valores futuros, crucial en campos como la ingeniería civil para la planificación.
  • Incertidumbre: La falta de certeza sobre las condiciones futuras en las que se ejecutará un proyecto, un factor inherente a la planificación a largo plazo.
  • Contingencias: Posibles eventos o cambios futuros que podrían afectar la estimación inicial de costes y que deben ser contemplados por el profesional.
  • Rigor matemático: La precisión y exactitud en la aplicación de principios y cálculos matemáticos en la estimación de costes.
  • Juicio profesional: La aplicación de la experiencia, el conocimiento y la intuición del experto en el proceso de estimación, complementando el análisis de datos y modelos.
  • Ingeniería civil: Disciplina de ingeniería que se ocupa del diseño, construcción y mantenimiento de infraestructuras físicas y naturales, como carreteras, puentes y sistemas hidráulicos.
  • Optimizar recursos: Utilizar los recursos disponibles de la manera más eficiente posible para lograr los objetivos del proyecto, facilitado por una estimación precisa de costes.

 

Referencias:

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Los orígenes la ingeniería de puentes ferroviarios: Resistencia de materiales y mecánica estructural

Puente antiguo en celosía para un ferrocarril de vía única, reconvertido para uso peatonal y soporte de tuberías. https://es.wikipedia.org/wiki/Puente_en_celos%C3%ADa

El desarrollo de la ingeniería de puentes ferroviarios se ha sustentado en el avance progresivo de disciplinas fundamentales como la resistencia de materiales y la mecánica estructural. A lo largo de los siglos XVII y XVIII, diversos científicos establecieron los fundamentos del análisis racional de estructuras. En 1678, Robert Hooke formuló la ley que relaciona la fuerza elástica con la deformación. En 1705, Jacob Bernoulli llevó a cabo un estudio exhaustivo sobre las curvas de deflexión. Leonhard Euler y Charles-Augustin de Coulomb fueron pioneros en la investigación de la estabilidad elástica de los elementos sujetos a compresión. Posteriormente, en 1826, Louis Navier sentó las bases de una teoría más exhaustiva de la elasticidad.

Francia ocupó una posición destacada en la promoción de estos avances durante el siglo XVIII, contribuyendo significativamente al desarrollo de ingenieros dotados de una sólida formación científica. Estos profesionales ejercieron una notable influencia en el campo de la ingeniería ferroviaria estadounidense. Dignos de mención son los ingenieros Charles Ellet (1830), Ralph Modjeski (1855), L. F. G. Bouscaren, ingeniero jefe del ferrocarril de Cincinnati Southern (1873) y H. E. Vautelet, ingeniero de puentes del Canadian Pacific Railway hacia 1876, quienes se formaron en las primeras escuelas de ingeniería francesas. Esta formación, fundamentada en un enfoque riguroso de las matemáticas, la mecánica y el análisis estructural, resultó determinante en el desarrollo de la ingeniería de puentes ferroviarios en América del Norte. En este contexto, los profesionales aplicaron los principios adquiridos en Francia, introduciendo un diseño más racional y científico en sus respectivos contextos ferroviarios. Entre 1885 y 1889, el ingeniero alemán F. Engesser, especializado en puentes ferroviarios, realizó importantes avances en el análisis de la estabilidad de los elementos comprimidos. Gracias a su trabajo, este tipo de estudios se pudieron generalizar para su aplicación práctica en ingeniería estructural, y los ingenieros disponían de herramientas más precisas para evaluar el riesgo de pandeo en columnas y otros elementos críticos de los puentes metálicos. Estos desarrollos fueron especialmente relevantes en un contexto de creciente demanda de estructuras más resistentes y fiables en la red ferroviaria europea.

Desde su nacimiento en la década de 1820, el ferrocarril se expandió rápidamente durante más de ochenta años. Este crecimiento constante, unido al aumento del peso de las locomotoras, provocó que muchos puentes tuvieran que ser reemplazados cada diez o quince años. La necesidad de estructuras más resistentes, con mayor luz y fiabilidad, unida a los fallos estructurales que se producían en servicio, impulsó a los ingenieros de mediados del siglo XIX a adoptar un enfoque más científico en el diseño de puentes de hierro y acero. A causa del elevado número de accidentes ferroviarios debidos a fallos estructurales en los puentes, la ingeniería de estos elementos experimentó una evolución significativa a lo largo del siglo XIX. Estos incidentes pusieron de manifiesto la necesidad urgente de adoptar un enfoque más riguroso y científico en el diseño y la evaluación de las estructuras, lo que impulsó una serie de investigaciones y avances técnicos fundamentales para garantizar la seguridad en el transporte ferroviario.

En Estados Unidos, esta práctica era principalmente empírica, basada en la experiencia y en la repetición de diseños de armaduras probadas, como las de tipo Town, Long, Howe y Pratt, en los que se mejoraban los materiales, pero sin un conocimiento profundo de las fuerzas internas. Este enfoque se reveló insuficiente entre 1850 y 1870, cuando se produjeron numerosos fallos estructurales. La necesidad de aumentar la seguridad y responder a cargas mayores llevó al desarrollo de métodos analíticos más rigurosos. En este contexto, Squire Whipple publicó en 1847 el primer análisis racional de celosías isostáticas mediante el método de los nudos, lo que supuso un hito en la historia de la ingeniería estructural.

Puente Britannia. https://es.wikipedia.org/wiki/Puente_Britannia

Entretanto, en Europa, ingenieros franceses, alemanes y británicos también avanzaban en la teoría de la elasticidad y la mecánica estructural. En 1849, P. E. Clapeyron desarrolló la ecuación de los tres momentos, que aplicó en 1857 al análisis del puente Britannia. El diseño de este puente se basó en un análisis de tramos simples, a pesar de que Fairbairn y Stephenson eran conscientes de los efectos de la continuidad sobre la flexión. Los tramos se montaron inicialmente con apoyos simples y, posteriormente, se elevaron secuencialmente en los pilares correspondientes. Una vez en su posición, los tramos se conectaron mediante placas remachadas para lograr la continuidad del mismo, un enfoque innovador que permitió superar las limitaciones de los métodos tradicionales de construcción de puentes de la época. En el Reino Unido, los ingenieros ferroviarios realizaron ensayos con metales y modelos a escala para evaluar la resistencia y estabilidad de los puentes.

A partir de los trabajos de Whipple, dos ingenieros europeos destacaron especialmente: D. J. Jourawski y Karl Culmann. Jourawski criticó el uso de refuerzos verticales de placa empleados por Stephenson en el puente Britannia. Consideraba que esta solución no era la más adecuada para garantizar la resistencia y estabilidad del puente y destacaba la importancia de emplear métodos más eficientes en el diseño de elementos de compresión en estructuras de gran envergadura. Culmann, ingeniero del Ferrocarril Real Bávaro, fue un defensor temprano del análisis matemático de estructuras. En 1851, estudió en detalle las celosías como la Howe, ampliamente utilizadas en Estados Unidos. Karl Culmann no solo se centró en celosías isostáticas como las de tipo Howe, sino que también analizó estructuras hiperestáticas, como las celosías Long, Town y Burr. Estas configuraciones, más complejas desde el punto de vista estructural por ser estáticamente indeterminadas, fueron estudiadas por Culmann mediante métodos aproximados, lo que supuso un paso importante para comprender y evaluar este tipo de estructuras. Aunque no se disponía aún de herramientas matemáticas completamente desarrolladas para resolver estos sistemas con precisión, sus aproximaciones permitieron establecer criterios útiles para su diseño y validación en el contexto ferroviario de la época.

Tipos estructurales celosías metálicas (vía @dobooku)

Durante esta misma época, se desarrollaron nuevas formas estructurales como la celosía Warren (1846) y W. B. Blood ideó en 1850 un método de análisis específico para armaduras trianguladas. La viga Warren, caracterizada por su estructura triangular regular y su eficiencia en la distribución de esfuerzos, se utilizó por primera vez en un puente ferroviario en 1853, en la línea del Great Northern Railway del Reino Unido. Este hecho marcó el inicio de su aplicación práctica en la infraestructura ferroviaria, consolidándose progresivamente como una de las tipologías estructurales más versátiles y extendidas en Europa y América del Norte.

En el Reino Unido, la investigación sobre los efectos de las cargas móviles y la velocidad también se inició en la década de 1850, precedida por los estudios teóricos de Stokes y Willis sobre vibraciones y resistencia. Fairbairn abordó en 1857 el impacto de estas cargas sobre estructuras isostáticas.

En 1862, el ingeniero alemán J. W. Schwedler presentó una teoría fundamental sobre momentos flectores y esfuerzos cortantes en vigas, y contribuyó al análisis de armaduras mediante el uso del método de secciones. Ese mismo año, A. Ritter perfeccionó dicho método al desarrollar un enfoque basado en el equilibrio en la intersección de dos barras de la armadura. Paralelamente, entre 1864 y 1874, James Clerk Maxwell y Otto Mohr desarrollaron y perfeccionaron los métodos gráficos para el análisis de celosías. Estas técnicas permitieron representar visualmente y con gran precisión los flujos de fuerza en las estructuras, lo que facilitó el diseño y la comprensión del comportamiento estructural.

Además, Maxwell y W. J. M. Rankine realizaron importantes aportaciones teóricas en ámbitos clave como los cables de suspensión en puentes metálicos, las vigas en celosía y los efectos de flexión, cortante, deformación y estabilidad en elementos comprimidos. Sus trabajos sentaron las bases de muchas de las prácticas modernas en ingeniería de estructuras metálicas y contribuyeron decisivamente al avance del diseño de puentes ferroviarios. Culmann también abordó el análisis de vigas continuas y largueros, y en 1866 publicó una descripción general del método para diseñar puentes en voladizo. En 1866, Karl Culmann publicó una descripción extensa y sistemática del análisis gráfico de celosías, consolidando así una metodología visual que permitió a los ingenieros calcular con mayor claridad y eficacia las fuerzas internas en estructuras complejas. Su obra no solo facilitó el diseño de puentes ferroviarios más seguros y eficientes, sino que también sirvió como referencia durante décadas en la enseñanza y práctica de la ingeniería estructural.

Posteriormente, Culmann desarrolló teorías sobre cargas móviles y flexión de vigas que fueron ampliamente aceptadas en Europa y Estados Unidos. En 1867, E. Winkler introdujo las líneas de influencia, una herramienta clave para el análisis de estructuras sometidas a cargas en movimiento.

El estudio de los efectos dinámicos del tráfico ferroviario, como los impactos derivados de las irregularidades de la vía, el «golpe de ariete» de las locomotoras, el cabeceo, el balanceo y la oscilación, continuó impulsando la investigación teórica y experimental. El aumento de la carga ferroviaria también generó preocupación por la fatiga del material, un campo en el que A. Wöhler destacó por sus estudios para los ferrocarriles alemanes.

A finales del siglo XIX, la ingeniería de puentes ferroviarios en Norteamérica dio un nuevo paso hacia la consolidación de una práctica plenamente científica. El ingeniero J. A. L. Waddell desempeñó un papel clave en este proceso, ya que en 1898 y 1916 publicó dos obras de referencia sobre el diseño de puentes de acero. Estos textos sentaron las bases de una metodología rigurosa y estandarizada para el diseño estructural en el ámbito ferroviario.

Hasta entonces, era habitual que las compañías ferroviarias adquiriesen puentes completos a fabricantes que ofrecían soluciones prefabricadas y de diseño propio. Waddell y otros ingenieros promovieron un cambio radical: que los diseños los realizaran de forma independiente, ingenieros cualificados basándose en principios científicos y que las empresas solo se encargaran de la fabricación. La Erie Railroad fue la primera en aplicar este nuevo modelo, y su ejemplo fue seguido rápidamente por el resto de compañías ferroviarias estadounidenses. Así, el diseño independiente y técnicamente fundamentado se convirtió en la norma.

Así, a comienzos del siglo XX, la ingeniería de puentes ferroviarios había alcanzado una madurez técnica plena en Estados Unidos y Europa, basada en fundamentos científicos sólidos, metodologías de cálculo avanzadas y una clara profesionalización del diseño estructural.

Os dejo un vídeo de un puente de ferrocarril en celosía tipo Warren.

Benoît-Pierre-Émile Clapeyron: Contribuciones fundamentales a la teoría de estructuras y a la termodinámica

Benoit Paul Émile Clapeyron (1799-1864).

Benoît-Pierre-Émile Clapeyron (París, 26 de enero de 1799-París, 28 de enero de 1864) fue una figura clave en la ingeniería y la física del siglo XIX, cuyas contribuciones fundamentales abarcan desde el análisis estructural hasta los cimientos de la termodinámica moderna.

Nacido el séptimo día del mes Pluvioso del calendario revolucionario francés, Clapeyron cursó estudios en la École Polytechnique, de la que se graduó en 1818. Posteriormente, continuó su formación en la École des Mines, donde coincidió con su amigo y futuro colaborador, Gabriel Lamé. En 1820, ambos se trasladaron a Rusia como parte de un esfuerzo promovido por el zar Alejandro I para modernizar las infraestructuras del imperio, formando ingenieros de caminos y puentes. En San Petersburgo, Clapeyron y Lamé se incorporaron como profesores a la École des Travaux Publics, donde enseñaron matemáticas puras y aplicadas, y al mismo tiempo participaron activamente como ingenieros consultores en proyectos emblemáticos, como la Catedral de San Isaac, la Columna de Alejandro, puentes colgantes y las esclusas de Schlüsselburg.

Durante su década en Rusia, además de su labor docente y técnica, ambos publicaron investigaciones conjuntas sobre temas matemáticos e ingenieriles en revistas científicas. Sin embargo, tras la Revolución de Julio de 1830, sus convicciones políticas les hicieron sentirse incómodos en el clima zarista, por lo que regresaron a Francia. En este contexto, cuando el ferrocarril apenas comenzaba a desarrollarse y aún se consideraba una empresa de dudosa rentabilidad, Clapeyron intuyó su gran potencial y promovió la construcción de una línea férrea entre París y Saint-Germain-en-Laye. Aunque inicialmente no obtuvo financiación, fue nombrado catedrático en la Escuela de Minas de Saint-Étienne. Finalmente, en 1835, se autorizó la construcción de dicha línea y tanto Clapeyron como Lamé fueron designados responsables del proyecto. Poco después, Lamé aceptó una cátedra en la Escuela Politécnica y dejó a Clapeyron a cargo exclusivo de la obra.

En 1836, Clapeyron viajó a Inglaterra para gestionar la fabricación de locomotoras de vapor especializadas. Intentó primero colaborar con George Stephenson, quien rechazó sus diseños por su complejidad. Después se puso en contacto con la empresa Sharp, Roberts and Company, pionera en la fabricación de locomotoras con piezas intercambiables, y con la que logró avanzar en sus planes. De regreso en Francia, amplió su trabajo hacia el diseño de puentes metálicos, integrando sus conocimientos en estructuras relacionadas con el desarrollo ferroviario.

Su trayectoria académica alcanzó un nuevo hito en 1844, cuando fue nombrado profesor de construcción de máquinas de vapor en la École des Ponts et Chaussées. En 1848 fue elegido miembro de la Academia de las Ciencias de París, donde participó activamente en múltiples comités, entre ellos el encargado de evaluar el proyecto del canal de Suez y el que analizaba la incorporación de motores de vapor en la marina.

En el ámbito científico, Clapeyron es reconocido por haber reformulado las ideas de Sadi Carnot en 1834, mediante su célebre artículo La puissance motrice de la chaleur. En este texto, presentó el ciclo de Carnot con una claridad analítica inédita, valiéndose de representaciones gráficas —como el diagrama presión-volumen, conocido hoy como diagrama de Clapeyron— y proporcionando una formulación matemática rigurosa. Esta obra rescató del olvido los conceptos termodinámicos de Carnot, influyendo profundamente en científicos como William Thomson (Lord Kelvin) y Rudolf Clausius, y sentando las bases para el establecimiento de la segunda ley de la termodinámica.

En 1843, Clapeyron amplió el concepto de proceso reversible y formuló con precisión el principio de Carnot. A partir de estas bases, desarrolló más adelante, junto con Clausius, la conocida ecuación diferencial, relación de Clausius-Clapeyron, que describe las condiciones de equilibrio en las transiciones de fase de la materia. También abordó problemas que hoy se conocen como problemas de Stefan. Un nomograma para el cálculo de la ecuación de Clapeyron de los gases ideales lo podéis descargar en este enlace.

En paralelo, realizó importantes aportes en el campo de la mecánica de sólidos. Sus trabajos incluyen el Mémoire sur la stabilité des voûtes (1823), Mémoire sur la construction des polygones funiculaires (1828), y la Note sur un théorème de mécanique (1833). En 1833 también publicó el Mémoire sur l’équilibre intérieur des corps solides homogènes. Su experiencia en construcción se cristalizó en su Mémoire sur le calcul d’une poutre élastique reposant librement sur des appuis inégalement espacés (1857), donde introdujo el teorema de los tres momentos, herramienta clave en el cálculo de vigas continuas hiperestáticas. Un año más tarde, en 1858, presentó el Mémoire sur le travail des forces élastiques dans un corps solide élastique déformé par l’action de forces extérieures, en el que formuló su célebre teorema de Clapeyron, principio fundamental en la teoría de la elasticidad.

Clapeyron falleció el 28 de enero de 1864 en París. Su legado en los campos de la ingeniería estructural y la física teórica constituye uno de los pilares sobre los que se cimentó la ciencia moderna del siglo XIX.

Os dejo un vídeo relacionado con el teorema de Clapeyron.

Evolución histórica de la inteligencia artificial en la ingeniería civil: de los sistemas expertos a las infraestructuras inteligentes

La inteligencia artificial (IA) se ha ido integrando en la ingeniería civil y la construcción a lo largo de siete décadas, transformando los procesos de diseño, análisis, gestión y ejecución. El siguiente recorrido histórico muestra los avances más relevantes, que han pasado de meras exploraciones teóricas a aplicaciones prácticas que mejoran la eficiencia, la precisión y la toma de decisiones en proyectos de infraestructura.

El artículo examina la evolución histórica de la IA en la ingeniería civil, desde sus fundamentos teóricos en las décadas de los 50 y 60 hasta la actualidad. A continuación, aborda su popularización en la programación y el diseño a través de los sistemas expertos en las décadas de los 70 y 80. En las décadas siguientes, se integró en el análisis estructural y el diseño, y surgió el auge del aprendizaje automático y el análisis de datos para la gestión de proyectos. Más recientemente, la IA se ha combinado con la robótica y otras tecnologías avanzadas para aplicaciones en obra y monitorización. Finalmente, se vislumbra la creación de infraestructuras inteligentes mediante la convergencia de la IA y el Internet de las Cosas.

1. 1950 s–1960 s: Fundación de la IA
En la década de 1950, la IA surgió como disciplina académica, centrada en el desarrollo de máquinas capaces de simular funciones cognitivas humanas. Los primeros trabajos se orientaron hacia el razonamiento simbólico, los sistemas basados en reglas y los algoritmos de resolución de problemas. Estas investigaciones sentaron las bases teóricas necesarias para posteriores aplicaciones en ingeniería civil, aunque en aquel momento todavía no existían implementaciones específicas en el sector de la construcción.

2. 1970 s–1980 s: Sistemas expertos y sistemas basados en conocimiento
Entre los años 1970 y 1980 se popularizaron los sistemas expertos, que imitaban la forma en que los especialistas en dominios concretos tomaban decisiones. En ingeniería civil, estos sistemas se aplicaron a tareas como la programación de proyectos (scheduling), la optimización de diseños y la evaluación de riesgos, emulando el saber de ingenieros veteranos. Paralelamente, los sistemas basados en el conocimiento centralizaban esta información en bases de datos y ofrecían asistencia automatizada para la toma de decisiones en obra y en oficina técnica.

3. 1990 s–2000 s: Integración en análisis estructural y diseño
Durante los años 90 y principios de los 2000, la IA comenzó a tener un impacto directo en el análisis estructural y la optimización del diseño. Se emplearon redes neuronales y lógica difusa para modelar comportamientos complejos de materiales y estructuras. Al mismo tiempo, surgieron los primeros sistemas de monitorización de la salud estructural que, mediante algoritmos de IA, permitían evaluar el estado de puentes y edificios en tiempo real. En gestión de obra, las primeras herramientas asistidas por IA empezaron a abordar la programación, la estimación de costes y el análisis de riesgos.

4. 2000 s–2010 s: Aprendizaje automático y analítica de datos
La explosión del machine learning y el big data en estos años transformó la previsión de plazos, recursos y costes. Las técnicas de aprendizaje supervisado y no supervisado se integraron en plataformas de gestión de proyectos, mientras que la Modelización de la Información de Edificación (BIM) incorporó algoritmos de inteligencia artificial para mejorar la colaboración multidisciplinar, la detección de conflictos (clash detection) y la toma de decisiones basada en datos.

5. 2010 s–presente: Aplicaciones avanzadas y robótica
A partir de 2010, se intensificó la convergencia entre la inteligencia artificial y la robótica en obra. Aparecieron vehículos autónomos para tareas de excavación, drones integrados con visión por ordenador para inspeccionar los progresos y brazos robóticos en plantas de prefabricados. Asimismo, se generalizó el uso de la realidad virtual y aumentada para visualizar diseños y realizar simulaciones en tiempo real, lo que permite realizar ajustes adaptativos durante la ejecución de los proyectos.

6. Perspectivas futuras: IA e infraestructuras inteligentes
El documento señala la próxima convergencia de la IA con el Internet de las Cosas (IoT) para el desarrollo de infraestructuras inteligentes que puedan monitorizarse de forma continua y realizar mantenimiento predictivo. También se espera la aparición de materiales inteligentes y técnicas de diseño generativo que optimicen la sostenibilidad y la resiliencia de las construcciones, cerrando el ciclo de operación, mantenimiento y rehabilitación de infraestructuras.

Conclusión
Este artículo repasa la trayectoria que va desde los inicios teóricos de la IA hasta sus aplicaciones robóticas y de análisis en tiempo real actuales. Cada etapa ha aportado nuevas herramientas al ingeniero civil: desde los sistemas expertos de los años setenta hasta las infraestructuras inteligentes del mañana, la IA continuará redefiniendo la práctica de la ingeniería civil, haciéndola más eficiente, segura y sostenible.

Glosario de términos clave

  • Inteligencia Artificial (IA): Disciplina académica centrada en el desarrollo de máquinas capaces de simular funciones cognitivas humanas.
  • Sistemas Expertos: Programas informáticos que imitan la forma en que los especialistas en dominios concretos toman decisiones, utilizando conocimiento y reglas.
  • Sistemas Basados en Conocimiento: Sistemas que centralizan información en bases de datos para ofrecer asistencia automatizada en la toma de decisiones.
  • Razonamiento Simbólico: Enfoque inicial de la IA que se basa en la manipulación de símbolos para representar conocimiento y realizar inferencias.
  • Algoritmos de Resolución de Problemas: Procedimientos sistemáticos o heurísticos utilizados por la IA para encontrar soluciones a problemas definidos.
  • Redes Neuronales: Modelos computacionales inspirados en la estructura y funcionamiento del cerebro humano, utilizados para reconocer patrones y aprender de datos.
  • Lógica Difusa: Enfoque que permite el razonamiento con información imprecisa o incierta, utilizando grados de verdad en lugar de valores booleanos (verdadero/falso).
  • Monitorización de la Salud Estructural: Evaluación continua del estado de estructuras como puentes y edificios para detectar deterioros o fallos.
  • Machine Learning (Aprendizaje Automático): Subcampo de la IA que permite a los sistemas aprender de datos sin ser programados explícitamente, utilizando algoritmos para identificar patrones y hacer predicciones.
  • Big Data: Conjuntos de datos extremadamente grandes y complejos que requieren herramientas y técnicas avanzadas para su análisis.
  • Aprendizaje Supervisado: Tipo de machine learning donde el algoritmo aprende de datos de entrenamiento etiquetados (con resultados conocidos).
  • Aprendizaje No Supervisado: Tipo de machine learning donde el algoritmo busca patrones y estructuras en datos no etiquetados.
  • Modelización de la Información de Edificación (BIM): Proceso inteligente basado en modelos 3D que proporciona información sobre un proyecto de construcción a lo largo de su ciclo de vida.
  • Detección de Conflictos (Clash Detection): Proceso en BIM que identifica colisiones o interferencias entre diferentes elementos o sistemas de un diseño.
  • Robótica: Campo que combina la ingeniería y la ciencia para diseñar, construir, operar y aplicar robots.
  • Visión por Ordenador: Campo de la IA que permite a los ordenadores “ver” e interpretar imágenes y videos.
  • Realidad Virtual: Tecnología que crea un entorno simulado por ordenador con el que el usuario puede interactuar.
  • Realidad Aumentada: Tecnología que superpone información digital (imágenes, sonidos, datos) sobre el mundo real.
  • Internet de las Cosas (IoT): Red de objetos físicos (“cosas”) integrados con sensores, software y otras tecnologías para recopilar e intercambiar datos a través de internet.
  • Infraestructuras Inteligentes: Infraestructuras equipadas con sensores y sistemas de comunicación que utilizan IA e IoT para monitorizarse, gestionarse y optimizarse de forma autónoma.
  • Mantenimiento Predictivo: Estrategia de mantenimiento que utiliza datos y algoritmos para predecir cuándo es probable que falle un equipo o componente, permitiendo realizar acciones de mantenimiento antes de que ocurra la falla.
  • Diseño Generativo: Proceso de diseño donde los algoritmos de IA exploran un vasto espacio de posibles soluciones basándose en un conjunto de parámetros y objetivos definidos.

Referencias:

DONAIRE-MARDONES, S.; BARRAZA ALONSO, R.; MARTÍNEZ-PAGÁN, P.; YEPES-BELLVER, L.; YEPES, V.; MARTÍNEZ-SEGURA, M.A. (2024). Innovación educativa con realidad aumentada: perspectivas en la educación superior en ingeniería. En libro de actas: X Congreso de Innovación Educativa y Docencia en Red. Valencia, 11 – 12 de julio de 2024. DOI: https://doi.org/10.4995/INRED2024.2024.18365

GARCÍA, J.; VILLAVICENCIO, G.; ALTIMIRAS, F.; CRAWFORD, B.; SOTO, R.; MINTATOGAWA, V.; FRANCO, M.; MARTÍNEZ-MUÑOZ, D.; YEPES, V. (2022). Machine learning techniques applied to construction: A hybrid bibliometric analysis of advances and future directions. Automation in Construction, 142:104532. DOI:10.1016/j.autcon.2022.104532

FERNÁNDEZ-MORA, V.; NAVARRO, I.J.; YEPES, V. (2022). Integration of the structural project into the BIM paradigm: a literature review. Journal of Building Engineering, 53:104318. DOI:10.1016/j.jobe.2022.104318.

YEPES, V.; KRIPKA, M.; YEPES-BELLVER, L.; GARCÍA, J. (2023). La inteligencia artificial en la ingeniería civil: oportunidades y desafíosIC Ingeniería Civil, 642:20-23.

Robustez estructural y colapso progresivo: claves para entender y proteger nuestras construcciones

Colapso de una torre de viviendas en Ronan Point (Reino Unido). By Derek Voller, CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=59931718

La robustez estructural es la cualidad que permite a un edificio o puente soportar eventos inesperados —un fallo aislado, un impacto, una explosión—sin que ello provoque un colapso generalizado. Con el fin de aclarar el tema, se plantea la siguiente hipótesis: ¿qué ocurriría si un edificio perdiera de forma repentina uno de sus pilares portantes? En caso de que el diseño del edificio sea adecuado, las cargas que anteriormente transmitía dicho pilar se distribuirán de manera alternativa entre los elementos restantes, evitando así su colapso total. La capacidad de «resistir a contracorriente» ante situaciones inusuales se denomina robustez, constituyendo una línea de defensa fundamental para garantizar la seguridad de las personas y la continuidad del uso de la infraestructura.

El concepto puede resultar abstracto, pero es suficiente con considerar ejemplos dramáticos del pasado: en 1968, el colapso de una torre de viviendas en Ronan Point (Reino Unido) se originó por la explosión de una bombona de gas en un piso. Un fallo local aparentemente limitado desencadenó la caída de varias plantas, debido a la falta de mecanismos suficientes para redirigir las cargas. Por el contrario, un diseño sólido y bien fundamentado prevé esa posibilidad y mantiene la estructura del edificio en pie incluso tras el daño inicial, minimizando el número de víctimas y la magnitud del desastre.

Dentro de la robustez, se identifican diversas cualidades fundamentales. La redundancia implica la disposición de múltiples vías para garantizar la llegada de las cargas al terreno. En caso de una interrupción en una de las vías, las otras están preparadas para asumir la carga de manera inmediata. La ductilidad se define como la capacidad de los materiales —como el acero, el hormigón armado o la madera— para deformarse sin quebrarse de forma brusca. Esta «flexibilidad» les permite absorber la energía generada por impactos o terremotos, evitando así roturas instantáneas. La integridad estructural se define como la continuidad de todos los elementos conectados, de modo que las vigas, columnas y losas formen un conjunto que trabaje armónicamente y no se separe ante un esfuerzo puntual.

El colapso progresivo es un proceso en el que un fallo inicial genera otros a su alrededor, extendiéndose como una fiebre que consume toda la estructura. Analogía: el desplome de la primera ficha de dominó puede desencadenar la caída de todas las demás. En el ámbito de la ingeniería estructural, se busca evitar dicha reacción en cadena. Para ello, se implementan técnicas de «atado» o «conexión reforzada», mediante las cuales se une las vigas y columnas con armaduras continuas o refuerzos en puntos críticos. De esta manera, en caso de fallo de un elemento, el resto del sistema no se ve comprometido.

En el ámbito de la ingeniería, la incorporación de la robustez en los proyectos se aborda mediante la aplicación de diversas estrategias. Una de las metodologías más eficaces consiste en anticipar los posibles escenarios de daño, tales como impactos de vehículos, explosiones accidentales o errores de construcción. Posteriormente, se verifica mediante modelos simplificados que la estructura mantiene su estabilidad incluso cuando falta un pilar o una viga. Otra estrategia prescriptiva implica el refuerzo de elementos clave, tales como las columnas exteriores o los núcleos de las escaleras, mediante la incorporación de armaduras o perfiles metálicos de mayor sección, con el fin de actuar como «pilares de reserva» que soporten las cargas críticas.

La normativa europea, establecida en los Eurocódigos, ha establecido durante años la exigencia de que los edificios posean la capacidad de resistir sin colapsar de manera desproporcionada ante acciones accidentales. Es importante destacar que esta medida no implica la necesidad de afrontar situaciones de alto riesgo, como bombardeos o terremotos de gran intensidad. En cambio, se refiere a la capacidad del edificio para resistir eventos menos probables pero potencialmente significativos, tales como la explosión de una tubería de gas o el choque de un camión contra un pilar. Para ello, se establecen diversos niveles de severidad del daño y se implementan criterios de diseño más o menos rigurosos, en función del riesgo para las personas y el entorno.

En la práctica, estos requisitos se traducen en aspectos constructivos específicos, tales como la unión de las vigas de forjado a las vigas principales y a los muros de cerramiento, la instalación de estribos continuos en las columnas para mejorar su comportamiento ante daños localizados o la previsión de refuerzos metálicos en los puntos de unión más expuestos. Asimismo, se recomienda el empleo de materiales con suficiente ductilidad, como aceros estructurales de alta deformabilidad, y técnicas de construcción que garanticen conexiones firmes, tales como soldaduras completas, atornillados de alta resistencia o conectores especiales en estructuras de madera.

Estos principios, además de aplicarse en la obra nueva, también se emplean en el refuerzo de edificios existentes. En el proceso de rehabilitación de estructuras antiguas, con frecuencia se implementa la adición de pórticos metálicos interiores o el refuerzo de las conexiones de hormigón armado con fibras de carbono, con el propósito de incrementar su ductilidad. En el caso de los puentes, se procede a la instalación de amortiguadores o cables adicionales que permitan la redistribución de esfuerzos en caso de rotura de un tirante. El objetivo principal es la integración de elementos de seguridad en el sistema portante.

En resumen, la robustez estructural es un enfoque global que integra el diseño conceptual, el análisis de riesgos, la definición de escenarios y los detalles constructivos, con el objetivo de prevenir que un fallo puntual derive en un colapso mayor. Es imperativo comprender el colapso progresivo y aplicar medidas de redundancia, ductilidad e integridad —junto a estrategias prescriptivas y de análisis directo—. De esta manera, nuestros edificios y puentes se convierten en sistemas más seguros, preparados para afrontar lo imprevisto y reducir al máximo las consecuencias de cualquier incidente.

Tómese un momento para consultar el siguiente texto, el cual contiene información adicional relevante para su referencia. El presente informe, elaborado por la EU Science Hub, en consonancia con los Eurocódigos, aborda el tema de la resistencia estructural, con el propósito de prevenir colapsos progresivos y desproporcionados en estructuras tales como edificios y puentes. Por favor, proceda a analizar las directrices de diseño existentes en Europa y otros lugares, identificando fortalezas y debilidades en las normativas actuales. El documento propone nuevas estrategias de diseño, como métodos mejorados de fuerza de atado horizontal y consideraciones de rutas de carga alternativas, y aborda la importancia de tener en cuenta el envejecimiento, el deterioro y el diseño multi-riesgo. Se presentan ejemplos ilustrativos de aplicación para diversas estructuras.

Descargar (PDF, 3.34MB)

Glosario de términos clave

  • Robustez (estructural): Capacidad/propiedad de un sistema para evitar una variación del rendimiento estructural (rendimiento del sistema) desproporcionadamente mayor con respecto al daño correspondiente (perturbación del sistema).
  • Vulnerabilidad: Describe el grado de susceptibilidad de un sistema estructural a alcanzar un determinado nivel de consecuencias, para un evento peligroso dado.
  • Daño admisible (damage tolerance): Capacidad de un sistema estructural para soportar un determinado nivel de daño manteniendo el equilibrio con las cargas aplicadas.
  • Continuidad: Conexión continua de los miembros de un sistema estructural.
  • Ductilidad: Capacidad de un sistema estructural para soportar las cargas aplicadas disipando energía plástica.
  • Integridad: Condición de un sistema estructural para permitir la transferencia de fuerzas entre los miembros en caso de eventos accidentales.
  • Incertidumbres: Estado de información deficiente, por ejemplo, relacionada con la comprensión o el conocimiento de un evento, su consecuencia o probabilidad.
  • Probabilidad: Expresión matemática del grado de confianza en una predicción.
  • Fiabilidad (reliability): Medida probabilística de la capacidad de un sistema estructural para cumplir requisitos de diseño específicos. La fiabilidad se expresa comúnmente como el complemento de la probabilidad de falla.
  • Seguridad estructural: Calidad de un sistema estructural, referida a la resistencia, estabilidad e integridad de una estructura para soportar los peligros a los que es probable que esté expuesta durante su vida útil.
  • Riesgo: Una medida de la combinación (generalmente el producto) de la probabilidad o frecuencia de ocurrencia de un peligro definido y la magnitud de las consecuencias de la ocurrencia.
  • Redundancia: La capacidad del sistema para redistribuir entre sus miembros la carga que ya no puede ser soportada por algunos elementos dañados y/o deteriorados.
  • Peligro: Amenaza excepcionalmente inusual y severa, por ejemplo, una posible acción anormal o influencia ambiental, resistencia o rigidez insuficiente, o desviación perjudicial excesiva de las dimensiones previstas.
  • Escenario peligroso: Serie de situaciones, transitorias en el tiempo, que un sistema podría experimentar y que pueden poner en peligro el propio sistema, a las personas y al medio ambiente.
  • Consecuencias del fallo: Los resultados o impactos de un fallo estructural, que pueden ser directos (daño a elementos afectados directamente) o indirectos (fallo parcial o total del sistema subsiguiente).
  • Análisis por presión-impulso (pressure–impulse analysis): Método utilizado para evaluar el rendimiento y el daño de elementos estructurales individuales bajo carga dinámica, definido por curvas iso-daño que relacionan la presión y el impulso.
  • Capacidad de diseño (capacity design): Un principio de diseño sísmico que establece una jerarquía de resistencias de los miembros para garantizar que las rótulas plásticas se formen en ubicaciones deseadas, típicamente en las vigas en lugar de en las columnas (regla columna débil-viga fuerte – SCWB).
  • Factor de robustez R(𝜌, Δ): Un factor propuesto para cuantificar la robustez estructural relacionando el indicador de rendimiento residual (𝜌) con el índice de daño (Δ), a menudo con un parámetro de forma (𝛼).
  • Atados (ties): Elementos o disposiciones utilizados en el diseño estructural para proporcionar resistencia a la tracción y mejorar la robustez, especialmente en caso de pérdida de un elemento vertical de soporte de carga. Pueden ser horizontales o verticales.

Referencias:

MAKOOND, N.; SETIAWAN, A.; BUITRAGO, M., ADAM, J.M. (2024). Arresting failure propagation in buildings through collapse isolation. Nature 629, 592–596 (2024). DOI:10.1038/s41586-024-07268-5

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementationEngineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487