Método de Galerkin y placas elásticas: la contribución de Borís Galiorkin a la ingeniería estructural

Borís Grigórievich Galiorkin (1871–1945). https://generals.dk/general/Galerkin/

Borís Grigórievich Galiorkin (1871–1945) fue un ingeniero y matemático soviético cuya obra transformó la teoría de estructuras y la física matemática. Nacido en una familia humilde en Polotsk, tuvo que compaginar desde joven sus estudios con distintos trabajos para poder subsistir. Su vida estuvo marcada tanto por la represión política —incluidos periodos en prisión— como por una intensa labor científica y docente. Galiorkin es recordado principalmente por el desarrollo del célebre Método de Galerkin, una técnica de aproximación para resolver ecuaciones diferenciales que hoy es pilar en disciplinas como la mecánica, la termodinámica o el electromagnetismo. Su legado sigue siendo fundamental en la ingeniería moderna.

Borís Grigórievich Galérkin (en ruso, Бори́с Григо́рьевич Галёркин, apellido a veces transliterado como Galerkin o Galyorkin) nació el 20 de febrero de 1871. Pólatsk, Gobernación de Vítebsk, Imperio ruso; actual Bielorrusia —falleció el 12 de julio de 1945 en Leningrado, URSS— fue un ingeniero civil y matemático soviético, célebre por formular el método de Galerkin, una técnica numérica fundamental para la resolución aproximada de ecuaciones diferenciales parciales.

Nació en el seno de una familia judía pobre. Sus padres, Girsh-Shleym (Hirsh-Shleym) Galerkin y Perla Basia Galerkina, poseían una casa en Polotsk, pero sus oficios artesanales apenas generaban ingresos. Desde los doce años trabajó como calígrafo en los tribunales para ayudar a la economía familiar.

Cursó sus estudios en Polotsk y, tras superar los exámenes de acceso en Minsk en 1893, obtuvo la oportunidad de continuar su formación superior. Ese mismo año ingresó en el Instituto Tecnológico Estatal de San Petersburgo, donde estudió matemáticas e ingeniería. Para mantenerse, dio clases particulares y, desde 1896, trabajó como diseñador técnico. Durante su etapa universitaria, se vinculó a los socialdemócratas rusos, lo que marcó el rumbo de su vida. En 1899, poco antes de graduarse, fue expulsado del instituto por sus actividades políticas, pero logró graduarse como estudiante externo ese mismo año.

Comenzó su carrera profesional en la fábrica de locomotoras de Járkov en 1899 y, en 1903, se trasladó a San Petersburgo para asumir el cargo de ingeniero jefe en la Northern Mechanical and Boiler Plant. Al mismo tiempo, continuó su activismo en el partido socialdemócrata y fundó un sindicato obrero. Fue encarcelado brevemente en 1905 y, en 1907, condenado a dieciocho meses de prisión. En la cárcel escribió su primer tratado científico: un manual sobre análisis estructural. En 1908, tras salir de prisión, decidió apartarse de la militancia y dedicarse a la ingeniería civil y a la ciencia.

En 1909, comenzó a enseñar mecánica estructural en el Instituto Tecnológico de San Petersburgo, bajo la influencia de V. L. Kirpichov, y en contacto con científicos como Iván Bubnov, A. N. Krylov, I. V. Meshcherskiy y S. P. Timoshenko. Ese mismo año, publicó su primer trabajo sobre pandeo longitudinal, inspirado en Euler y aplicable al diseño de puentes y estructuras de edificios.

Entre 1909 y 1914 viajó por Alemania, Austria, Suiza, Bélgica y Suecia para estudiar obras y sistemas constructivos modernos. En 1911, enseñó también en el Instituto Politécnico Femenino y, en 1913, diseñó la estructura metálica de una central termoeléctrica en San Petersburgo, considerada la primera gran edificación rusa con armazón metálico sometido a cargas pesadas, lo que supuso un hito en Europa.

En 1915 presentó el trabajo que le daría fama mundial: el método de aproximación para ecuaciones diferenciales, que aplicó inicialmente a entramados y placas. Aunque I. G. Bubnov había propuesto un enfoque similar en 1911, la formulación de Galerkin fue más general, ya que desvinculó el procedimiento de la resolución variacional directa e interpretó el método como una técnica universal aplicable a problemas de mecánica y física matemática.

En la actualidad, el método de Galerkin (también conocido como método de Bubnov-Galerkin) constituye la base de numerosos algoritmos en mecánica, termodinámica, electromagnetismo, hidrodinámica y otras disciplinas, y se considera uno de los antecedentes directos del método de elementos finitos.

En 1919 obtuvo una plaza de profesor en el Instituto Politécnico Femenino y, en 1920, ganó por concurso la cátedra de Mecánica Estructural en el Instituto Tecnológico de San Petersburgo. Al año siguiente, también impartía docencia en la Universidad de Leningrado y en el Instituto de Ingenieros de Comunicaciones de dicha ciudad. Ese mismo año, la Sociedad Matemática de San Petersburgo reabrió sus puertas tras la revolución con el nombre de Sociedad Físico-Matemática de Petrogrado. Galiorkin desempeñó un papel central en ella junto a científicos como V. A. Steklov, Serguéi Bernstein y Alexandr Friedmann.

En 1923, fue elegido decano de la Facultad de Ingeniería Civil del Politécnico, donde defendió la independencia académica frente a las presiones políticas y creó los primeros laboratorios de la facultad. En 1924 realizó su último viaje internacional, al Congreso de Mecánica Aplicada en los Países Bajos. En 1928 fue elegido miembro correspondiente de la Academia de Ciencias de la URSS, y en 1935, miembro de pleno derecho. Durante las décadas de 1920 y 1930, fue consultor en las principales obras industriales e hidráulicas de la URSS. Entre sus aportaciones, destacan sus estudios sobre la presa y la central hidroeléctrica del Dniéper (1929), en los que analizó las tensiones en los muros de la presa de perfil trapezoidal. En 1933 publicó Uprugie tonkie plity (Placas delgadas elásticas) y, en 1937, su monografía sobre membranas. Además, entre 1934 y 1945 investigó la teoría de recubrimientos o carcazas, que tenía aplicaciones industriales novedosas. Recibió dos doctorados en técnicas y matemáticas (1934) y el título de Trabajador Eminente en Ciencia e Ingeniería. Ese mismo año fue nombrado director del Instituto de Mecánica de la Academia de Ciencias, cargo que mantuvo hasta su fallecimiento.

En 1939, con la reorganización de la Universidad de Ingeniería Militar (VITU), fue nombrado director del Departamento de Mecánica Estructural y ascendido a teniente general de ingeniería, a pesar de no haber servido en el ejército. Durante la Segunda Guerra Mundial, dirigió la Comisión de Construcciones Defensivas de Leningrado y, tras ser evacuado a Moscú, trabajó en la Comisión de Ingeniería Militar de la Academia de Ciencias. En 1942 recibió el Premio Stalin por sus contribuciones.

Murió en Moscú el 12 de julio de 1945, poco después de la victoria soviética, y fue enterrado en el cementerio Volkovo de San Petersburgo.

El nombre de Galiorkin está ligado al método de Galerkin, uno de los pilares del análisis numérico moderno y del cálculo estructural. Sus investigaciones sobre entramados, placas, membranas y recubrimientos tuvieron un enorme impacto teórico y práctico, especialmente en presas hidroeléctricas, estructuras metálicas y en la consolidación de la ingeniería soviética.

Entre sus obras destacan:

  • Sterzhni i plastinki (Barras y placas, 1915)

  • Uprugie tonkie plity (Placas delgadas elásticas, 1933)

  • Sobranie sochinenii (Obras completas, 1952–1953)

En 1998, el asteroide (22611) Galerkin fue nombrado en su honor, consagrando el legado de uno de los ingenieros y matemáticos más influyentes del siglo XX.

La trayectoria de Borís Grigórievich Galerkin demuestra que la perseverancia y la pasión científica pueden superar las adversidades económicas y políticas. A lo largo de su vida, compaginó la enseñanza, la investigación y la práctica ingenieril, dejando una profunda huella en la ciencia y la técnica del siglo XX. El método de Galerkin y sus estudios sobre estructuras, placas y cáscaras elásticas no solo resolvieron problemas de su tiempo, sino que también sentaron las bases de los métodos numéricos que hoy en día utilizan ingenieros y científicos de todo el mundo. Su legado sigue vivo en cada cálculo estructural, simulación computacional y diseño que recurre a estas herramientas fundamentales.

En este audio podemos conocer más de su biografía.

Os paso un vídeo del método de Garlerkin.

 

Seguimiento inteligente de deslizamientos en suelos de loess: aplicaciones prácticas y lecciones para el ingeniero civil

Acaban de publicar un artículo en la revista, Geomechanics for Energy and the Environment, de la editorial Elsevier, indexada en el JCR. El presente artículo examina un estudio que combina medición en pilotes de hormigón armado, tecnologías GNSS e InSAR y simulaciones de elementos finitos para entender cómo interactúan factores como la presión, la temperatura y la humedad en la evolución de taludes colapsables.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València, y es fruto de la colaboración internacional con investigadores de la Hunan University of Science and Engineering (China).

Podéis descargar el artículo de forma gratuita, hasta el 22 de julio de 2025, en la siguiente dirección: https://authors.elsevier.com/c/1lCKs8MtfNSrg1

En entornos donde los suelos de loess presentan alta susceptibilidad a deslizamientos, disponer de información precisa y temprana resulta determinante para garantizar la estabilidad de las infraestructuras y la seguridad de las comunidades.  A partir de los datos de campo y de la validación numérica, se extraen conclusiones clave sobre cómo dimensionar sistemas de refuerzo, configurar umbrales de alerta temprana y optimizar el diseño de pilotes en proyectos reales. A lo largo del texto se detallan tanto la metodología empleada como las aportaciones más relevantes, la interpretación de los resultados y las líneas futuras de investigación, de modo que el profesional del sector disponga de criterios sólidos para aplicar en obra o en la elaboración de proyectos de contención y estabilización en loess.

Metodología

El estudio combina la vigilancia de campo y simulación numérica para caracterizar el comportamiento de deslizamientos en suelos de loess. Se diseñó una red de instrumentación que incluye:

  • Pilotes de hormigón armado con sensores de presión y temperatura instalados a distintas profundidades (entre 2 m y 16 m). Estos sensores registran continuamente variaciones de tensión y temperatura, permitiendo asociar cambios térmicos con redistribuciones de fricción lateral entre pilote y suelo.
  • Receptores GNSS de alta precisión para medir desplazamientos superficiales con cadencia diaria.
  • Técnicas InSAR destinadas a generar mapas de deformación de superficie con resolución milimétrica.
  • Sensores de alambre vibrante para detectar cambios en humedad y densidad del terreno, claves para evaluar la resistencia interna del suelo y su evolución ante variaciones de carga y humedad.

En paralelo, en laboratorio se realizaron ensayos geomecánicos sobre muestras de loess. Se determinaron parámetros fundamentales: cohesión, ángulo de fricción, módulo de deformación y relación de vacíos. Estos datos alimentaron un modelo tridimensional de elementos finitos de tipo termomecánico, que incorpora:

  1. Parámetros de resistencia al corte y rigidez del suelo, calibrados mediante comparación con los desplazamientos y tensiones reales observados en campo.
  2. Condiciones de contorno tomadas de las lecturas de GNSS, InSAR y sensores en pilotes, para reproducir las condiciones de carga estática y los ciclos térmicos naturales.
  3. Proceso de optimización iterativa, ajustando el modelo hasta que las predicciones de deformación coincidieran con los datos de monitorización (diferencia inferior al 5 % entre desplazamientos numéricos y medidos) .

Este enfoque dual—campo y simulación—garantiza que las conclusiones numéricas se basen en datos reales y que los sistemas de seguimiento puedan ser validados frente a un modelo predictivo confiable.

Aportaciones relevantes

El artículo introduce un método integral de monitorización inteligente que va más allá del registro de desplazamientos superficiales. Los aspectos más destacados, con aplicación directa para el ingeniero civil, son:

  • Medición de tensiones internas en profundidad: La instalación de sensores de presión en pilotes permite identificar aumentos de carga a diferentes niveles. Los resultados mostraron que la presión tiende a incrementarse de forma monótona con la profundidad, lo que indica que los estratos inferiores soportan una mayor carga estática. Este comportamiento aporta información valiosa para dimensionar pilotes y elementos de refuerzo, pues revela en qué zonas del talud se concentran esfuerzos críticos antes de que se trasladen a la superficie.
  • Indicadores térmicos de fricción lateral: Las variaciones de temperatura registradas en los pilotes resultan ser un indicador temprano de cambios en la interacción entre el hormigón y el terreno. Aumentos de temperatura intermedios de hasta 3 °C por ciclos diurnos se correlacionaron con un incremento momentáneo de fricción lateral, lo que puede retrasar o anticipar movimientos dependientes de la descompresión del terreno. Para el ingeniero, esto significa que el seguimiento térmico aporta información adicional sobre el estado crítico del pilote antes de observar movimientos visibles.
  • Integración de GNSS e InSAR: Al combinar medidas GNSS (desplazamientos puntuales diarios) con mapas InSAR (cobertura continua de la superficie), se obtiene una visión conjunta de movimientos tanto profundos como superficiales. En el estudio, los desplazamientos de superficie máximos alcanzaron 26,2 mm, con velocidades de 0,11 mm/día, mientras que en profundidad se observaron desplazamientos de hasta 5,64 mm. Estos resultados permiten calibrar sistemas de alerta temprana sobre umbrales de desplazamiento en superficie que reflejen con mayor fiabilidad la evolución interna del talud.
  • Validación del modelo numérico: La comparación entre las simulaciones de elementos finitos y los datos de campo mostró concordancia en las tendencias de deformación. El modelo predijo con precisión que los bloques con geometría más inclinada y menor cohesión interna sufrirían desplazamientos sustanciales (hasta 6,48 m en algunos tramos simulados), mientras que bloques de forma más estable presentaron desplazamientos medios inferiores a 0,20 m. Esta validación otorga credibilidad al modelo para anticipar magnitudes de deformación en función de propiedades geomecánicas y geometría del talud.

En conjunto, estas aportaciones proveen al ingeniero civil una base sólida para diseñar sistemas de protección y refuerzo, establecer niveles de alerta basados en parámetros internos (presión y temperatura) y optimizar diseños de pilotes según las condiciones específicas del terreno de loess.

Discusión de resultados

Los registros de presión en pilotes revelaron que a profundidades superiores a 10 m los valores oscilan entre 50 kPa y 65 kPa, mientras que en los primeros metros (2 m–5 m) se sitúan entre 5 kPa y 20 kPa. Estos gradientes de presión confirman que la mayor parte de la carga estática recae en los estratos inferiores, algo habitual en suelos colapsables. Para el ingeniero, esta información práctica implica que, al diseñar pilotes de refuerzo, debe dimensionarse la sección y longitud considerando un incremento significativo de esfuerzos por debajo de 10 m de profundidad.

Asimismo, las variaciones térmicas registradas mostraron que, durante días con escasa precipitación, las temperaturas del hormigón en pilotes oscilan en un rango de 2 °C a 3 °C en zonas intermedias. Este efecto térmico se traduce en un aumento temporal de la fricción entre el pilote y el suelo, lo que actúa como un freno temporal al movimiento. Sin embargo, tras eventos de lluvia intensa, la entrada de agua reduce la temperatura y, simultáneamente, se observa una disminución de la fricción lateral, provocando repentinamente un aumento de desplazamientos en la superficie. Para el diseño práctico, esto sugiere que los sistemas de alerta temprana deben incorporar sensores de temperatura en pilotes para correlacionar descensos térmicos con posibles incrementos de desplazamiento.

Los desplazamientos superficiales medidos mediante GNSS e InSAR confirman que los movimientos más significativos (hasta 26,2 mm) se producen después de periodos de lluvia intensa, cuando la capacidad de drenaje del loess se ve limitada y presta a la saturación parcial del estrato superior. En estos momentos, los desplazamientos profundos (hasta 5,64 mm) preceden a los superficiales, lo que indica que la evolución interna puede anticipar la inestabilidad. En la práctica, esto recomienda que el seguimiento continuo de movimientos profundos—detectables por un ligero desplazamiento en pilotes o por un ligero aumento de presión de poros—sea prioridad para emitir avisos antes de observar grandes desplazamientos en la superficie.

Desde el punto de vista de la simulación numérica, el modelo de elementos finitos calibrado con los parámetros geomecánicos del loess mostró que los desplazamientos máximos simulados en bloques con ángulos de inclinación superiores a 30° podrían alcanzar valores de hasta 6,48 m en escenarios extremos de carga gradual. En contraste, bloques con inclinación por debajo de 20° presentaron apenas 0,20 m de deformación promedio. Estos resultados empíricos permiten al ingeniero estimar rangos de deformación potenciales según la geometría del talud y decidir si es necesario instalar medidas de contención adicionales (muros de mampostería, gaviones o anclajes). Asimismo, la validación numérica asegura que, en proyectos futuros, el ingeniero pueda confiar en simulaciones previamente calibradas para evaluar la viabilidad de distintas intervenciones.

Futuras líneas de investigación

Con el objetivo de mejorar la práctica profesional, se proponen las siguientes líneas de estudio:

  1. Escenarios sísmicos y precipitaciones extremas: Ampliar la investigación hacia eventos sísmicos de magnitud superior a 5,0 Ritcher y lluvias prolongadas con más de 50 mm/día. Es preciso analizar la respuesta dinámica del suelo y del hormigón en pilotes, incorporando modelos viscoelásticos que reflejen el comportamiento frente a aceleraciones y ciclos de carga rápidos. Esto permitirá definir nuevos criterios de seguridad para zonas de riesgo sísmico y diseñar pilotes con mayor ductilidad o sistemas de disipación de energía.
  2. Control de humedad y nivel freático: Incluir sensores de humedad de alta frecuencia y piezómetros para registrar en tiempo real la evolución del nivel de agua en el subsuelo. Vincular estos datos con la variación de presión de poros y temperatura en pilotes facilitará una lectura más precisa de la dinámica agua-suelo, identificando umbrales de saturación que reduzcan drásticamente la cohesión del loess. Para la práctica, esto significa instar a la instalación de estaciones meteorológicas locales y piezómetros en proyectos en zonas colapsables.
  3. Algoritmos de aprendizaje automático: Desarrollar modelos que integren todos los datos multi-sensoriales (GNSS, InSAR, presión, temperatura, vibración y humedad) para detectar patrones tempranos de reactivación. Las redes neuronales profundas o las máquinas de soporte vectorial pueden clasificar con mayor antelación estados de riesgo, automatizando alertas y permitiendo intervenciones más eficientes. El ingeniero podría disponer de una herramienta que genere notificaciones automáticas al superar umbrales críticos combinados.
  4. Durabilidad de pilotes y fatiga térmica: Investigar la resistencia a largo plazo de los pilotes de hormigón sometidos a ciclos térmicos y mecánicos. Ensayos acelerados de fatiga térmica, por ejemplo, podrían simular 10 años de degradación en semanas de laboratorio, determinando la resistencia residual del hormigón y sus revestimientos. Estos estudios serían útiles para seleccionar aditivos o recubrimientos que impidan la aparición de fisuras por dilataciones y contracciones repetidas.
  5. Interacción entre tráfico e inestabilidades de talud: Analizar cómo las vibraciones generadas por tráfico rodado intenso afectan el desarrollo de grietas y concentraciones de tensión en suelos de loess. Mediante modelos acoplados vehículo-terreno, se podría determinar si reemplazar capas de refuerzo rígido por materiales con mayor capacidad disipadora de energía reduce los efectos adversos en taludes cercanos a carreteras. Esta línea resultará de utilidad para ingenieros de firmes y geotecnia que trabajen en infraestructuras viales cercanas a zonas inestables.

Conclusión

El estudio presenta una estrategia de seguimiento inteligente que combina mediciones de presión y temperatura en profundidad, datos GNSS e InSAR, y simulaciones numéricas termomecánicas para describir con detalle el comportamiento de deslizamientos en loess. Para el ingeniero civil, los hallazgos prácticos son:

  • La presión en pilotes crece significativamente con la profundidad, por lo que el dimensionado debe contemplar refuerzos más robustos bajo los 10 m.
  • Las variaciones térmicas en pilotes anticipan cambios de fricción lateral, recomendando el uso de sensores de temperatura para mejorar sistemas de alerta.
  • Los desplazamientos profundos preceden a los superficiales tras lluvias intensas, por lo que priorizar la monitorización interna puede prevenir movimientos de gran magnitud en superficie.
  • Los bloques con ángulos de inclinación superiores a 30° son más vulnerables y requieren medidas de contención adicionales, hecho que valida la simulación numérica como herramienta predictiva.

En definitiva, la combinación de datos de campo y modelización proporciona una base sólida para diseñar soluciones de refuerzo y sistemas de alerta temprana más ajustados a la realidad del terreno. Herramientas adicionales—como el seguimiento continuo de humedad, algoritmos de inteligencia artificial y estudios de fatiga térmica—podrían perfeccionar las estrategias de diseño y mantenimiento de infraestructuras en zonas de loess, favoreciendo la seguridad y la eficiencia de las intervenciones.

Referencia:

ZHOU, Z.; WANG, Y.J.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Intelligent monitoring of loess landslides and research on multi-factor coupling damage. Geomechanics for Energy and the Environment, DOI:10.1016/j.gete.2025.100692

Análisis de deformaciones en cimentaciones profundas en suelo blando

Acaban de publicar nuestro artículo en la revista del primer decil del JCR Journal of Building Enginering. El artículo aborda el desafío técnico y científico que supone analizar las características de deformación en excavaciones profundas en suelos blandos. Estas excavaciones, que están aumentando en escala y complejidad, plantean problemas de estabilidad debido a las propiedades inherentes de los suelos blandos, como su alta compresibilidad, alta sensibilidad, baja permeabilidad y baja resistencia. Además, la interacción entre el agua y el suelo durante la excavación puede causar consolidación por filtración, alteraciones en el campo de tensiones y riesgos significativos para las estructuras circundantes.

Actualmente, los métodos predominantes, como el análisis por elementos finitos y la monitorización experimental, presentan limitaciones a la hora de evaluar la precisión y los efectos espaciales en grandes escalas. Este estudio propone una mejora mediante la modelación tridimensional no lineal que incorpora un modelo de interfaz deslizante. El estudio analiza el proyecto XSS-03-10D, para lo que se utilizan mediciones in situ y simulaciones numéricas con las que estudiar la evolución temporal y espacial de la deformación de los sistemas de soporte y los asentamientos superficiales.

La pregunta principal que guía este trabajo es la siguiente: ¿cómo influye la interacción entre el sistema de soporte y el suelo circundante en la estabilidad y seguridad de las excavaciones profundas en suelos blandos y qué tan efectivas son las herramientas de modelación tridimensional para predecir estos comportamientos?

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València. Colaboramos con investigadores de la Hunan University of Science and Engineering, de China. A continuación, explicamos brevemente el contenido del artículo que podéis descargar gratuitamente.

Metodología

La metodología empleada en este estudio combina el control exhaustivo en campo con avanzadas simulaciones numéricas para evaluar las características de deformación de las excavaciones profundas. En primer lugar, se realizó un análisis detallado de las condiciones geotécnicas del terreno, incluyendo pruebas de laboratorio y muestreo de suelos en diferentes capas. Gracias a estas pruebas, se identificaron propiedades clave del suelo, como el contenido de humedad, la densidad, la cohesión y el ángulo de fricción interna, que son esenciales para los cálculos posteriores.

Posteriormente, se diseñó un modelo tridimensional no lineal en el programa informático ABAQUS que incorporó las propiedades específicas del suelo y un modelo de interfaz deslizante para simular las interacciones entre el sistema de soporte y el terreno. Este modelo se estructuró en dos capas principales de excavación: la primera, desde la superficie hasta los -7550 m, está compuesta principalmente por relleno y lodo; y la segunda, desde los -7550 m hasta los -10750 m, está formada principalmente por lodo blando.

El modelo numérico se calibró mediante la comparación con datos reales obtenidos de 197 puntos de control distribuidos en el yacimiento. Estos puntos incluían sensores para medir desplazamientos horizontales y verticales, la presión del suelo y las fuerzas axiales en los sistemas de soporte. Además, se integraron sistemas de alerta temprana que permitieron identificar zonas críticas en tiempo real y ajustar las estrategias de soporte en consecuencia.

El análisis se dividió en varias etapas:

  1. Modelación inicial: Se definieron los parámetros básicos del suelo y los límites del modelo. Se realizaron simulaciones preliminares para establecer un marco de referencia.
  2. Simulación del proceso de excavación: Se aplicaron cargas incrementales para replicar el proceso de excavación por capas, teniendo en cuenta los cambios en la presión del suelo y las interacciones dinámicas entre los sistemas de soporte y el terreno.
  3. Validación de resultados: Los resultados del modelo se compararon con los datos de supervisión in situ. Esto incluyó la evaluación de desplazamientos, deformaciones y fuerzas internas, y la realización de ajustes iterativos en el modelo para mejorar la precisión.
  4. Análisis de escenarios críticos: Se exploraron escenarios de fallo potenciales y se identificaron las zonas más vulnerables dentro del sistema de soporte y del terreno circundante.

Esta combinación de monitorización de campo y simulación numérica no solo permitió validar la precisión del modelo tridimensional, sino también obtener una visión integral de los patrones espaciotemporales de deformación.

Aportaciones relevantes

En primer lugar, este trabajo presenta un modelo tridimensional de elementos finitos que combina elasticidad y plasticidad no lineales y que está adaptado para capturar las características específicas de los suelos blandos. Este enfoque supera las limitaciones de los modelos constitutivos tradicionales al integrar datos de campo y parámetros geotécnicos.

En segundo lugar, el estudio identifica los factores clave que afectan a la estabilidad de las excavaciones profundas, como la presión lateral del suelo, los efectos de consolidación y la interacción entre el terreno y la estructura. La comparación entre los datos medidos y los simulados demostró una alta correlación, lo que confirma la precisión del modelo y su aplicabilidad práctica.

Además, el artículo destaca la importancia de realizar un seguimiento continuo y de integrar sistemas de alerta temprana para mitigar riesgos durante la construcción. Este enfoque tiene un impacto directo en la sostenibilidad de los proyectos de infraestructura, ya que reduce el riesgo de fallos estructurales y minimiza el impacto ambiental.

Otra contribución relevante es la identificación de patrones espaciotemporales en la deformación de los sistemas de soporte, lo que permite diseñar estrategias de mitigación más eficaces. Por último, el enfoque metodológico presentado puede adaptarse a otros tipos de proyectos de infraestructura, lo que amplía su aplicabilidad en el campo de la ingeniería civil.

Discusión de resultados

Los resultados del estudio muestran que la deformación de los sistemas de soporte y los asentamientos del suelo presentan patrones espaciotemporales complejos. Durante la excavación por capas, se observó que el sistema de soporte experimentaba un incremento progresivo de las fuerzas axiales, alcanzando valores cercanos a los límites de seguridad en zonas específicas. Estas áreas coinciden con zonas de transición entre diferentes propiedades del suelo y regiones con interacciones más intensas entre el agua y el suelo.

El análisis numérico reveló que el modelo tridimensional es más preciso a la hora de predecir deformaciones y fallos que los métodos tradicionales. Por ejemplo, las simulaciones anticiparon asentamientos y desplazamientos horizontales que coincidieron con los valores observados in situ, lo que proporciona una herramienta fiable para la toma de decisiones durante la construcción.

En cuanto a los desplazamientos horizontales, los datos de control mostraron que los puntos ubicados cerca de áreas de transición de suelos blandos presentaron los mayores valores de deformación. Esto subraya la importancia de diseñar sistemas de soporte que se puedan adaptar dinámicamente a las características específicas del terreno. Por otro lado, los asentamientos superficiales fueron más pronunciados en zonas adyacentes a cuerpos de agua, lo que sugiere que el nivel freático es crucial para la estabilidad de las excavaciones.

Desde el punto de vista del comportamiento estructural, las fuerzas axiales en los soportes interiores aumentaron de forma progresiva durante la excavación, alcanzando valores cercanos a los límites de diseño. Esto demuestra la necesidad de implementar estrategias de refuerzo adicionales en las fases críticas de la construcción. Los resultados también evidenciaron la presencia de efectos de acoplamiento entre el suelo y las estructuras circundantes, un aspecto que podría abordarse en futuros estudios para mejorar la precisión de los modelos predictivos.

Además, se observó que la interacción entre el sistema de soporte y el suelo puede verse significativamente influenciada por factores externos, como las condiciones climáticas y las variaciones en el nivel freático. Estas interacciones tienen implicaciones directas para la estabilidad del sistema, por lo que se deben utilizar estrategias de monitorización adaptativas. Finalmente, los patrones de deformación identificados durante el análisis ponen de manifiesto la importancia de realizar ajustes dinámicos en el diseño y el monitoreo según las condiciones cambiantes en tiempo real.

Futuras líneas de investigación

A partir de los resultados de este estudio, se identifican varias áreas prometedoras para la investigación futura. Una de ellas es mejorar los modelos constitutivos del suelo para tener en cuenta mejor los efectos de la interacción multidimensional entre agua, suelo y estructuras. Esto podría incluir la incorporación de modelos viscoelásticos para simular el comportamiento a largo plazo de los suelos blandos.

Otra línea de interés es el desarrollo de herramientas de simulación que integren datos en tiempo real procedentes de sensores distribuidos en el lugar de la obra. Esto permitiría realizar ajustes instantáneos en las estrategias de construcción, mejorando la seguridad y reduciendo los costes asociados a fallos inesperados.

Además, el estudio destaca la necesidad de investigar la influencia de eventos extremos, como terremotos o lluvias torrenciales, en la estabilidad de excavaciones profundas. Las simulaciones que integran estos escenarios podrían proporcionar datos valiosos para diseñar sistemas de soporte más resilientes.

Finalmente, la investigación sobre métodos sostenibles de construcción en suelos blandos podría beneficiarse de estudios centrados en el uso de materiales de refuerzo ecológicos y en la optimización de diseños que reduzcan la huella de carbono. Estas iniciativas contribuirían al avance de la ingeniería civil hacia un enfoque más respetuoso con el medio ambiente.

Conclusión

El trabajo ofrece un análisis exhaustivo y un marco metodológico innovador para abordar los desafíos de las excavaciones profundas en suelos blandos. Al combinar la supervisión in situ con simulaciones numéricas avanzadas, el estudio asienta las bases para mejorar las prácticas de diseño y construcción.

El uso de modelos tridimensionales no lineales ha demostrado ser una herramienta muy eficaz para predecir comportamientos complejos de deformación y diseñar estrategias de mitigación más efectivas. Esto tiene implicaciones significativas para proyectos de infraestructura en entornos similares, ya que ofrece una guía clara para mejorar la estabilidad y sostenibilidad de estas obras.

En la práctica, los hallazgos refuerzan la importancia del seguimiento continuo y la adaptación dinámica de las estrategias de soporte según las condiciones en tiempo real. Estas prácticas no solo aumentan la seguridad, sino que también reducen los costes y el impacto ambiental asociados a los fallos estructurales.

Finalmente, el estudio sentará las bases para futuras investigaciones que exploren enfoques aún más integrados, sostenibles y resilientes, y permitirá que la ingeniería civil continúe evolucionando frente a los desafíos que presentan los entornos geotécnicos complejos. Además, los resultados invitan a adoptar un enfoque interdisciplinario que combine herramientas tecnológicas avanzadas y principios de sostenibilidad para optimizar tanto los resultados estructurales como el impacto ambiental de las construcciones en suelos blandos.

Referencia:

LI, Y.J.; ZHOU, Z.; ALCALÁ, J.; YEPES, V. (2025). Research on spatial deformation monitoring and numerical coupling of deep foundation pit in soft soil. Journal of Building Engineering, 99:111636. DOI:10.1016/j.jobe.2024.111636

El artículo completo se puede descargar hasta el 14 de febrero de 2025 de forma gratuita en el siguiente enlace: https://authors.elsevier.com/c/1kKko8MyS9AR4g

Optimización de la vía en placa mediante metamodelos para mejorar la sostenibilidad de la construcción ferroviaria

Acaban de publicarnos un artículo en el Journal of Construction Engineering and Management-ASCE, revista indexada en el primer cuartil del JCR. Se trata de optimizar la vía en placa mediante metamodelos para mejorar la sostenibilidad de la construcción ferroviaria. El trabajo se enmarca dentro del proyecto de investigación HYDELIFE que dirijo como investigador principal en la Universitat Politècnica de València.

Este artículo no está publicado en abierto, pero podéis encontrarlo, solicitándolo, en esta dirección: https://www.researchgate.net/publication/360243758_Slab_Track_Optimization_Using_Metamodels_to_Improve_Rail_Construction_Sustainability o bien descargarlo directamente de la página web de ASCE: https://ascelibrary.org/doi/full/10.1061/%28ASCE%29CO.1943-7862.0002288

El ferrocarril es un medio de transporte eficaz, sin embargo, la construcción y el mantenimiento de las vías férreas tienen un impacto medioambiental importante en términos de emisiones de CO2 y uso de materias primas. Esto es especialmente cierto en el caso de la vía en placa, pues necesitan grandes cantidades de hormigón. También son más caras de construir que las vías convencionales con balasto, pero requieren menos mantenimiento y presentan otras ventajas que las convierten en una buena alternativa, especialmente para las líneas de alta velocidad. Para contribuir a un ferrocarril más sostenible, este trabajo pretende optimizar el diseño de una de las tipologías de vía en placa más comunes: RHEDA 2000. El objetivo principal es reducir la cantidad de hormigón necesaria para construir la losa sin comprometer su rendimiento y durabilidad. Para ello, se utilizó un modelo basado en el método de los elementos finitos (MEF) de la vía, emparejado con un metamodelo de kriging que permite analizar múltiples opciones de espesor de la losa y resistencia del hormigón de forma puntual. Mediante kriging, se obtuvieron soluciones óptimas que se validaron a través del modelo MEF para garantizar el cumplimiento de las restricciones mecánicas y geométricas predefinidas. Partiendo de una configuración inicial con una losa de 30 cm de hormigón con una resistencia característica de 40 MPa, se llegó a una solución optimizada, consistente en una losa de 24 cm de hormigón con una resistencia de 45 MPa, que arroja una reducción de costes del 17,5%. Este proceso puede aplicarse ahora a otras tipologías de losas para obtener diseños más sostenibles.

Abstract:

Railways are an efficient transport mode, but building and maintaining railway tracks have a significant environmental impact in terms of CO2 emissions and the use of raw materials. This is particularly true for slab tracks, which require large quantities of concrete. They are also more expensive to build than conventional ballasted tracks, but require less maintenance and have other advantages that make them a good alternative, especially for high-speed lines. To contribute to more sustainable railways, this paper aims to optimize the design of one of the most common slab track typologies: RHEDA 2000. The main objective is to reduce the amount of concrete required to build the slab without compromising its performance and durability. To do so, a model based on the finite-element method (FEM) of the track was used, paired with a kriging metamodel to allow analyzing multiple options of slab thickness and concrete strength in a timely manner. By means of kriging, optimal solutions were obtained and then validated through the FEM model to ensure that predefined mechanical and geometrical constraints were met. Starting from an initial setup with a 30-cm slab made of concrete with a characteristic strength of 40 MPa, an optimized solution was reached, consisting of a 24-cm slab made of concrete with a strength of 45 MPa, which yields a cost reduction of 17.5%. This process may be now applied to other slab typologies to obtain more sustainable designs.

Keywords:

Slab track; Optimization; Latin hypercube; Kriging; Finite-element method (FEM).

Reference:

MARTÍNEZ FERNÁNDEZ, P.; VILLALBA SANCHIS, I.; INSA FRANCO, R.; YEPES, V. (2022). Slab track optimisation using metamodels to improve rail construction sustainabilityJournal of Construction Engineering and Management, 148(7):04022053. DOI:10.1061/(ASCE)CO.1943-7862.0002288

El aprendizaje profundo (deep learning) en la optimización de estructuras

Figura 1. Relación de pertenencia entre la inteligencia artificial, el aprendizaje automático y el aprendizaje profundo

En este artículo vamos a esbozar las posibilidades de la inteligencia artificial en la optimización de estructuras, en particular, el uso del aprendizaje profundo. El aprendizaje profundo (deep learning, DL) constituye un subconjunto del aprendizaje automático (machine learning, ML), que a su vez lo es de la inteligencia artificial (ver Figura 1). Si la inteligencia artificial empezó sobre los años 50, el aprendizaje automático surgió sobre los 80, mientras que el aprendizaje profundo nació en este siglo XXI, a partir del 2010, con la aparición de grandes superordenadores y por el aumento de los datos accesibles. Como curiosidad, uno de los grandes hitos del DL se produjo en 2012, cuando Google fue capaz de reconocer un gato entre los más de 10 millones de vídeos de Youtube, utilizando para ello 16000 ordenadores. Ahora serían necesarios muchos menos medios.

En cualquiera de estos tres casos, estamos hablando de sistemas informáticos capaces de analizar grandes cantidades de datos (big data), identificar patrones y tendencias y, por tanto, predecir de forma automática, rápida y precisa. De la inteligencia artificial y su aplicabilidad a la ingeniería civil ya hablamos en un artículo anterior.

Figura 2. Cronología en la aparición de los distintos tipos de algoritmos de inteligencia artificial. https://www.privatewallmag.com/inteligencia-artificial-machine-deep-learning/

Si pensamos en el cálculo estructural, utilizamos modelos, más o menos sofistificados, que permiten, si se conocen con suficiente precisión las acciones, averiguar los esfuerzos a los que se encuentran sometidos cada uno de los elementos en los que hemos dividido una estructura. Con dichos esfuerzos se identifican una serie de estados límite, que son un conjunto de situaciones potencialmente peligrosas para la estructura y comparar si la capacidad estructural del elemento analizado, dependiente de las propiedades geométricas y de sus materiales constituyentes, supera el valor último de la solicitación a la que, bajo cierta probabilidad, puede llegar a alcanzar el elemento estructural analizado.

Estos métodos tradicionales emplean desde hipótesis de elasticidad y comportamiento lineal, a otros modelos con comportamiento plástico o no lineales más complejos. Suele utilizarse, con mayor o menos sofisticación, el método de los elementos finitos (MEF) y el método matricial de la rigidez. En definitiva, en determinados casos, suelen emplearse los ordenadores para resolver de forma aproximada, ecuaciones diferenciales parciales muy complejas, habituales en la ingeniería estructural, pero también en otros campos de la ingeniería y la física. Para que estos sistemas de cálculo resulten precisos, es necesario alimentar los modelos con datos sobre materiales, condiciones de contorno, acciones, etc., lo más reales posibles. Para eso se comprueban y calibran estos modelos en ensayos reales de laboratorio (Friswell y Mottershead, 1995). De alguna forma, estamos retroalimentando de información al modelo, y por tanto “aprende”.

Figura 2. Malla 2D de elementos finitos, más densa alrededor de la zona de mayor interés. Wikipedia.

Si analizamos bien lo que hacemos, estamos utilizando un modelo, más o menos complicado, para predecir cómo se va a comportar la estructura. Pues bien, si tuviésemos una cantidad suficiente de datos procedentes de laboratorio y de casos reales, un sistema inteligente extraería información y sería capaz de predecir el resultado final. Mientras que la inteligencia artificial debería alimentarse de una ingente cantidad de datos (big data), el método de los elementos finitos precisa menor cantidad de información bruta (smart data), pues ha habido una labor previa muy concienzuda y rigurosa, para intentar comprender el fenómeno subyacente y modelizarlo adecuadamente. Pero, en definitiva, son dos procedimientos diferentes que nos llevan a un mismo objetivo: diseñar estructuras seguras. Otro tema será si éstas estructuras son óptimas desde algún punto de vista (economía, sostenibilidad, etc.).

La optimización de las estructuras constituye un campo científico donde se ha trabajado intensamente en las últimas décadas. Debido a que los problemas reales requieren un número elevado de variables, la resolución exacta del problema de optimización asociado es inabordable. Se trata de problemas NP-hard, de elevada complejidad computacional, que requiere de metaheurísticas para llegar a soluciones satisfactorias en tiempos de cálculo razonables.

Una de las características de la optimización mediante metaheurísticas es el elevado número de iteraciones en el espacio de soluciones, lo cual permite generar una inmensa cantidad de datos para el conjunto de estructuras visitadas. Es el campo ideal para la inteligencia artificial, pues permite extraer información para acelerar y afinar la búsqueda de la solución óptima. Un ejemplo de este tipo es nuestro trabajo (García-Segura et al., 2017) de optimización multiobjetivo de puentes cajón, donde una red neuronal aprendía de los datos intermedios de la búsqueda y luego predecía con una extraordinaria exactitud el cálculo del puente, sin necesidad de calcularlo. Ello permitía reducir considerablemente el tiempo final de computación.

Sin embargo, este tipo de aplicación es muy sencilla, pues solo ha reducido el tiempo de cálculo (cada comprobación completa de un puente por el método de los elementos finitos es mucho más lenta que una predicción con una red neuronal). Se trata ahora de dar un paso más allá. Se trata de que la metaheurística sea capaz de aprender de los datos recogidos utilizando la inteligencia artificial para ser mucho más efectiva, y no solo más rápida.

Tanto la inteligencia artificial como el aprendizaje automático no son una ciencia nueva. El problema es que sus aplicaciones eran limitadas por la falta de datos y de tecnologías para procesarlas de forma rápida y eficiente. Hoy en día se ha dado un salto cualitativo y se puede utilizar el DL, que como ya hemos dicho es una parte del ML, pero que utiliza algoritmos más sofisticados, construidos a partir del principio de las redes neuronales. Digamos que el DL (redes neuronales) utiliza algoritmos distintos al ML (algoritmos de regresión, árboles de decisión, entre otros). En ambos casos, los algoritmos pueden aprender de forma supervisada o no supervisada. En las no supervisadas se facilitan los datos de entrada, no los de salida. La razón por la que se llama aprendizaje profundo hace referencia a las redes neuronales profundas, que utilizan un número elevado de capas en la red, digamos, por ejemplo, 1000 capas. De hecho, el DL también se le conoce a menudo como “redes neuronales profundas”. Esta técnica de redes artificiales de neuronas es una de las técnicas más comunes del DL.

Figura. Esquema explicativo de diferencia entre ML y DL. https://www.privatewallmag.com/inteligencia-artificial-machine-deep-learning/

Una de las redes neuronales utilizadas en DL son las redes neuronales convolucionales, que es una variación del perceptrón multicapa, pero donde su aplicación se realiza en matrices bidimensionales, y por tanto, son muy efectivas en las tareas de visión artificial, como en la clasificación y segmentación de imágenes. En ingeniería, por ejemplo, se puede utilizar para la monitorización de la condición estructural, por ejemplo, para el análisis del deterioro. Habría que imaginar hasta dónde se podría llegar grabando en imágenes digitales la rotura en laboratorio de estructuras de hormigón y ver la capacidad predictiva de este tipo de herramientas si contaran con suficiente cantidad de datos. Todo se andará. Aquí os dejo una aplicación tradicional típica (Antoni Cladera, de la Universitat de les Illes Balears), donde se explica el modelo de rotura de una viga a flexión en la pizarra y luego se rompe la viga en el laboratorio. ¡Cuántos datos estamos perdiendo en la grabación! Un ejemplo muy reciente del uso del DL y Digital Image Correlation (DIC) aplicado a roturas de probetas en laboratorio es el trabajo de Gulgec et al. (2020).

Sin embargo, aquí nos interesa detenernos en la exploración de la integración específica del DL en las metaheurísticas con el objeto de mejorar la calidad de las soluciones o los tiempos de convergencia cuando se trata de optimizar estructuras. Un ejemplo de este camino novedoso en la investigación es la aplicabilidad de algoritmos que hibriden DL y metaheurísticas. Ya hemos publicado algunos artículos en este sentido aplicados a la optimización de muros de contrafuertes (Yepes et al., 2020; García et al., 2020a, 2020b). Además, hemos propuesto como editor invitado, un número especial en la revista Mathematics (indexada en el primer decil del JCR) denominado “Deep learning and hybrid-metaheuristics: novel engineering applications“.

Dejo a continuación un pequeño vídeo explicativo de las diferencias entre la inteligencia artificial, machine learning y deep learning.

Referencias:

FRISWELL, M.; MOTTERSHEAD, J. E. (1995). Finite element model updating in structural dynamics (Vol. 38). Dordrecht, Netherlands: Springer Science & Business Media.

GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2020a). The buttressed  walls problem: An application of a hybrid clustering particle swarm optimization algorithm. Mathematics,  8(6):862. https://doi.org/10.3390/math8060862

GARCÍA, J.; YEPES, V.; MARTÍ, J.V. (2020b). A hybrid k-means cuckoo search algorithm applied to the counterfort retaining walls problem. Mathematics,  8(4), 555. DOI:10.3390/math8040555

GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M. (2017). Multi-Objective Design of Post-Tensioned Concrete Road Bridges Using Artificial Neural Networks. Structural and Multidisciplinary Optimization, 56(1):139-150. DOI:1007/s00158-017-1653-0

GULGEC, N.S.; TAKAC, M., PAKZAD S.N. (2020). Uncertainty quantification in digital image correlation for experimental evaluation of deep learning based damage diagnostic. Structure and Infrastructure Engineering, https://doi.org/10.1080/15732479.2020.1815224

YEPES, V.; MARTÍ, J.V.; GARCÍA, J. (2020). Black hole algorithm for sustainable design of counterfort retaining walls. Sustainability, 12(7), 2767. DOI:10.3390/su12072767

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Optimización heurística de ménsulas cortas mediante elementos finitos con fisuración distribuida

A continuación os dejo un artículo donde se aplica la optimización heurística mediante recocido simulado de ménsulas cortas de hormigón armado, usando para ello elementos finitos con fisuración distribuida.

También puedes encontrar el artículo en acceso abierto en: https://www.witpress.com/elibrary/wit-transactions-on-the-built-environment/125/23501

 

 

 

Referencia:

ROJAS, G.; ROJAS, P.; GONZÁLEZ-VIDOSA, F.; YEPES, V. (2012). Heuristic optimization of short corbels by smeared cracking finite element analysis. International Conference on Computer Aided Optimum Design in Engineering, 20-22 june. Computer Aided Optimum Design in Engineering XII. Vol. 125, pp. 71-82. Edited By: S. HERNANDEZ, University of A Coruña, Spain, C.A. BREBBIA, Wessex Institute of Technology, UK and W.P. DE WILDE, Vrije Universiteit Brussel, Belgium. DOI: 10.2495/OP120071  ISSN: 1743-3509 (on line).

 

 

Descargar (PDF, 486KB)