Análisis de deformaciones en cimentaciones profundas en suelo blando

Acaban de publicar nuestro artículo en la revista del primer decil del JCR Journal of Building Enginering. El artículo aborda el desafío técnico y científico que supone analizar las características de deformación en excavaciones profundas en suelos blandos. Estas excavaciones, que están aumentando en escala y complejidad, plantean problemas de estabilidad debido a las propiedades inherentes de los suelos blandos, como su alta compresibilidad, alta sensibilidad, baja permeabilidad y baja resistencia. Además, la interacción entre el agua y el suelo durante la excavación puede causar consolidación por filtración, alteraciones en el campo de tensiones y riesgos significativos para las estructuras circundantes.

Actualmente, los métodos predominantes, como el análisis por elementos finitos y la monitorización experimental, presentan limitaciones a la hora de evaluar la precisión y los efectos espaciales en grandes escalas. Este estudio propone una mejora mediante la modelación tridimensional no lineal que incorpora un modelo de interfaz deslizante. El estudio analiza el proyecto XSS-03-10D, para lo que se utilizan mediciones in situ y simulaciones numéricas con las que estudiar la evolución temporal y espacial de la deformación de los sistemas de soporte y los asentamientos superficiales.

La pregunta principal que guía este trabajo es la siguiente: ¿cómo influye la interacción entre el sistema de soporte y el suelo circundante en la estabilidad y seguridad de las excavaciones profundas en suelos blandos y qué tan efectivas son las herramientas de modelación tridimensional para predecir estos comportamientos?

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València. Colaboramos con investigadores de la Hunan University of Science and Engineering, de China. A continuación, explicamos brevemente el contenido del artículo que podéis descargar gratuitamente.

Metodología

La metodología empleada en este estudio combina el control exhaustivo en campo con avanzadas simulaciones numéricas para evaluar las características de deformación de las excavaciones profundas. En primer lugar, se realizó un análisis detallado de las condiciones geotécnicas del terreno, incluyendo pruebas de laboratorio y muestreo de suelos en diferentes capas. Gracias a estas pruebas, se identificaron propiedades clave del suelo, como el contenido de humedad, la densidad, la cohesión y el ángulo de fricción interna, que son esenciales para los cálculos posteriores.

Posteriormente, se diseñó un modelo tridimensional no lineal en el programa informático ABAQUS que incorporó las propiedades específicas del suelo y un modelo de interfaz deslizante para simular las interacciones entre el sistema de soporte y el terreno. Este modelo se estructuró en dos capas principales de excavación: la primera, desde la superficie hasta los -7550 m, está compuesta principalmente por relleno y lodo; y la segunda, desde los -7550 m hasta los -10750 m, está formada principalmente por lodo blando.

El modelo numérico se calibró mediante la comparación con datos reales obtenidos de 197 puntos de control distribuidos en el yacimiento. Estos puntos incluían sensores para medir desplazamientos horizontales y verticales, la presión del suelo y las fuerzas axiales en los sistemas de soporte. Además, se integraron sistemas de alerta temprana que permitieron identificar zonas críticas en tiempo real y ajustar las estrategias de soporte en consecuencia.

El análisis se dividió en varias etapas:

  1. Modelación inicial: Se definieron los parámetros básicos del suelo y los límites del modelo. Se realizaron simulaciones preliminares para establecer un marco de referencia.
  2. Simulación del proceso de excavación: Se aplicaron cargas incrementales para replicar el proceso de excavación por capas, teniendo en cuenta los cambios en la presión del suelo y las interacciones dinámicas entre los sistemas de soporte y el terreno.
  3. Validación de resultados: Los resultados del modelo se compararon con los datos de supervisión in situ. Esto incluyó la evaluación de desplazamientos, deformaciones y fuerzas internas, y la realización de ajustes iterativos en el modelo para mejorar la precisión.
  4. Análisis de escenarios críticos: Se exploraron escenarios de fallo potenciales y se identificaron las zonas más vulnerables dentro del sistema de soporte y del terreno circundante.

Esta combinación de monitorización de campo y simulación numérica no solo permitió validar la precisión del modelo tridimensional, sino también obtener una visión integral de los patrones espaciotemporales de deformación.

Aportaciones relevantes

En primer lugar, este trabajo presenta un modelo tridimensional de elementos finitos que combina elasticidad y plasticidad no lineales y que está adaptado para capturar las características específicas de los suelos blandos. Este enfoque supera las limitaciones de los modelos constitutivos tradicionales al integrar datos de campo y parámetros geotécnicos.

En segundo lugar, el estudio identifica los factores clave que afectan a la estabilidad de las excavaciones profundas, como la presión lateral del suelo, los efectos de consolidación y la interacción entre el terreno y la estructura. La comparación entre los datos medidos y los simulados demostró una alta correlación, lo que confirma la precisión del modelo y su aplicabilidad práctica.

Además, el artículo destaca la importancia de realizar un seguimiento continuo y de integrar sistemas de alerta temprana para mitigar riesgos durante la construcción. Este enfoque tiene un impacto directo en la sostenibilidad de los proyectos de infraestructura, ya que reduce el riesgo de fallos estructurales y minimiza el impacto ambiental.

Otra contribución relevante es la identificación de patrones espaciotemporales en la deformación de los sistemas de soporte, lo que permite diseñar estrategias de mitigación más eficaces. Por último, el enfoque metodológico presentado puede adaptarse a otros tipos de proyectos de infraestructura, lo que amplía su aplicabilidad en el campo de la ingeniería civil.

Discusión de resultados

Los resultados del estudio muestran que la deformación de los sistemas de soporte y los asentamientos del suelo presentan patrones espaciotemporales complejos. Durante la excavación por capas, se observó que el sistema de soporte experimentaba un incremento progresivo de las fuerzas axiales, alcanzando valores cercanos a los límites de seguridad en zonas específicas. Estas áreas coinciden con zonas de transición entre diferentes propiedades del suelo y regiones con interacciones más intensas entre el agua y el suelo.

El análisis numérico reveló que el modelo tridimensional es más preciso a la hora de predecir deformaciones y fallos que los métodos tradicionales. Por ejemplo, las simulaciones anticiparon asentamientos y desplazamientos horizontales que coincidieron con los valores observados in situ, lo que proporciona una herramienta fiable para la toma de decisiones durante la construcción.

En cuanto a los desplazamientos horizontales, los datos de control mostraron que los puntos ubicados cerca de áreas de transición de suelos blandos presentaron los mayores valores de deformación. Esto subraya la importancia de diseñar sistemas de soporte que se puedan adaptar dinámicamente a las características específicas del terreno. Por otro lado, los asentamientos superficiales fueron más pronunciados en zonas adyacentes a cuerpos de agua, lo que sugiere que el nivel freático es crucial para la estabilidad de las excavaciones.

Desde el punto de vista del comportamiento estructural, las fuerzas axiales en los soportes interiores aumentaron de forma progresiva durante la excavación, alcanzando valores cercanos a los límites de diseño. Esto demuestra la necesidad de implementar estrategias de refuerzo adicionales en las fases críticas de la construcción. Los resultados también evidenciaron la presencia de efectos de acoplamiento entre el suelo y las estructuras circundantes, un aspecto que podría abordarse en futuros estudios para mejorar la precisión de los modelos predictivos.

Además, se observó que la interacción entre el sistema de soporte y el suelo puede verse significativamente influenciada por factores externos, como las condiciones climáticas y las variaciones en el nivel freático. Estas interacciones tienen implicaciones directas para la estabilidad del sistema, por lo que se deben utilizar estrategias de monitorización adaptativas. Finalmente, los patrones de deformación identificados durante el análisis ponen de manifiesto la importancia de realizar ajustes dinámicos en el diseño y el monitoreo según las condiciones cambiantes en tiempo real.

Futuras líneas de investigación

A partir de los resultados de este estudio, se identifican varias áreas prometedoras para la investigación futura. Una de ellas es mejorar los modelos constitutivos del suelo para tener en cuenta mejor los efectos de la interacción multidimensional entre agua, suelo y estructuras. Esto podría incluir la incorporación de modelos viscoelásticos para simular el comportamiento a largo plazo de los suelos blandos.

Otra línea de interés es el desarrollo de herramientas de simulación que integren datos en tiempo real procedentes de sensores distribuidos en el lugar de la obra. Esto permitiría realizar ajustes instantáneos en las estrategias de construcción, mejorando la seguridad y reduciendo los costes asociados a fallos inesperados.

Además, el estudio destaca la necesidad de investigar la influencia de eventos extremos, como terremotos o lluvias torrenciales, en la estabilidad de excavaciones profundas. Las simulaciones que integran estos escenarios podrían proporcionar datos valiosos para diseñar sistemas de soporte más resilientes.

Finalmente, la investigación sobre métodos sostenibles de construcción en suelos blandos podría beneficiarse de estudios centrados en el uso de materiales de refuerzo ecológicos y en la optimización de diseños que reduzcan la huella de carbono. Estas iniciativas contribuirían al avance de la ingeniería civil hacia un enfoque más respetuoso con el medio ambiente.

Conclusión

El trabajo ofrece un análisis exhaustivo y un marco metodológico innovador para abordar los desafíos de las excavaciones profundas en suelos blandos. Al combinar la supervisión in situ con simulaciones numéricas avanzadas, el estudio asienta las bases para mejorar las prácticas de diseño y construcción.

El uso de modelos tridimensionales no lineales ha demostrado ser una herramienta muy eficaz para predecir comportamientos complejos de deformación y diseñar estrategias de mitigación más efectivas. Esto tiene implicaciones significativas para proyectos de infraestructura en entornos similares, ya que ofrece una guía clara para mejorar la estabilidad y sostenibilidad de estas obras.

En la práctica, los hallazgos refuerzan la importancia del seguimiento continuo y la adaptación dinámica de las estrategias de soporte según las condiciones en tiempo real. Estas prácticas no solo aumentan la seguridad, sino que también reducen los costes y el impacto ambiental asociados a los fallos estructurales.

Finalmente, el estudio sentará las bases para futuras investigaciones que exploren enfoques aún más integrados, sostenibles y resilientes, y permitirá que la ingeniería civil continúe evolucionando frente a los desafíos que presentan los entornos geotécnicos complejos. Además, los resultados invitan a adoptar un enfoque interdisciplinario que combine herramientas tecnológicas avanzadas y principios de sostenibilidad para optimizar tanto los resultados estructurales como el impacto ambiental de las construcciones en suelos blandos.

Referencia:

LI, Y.J.; ZHOU, Z.; ALCALÁ, J.; YEPES, V. (2025). Research on spatial deformation monitoring and numerical coupling of deep foundation pit in soft soil. Journal of Building Engineering, 99:111636. DOI:10.1016/j.jobe.2024.111636

El artículo completo se puede descargar hasta el 14 de febrero de 2025 de forma gratuita en el siguiente enlace: https://authors.elsevier.com/c/1kKko8MyS9AR4g

Optimización de la vía en placa mediante metamodelos para mejorar la sostenibilidad de la construcción ferroviaria

Acaban de publicarnos un artículo en el Journal of Construction Engineering and Management-ASCE, revista indexada en el primer cuartil del JCR. Se trata de optimizar la vía en placa mediante metamodelos para mejorar la sostenibilidad de la construcción ferroviaria. El trabajo se enmarca dentro del proyecto de investigación HYDELIFE que dirijo como investigador principal en la Universitat Politècnica de València.

Este artículo no está publicado en abierto, pero podéis encontrarlo, solicitándolo, en esta dirección: https://www.researchgate.net/publication/360243758_Slab_Track_Optimization_Using_Metamodels_to_Improve_Rail_Construction_Sustainability o bien descargarlo directamente de la página web de ASCE: https://ascelibrary.org/doi/full/10.1061/%28ASCE%29CO.1943-7862.0002288

El ferrocarril es un medio de transporte eficaz, sin embargo, la construcción y el mantenimiento de las vías férreas tienen un impacto medioambiental importante en términos de emisiones de CO2 y uso de materias primas. Esto es especialmente cierto en el caso de la vía en placa, pues necesitan grandes cantidades de hormigón. También son más caras de construir que las vías convencionales con balasto, pero requieren menos mantenimiento y presentan otras ventajas que las convierten en una buena alternativa, especialmente para las líneas de alta velocidad. Para contribuir a un ferrocarril más sostenible, este trabajo pretende optimizar el diseño de una de las tipologías de vía en placa más comunes: RHEDA 2000. El objetivo principal es reducir la cantidad de hormigón necesaria para construir la losa sin comprometer su rendimiento y durabilidad. Para ello, se utilizó un modelo basado en el método de los elementos finitos (MEF) de la vía, emparejado con un metamodelo de kriging que permite analizar múltiples opciones de espesor de la losa y resistencia del hormigón de forma puntual. Mediante kriging, se obtuvieron soluciones óptimas que se validaron a través del modelo MEF para garantizar el cumplimiento de las restricciones mecánicas y geométricas predefinidas. Partiendo de una configuración inicial con una losa de 30 cm de hormigón con una resistencia característica de 40 MPa, se llegó a una solución optimizada, consistente en una losa de 24 cm de hormigón con una resistencia de 45 MPa, que arroja una reducción de costes del 17,5%. Este proceso puede aplicarse ahora a otras tipologías de losas para obtener diseños más sostenibles.

Abstract:

Railways are an efficient transport mode, but building and maintaining railway tracks have a significant environmental impact in terms of CO2 emissions and the use of raw materials. This is particularly true for slab tracks, which require large quantities of concrete. They are also more expensive to build than conventional ballasted tracks, but require less maintenance and have other advantages that make them a good alternative, especially for high-speed lines. To contribute to more sustainable railways, this paper aims to optimize the design of one of the most common slab track typologies: RHEDA 2000. The main objective is to reduce the amount of concrete required to build the slab without compromising its performance and durability. To do so, a model based on the finite-element method (FEM) of the track was used, paired with a kriging metamodel to allow analyzing multiple options of slab thickness and concrete strength in a timely manner. By means of kriging, optimal solutions were obtained and then validated through the FEM model to ensure that predefined mechanical and geometrical constraints were met. Starting from an initial setup with a 30-cm slab made of concrete with a characteristic strength of 40 MPa, an optimized solution was reached, consisting of a 24-cm slab made of concrete with a strength of 45 MPa, which yields a cost reduction of 17.5%. This process may be now applied to other slab typologies to obtain more sustainable designs.

Keywords:

Slab track; Optimization; Latin hypercube; Kriging; Finite-element method (FEM).

Reference:

MARTÍNEZ FERNÁNDEZ, P.; VILLALBA SANCHIS, I.; INSA FRANCO, R.; YEPES, V. (2022). Slab track optimisation using metamodels to improve rail construction sustainabilityJournal of Construction Engineering and Management, 148(7):04022053. DOI:10.1061/(ASCE)CO.1943-7862.0002288

El aprendizaje profundo (deep learning) en la optimización de estructuras

Figura 1. Relación de pertenencia entre la inteligencia artificial, el aprendizaje automático y el aprendizaje profundo

En este artículo vamos a esbozar las posibilidades de la inteligencia artificial en la optimización de estructuras, en particular, el uso del aprendizaje profundo. El aprendizaje profundo (deep learning, DL) constituye un subconjunto del aprendizaje automático (machine learning, ML), que a su vez lo es de la inteligencia artificial (ver Figura 1). Si la inteligencia artificial empezó sobre los años 50, el aprendizaje automático surgió sobre los 80, mientras que el aprendizaje profundo nació en este siglo XXI, a partir del 2010, con la aparición de grandes superordenadores y por el aumento de los datos accesibles. Como curiosidad, uno de los grandes hitos del DL se produjo en 2012, cuando Google fue capaz de reconocer un gato entre los más de 10 millones de vídeos de Youtube, utilizando para ello 16000 ordenadores. Ahora serían necesarios muchos menos medios.

En cualquiera de estos tres casos, estamos hablando de sistemas informáticos capaces de analizar grandes cantidades de datos (big data), identificar patrones y tendencias y, por tanto, predecir de forma automática, rápida y precisa. De la inteligencia artificial y su aplicabilidad a la ingeniería civil ya hablamos en un artículo anterior.

Figura 2. Cronología en la aparición de los distintos tipos de algoritmos de inteligencia artificial. https://www.privatewallmag.com/inteligencia-artificial-machine-deep-learning/

Si pensamos en el cálculo estructural, utilizamos modelos, más o menos sofistificados, que permiten, si se conocen con suficiente precisión las acciones, averiguar los esfuerzos a los que se encuentran sometidos cada uno de los elementos en los que hemos dividido una estructura. Con dichos esfuerzos se identifican una serie de estados límite, que son un conjunto de situaciones potencialmente peligrosas para la estructura y comparar si la capacidad estructural del elemento analizado, dependiente de las propiedades geométricas y de sus materiales constituyentes, supera el valor último de la solicitación a la que, bajo cierta probabilidad, puede llegar a alcanzar el elemento estructural analizado.

Estos métodos tradicionales emplean desde hipótesis de elasticidad y comportamiento lineal, a otros modelos con comportamiento plástico o no lineales más complejos. Suele utilizarse, con mayor o menos sofisticación, el método de los elementos finitos (MEF) y el método matricial de la rigidez. En definitiva, en determinados casos, suelen emplearse los ordenadores para resolver de forma aproximada, ecuaciones diferenciales parciales muy complejas, habituales en la ingeniería estructural, pero también en otros campos de la ingeniería y la física. Para que estos sistemas de cálculo resulten precisos, es necesario alimentar los modelos con datos sobre materiales, condiciones de contorno, acciones, etc., lo más reales posibles. Para eso se comprueban y calibran estos modelos en ensayos reales de laboratorio (Friswell y Mottershead, 1995). De alguna forma, estamos retroalimentando de información al modelo, y por tanto “aprende”.

Figura 2. Malla 2D de elementos finitos, más densa alrededor de la zona de mayor interés. Wikipedia.

Si analizamos bien lo que hacemos, estamos utilizando un modelo, más o menos complicado, para predecir cómo se va a comportar la estructura. Pues bien, si tuviésemos una cantidad suficiente de datos procedentes de laboratorio y de casos reales, un sistema inteligente extraería información y sería capaz de predecir el resultado final. Mientras que la inteligencia artificial debería alimentarse de una ingente cantidad de datos (big data), el método de los elementos finitos precisa menor cantidad de información bruta (smart data), pues ha habido una labor previa muy concienzuda y rigurosa, para intentar comprender el fenómeno subyacente y modelizarlo adecuadamente. Pero, en definitiva, son dos procedimientos diferentes que nos llevan a un mismo objetivo: diseñar estructuras seguras. Otro tema será si éstas estructuras son óptimas desde algún punto de vista (economía, sostenibilidad, etc.).

La optimización de las estructuras constituye un campo científico donde se ha trabajado intensamente en las últimas décadas. Debido a que los problemas reales requieren un número elevado de variables, la resolución exacta del problema de optimización asociado es inabordable. Se trata de problemas NP-hard, de elevada complejidad computacional, que requiere de metaheurísticas para llegar a soluciones satisfactorias en tiempos de cálculo razonables.

Una de las características de la optimización mediante metaheurísticas es el elevado número de iteraciones en el espacio de soluciones, lo cual permite generar una inmensa cantidad de datos para el conjunto de estructuras visitadas. Es el campo ideal para la inteligencia artificial, pues permite extraer información para acelerar y afinar la búsqueda de la solución óptima. Un ejemplo de este tipo es nuestro trabajo (García-Segura et al., 2017) de optimización multiobjetivo de puentes cajón, donde una red neuronal aprendía de los datos intermedios de la búsqueda y luego predecía con una extraordinaria exactitud el cálculo del puente, sin necesidad de calcularlo. Ello permitía reducir considerablemente el tiempo final de computación.

Sin embargo, este tipo de aplicación es muy sencilla, pues solo ha reducido el tiempo de cálculo (cada comprobación completa de un puente por el método de los elementos finitos es mucho más lenta que una predicción con una red neuronal). Se trata ahora de dar un paso más allá. Se trata de que la metaheurística sea capaz de aprender de los datos recogidos utilizando la inteligencia artificial para ser mucho más efectiva, y no solo más rápida.

Tanto la inteligencia artificial como el aprendizaje automático no son una ciencia nueva. El problema es que sus aplicaciones eran limitadas por la falta de datos y de tecnologías para procesarlas de forma rápida y eficiente. Hoy en día se ha dado un salto cualitativo y se puede utilizar el DL, que como ya hemos dicho es una parte del ML, pero que utiliza algoritmos más sofisticados, construidos a partir del principio de las redes neuronales. Digamos que el DL (redes neuronales) utiliza algoritmos distintos al ML (algoritmos de regresión, árboles de decisión, entre otros). En ambos casos, los algoritmos pueden aprender de forma supervisada o no supervisada. En las no supervisadas se facilitan los datos de entrada, no los de salida. La razón por la que se llama aprendizaje profundo hace referencia a las redes neuronales profundas, que utilizan un número elevado de capas en la red, digamos, por ejemplo, 1000 capas. De hecho, el DL también se le conoce a menudo como “redes neuronales profundas”. Esta técnica de redes artificiales de neuronas es una de las técnicas más comunes del DL.

Figura. Esquema explicativo de diferencia entre ML y DL. https://www.privatewallmag.com/inteligencia-artificial-machine-deep-learning/

Una de las redes neuronales utilizadas en DL son las redes neuronales convolucionales, que es una variación del perceptrón multicapa, pero donde su aplicación se realiza en matrices bidimensionales, y por tanto, son muy efectivas en las tareas de visión artificial, como en la clasificación y segmentación de imágenes. En ingeniería, por ejemplo, se puede utilizar para la monitorización de la condición estructural, por ejemplo, para el análisis del deterioro. Habría que imaginar hasta dónde se podría llegar grabando en imágenes digitales la rotura en laboratorio de estructuras de hormigón y ver la capacidad predictiva de este tipo de herramientas si contaran con suficiente cantidad de datos. Todo se andará. Aquí os dejo una aplicación tradicional típica (Antoni Cladera, de la Universitat de les Illes Balears), donde se explica el modelo de rotura de una viga a flexión en la pizarra y luego se rompe la viga en el laboratorio. ¡Cuántos datos estamos perdiendo en la grabación! Un ejemplo muy reciente del uso del DL y Digital Image Correlation (DIC) aplicado a roturas de probetas en laboratorio es el trabajo de Gulgec et al. (2020).

Sin embargo, aquí nos interesa detenernos en la exploración de la integración específica del DL en las metaheurísticas con el objeto de mejorar la calidad de las soluciones o los tiempos de convergencia cuando se trata de optimizar estructuras. Un ejemplo de este camino novedoso en la investigación es la aplicabilidad de algoritmos que hibriden DL y metaheurísticas. Ya hemos publicado algunos artículos en este sentido aplicados a la optimización de muros de contrafuertes (Yepes et al., 2020; García et al., 2020a, 2020b). Además, hemos propuesto como editor invitado, un número especial en la revista Mathematics (indexada en el primer decil del JCR) denominado “Deep learning and hybrid-metaheuristics: novel engineering applications“.

Dejo a continuación un pequeño vídeo explicativo de las diferencias entre la inteligencia artificial, machine learning y deep learning.

Referencias:

FRISWELL, M.; MOTTERSHEAD, J. E. (1995). Finite element model updating in structural dynamics (Vol. 38). Dordrecht, Netherlands: Springer Science & Business Media.

GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2020a). The buttressed  walls problem: An application of a hybrid clustering particle swarm optimization algorithm. Mathematics,  8(6):862. https://doi.org/10.3390/math8060862

GARCÍA, J.; YEPES, V.; MARTÍ, J.V. (2020b). A hybrid k-means cuckoo search algorithm applied to the counterfort retaining walls problem. Mathematics,  8(4), 555. DOI:10.3390/math8040555

GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M. (2017). Multi-Objective Design of Post-Tensioned Concrete Road Bridges Using Artificial Neural Networks. Structural and Multidisciplinary Optimization, 56(1):139-150. DOI:1007/s00158-017-1653-0

GULGEC, N.S.; TAKAC, M., PAKZAD S.N. (2020). Uncertainty quantification in digital image correlation for experimental evaluation of deep learning based damage diagnostic. Structure and Infrastructure Engineering, https://doi.org/10.1080/15732479.2020.1815224

YEPES, V.; MARTÍ, J.V.; GARCÍA, J. (2020). Black hole algorithm for sustainable design of counterfort retaining walls. Sustainability, 12(7), 2767. DOI:10.3390/su12072767

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Optimización heurística de ménsulas cortas mediante elementos finitos con fisuración distribuida

A continuación os dejo un artículo donde se aplica la optimización heurística mediante recocido simulado de ménsulas cortas de hormigón armado, usando para ello elementos finitos con fisuración distribuida.

También puedes encontrar el artículo en acceso abierto en: https://www.witpress.com/elibrary/wit-transactions-on-the-built-environment/125/23501

 

 

 

Referencia:

ROJAS, G.; ROJAS, P.; GONZÁLEZ-VIDOSA, F.; YEPES, V. (2012). Heuristic optimization of short corbels by smeared cracking finite element analysis. International Conference on Computer Aided Optimum Design in Engineering, 20-22 june. Computer Aided Optimum Design in Engineering XII. Vol. 125, pp. 71-82. Edited By: S. HERNANDEZ, University of A Coruña, Spain, C.A. BREBBIA, Wessex Institute of Technology, UK and W.P. DE WILDE, Vrije Universiteit Brussel, Belgium. DOI: 10.2495/OP120071  ISSN: 1743-3509 (on line).

 

 

Descargar (PDF, 486KB)