Metacrilatos en la reparación del hormigón

Reparación de grietas con mortero de metacrilato. https://niberma.es/arreglar-grietas-suelos-industriales/

El metacrilato es un material plástico acrílico formado por polímeros del metacrilato de metilo, éster del ácido metacrilato. Su nombre técnico es polimetilmetacrilato, conocido por sus siglas PMMA. Los polimetacrilatos de metilo y copolímeros asociados son el producto de mezclas de monómeros y oligomeros acrílicos o metacrílicos que endurecen por polimerización iniciada por catalizadores orgánicos (peróxidos). Sin embargo sus formulaciones, aplicaciones y propiedades pueden ser muy diferentes de unos a otros.

Como material empleado en la reparación del hormigón, se puede presentar en lechadas o en morteros. Las lechadas se emplean en aplicaciones de pequeño espesor, de hasta 9,5 mm. Los morteros se utilizan para espesores mayores, de hasta 25 mm.

Este tipo de resinas son muy reactivas y permiten su uso a bajas temperaturas (-20ºC), con una rápida puesta en servicio, que puede ser de algunas horas cuando la temperatura es inferior a 20ºC. Precisamente su reducida viscosidad permite una elaboración acelerada. Son muy sensibles a la saponificación provocada por la reacción alcalina del hormigón en presencia de agua. Tienen un olor fuerte que dura en el tiempo.

Uno de los inconvenientes de este material es que se pueden quemar, debido a su base orgánica. Con todo, se puede mejorar la resistencia al fuego añadiendo cargas y retardadores. Pero como ventajas se encuentran su resistencia al agua, anticongelantes químicos, ácidos diluidos y alcalinos. No obstante, su resistencia a los disolventes es limitada. Por otra parte, son muy resistentes a la radiación ultravioleta y a las acciones de la intemperie.

El uso del mortero de metacrilato es muy útil en reparaciones urgentes, pues en 1 hora puede reparar pavimentos de hormigón, caminos y calzadas, muelles de carga y superficies sometidas a gran desgaste en almacenes, naves industriales o talleres. También son útiles en reparaciones urgentes en autovías, pistas de aeropuertos y otros lugares donde exista una baja temperatura. Útil en la reparación de juntas y parcheo, así como en el recrecido o nivelación de superficies. También presenta su utilidad en anclajes urgentes y fijaciones de elementos metálicos y pernos, incluso a bajas temperaturas.

Es característico el uso de la resina de metacrilato como protección a los pavimentos, pues su composición está libre de disolventes y presenta una elevada resistencia a la presión. Por otra parte, también se emplea como capa resistente al desgaste, con una reducida contracción cuando se usa como mortero. En el vídeo que presentamos a continuación vemos la utilidad del metacrilato para proteger y embellecer el hormigón impreso.

Referencias:

Fernández Cánovas; M. (1994). Patología y terapéutica del hormigón armado. 3ª edición, Servicio de Publicaciones del Colegio de Ingenieros de Caminos, Canales y Puertos, Madrid.

Pelufo, M.J. (2003). Caracterización del comportamiento mecánico y frente a la corrosión de morteros de reparación del hormigón estructural. Tesis doctoral. Departamento de Ingeniería de la Construcción y Proyectos de Ingeniería Civil, Universidad Politécnica de Valencia.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Las resinas epoxi en la reparación del hormigón estructural

Solución de anclajes con resina epoxi. https://teoriadeconstruccion.net/blog/resinas-epoxy-solucion-de-anclajes/

Las resinas epoxi constituyen uno de los materiales de base orgánica más utilizados en la construcción. Se han empleado en pavimentos industriales desde los años 60, sobre todo en Europa. Con este nombre se hace referencia tanto a los componentes como al producto final, ya curado. Se trata de un fuerte adhesivo termoplástico resultante de la mezcla de un polímero termoestable y un agente catalizador. Pero también puede llevar otros componentes que modifiquen su comportamiento antes o después del endurecimiento como diluyentes, agentes de curado y otros aditivos. Sin embargo, la composición más simple es la resina epoxi y un endurecedor. El curado de las resinas epoxi tiene lugar a temperatura ambiente, durante el cual se forman enlaces cruzados lo que da como resultado que su peso molecular sea elevado.

Las resinas epoxi pueden usarse puras o en forma de morteros y hormigones si presentan árido fino o fino y grueso. Normalmente se utilizan en trabajos de reparación, refuerzo, sellado de juntas y protección de estructuras de hormigón que se vean atacadas por agentes químicos, físicos o biológicos. La resistencia de la resina epoxi puede ser tan alta como la del hormigón, o incluso duplicarla, con la ventaja de que no presenta fisuras y es impermeable. No obstante, la resistencia aumenta si se añaden compuestos químicos específicos.

En el ámbito de la reparación estructural, las principales aplicaciones de las resinas epoxi serían las siguientes (Pelufo, 2003): reparación de grietas en el hormigón por inyección; unión de hormigón nuevo con el existente para reparar estructuras dañadas; unión de bandas metálicas de acero en refuerzos en hormigón estructural; mortero para relleno de grietas y coqueras, parcheos; hormigón para rellenos de grandes oquedades. Sin embargo, también se pueden utilizar como protección de revestimientos de superficies

En cuanto a sus propiedades, las que destacan por su aplicabilidad a la construcción son las siguientes: retracción despreciable; adherencia a piedra, fábrica de ladrillo, hormigón y acero; resistencia a tracción de hasta 90 MPa, y a compresión entre 120 y 210 MPa; resistencia a productos químicos (excepto al ácido nítrico); comportamiento regular frente a algunos disolventes orgánicos; buen comportamiento frente a cloruros. Como problema podemos destacar su alta sensibilidad a temperaturas superiores a 80ºC, y por tanto, nula resistencia al fuego.

En el caso del uso de las resinas epoxi como material de reparación en hormigón, no hay que olvidar que su coeficiente de dilatación térmica (de 2 a 6 x 10-6 m/mºC), que puede ser muy diferente al del hormigón. Además, si la temperatura varía mucho, se puede producir un fallo de la reparación en la superficie de adherencia del hormigón base.

Tampoco se recomienda la reparación de un hormigón dañado por la corrosión de sus armaduras con un mortero u hormigón de epoxi, pues se pueden crear diferentes zonas de potencial eléctrico, formar pilas galvánicas y acelerar la corrosión en los perímetros de la reparación.

Os dejo algunos vídeos sobre la utilización de la resina epoxi en la construcción.

Os dejo a continuación, por su interés, un artículo de Fernández Cánovas donde se realiza una breve exposición de lo que son estas resinas, nada menos que del año 1964.

Descargar (PDF, 5.31MB)

Referencias:

Fernández Cánovas, M. (1964). Las resinas epoxi en la construcción. Informes De La Construcción16(159), 101–104. https://doi.org/10.3989/ic.1964.v16.i159.4570

Fernández Cánovas; M. (1994). Patología y terapéutica del hormigón armado. 3ª edición, Servicio de Publicaciones del Colegio de Ingenieros de Caminos, Canales y Puertos, Madrid.

Pelufo, M.J. (2003). Caracterización del comportamiento mecánico y frente a la corrosión de morteros de reparación del hormigón estructural. Tesis doctoral. Departamento de Ingeniería de la Construcción y Proyectos de Ingeniería Civil, Universidad Politécnica de Valencia.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Presentación de la tercera edición del libro: Análise estrutural para Engenharia Civil e Arquitetura. Estruturas isostáticas

Es un placer y todo un honor recibir la invitación del Prof. Moacir Kripka para presentar la tercera edición de su libro “Análise estrutural para Engenharia Civil e Arquitetura. Estruturas isostáticas“. Se trata de una edición, recién publicada este año 2021 (ISBN: 978-65-86235-11-1).

El profesor Kripka, es catedrático de estructuras en la Universidade de Passo Fundo, en Brasil, donde ejerce de profesor desde el año 1991. Ha sido director del Departamento de Ingeniería Civil y del Grado en Ingeniería, siendo actualmente editor de la revista Journal of Applied and Technological Sciences – CIATEC/UPF. Su área de investigación se centra fundamentalmente en la optimización de estructuras, por lo que ha sido de gran productividad para nosotros compartir experiencias durante su estancia de investigación (septiembre a diciembre de 2018). Fruto de esta colaboración, a parte de los relacionados con la investigación, se extienden al futuro intercambio de estudiantes y profesorado entre nuestras respectivas universidades y en la participación conjunta en proyectos de investigación y de transferencia tecnológica.

Las estructuras isostáticas son el sustento de la ingeniería como el suelo es el sustento de la vida o el lenguaje lo es para la comunicación. Una lectura atenta de este libro permite comprender el comportamiento de las estructuras isostáticas y su diseño. El libro abarca los conceptos fundamentales necesarios para el funcionamiento de las estructuras y los modelos estructurales, las reacciones de apoyo, las acciones en las estructuras y los esfuerzos solicitados. Didáctico, con explicaciones paso a paso para el análisis de vigas, pórticos, cerchas y rejillas, facilitará la apropiación de los conocimientos por parte de los estudiantes. Esta tercera edición incluye un nuevo capítulo sobre el cálculo de los desplazamientos en las estructuras. La teoría y los cálculos se acompañan de ejemplos e ilustraciones de obras civiles y, al final de cada capítulo, los ejercicios ayudan a comprender y fijar los conceptos involucrados, así como su aplicación en cualquier situación que se presente. Este libro está dirigido a los estudiantes de Ingeniería Civil y Arquitectura y sirve de guía para los profesores que imparten la asignatura.

Os dejo a continuación mi presentación a la tercera edición del libro en español (el original está en portugués). Espero que os sea de interés.

La ingeniería es algo vivo que se aplica y se transmite a las futuras generaciones. Nunca se empieza desde cero y, como le dijo Isaac Newton en una carta a Robert Hook “si he visto más lejos es porque estoy sentado sobre los hombros de gigantes”. Por tanto, la labor docente en ingeniería sustenta el avance técnico. Sin embargo, este progreso no es gratuito; necesita un esfuerzo ingente para resolver los problemas cada día más complejos a los que se enfrentan los ingenieros y requiere de una fuerte dedicación. Por ello, la docencia en ingeniería es algo vivo, debe nutrirse de la actividad profesional y de la investigación.

Una de las grandes satisfacciones que permite el mundo académico es encontrar almas gemelas cuyas preocupaciones técnicas y científicas son similares a las tuyas. Es el caso del profesor Moacir Kripka. Tuvimos la ocasión de mantener largas charlas durante una estancia de investigación que realizó hace unos meses en la Universitat Politècnica de València. El amor por las estructuras, la optimización o la sostenibilidad son campos comunes que permitieron un intercambio de ideas y experiencias que se plasmaron en varios artículos científicos de impacto internacional. Lo que empezó siendo un encuentro entre colegas terminó, al cabo de unos meses, en una complicidad y amistad que pervive en el tiempo.

Ha sido esta complicidad la que me ha hecho imposible rechazar la petición que me hizo para redactar el prólogo de su nuevo libro sobre análisis estructural. Todo un honor para mí, y por ello le estoy muy agradecido, pues se trata de introducir un libro redactado por un extraordinario docente en el ámbito de las estructuras en ingeniería civil y en arquitectura. Se trata de un texto capaz de explicar de forma sencilla los a veces complejos aspectos que presenta el análisis estructural. El libro aborda mediante ilustraciones y ejemplos los conceptos fundamentales del comportamiento de las estructuras, y por tanto, de su dimensionamiento. Aunque se trata de un texto orientado a la formación universitaria en el ámbito técnico, seguro que es una guía de apoyo para aquellos otros que se encuentran desarrollando plenamente su profesión.

Por último, y antes de que el lector empiece con avidez la lectura de este libro, me gustaría reflexionar sobre la necesidad de establecer fuertes cimientos conceptuales en el ámbito del análisis estructural. En efecto, hoy día estamos inmersos en la Cuarta Revolución Industrial, también conocida como Industria 4.0. Este concepto, acuñado en 2016 por Klaus Schwab, fundador del Foro Económico Mundial, incluye las tendencias actuales de automatización y de intercambio de datos. En este contexto se incluye la inteligencia artificial, la minería de datos, el Internet de las cosas, los sistemas ciberfísicos y los gemelos digitales, entre otros.

Pues bien, la simulación numérica, la modelización y la experimentación han sido los tres pilares sobre los que se ha desarrollado la ingeniería en el siglo XX. La modelización numérica, que sería el nombre tradicional que se ha dado al “gemelo digital” presenta problemas prácticos por ser modelos estáticos, pues no se retroalimentan de forma continua de datos procedentes del mundo real a través de la monitorización continua. Estos modelos numéricos (usualmente elementos finitos, diferencias finitas, volumen finito, etc.) son suficientemente precisos si se calibran bien los parámetros que lo definen. La alternativa a estos modelos numéricos son el uso de modelos predictivos basados en datos masivos big-data, constituyendo “cajas negras” con alta capacidad de predicción debido a su aprendizaje automático “machine-learning“, pero que esconden el fundamento físico que sustentan los datos (por ejemplo, redes neuronales). Sin embargo, la experimentación es extraordinariamente cara y lenta para alimentar estos modelos basados en datos masivos.

El cambio de paradigma, por tanto, se basa en el uso de datos inteligentes “smart-data paradigm“. Este cambio se debe basar, no en la reducción de la complejidad de los modelos, sino en la reducción dimensional de los problemas, de la retroalimentación continua de datos del modelo numérico respecto a la realidad monitorizada y el uso de potentes herramientas de cálculo que permitan la interacción en tiempo real, obteniendo respuestas a cambios paramétricos en el problema. Dicho de otra forma, deberíamos poder interactuar en tiempo real con el gemelo virtual. Por tanto, estamos ante otra realidad, que es el gemelo virtual híbrido.

Pues bien, todo este cambio de paradigma no debe olvidar los fundamentos en los que se basan los modelos. En el caso de las estructuras, la comprensión de los principios básicos que fundamentan su análisis resulta clave para la modelización numérica y la experimentación. Una buena base para estos cimientos es, por tanto, este libro del profesor Kripka sobre análisis estructural. Espero que disfruten de su lectura.

Víctor Yepes

Valencia, noviembre de 2019

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Antecedentes y motivación del proyecto de investigación HYDELIFE (2021-2023)

Laboratorio de materiales del Instituto de Ciencia y Tecnología del Hormigón (ICITECH)

El proyecto HYDELIFE aborda directamente el reto de la sostenibilidad social y medioambiental de las estructuras a lo largo de su ciclo de vida, desde el proyecto hasta la demolición. Para ello se propone una metodología híbrida emergente entre el aprendizaje profundo (Deep Learning, DL) procedente de la inteligencia artificial (IA), metamodelos y metaheurísticas de optimización multiobjetivo y técnicas de toma de decisión multicriterio. El foco del proyecto se centra en el diseño robusto y resiliente aplicado a la construcción industrializada modular, tanto en edificación, como en puentes mixtos de hormigón y acero y en estructuras híbridas de acero. El proyecto se apoya en los avances realizados en los proyectos de investigación anteriores (HORSOST, BRIDLIFE y DIMALIFE), donde se desarrollaron metodologías que se aplicaron a puentes e infraestructuras viarias, pero con una propuesta metodológica y un foco de atención innovador respecto a los anteriores. El proyecto se orienta hacia el objetivo 9 de desarrollo sostenible (ODS): construir infraestructuras resilientes, promover la industrialización sostenible y fomentar la innovación. También se alinea con la Estrategia Nacional de Inteligencia Artificial-ENIA (Gobierno de España, 2020). A continuación, se justifica la propuesta en función de los antecedentes y el estado actual.

La sostenibilidad económica y el desarrollo social de la mayoría de los países dependen, entre otros, del comportamiento fiable y duradero de sus infraestructuras (Frangopol, 2011). La construcción y el mantenimiento de las infraestructuras influyen en la actividad económica, el crecimiento y el empleo. Sin embargo, estas actividades impactan significativamente en el medio ambiente, presentan efectos irreversibles y pueden comprometer el futuro de la sociedad. El gran reto, por tanto, será disponer de infraestructuras capaces de maximizar su beneficio social sin comprometer su sostenibilidad (Aguado et al., 2012).

Por otra parte, el envejecimiento de las infraestructuras, la mayor demanda en su desempeño (aumento de tráfico, por ejemplo) o los riesgos naturales extremos como los terremotos, huracanes o inundaciones afectan al rendimiento previsto de estas infraestructuras (Biondini y Frangopol, 2016). Esto constituye una auténtica bomba de relojería (Thurlby, 2013) que, junto al reto de la reducción de los impactos ambientales, son razones más que suficientes para mejorar el mantenimiento de nuestros puentes. Hoy día los gestores de las infraestructuras tienen ante sí un reto importante consistente en mantenerlas en un estado aceptable con presupuestos muy limitados. Si a ello añadimos la profunda crisis financiera y sanitaria que ha afectado la economía de nuestro país y que ha provocado el declive de la actividad constructora, el panorama se complica. Las infraestructuras que se crearon con una financiación a largo plazo presentan actualmente déficits de conservación y es posible que las generaciones futuras tengan que hacer un esfuerzo adicional para actualizar los requisitos de seguridad y funcionalidad a su nivel de servicio previsto. Esta situación puede provocar una alarma social puntual, sobre todo con la interrupción de grandes vías de comunicación debidas a un excesivo deterioro. Un estudio sobre “Necesidades de Inversión en Conservación 2019-2020” de la Asociación Española de Carreteras, centrado en los firmes y la señalización, estima que el deterioro del patrimonio viario presenta un déficit acumulado de 7.500 millones de euros. Sin embargo, este problema es común a otros países desarrollados. En el año 2019, 47000 puentes del total de los puentes en Estados Unidos, (más del 20% del total) presentan deficiencias estructurales (American Road & Transportation Builders Association, 2019); en Reino Unido, más de 3000 puentes estaban por debajo de los estándares y requerían reparación (RAC Foundation, 2019). Además, el problema pasa a ser grave cuando una parte significativa del parque de infraestructuras se encuentra cercano al final de su vida útil. Y lo que aún es peor, cuando existen riesgos de alto impacto y de baja probabilidad que pueden afectar gravemente a las infraestructuras. Estos son buenos argumentos para aumentar la vida útil de los puentes. Se trata de una verdadera crisis en las infraestructuras. El reto social consistirá en aplicar unos presupuestos muy restrictivos que minimicen los impactos ambientales y los riesgos a las personas, y que la gestión sea socialmente sostenible dentro de una política de conservación del patrimonio, incluyendo la dimensión de género. Por lo tanto, nos encontramos antes un problema de optimización muy complejo, con muchas restricciones y sometido a grandes incertidumbres, lo cual representa un reto científico importante, pues no se presta fácilmente a la exploración con los instrumentos analíticos y de previsión tradicionales.

Proyecto de Investigación:

  • Optimización híbrida del ciclo de vida de puentes y estructuras mixtas y modulares de alta eficiencia social y medioambiental bajo presupuestos restrictivos. (HYDELIFE). [Hybrid life cycle optimization of bridges and mixed and modular structures with high social and environmental efficiency under restrictive budgets]. PID2020-117056RB-I00. Financiado por el Ministerio de Ciencia e Innovación con fondos FEDER. Investigador Principal: Víctor Yepes.

Referencias:

  • AGUADO, A. et al. (2012). Sustainability Assessment of Concrete Structures within the Spanish Structural Concrete Code. J Constr Eng Manage ASCE, 138(2):268-276.
  • AMERICAN ROAD & TRANSPORTATION BUILDERS ASSOCIATION (2019). 2019 Bridge Report. https://artbabridgereport.org/
  • BIONDINI, F., FRANGOPOL, D. M. (2016). Life-Cycle of Deteriorating Structural Systems under Uncertainty: Review. J Struct Eng ASCE, 142(9), F4016001.
  • FRANGOPOL, D. M. (2011). Life-cycle performance, management, and optimisation of structural systems under uncertainty: accomplishments and challenges. Struct Infrast Eng, 7(6), 389-413.
  • GOBIERNO DE ESPAÑA (2020). Estrategia Nacional de Inteligencia Artificial. https://www.lamoncloa.gob.es/presidente/actividades/Documents/2020/021220-ENIA.pdf
  • RAC Foundation. (2019). Bridge maintenance table – GB local authorities. https://www.racfoundation.org/media-centre/bridge-maintenance-backlog-grows
  • THURLBY, R. (2013). Managing the asset time bomb: a system dynamics approach. Proc. Inst. Civ. Eng. – Forensic Engineering, 166(3):134-142.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

26ª Jornadas Argentinas de Ingeniería Estructural 2021

Del 10 al 14 de mayo de 2021 tiene prevista la celebración de las 26ª Jornadas Argentinas de Ingeniería Estructural. En esta ocasión la edición será virtual por el problema de la pandemia. Los que estéis interesados en participar, podéis acceder al enlace: https://jornadasaie.org.ar/

Dentro de estas jornadas, me han invitado a impartir una conferencia especial que, bajo el título “Diseño y mantenimiento óptimo robusto y basado en fiabilidad de puentes e infraestructuras viarias de alta eficiencia social y medioambiental bajo presupuestos restrictivos“, tendrá lugar el viernes 14 de mayo a las 17:20 h. (Argentina).

La conferencia la centraré en los resultados obtenidos por el proyecto de investigación DIMALIFE, del cual soy Investigador Principal. Se desarrolló una metodología novedosa para incorporar los procesos analíticos en la toma de decisiones en el ciclo completo de vida de puentes e infraestructuras viarias, incluyendo la licitación de proyectos de obra nueva y de mantenimiento de activos existentes, de forma que se contemplaron las necesidades e intereses sociales y ambientales.

Os paso parte del folleto explicativo.

 

 

¿Cuál es el mejor algoritmo para optimizar un problema? “No free lunch”

Figura 1. Desgraciadamente, no existe la comida gratis. https://medium.com/@LeonFedden/the-no-free-lunch-theorem-62ae2c3ed10c

Después de años impartiendo docencia en asignaturas relacionadas con la optimización heurística de estructuras de hormigón, y tras muchos artículos científicos publicados y más donde he sido revisor de artículos de otros grupos de investigación, siempre se plantea la misma pregunta: De todos los algoritmos que utilizamos para optimizar, ¿cuál es el mejor? ¿Por qué dice en su artículo que su algoritmo es el mejor para este problema? ¿Por qué no nos ponemos de acuerdo?

Para resolver esta cuestión, dos investigadores norteamericanos, David Wolpert y William Macready, publicaron un artículo en 1997 donde establecieron un teorema denominado “No free lunch“, que traducido sería algo así como “no hay comida gratis”. Dicho teorema establece que, por cada par de algoritmos de búsqueda, hay tantos problemas en el que el primer algoritmo es mejor que el segundo como problemas en el que el segundo algoritmo es mejor que el primero.

Este teorema revolucionó la forma de entender el rendimiento de los algoritmos. Incluso una búsqueda aleatoria en el espacio de soluciones podría dar mejores resultados que cualquier algoritmo de búsqueda. La conclusión es que no existe un algoritmo que sea universalmente mejor que los demás, pues siempre habrá casos donde funcione peor que otros, lo cual significa que todos ellos se comportarán igual de bien (o de mal) en promedio.

De hecho, se podría decir que un experto en algoritmos genéticos podría diseñar un algoritmo genético más eficiente que, por ejemplo, un recocido simulado, y viceversa. Aquí el arte y la experiencia en un problema y en una familia de algoritmos determinados, suele ser decisivo. En la Figura 2 se puede ver cómo un algoritmo muy especializado, que conoce bien el problema, puede mejorar su rendimiento, pero pierde la generalidad de poder usarse en cualquier tipo de problema de optimización que no sea para el que se diseñó.

Figura 2. El uso del conocimiento del problema puede mejorar el rendimiento, a costa de la generalidad. https://medium.com/@LeonFedden/the-no-free-lunch-theorem-62ae2c3ed10c

¿Qué consecuencias obtenemos de este teorema? Lo primero, una gran decepción, pues hay que abandonar la idea del algoritmo inteligente capaz de optimizar cualquier problema. Lo segundo, que es necesario incorporar en el algoritmo cierto conocimiento específico del problema, lo cual equivale a una “carrera armamentística” para cada problema de optimización. Se escriben y escribirán miles de artículos científicos donde un investigador demuestre que su algoritmo es mejor que otro para un determinado problema.

Una forma de resolver este asunto de incorporar conocimiento específico del problema es el uso de la inteligencia artificial en ayuda de las metaheurísticas. Nuestro grupo de investigación está abriendo puertas en este sentido, incorporando “deep learning” en el diseño de los algoritmos (Yepes et al., 2020; García et al., 2020a; 2020b), o bien redes neuronales (García-Segura et al., 2017). Incluso, en este momento, me encuentro como editor de un número especial de la revista Mathematics (primer decil del JCR) denominado: “Deep Learning and Hybrid-Metaheuristics: Novel Engineering Applications”, al cual os invito a enviar vuestros trabajos de investigación.

Si nos centramos en un tipo de problema determinado, por ejemplo, la optimización de estructuras (puentes, pórticos de edificación, muros, etc.), el teorema nos indica que necesitamos gente formada y creativa para optimizar el problema concreto al que nos enfrentamos. Es por ello que no existen programas comerciales eficientes capaces de adaptarse a cualquier estructura para optimizarla. Tampoco son eficientes las herramientas generales “tools” que ofrecen algunos programas como Matlab para su uso inmediato e indiscriminado.

Por tanto, no se podrá elegir entre dos algoritmos solo basándose en lo bien que trabajaron anteriormente en un problema determinado, pues en el siguiente problema pueden optimizar de forma deficiente. Por tanto, se exige conocimiento intrínseco de cada problema para optimizarlo. Es por ello que, por ejemplo, un experto matemático o informático no puede, sin más, dedicarse a optimizar puentes atirantados.

Referencias:

GARCÍA, J.; YEPES, V.; MARTÍ, J.V. (2020a). A hybrid k-means cuckoo search algorithm applied to the counterfort retaining walls problem. Mathematics,  8(4), 555.

GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2020b). The buttressed  walls problem: An application of a hybrid clustering particle swarm optimization algorithm. Mathematics,  8(6):862.

GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M. (2017). Multi-Objective Design of Post-Tensioned Concrete Road Bridges Using Artificial Neural Networks. Structural and Multidisciplinary Optimization, 56(1):139-150.

WOLPERT, D.H.; MACREADY, W.G. (1997). No Free Lunch Theorems for Optimization. IEEE Transactions on Evolutionary Computation, 1(1):67-82.

YEPES, V.; MARTÍ, J.V.; GARCÍA, J. (2020). Black hole algorithm for sustainable design of counterfort retaining walls. Sustainability, 12(7), 2767.

A continuación os dejo el artículo original “No Free Lunch Theorems for Optimization”. Se ha convertido en un clásico en optimización heurística.

Descargar (PDF, 698KB)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El aprendizaje profundo (deep learning) en la optimización de estructuras

Figura 1. Relación de pertenencia entre la inteligencia artificial, el aprendizaje automático y el aprendizaje profundo

En este artículo vamos a esbozar las posibilidades de la inteligencia artificial en la optimización de estructuras, en particular, el uso del aprendizaje profundo. El aprendizaje profundo (deep learning, DL) constituye un subconjunto del aprendizaje automático (machine learning, ML), que a su vez lo es de la inteligencia artificial (ver Figura 1). Si la inteligencia artificial empezó sobre los años 50, el aprendizaje automático surgió sobre los 80, mientras que el aprendizaje profundo nació en este siglo XXI, a partir del 2010, con la aparición de grandes superordenadores y por el aumento de los datos accesibles. Como curiosidad, uno de los grandes hitos del DL se produjo en 2012, cuando Google fue capaz de reconocer un gato entre los más de 10 millones de vídeos de Youtube, utilizando para ello 16000 ordenadores. Ahora serían necesarios muchos menos medios.

En cualquiera de estos tres casos, estamos hablando de sistemas informáticos capaces de analizar grandes cantidades de datos (big data), identificar patrones y tendencias y, por tanto, predecir de forma automática, rápida y precisa. De la inteligencia artificial y su aplicabilidad a la ingeniería civil ya hablamos en un artículo anterior.

Figura 2. Cronología en la aparición de los distintos tipos de algoritmos de inteligencia artificial. https://www.privatewallmag.com/inteligencia-artificial-machine-deep-learning/

Si pensamos en el cálculo estructural, utilizamos modelos, más o menos sofistificados, que permiten, si se conocen con suficiente precisión las acciones, averiguar los esfuerzos a los que se encuentran sometidos cada uno de los elementos en los que hemos dividido una estructura. Con dichos esfuerzos se identifican una serie de estados límite, que son un conjunto de situaciones potencialmente peligrosas para la estructura y comparar si la capacidad estructural del elemento analizado, dependiente de las propiedades geométricas y de sus materiales constituyentes, supera el valor último de la solicitación a la que, bajo cierta probabilidad, puede llegar a alcanzar el elemento estructural analizado.

Estos métodos tradicionales emplean desde hipótesis de elasticidad y comportamiento lineal, a otros modelos con comportamiento plástico o no lineales más complejos. Suele utilizarse, con mayor o menos sofisticación, el método de los elementos finitos (MEF) y el método matricial de la rigidez. En definitiva, en determinados casos, suelen emplearse los ordenadores para resolver de forma aproximada, ecuaciones diferenciales parciales muy complejas, habituales en la ingeniería estructural, pero también en otros campos de la ingeniería y la física. Para que estos sistemas de cálculo resulten precisos, es necesario alimentar los modelos con datos sobre materiales, condiciones de contorno, acciones, etc., lo más reales posibles. Para eso se comprueban y calibran estos modelos en ensayos reales de laboratorio (Friswell y Mottershead, 1995). De alguna forma, estamos retroalimentando de información al modelo, y por tanto “aprende”.

Figura 2. Malla 2D de elementos finitos, más densa alrededor de la zona de mayor interés. Wikipedia.

Si analizamos bien lo que hacemos, estamos utilizando un modelo, más o menos complicado, para predecir cómo se va a comportar la estructura. Pues bien, si tuviésemos una cantidad suficiente de datos procedentes de laboratorio y de casos reales, un sistema inteligente extraería información y sería capaz de predecir el resultado final. Mientras que la inteligencia artificial debería alimentarse de una ingente cantidad de datos (big data), el método de los elementos finitos precisa menor cantidad de información bruta (smart data), pues ha habido una labor previa muy concienzuda y rigurosa, para intentar comprender el fenómeno subyacente y modelizarlo adecuadamente. Pero, en definitiva, son dos procedimientos diferentes que nos llevan a un mismo objetivo: diseñar estructuras seguras. Otro tema será si éstas estructuras son óptimas desde algún punto de vista (economía, sostenibilidad, etc.).

La optimización de las estructuras constituye un campo científico donde se ha trabajado intensamente en las últimas décadas. Debido a que los problemas reales requieren un número elevado de variables, la resolución exacta del problema de optimización asociado es inabordable. Se trata de problemas NP-hard, de elevada complejidad computacional, que requiere de metaheurísticas para llegar a soluciones satisfactorias en tiempos de cálculo razonables.

Una de las características de la optimización mediante metaheurísticas es el elevado número de iteraciones en el espacio de soluciones, lo cual permite generar una inmensa cantidad de datos para el conjunto de estructuras visitadas. Es el campo ideal para la inteligencia artificial, pues permite extraer información para acelerar y afinar la búsqueda de la solución óptima. Un ejemplo de este tipo es nuestro trabajo (García-Segura et al., 2017) de optimización multiobjetivo de puentes cajón, donde una red neuronal aprendía de los datos intermedios de la búsqueda y luego predecía con una extraordinaria exactitud el cálculo del puente, sin necesidad de calcularlo. Ello permitía reducir considerablemente el tiempo final de computación.

Sin embargo, este tipo de aplicación es muy sencilla, pues solo ha reducido el tiempo de cálculo (cada comprobación completa de un puente por el método de los elementos finitos es mucho más lenta que una predicción con una red neuronal). Se trata ahora de dar un paso más allá. Se trata de que la metaheurística sea capaz de aprender de los datos recogidos utilizando la inteligencia artificial para ser mucho más efectiva, y no solo más rápida.

Tanto la inteligencia artificial como el aprendizaje automático no son una ciencia nueva. El problema es que sus aplicaciones eran limitadas por la falta de datos y de tecnologías para procesarlas de forma rápida y eficiente. Hoy en día se ha dado un salto cualitativo y se puede utilizar el DL, que como ya hemos dicho es una parte del ML, pero que utiliza algoritmos más sofisticados, construidos a partir del principio de las redes neuronales. Digamos que el DL (redes neuronales) utiliza algoritmos distintos al ML (algoritmos de regresión, árboles de decisión, entre otros). En ambos casos, los algoritmos pueden aprender de forma supervisada o no supervisada. En las no supervisadas se facilitan los datos de entrada, no los de salida. La razón por la que se llama aprendizaje profundo hace referencia a las redes neuronales profundas, que utilizan un número elevado de capas en la red, digamos, por ejemplo, 1000 capas. De hecho, el DL también se le conoce a menudo como “redes neuronales profundas”. Esta técnica de redes artificiales de neuronas es una de las técnicas más comunes del DL.

Figura. Esquema explicativo de diferencia entre ML y DL. https://www.privatewallmag.com/inteligencia-artificial-machine-deep-learning/

Una de las redes neuronales utilizadas en DL son las redes neuronales convolucionales, que es una variación del perceptrón multicapa, pero donde su aplicación se realiza en matrices bidimensionales, y por tanto, son muy efectivas en las tareas de visión artificial, como en la clasificación y segmentación de imágenes. En ingeniería, por ejemplo, se puede utilizar para la monitorización de la condición estructural, por ejemplo, para el análisis del deterioro. Habría que imaginar hasta dónde se podría llegar grabando en imágenes digitales la rotura en laboratorio de estructuras de hormigón y ver la capacidad predictiva de este tipo de herramientas si contaran con suficiente cantidad de datos. Todo se andará. Aquí os dejo una aplicación tradicional típica (Antoni Cladera, de la Universitat de les Illes Balears), donde se explica el modelo de rotura de una viga a flexión en la pizarra y luego se rompe la viga en el laboratorio. ¡Cuántos datos estamos perdiendo en la grabación! Un ejemplo muy reciente del uso del DL y Digital Image Correlation (DIC) aplicado a roturas de probetas en laboratorio es el trabajo de Gulgec et al. (2020).

Sin embargo, aquí nos interesa detenernos en la exploración de la integración específica del DL en las metaheurísticas con el objeto de mejorar la calidad de las soluciones o los tiempos de convergencia cuando se trata de optimizar estructuras. Un ejemplo de este camino novedoso en la investigación es la aplicabilidad de algoritmos que hibriden DL y metaheurísticas. Ya hemos publicado algunos artículos en este sentido aplicados a la optimización de muros de contrafuertes (Yepes et al., 2020; García et al., 2020a, 2020b). Además, hemos propuesto como editor invitado, un número especial en la revista Mathematics (indexada en el primer decil del JCR) denominado “Deep learning and hybrid-metaheuristics: novel engineering applications“.

Dejo a continuación un pequeño vídeo explicativo de las diferencias entre la inteligencia artificial, machine learning y deep learning.

Referencias:

FRISWELL, M.; MOTTERSHEAD, J. E. (1995). Finite element model updating in structural dynamics (Vol. 38). Dordrecht, Netherlands: Springer Science & Business Media.

GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2020a). The buttressed  walls problem: An application of a hybrid clustering particle swarm optimization algorithm. Mathematics,  8(6):862. https://doi.org/10.3390/math8060862

GARCÍA, J.; YEPES, V.; MARTÍ, J.V. (2020b). A hybrid k-means cuckoo search algorithm applied to the counterfort retaining walls problem. Mathematics,  8(4), 555. DOI:10.3390/math8040555

GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M. (2017). Multi-Objective Design of Post-Tensioned Concrete Road Bridges Using Artificial Neural Networks. Structural and Multidisciplinary Optimization, 56(1):139-150. DOI:1007/s00158-017-1653-0

GULGEC, N.S.; TAKAC, M., PAKZAD S.N. (2020). Uncertainty quantification in digital image correlation for experimental evaluation of deep learning based damage diagnostic. Structure and Infrastructure Engineering, https://doi.org/10.1080/15732479.2020.1815224

YEPES, V.; MARTÍ, J.V.; GARCÍA, J. (2020). Black hole algorithm for sustainable design of counterfort retaining walls. Sustainability, 12(7), 2767. DOI:10.3390/su12072767

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Tesis doctoral: Life-cycle sustainability design of post-tensioned box-girder bridge obtained by metamodel-assisted optimization and decision-making under uncertainty

Figura 1. Defensa de tesis doctoral de Vicent Penadés Plà.

Hoy 12 de marzo de 2020 ha tenido lugar la defensa de la tesis doctoral de D. Vicent Penadés Plà titulada “Life-cycle sustainability design of post-tensioned box-girder bridge obtained by metamodel-assisted optimization and decision-making under uncertainty“, dirigida por Víctor Yepes Piqueras y Tatiana García Segura. La tesis recibió la calificación de “Sobresaliente cum laude” por unanimidad. Presentamos a continuación un pequeño resumen de la misma.

Resumen:

Actualmente existe una tendencia hacia la sostenibilidad, especialmente en los países desarrollados donde la preocupación de la sociedad por el deterioro ambiental y los problemas sociales ha aumentado. Siguiendo esta tendencia, el sector de la construcción es uno de los sectores que mayor influencia tiene debido a su alto impacto económico, ambiental y social. Al mismo tiempo, existe un incremento en la demanda de transporte que provoca la necesidad de desarrollo y mantenimiento de las infraestructuras necesarias para tal fin. Con todo esto, los puentes se convierten en una estructura clave, y por tanto, la valoración de la sostenibilidad a lo largo de toda su vida es esencial.

El objetivo principal de esta tesis es proponer una metodología que permita valorar la sostenibilidad de un puente bajo condiciones iniciales inciertas (subjetividad del decisor o variabilidad de parámetros iniciales) y optimizar el diseño para obtener puentes óptimos robustos. Para ello, se ha realizado una extensa revisión bibliográfica de todos los trabajos en los que se realiza un análisis de la sostenibilidad mediante la valoración de criterios relacionados con sus pilares principales (económico, medio ambiental o social). En esta revisión, se ha observado que la forma más completa de valorar los pilares medioambientales y sociales es mediante el uso de métodos de análisis de ciclo de vida. Estos métodos permiten llevar a cabo la valoración de la sostenibilidad durante todas las etapas de la vida de los puentes. Todo este procedimiento proporciona información muy valiosa a los decisores para la valoración y selección del puente más sostenible. No obstante, las valoraciones subjetivas de los decisores sobre la importancia de los criterios influyen en la evaluación final de la sostenibilidad. Por esta razón, es necesario crear una metodología que reduzca la incertidumbre asociada y busque soluciones robustas frente a las opiniones de los agentes implicados en la toma de decisiones.

Además, el diseño y toma de decisiones en puentes está condicionado por los parámetros inicialmente definidos. Esto conduce a soluciones que pueden ser sensibles frente a pequeños cambios en dichas condiciones iniciales. El diseño óptimo robusto permite obtener diseños óptimos y estructuralmente estables frente a variaciones de las condiciones iniciales, y también diseños sostenibles y poco influenciables por las preferencias de los decisores que forman parte del proceso de toma de decisión. Así pues, el diseño óptimo robusto se convierte en un proceso de optimización probabilística que requiere un gran coste computacional. Por este motivo, el uso de metamodelos se ha integrado en la metodología propuesta. En concreto, se ha utilizado hipercubo latino para la definición de la muestra inicial y los modelos kriging para la definción de la aproximación matemática. De esta forma, la optimización heurística basada en kriging ha permitido reducir más de un 90% el coste computacional respecto a la optimización heurística conveniconal obteniendo resultados muy similares.

El estudio del diseño óptimo y estructuralmente estable frente a variaciones de las condiciones iniciales se ha llevado a cabo variando tres parámetros iniciales (módulo de elasticidad, sobrecarga, y fuerza de pretensado). El objetivo del caso de estudio analizado ha sido obtener el diseño más económico y con menor variación de la respuesta estructural. De esta forma, se consigue una frontera de Pareto que permite seleccionar la solución óptima, la solución más robusta o una solución de compromiso entre las dos. Por otro lado, el estudio de diseños sostenibles y poco influenciables por las preferencias de los decisores se ha llevado a cabo generando una gran cantidad de decisores aleatorios para cubrir todas las posibles preferencias de los interesados. El objetivo del caso de estudio ha sido reducir la participación subjetiva de los decisores. De esta forma, se ha podido reducir todo el abanico de diseños posibles a un número reducido de diseños concretos, y seleccionar aquel diseño con mejor media sostenible o menor variabilidad en la valoración.

Esta tesis proporciona en primer lugar, una amplia revisión bibliográfica, tanto de los criterios utilizados para la valoración de la sostenibilidad en puentes como de los diferentes métodos de análisis de ciclo de vida para obtener un perfil completo de los pilares ambientales y sociales. Posteriormente, se define una metodología para la valoración completa de la sostenibilidad, usando métodos de análisis de ciclo de vida. Asimismo, se propone un enfoque que permite obtener estructuras poco influenciables por los parámetros estructurales, así como por las preferencias de los diferentes decisores frente a los criterios sostenibles. La metodología proporcionada en esta tesis es aplicable a cualquier otro tipo de estructura.

Palabras clave:

Sostenibilidad, Toma de decisiones, Análisis de ciclo de vida, Métodos de valoración del impacto del análisis de ciclo de vida, ReCiPe, Ecoinvent, SOCA, Metamodelos, Kriging, Diseño óptimo robusto, Puentes.

Figura 2. De izquierda a derecha: Julián Alcalá, Tatiana García, Víctor Yepes, Vicent Penadés, Salvador Ivorra y Rasmus Rempling

Referencias:

La geometría fractal en la ingeniería: las estructuras de Voronoi y el diseño paramétrico

Figura 1. Rascacielos Voronoi. https://naukas.com/2011/12/23/cada-uno-en-su-region-y-voronoi-en-la-de-todos/

La naturaleza siempre ha servido de inspiración para arquitectos, ingenieros y diseñadores. La tecnología informática ha facilitado las herramientas para analizar y simular la complejidad observada en la naturaleza y aplicarla a formas estructurales de construcción y los mecanismos de organización urbana. Entre ellas destacamos la geometría fractal y el diagrama de Voronoi.

La geometría fractal no ha dejado de evolucionar desde las investigaciones del matemático polaco nacionalizado francés y estadounidense, Benoît Mandelbrot en los años 70 del siglo pasado. Un fractal es un objeto geométrico cuya estructura básica, fragmentada o aparentemente irregular, se repite a diferentes escalas. Lo interesante es que la forma de los fractales parecen describir la Naturaleza y encuentra su geometría una gran variedad de aplicaciones en urbanismo, arquitectura, computación o ingeniería estructural (Figura 1).

El diagrama de Voronoi (nombre que se debe al matemático ruso Gueorgui Voronói) se crea al unir los puntos entre sí, trazando las mediatrices de los segmentos de unión (Figura 2). Las intersecciones de estas mediatrices determinan una serie de polígonos en un espacio bidimensional alrededor de un conjunto de puntos de control, de manera que el perímetro de los polígonos generados sea equidistante a los puntos vecinos y designan su área de influencia.

Figura 2. Diagrama de Voronoi. https://es.wikipedia.org/wiki/Pol%C3%ADgonos_de_Thiessen#/media/Archivo:Euclidean_Voronoi_diagram.svg

Hasta mediados de los ochenta, la mayoría de las implementaciones para computar el diagrama de Voronoi usaban el algoritmo incremental cuadrático, admitiendo su mayor lentitud para evitar la complejidad del código divide y vencerás (Figura 3). En 1985 Fortune inventó un inteligente algoritmo de barrido plano que resulta tan simple como el incremental, pero en tiempo O(n log n). Para los más curiosos, podéis utilizar MATLAB para realizar ejemplos sobre los diagramas de Voronoi utilizando la funciónvoronoin. El enlace lo tenéis aquí: https://es.mathworks.com/help/matlab/math/voronoi-diagrams.html

Figura 3. Pasos fundamentales del algoritmo “divide y vencerás” para construir el diagrama de Voroni. http://asignatura.us.es/fgcitig/contenidos/gctem3ma.htm

La profesora de la Universidad de Sevilla, Clara Grima, nos describe en un artículo de divulgación, “El diagrama de Voronoi, la forma matemática de dividir el mundo“, algunas aplicaciones del diagrama de Voronoi, que van desde la distribución de farmacias en una ciudad, a el mapa del cólera de John Snow o a la ventaja posicional de un equipo de fútbol.

Pero aquí lo interesante es saber que, basándose en este diagrama, se pueden diseñar estructuras y espacios urbanos de gran interés. En la Figura 4 podemos ver la oficina central de Alibaba. Este tipo de estructuras resultan agradables, estáticamente eficientes y adecuadas para trabajar como un sistema estructural espacial. Además, la estructura se puede modelar por un conjunto de puntos y admite el diseño paramétrico. Se denomina diseño paramétrico a un proceso de diseño basado en un esquema algorítmico que permite expresar parámetros y reglas que definen, codifican y aclaran la relación entre los requerimientos del diseño y el diseño resultante.

Figura 4. Oficina central de Alibaba. https://www.idealista.com/news/finanzas/emprendedores/2014/04/16/727627-asi-es-la-cueva-de-alibaba-el-tesoro-mejor-guardado-de-china

En la Figura 5 se observa la posibilidad de estos diagramas en el caso de pantallas arquitectónicas. Como vemos, las posibilidades estructurales son de un gran interés.

Figura 5. Ejemplo de uso arquitectónico de los diagramas Voronoi. https://www.carroceriasibiza.com/

Aquí tenemos una explicación de los diagramas de Voronoi. También el vídeo explica cómo construir a partir de una serie de puntos generadores los famosos Polígonos de Thiessen que conforman el diagrama antes mencionado.

En el presente vídeo se explican los fractales.

Os dejo también un artículo sobre el diagrama de Voronoi como herramienta de diseño, de María Loreto Flores. Espero que os sea de interés

Descargar (PDF, 527KB)

Problemas en la adopción del BIM en la rehabilitación estructural

La Arquitectura, la Ingeniería y la Construcción ha estado cambiando durante los últimos años por varias razones. La aparición de nuevas tecnologías como BIM y técnicas como Lean Construction o el Análisis del Ciclo de Vida están creando nuevas tendencias y oportunidades que alteran el metodologías de esta industria. De estas técnicas hemos tenido oportunidad de hablar en artículos anteriores en este blog. Además, en los últimos años el modelo de negocio está también sufriendo cambios. La rehabilitación está ganando cada vez más importancia en el sector. A continuación os dejo un capítulo del libro “Reactive proactive architecture” que trata sobre estos problemas. El libro recoge los resultados de la primera edición del Valencia International Biennial of Research in Architecture VIBRArch. Espero que os sea de interés.

 

Referencia:

FERNÁNDEZ-MORA, V.; YEPES, V. (2018). Problems in the adoption of BIM for structural rehabilitation, in CABRERA, I. et al. (Eds.): Reactive proactive architecture. Editorial Universitat Politècnica de València, pp. 284-289.  ISBN 978-84-9048-713-6. Valencia.

Descargar (PDF, 165KB)

Os dejo también un vídeo de 5 minutos mostrando el uso de Heritage BIM aplicado a la conservación de puentes En este caso el puente romano de Alcántara. Espero que os guste.