Figura 1. Desgraciadamente, no existe comida gratis. https://medium.com/@LeonFedden/the-no-free-lunch-theorem-62ae2c3ed10c
Después de años impartiendo docencia en asignaturas relacionadas con la optimización heurística de estructuras de hormigón, y tras muchos artículos científicos publicados y más aún en los que he sido revisor de artículos de otros grupos de investigación, siempre se plantea la misma pregunta: De todos los algoritmos que utilizamos para optimizar, ¿cuál es el mejor? ¿Por qué dice en su artículo que su algoritmo es el mejor para este problema? ¿Por qué no nos ponemos de acuerdo?
Para resolver esta cuestión, dos investigadores norteamericanos, David Wolpert y William Macready, publicaron en 1997 un artículo en el que establecieron un teorema denominado «No free lunch«, que, traducido, sería algo así como «no hay comida gratis». Dicho teorema establece que, por cada par de algoritmos de búsqueda, hay tantos problemas en los que el primer algoritmo es mejor que el segundo como problemas en los que el segundo algoritmo es mejor que el primero.
Este teorema revolucionó la forma de entender el rendimiento de los algoritmos. Incluso una búsqueda aleatoria en el espacio de soluciones podría dar mejores resultados que cualquier algoritmo de búsqueda. La conclusión es que no existe un algoritmo que sea universalmente mejor que los demás, pues siempre habrá casos en los que funcione peor que otros, lo que significa que todos ellos se comportarán igual de bien (o de mal) en promedio.
De hecho, podría decirse que un experto en algoritmos genéticos podría diseñar un algoritmo genético más eficiente que, por ejemplo, un recocido simulado, y viceversa. Aquí el arte y la experiencia en un problema y en una familia de algoritmos determinados suelen ser decisivos. En la Figura 2 se puede ver cómo un algoritmo muy especializado, que conoce bien el problema, puede mejorar su rendimiento, pero pierde la generalidad para usarse en cualquier tipo de problema de optimización distinto del que se diseñó.
Figura 2. El uso del conocimiento del problema puede mejorar el rendimiento, pero a costa de la generalidad. https://medium.com/@LeonFedden/the-no-free-lunch-theorem-62ae2c3ed10c
¿Qué consecuencias obtenemos de este teorema? Lo primero, una gran decepción, pues hay que abandonar la idea del algoritmo inteligente capaz de optimizar cualquier problema. Lo segundo, que es necesario incorporar en el algoritmo cierto conocimiento específico del problema, lo cual equivale a una «carrera armamentística» para cada problema de optimización. Se escriben y escribirán miles de artículos científicos en los que un investigador demuestre que su algoritmo es mejor que otro para un determinado problema.
Una forma de resolver este asunto de incorporar conocimiento específico del problema es el uso de la inteligencia artificial en apoyo de las metaheurísticas. Nuestro grupo de investigación está abriendo puertas en este sentido, incorporando «deep learning» en el diseño de algoritmos (Yepes et al., 2020; García et al., 2020a; 2020b) o bien redes neuronales (García-Segura et al., 2017). Incluso, en este momento, me encuentro como editor de un número especial de la revista Mathematics (primer decil del JCR) denominado: “Deep Learning and Hybrid-Metaheuristics: Novel Engineering Applications”, al cual os invito a enviar vuestros trabajos de investigación.
Si nos centramos en un tipo de problema determinado, por ejemplo, la optimización de estructuras (puentes, pórticos de edificación, muros, etc.), el teorema nos indica que necesitamos gente formada y creativa para optimizar el problema concreto al que nos enfrentamos. Es por ello que no existen programas comerciales eficientes capaces de adaptarse a cualquier estructura para optimizarla. Tampoco son eficientes las herramientas generales, «tools», que ofrecen algunos programas, como Matlab, para su uso inmediato e indiscriminado.
Por tanto, no se podrá elegir entre dos algoritmos solo basándose en el buen desempeño que obtuvieron anteriormente en un problema determinado, pues en el siguiente problema pueden optimizar de forma deficiente. Por tanto, se exige conocimiento intrínseco de cada problema para optimizarlo. Es por ello que, por ejemplo, un experto matemático o informático no puede, sin más, dedicarse a optimizar puentes atirantados.
Figura 1. https://www.un.org/sustainabledevelopment/es/2015/09/infraestructura-innovacion-e-industrias-inclusivas-claves-para-el-desarrollo/
La resiliencia es un concepto que viene del mundo de la psicología y representa la capacidad para adaptarse de forma positiva frente a situaciones adversas. Proviene del latín resilio, «volver atrás, volver de un salto, resaltar, rebotar». En el campo de la mecánica, la resiliencia sería la capacidad de un material para recuperar su forma inicial después de haber sido deformado por una fuerza. En la ecología, un sistema es resiliente si puede tolerar una perturbación sin colapsar a un estado completamente distinto, controlado por otro conjunto de procesos. En un entorno tecnológico, este término se relaciona con la capacidad de un sistema de soportar y recuperarse ante desastres y perturbaciones. En este artículo vamos a indagar en el concepto de resiliencia de las infraestructuras.
Así, dentro de los objetivos de desarrollo sostenible de Naciones Unidas (Figura 1), encontramos el Objetivo 9: Construir infraestructuras resilientes, provomer la industrialización sostenible y fomentar la innovación. En efecto, las infraestructuras deben hacer frente al crecimiento de la población, pero también a los crecientes peligros físicos (cinéticos) como el terrorismo, o los asociados al clima extremo y los desastres naturales. La frecuencia y gravedad de estos eventos extremos se prevén crecientes, y, por tanto, es más que previsible un aumento en los costes e impacto humano. Además, debido a la cada vez más informatización y digitalización de las infraestructuras, el riesgo de ataques informáticos a las infraestructuras es más que evidente.
La resiliencia puede asociarse con cuatro atributos: robustez, que es la capacidad para resistir un evento extremo sin que el fracaso en la funcionalidad sea completo; rapidez, que sería la capacidad de recuperarse de forma eficiente y efectiva; la redundancia, que sería la reserva de componentes o de sistemas estructurales sustitutivos; y el ingenio, que sería la eficiencia en la identificación de problemas, priorizando soluciones y movilizando recursos para su solución (Bruneau et al., 2003).
Matemáticamente, se puede evaluar la resiliencia integrando la curva de funcionalidad a lo largo del tiempo (ver Figura 2).
donde Q(t) es la funcionalidad; t0 es el momento en el que ocurre el evento extremo y Tr es el horizonte hasta donde se estudia la funcionalidad.
Figura 2. Valoración de la resiliencia tras un evento extremo (Anwar et al., 2019)
En la Figura 2 se pueden observar los tres estados correspondientes con la funcionalidad. En la situación de fiabilidad, la infraestructura se encuentra con la funcionalidad de referencia, previo al evento extremo. La situación de recuperación comienza tras la ocurrencia del evento extremo, con una pérdida de funcionalidad dependiente de la robustez de la infraestructura, y con una recuperación que depende de los esfuerzos realizados en la reparación, que puede ser rápida o lenta en función del ingenio o la creatividad en las soluciones propuestas, así como de la redundancia de los sistemas previstos. Por último, la situación recuperada es la que ocurre cuando la funcionalidad vuelve a ser la de referencia.
Se comprueba en la Figura 2 cómo una infraestructura pasa de una funcionalidad de referencia a una residual tras el evento extremo. Tras el evento, puede darse una demora en la recuperación de la funcionalidad debido a las tareas de inspección, rediseño, financiación, contratación, permisos, etc.). La recuperación completa de la funcionalidad depende de la forma en la que se han abordado las tareas de reparación. Es fácil verificar que la resiliencia se puede calcular integrando la curva de recuperación de la funcionalidad desde la ocurrencia del evento extremo hasta la completa recuperación, dividiendo dicho valor por el tiempo empleado en dicha recuperación.
Este modelo simplificado permite establecer las pautas para mejorar la resiliencia de una infraestructura:
a) Incrementando la robustez de la infraestructura, es decir, maximizar su funcionalidad residual tras un evento extremo.
b) Acelerando las actividades de recuperación de la funcionalidad de la infraestructura.
En ambos casos, es necesario concebir la infraestructura desde el principio con diseños robustos, con sistemas redundantes y con una previsión de las tareas de reparación necesarias.
Con todo, la capacidad de recuperación comprende cuatro dimensiones interrelacionadas: técnica, organizativa, social y económica (Bruneau et al., 2003). La dimensión técnica de la resiliencia se refiere a la capacidad de los sistemas físicos (incluidos los componentes, sus interconexiones e interacciones, y los sistemas enteros) para funcionar a niveles aceptables o deseables cuando están sujetos a los eventos extremos. La dimensión organizativa de la resiliencia se refiere a la capacidad de las organizaciones que gestionan infraestructuras críticas y tienen la responsabilidad de tomar decisiones y adoptar medidas que contribuyan a lograr la resiliencia descrita anteriormente, es decir, que ayuden a lograr una mayor solidez, redundancia, ingenio y rapidez. La dimensión social de la resiliencia consiste en medidas específicamente diseñadas para disminuir los efectos de los eventos extremos por parte de la población debido a la pérdida de infraestructuras críticas. Análogamente, la dimensión económica de la resiliencia se refiere a la capacidad de reducir tanto las pérdidas directas e indirectas de los eventos extremos.
El problema de estas cuatro dimensiones se pueden sumar de forma homogénea, con interrelaciones entre ellas. El reto consiste en cuantificar y medir la resiliencia en todas sus dimensiones, así como sus interrelaciones. Se trata de un problema de investigación de gran trascendencia y complejidad, que afecta al ciclo de vida de las infraestructuras desde el inicio de la planificación (Salas y Yepes, 2020).
Referencias:
ANWAR, G.A.; DONG, Y.; ZHAI, C. (2020). Performance-based probabilistic framework for seismic risk, resilience, and sustainability assessment of reinforced concrete structures. Advances in Structural Engineering, 23(7):1454-1457.
BRUNEAU, M.; CHANG, S.E.; EGUCHI, R.T. et al. (2003). A framework to quantitatively assess and enhance the seismic resilience of communities. Earthquake Spectra 19(4): 733–752.
Figura 1. Relación de pertenencia entre la inteligencia artificial, el aprendizaje automático y el aprendizaje profundo
En este artículo vamos a esbozar las posibilidades de la inteligencia artificial en la optimización de estructuras, en particular, el uso del aprendizaje profundo. El aprendizaje profundo (deep learning, DL) constituye un subconjunto del aprendizaje automático (machine learning, ML), que a su vez lo es de la inteligencia artificial (ver Figura 1). Si la inteligencia artificial empezó sobre los años 50, el aprendizaje automático surgió sobre los 80, mientras que el aprendizaje profundo nació en este siglo XXI, a partir del 2010, con la aparición de grandes superordenadores y por el aumento de los datos accesibles. Como curiosidad, uno de los grandes hitos del DL se produjo en 2012, cuando Google fue capaz de reconocer un gato entre los más de 10 millones de vídeos de Youtube, utilizando para ello 16000 ordenadores. Ahora serían necesarios muchos menos medios.
En cualquiera de estos tres casos, estamos hablando de sistemas informáticos capaces de analizar grandes cantidades de datos (big data), identificar patrones y tendencias y, por tanto, predecir de forma automática, rápida y precisa. De la inteligencia artificial y su aplicabilidad a la ingeniería civil ya hablamos en un artículo anterior.
Figura 2. Cronología en la aparición de los distintos tipos de algoritmos de inteligencia artificial. https://www.privatewallmag.com/inteligencia-artificial-machine-deep-learning/
Si pensamos en el cálculo estructural, utilizamos modelos, más o menos sofistificados, que permiten, si se conocen con suficiente precisión las acciones, averiguar los esfuerzos a los que se encuentran sometidos cada uno de los elementos en los que hemos dividido una estructura. Con dichos esfuerzos se identifican una serie de estados límite, que son un conjunto de situaciones potencialmente peligrosas para la estructura y comparar si la capacidad estructural del elemento analizado, dependiente de las propiedades geométricas y de sus materiales constituyentes, supera el valor último de la solicitación a la que, bajo cierta probabilidad, puede llegar a alcanzar el elemento estructural analizado.
Estos métodos tradicionales emplean desde hipótesis de elasticidad y comportamiento lineal, a otros modelos con comportamiento plástico o no lineales más complejos. Suele utilizarse, con mayor o menos sofisticación, el método de los elementos finitos (MEF) y el método matricial de la rigidez. En definitiva, en determinados casos, suelen emplearse los ordenadores para resolver de forma aproximada, ecuaciones diferenciales parciales muy complejas, habituales en la ingeniería estructural, pero también en otros campos de la ingeniería y la física. Para que estos sistemas de cálculo resulten precisos, es necesario alimentar los modelos con datos sobre materiales, condiciones de contorno, acciones, etc., lo más reales posibles. Para eso se comprueban y calibran estos modelos en ensayos reales de laboratorio (Friswell y Mottershead, 1995). De alguna forma, estamos retroalimentando de información al modelo, y por tanto «aprende».
Figura 2. Malla 2D de elementos finitos, más densa alrededor de la zona de mayor interés. Wikipedia.
Si analizamos bien lo que hacemos, estamos utilizando un modelo, más o menos complicado, para predecir cómo se va a comportar la estructura. Pues bien, si tuviésemos una cantidad suficiente de datos procedentes de laboratorio y de casos reales, un sistema inteligente extraería información y sería capaz de predecir el resultado final. Mientras que la inteligencia artificial debería alimentarse de una ingente cantidad de datos (big data), el método de los elementos finitos precisa menor cantidad de información bruta (smart data), pues ha habido una labor previa muy concienzuda y rigurosa, para intentar comprender el fenómeno subyacente y modelizarlo adecuadamente. Pero, en definitiva, son dos procedimientos diferentes que nos llevan a un mismo objetivo: diseñar estructuras seguras. Otro tema será si éstas estructuras son óptimas desde algún punto de vista (economía, sostenibilidad, etc.).
La optimización de las estructuras constituye un campo científico donde se ha trabajado intensamente en las últimas décadas. Debido a que los problemas reales requieren un número elevado de variables, la resolución exacta del problema de optimización asociado es inabordable. Se trata de problemas NP-hard, de elevada complejidad computacional, que requiere de metaheurísticas para llegar a soluciones satisfactorias en tiempos de cálculo razonables.
Una de las características de la optimización mediante metaheurísticas es el elevado número de iteraciones en el espacio de soluciones, lo cual permite generar una inmensa cantidad de datos para el conjunto de estructuras visitadas. Es el campo ideal para la inteligencia artificial, pues permite extraer información para acelerar y afinar la búsqueda de la solución óptima. Un ejemplo de este tipo es nuestro trabajo (García-Segura et al., 2017) de optimización multiobjetivo de puentes cajón, donde una red neuronal aprendía de los datos intermedios de la búsqueda y luego predecía con una extraordinaria exactitud el cálculo del puente, sin necesidad de calcularlo. Ello permitía reducir considerablemente el tiempo final de computación.
Sin embargo, este tipo de aplicación es muy sencilla, pues solo ha reducido el tiempo de cálculo (cada comprobación completa de un puente por el método de los elementos finitos es mucho más lenta que una predicción con una red neuronal). Se trata ahora de dar un paso más allá. Se trata de que la metaheurística sea capaz de aprender de los datos recogidos utilizando la inteligencia artificial para ser mucho más efectiva, y no solo más rápida.
Tanto la inteligencia artificial como el aprendizaje automático no son una ciencia nueva. El problema es que sus aplicaciones eran limitadas por la falta de datos y de tecnologías para procesarlas de forma rápida y eficiente. Hoy en día se ha dado un salto cualitativo y se puede utilizar el DL, que como ya hemos dicho es una parte del ML, pero que utiliza algoritmos más sofisticados, construidos a partir del principio de las redes neuronales. Digamos que el DL (redes neuronales) utiliza algoritmos distintos al ML (algoritmos de regresión, árboles de decisión, entre otros). En ambos casos, los algoritmos pueden aprender de forma supervisada o no supervisada. En las no supervisadas se facilitan los datos de entrada, no los de salida. La razón por la que se llama aprendizaje profundo hace referencia a las redes neuronales profundas, que utilizan un número elevado de capas en la red, digamos, por ejemplo, 1000 capas. De hecho, el DL también se le conoce a menudo como «redes neuronales profundas». Esta técnica de redes artificiales de neuronas es una de las técnicas más comunes del DL.
Figura. Esquema explicativo de diferencia entre ML y DL. https://www.privatewallmag.com/inteligencia-artificial-machine-deep-learning/
Una de las redes neuronales utilizadas en DL son las redes neuronales convolucionales, que es una variación del perceptrón multicapa, pero donde su aplicación se realiza en matrices bidimensionales, y por tanto, son muy efectivas en las tareas de visión artificial, como en la clasificación y segmentación de imágenes. En ingeniería, por ejemplo, se puede utilizar para la monitorización de la condición estructural, por ejemplo, para el análisis del deterioro. Habría que imaginar hasta dónde se podría llegar grabando en imágenes digitales la rotura en laboratorio de estructuras de hormigón y ver la capacidad predictiva de este tipo de herramientas si contaran con suficiente cantidad de datos. Todo se andará. Aquí os dejo una aplicación tradicional típica (Antoni Cladera, de la Universitat de les Illes Balears), donde se explica el modelo de rotura de una viga a flexión en la pizarra y luego se rompe la viga en el laboratorio. ¡Cuántos datos estamos perdiendo en la grabación! Un ejemplo muy reciente del uso del DL y Digital Image Correlation (DIC) aplicado a roturas de probetas en laboratorio es el trabajo de Gulgec et al. (2020).
Sin embargo, aquí nos interesa detenernos en la exploración de la integración específica del DL en las metaheurísticas con el objeto de mejorar la calidad de las soluciones o los tiempos de convergencia cuando se trata de optimizar estructuras. Un ejemplo de este camino novedoso en la investigación es la aplicabilidad de algoritmos que hibriden DL y metaheurísticas. Ya hemos publicado algunos artículos en este sentido aplicados a la optimización de muros de contrafuertes (Yepes et al., 2020; García et al., 2020a, 2020b). Además, hemos propuesto como editor invitado, un número especial en la revista Mathematics (indexada en el primer decil del JCR) denominado «Deep learning and hybrid-metaheuristics: novel engineering applications«.
Dejo a continuación un pequeño vídeo explicativo de las diferencias entre la inteligencia artificial, machine learning y deep learning.
Referencias:
FRISWELL, M.; MOTTERSHEAD, J. E. (1995). Finite element model updating in structural dynamics (Vol. 38). Dordrecht, Netherlands: Springer Science & Business Media.
GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M. (2017). Multi-Objective Design of Post-Tensioned Concrete Road Bridges Using Artificial Neural Networks.Structural and Multidisciplinary Optimization, 56(1):139-150. DOI:1007/s00158-017-1653-0
GULGEC, N.S.; TAKAC, M., PAKZAD S.N. (2020). Uncertainty quantification in digital image correlation for experimental evaluation of deep learning based damage diagnostic.Structure and Infrastructure Engineering, https://doi.org/10.1080/15732479.2020.1815224
Hoy 4 de septiembre, pero del año 2002, tuve la ocasión de defender mi tesis doctoral titulada «Optimización heurística económica aplicada a las redes de transporte del tipo VRPTW«. La tesis fue dirigida por el profesor Josep Ramon Medina Folgado y el tribunal estuvo presidido por José Aguilar, acompañado por José Vicente Colomer, Francesc Robusté, Francisco García Benítez y Jesús Cuartero. La calificación fue de sobresaliente «cum laude» por unanimidad.
Por tanto, mi tesis ya ha cumplido la mayoría de edad. Es un buen momento para reflexionar sobre lo que este trabajo supuso para mí. La realicé a los 38 años, tras haber adquirido una buena trayectoria profesional en la empresa privada (Dragados y Construcciones) y en la administración pública (Generalitat Valenciana). De alguna forma, ya tenía la vida más o menos solucionada, con experiencia acumulada, pero con muchas inquietudes. En aquel momento era profesor asociado a tiempo parcial y, en mis ratos libres, me dediqué a hacer la tesis doctoral. Es innecesario decir las dificultades que supone para cualquiera sacar tiempo de donde no lo hay para hacer algo que, en aquel momento, era simplemente vocacional. No hubo financiación de ningún tipo, ni reducción de la jornada laboral, ni nada por el estilo. En aquel momento ni se me pasó por la cabeza que años después acabaría como catedrático de universidad. Entre 2002 y 2008 seguí trabajando como profesor asociado en la administración pública. Por último, gracias al sistema de habilitación nacional, accedí directamente a la universidad como profesor titular desde la categoría de profesor asociado, algo bastante inusual en aquel momento. Gracias a que era una verdadera oposición con el resto de candidatos, tuve la oportunidad de demostrar mi valía ante un tribunal. Luego la cátedra vino por el sistema de acreditación y la plaza, tras una larga espera a causa de la crisis y de las cuotas de reposición. Pasé en seis años de ser profesor asociado a tiempo parcial a estar habilitado como catedrático de universidad (12 de mayo de 2014). Todo eso se lo debo, entre otras cosas, a la gran producción científica que pude llevar a cabo y que tuvo su origen en esta tesis doctoral.
Por cierto, en aquella época la tesis doctoral tenía que ser inédita, es decir, ningún artículo de la tesis tenía que haberse publicado. Hoy en día es todo lo contrario: conviene tener de 3 a 4 artículos buenos antes de pasar por la defensa. Luego publiqué algunos artículos sobre este tema en revistas nacionales e internacionales, pero sobre todo en actas de congresos.
La tesis supuso, en su momento, aprender en profundidad lo que eran la algoritmia, el cálculo computacional y, sobre todo, la optimización heurística. En aquel momento, al menos en el ámbito de la ingeniería civil, no se sabía nada o muy poco al respecto, aunque era un campo muy activo a nivel internacional. Luego comprobé que todo lo aprendido se pudo aplicar al ámbito de las estructuras, especialmente a los puentes, pero esa es otra historia.
Os dejo las primeras páginas de la tesis y la presentación de PowerPoint que utilicé. Para que os hagáis una idea del momento, la presentación también la imprimí en acetato, ya que aún se empleaba la proyección de transparencias en las clases.
Referencia:
YEPES, V. (2002). Optimización heurística económica aplicada a las redes de transporte del tipo VRPTW. Tesis Doctoral. Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos. Universitat Politècnica de València. 352 pp. ISBN: 0-493-91360-2.
En el marco del próximo congreso CMN2021 (Congress on Numerical Methods in Engineering) que se celebrará en Las Palmas de Gran Canaria del 28 al 30 de junio de 2021, hemos organizado una sesión temática coordinada por David Greiner, Diogo Ribeiro y Víctor Yepes que versa sobre optimización, metaheurísticas y algoritmos evolutivos en ingeniería civil. Os dejo a continuación una breve descripción del congreso y un resumen de la sesión temática propuesta.
El objetivo del Congreso de Métodos Numéricos en Ingeniería (CMN) es actuar como un foro en el que se recopilen los trabajos científicos y técnicos más relevantes en el área de los métodos numéricos y la mecánica computacional, así como sus aplicaciones prácticas. El CMN 2021 ha sido organizado conjuntamente por las sociedades españolas y portuguesa de métodos numéricos (SEMNI y APMTAC, respectivamente) y por el Instituto Universitario de Sistemas Inteligentes y Aplicaciones Numéricas en Ingeniería (SIANI) de la Universidad de Las Palmas de Gran Canaria (ULPGC). Los anteriores congresos conjuntos de ambas sociedades se celebraron en Madrid (2002), Lisboa (2004), Granada (2005), Oporto (2007), Barcelona (2009), Coimbra (2011), Bilbao (2013), Lisboa (2015), Valencia (2017) y Braga (2019). Las Palmas de Gran Canaria fue la sede del primer congreso CMN organizado por SEMNI en 1990 (coordinadores generales: Gabriel Winter y Miguel Galante), y 31 años después retorna a su primera sede. El programa científico del CMN 2021 estará estructurado en sesiones temáticas según las distintas especialidades de los métodos numéricos. Las comunicaciones presentadas en el congreso constituirán una referencia de los avances recientes y de las líneas de trabajo futuras. Asimismo, investigadores internacionales de reconocido prestigio impartirán una serie de conferencias plenarias.El enlace a la web del congreso es la siguiente: https://congress.cimne.com/cmn2021
Acabamos de presentar una comunicación en el 10th International Conference on High Performance and Optimum Design of Structures and Materials HPSM/OPTI 2020, que se celebró en Praga (República Checa) del 3 al 5 de junio, pero que por motivos del coronavirus se ha celebrado virtualmente del 2 al 4 de septiembre. A continuación os paso un resumen de la comunicación, así como la presentación que hemos realizado.
En los objetivos de desarrollo sostenible recientemente establecidos se reconoce la importancia de las infraestructuras para lograr un futuro sostenible. A lo largo de su ciclo de vida, las infraestructuras generan una serie de impactos cuya reducción ha sido una de las principales preocupaciones de los investigadores en los últimos años. La optimización de los intervalos de mantenimiento de estructuras como los puentes ha despertado el interés del sector de la ingeniería civil, ya que la mayoría de los impactos de las infraestructuras se producen durante su fase operativa. Así pues, actualmente los puentes se diseñan para atender a los efectos económicos y ambientales derivados de las actividades de mantenimiento. Sin embargo, en esos análisis se suele descuidar el pilar social de la sostenibilidad. Dado que todavía no existe una metodología universalmente aceptada para su evaluación coherente, la dimensión social no se tiene en cuenta adecuadamente en las evaluaciones del ciclo de vida de las infraestructuras. En la presente comunicación se evalúan los efectos del ciclo vital de diseños alternativos de los tableros de hormigón de los puentes situados en un entorno cercano a la costa que requiere mantenimiento. Primero, se optimizan los intervalos de mantenimiento derivados de la fiabilidad minimizando los impactos económicos y ambientales. En una segunda etapa del análisis, se incluye la dimensión social en el proceso de optimización y se comparan los resultados. Los resultados de optimización de estas evaluaciones combinadas se obtienen aplicando la técnica multicriterio de toma de decisiones AHP-TOPSIS. En el presente documento se demuestra cómo la inclusión de la dimensión social puede conducir a estrategias de mantenimiento óptimo diferentes y más orientadas a la sostenibilidad. El enfoque tridimensional que se aplica aquí ha dado lugar a que se prefieran otras alternativas a las derivadas de la evaluación convencional, que solo tiene en cuenta las perspectivas económica y ambiental. Esa conclusión apoya la idea de que se requieren evaluaciones holísticas del ciclo vital para el diseño sostenible de las infraestructuras y que es necesario hacer más esfuerzos urgentes para integrar la dimensión social en las evaluaciones de la sostenibilidad de las estructuras.
Figure 1: Product system boundaries (Navarro et al., 2020)
ABSTRACT
The recently established Sustainable Development Goals recognize the importance of infrastructures for achieving a sustainable future. Along their long-lasting life cycle, infrastructures generate a series of impacts, the reduction of which has been one of the main focuses of researchers’ attention in the past years. The optimization of maintenance intervals of structures, such as bridges, has aroused the attention of the civil engineering sector since most of the impacts of infrastructures occur during the operational phase. Thus, bridges are designed to address maintenance activities’ economic and environmental impacts. However, the social pillar of sustainability is usually neglected in those analyses. Since no universally accepted methodology exists for its consistent evaluation, the social dimension is not effectively included in the life cycle assessments of infrastructures. This communication evaluates the life cycle impacts of alternative concrete bridge deck designs in a maintenance-demanding environment near shore. Reliability-derived maintenance intervals are first optimized by minimizing the economic and environmental impacts. In the second stage of the analysis, the social dimension is included in the optimization process, and results are compared. Optimization results from these combined assessments are obtained by applying the Multi-Criteria Decision-Making technique AHP-TOPSIS. The present paper demonstrates how the inclusion of the social dimension may lead to different, more sustainability-oriented optimal maintenance strategies. The three-dimensional approach applied here has resulted in other alternatives to be preferred against those derived from the conventional assessment that considers the economic and environmental perspectives. Such a finding supports the idea that holistic life cycle assessments are required for sustainable designs of infrastructures and that more efforts are urgently needed to integrate the social dimension in sustainability assessments of structures.
KEYWORDS
Life cycle assessment, bridges, maintenance, reliability, social impacts, sustainable design, sustainability, corrosion, Multi-Criteria Decision Making, AHP.
REFERENCE
NAVARRO, I.J.; YEPES, V.; MARTÍ, J.V. (2020). Social dimension on the sustainability-oriented maintenance optimization of bridges in coastal environments. 10th International Conference on High Performance and Optimum Design of Structures and Materials HPSM/OPTI 2020, 3-5 June 2020, Prague, Czech Republic, 11 pp.
Acaban de publicarnos un artículo en la revista Advances in Civil Engineering, revista indexada en el JCR. Se trata de un artículo de revisión del estado del arte de los puentes mixtos de hormigón y acero desde los puntos de vista del diseño, análisis del ciclo de vida, mantenimiento y toma de decisiones. El trabajo se enmarca dentro del proyecto de investigación DIMALIFE que dirijo como investigador principal en la Universitat Politècnica de València.
Los puentes mixtos de acero y hormigón se utilizan como alternativa a los puentes de hormigón debido a su capacidad de adaptar su geometría a las limitaciones de diseño y a la posibilidad de reutilizar algunos de los materiales de la estructura. En esta revisión del estado del arte, informamos de la investigación realizada sobre el diseño, el comportamiento, la optimización, los procesos de construcción, el mantenimiento, la evaluación del impacto y las técnicas de toma de decisiones de los puentes mixtos para llegar a un enfoque de diseño completo. Además de un análisis cualitativo, se utiliza un análisis multivariante para identificar las lagunas de conocimiento relacionadas con el diseño de los puentes y para detectar las tendencias de la investigación. Un objetivo adicional es hacer visibles las lagunas en el diseño sostenible de los puentes mixtos, lo que permite centrar los futuros estudios de investigación. Los resultados de esta labor muestran cómo la investigación se ha centrado en el diseño preliminar de puentes con un enfoque principalmente económico, mientras que a nivel mundial la preocupación se dirige a la búsqueda de soluciones sostenibles. Se ha comprobado que las estrategias de evaluación del impacto del ciclo de vida y de adopción de decisiones permiten a los gestores de los puentes mejorar la adopción de decisiones, en particular al final del ciclo de vida de los puentes mixtos.
Abstract
Steel-concrete composite bridges are used as an alternative to concrete bridges because of their ability to adapt their geometry to design constraints and the possibility of reusing some of the materials in the structure. In this review, we report the research carried out on the design, behavior, optimization, construction processes, maintenance, impact assessment, and decision-making techniques of composite bridges in order to arrive at a complete design approach. In addition to a qualitative analysis, a multivariate analysis is used to identify knowledge gaps related to bridge design and to detect trends in research. An additional objective is to make visible the gaps in the sustainable design of composite steel-concrete bridges, which allows us to focus on future research studies. The results of this work show how researchers have concentrated their studies on the preliminary design of bridges with a mainly economic approach, while at a global level, concern is directed towards the search for sustainable solutions. It is found that life cycle impact assessment and decision-making strategies allow bridge managers to improve decision-making, particularly at the end of the life cycle of composite bridges.
Reference:
MARTÍNEZ-MUÑOZ, D.; MARTÍ, J.V.; YEPES, V. (2020). Steel-concrete composite bridges: design, life cycle assessment, maintenance and decision making.Advances in Civil Engineering, 2020, 8823370. DOI:10.1155/2020/8823370
Acaban de publicarnos un artículo en la revista Mathematics, revista indexada en el primer cuartil del JCR. En este artículo se presenta un algoritmo híbrido de enjambre de partículas y clustering para optimizar el coste y las emisiones de CO2 de un muro de contrafuertes. El trabajo se enmarca dentro del proyecto de investigación DIMALIFE que dirijo como investigador principal en la Universitat Politècnica de València.
El diseño de los muros de contrafuertes es un problema de optimización combinatoria de interés debido a las aplicaciones prácticas relativas al ahorro de costos que implica el diseño y la optimización en la cantidad de emisiones de CO2 generadas en su construcción. Por otro lado, este problema presenta importantes retos en cuanto a complejidad computacional, pues involucra 32 variables de diseño, por lo que tenemos en el orden de 10^20 combinaciones posibles. En este artículo proponemos un algoritmo híbrido en el que se integra el método de optimización del enjambre de partículas que resuelve los problemas de optimización en espacios continuos con la técnica de clustering db-scan. Este algoritmo optimiza dos funciones objetivo: las emisiones de carbono y el costo económico de los muros de hormigón armado. Para evaluar la contribución del operador del db-scan en el proceso de optimización, se diseñó un operador aleatorio. Se comparan las mejores soluciones, los promedios y los rangos intercuartílicos de las distribuciones obtenidas. A continuación se comparó el algoritmo db-scan con una versión híbrida que utiliza k-means como método de discretización y con una implementación discreta del algoritmo de búsqueda de armonía. Los resultados indican que el operador db-scan mejora significativamente la calidad de las soluciones y que la metaheurística propuesta muestra resultados competitivos con respecto al algoritmo de búsqueda de armonía.
Abstract:
The design of reinforced earth retaining walls is a combinatorial optimization problem of interest due to practical applications regarding the cost savings involved in the design and the optimization in the amount of CO2 emissions generated in its construction. On the other hand, this problem presents important challenges in computational complexity since it involves 32 design variables; therefore we have in the order of 10^20 possible combinations. In this article, we propose a hybrid algorithm in which the particle swarm optimization method is integrated that solves optimization problems in continuous spaces with the db-scan clustering technique, with the aim of addressing the combinatorial problem of the design of reinforced earth retaining walls. This algorithm optimizes two objective functions: the carbon emissions embedded and the economic cost of reinforced concrete walls. To assess the contribution of the db-scan operator in the optimization process, a random operator was designed. The best solutions, the averages, and the interquartile ranges of the obtained distributions are compared. The db-scan algorithm was then compared with a hybrid version that uses k-means as the discretization method and with a discrete implementation of the harmony search algorithm. The results indicate that the db-scan operator significantly improves the quality of the solutions and that the proposed metaheuristic shows competitive results with respect to the harmony search algorithm.
Keywords:
CO2 emission; earth-retaining walls; optimization; db-scan; particle swarm optimization
Acaban de publicarnos un artículo en la revista Sustainability, revista indexada en JCR. En este artículo se evalúa el impacto social y ambiental de puentes de carretera óptimos de hormigón postesado. El trabajo se enmarca dentro del proyecto de investigación DIMALIFE que dirijo como investigador principal en la Universitat Politècnica de València.
La mayoría de las definiciones de sostenibilidad incluyen tres pilares básicos: económico, ambiental y social. El aspecto económico siempre se evalúa, pero no necesariamente en el sentido de la sostenibilidad económica. Por otra parte, el aspecto ambiental se está considerando cada vez más, mientras que el pilar social apenas se ha trabajado en él. Centrándose en los pilares ambiental y social, resulta crucial el uso de metodologías que permitan una evaluación amplia de todos los aspectos y la integración de la evaluación en unos pocos indicadores que sean comprensibles. Este artículo se estructura en dos partes. En la primera parte se hace un examen de los métodos de evaluación del impacto del ciclo de vida, que permiten una evaluación amplia de los aspectos ambiental y social. En la segunda parte, se realiza una evaluación completa de la sostenibilidad ambiental y social utilizando la base de datos de ecoinvent y el método ReCiPe, para el pilar ambiental, y la base de datos SOCA y el método simple de ponderación del impacto social, para el pilar social. Esta metodología se utilizó para comparar tres puentes optimizados: dos puentes de carretera de hormigón postensado de sección en cajón con diversas características iniciales y de mantenimiento, y un puente prefabricado de hormigón pretensado. Los resultados muestran que existe una alta interrelación entre el impacto ambiental y social para cada etapa del ciclo de vida.
Abstract
Most of the definitions of sustainability include three basic pillars: economic, environmental, and social. The economic pillar has always been evaluated but not necessarily in the sense of economic sustainability. On the other hand, the environmental pillar is increasingly being considered, while the social pillar is weakly developed. Focusing on the environmental and social pillars, the use of methodologies to allow a wide assessment of these pillars and the integration of the assessment in a few understandable indicators is crucial. This article is structured into two parts. In the first part, a review of life cycle impact assessment methods, which allow a comprehensive assessment of the environmental and social pillars, is carried out. In the second part, a complete environmental and social sustainability assessment is made using the ecoinvent database and ReCiPe method, for the environmental pillar, and SOCA database and simple Social Impact Weighting method, for the social pillar. This methodology was used to compare three optimized bridges: two box-section post-tensioned concrete road bridges with a variety of initial and maintenance characteristics, and a pre-stressed concrete precast bridge. The results show that there is a high interrelation between the environmental and social impact for each life cycle stage.
Nuestro grupo de investigación está muy orgulloso y es muy afortunado de contar con visitas y estancias de otros profesores, de gran prestigio internacional, que vienen a trabajar y compartir experiencias en la Universitat Politècnica de València. Si en entradas anteriores hablé de la estancia del profesor Dan M. Frangopol, de la visita del profesor Gizo Parskhaladze, y de la estancia de investigación del profesor Moacir Kripka , ahora me toca hablar de la estancia que ha tenido con nosotros el profesor José Antonio García Conejeros en el ICITECH. Estuvo con nosotros durante su «verano» austral, y se fue justo antes de que se declarara el estado de alarma en España por el coronavirus.
Tuve la ocasión de conocer a José Antonio con motivo de mi visita a la Pontificia Universidad Católica de Valparaíso (Chile), en mayo de 2019. Allí tuve la ocasión de impartir varias conferencias sobre optimización y toma de decisiones en puentes e infraestructuras viarias. Fruto de esta colaboración, a parte de los relacionados con la investigación, se extienden al futuro intercambio de estudiantes y profesorado entre nuestras respectivas universidades y en la participación conjunta en proyectos de investigación y de transferencia tecnológica. En las referencias os dejo tres artículos que hemos publicado como consecuencia de su estancia. Seguro que vendrán muchos más. Todo un verdadero placer.
¿Cuáles fueron los motivos de su estadía académica en la ciudad de Valencia?
El principal motivo fue realizar una colaboración con el equipo de investigación de Ingeniero de Caminos, Canales y Puertos, de la Universidad Politécnica de Valencia. Este equipo encabezado por el Dr. Víctor Yepes, tiene una gran experiencia en todo lo que es estructuras de caminos, canales y puentes. Y por mi lado yo tengo una experiencia académica e industrial en el área de inteligencia artificial. Entonces el objetivo es integrar ambos mundos, para resolver un problema complejo.
¿Podría detallarnos las actividades académicas o de investigación realizadas allá?
Las actividades académicas en la primera semana fueron de reuniones donde definimos un problema a trabajar. Posteriormente yo realicé una propuesta de cómo utilizar métodos de optimización para abordar un problema de sustentabilidad. Las semanas siguientes fueron de trabajo técnico donde se resolvió el problema obtuve los resultados y los discutimos par ver la calidad y la pertinencia de publicarlos.
¿De qué manera continuará el trabajo realizado allá?
El trabajo continúa en dos líneas. La primera es generar publicaciones en conjunto, la escuela de ingeniería en construcción PUCV y el grupo de Víctor. La segunda es potenciar el capital Humano avanzado, tanto con académicos o alumnos de allá que vengan a realizar estadías acá, y alumnos de la PUCV que vayan a potencias sus capacidades al grupo de Víctor.
¿Algo más que desee agregar?
La estadía fue bastante constructiva ya que me permitió entrar en una nueva línea de investigación en sustentabilidad y también decir que nos aprobaron el articulo de investigación “Black hole algorithm for sustainable design of counterfort retaining walls.” en Sustainability, que es una revista ISI-SCIE.