Los algoritmos genéticos

Charles Darwin en una fotografía tomada por J.M. Cameron en 1869.

Resulta fascinante comprobar cómo, aplicando los mecanismos básicos de la evolución ya descritos por Darwin en su obra fundamental, El origen de las especies por medio de la selección natural, o la preservación de las razas preferidas en la lucha por la vida, publicada en 1859, se pueden generar algoritmos capaces de optimizar problemas complejos. Este tipo de metaheurísticas inspiradas en la naturaleza ya se comentaron en artículos anteriores cuando hablamos de la optimización por colonias de hormigas o de la cristalización simulada. Aunque es un algoritmo ampliamente conocido en la comunidad científica, voy a intentar dar un par de pinceladas con el único afán de divulgar esta técnica. La verdad es que las implicaciones filosóficas que subyacen a la teoría de Darwin son de una profundidad difícil de comprender cuando se llevan a sus últimas consecuencias. Pero el caso es que estos algoritmos funcionan perfectamente en la optimización de estructuras de hormigón, problemas de transporte y otros problemas difíciles de optimización combinatoria.

Para quienes estén interesados, os paso en las referencias un par de artículos en los que hemos aplicado los algoritmos genéticos para optimizar rutas de transporte aéreo o pilas de puente huecas de hormigón armado.

Sin embargo, para aquellos que queráis un buen libro para pensar, os recomiendo «La peligrosa idea de Darwin», de Daniel C. Dennett. A más de uno le hará quitar los cimientos más profundos de sus creencias. Os paso la referencia al final.

Básicamente, los algoritmos genéticos, o “Genetic Algorithms” (GA), simulan el proceso de evolución de las especies que se reproducen sexualmente. De manera muy general, se puede decir que en la evolución de los seres vivos, el problema al que cada individuo se enfrenta diariamente es el de la supervivencia. Para ello, cuenta, entre otras, con las habilidades innatas provistas por su material genético. A nivel de los genes, el problema consiste en buscar adaptaciones beneficiosas en un medio hostil y cambiante. Debido, en parte, a la selección natural, cada especie gana cierta “información” que se incorpora a sus cromosomas.

Durante la reproducción sexual, un nuevo individuo, diferente de sus padres, se genera mediante dos mecanismos fundamentales: el primero es el cruzamiento, que combina parte del patrimonio genético de cada progenitor para elaborar el del nuevo individuo; el segundo es la mutación, que supone una modificación espontánea de esta información genética. La descendencia será diferente de los progenitores, pero conservará parte de sus características. Si los hijos heredan buenos atributos de sus padres, su probabilidad de supervivencia será mayor que la de aquellos que no los tengan. De este modo, los mejores tendrán altas probabilidades de reproducirse y de transmitir su información genética a sus descendientes.

Holland (1975) estableció por primera vez una metaheurística basada en la analogía genética. Un individuo puede asociarse a una solución factible del problema, de modo que pueda codificarse como un vector binario “string”. Entonces, un operador de cruzamiento intercambia las cadenas de los padres para producir un hijo. La mutación se configura como un operador secundario que cambia, con una probabilidad pequeña, algunos elementos del vector hijo. La aptitud del nuevo vector creado se evalúa según una función objetivo.

Los pasos a seguir con esta metaheurística serían los siguientes:

  1. Generar una población de vectores (individuos).
  2. Mientras no se encuentre un criterio de parada:
    1. Seleccionar un conjunto de vectores padres que serán reemplazados por la población.
    2. Emparejar aleatoriamente a los progenitores y cruzarlos para obtener unos vectores hijos.
    3. Aplicar una mutación a cada descendiente.
    4. Evaluar a los hijos.
    5. Introducir a los hijos en la población.
    6. Eliminar a los individuos menos eficaces.

Normalmente este proceso finaliza después de un número determinado de generaciones o cuando la población ya no puede mejorar. La selección de los padres se realiza de forma probabilística hacia los individuos más aptos. Al igual que ocurre en la naturaleza, los sujetos con mayor aptitud difunden sus características a lo largo de toda la población.

Esta descripción de los GA se adapta a cada situación concreta, siendo habitual la codificación en números enteros en lugar de binaria. Del mismo modo, se han sofisticado los distintos operadores de cruzamiento y de mutación.

Os dejo a continuación un vídeo explicativo que he elaborado para mis clases de «Modelos predictivos y de optimización heurística de estructuras de hormigón«, del Máster Universitario en Ingeniería del Hormigón, de la Universitat Politècnica de València.

Referencias:

DENNETT, D.C. (1999). La peligrosa idea de Darwin. Galaxia Gutenberg. Círculo de Lectores, Barcelona.

HOLLAND, J.H. (1975). Adaptation in natural and artificial systems. University of Michigan Press, Ann Arbor.

MARTÍNEZ, F.J.; GONZÁLEZ-VIDOSA, F.; HOSPITALER, A.; YEPES, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88: 375-386. ISSN: 0045-7949.  (link)

MEDINA, J.R.; YEPES, V. (2003). Optimization of touristic distribution networks using genetic algorithms. Statistics and Operations Research Transactions, 27(1): 95-112.  ISSN: 1696-2281.  (pdf)

PONZ-TIENDA, J.L.; YEPES, V.; PELLICER, E.; MORENO-FLORES, J. (2013). The resource leveling problem with multiple resources using an adaptive genetic algorithm. Automation in Construction, 29(1):161-172. DOI:http://dx.doi.org/10.1016/j.autcon.2012.10.003. (link)

YEPES, V. (2003). Apuntes de optimización heurística en ingeniería. Editorial de la Universidad Politécnica de Valencia. Ref. 2003.249. Valencia, 266 pp. Depósito legal: V-2720-2003.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Tablas de contingencia aplicadas al hormigón

Figura 1. ¿Depende la calidad del hormigón de un proveedor determinado?

En ocasiones nos encontramos con un par de variables cualitativas que, a priori, no sabemos si están relacionadas entre sí o si pertenecen a una misma población estadística. Recordemos que las variables cualitativas son aquellas cuyo resultado es un valor o categoría de entre un conjunto finito de respuestas (tipo de defecto, nombre del proveedor, color, etc.).

En el ámbito del hormigón, por ejemplo, podríamos tener varios proveedores de hormigón preparado en central y un control del número de cubas-hormigonera aceptadas, aceptadas con defectos menores o rechazadas. Otro ejemplo sería contabilizar el tipo de incumplimiento de una tolerancia por parte de un equipo que está encofrando un muro de contención. En estos casos, se trata de determinar si existe dependencia entre los proveedores o los equipos de encofradores respecto de los defectos detectados. Esto sería interesante en el ámbito del control de la calidad para tomar medidas, como pudiese ser descartar a determinados proveedores o mejorar la formación de un equipo de encofradores.

Así, podríamos tener un problema como el siguiente: Teniendo en cuenta el punto 5.6 del Anejo 11 de la EHE, donde se definen las tolerancias de muros de contención y de sótano, se quiere comprobar si tres equipos de encofradores producen de forma homogénea en la ejecución de muros vistos, o, por el contrario, si unos equipos producen más defectos de un tipo que otro. Todos los equipos emplean el mismo tipo de encofrado. Las tolerancias que deben cumplirse son:

1. Desviación respecto a la vertical
2. Espesor del alzado
3. Desviación relativa de las superficies planas de intradós o de trasdós
4. Desviación de nivel de la arista superior del intradós, en muros vistos
5. Tolerancia de acabado de la cara superior del alzado, en muros vistos

Los equipos han estado trabajando durante un año ejecutando este tipo de unidad de obra. Durante este tiempo el número de defectos en relación con la tolerancia dimensional ha sido pequeño, pero se han contabilizado 375 defectos. El control de calidad ha dado como resultado el conteo de la tabla de la Figura 2.

Figura 2. Conteo de incumplimientos según el equipo de encofradores. En paréntesis figura el valor esperado.

En la Figura 2 se ha representado también la frecuencia esperada para cada uno de los casos. Por ejemplo, la fracción esperada del incumplimiento «1» es de 89/375, mientras que la fracción esperada de defectos del equipo A es de 150/375. Ello implica que el valor esperado de incumplimientos del tipo «1» para el equipo de encofradores «A» sería: (89/375)·(150/375)·375=89·150/375=35,60.

La pregunta que nos podríamos hacer es la siguiente: ¿Influye el tipo de proveedor en la calidad de la recepción del hormigón? Para ello plantearíamos la hipótesis nula: el tipo de proveedor no influye en la calidad de la recepción del hormigón. La hipótesis alternativa sería que sí existe dicha influencia o dependencia entre las variables cualitativas.

Para ello, necesitamos una prueba estadística; en este caso, la prueba χ². El fundamento de la prueba χ² es comparar la tabla de las frecuencias observadas respecto a la de las frecuencias esperadas (que sería la que esperaríamos encontrar si las variables fueran estadísticamente independientes o no estuvieran relacionadas). Esta prueba permite obtener un p-valor (probabilidad de equivocarnos si rechazamos la hipótesis nula) que podremos contrastar con el nivel de confianza que determinemos. Normalmente el umbral utilizado es de 0,05. De esta forma, si p < 0,05, se rechaza la hipótesis nula y, por tanto, diremos que las variables son dependientes. Dicho con mayor precisión, en este caso no existe un nivel de significación suficiente que respalde la independencia de las variables.

Las conclusiones que se obtienen de la prueba son sencillas de interpretar. Si no existe mucha diferencia entre los valores observados y los esperados, no hay razones para dudar de que las variables sean independientes.

No obstante, hay algunos problemas con la prueba χ², entre ellos el relacionado con el tamaño muestral. A mayor número de casos analizados, el valor de la χ² tiende a aumentar. Es decir, si la muestra es excesivamente grande, será más fácil que rechacemos la hipótesis nula de independencia, cuando a lo mejor podrían ser las variables independientes.

Por otra parte, cada una de las celdas de la tabla de contingencia debería contar con un mínimo de 5 observaciones esperadas. Si no fuera así, podríamos agrupar filas o columnas (excepto en tablas 2×2). También se podría eliminar la fila que muestra una frecuencia esperada menor que 5.

Por último, no hay que abusar de la prueba χ². Por ejemplo, podríamos tener una variable numérica, como la resistencia característica del hormigón, y agruparla en una variable categórica en grupos como 25, 30, 35, 40, 45 y 50 MPa. Lo correcto cuando tenemos una escala numérica es aplicar la prueba t de Student; es incorrecto convertirla en una escala ordinal o incluso binaria.

A continuación os dejo el problema anterior resuelto, tanto con el programa SPSS como con MINITAB.

Pincha aquí para descargar

Os dejo un par de vídeos explicativos, que espero os sean de interés.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Cuál es el mejor algoritmo para optimizar un problema? «No free lunch»

Figura 1. Desgraciadamente, no existe comida gratis. https://medium.com/@LeonFedden/the-no-free-lunch-theorem-62ae2c3ed10c

Después de años impartiendo docencia en asignaturas relacionadas con la optimización heurística de estructuras de hormigón, y tras muchos artículos científicos publicados y más aún en los que he sido revisor de artículos de otros grupos de investigación, siempre se plantea la misma pregunta: De todos los algoritmos que utilizamos para optimizar, ¿cuál es el mejor? ¿Por qué dice en su artículo que su algoritmo es el mejor para este problema? ¿Por qué no nos ponemos de acuerdo?

Para resolver esta cuestión, dos investigadores norteamericanos, David Wolpert y William Macready, publicaron en 1997 un artículo en el que establecieron un teorema denominado «No free lunch«, que, traducido, sería algo así como «no hay comida gratis». Dicho teorema establece que, por cada par de algoritmos de búsqueda, hay tantos problemas en los que el primer algoritmo es mejor que el segundo como problemas en los que el segundo algoritmo es mejor que el primero.

Este teorema revolucionó la forma de entender el rendimiento de los algoritmos. Incluso una búsqueda aleatoria en el espacio de soluciones podría dar mejores resultados que cualquier algoritmo de búsqueda. La conclusión es que no existe un algoritmo que sea universalmente mejor que los demás, pues siempre habrá casos en los que funcione peor que otros, lo que significa que todos ellos se comportarán igual de bien (o de mal) en promedio.

De hecho, podría decirse que un experto en algoritmos genéticos podría diseñar un algoritmo genético más eficiente que, por ejemplo, un recocido simulado, y viceversa. Aquí el arte y la experiencia en un problema y en una familia de algoritmos determinados suelen ser decisivos. En la Figura 2 se puede ver cómo un algoritmo muy especializado, que conoce bien el problema, puede mejorar su rendimiento, pero pierde la generalidad para usarse en cualquier tipo de problema de optimización distinto del que se diseñó.

Figura 2. El uso del conocimiento del problema puede mejorar el rendimiento, pero a costa de la generalidad. https://medium.com/@LeonFedden/the-no-free-lunch-theorem-62ae2c3ed10c

¿Qué consecuencias obtenemos de este teorema? Lo primero, una gran decepción, pues hay que abandonar la idea del algoritmo inteligente capaz de optimizar cualquier problema. Lo segundo, que es necesario incorporar en el algoritmo cierto conocimiento específico del problema, lo cual equivale a una «carrera armamentística» para cada problema de optimización. Se escriben y escribirán miles de artículos científicos en los que un investigador demuestre que su algoritmo es mejor que otro para un determinado problema.

Una forma de resolver este asunto de incorporar conocimiento específico del problema es el uso de la inteligencia artificial en apoyo de las metaheurísticas. Nuestro grupo de investigación está abriendo puertas en este sentido, incorporando «deep learning» en el diseño de algoritmos (Yepes et al., 2020; García et al., 2020a; 2020b) o bien redes neuronales (García-Segura et al., 2017). Incluso, en este momento, me encuentro como editor de un número especial de la revista Mathematics (primer decil del JCR) denominado: “Deep Learning and Hybrid-Metaheuristics: Novel Engineering Applications”, al cual os invito a enviar vuestros trabajos de investigación.

Si nos centramos en un tipo de problema determinado, por ejemplo, la optimización de estructuras (puentes, pórticos de edificación, muros, etc.), el teorema nos indica que necesitamos gente formada y creativa para optimizar el problema concreto al que nos enfrentamos. Es por ello que no existen programas comerciales eficientes capaces de adaptarse a cualquier estructura para optimizarla. Tampoco son eficientes las herramientas generales, «tools», que ofrecen algunos programas, como Matlab, para su uso inmediato e indiscriminado.

Por tanto, no se podrá elegir entre dos algoritmos solo basándose en el buen desempeño que obtuvieron anteriormente en un problema determinado, pues en el siguiente problema pueden optimizar de forma deficiente. Por tanto, se exige conocimiento intrínseco de cada problema para optimizarlo. Es por ello que, por ejemplo, un experto matemático o informático no puede, sin más, dedicarse a optimizar puentes atirantados.

Referencias:

GARCÍA, J.; YEPES, V.; MARTÍ, J.V. (2020a). A hybrid k-means cuckoo search algorithm applied to the counterfort retaining walls problem. Mathematics,  8(4), 555.

GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2020b). The buttressed  walls problem: An application of a hybrid clustering particle swarm optimization algorithm. Mathematics,  8(6):862.

GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M. (2017). Multi-Objective Design of Post-Tensioned Concrete Road Bridges Using Artificial Neural Networks. Structural and Multidisciplinary Optimization, 56(1):139-150.

WOLPERT, D.H.; MACREADY, W.G. (1997). No Free Lunch Theorems for Optimization. IEEE Transactions on Evolutionary Computation, 1(1):67-82.

YEPES, V.; MARTÍ, J.V.; GARCÍA, J. (2020). Black hole algorithm for sustainable design of counterfort retaining walls. Sustainability, 12(7), 2767.

A continuación os dejo el artículo original «No Free Lunch Theorems for Optimization». Se ha convertido en un clásico en optimización heurística.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

«Fake engineering». ¿Es oro todo lo que reluce en internet?

Figura 1. https://nationalpost.com/news/toronto/historic-home-perched-five-storeys-above-solid-ground-so-50-storey-condo-can-rise-behind-19th-century-dwelling

Todos los días vemos miles de imágenes en internet. Un buen número de ellas son montajes que buscan llamar la atención para atraer visitas y aumentar los ingresos por publicidad. La ingeniería no se libra de este tipo de fenómenos.

En la Figura 1 podéis observar una imagen que, a priori, resulta espectacular. Pero para un ingeniero supone un rompecabezas, pues resulta muy complicado ejecutar pilotes justo debajo de un edificio. Es la típica fotografía que utilizo para que mis estudiantes piensen un poco en cómo se ha podido realizar este procedimiento constructivo. Muchas veces la respuesta es correcta: es un montaje. Sin embargo, no es este el caso.

En este caso, la pregunta me la hizo Marcos Barjola. La respuesta no es nada fácil a priori. No obstante, al buscar en internet, uno puede encontrar una nota de prensa fechada en Toronto que trata de este caso.

Se trata de una noticia de 2014. El titular decía lo siguiente: «Una casa histórica encaramada a cinco pisos sobre tierra firme para que un condominio de 50 pisos se levante detrás de una vivienda del siglo XIX». Además, se añadía lo siguiente: «Hay pocas posibilidades de que los ocupantes originales de la Casa John Irwin pudieran imaginar lo que pasaría con su vivienda dentro de 141 años».

La solución fue ingeniosa y, ciertamente, costosa. Se desplazó la vivienda, se ejecutaron los pilotes y la viga riostra, y se volvió a situar la vivienda sobre la estructura. Sin embargo, se trataba de salvar un edificio de dos plantas, construido en 1873, único en ser una de las últimas casas del siglo XIX que aún existen en el centro de Toronto.

Este tipo de noticias suele dar pie a muchas reflexiones ingenieriles. Un ejemplo es la Figura 2. ¿Se trata de un montaje? ¿Es posible que la foto sea real? Os dejo la pregunta abierta para que penséis por un rato.

Figura 2. ¿Es posible? ¿Es fotomontaje?

 

Open Access Book: Optimization for Decision Making

Tengo el placer de compartir con todos vosotros, de forma totalmente abierta, un libro que he editado junto con el profesor de la Universidad de Zaragoza, José María Moreno Jiménez. La labor de editar libros científicos es una oportunidad para seleccionar a los autores y temas que destacan en un ámbito determinado. En este caso, la optimización de la toma de decisiones.

Además, resulta gratificante ver que el libro se encuentra editado en abierto, por lo que cualquiera de vosotros os lo podéis descargar sin ningún tipo de problema en esta entrada del blog. También os lo podéis descargar, o incluso pedirlo en papel, en la página web de la editorial MPDI: https://www.mdpi.com/books/pdfview/book/2958

Referencia:

YEPES, V.; MORENO-JIMÉNEZ, J.M. (Eds.) (2020). Optimization for Decision Making. MPDI, 277 pp., Basel, Switzerland. ISBN: 978-3-03943-221-9

Preface to ”Optimization for Decision Making”

Decision-making is one of the distinctive activities of the human being; it is an indication of the degree of evolution, cognition, and freedom of the species. Until the end of the 20th century, scientific decision-making was based on the paradigms of substantive rationality (normative approach) and procedural rationality (descriptive approach). Since the beginning of the 21st century and the advent of the Knowledge Society, decision-making has been enriched with new constructivist, evolutionary, and cognitive paradigms that aim to respond to new challenges and needs; especially the integration into formal models of the intangible, subjective, and emotional aspects associated with the human factor, and the participation in decision-making processes of spatially distributed multiple actors that intervene in a synchronous or asynchronous manner. To help address and resolve these types of questions, this book comprises 13 chapters that present a series of decision models, methods, and techniques, along with their practical applications in economics, engineering, and the social sciences. The chapters collect the papers included in the “Optimization for Decision Making” Special Issue of the Mathematics journal (2019, 7(3)), ranked in the first decile of the JCR 2019 in the Mathematics category. We would like to thank both the MDPI publishing editorial team for their excellent work and the 47 authors who have collaborated in its preparation. The papers cover a wide spectrum of issues related to the scientific resolution of problems, in particular decision-making, optimization, metaheuristics, simulation, and multi-criteria decision-making. We hope that the papers, with their undoubted mathematical content, can be of use to academics and professionals from the many branches of knowledge (philosophy, psychology, economics, mathematics, decision science, computer science, artificial intelligence, neuroscience, and more) that have, from such diverse perspectives, approached the study of decision-making, an essential aspect of human life and development.

Víctor Yepes, José María Moreno-Jiménez
Editors

About the Editors

Víctor Yepes, Full Professor of Construction Engineering, holds a Ph.D. degree in civil engineering. He serves at the Department of Construction Engineering, Universitat Politecnica de Valencia, Valencia, Spain. He has been the Academic Director of the M.S. studies in concrete materials and structures since 2007 and a Member of the Concrete Science and Technology Institute (ICITECH). He is currently involved in several projects related to the optimization and life-cycle assessment
of concrete structures as well as optimization models for infrastructure asset management. He is currently teaching courses in construction methods, innovation, and quality management. He authored more than 250 journal and conference papers, including more than 100 published in a journal listed in JCR. He acted as an Expert in the evaluation of project proposals for the Spanish Ministry of Technology and Science, and he is the Main Researcher on many projects. He currently serves as the Editor-in-Chief of the International Journal of Construction Engineering and Management and a member of the editorial board of 12 international journals (Structure & Infrastructure Engineering, Structural Engineering and Mechanics, Mathematics, Sustainability, Revista de la Construcción, Advances in Civil Engineering, and Advances in Concrete Construction, among others).

José María Moreno-Jiménez, Full Professor of Operations Research and Multicriteria Decision Making, received degrees in mathematics and economics, as well as a Ph.D. in applied mathematics, from the University of Zaragoza, Spain, where he has been teaching since 1980–1981. He has been the Head of the Quantitative Methods Area in the Faculty of Economics and Business of the University of Zaragoza from 1997, the Chair of the Zaragoza Multicriteria Decision Making Group from 1996, a member of the Advisory Board of the Euro Working Group on Decision Support Systems from 2017, and an Honorary Member of the International Society on Applied Economics ASEPELT from 2019. He has also been the President of this international scientific society (2014–2018) and the Coordinator of the Spanish Multicriteria Decision Making Group (2012–2015). His research interests are in the general area of Operations Research theory and practice, with an emphasis on multicriteria decision making, electronic democracy/cognocracy, performance analysis, and industrial and technological diversification. He has published more than 250 papers in leading scientific journals and books, and is a member of the Editorial Board of several national and international journals.

Pincha aquí para descargar

Instrucciones básicas de Matlab para tratamiento estadístico de datos

Dejo a continuación una serie de instrucciones básicas que podéis utilizar en Matlab para realizar cálculos estadísticos básicos. Este post está dedicado a mis estudiantes de Modelos Predictivos y de Optimización de Estructuras de Hormigón, pero puede ser de interés, por lo que lo dejo en abierto.

Importar datos de un fichero Excel

>> datos=xlsread(‘Ejercicio 4’)

Número de filas y columnas

>> size(datos)

Dimensión más grande de una matriz

>> length(datos)

Ordena los elementos de forma ascendente

>> sort(datos)

Ordena los elementos de forma descendente

>> sort(datos,’descend’)

Suma de los datos

>> sum(datos)

Producto de los datos

>> prod(datos)

Vector de sumas acumuladas

>> cumsum(datos)

Vector de productos acumulados

>> cumprod(datos)

Calcular la media aritmética

>> mean(datos)

Calcular la mediana

>> median(datos)

Calcular la moda de la muestra

>> mode(datos)

Calcular la media aritmética omitiendo el 5% de datos de cada lado

>> trimmean(datos,10)

Calcular la media geométrica de una muestra

>> geomean(datos)

Calcular la media armónica de una muestra

>> harmmean(datos)

Calcular el sesgo de la muestra

>> skewness(datos)

Calcular la curtosis de los datos

>> kurtosis(datos)

Varianza muestral

>> var(datos)

Desviación estándar muestral

>> std(datos)

 

Rango de los datos

>> range(datos)

El menor valor

>> min(datos)

El mayor valor

>> max(datos)

Desviación absoluta respecto a la media

>> mad(datos)

Momento central de orden 3 respecto a la media

>> moment(datos,3)

Rango intercuartílico

>> iqr(datos)

Primer cuartil (percentil 25)

>> prctile(datos, 25)

Percentil del 5%

>> prctile(datos,5)

Dibujar un diagrama de caja

>> boxplot(datos)

Dibujar el histograma de datos

>> hist(datos)

Dibujar la distribución de frecuencia acumulada

>> cdfplot(datos)

Visualización de funciones de probabilidad

>> disttool

Ajuste de modelos de distribución a conjunto de datos

>> dfittool

Matriz 3×3 de números aleatorios entre 0 y 1

>> rand(3)

Matriz 3×2 de números aleatorios entre 0 y 1

>> rand(3,2)

Matriz 3×3 de números aleatorios normales de media 0 y varianza 1

>> randn(3)

Matriz 3×2 de números aleatorios normales de media 0 y varianza 1

>> randn(3,2)

Secuencia de 5 valores aleatorios normales de desviación estándar de 2,5 y media 3

>> rand(1,5)*2.5+3

 

Toma de decisiones multicriterio en el análisis sostenible del ciclo de vida de los puentes

Acaban de publicarnos un artículo en la revista Journal of Civil Engineering and Management, indexada en Q2 del JCR. Se trata de una revisión del estado del arte sobre la toma de decisiones multicriterio en el análisis sostenible del ciclo de vida de los puentes.

El trabajo se enmarca en el proyecto de investigación DIMALIFE, que dirijo como investigador principal en la Universitat Politècnica de València.

El diseño sostenible de las infraestructuras se ha convertido en un tema de estudio importante desde el reciente establecimiento de la Agenda 2030. En este artículo se ofrece una revisión sistemática de la bibliografía sobre el uso de técnicas de toma de decisiones basadas en criterios múltiples aplicadas hasta ahora al proyecto sostenible de puentes. También se presta especial atención a la forma en que los estudios evalúan el comportamiento sostenible de los diseños de los puentes a lo largo de su ciclo de vida desde las perspectivas económicas, ambientales y sociales. Aunque SAW y AHP se utilizan de manera recurrente en la evaluación sostenible de los puentes, el análisis de los artículos más recientes muestra que la aplicación de las técnicas TOPSIS y PROMETHEE está cobrando cada vez más relevancia para tal fin. La mayoría de los estudios se centran en la investigación sobre la construcción y la etapa de mantenimiento de los puentes. Sin embargo, se identifica la necesidad de un análisis más profundo cuando se trata de evaluar los impactos resultantes de la etapa del fin del ciclo vital de los puentes desde un punto de vista sostenible. Se ha detectado el uso de la lógica intuitiva y neutrosófica como alternativas emergentes al enfoque difuso de los problemas de toma de decisiones.

ABSTRACT

Sustainable infrastructure design has become a major area of study since the recent establishment of the Agenda 2030. This paper provides a systematic literature review of the use of multi-criteria decision-making techniques for the sustainable design of bridges. Special attention is also given to how the reviewed studies assess the sustainable performance of bridge designs throughout their life cycles from economic, environmental, and social perspectives. Although SAW and AHP are frequently used in the sustainable assessment of bridges, the analysis of recent articles shows that the application of TOPSIS and PROMETHEE techniques is gaining increasing relevance for this purpose. Most studies focus on the construction and maintenance stages of bridges. However, a need for further analysis is identified in assessing the impacts of bridges’ end-of-life cycle stage from a sustainable perspective. The use of intuitionistic and neutrosophic logic has been detected as an emerging alternative to the fuzzy approach of decision-making problems.

KEYWORDS:

Decision-making, sustainability, bridge design, state-of-the-art, MCDM, life-cycle assessment.

REFERENCE:

NAVARRO, I.J.; PENADÉS-PLÀ, V.; MARTÍNEZ-MUÑOZ, D.; REMPLING, R.; YEPES, V. (2020). Life cycle sustainability assessment for multi-criteria decision making in bridge design: A review. Journal of Civil Engineering and Management, 26(7):690-704. DOI:10.3846/jcem.2020.13598

Pincha aquí para descargar

Métodos modernos de construcción (MMC): fabricación modular

Figura 1. Construcción modular. https://www.draytonfox.com/modern-methods-of-construction/

La construcción modular y la prefabricación son técnicas ya veteranas en el ámbito de la ingeniería civil y la edificación. Desde que en 1936 Eugène Freyssinet construyera el primer puente de hormigón pretensado del mundo, en el que las vigas y los tableros eran prefabricados, la tecnología ha experimentado un avance imparable. Por otra parte, la construcción modular tiene una larga historia en la gestión de la innovación (Simon, 1962). Sin embargo, la auténtica revolución que supone la inteligencia artificial, las tecnologías BIM y los retos de la sostenibilidad está cambiando radicalmente este concepto y lo está llevando a una nueva dimensión. En efecto, estamos ante la revolución de los métodos modernos de construcción. Este es el concepto del que vamos a hablar a continuación.

Los métodos modernos de construcción (Modern Methods of Construction, MMC) , o como algunos llaman «construcción inteligente«, constituyen alternativas a la construcción tradicional. Este concepto de MMC lo utilizó el gobierno del Reino Unido para describir una serie de innovaciones en la construcción de viviendas, la mayoría de las cuales son tecnologías de construcción en fábrica (Gibb, 1999). Es un término que cubre una amplia gama de tecnologías basadas en la fabricación modular, ya sea «in situ» o en otra ubicación, que revolucionan la forma de construir edificios de manera más rápida, rentable y eficiente. También suele llamarse construcción «off-site». Un ejemplo no muy lejano ha sido la construcción de dos hospitales de campaña en Wuhan (China) en tan solo 12 días debido a la epidemia de coronavirus. Por ejemplo, países como Suecia y Japón lideran en la construcción MMC. En Suecia, casi la mitad de las viviendas de nueva construcción utilizan este método, hasta el 80% en el caso de las viviendas unifamiliares. Japón es el país donde se construyen el mayor número de viviendas nuevas con este método, aunque no alcanzan el 20% del total. Incluso podemos leer una noticia de hace unos días en la que el alcalde de Londres apoya decididamente la aplicación del diseño de viviendas modulares.

Los diferentes métodos MMC incluyen el sistema de paneles planos prefabricados, módulos volumétricos 3D (Figuras 1 y 3), construcción con losas planas, paneles de cerramiento prefabricados (Figura 2), muros y forjados de hormigón, tecnología de doble pared (Figura 4), cimientos de hormigón prefabricado, aislamiento de encofrados de hormigón, entre otros. No obstante, la gestión de los sistemas 1D/2D respecto a los volumétricos 3D difiere significativamente (López, 2017).

Tabla 1. Principales diferencias entre los sistemas modulares basados en elementos 1D y 2D frente a celdas 3D (López, 2017)

La reciente norma UNE 127050:2020 trata justamente de los sistemas constructivos industrializados para edificios construidos con elementos prefabricados de hormigón, así como de los requisitos de comportamiento, fabricación, instalación y verificación.

Figura 2. Paneles de cerramiento prefabricados (precast cladding panels). https://www.designingbuildings.co.uk/wiki/Precast_concrete_cladding

Las ventajas de la construcción MMC frente a la tradicional son evidentes. Los módulos permiten un ahorro de tiempo de hasta el 50%, pues se elaboran en fábrica, sin la influencia del clima. Una vez llegan a la obra, se ensamblan, interrumpiendo al mínimo la propia obra, pues el 80% de la actividad de la construcción se ha realizado lejos de ella. Permite el uso de materiales respetuosos con el medio ambiente, reduciendo el desperdicio. Los módulos son de diseño atractivo e innovador, con materiales de elevada calidad, con un diseño a medida del cliente. La construcción en fábrica permite la fabricación con tolerancias estrictas, la reducción de los errores, promueve la seguridad, no estando los materiales a la intemperie durante la construcción. Además, permite el uso de materiales durables, que mejoran el aislamiento acústico, la protección contra incendios y la eficiencia energética. Sin embargo, en algunos países, el uso de las MMC implica costes más elevados que la construcción tradicional. Otras barreras son la falta de mano de obra especializada, la escasez de suministros y la regulación vigente (Rahman, 2014). Con todo, la actual crisis del Covid-19 puede acelerar los cambios necesarios. De todos modos, los métodos MMC constituyen un producto diferente al de la construcción tradicional. La construcción modular, al tratarse de un producto alternativo, en lugar de competir, complementará el mercado tradicional. El objetivo es aumentar la productividad de los recursos disponibles mejorando la calidad, la eficiencia empresarial, la satisfacción del cliente, el rendimiento ambiental, el índice de sostenibilidad y el control de los plazos de entrega (Yepes et al., 2012; Pellicer et al., 2014, 2016).

Figura 3. Módulos volumétricos 3D (3D volumetric modules). http://www.ehu.eus/ehusfera/industrialized-architecture/page/4/

En la siguiente tabla, elaborada por Alejandro López, se pueden ver las diferencias más notables entre la construcción industrializada y la tradicional.

Tabla 2. Diferencias entre la construcción tradicional y la industrializada (Alejandro López).

  Construcción tradicional

Construcción industrializada

Definición Más posibilidades de cambios a lo largo de todo el proceso Etapas claramente definidas, empezando desde el proyecto
Calidad Elementos se manufacturan y/o ejecutan en la propia obra, mayor influencia del error humano (más rechazos) Mayor control (cada pieza tiene su destino), menor influencia del error humano (se sustituyen los albañiles por montadores: la pieza tiene su lugar)
Precisión Se admiten los errores. Las tolerancias se basan en centímetros La precisión dimensional y espacial de los elementos es crucial. Las tolerancias se basan en milímetros
Mano de obra Dependencia casi exclusiva de la capacitación técnica de la mano de obra humana disponible Procesos más automatizados
Coste En origen, normalmente menor. Pero mayor riesgo de imprevistos y desviaciones económicas Precio cerrado en proyecto
Tiempo El mayor grado de indefinición y la mayor interacción entre los distintos agentes provocan desviaciones en tiempo y, por tanto, en costes Mayor grado de cumplimiento en la planificación de la obra, rápida apertura de tajos para otros gremios, menor dependencia de las condiciones climatológicas
Materiales La obra es la fábrica al mismo tiempo. Muchos excedentes de materiales Menor generación de residuos

Una de las claves que acelerará, sin duda, la adopción de los métodos MMC es la introducción de la metodología BIM en los proyectos de edificación o de infraestructuras. En España, las administraciones públicas ya van dando pasos hacia la exigencia de que los proyectos de edificación o de infraestructura se realicen bajo la metodología BIM. Tanto MMC como BIM mejoran claramente la calidad del producto, la sostenibilidad y el servicio a lo largo del ciclo de vida del activo. A este respecto, recomiendo leer la guía BIM para empresas de prefabricados de hormigón (ANDECE, 2020).

En la feria Construmat de Barcelona (mayo de 2019), McKinsey & Company presentó un informe en el que se detalla cómo la tecnología basada en datos podría ayudar a las empresas españolas de infraestructuras a tomar decisiones más inteligentes, reducir el riesgo y mejorar los resultados de los proyectos. Por tanto, BIM, la automatización de procesos, la inteligencia artificial, el Big Data, las tecnologías en la nube o la interacción con Internet de las Cosas suponen la revolución que lanzará definitivamente la construcción inteligente.

Figura 4. Tecnología de doble pared (twin wall technology). https://www.cornishconcrete.co.uk/products/twin-wall/

Dentro de nuestro grupo de investigación estamos trabajando en la tesis doctoral de Antonio Sánchez Garrido sobre este tipo de aspectos. En una de sus primeras publicaciones en revista indexada en el primer decil de JCR (Sánchez-Garrido y Yepes, 2020), se han aplicado técnicas analíticas de toma de decisiones multicriterio (MCDM) y análisis del ciclo de vida, a una tipología de construcción tradicional de una vivienda unifamiliar, y a dos alternativas diferentes basadas en MMC. Se propone un índice de sostenibilidad que incluye atributos tangibles e intangibles, así como factores de incertidumbre y riesgos, y que permite a los promotores priorizar soluciones que aseguren la sostenibilidad económica, social y medioambiental.

Os dejo algunos vídeos sobre esta nueva tecnología.

https://www.youtube.com/watch?v=fZl9Pd0UU_U

Os dejo, como información complementaria, un artículo de Alejandro López de hace apenas tres años, en el que ya se empezaba a vislumbrar un crecimiento exponencial de la construcción modular.

Pincha aquí para descargar

Referencias:

AENOR (2020). UNE 127050:2021. Sistemas constructivos industrializados para edificios construidos a partir de elementos prefabricados de hormigón. Requisitos de comportamiento, fabricación, instalación y verificación.

ANDECE (2020). Guía BIM para empresas de prefabricados de hormigón, 46 pp.

DOWSETT, R.; GREEN, M.; SEXTON, M.; HARTY, C.,2019. Projecting at the project level: MMC supply chain integration roadmap for small house builders. Construction Innovation-England, 19 (2): 193-211.

GIBB, A.G.F. (1999). Offsite Fabrication: Prefabrication, Preassembly and Modularisation, Whittles Publishing, Caithness

PELLICER, E.; YEPES, V.; CORREA, C.L.; ALARCÓN, L.F. (2014). Model for Systematic Innovation in Construction Companies. Journal of Construction Engineering and Management, 140(4):B4014001.

PELLICER, E.; SIERRA, L.A.; YEPES, V. (2016). Appraisal of infrastructure sustainability by graduate students using an active-learning method. Journal of Cleaner Production, 113:884-896.

LÓPEZ, A. (2016). Declaraciones ambientales de productos prefabricados de hormigón. Materiales sostenibles, 46:42-45.

LÓPEZ, A. (2017). Construcción modular en hormigón: una tendencia al alza. Revista Técnica Cemento Hormigón, 980:48-54.

LÓPEZ, A. (2018). Declaraciones ambientales de productos prefabricados de hormigón (y 2ª parte). Ecoconstrucción, 18:24-26.

RAHMAN, M.M. (2014). Barriers of implementing modern methods of construction. Journal of Management in Engineering, 30(1):69-77.

SÁNCHEZ-GARRIDO, A.J.; YEPES, V. (2020). Multi-criteria assessment of alternative sustainable structures for a self-promoted, single-family home. Journal of Cleaner Production, 258: 120556.

SIMON, H.A. (1962). The arquitecture of complexity. Proceedings of the American Philosophical Society, 106(6):467-482.

YEPES, V.; PELLICER, E.; ORTEGA, J.A. (2012). Designing a benchmark indicator for managerial competences in construction at the graduate level. Journal of Professional Issues in Engineering Education and Practice, 138(1): 48-54.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Vigas armadas híbridas de acero

Figura 1. Viga armada de acero. https://www.renedometal.es/

Las vigas armadas son estructuras de acero compuestas por placas soldadas entre sí que conforman sus alas y almas, y se añaden rigidizadores transversales y longitudinales donde sea necesario. El uso de este elemento estructural es habitual en grandes luces o con cargas importantes, donde las vigas laminadas no pueden soportar las tensiones que se generan. Es habitual su empleo en edificación para grandes lucen y también en puentes metálicos para salvar vanos entre 18 y 300 m. En el caso de puentes de ferrocarril o cuando existan grandes cargas, este tipo de vigas compite económicamente por luces entre 15 y 45 m (Marco, 1997).

Un caso muy habitual es la construcción de puentes metálicos mediante técnicas de lanzamiento o de empuje. Durante estos procesos, la viga se encuentra sometida a altos niveles de esfuerzos cortantes y cargas concentradas. Otra fase crítica en la construcción de puentes metálicos mixtos es el vertido de hormigón en los tableros, momento en el que las vigas soportan cargas elevadas hasta que el hormigón endurece y es capaz de soportar sus esfuerzos.

Figura 2. Viga de lanzamiento utilizada en la construcción de un puente sobre el río Colastiné. https://jornadasaie.org.ar/jornadas-aie-anteriores/2014/contenidos/trabajos/005.pdf

La geometría de estas vigas suele hacerse a medida, soldando chapas de acero que dan lugar a secciones en doble T o en cajón. No obstante, la sección doble T suele ser la más habitual, pues normalmente es la más económica al requerir menos soldaduras, lo que permite ejecutarlas de forma automática. No obstante, la sección doble T presenta una menor resistencia a flexiones transversales y a la torsión, en comparación con las secciones en cajón. Además, si las alas son excesivamente esbeltas, se puede presentar una pérdida significativa de su eficacia.

Una forma de reducir el canto de las vigas armadas es emplear aceros de alta resistencia en las partes más solicitadas, que normalmente son las alas en flexión de la viga. En el alma podría utilizarse un acero con un límite elástico menor, pues su misión principal es absorber el cortante. A este tipo de vigas que utilizan diferentes límites elásticas de acero en las chapas de alas y alma, se denominan vigas armadas híbridas.

El uso de aceros de alto o muy alto límite elástico debe cumplir con determinadas características de dureza, ductilidad y soldabilidad para evitar roturas frágiles. En Europa se utilizan aceros de alto límite elástico (HSS) con valores de límite elástico entre 460 y 690 MPa, aunque no son ampliamente utilizados. No obstante, en otros países como Japón, Estados Unidos o Suecia, se utilizan estos aceros HSS desde hace varias décadas.

Según Chacón (2014), la investigación sobre las vigas híbridas comenzó en la década de los 60-70, con foco en la investigación experimental. Durante las décadas de los 80 y 90 bajó el interés en este campo, pero en la década de los 2000 se relanzó la investigación, tanto experimental como numérica.

La ventaja de las vigas armadas híbridas es la disminución del espesor de las chapas de mayor límite elástico, lo que supone una reducción de peso por unidad de longitud de la sección transversal, sin que ello disminuya el canto de la pieza (Chacón, 2014). Sin embargo, la reducción del espesor puede acarrear la disminución de la capacidad de la sección ante otros fenómenos, como es el caso de la inestabilidad. Se debe garantizar un buen comportamiento de las vigas a cortante, estudiando su inestabilidad a cargas concentradas y a pandeo lateral. Por tanto, nos encontramos ante un caso de optimización de gran interés.

En el siguiente vídeo podemos observar la fabricación de una viga carrilera de 50 toneladas.

En este otro vídeo podemos ver el resumen de una campaña de ensayos sobre vigas armadas híbridas de acero realizada en la UPC.

Referencias:

CHACÓN, R. (2014). Vigas armadas híbridas de acero. Estado del conocimiento. Revista Ciencia e Ingeniería, 35(2):95-102.

CHACÓN, R.; ROJAS-BLONVAL, J. E. (2015). Evaluación de la resistencia a abolladura por cortante de vigas armadas híbridas de acero según la norma venezolana COVENIN 1618:1998. Informes de la Construcción, 67(538): e075, doi: http://dx.doi.org/10.3989/ic.13.111.

MARCO, J. (1997). Fundamentos para el cálculo y diseño de estructuras metálicas de acero laminado. Comportamiento del material y esfuerzos básicos. McGraw Hill, Madrid.

TERREROS, A. (2014). Estudio de la interacción flector cortante en vigas híbridas de acero. Tesis de máster, Universitat Politècnica de Catalunya.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

«The asset time bomb»: La bomba de relojería de las infraestructuras, y en particular, de los puentes

Figura 1. Colapso del puente I-35W en Minneapolis. https://thestartupgrowth.com/2019/02/21/structural-health-monitoring-market-driven-by-rapid-expansion-in-the-infrastructure-sector-till-2024/

Una noticia publicada el 9 de diciembre de 2018 en El País, con el siguiente titular: “Fomento admite que hay 66 puentes con graves problemas de seguridad”, suscitó cierta inquietud en la opinión pública sobre la seguridad de nuestros puentes. Esta inquietud irrumpió en agosto de ese mismo año con el derrumbe de un puente en Génova (Italia). Pero los ejemplos no quedan aquí. Podríamos hablar de la sustitución de los cables del Puente Fernando Reig, en Alcoy, o del Puente del Centenario, en Sevilla. O del derribo del puente Joaquín Costa, en Madrid. Ejemplos los tenemos en todo el mundo. En cualquier caso, estamos hablando de cifras millonarias, de cortes de tráfico, de pérdidas humanas, por poner algunas consecuencias sobre la mesa.

Los puentes son componentes críticos de la infraestructura, pues su correcto funcionamiento es básico para la resiliencia de nuestros entornos urbanos. Sin embargo, un gran número de infraestructuras están llegando al final de su vida útil al mismo tiempo. De hecho, se espera que la vida útil de muchos puentes sea menor que la proyectada debido al deterioro continuo provocado por el incremento del tráfico y de los impactos ambientales. Esto constituye una auténtica bomba de relojería (Thurlby, 2013), que, junto al reto de la reducción de los impactos ambientales, es razón más que suficiente para preocuparnos de mejorar el mantenimiento de nuestros puentes. De hecho, ya hemos comentado en un artículo anterior un concepto estrechamente relacionado con este: la «crisis de las infraestructuras«. Yo me atrevería a afirmar algo que puede parecer muy duro: el derrumbe de nuestra civilización será paralelo al de las infraestructuras que le dan soporte.

Hoy día los gestores de las infraestructuras tienen ante sí un reto importante consistente en mantenerlas en un estado aceptable con presupuestos muy limitados. De hecho, la inspección de los puentes, su mantenimiento y reparación constituyen tareas rutinarias necesarias para mantener dichas infraestructuras en buenas condiciones (Tong et al., 2019). Sin embargo, el problema se vuelve grave cuando una parte significativa del parque de infraestructuras está próxima al final de su vida útil. Y lo que aún es peor, cuando existen riesgos de alto impacto y de baja probabilidad que pueden afectar gravemente a las infraestructuras. Resolver este problema es complicado, pues no se presta fácilmente a la exploración con los instrumentos analíticos y de previsión tradicionales.

El estado o deterioro de una infraestructura sigue un comportamiento similar, pero invertido, al de la llamada «curva de la bañera«, que es una gráfica que representa los fallos durante el periodo de vida útil de un sistema o de una máquina. En este caso, según vemos en la Figura 2, el estado de la infraestructura o las prestaciones de la infraestructura permanecen altos durante un periodo de tiempo, hasta que empiezan a decaer. Para los gestores es necesario conocer el comportamiento de las infraestructuras para tomar decisiones. Sin embargo, muchas veces desconocen en qué posición de la curva se encuentran y, lo que es peor, a qué ritmo se va a deteriorar. Por ejemplo, en la Figura 2 podemos ver que las caídas en las prestaciones de A a B o de B a C son similares, pero la velocidad de deterioro difiere mucho. Y lo que es peor de todo, llega un momento en el que la caída de las prestaciones ocurre de forma muy acelerada, sin capacidad de reacción por parte de los gestores. Por eso se ha utilizado el símil de la «bomba de relojería».

Figura 2. Estado o prestaciones de una infraestructura (Thurlby, 2013)

La gestión y el mantenimiento de los puentes están empezando a ser un problema de magnitud tal que resulta más que preocupante. Algunos datos son un ejemplo de ello: en el año 2019, 47000 puentes de los puentes en Estados Unidos, (más del 20% del total) presentan deficiencias estructurales (American Road & Transportation Builders Association, 2019); en Reino Unido, más de 3000 puentes estaban por debajo de los estándares y requerían reparación (RAC Foundation, 2019). Estos son buenos argumentos para prolongar la vida útil de los puentes.

Una de las tecnologías para mejorar la gestión y el mantenimiento de los puentes es la vigilancia de su estado estructural (structural health monitoring, SHM), que busca optimizar el comportamiento de la estructura mediante el aprendizaje de los datos obtenidos a lo largo de su vida útil, a partir de su monitorización (Figura 3). Estos datos sirven para actualizar los modelos y comprobar el estado en que se encuentra la estructura, lo que permite minimizar la incertidumbre de los parámetros empleados en los modelos. Sin embargo, aún no se ha resuelto completamente el paso de la obtención de los datos del puente en tiempo real a la toma de decisiones en la gestión y mantenimiento de los puentes.

Figura 3. Structural health monitoring. https://thestartupgrowth.com/2019/02/21/structural-health-monitoring-market-driven-by-rapid-expansion-in-the-infrastructure-sector-till-2024/

En un artículo anterior se explicó el concepto de gemelos digitales (digital twins). Estos modelos, actualizados constantemente mediante la monitorización del puente, permitirían conocer en tiempo real su estado estructural y predecir su comportamiento ante determinadas circunstancias. Esta información sería clave para tomar decisiones en la gestión y el mantenimiento del puente.

Las preguntas clave que deberíamos responder serían las siguientes: ¿Es el puente seguro? ¿cuánto tiempo durará el puente seguro? ¿cuál es el comportamiento estructural actual del puente? ¿cuándo y cómo deberemos intervenir en el puente?

La respuesta a estas preguntas no es tan evidente como podría parecer a simple vista. Los gestores de infraestructuras deberían ser capaces de comprender y valorar, en su justa medida, los resultados estructurales de los modelos cuyos datos se actualizan en tiempo real. La dificultad radica en conocer no solo los datos, sino también las causas subyacentes a los cambios en el comportamiento estructural. Una ayuda son las técnicas procedentes de la inteligencia artificial, como el aprendizaje profundo, que permiten interpretar ingentes cantidades de datos e identificar patrones y correlaciones entre dichos datos. En un artículo anterior hablamos de este tema. Por otra parte, la actualización de los datos procedentes de la vigilancia de los puentes debería ser automática y en tiempo real. Aquí vuelve a cobrar importancia la inteligencia artificial, aunque nunca debería suplantar el conocimiento ingenieril que permite interpretar los resultados generados por los algoritmos.

Por otra parte, la modelización del riesgo y de la resiliencia es una labor necesaria para comprender la vulnerabilidad de las infraestructuras. De esta forma, seríamos capaces de desarrollar estrategias de mitigación que podrían complementar las estrategias de gestión del deterioro explicadas anteriormente.

Por tanto, existe un auténtico salto entre la investigación dedicada a la monitorización en tiempo real de los puentes y la toma de decisiones para su gestión y mantenimiento. Los gemelos digitales, apoyados en los actuales desarrollos tecnológicos como el «Internet de las cosas«, deberían permitir el paso de la investigación y el desarrollo a la innovación directamente aplicable a la realidad de la gestión de las infraestructuras.

Referencias:

AMERICAN ROAD & TRANSPORTATION BUILDERS ASSOCIATION (2019). 2019 Bridge Report. https://artbabridgereport.org/

RAC Foundation. (2019). Bridge maintenance table – GB local authorities. https://www.racfoundation.org/media-centre/bridge-maintenance-backlog-grows

THURLBY, R. (2013). Managing the asset time bomb: a system dynamics approach. Proceedings of the Institution of Civil Engineers – Forensic Engineering, 166(3):134-142.

TONG, X.; YANG, H.; WANG, L.; MIAO, Y. (2019). The development and field evaluation of an IoT system of low-power vibration for bridge health monitoring, Sensors 19(5):1222.

YEPES, V. (2020). Computación cuántica y gemelos híbridos digitales en ingeniería civil y edificación. https://victoryepes.blogs.upv.es/2019/10/30/computacion-cuantica-gemelos-digitales/

YEPES, V. (2020). La inteligencia artificial en la ingeniería civil. https://victoryepes.blogs.upv.es/2020/09/08/la-inteligencia-artificial-en-la-ingenieria-civil/

YEPES, V. (2020). El aprendizaje profundo (deep learning) en la optimización de estructuras. https://victoryepes.blogs.upv.es/2020/09/15/el-aprendizaje-profundo-deep-learning-en-la-optimizacion-de-estructuras/

YEPES, V. (2020). La resiliencia de las infraestructuras. https://victoryepes.blogs.upv.es/2020/09/17/la-resiliencia-de-las-infraestructuras/

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.