Revisión de estado del conocimiento en infraestructuras hídricas usando técnicas de aprendizaje automático

Acabamos de recibir la noticia de la publicación de nuestro artículo en la revista Applied Sciences, la cual está indexada en el JCR. Este estudio explora las diversas aplicaciones del aprendizaje automático (Machine Learning, ML) en relación con la integridad y calidad de las infraestructuras hidráulicas, identificando cuatro áreas clave donde se ha implementado con éxito. Estas áreas abarcan desde la detección de contaminantes en el agua y la erosión del suelo, hasta la predicción de niveles hídricos, la identificación de fugas en redes de agua y la evaluación de la calidad y potabilidad del agua.

Cabe destacar que esta investigación se llevó a cabo en el marco de una colaboración fructífera entre nuestro grupo de investigación e investigadores chilenos, liderados por el profesor José Antonio García Conejeros. El proyecto en sí, denominado HYDELIFE, forma parte de las iniciativas que superviso como investigador principal en la Universitat Politècnica de València.

Se realizó un análisis bibliográfico de artículos científicos a partir de 2015, que arrojó un total de 1087 artículos, para explorar las aplicaciones de las técnicas de aprendizaje automático en la integridad y la calidad de la infraestructura hídrica. Entre las contribuciones realizadas por el trabajo, caben destacar las siguientes:

  • Se identificaron cuatro áreas clave en las que el aprendizaje automático se ha aplicado a la gestión del agua: los avances en la detección de contaminantes del agua y la erosión del suelo, la previsión de los niveles del agua, las técnicas avanzadas para la detección de fugas en las redes de agua y la evaluación de la calidad y potabilidad del agua.
  • Destacó el potencial de las técnicas de aprendizaje automático (Random Forest, Support Vector Regresion, Convolutional Neural Networks y Gradient Boosting) combinadas con sistemas de monitoreo de vanguardia en múltiples aspectos de la infraestructura y la calidad del agua.
  • Proporcionó información sobre el impacto transformador del aprendizaje automático en la infraestructura hídrica y sugirió caminos prometedores para continuar con la investigación.
  • Empleó un enfoque semiautomático para realizar análisis bibliográficos, aprovechando las representaciones codificadas bidireccionales de Transformers (BERTopic), para abordar las limitaciones y garantizar una representación precisa de los documentos.
  • Las técnicas de aprendizaje automático ofrecen una alta precisión, un tiempo de procesamiento reducido y datos valiosos para la toma de decisiones en materia de gestión sostenible de los recursos y sistemas de alerta temprana.
  • La colaboración interdisciplinaria, los marcos integrados y las tecnologías avanzadas, como la teledetección y la IoT, son esenciales para avanzar en la investigación sobre la integridad y la calidad de la infraestructura hídrica.

Abstract:

Water infrastructure integrity, quality, and distribution are fundamental for public health, environmental sustainability, economic development, and climate change resilience. Ensuring the robustness and quality of water infrastructure is pivotal for sectors like agriculture, industry, and energy production. Machine learning (ML) offers the potential for bolstering water infrastructure integrity and quality by analyzing extensive data from sensors and other sources, optimizing treatment protocols, minimizing water losses, and improving distribution methods. This study delves into ML applications in water infrastructure integrity and quality by analyzing English-language articles from 2015 onward, compiling 1087 articles. A natural language processing approach centered on topic modeling was initially adopted to classify salient topics. From each identified topic, key terms were extracted and utilized in a semi-automatic selection process, pinpointing the most relevant articles for further scrutiny. At the same time, unsupervised ML algorithms can assist in extracting themes from the documents, generating meaningful topics often requires intricate hyperparameter adjustments. Leveraging the Bidirectional Encoder Representations from Transformers (BERTopic) enhanced the study’s contextual comprehension in topic modeling. This semi-automatic methodology for bibliographic exploration begins with broad categorizing topics, advancing to an exhaustive analysis. The insights drawn underscore ML’s instrumental role in enhancing water infrastructure’s integrity and quality, suggesting promising future research directions. Specifically, the study has identified four key areas where ML has been applied to water management: (1) advancements in the detection of water contaminants and soil erosion; (2) forecasting of water levels; (3) advanced techniques for leak detection in water networks; and (4) evaluation of water quality and potability. These findings underscore the transformative impact of ML on water infrastructure and suggest promising paths for continued investigation.

Keywords:

Water infrastructure integrity; machine learning; environmental sustainability; natural language processing; BERTopic

Reference:

GARCÍA, J.; LEIVA-ARAOS, A.; DÍAZ-SAAVEDRA, E.; MORAGA, P.; PINTO, H.; YEPES, V. (2023). Relevance of Machine Learning Techniques in Water Infrastructure Integrity and Quality: A Review Powered by Natural Language Processing. Applied Sciences, 13(22):12497. DOI:10.3390/app132212497

Descargar (PDF, 23.87MB)

Aprendizaje profundo para la optimización del ciclo de vida de puentes mixtos de hormigón y acero

Acaban de publicarnos un artículo en Structures, revista indexada en el JCR. Se trata de la evaluación del coste del ciclo de vida mediante la función de densidad espectral de potencia en un puente de hormigón en ambiente costero. El artículo presenta una metodología que utiliza el aprendizaje profundo para acelerar los cálculos de las restricciones estructurales en un contexto de optimización, específicamente para un puente mixto de hormigón y acero. El trabajo se enmarca dentro del proyecto de investigación HYDELIFE que dirijo como investigador principal en la Universitat Politècnica de València.

El modelo de aprendizaje profundo óptimo está integrado por tres metaheurísticas: el método Obamo (Old Bachelor Acceptance with a Mutation Operator), el Cuckoo Search (CS) y los algoritmos de coseno sinusoidal (SCA). Esta integración da como resultado un posible aumento de 50 veces en la velocidad computacional en ciertos escenarios. El estudio destaca la viabilidad económica, las ramificaciones ambientales y las evaluaciones del ciclo de vida social de las soluciones de diseño optimizadas. Demuestra las ventajas de combinar el aprendizaje profundo con la optimización del diseño de la ingeniería civil, especialmente en lo que respecta al aumento del límite elástico del acero para cumplir objetivos medioambientales y sociales. La metodología propuesta en el documento se puede adaptar a una variedad de otras configuraciones estructurales, por lo que es aplicable más allá del caso específico del puente compuesto

La editorial permite la descarga gratuita del artículo hasta el 29 de noviembre de 2023 en la siguiente dirección: https://authors.elsevier.com/c/1humr8MoIG~oVG

Abstract:

The ability to conduct life cycle analyses of complex structures is vitally important for environmental and social considerations. Incorporating the life cycle into structural design optimization results in extended computational durations, underscoring the need for an innovative solution. This paper introduces a methodology leveraging deep learning to hasten structural constraint computations in an optimization context, considering the structure’s life cycle. Using a composite bridge composed of concrete and steel as a case study, the research delves into hyperparameter fine-tuning to craft a robust model that accelerates calculations. The optimal deep learning model is then integrated with three metaheuristics: the Old Bachelor Acceptance with a Mutation Operator (OBAMO), the Cuckoo Search (CS), and the Sine Cosine Algorithms (SCA). Results indicate a potential 50-fold increase in computational speed using the deep learning model in certain scenarios. A comprehensive comparison reveals economic feasibility, environmental ramifications, and social life cycle assessments, with an augmented steel yield strength observed in optimal design solutions for both environmental and social objective functions, highlighting the benefits of meshing deep learning with civil engineering design optimization.

Keywords:

Deep learning; Sustainability; Optimization; Bridges; Machine learning; Composite structures

Reference:

MARTÍNEZ-MUÑOZ, D.; GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2023). Deep learning classifier for life cycle optimization of steel-concrete composite bridges. Structures, 57:105347. DOI:10.1016/j.istruc.2023.105347

Auge de la construcción inteligente: un estudio revela tendencias y desafíos para el futuro

Acaban de publicarnos en la revista Journal of Building Engineering, que está en el primer decil del JCR, un artículo de revisión sobre el estado actual de los métodos modernos de construcción. Estos métodos, conocidos como “construcción inteligente“, son alternativas a la construcción tradicional. El gobierno del Reino Unido utilizó este término para describir una serie de innovaciones en la construcción de viviendas, la mayoría de las cuales se basan en tecnologías de construcción en fábrica. Este concepto abarca una amplia gama de tecnologías basadas en la fabricación modular, ya sea en el lugar de construcción o en otra ubicación, y está revolucionando la forma en que se construyen edificios de manera más rápida, rentable y eficiente. También se conoce comúnmente como construcción “off-site”. El trabajo se enmarca dentro del proyecto de investigación HYDELIFE que dirijo como investigador principal en la Universitat Politècnica de València.

El creciente interés por la sostenibilidad, las energías alternativas y los cambios en el estilo de vida debido a la pandemia ha impulsado la fabricación de edificaciones empleando los métodos modernos de construcción (Modern Methods of Construction, MMC), especialmente en el ámbito residencial. Estos métodos, que utilizan tecnologías innovadoras como alternativa inteligente a la construcción tradicional, han sido objeto de un exhaustivo estudio que busca clasificarlos, detectar tendencias y vacíos de conocimiento, y delinear futuras áreas de investigación. El análisis, basado en 633 publicaciones desde 1975 hasta 2022, revela seis grupos temáticos y 18 subcategorías, empleando una novedosa metodología mixta que incorpora el análisis de procesamiento de lenguaje natural (NLP). Si bien se destaca la presencia dominante de herramientas y tecnologías integradas en la Construcción 4.0 y los aspectos de gestión de la industria, también se identifican importantes lagunas de investigación, como la necesidad de aplicar más los MMC en la rehabilitación de edificios y abordar enfoques para mejorar el entorno construido a través del nuevo paradigma del diseño regenerativo. Este estudio exhaustivo ofrece una comprensión más profunda y rigurosa del estado del arte en el campo de la construcción inteligente mediante un mapeo y caracterización de la estructura conceptual del corpus bibliográfico y una evaluación sistemática basada en revisión de literatura. El artículo sugiere que se necesita más investigación para comprender los sistemas de construcción interdependientes mediante el uso de gemelos digitales.

Aspectos destacables:

  • El estudio utiliza aprendizaje automático combinado con una revisión sistemática de la literatura.
  • Se propone una novedosa metodología mixta que incorpora análisis de procesamiento de lenguaje natural.
  • Se recomienda una clasificación recientemente revisada para todos los MMC aplicados en edificios.
  • La literatura sobre MMC se clasificó en seis grandes áreas con 18 subcategorías.
  • Los temas se identifican mediante análisis de bigrama y agrupamiento, además del conocimiento experto.

Podéis descargar el artículo gratuitamente al tratarse de una publicación en acceso abierto:

https://www.sciencedirect.com/science/article/pii/S235271022300904X?via%3Dihub

Abstract:

The concerns surrounding sustainability, alternative energies, and lifestyle changes due to the pandemic have resulted in a surge in the manufacturing of buildings utilizing Modern Methods of Construction (MMC), particularly in housing. These methods involve using new technologies as smart building alternatives to traditional construction. Against the backdrop of Industry 4.0, there is an urgent need for a systematic literature review of MMCs in building construction to classify them, detect trends and gaps, and outline future research areas. This study analyzed 633 publications from 1975 to 2022 and grouped them into six thematic clusters and 18 subcategories, using a novel mixed methodology incorporating natural language processing (NLP) analysis. The qualitative analysis of the literature indicates that research in the field is dominated by tools and technologies integrated into Construction 4.0 and the industry’s management aspects. However, this review also highlights several gaps in research, including the need for more application of MMC to building retrofitting and the need for approaches to improve the built environment through the new paradigm of regenerative design. The high-level mapping and characterization of the bibliographic corpus’s conceptual structure and the classical evaluation process based on systematic literature review (SLR) have provided a more profound and rigorous state-of-the-art understanding.

Keywords:

Modern methods of construction; Industrialized buildings; Emerging technologies; Construction industry; Machine learning; Systematic literature review

Reference:

SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; GARCÍA, J.; YEPES, V. (2023). A systematic literature review on Modern Methods of Construction in building: an integrated approach using machine learning. Journal of Building Engineering, 73:106725. DOI:10.1016/j.jobe.2023.106725

Como el artículo se encuentra en abierto, os lo podéis descargar aquí:

Descargar (PDF, 16.3MB)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Machine learning aplicado a la construcción: Un análisis de los avances científicos y del futuro próximo

Acaban de publicarnos un artículo en la revista Automation in Construction, que es la revista indexada de mayor impacto JCR en el ámbito de la ingeniería civil. En este caso se ha realizado un análisis bibliométrico del estado del arte y de las líneas de investigación futura del Machine Learning en el ámbito de la construcción. El trabajo se enmarca dentro del proyecto de investigación HYDELIFE que dirijo como investigador principal en la Universitat Politècnica de València. En este caso, se trata de una colaboración con grupos de investigación de Chile, Brasil y España.

El artículo lo puedes descargar GRATUITAMENTE hasta el 11 de octubre de 2022 en el siguiente enlace: https://authors.elsevier.com/c/1fdIq3IhXMtgv2

Los complejos problemas industriales, junto con la disponibilidad de una infraestructura informática más robusta, presentan muchos retos y oportunidades para el aprendizaje automático (Machine Learning, ML) en la industria de la construcción. Este artículo revisa las técnicas de ML aplicadas a la construcción, principalmente para identificar las áreas de aplicación y la proyección futura en esta industria. Se analizaron estudios desde 2015 hasta 2022 para evaluar las últimas aplicaciones de ML en la construcción. Se propuso una metodología que identifica automáticamente los temas a través del análisis de los resúmenes utilizando la técnica de Representaciones Codificadoras Bidireccionales a partir de Transformadores para posteriormente seleccionar manualmente los temas principales. Hemos identificado y analizado categorías relevantes de aplicaciones de aprendizaje automático en la construcción, incluyendo aplicaciones en tecnología del hormigón, diseño de muros de contención, ingeniería de pavimentos, construcción de túneles y gestión de la construcción. Se discutieron múltiples técnicas, incluyendo varios algoritmos de ML supervisado, profundo y evolutivo. Este estudio de revisión proporciona directrices futuras a los investigadores en relación con las aplicaciones de ML en la construcción.

Highlights:

  • State-of-the-art developed using natural language processing techniques.
  • Topics analyzed and validated by experts for consistency and relevance.
  • Topics deepened through application of bigram analysis and clustering in addition to traditional bibliographic analysis.
  • Identified five large areas, and detailed two to three groups of relevant lines of research.

Abstract:

Complex industrial problems coupled with the availability of a more robust computing infrastructure present many challenges and opportunities for machine learning (ML) in the construction industry. This paper reviews the ML techniques applied to the construction industry, mainly to identify areas of application and future projection in this industry. Studies from 2015 to 2022 were analyzed to assess the latest applications of ML techniques in construction. A methodology was proposed that automatically identifies topics through the analysis of abstracts using the Bidirectional Encoder Representations from Transformers technique to select main topics manually subsequently. Relevant categories of machine learning applications in construction were identified and analyzed, including applications in concrete technology, retaining wall design, pavement engineering, tunneling, and construction management. Multiple techniques were discussed, including various supervised, deep, and evolutionary ML algorithms. This review study provides future guidelines to researchers regarding ML applications in construction.

Keywords:

Machine learning; BERT; Construction; Concretes; Retaining walls; Tunnels; Pavements; Construction management

Reference:

GARCÍA, J.; VILLAVICENCIO, G.; ALTIMIRAS, F.; CRAWFORD, B.; SOTO, R.; MINTATOGAWA, V.; FRANCO, M.; MARTÍNEZ-MUÑOZ, D.; YEPES, V. (2022). Machine learning techniques applied to construction: A hybrid bibliometric analysis of advances and future directions. Automation in Construction, 142:104532. DOI:10.1016/j.autcon.2022.104532

Special Issue: “Machine Learning, Metaheuristics and Combinatorial Optimization Problems”

 

 

 

 

 

Mathematics (ISSN 2227-7390) is a peer-reviewed open-access journal that provides an advanced forum for studies related to mathematics and is published monthly online by MDPI.

  • Open Access – free for readers, with article processing charges (APC) paid by authors or their institutions.
  • High visibility:indexed within ScopusSCIE (Web of Science)RePEc, and other databases.
  • Rapid publication: manuscripts are peer-reviewed, and a first decision provided to authors approximately 17.8 days after submission; acceptance to publication is undertaken in 2.8 days (median values for papers published in this journal in the first half of 2022).
  • Recognition of reviewers: reviewers who provide timely, thorough peer-review reports receive vouchers entitled to a discount on the APC of their next publication in any MDPI journal in appreciation of the work done.

Impact Factor:  2.592 (2021) ; 5-Year Impact Factor: 2.542 (2021)  (First decile JCR journal) JCR – Q1 (Mathematics) / CiteScore – Q1 (General Mathematics)

Special Issue “Machine Learning, Metaheuristics and Combinatorial Optimization Problems”

Deadline for manuscript submissions: 10 February 2023.

Special Issue Editors

Prof. Dr. Víctor Yepes E-Mail Website SciProfiles Guest Editor
Institute of Concrete Science and Technology (ICITECH), Universitat Politècnica de València, 46022 València, Spain
Interests: multiobjective optimization; structures optimization; lifecycle assessment; social sustainability of infrastructures; reliability-based maintenance optimization; optimization and decision-making under uncertainty
Special Issues, Collections and Topics in MDPI journals
Dr. José Antonio García E-Mail Website Guest Editor
Escuela de Ingeniería en Construcción, Pontificia Universidad Católica de Valparaíso, Avenida Brasil 2147, Valparaíso 2362804, Chile
Interests: optimization; deep learning; operations research; artificial intelligence applications to industrial problems
Special Issues, Collections and Topics in MDPI journals
Dr. Broderick Crawford E-Mail Website SciProfiles Guest Editor
Escuela de Ingeniería Informática, Pontificia Universidad Católica de Valparaíso, Avenida Brasil 2241, Valparaíso 2362807, Chile
Interests: information systems; management information systems; operations research; constraint satisfaction problems; collaboration of solvers

Special Issue Information

Dear Colleagues,

Complex combinatorial problems have been successfully addressed through metaheuristic techniques. However, as the size of the problem increases, so does the need for robust optimization algorithms. An interesting method of strengthening these algorithms is through the application of hybrid techniques, specifically the hybridization of machine learning and metaheuristics. We invite researchers to submit articles on combined optimization and hybrid techniques for this Special Issue. Benchmarking problems or applications in the industry are also of interest.

The areas of machine learning and data science have received considerable research interest in recent years. These techniques have strongly excelled in supporting decision-making in complex and data-intensive scenarios. In this Special Issue, we are additionally interested in contributions to machine learning applications in the industry.

Prof. Víctor Yepes
Dr. José Antonio García
Dr. Broderick Crawford
Guest Editors

Manuscript Submission Information

Manuscripts should be submitted online at www.mdpi.com by registering and logging in to this website. Once you are registered, click here to go to the submission form. Manuscripts can be submitted until the deadline. All submissions that pass pre-check are peer-reviewed. Accepted papers will be published continuously in the journal (as soon as accepted) and will be listed on the special issue website. Research articles, review articles as well as short communications are invited. For planned papers, a title, and short abstract (about 100 words) can be sent to the Editorial Office for announcement on this website.

Submitted manuscripts should not have been published previously nor be under consideration for publication elsewhere (except conference proceedings papers). All manuscripts are thoroughly refereed through a single-blind peer-review process. A guide for authors and other relevant information for submission of manuscripts is available on the Instructions for Authors page. Mathematics is an international peer-reviewed open access semimonthly journal published by MDPI.

Please visit the Instructions for Authors page before submitting a manuscript. The Article Processing Charge (APC) for publication in this open access journal is 1800 CHF (Swiss Francs). Submitted papers should be well formatted and use good English. Authors may use MDPI’s English editing service before publication or during author revisions.

Hacia un mapa de conocimiento algorítmico de optimización de la industria AEC-AI (Arquitectura, Ingeniería, Construcción e Inteligencia Artificial)

Acaban de publicarnos un artículo en la revista IEEE Access, revista de alto impacto indexada en el JCR. En este caso se ha realizado un análisis conceptual macroscópico de la industria AEC-AI (Arquitectura, Ingeniería, Construcción e Inteligencia Artificial). El trabajo se enmarca dentro del proyecto de investigación HYDELIFE que dirijo como investigador principal en la Universitat Politècnica de València.

La industria de la arquitectura, la ingeniería y la construcción (AEC) constituye uno de los sectores productivos más relevantes, por lo que también produce un alto impacto en los equilibrios económicos, la estabilidad de la sociedad y los desafíos globales en el cambio climático. En cuanto a su adopción de tecnologías, aplicaciones y procesos también se reconoce por su status-quo, su lento ritmo de innovación, y los enfoques conservadores. Sin embargo, una nueva era tecnológica -la Industria 4.0 alimentada por la IA- está impulsando los sectores productivos en un panorama sociopolítico y de competencia tecnológica global altamente presionado. En este trabajo, desarrollamos un enfoque adaptativo para la minería de contenido textual en el corpus de investigación de la literatura relacionada con las industrias de la AEC y la IA (AEC-AI), en particular en su relación con los procesos y aplicaciones tecnológicas. Presentamos un enfoque de primera etapa para una evaluación adaptativa de los algoritmos de IA, para formar una plataforma integradora de IA en la industria AEC, la industria AEC-AI 4.0. En esta etapa, se despliega un método adaptativo macroscópico para caracterizar la “Optimización”, un término clave en la industria AEC-AI, utilizando una metodología mixta que incorpora el aprendizaje automático y el proceso de evaluación clásico. Nuestros resultados muestran que el uso eficaz de los metadatos, las consultas de búsqueda restringidas y el conocimiento del dominio permiten obtener una evaluación macroscópica del concepto objetivo. Esto permite la extracción de un mapeo de alto nivel y la caracterización de la estructura conceptual del corpus bibliográfico. Los resultados son comparables, a este nivel, a las metodologías clásicas de revisión de la literatura. Además, nuestro método está diseñado para una evaluación adaptativa que permita incorporar otras etapas.

Abstract:

The Architecture, Engineering, and Construction (AEC) Industry is one of the most important productive sectors, hence also produce a high impact on the economic balances, societal stability, and global challenges in climate change. Regarding its adoption of technologies, applications and processes is also recognized by its status-quo, its slow innovation pace, and the conservative approaches. However, a new technological era – Industry 4.0 fueled by AI- is driving productive sectors in a highly pressurized global technological competition and sociopolitical landscape. In this paper, we develop an adaptive approach to mining text content in the literature research corpus related to the AEC and AI (AEC-AI) industries, in particular on its relation to technological processes and applications. We present a first stage approach to an adaptive assessment of AI algorithms, to form an integrative AI platform in the AEC industry, the AEC-AI industry 4.0. At this stage, a macroscopic adaptive method is deployed to characterize “Optimization,” a key term in AEC-AI industry, using a mixed methodology incorporating machine learning and classical evaluation process. Our results show that effective use of metadata, constrained search queries, and domain knowledge allows getting a macroscopic assessment of the target concept. This allows the extraction of a high-level mapping and conceptual structure characterization of the literature corpus. The results are comparable, at this level, to classical methodologies for the literature review. In addition, our method is designed for an adaptive assessment to incorporate further stages.

Keywords:

Architecture, engineering and construction, AEC, artificial intelligence, literature corpus, machine learning, optimization algorithms, knowledge mapping and structure

Reference:

MAUREIRA, C.; PINTO, H.; YEPES, V.; GARCÍA, J. (2021). Towards an AEC-AI industry optimization algorithmic knowledge mapping. IEEE Access, 9:110842-110879. DOI:10.1109/ACCESS.2021.3102215

Descargar (PDF, 6.14MB)

Discretización de metaheurísticas continuas a través de un operador KNN

Acaban de publicarnos un artículo en la revista Mathematics,  revista indexada en el primer cuartil del JCR. En este caso hemos abordado la binarización de metaheurísticas continuas. Se trata de una estrategia muy útil para el caso de la optimización de estructuras, puesto que éstas suelen presentar variables discretas para favoreces su constructabilidad. El trabajo entra dentro de la estrecha colaboración internacional de nuestro grupo de investigación, en este caso, con investigaciones chilenos.

En este trabajo se propone un operador de perturbación que utiliza la técnica de k-vecinos más cercanos, y se estudia con el objetivo de mejorar las propiedades de diversificación e intensificación de los algoritmos metaheurísticos en su versión binaria. Se diseñan operadores aleatorios para estudiar la contribución del operador de perturbación. Para verificar la propuesta, se estudian grandes instancias del conocido problema de cobertura de conjuntos. Se utilizan gráficos de caja, gráficos de convergencia y la prueba estadística de Wilcoxon para determinar la contribución del operador. Además, se realiza una comparación con técnicas metaheurísticas que utilizan mecanismos generales de binarización como las funciones de transferencia o el db-scan como métodos de binarización. Los resultados obtenidos indican que el operador de perturbación KNN mejora significativamente los resultados.

ABSTRACT:

The optimization methods and, in particular, metaheuristics must be constantly improved to reduce execution times, improve the results, and thus be able to address broader instances. In particular, addressing combinatorial optimization problems is critical in the areas of operational research and engineering. In this work, a perturbation operator is proposed which uses the k-nearest neighbors technique, and this is studied with the aim of improving the diversification and intensification properties of metaheuristic algorithms in their binary version. Random operators are designed to study the contribution of the perturbation operator. To verify the proposal, large instances of the well-known set covering problem are studied. Box plots, convergence charts, and the Wilcoxon statistical test are used to determine the operator contribution. Furthermore, a comparison is made using metaheuristic techniques that use general binarization mechanisms such as transfer functions or db-scan as binarization methods. The results obtained indicate that the KNN perturbation operator improves significantly the results.

KEYWORDS:

Combinatorial optimization; machine learning; KNN; metaheuristics; transfer functions

REFERENCE:

GARCÍA, J.; ASTORGA, G.; YEPES, V. (2021). An analysis of a KNN perturbation operator: an application to the binarization of continuous metaheuristics. Mathematics, 9(3):225. DOI:10.3390/math9030225.

Descargar (PDF, 1.02MB)

 

El aprendizaje profundo (deep learning) en la optimización de estructuras

Figura 1. Relación de pertenencia entre la inteligencia artificial, el aprendizaje automático y el aprendizaje profundo

En este artículo vamos a esbozar las posibilidades de la inteligencia artificial en la optimización de estructuras, en particular, el uso del aprendizaje profundo. El aprendizaje profundo (deep learning, DL) constituye un subconjunto del aprendizaje automático (machine learning, ML), que a su vez lo es de la inteligencia artificial (ver Figura 1). Si la inteligencia artificial empezó sobre los años 50, el aprendizaje automático surgió sobre los 80, mientras que el aprendizaje profundo nació en este siglo XXI, a partir del 2010, con la aparición de grandes superordenadores y por el aumento de los datos accesibles. Como curiosidad, uno de los grandes hitos del DL se produjo en 2012, cuando Google fue capaz de reconocer un gato entre los más de 10 millones de vídeos de Youtube, utilizando para ello 16000 ordenadores. Ahora serían necesarios muchos menos medios.

En cualquiera de estos tres casos, estamos hablando de sistemas informáticos capaces de analizar grandes cantidades de datos (big data), identificar patrones y tendencias y, por tanto, predecir de forma automática, rápida y precisa. De la inteligencia artificial y su aplicabilidad a la ingeniería civil ya hablamos en un artículo anterior.

Figura 2. Cronología en la aparición de los distintos tipos de algoritmos de inteligencia artificial. https://www.privatewallmag.com/inteligencia-artificial-machine-deep-learning/

Si pensamos en el cálculo estructural, utilizamos modelos, más o menos sofistificados, que permiten, si se conocen con suficiente precisión las acciones, averiguar los esfuerzos a los que se encuentran sometidos cada uno de los elementos en los que hemos dividido una estructura. Con dichos esfuerzos se identifican una serie de estados límite, que son un conjunto de situaciones potencialmente peligrosas para la estructura y comparar si la capacidad estructural del elemento analizado, dependiente de las propiedades geométricas y de sus materiales constituyentes, supera el valor último de la solicitación a la que, bajo cierta probabilidad, puede llegar a alcanzar el elemento estructural analizado.

Estos métodos tradicionales emplean desde hipótesis de elasticidad y comportamiento lineal, a otros modelos con comportamiento plástico o no lineales más complejos. Suele utilizarse, con mayor o menos sofisticación, el método de los elementos finitos (MEF) y el método matricial de la rigidez. En definitiva, en determinados casos, suelen emplearse los ordenadores para resolver de forma aproximada, ecuaciones diferenciales parciales muy complejas, habituales en la ingeniería estructural, pero también en otros campos de la ingeniería y la física. Para que estos sistemas de cálculo resulten precisos, es necesario alimentar los modelos con datos sobre materiales, condiciones de contorno, acciones, etc., lo más reales posibles. Para eso se comprueban y calibran estos modelos en ensayos reales de laboratorio (Friswell y Mottershead, 1995). De alguna forma, estamos retroalimentando de información al modelo, y por tanto “aprende”.

Figura 2. Malla 2D de elementos finitos, más densa alrededor de la zona de mayor interés. Wikipedia.

Si analizamos bien lo que hacemos, estamos utilizando un modelo, más o menos complicado, para predecir cómo se va a comportar la estructura. Pues bien, si tuviésemos una cantidad suficiente de datos procedentes de laboratorio y de casos reales, un sistema inteligente extraería información y sería capaz de predecir el resultado final. Mientras que la inteligencia artificial debería alimentarse de una ingente cantidad de datos (big data), el método de los elementos finitos precisa menor cantidad de información bruta (smart data), pues ha habido una labor previa muy concienzuda y rigurosa, para intentar comprender el fenómeno subyacente y modelizarlo adecuadamente. Pero, en definitiva, son dos procedimientos diferentes que nos llevan a un mismo objetivo: diseñar estructuras seguras. Otro tema será si éstas estructuras son óptimas desde algún punto de vista (economía, sostenibilidad, etc.).

La optimización de las estructuras constituye un campo científico donde se ha trabajado intensamente en las últimas décadas. Debido a que los problemas reales requieren un número elevado de variables, la resolución exacta del problema de optimización asociado es inabordable. Se trata de problemas NP-hard, de elevada complejidad computacional, que requiere de metaheurísticas para llegar a soluciones satisfactorias en tiempos de cálculo razonables.

Una de las características de la optimización mediante metaheurísticas es el elevado número de iteraciones en el espacio de soluciones, lo cual permite generar una inmensa cantidad de datos para el conjunto de estructuras visitadas. Es el campo ideal para la inteligencia artificial, pues permite extraer información para acelerar y afinar la búsqueda de la solución óptima. Un ejemplo de este tipo es nuestro trabajo (García-Segura et al., 2017) de optimización multiobjetivo de puentes cajón, donde una red neuronal aprendía de los datos intermedios de la búsqueda y luego predecía con una extraordinaria exactitud el cálculo del puente, sin necesidad de calcularlo. Ello permitía reducir considerablemente el tiempo final de computación.

Sin embargo, este tipo de aplicación es muy sencilla, pues solo ha reducido el tiempo de cálculo (cada comprobación completa de un puente por el método de los elementos finitos es mucho más lenta que una predicción con una red neuronal). Se trata ahora de dar un paso más allá. Se trata de que la metaheurística sea capaz de aprender de los datos recogidos utilizando la inteligencia artificial para ser mucho más efectiva, y no solo más rápida.

Tanto la inteligencia artificial como el aprendizaje automático no son una ciencia nueva. El problema es que sus aplicaciones eran limitadas por la falta de datos y de tecnologías para procesarlas de forma rápida y eficiente. Hoy en día se ha dado un salto cualitativo y se puede utilizar el DL, que como ya hemos dicho es una parte del ML, pero que utiliza algoritmos más sofisticados, construidos a partir del principio de las redes neuronales. Digamos que el DL (redes neuronales) utiliza algoritmos distintos al ML (algoritmos de regresión, árboles de decisión, entre otros). En ambos casos, los algoritmos pueden aprender de forma supervisada o no supervisada. En las no supervisadas se facilitan los datos de entrada, no los de salida. La razón por la que se llama aprendizaje profundo hace referencia a las redes neuronales profundas, que utilizan un número elevado de capas en la red, digamos, por ejemplo, 1000 capas. De hecho, el DL también se le conoce a menudo como “redes neuronales profundas”. Esta técnica de redes artificiales de neuronas es una de las técnicas más comunes del DL.

Figura. Esquema explicativo de diferencia entre ML y DL. https://www.privatewallmag.com/inteligencia-artificial-machine-deep-learning/

Una de las redes neuronales utilizadas en DL son las redes neuronales convolucionales, que es una variación del perceptrón multicapa, pero donde su aplicación se realiza en matrices bidimensionales, y por tanto, son muy efectivas en las tareas de visión artificial, como en la clasificación y segmentación de imágenes. En ingeniería, por ejemplo, se puede utilizar para la monitorización de la condición estructural, por ejemplo, para el análisis del deterioro. Habría que imaginar hasta dónde se podría llegar grabando en imágenes digitales la rotura en laboratorio de estructuras de hormigón y ver la capacidad predictiva de este tipo de herramientas si contaran con suficiente cantidad de datos. Todo se andará. Aquí os dejo una aplicación tradicional típica (Antoni Cladera, de la Universitat de les Illes Balears), donde se explica el modelo de rotura de una viga a flexión en la pizarra y luego se rompe la viga en el laboratorio. ¡Cuántos datos estamos perdiendo en la grabación! Un ejemplo muy reciente del uso del DL y Digital Image Correlation (DIC) aplicado a roturas de probetas en laboratorio es el trabajo de Gulgec et al. (2020).

Sin embargo, aquí nos interesa detenernos en la exploración de la integración específica del DL en las metaheurísticas con el objeto de mejorar la calidad de las soluciones o los tiempos de convergencia cuando se trata de optimizar estructuras. Un ejemplo de este camino novedoso en la investigación es la aplicabilidad de algoritmos que hibriden DL y metaheurísticas. Ya hemos publicado algunos artículos en este sentido aplicados a la optimización de muros de contrafuertes (Yepes et al., 2020; García et al., 2020a, 2020b). Además, hemos propuesto como editor invitado, un número especial en la revista Mathematics (indexada en el primer decil del JCR) denominado “Deep learning and hybrid-metaheuristics: novel engineering applications“.

Dejo a continuación un pequeño vídeo explicativo de las diferencias entre la inteligencia artificial, machine learning y deep learning.

Referencias:

FRISWELL, M.; MOTTERSHEAD, J. E. (1995). Finite element model updating in structural dynamics (Vol. 38). Dordrecht, Netherlands: Springer Science & Business Media.

GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2020a). The buttressed  walls problem: An application of a hybrid clustering particle swarm optimization algorithm. Mathematics,  8(6):862. https://doi.org/10.3390/math8060862

GARCÍA, J.; YEPES, V.; MARTÍ, J.V. (2020b). A hybrid k-means cuckoo search algorithm applied to the counterfort retaining walls problem. Mathematics,  8(4), 555. DOI:10.3390/math8040555

GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M. (2017). Multi-Objective Design of Post-Tensioned Concrete Road Bridges Using Artificial Neural Networks. Structural and Multidisciplinary Optimization, 56(1):139-150. DOI:1007/s00158-017-1653-0

GULGEC, N.S.; TAKAC, M., PAKZAD S.N. (2020). Uncertainty quantification in digital image correlation for experimental evaluation of deep learning based damage diagnostic. Structure and Infrastructure Engineering, https://doi.org/10.1080/15732479.2020.1815224

YEPES, V.; MARTÍ, J.V.; GARCÍA, J. (2020). Black hole algorithm for sustainable design of counterfort retaining walls. Sustainability, 12(7), 2767. DOI:10.3390/su12072767

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Computación cuántica y gemelos híbridos digitales en ingeniería civil y edificación

La ciudad Estado de Singapur desarrolla una copia virtual de sí misma, un proyecto basado en big data, IoT, computación en la nube y realidad virtual. https://www.esmartcity.es/2019/03/22/singapur-gemelo-digital-posibilidades-ofrece-ciudad-inteligente-tener-copia-virtual-exacta

En menos de una década, gran parte de los ingenieros dejarán de hacer proyectos, tal y como lo conocemos ahora, y pasarán a ser gestores de gemelos híbridos digitales de infraestructuras.

Este podría ser un buen titular periodístico que, incluso podría parecer ciencia ficción, pero que tiene todos los visos de convertirse en realidad en menos tiempo del previsto. Se podría pensar que las tecnologías BIM o los modelos digitales actuales ya son una realidad, es decir, se trata de dar un nuevo nombre a lo que ya conocemos y está en desarrollo, pero de lo que estamos hablando es de un nuevo paradigma que va a revolver los cimientos de la tecnología actual en el ámbito de la ingeniería. Voy a desgranar esta conclusión explicando cada uno de los avances y los conceptos que subyacen al respecto.

La semana pasada tuve la ocasión de escuchar la conferencia magistral, en el Congreso CMMoST, de Francisco Chinesta, catedrático en la ENSAM ParisTech e ingeniero industrial egresado por la Universitat Politècnica de València. Trataba de un nuevo paradigma en la ingeniería basada en datos y no era otra que la de los gemelos híbridos digitales, un paso más allá de la modelización numérica y de la minería de datos. Este hecho coincidió con el anuncio en prensa de que Google había publicado en la prestigiosa revista Nature un artículo demostrando la supremacía cuántica, un artículo no exento de polémica, pues parece ser que se diseñó un algoritmo que tiene como objetivo generar números aleatorios mediante un procedimiento matemático muy complejo y que obligaría al superordenador Summit, que es actualmente el más potente del mundo gracias a sus 200 petaflops, a invertir 10.000 años en resolver el problema, que que el procesador cuántico Sycamore de 54 qubits de Google habría resuelto en tres minutos y 20 segundos.

Si nos centramos en la supuesta supremacía cuántica de Google, se debería matizar la noticia al respecto. En efecto, IBM ya se ha defendido diciendo que su ordenador Summit no se encuentra tan alejado, pues se ha resuelto un problema muy específico relacionado con generar números aleatorios y que parece que Sycamore sabe resolver muy bien. De hecho, IBM afirma que ha reajustado su superordenador y que ahora es capaz de resolver ese mismo problema en 2,5 días con un margen de error mucho menor que el ordenador cuántico. Aquí lo importante es saber si esta computación cuántica estará, sin trabas o límites, accesible a cualquier centro de investigación o empresa para resolver problemas de altísima complejidad computacional (problemas NP-hard como pueden ser los de optimización combinatoria). Tal vez los superordenadores convencionales servirán para resolver unos problemas específicos en tareas convencionales, y los cuánticos, imparables en resolver otro tipo de problemas. Todo se andará, pero parece que esto es imparable.

Por tanto, parece que el hardware necesario para la una computación ultrarrápida está o estará a nuestro alcance en un futuro no muy lejano. Ahora se trata de ver cómo ha cambiado el paradigma de la modelización matemática. Para ello podríamos empezar definiendo al “gemelo digital”, o digital twin. Se trata de un modelo virtual de un proceso, producto o servicio que sirve de enlace entre un ente en el mundo real y su representación digital que está utilizando continuamente datos de los sensores. A diferencia del modelado BIM, el gemelo digital no representa exclusivamente objetos espaciales, sino que también podría representar procesos, u otro tipo de entes sin soporte físico. Se trata de una tecnología que, según todos los expertos, marcarán tendencia en los próximos años y que, según el informe “Beyond the hype“, de KPMG, será la base de la cuarta Revolución Industrial.

https://www.geofumadas.com/por-que-usar-gemelos-digitales-en-la-construccion/

Sin embargo, el gemelo digital no es una idea nueva, pues a principios de este siglo ya la introdujo Michael Grieves, en colaboración con John Vickers, director de tecnología de la NASA. Esta tecnología se aplica al Internet de las Cosas, que se refiere a la interconexión digital de objetos cotidianos con internet. Además, se encuentra muy relacionada con la inteligencia artificial y con la minería de datosdata-mining“. Empresas como Siemens ya están preparando convertir sus plantas industriales en fábricas de datos con su gemelo digital, o General Electric, que cuenta ya con 800.000 gemelos digitales para monitorizar virtualmente la cadena de suministro.

Con todo, tal y como explicó el profesor Chinesta (Chinesta et al., 2018), existe actualmente un cambio de paradigma hacia los gemelos digitales híbridos que, extrapolando su uso, va a significar la gran revolución en la forma de proyectar y gestionar las infraestructuras, tal y como avancé al principio del artículo.

En efecto, los modelos utilizados en ciencia y en ingeniería son muy complejos. La simulación numérica, la modelización y la experimentación han sido los tres pilares sobre los que se ha desarrollado la ingeniería en el siglo XX. La modelización numérica, que sería el nombre tradicional que se ha dado al “gemelo digital” presenta problemas prácticos por ser modelos estáticos, pues no se retroalimentan de forma continua de datos procedentes del mundo real a través de la monitorización continua. Estos modelos numéricos (usualmente elementos finitos, diferencias finitas, volumen finito, etc.) son suficientemente precisos si se calibran bien los parámetros que lo definen. La alternativa a estos modelos numéricos son el uso de modelos predictivos basados en datos masivos big-data, constituyendo “cajas negras” con alta capacidad de predicción debido a su aprendizaje automáticomachine-learning“, pero que esconden el fundamento físico que sustentan los datos (por ejemplo, redes neuronales). Sin embargo, la experimentación es extraordinariamente cara y lenta para alimentar estos modelos basados en datos masivos.

El cambio de paradigma, por tanto, se basa en el uso de datos inteligentes “smart-data paradimg“. Este cambio se debe basar, no en la reducción de la complejidad de los modelos, sino en la reducción dimensional de los problemas, de la retroalimentación continua de datos del modelo numérico respecto a la realidad monitorizada y el uso de potentes herramientas de cálculo que permitan la interacción en tiempo real, obteniendo respuestas a cambios paramétricos en el problema. Dicho de otra forma, deberíamos poder interactuar a tiempo real con el gemelo virtual. Por tanto, estamos ante otra realidad, que es el gemelo virtual híbrido.

Por tanto, estamos ahora en disposición de centrarnos en la afirmación que hice al principio. La nueva tecnología en gemelos digitales híbridos, junto con la nueva capacidad de cálculo numérico en ciernes, va a transformar definitivamente la forma de entender, proyectar y gestionar las infraestructuras. Ya no se trata de proyectar, por ejemplo, un puente. Ni tampoco estamos hablando de diseñar un prototipo en 3D del mismo puente, ni siquiera de modelar en BIM dicha estructura. Estamos hablando de crear un gemelo digital que se retroalimentará continuamente del puente real, que estará monitorizado. Se reajustarán los parámetros de cálculo del puente con los resultados obtenidos de la prueba de carga, se podrán predecir las labores de mantenimiento, se podrá conocer con antelación el comportamiento ante un fenómeno extraordinario como una explosión o un terremoto. Por tanto, una nueva profesión, que será la del ingeniero de gemelos virtuales híbridos de infraestructuras será una de las nuevas profesiones que reemplazarán a otras que quedarán obsoletas.

Se tratará de gestionar el gemelo durante el proyecto, la construcción, la explotación e incluso el desmantelamiento de la infraestructura. Se podrán analizar cambios de usos previstos, la utilización óptima de recursos, monitorizar la seguridad, y lo más importante, incorporar nuevas funciones objetivo como son la sostenibilidad económica, medioambiental y social a lo largo del ciclo de vida completo. Este tipo de enfoque es el que nuestro grupo de investigación tiene en el proyecto DIMILIFE. Proyectos como puentes, presas, aeropuertos, redes de carreteras, redes de ferrocarriles, centrales nucleares, etc. tendrán su gemelo digital. Para que sea efectivo, se deberá prever, desde el principio, la monitorización de la infraestructura para ayudar a la toma de decisiones. Además, servirá para avanzar en la aproximación cognitiva en la toma de decisiones (Yepes et al., 2015).

Os paso a continuación un vídeo sobre el uso de los gemelos digitales en la ciudad de Singapur.

A continuación os pongo un vídeo sacado de la página de Elías Cueto, de la Universidad de Zaragoza, en la que vemos cómo se interactúa con un gemelo virtual de un conejo.

 

En este otro vídeo, el profesor Chinesta explica el cambio de paradigma del que hemos hablado anteriormente en el artículo.

¿Qué es la computación cuántica? Aquí tenemos un vídeo de Eduardo Sáenz de Cabezón:

Referencias:

Chinesta, F.; Cueto, E.; Abisset-Chavanne, E.; Duval, J.L. (2018). Virtual, Digital and Hybrid Twins: A New Paradigm in Data-Based Engineering and Engineered Data. Archives of Computational Methods in Engineering, DOI: 10.1007/s11831-018-9301-4

Yepes, V.; García-Segura, T.; Moreno-Jiménez, J.M. (2015). A cognitive approach for the multi-objective optimization of RC structural problems. Archives of Civil and Mechanical Engineering, 15(4):1024-1036. DOI:10.1016/j.acme.2015.05.001

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.