Special Issue “Optimization for Decision Making III”

 

 

 

 

 

Mathematics (ISSN 2227-7390) is a peer-reviewed open access journal which provides an advanced forum for studies related to mathematics, and is published monthly online by MDPI.

  • Open Access – free for readers, with article processing charges (APC) paid by authors or their institutions.
  • High visibility: Indexed in the Science Citation Indexed Expanded – SCIE (Web of Science) from Vol. 4 (2016), Scopus, and Zentralblatt MATH from Vol. 3 (2015).
  • Rapid publication: manuscripts are peer-reviewed and a first decision provided to authors approximately 21.7 days after submission; acceptance to publication is undertaken in 5.3 days (median values for papers published in this journal in the second half of 2018).
  • Recognition of reviewers: reviewers who provide timely, thorough peer-review reports receive vouchers entitling them to a discount on the APC of their next publication in any MDPI journal, in appreciation of the work done.

Impact Factor: 1.747 (2019)  (First decile JCR journal)

Special Issue “Optimization for Decision Making III”

Deadline for manuscript submissions: 30 June 2021.

Special Issue Editors

Guest Editor 

Prof. Víctor Yepes
Universitat Politècnica de València, Spain
Website | E-Mail
Interests: multiobjective optimization; structures optimization; lifecycle assessment; social sustainability of infrastructures; reliability-based maintenance optimization; optimization and decision-making under uncertainty

Guest Editor 

Prof. José M. Moreno-Jiménez
Universidad de Zaragoza
Website | E-Mail
Interests: multicriteria decision making; environmental selection; strategic planning; knowledge management; evaluation of systems; logistics and public decision making (e-government, e-participation, e-democracy and e-cognocracy)

Special Issue Information

Dear Colleagues,

In the current context of the electronic governance of society, both administrations and citizens are demanding greater participation of all the actors involved in the decision-making process relative to the governance of society. In addition, the design, planning, and operations management rely on mathematical models, the complexity of which depends on the detail of models and complexity/characteristics of the problem they represent. Unfortunately, decision-making by humans is often suboptimal in ways that can be reliably predicted. Furthermore, the process industry seeks not only to minimize cost, but also to minimize adverse environmental and social impacts. On the other hand, in order to give an appropriate response to the new challenges raised, the decision-making process can be done by applying different methods and tools, as well as using different objectives. In real-life problems, the formulation of decision-making problems and application of optimization techniques to support decisions is particularly complex, and a wide range of optimization techniques and methodologies are used to minimize risks or improve quality in making concomitant decisions. In addition, a sensitivity analysis should be done to validate/analyze the influence of uncertainty regarding decision-making.

Prof. Víctor Yepes
Prof. José Moreno-Jiménez
Guest Editors

Manuscript Submission Information

Manuscripts should be submitted online at www.mdpi.com by registering and logging in to this website. Once you are registered, click here to go to the submission form. Manuscripts can be submitted until the deadline. All papers will be peer-reviewed. Accepted papers will be published continuously in the journal (as soon as accepted) and will be listed together on the special issue website. Research articles, review articles as well as short communications are invited. For planned papers, a title and short abstract (about 100 words) can be sent to the Editorial Office for announcement on this website.

Submitted manuscripts should not have been published previously, nor be under consideration for publication elsewhere (except conference proceedings papers). All manuscripts are thoroughly refereed through a single-blind peer-review process. A guide for authors and other relevant information for submission of manuscripts is available on the Instructions for Authors page. Mathematics is an international peer-reviewed open access monthly journal published by MDPI.

Please visit the Instructions for Authors page before submitting a manuscript. The Article Processing Charge (APC) for publication in this open access journal is 1200 CHF (Swiss Francs). Submitted papers should be well formatted and use good English. Authors may use MDPI’s English editing service prior to publication or during author revisions.

Keywords

  • Multicriteria decision making
  • Optimization techniques
  • Multiobjective optimization

Optimización heurística de pórticos de paso de carretera de hormigón armado

A continuación recojo uno de los primeros trabajos que hizo nuestro grupo de investigación en el año 2005 sobre optimización heurística de estructuras de hormigón. Se trata de la optimización mediante varias heurísticas (máximo gradiente, aceptación por umbrales y recocido simulado) de un pórtico de paso de carretera de hormigón armado. En este caso se consideraron 28 variables para definir una solución de pórtico. Este artículo se publicó en la revista Hormigón y Acero. Espero que os sea de interés.

 

Referencia:

CARRERA, J.M.; ALCALÁ, J.; YEPES, V.; GONZÁLEZ-VIDOSA, F. (2005). Optimización heurística de pórticos de paso de carretera de hormigón armado. Hormigón y Acero, 236: 85-95.

Descargar (PDF, 318KB)

Los algoritmos genéticos

Charles Darwin en una fotografía tomada por J.M. Cameron en 1869.

Resulta fascinante comprobar cómo aplicando los mecanismos básicos de la evolución ya descrita por Darwin en su obra fundamental, El origen de las especies por medio de la selección natural, o la preservación de las razas preferidas en la lucha por la vida, publicada en 1859, se pueden generar algoritmos capaces de optimizar problemas complejos. Este tipo de metaheurísticas inspiradas en la Naturaleza ya se comentaron en artículos anteriores cuando hablamos de la optimización por colonias de hormigas o de la cristalización simulada. Aunque es un algoritmo ampliamente conocido por la comunidad científica, voy a intentar dar un par de pinceladas con el único afán de divulgar esta técnica. La verdad es que las implicaciones filosóficas que subyacen tras la teoría de Darwin son de una profundidad difícil de entender cuando se lleva a sus últimos extremos. Pero el caso es que estos algoritmos funcionan perfectamente en la optimización de estructuras de hormigón, problemas de transporte y otros problemas difíciles de optimización combinatoria.

Para aquellos interesados, os paso en las referencias un par de artículos donde hemos aplicado los algoritmos genéticos para optimizar rutas de transporte aéreo o pilas de puente huecas de hormigón armado.

Sin embargo, para aquellos otros que queráis un buen libro para pensar, os recomiendo “La peligrosa idea de Darwin”, de Daniel C. Dennett. A más de uno le hará remover los cimientos más profundos de sus creencias. Os paso la referencia al final.

Básicamente, los algoritmos genéticos “Genetic Algorithms, GA”, simulan el proceso de evolución de las especies que se reproducen sexualmente. De manera muy general, se puede decir que en la evolución de los seres vivos, el problema al que cada individuo se enfrenta diariamente es el de la supervivencia. Para ello cuenta, entre otras, con las habilidades innatas provistas en su material genético. A nivel de los genes, el problema consiste en la búsqueda de aquellas adaptaciones beneficiosas en un medio hostil y cambiante. Debido en parte a la selección natural, cada especie gana cierta “información” que es incorporada a sus cromosomas.

Durante la reproducción sexual, un nuevo individuo, diferente de sus padres, se genera a través de la acción de dos mecanismos fundamentales: El primero es el cruzamiento, que combina parte del patrimonio genético de cada progenitor para elaborar el del nuevo individuo; el segundo es la mutación, que supone una modificación espontánea de esta información genética. La descendencia será diferente de los progenitores, pero mantendrá parte de sus características. Si los hijos heredan buenos atributos de sus padres, su probabilidad de supervivencia será mayor que aquellos otros que no las tengan. De este modo, los mejores tendrán altas probabilidades de reproducirse y diseminar su información genética a sus descendientes.

Holland (1975) estableció por primera vez una metaheurística basada en la analogía genética. Un individuo se puede asociar a una solución factible del problema, de modo que se pueda codificar en forma de un vector binario “string”. Entonces un operador de cruzamiento intercambia cadenas de los padres para producir un hijo. La mutación se configura como un operador secundario que cambia, con una probabilidad pequeña, algunos elementos del vector hijo. La aptitud del nuevo vector creado se evalúa de acuerdo con una función objetivo.

Los pasos a seguir con esta metaheurística serían los siguientes:

  1. Generar una población de vectores (individuos).
  2. Mientras no se encuentre un criterio de parada:
    1. Seleccionar un conjunto de vectores padre, que serán reemplazados de la población.
    2. Emparejar aleatoriamente a los progenitores y cruzarlos para obtener unos vectores hijo.
    3. Aplicar una mutación a cada descendiente.
    4. Evaluar a los hijos.
    5. Introducir a los hijos en la población.
    6. Eliminar a aquellos individuos menos eficaces.

Normalmente este proceso finaliza después de un numero determinado de generaciones o cuando la población ya no puede mejorar. La selección de los padres se elige probabilísticamente hacia los individuos más aptos. Al igual que ocurre con en la Naturaleza, los sujetos con mayor aptitud diseminan sus características en toda la población.

Esta descripción de los GA se adapta a cada situación concreta, siendo habitual la codificación de números enteros en vez de binarios. Del mismo modo se han sofisticado los distintos operadores de cruzamiento y mutación.

Os dejo a continuación un vídeo explicativo que he elaborado para mis clases de “Modelos predictivos y de optimización heurística de estructuras de hormigón“, del Máster Universitario en Ingeniería del Hormigón, de la Universitat Politècnica de València.

Referencias:

DENNETT, D.C. (1999). La peligrosa idea de Darwin. Galaxia Gutenberg. Círculo de Lectores, Barcelona.

HOLLAND, J.H. (1975). Adaptation in natural and artificial systems. University of Michigan Press, Ann Arbor.

MARTÍNEZ, F.J.; GONZÁLEZ-VIDOSA, F.; HOSPITALER, A.; YEPES, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88: 375-386. ISSN: 0045-7949.  (link)

MEDINA, J.R.; YEPES, V. (2003). Optimization of touristic distribution networks using genetic algorithms. Statistics and Operations Research Transactions, 27(1): 95-112.  ISSN: 1696-2281.  (pdf)

PONZ-TIENDA, J.L.; YEPES, V.; PELLICER, E.; MORENO-FLORES, J. (2013). The resource leveling problem with multiple resources using an adaptive genetic algorithm. Automation in Construction, 29(1):161-172. DOI:http://dx.doi.org/10.1016/j.autcon.2012.10.003. (link)

YEPES, V. (2003). Apuntes de optimización heurística en ingeniería. Editorial de la Universidad Politécnica de Valencia. Ref. 2003.249. Valencia, 266 pp. Depósito Legal: V-2720-2003.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Cuál es el mejor algoritmo para optimizar un problema? “No free lunch”

Figura 1. Desgraciadamente, no existe la comida gratis. https://medium.com/@LeonFedden/the-no-free-lunch-theorem-62ae2c3ed10c

Después de años impartiendo docencia en asignaturas relacionadas con la optimización heurística de estructuras de hormigón, y tras muchos artículos científicos publicados y más donde he sido revisor de artículos de otros grupos de investigación, siempre se plantea la misma pregunta: De todos los algoritmos que utilizamos para optimizar, ¿cuál es el mejor? ¿Por qué dice en su artículo que su algoritmo es el mejor para este problema? ¿Por qué no nos ponemos de acuerdo?

Para resolver esta cuestión, dos investigadores norteamericanos, David Wolpert y William Macready, publicaron un artículo en 1997 donde establecieron un teorema denominado “No free lunch“, que traducido sería algo así como “no hay comida gratis”. Dicho teorema establece que, por cada par de algoritmos de búsqueda, hay tantos problemas en el que el primer algoritmo es mejor que el segundo como problemas en el que el segundo algoritmo es mejor que el primero.

Este teorema revolucionó la forma de entender el rendimiento de los algoritmos. Incluso una búsqueda aleatoria en el espacio de soluciones podría dar mejores resultados que cualquier algoritmo de búsqueda. La conclusión es que no existe un algoritmo que sea universalmente mejor que los demás, pues siempre habrá casos donde funcione peor que otros, lo cual significa que todos ellos se comportarán igual de bien (o de mal) en promedio.

De hecho, se podría decir que un experto en algoritmos genéticos podría diseñar un algoritmo genético más eficiente que, por ejemplo, un recocido simulado, y viceversa. Aquí el arte y la experiencia en un problema y en una familia de algoritmos determinados, suele ser decisivo. En la Figura 2 se puede ver cómo un algoritmo muy especializado, que conoce bien el problema, puede mejorar su rendimiento, pero pierde la generalidad de poder usarse en cualquier tipo de problema de optimización que no sea para el que se diseñó.

Figura 2. El uso del conocimiento del problema puede mejorar el rendimiento, a costa de la generalidad. https://medium.com/@LeonFedden/the-no-free-lunch-theorem-62ae2c3ed10c

¿Qué consecuencias obtenemos de este teorema? Lo primero, una gran decepción, pues hay que abandonar la idea del algoritmo inteligente capaz de optimizar cualquier problema. Lo segundo, que es necesario incorporar en el algoritmo cierto conocimiento específico del problema, lo cual equivale a una “carrera armamentística” para cada problema de optimización. Se escriben y escribirán miles de artículos científicos donde un investigador demuestre que su algoritmo es mejor que otro para un determinado problema.

Una forma de resolver este asunto de incorporar conocimiento específico del problema es el uso de la inteligencia artificial en ayuda de las metaheurísticas. Nuestro grupo de investigación está abriendo puertas en este sentido, incorporando “deep learning” en el diseño de los algoritmos (Yepes et al., 2020; García et al., 2020a; 2020b), o bien redes neuronales (García-Segura et al., 2017). Incluso, en este momento, me encuentro como editor de un número especial de la revista Mathematics (primer decil del JCR) denominado: “Deep Learning and Hybrid-Metaheuristics: Novel Engineering Applications”, al cual os invito a enviar vuestros trabajos de investigación.

Si nos centramos en un tipo de problema determinado, por ejemplo, la optimización de estructuras (puentes, pórticos de edificación, muros, etc.), el teorema nos indica que necesitamos gente formada y creativa para optimizar el problema concreto al que nos enfrentamos. Es por ello que no existen programas comerciales eficientes capaces de adaptarse a cualquier estructura para optimizarla. Tampoco son eficientes las herramientas generales “tools” que ofrecen algunos programas como Matlab para su uso inmediato e indiscriminado.

Por tanto, no se podrá elegir entre dos algoritmos solo basándose en lo bien que trabajaron anteriormente en un problema determinado, pues en el siguiente problema pueden optimizar de forma deficiente. Por tanto, se exige conocimiento intrínseco de cada problema para optimizarlo. Es por ello que, por ejemplo, un experto matemático o informático no puede, sin más, dedicarse a optimizar puentes atirantados.

Referencias:

GARCÍA, J.; YEPES, V.; MARTÍ, J.V. (2020a). A hybrid k-means cuckoo search algorithm applied to the counterfort retaining walls problem. Mathematics,  8(4), 555.

GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2020b). The buttressed  walls problem: An application of a hybrid clustering particle swarm optimization algorithm. Mathematics,  8(6):862.

GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M. (2017). Multi-Objective Design of Post-Tensioned Concrete Road Bridges Using Artificial Neural Networks. Structural and Multidisciplinary Optimization, 56(1):139-150.

WOLPERT, D.H.; MACREADY, W.G. (1997). No Free Lunch Theorems for Optimization. IEEE Transactions on Evolutionary Computation, 1(1):67-82.

YEPES, V.; MARTÍ, J.V.; GARCÍA, J. (2020). Black hole algorithm for sustainable design of counterfort retaining walls. Sustainability, 12(7), 2767.

A continuación os dejo el artículo original “No Free Lunch Theorems for Optimization”. Se ha convertido en un clásico en optimización heurística.

Descargar (PDF, 698KB)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El aprendizaje profundo (deep learning) en la optimización de estructuras

Figura 1. Relación de pertenencia entre la inteligencia artificial, el aprendizaje automático y el aprendizaje profundo

En este artículo vamos a esbozar las posibilidades de la inteligencia artificial en la optimización de estructuras, en particular, el uso del aprendizaje profundo. El aprendizaje profundo (deep learning, DL) constituye un subconjunto del aprendizaje automático (machine learning, ML), que a su vez lo es de la inteligencia artificial (ver Figura 1). Si la inteligencia artificial empezó sobre los años 50, el aprendizaje automático surgió sobre los 80, mientras que el aprendizaje profundo nació en este siglo XXI, a partir del 2010, con la aparición de grandes superordenadores y por el aumento de los datos accesibles. Como curiosidad, uno de los grandes hitos del DL se produjo en 2012, cuando Google fue capaz de reconocer un gato entre los más de 10 millones de vídeos de Youtube, utilizando para ello 16000 ordenadores. Ahora serían necesarios muchos menos medios.

En cualquiera de estos tres casos, estamos hablando de sistemas informáticos capaces de analizar grandes cantidades de datos (big data), identificar patrones y tendencias y, por tanto, predecir de forma automática, rápida y precisa. De la inteligencia artificial y su aplicabilidad a la ingeniería civil ya hablamos en un artículo anterior.

Figura 2. Cronología en la aparición de los distintos tipos de algoritmos de inteligencia artificial. https://www.privatewallmag.com/inteligencia-artificial-machine-deep-learning/

Si pensamos en el cálculo estructural, utilizamos modelos, más o menos sofistificados, que permiten, si se conocen con suficiente precisión las acciones, averiguar los esfuerzos a los que se encuentran sometidos cada uno de los elementos en los que hemos dividido una estructura. Con dichos esfuerzos se identifican una serie de estados límite, que son un conjunto de situaciones potencialmente peligrosas para la estructura y comparar si la capacidad estructural del elemento analizado, dependiente de las propiedades geométricas y de sus materiales constituyentes, supera el valor último de la solicitación a la que, bajo cierta probabilidad, puede llegar a alcanzar el elemento estructural analizado.

Estos métodos tradicionales emplean desde hipótesis de elasticidad y comportamiento lineal, a otros modelos con comportamiento plástico o no lineales más complejos. Suele utilizarse, con mayor o menos sofisticación, el método de los elementos finitos (MEF) y el método matricial de la rigidez. En definitiva, en determinados casos, suelen emplearse los ordenadores para resolver de forma aproximada, ecuaciones diferenciales parciales muy complejas, habituales en la ingeniería estructural, pero también en otros campos de la ingeniería y la física. Para que estos sistemas de cálculo resulten precisos, es necesario alimentar los modelos con datos sobre materiales, condiciones de contorno, acciones, etc., lo más reales posibles. Para eso se comprueban y calibran estos modelos en ensayos reales de laboratorio (Friswell y Mottershead, 1995). De alguna forma, estamos retroalimentando de información al modelo, y por tanto “aprende”.

Figura 2. Malla 2D de elementos finitos, más densa alrededor de la zona de mayor interés. Wikipedia.

Si analizamos bien lo que hacemos, estamos utilizando un modelo, más o menos complicado, para predecir cómo se va a comportar la estructura. Pues bien, si tuviésemos una cantidad suficiente de datos procedentes de laboratorio y de casos reales, un sistema inteligente extraería información y sería capaz de predecir el resultado final. Mientras que la inteligencia artificial debería alimentarse de una ingente cantidad de datos (big data), el método de los elementos finitos precisa menor cantidad de información bruta (smart data), pues ha habido una labor previa muy concienzuda y rigurosa, para intentar comprender el fenómeno subyacente y modelizarlo adecuadamente. Pero, en definitiva, son dos procedimientos diferentes que nos llevan a un mismo objetivo: diseñar estructuras seguras. Otro tema será si éstas estructuras son óptimas desde algún punto de vista (economía, sostenibilidad, etc.).

La optimización de las estructuras constituye un campo científico donde se ha trabajado intensamente en las últimas décadas. Debido a que los problemas reales requieren un número elevado de variables, la resolución exacta del problema de optimización asociado es inabordable. Se trata de problemas NP-hard, de elevada complejidad computacional, que requiere de metaheurísticas para llegar a soluciones satisfactorias en tiempos de cálculo razonables.

Una de las características de la optimización mediante metaheurísticas es el elevado número de iteraciones en el espacio de soluciones, lo cual permite generar una inmensa cantidad de datos para el conjunto de estructuras visitadas. Es el campo ideal para la inteligencia artificial, pues permite extraer información para acelerar y afinar la búsqueda de la solución óptima. Un ejemplo de este tipo es nuestro trabajo (García-Segura et al., 2017) de optimización multiobjetivo de puentes cajón, donde una red neuronal aprendía de los datos intermedios de la búsqueda y luego predecía con una extraordinaria exactitud el cálculo del puente, sin necesidad de calcularlo. Ello permitía reducir considerablemente el tiempo final de computación.

Sin embargo, este tipo de aplicación es muy sencilla, pues solo ha reducido el tiempo de cálculo (cada comprobación completa de un puente por el método de los elementos finitos es mucho más lenta que una predicción con una red neuronal). Se trata ahora de dar un paso más allá. Se trata de que la metaheurística sea capaz de aprender de los datos recogidos utilizando la inteligencia artificial para ser mucho más efectiva, y no solo más rápida.

Tanto la inteligencia artificial como el aprendizaje automático no son una ciencia nueva. El problema es que sus aplicaciones eran limitadas por la falta de datos y de tecnologías para procesarlas de forma rápida y eficiente. Hoy en día se ha dado un salto cualitativo y se puede utilizar el DL, que como ya hemos dicho es una parte del ML, pero que utiliza algoritmos más sofisticados, construidos a partir del principio de las redes neuronales. Digamos que el DL (redes neuronales) utiliza algoritmos distintos al ML (algoritmos de regresión, árboles de decisión, entre otros). En ambos casos, los algoritmos pueden aprender de forma supervisada o no supervisada. En las no supervisadas se facilitan los datos de entrada, no los de salida. La razón por la que se llama aprendizaje profundo hace referencia a las redes neuronales profundas, que utilizan un número elevado de capas en la red, digamos, por ejemplo, 1000 capas. De hecho, el DL también se le conoce a menudo como “redes neuronales profundas”. Esta técnica de redes artificiales de neuronas es una de las técnicas más comunes del DL.

Figura. Esquema explicativo de diferencia entre ML y DL. https://www.privatewallmag.com/inteligencia-artificial-machine-deep-learning/

Una de las redes neuronales utilizadas en DL son las redes neuronales convolucionales, que es una variación del perceptrón multicapa, pero donde su aplicación se realiza en matrices bidimensionales, y por tanto, son muy efectivas en las tareas de visión artificial, como en la clasificación y segmentación de imágenes. En ingeniería, por ejemplo, se puede utilizar para la monitorización de la condición estructural, por ejemplo, para el análisis del deterioro. Habría que imaginar hasta dónde se podría llegar grabando en imágenes digitales la rotura en laboratorio de estructuras de hormigón y ver la capacidad predictiva de este tipo de herramientas si contaran con suficiente cantidad de datos. Todo se andará. Aquí os dejo una aplicación tradicional típica (Antoni Cladera, de la Universitat de les Illes Balears), donde se explica el modelo de rotura de una viga a flexión en la pizarra y luego se rompe la viga en el laboratorio. ¡Cuántos datos estamos perdiendo en la grabación! Un ejemplo muy reciente del uso del DL y Digital Image Correlation (DIC) aplicado a roturas de probetas en laboratorio es el trabajo de Gulgec et al. (2020).

Sin embargo, aquí nos interesa detenernos en la exploración de la integración específica del DL en las metaheurísticas con el objeto de mejorar la calidad de las soluciones o los tiempos de convergencia cuando se trata de optimizar estructuras. Un ejemplo de este camino novedoso en la investigación es la aplicabilidad de algoritmos que hibriden DL y metaheurísticas. Ya hemos publicado algunos artículos en este sentido aplicados a la optimización de muros de contrafuertes (Yepes et al., 2020; García et al., 2020a, 2020b). Además, hemos propuesto como editor invitado, un número especial en la revista Mathematics (indexada en el primer decil del JCR) denominado “Deep learning and hybrid-metaheuristics: novel engineering applications“.

Dejo a continuación un pequeño vídeo explicativo de las diferencias entre la inteligencia artificial, machine learning y deep learning.

Referencias:

FRISWELL, M.; MOTTERSHEAD, J. E. (1995). Finite element model updating in structural dynamics (Vol. 38). Dordrecht, Netherlands: Springer Science & Business Media.

GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2020a). The buttressed  walls problem: An application of a hybrid clustering particle swarm optimization algorithm. Mathematics,  8(6):862. https://doi.org/10.3390/math8060862

GARCÍA, J.; YEPES, V.; MARTÍ, J.V. (2020b). A hybrid k-means cuckoo search algorithm applied to the counterfort retaining walls problem. Mathematics,  8(4), 555. DOI:10.3390/math8040555

GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M. (2017). Multi-Objective Design of Post-Tensioned Concrete Road Bridges Using Artificial Neural Networks. Structural and Multidisciplinary Optimization, 56(1):139-150. DOI:1007/s00158-017-1653-0

GULGEC, N.S.; TAKAC, M., PAKZAD S.N. (2020). Uncertainty quantification in digital image correlation for experimental evaluation of deep learning based damage diagnostic. Structure and Infrastructure Engineering, https://doi.org/10.1080/15732479.2020.1815224

YEPES, V.; MARTÍ, J.V.; GARCÍA, J. (2020). Black hole algorithm for sustainable design of counterfort retaining walls. Sustainability, 12(7), 2767. DOI:10.3390/su12072767

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

18 años de la lectura de mi tesis doctoral: Optimización heurística económica aplicada a las redes de transporte del tipo VRPTW

Hoy 4 de septiembre, pero del año 2002, tuve la ocasión de defender mi tesis doctoral titulada “Optimización heurística económica aplicada a las redes de transporte del tipo VRPTW“. La tesis la dirigió el profesor Josep Ramon Medina Folgado, el tribunal lo presidió José Aguilar, acompañado por José Vicente Colomer, Francesc Robusté, Francisco García Benítez y Jesús Cuartero. La calificación fue de sobresaliente “cum laude” por unanimidad.

Por tanto, mi tesis ya ha cumplido la mayoría de edad. Es un buen momento de reflexionar sobre lo que este trabajo supuso para mí. Fue una tesis tardía, pues la leí con 38 años, teniendo ya una buena trayectoria profesional en la empresa privada (Dragados y Construcciones) y en la administración pública (Generalitat Valenciana). De alguna forma, ya tenía la vida más o menos solucionada, con experiencia acumulada, pero con muchas inquietudes. En aquel momento era profesor asociado a tiempo parcial y, en mis ratos libres, me dediqué a hacer la tesis doctoral. Ni decir tiene las dificultades que supone para cualquiera el sacar tiempo de donde no lo hay para hacer algo que, en aquel momento, era simplemente vocacional. No hubo financiación de ningún tipo, ni reducción de jornada laboral, ni nada por el estilo. En aquel momento ni se me ocurrió que acabaría, años después, como catedrático de universidad. Del 2002 al 2008 seguí como profesor asociado trabajando en la administración pública. Por último, por el sistema de habilitación nacional, accedí a la universidad directamente de profesor asociado a profesor titular, cosa bastante rara en aquel momento. Gracias a que era una verdadera oposición con el resto de candidatos, tuve la oportunidad de mostrar mis méritos ante un tribunal. Luego la cátedra vino por el sistema de acreditación, y la plaza, tras una penosa espera a causa de la crisis y por las cuotas de reposición. Pasé en 6 años de ser profesor asociado a tiempo parcial a estar habilitado como catedrático de universidad (12 de mayo del 2014). Todo eso se lo debo, entre otras cosas, a la gran producción científica que pude llevar a cabo y que tuvo su origen en esta tesis doctoral.

Por cierto, en aquella época la tesis doctoral tenía que ser inédita, es decir, no tenía que haberse publicado ningún artículo de la tesis. Hoy día es todo lo contrario, conviene tener 3-4 artículos buenos antes de pasar por la defensa. Luego publiqué al respecto algunos artículos en revistas nacionales e internacionales, pero sobre todo, comunicaciones a congresos.

La tesis supuso, en su momento, aprender en profundidad lo que era la algoritmia, el cálculo computacional y, sobre todo, la optimización heurística. En aquel momento, al menos en el ámbito de la ingeniería civil, nada o muy poco se sabía al respecto, aunque era un campo abonado a nivel internacional. Luego comprobé que todo lo aprendido se pudo aplicar al ámbito de las estructuras, especialmente a los puentes, pero eso es otra historia.

Os dejo las primeras páginas de la tesis y la presentación que utilicé en Powerpoint. Para que os hagáis una idea del momento, la presentación también la imprimí en acetato, pues aún se utilizada en ese momento en las clases la proyección de transparencias.

Referencia:

YEPES, V. (2002). Optimización heurística económica aplicada a las redes de transporte del tipo VRPTW. Tesis Doctoral. Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos. Universitat Politècnica de València. 352 pp. ISBN: 0-493-91360-2.

Descargar (PDF, 340KB)

Descargar (PDF, 5.92MB)

Sesión temática en CMN2021: Optimization, metaheuristics and evolutionary algorithms in civil engineering

En el marco del próximo congreso CMN2021 (Congress on Numerical Methods in Engineering) que se celebrará en Las Palmas de Gran Canaria del 28 al 30 de junio de 2021, hemos organizado una sesión temática coordinada por David Greiner, Diogo Ribeiro y Víctor Yepes que versa sobre optimización, metaheurísticas y algoritmos evolutivos en ingeniería civil. Os dejo a continuación una breve descripción del congreso y un resumen de la sesión temática propuesta.

El objetivo del Congreso de Métodos Numéricos en Ingeniería (CMN) es actuar como un foro en que se recopilen los trabajos científicos y técnicos más relevantes en el área de los métodos numéricos y la mecánica computacional, así como sus aplicaciones prácticas. CMN 2021, organizado conjuntamente por las sociedades de métodos numéricos española (SEMNI), portuguesa (APMTAC) y por el Instituto Universitario de Sistemas Inteligentes y Aplicaciones Numéricas en Ingeniería (SIANI) de la Universidad de Las Palmas de Gran Canaria (ULPGC). Los anteriores congresos conjuntos de ambas sociedades fueron celebrados en Madrid (2002), en Lisboa (2004), en Granada (2005), Porto (2007), Barcelona (2009), Coimbra (2011), Bilbao (2013), Lisboa (2015), Valencia (2017) y Minho (2019). Habiendo sido Las Palmas de Gran Canaria la sede del Primer Congreso CMN organizado por SEMNI en 1990, (General Chairs: Gabriel Winter y Miguel Galante), retorna 31 años después a su primera sede. El programa científico del CMN 2021 estará estructurado en sesiones temáticas según las distintas especialidades de los métodos numéricos. Las comunicaciones presentadas en el congreso constituirán una referencia de los avances recientes y de las líneas de trabajo futuras. Asimismo, investigadores internacionales de reconocido prestigio impartirán una serie de conferencias plenarias. El enlace a la web del congreso es la siguiente: https://congress.cimne.com/cmn2021

Descargar (PDF, 129KB)

Special Issue “Deep Learning and Hybrid-Metaheuristics: Novel Engineering Applications”

 

 

 

 

 

Mathematics (ISSN 2227-7390) is a peer-reviewed open access journal which provides an advanced forum for studies related to mathematics, and is published monthly online by MDPI. The European Society for Fuzzy Logic and Technology (EUSFLAT) and International Society for the Study of Information (IS4SI) are affiliated with Mathematics and their members receive a discount on article processing charges.

  • Open Access—free for readers, with article processing charges (APC) paid by authors or their institutions.
  • High Visibility: Indexed in the Science Citation Indexed Expanded – SCIE (Web of Science) from Vol. 4 (2016) and Scopus.
  • Rapid Publication: manuscripts are peer-reviewed and a first decision provided to authors approximately 16.4 days after submission; acceptance to publication is undertaken in 4.6 days (median values for papers published in this journal in the first half of 2020).
  • Recognition of Reviewers: reviewers who provide timely, thorough peer-review reports receive vouchers entitling them to a discount on the APC of their next publication in any MDPI journal, in appreciation of the work done.

 

Impact Factor: 1.747 (2019) (First decile JCR)

Special Issue “Deep Learning and Hybrid-Metaheuristics: Novel Engineering Applications”

Deadline for manuscript submissions: 30 April 2021.

Special Issue Editors

Prof. Dr. Víctor Yepes Website SciProfiles
Guest Editor
ICITECH, Universitat Politècnica de València, Valencia, Spain
Interests: multiobjective optimization; structure optimization; lifecycle assessment; social sustainability of infrastructures; reliability-based maintenance optimization; optimization and decision-making under uncertainty
Special Issues and Collections in MDPI journals
Dr. José Antonio García Website
Guest Editor
Pontificia Universidad Católica de Valparaíso, Chile
Interests: optimization; deep learning; operations research; artificial intelligence applications to industrial problems

Special Issue Information

Dear Colleagues,

Hybrid metaheuristic methods have shown very good performances in different combinatorial problems. Additionally, the rise of machine learning techniques has created a space to develop metaheuristic algorithms that use these techniques in order to tackle NP-hard problems and improve the convergence of algorithms. In this Special Issue, we invite researchers to submit papers in this optimization line, applying hybrid algorithms to industrial problems, including but not limited to industrial applications, and challenging problems arising in the fields of big data, construction, sustainability, transportation, and logistics, among others.

Deep learning techniques have also been important tools in extracting features, classifying situations, predicting events, and assisting in decision making. Some of these tools have been applied, for example, to Industry 4.0. Among the main techniques used are feedforward networks (FNN), convolutional networks (CNN), long-term short memory (LSTM), autoencoders (AE), enerative adversarial networks, and deep Q-networks (DQNs). Contributions on practical deep learning applications and cases are invited to this Special Issue, including but not limited to applications to the industry of computational vision, natural language processing, supervised learning applied to industry, unsupervised learning applied to industry, and reinforcement learning, among others.

Prof. Dr. Víctor Yepes
Dr. José Antonio García
Guest Editors

 

Manuscript Submission Information

Manuscripts should be submitted online at www.mdpi.com by registering and logging in to this website. Once you are registered, click here to go to the submission form. Manuscripts can be submitted until the deadline. All papers will be peer-reviewed. Accepted papers will be published continuously in the journal (as soon as accepted) and will be listed together on the special issue website. Research articles, review articles as well as short communications are invited. For planned papers, a title and short abstract (about 100 words) can be sent to the Editorial Office for announcement on this website.

Submitted manuscripts should not have been published previously, nor be under consideration for publication elsewhere (except conference proceedings papers). All manuscripts are thoroughly refereed through a single-blind peer-review process. A guide for authors and other relevant information for submission of manuscripts is available on the Instructions for Authors page. Mathematics is an international peer-reviewed open access monthly journal published by MDPI.

Please visit the Instructions for Authors page before submitting a manuscript. The Article Processing Charge (APC) for publication in this open access journal is 1200 CHF (Swiss Francs). Submitted papers should be well formatted and use good English. Authors may use MDPI’s English editing service prior to publication or during author revisions.

Keywords

  • Construction
  • Smart cities
  • Optimization
  • Deep learning

Puentes mixtos: diseño, análisis de ciclo de vida, mantenimiento y toma de decisiones

Acaban de publicarnos un artículo en la revista Advances in Civil Engineering,  revista indexada en el JCR. Se trata de un artículo de revisión del estado del arte de los puentes mixtos de hormigón y acero desde los puntos de vista del diseño, análisis del ciclo de vida, mantenimiento y toma de decisiones. El trabajo se enmarca dentro del proyecto de investigación DIMALIFE que dirijo como investigador principal en la Universitat Politècnica de València.

Los puentes mixtos de acero y hormigón se utilizan como alternativa a los puentes de hormigón debido a su capacidad de adaptar su geometría a las limitaciones de diseño y a la posibilidad de reutilizar algunos de los materiales de la estructura. En esta revisión del estado del arte, informamos de la investigación realizada sobre el diseño, el comportamiento, la optimización, los procesos de construcción, el mantenimiento, la evaluación del impacto y las técnicas de toma de decisiones de los puentes mixtos para llegar a un enfoque de diseño completo. Además de un análisis cualitativo, se utiliza un análisis multivariante para identificar las lagunas de conocimiento relacionadas con el diseño de los puentes y para detectar las tendencias de la investigación. Un objetivo adicional es hacer visibles las lagunas en el diseño sostenible de los puentes mixtos, lo que permite centrar los futuros estudios de investigación. Los resultados de esta labor muestran cómo la investigación se ha centrado en el diseño preliminar de puentes con un enfoque principalmente económico, mientras que a nivel mundial la preocupación se dirige a la búsqueda de soluciones sostenibles. Se ha comprobado que las estrategias de evaluación del impacto del ciclo de vida y de adopción de decisiones permiten a los gestores de los puentes mejorar la adopción de decisiones, en particular al final del ciclo de vida de los puentes mixtos.

Abstract

Steel-concrete composite bridges are used as an alternative to concrete bridges because of their ability to adapt their geometry to design constraints and the possibility of reusing some of the materials in the structure. In this review, we report the research carried out on the design, behavior, optimization, construction processes, maintenance, impact assessment, and decision-making techniques of composite bridges in order to arrive at a complete design approach. In addition to a qualitative analysis, a multivariate analysis is used to identify knowledge gaps related to bridge design and to detect trends in research. An additional objective is to make visible the gaps in the sustainable design of composite steel-concrete bridges, which allows us to focus on future research studies. The results of this work show how researchers have concentrated their studies on the preliminary design of bridges with a mainly economic approach, while at a global level, concern is directed towards the search for sustainable solutions. It is found that life cycle impact assessment and decision-making strategies allow bridge managers to improve decision-making, particularly at the end of the life cycle of composite bridges.

Reference:

MARTÍNEZ-MUÑOZ, D.; MARTÍ, J.V.; YEPES, V. (2020). Steel-concrete composite bridges: design, life cycle assessment, maintenance and decision making. Advances in Civil Engineering, 2020, 8823370. DOI:10.1155/2020/8823370

Descargar (PDF, 1.34MB)

 

 

 

Optimización de muros de contrafuertes mediante algoritmo híbrido de enjambre de partículas y clustering

Acaban de publicarnos un artículo en la revista Mathematics,  revista indexada en el primer cuartil del JCR. En este artículo se presenta un algoritmo híbrido de enjambre de partículas y clustering para optimizar el coste y las emisiones de CO2 de un muro de contrafuertes. El trabajo se enmarca dentro del proyecto de investigación DIMALIFE que dirijo como investigador principal en la Universitat Politècnica de València.

El diseño de los muros de contrafuertes es un problema de optimización combinatoria de interés debido a las aplicaciones prácticas relativas al ahorro de costos que implica el diseño y la optimización en la cantidad de emisiones de CO2 generadas en su construcción. Por otro lado, este problema presenta importantes retos en cuanto a complejidad computacional, pues involucra 32 variables de diseño, por lo que tenemos en el orden de 10^20 combinaciones posibles. En este artículo proponemos un algoritmo híbrido en el que se integra el método de optimización del enjambre de partículas que resuelve los problemas de optimización en espacios continuos con la técnica de clustering db-scan. Este algoritmo optimiza dos funciones objetivo: las emisiones de carbono y el costo económico de los muros de hormigón armado. Para evaluar la contribución del operador del db-scan en el proceso de optimización, se diseñó un operador aleatorio. Se comparan las mejores soluciones, los promedios y los rangos intercuartílicos de las distribuciones obtenidas. A continuación se comparó el algoritmo db-scan con una versión híbrida que utiliza k-means como método de discretización y con una implementación discreta del algoritmo de búsqueda de armonía. Los resultados indican que el operador db-scan mejora significativamente la calidad de las soluciones y que la metaheurística propuesta muestra resultados competitivos con respecto al algoritmo de búsqueda de armonía.

Abstract:

The design of reinforced earth retaining walls is a combinatorial optimization problem of interest due to practical applications regarding the cost savings involved in the design and the optimization in the amount of CO2 emissions generated in its construction. On the other hand, this problem presents important challenges in computational complexity since it involves 32 design variables; therefore we have in the order of 10^20 possible combinations. In this article, we propose a hybrid algorithm in which the particle swarm optimization method is integrated that solves optimization problems in continuous spaces with the db-scan clustering technique, with the aim of addressing the combinatorial problem of the design of reinforced earth retaining walls. This algorithm optimizes two objective functions: the carbon emissions embedded and the economic cost of reinforced concrete walls. To assess the contribution of the db-scan operator in the optimization process, a random operator was designed. The best solutions, the averages, and the interquartile ranges of the obtained distributions are compared. The db-scan algorithm was then compared with a hybrid version that uses k-means as the discretization method and with a discrete implementation of the harmony search algorithm. The results indicate that the db-scan operator significantly improves the quality of the solutions and that the proposed metaheuristic shows competitive results with respect to the harmony search algorithm.

Keywords:

CO2 emission; earth-retaining walls; optimization; db-scan; particle swarm optimization

Reference:

GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2020). The buttressed  walls problem: An application of a hybrid clustering particle swarm optimization algorithm. Mathematics, 8(6):862. https://doi.org/10.3390/math8060862

Descargar (PDF, 847KB)