Gestión de la innovación en las empresas constructoras

Tras la crisis financiera de 2008, que supuso una caída brutal de la contratación de obra pública en España, las empresas constructoras y consultoras tuvieron que internacionalizarse. Sin casi haber salido completamente de esta crisis, sobrevino la actual crisis sanitaria de la pandemia del coronavirus que ha acarreado una nueva crisis social y económica que, de momento, no se atisba su solución. Las consecuencias de esta nueva crisis, graves sin duda, aún no se sabe hasta dónde pueden alcanzar. Por tanto, el sector de la construcción vuelve a sufrir una convulsión de difícil pronóstico. Las nuevas tecnologías están teniendo un papel determinante en la forma de afrontar la crisis, especialmente en el trabajo no presencial. Los cambios que podrían tardar décadas en llegar, nos han alcanzado de repente. La pregunta es la de siempre: ¿cómo afrontar la competitividad de las empresas en escenarios tan cambiantes como los actuales?

Parece evidente que la metáfora darwinista de la evolución podría aplicarse, con todas las cautelas necesarias, al mundo empresarial. Solo sobrevivirán aquellas organizaciones capaces de adaptarse rápidamente al nuevo entorno. Y para ello no es suficiente la mejora continua de nuestros procesos y productos, sino que se requiere un cambio radical, rupturista, basado en la innovación, capaz de crear un “océano azul” donde la competencia sea irrelevante.

A continuación os paso una clase que tuve que impartir en línea sobre la gestión de la innovación en las empresas constructoras. Se trata de una clase impartida en la asignatura “Gestión de la innovación en el sector de la construcción” del Máster Universitario en Planificación y Gestión en Ingeniería Civil (MAPGIC) de la Escuela Técnica Superior de Ingeniería de Caminos, Canales y Puertos de la Universitat Politècnica de València. La dejo en abierto para que la pueda ver quien esté interesado.

Especialista en tecnologías sin zanja

Os anuncio a continuación la VI edición anual del Curso de Postgrado: ESPECIALISTA EN TECNOLOGÍAS SIN ZANJA, que se desarrolla del 26 de octubre al 11 de noviembre de 2020 en la modalidad online, a través de la plataforma Microsoft Teams. Se trata un curso de 46 horas organizado por la Asociación Ibérica de Tecnología SIN Zanja (IbSTT).

Os adjunto el programa actualizado y el enlace para que puedan cumplimentar el boletín de inscripción, y la reserva de plaza: https://forms.gle/FyYRn9D8XmuENyj4A. Por cierto, podéis solicitar un “código de descuento de empresa asociada” del 10% si sois alumno mío o bien contacto, por ser miembro colaborador (dáis mi nombre al inscribiros y os harán el descuento).

También os paso, gratuitamente, la ponencia que imparto dentro del curso, que he colgado en Youtube, por si os resulta de interés. Se trata del Módulo 7-1: Aspectos generales: Peforación Horizontal Dirigida PHD.

Descargar (PDF, 399KB)

Correlación y modelo de regresión lineal. Problema resuelto en puentes losa

Figura 1. Modelo lineal simple de un tablero de puente losa postesado macizo (Yepes et al., 2009)

Uno de los temas básicos que se estudia en la asignatura de estadística de cualquier grado de ingeniería es la inferencia y los modelos de regresión lineal (Figura 1). A pesar de su sencillez, muchos estudiantes y profesionales aplican, sin más, este tipo de regresiones para interpolar valores en múltiples campos de la ingeniería, la economía, la salud, etc. El conocimiento de algunas nociones básicas nos permitiría evitar errores de bulto. Uno de ellos es intentar forzar las predicciones más allá de las observaciones realizadas. Otro error es confundir la correlación con la regresión. Buscar relaciones donde no las hay (relación espuria, Figura 2). Y por último, uno de los aspectos más descuidados es la no comprobación de las hipótesis básicas que se deben cumplir para que un modelo de regresión lineal sea válido.

Figura 2. Relaciones espuria entre el consumo de chocolate y el número de premios Nobel

Dicho de otra forma, valorar la calidad del ajuste mediante el coeficiente de determinación no equivale a valorar el cumplimiento de las hipótesis básicas del modelo. Si las hipótesis del modelo no se cumplen, se pueden estar cometiendo graves errores en las conclusiones de las inferencias. Así, las hipótesis básicas del modelo de regresión son las siguientes:

  • Linealidad: los parámetros y su interpretación no tienen sentido si los datos no proceden de un modelo lineal
  • Normalidad de los errores: se asume que la distribución de los errores es normal
  • Homocedasticidad: la varianza del error es constante
  • Independencia de los errores: las variables aleatorias que representan los errores son mutuamente independientes
  • Las variables explicativas son linealmente independientes

Para aclarar las ideas, he analizado un caso de regresión lineal simple con datos reales procedentes de 26 puentes losa postesados macizos (Yepes et al., 2009). Se trata de conocer la relación que existe entre la luz principal de este tipo de puentes y el canto del tablero. Utilizaremos los programas siguientes: MINITAB, SPSS, EXCEL y MATLAB. También os dejo un vídeo explicativo, muy básico, pero que espero sea de interés. Dejo los detalles matemáticos aparte. Los interesados pueden consultar cualquier manual básico de estadística al respecto.

Descargar (PDF, 817KB)

Referencias:

YEPES, V.; DÍAZ, J.; GONZÁLEZ-VIDOSA, F.; ALCALÁ, J. (2009). Statistical Characterization of Prestressed Concrete Road Bridge Decks. Revista de la Construcción, 8(2):95-109.

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Los algoritmos genéticos

Charles Darwin en una fotografía tomada por J.M. Cameron en 1869.

Resulta fascinante comprobar cómo aplicando los mecanismos básicos de la evolución ya descrita por Darwin en su obra fundamental, El origen de las especies por medio de la selección natural, o la preservación de las razas preferidas en la lucha por la vida, publicada en 1859, se pueden generar algoritmos capaces de optimizar problemas complejos. Este tipo de metaheurísticas inspiradas en la Naturaleza ya se comentaron en artículos anteriores cuando hablamos de la optimización por colonias de hormigas o de la cristalización simulada. Aunque es un algoritmo ampliamente conocido por la comunidad científica, voy a intentar dar un par de pinceladas con el único afán de divulgar esta técnica. La verdad es que las implicaciones filosóficas que subyacen tras la teoría de Darwin son de una profundidad difícil de entender cuando se lleva a sus últimos extremos. Pero el caso es que estos algoritmos funcionan perfectamente en la optimización de estructuras de hormigón, problemas de transporte y otros problemas difíciles de optimización combinatoria.

Para aquellos interesados, os paso en las referencias un par de artículos donde hemos aplicado los algoritmos genéticos para optimizar rutas de transporte aéreo o pilas de puente huecas de hormigón armado.

Sin embargo, para aquellos otros que queráis un buen libro para pensar, os recomiendo “La peligrosa idea de Darwin”, de Daniel C. Dennett. A más de uno le hará remover los cimientos más profundos de sus creencias. Os paso la referencia al final.

Básicamente, los algoritmos genéticos “Genetic Algorithms, GA”, simulan el proceso de evolución de las especies que se reproducen sexualmente. De manera muy general, se puede decir que en la evolución de los seres vivos, el problema al que cada individuo se enfrenta diariamente es el de la supervivencia. Para ello cuenta, entre otras, con las habilidades innatas provistas en su material genético. A nivel de los genes, el problema consiste en la búsqueda de aquellas adaptaciones beneficiosas en un medio hostil y cambiante. Debido en parte a la selección natural, cada especie gana cierta “información” que es incorporada a sus cromosomas.

Durante la reproducción sexual, un nuevo individuo, diferente de sus padres, se genera a través de la acción de dos mecanismos fundamentales: El primero es el cruzamiento, que combina parte del patrimonio genético de cada progenitor para elaborar el del nuevo individuo; el segundo es la mutación, que supone una modificación espontánea de esta información genética. La descendencia será diferente de los progenitores, pero mantendrá parte de sus características. Si los hijos heredan buenos atributos de sus padres, su probabilidad de supervivencia será mayor que aquellos otros que no las tengan. De este modo, los mejores tendrán altas probabilidades de reproducirse y diseminar su información genética a sus descendientes.

Holland (1975) estableció por primera vez una metaheurística basada en la analogía genética. Un individuo se puede asociar a una solución factible del problema, de modo que se pueda codificar en forma de un vector binario “string”. Entonces un operador de cruzamiento intercambia cadenas de los padres para producir un hijo. La mutación se configura como un operador secundario que cambia, con una probabilidad pequeña, algunos elementos del vector hijo. La aptitud del nuevo vector creado se evalúa de acuerdo con una función objetivo.

Los pasos a seguir con esta metaheurística serían los siguientes:

  1. Generar una población de vectores (individuos).
  2. Mientras no se encuentre un criterio de parada:
    1. Seleccionar un conjunto de vectores padre, que serán reemplazados de la población.
    2. Emparejar aleatoriamente a los progenitores y cruzarlos para obtener unos vectores hijo.
    3. Aplicar una mutación a cada descendiente.
    4. Evaluar a los hijos.
    5. Introducir a los hijos en la población.
    6. Eliminar a aquellos individuos menos eficaces.

Normalmente este proceso finaliza después de un numero determinado de generaciones o cuando la población ya no puede mejorar. La selección de los padres se elige probabilísticamente hacia los individuos más aptos. Al igual que ocurre con en la Naturaleza, los sujetos con mayor aptitud diseminan sus características en toda la población.

Esta descripción de los GA se adapta a cada situación concreta, siendo habitual la codificación de números enteros en vez de binarios. Del mismo modo se han sofisticado los distintos operadores de cruzamiento y mutación.

Os dejo a continuación un vídeo explicativo que he elaborado para mis clases de “Modelos predictivos y de optimización heurística de estructuras de hormigón“, del Máster Universitario en Ingeniería del Hormigón, de la Universitat Politècnica de València.

Referencias:

DENNETT, D.C. (1999). La peligrosa idea de Darwin. Galaxia Gutenberg. Círculo de Lectores, Barcelona.

HOLLAND, J.H. (1975). Adaptation in natural and artificial systems. University of Michigan Press, Ann Arbor.

MARTÍNEZ, F.J.; GONZÁLEZ-VIDOSA, F.; HOSPITALER, A.; YEPES, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88: 375-386. ISSN: 0045-7949.  (link)

MEDINA, J.R.; YEPES, V. (2003). Optimization of touristic distribution networks using genetic algorithms. Statistics and Operations Research Transactions, 27(1): 95-112.  ISSN: 1696-2281.  (pdf)

PONZ-TIENDA, J.L.; YEPES, V.; PELLICER, E.; MORENO-FLORES, J. (2013). The resource leveling problem with multiple resources using an adaptive genetic algorithm. Automation in Construction, 29(1):161-172. DOI:http://dx.doi.org/10.1016/j.autcon.2012.10.003. (link)

YEPES, V. (2003). Apuntes de optimización heurística en ingeniería. Editorial de la Universidad Politécnica de Valencia. Ref. 2003.249. Valencia, 266 pp. Depósito Legal: V-2720-2003.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Tablas de contingencia aplicadas al hormigón

Figura 1. ¿Depende la calidad del hormigón de un proveedor determinado?

En ocasiones nos encontramos con un par de variables cualitativas que, a priori, no sabemos si se encuentran relacionadas entre sí, o si pertenecen a una misma población estadística. Recordemos que las variables cualitativas son aquellas cuyo resultado es un valor o categoría de entre un conjunto finito de respuestas (tipo de defecto, nombre del proveedor, color, etc.).

En el ámbito del hormigón, por ejemplo, podríamos tener varios proveedores de hormigón preparado en central y un control del número de cubas-hormigonera aceptadas, aceptadas con defectos menores o rechazadas. Otro ejemplo sería contabilizar el tipo de incumplimiento de una tolerancia por parte de un equipo que está encofrando un muro de contención. En estos casos, se trata de saber si existe dependencia entre los proveedores o los equipos de encofradores respecto a los defectos detectados. Esto sería interesante en el ámbito del control de la calidad para tomar medidas, como pudiese ser descartar a determinados proveedores o mejorar la formación de un equipo de encofradores.

Así, podríamos tener un problema como el siguiente: Teniendo en cuenta el punto 5.6 del Anejo 11 de la EHE, donde se definen las tolerancias de muros de contención y muros de sótano, se quiere comprobar si tres equipos de encofradores producen de forma homogénea en la ejecución de muros vistos, o por el contrario, unos equipos producen más defectos de un tipo que otro. Todos los equipos emplean el mismo tipo de encofrado. Las tolerancias que deben cumplirse son:

1. Desviación respecto a la vertical
2. Espesor del alzado
3. Desviación relativa de las superficies planas de intradós o de trasdós
4. Desviación de nivel de la arista superior del intradós, en muros vistos
5. Tolerancia de acabado de la cara superior del alzado, en muros vistos

Los equipos han estado trabajando durante año ejecutando este tipo de unidad de obra. Durante este tiempo el número de defectos en relación con la tolerancia dimensional ha sido pequeño, pero se han contabilizado 375 defectos. El control de calidad ha dado como resultado el conteo de la tabla de la Figura 2.

Figura 2. Conteo de incumplimientos según el equipo de encofradores. En paréntesis figura el valor esperado.

En la Figura 2 se ha representado también la frecuencia esperada para cada uno de los casos. Por ejemplo, la fracción esperada del incumplimiento “1” es de 89/375, mientras que la fracción esperada de defectos del equipo A es de 150/375. Ello implica que el valor esperado de incumplimientos del tipo “1” para el equipo de encofradores “A” sería: (89/375)·(150/375)·375=89·150/375=35,60.

La pregunta que nos podríamos hacer es la siguiente: ¿Influye el tipo de proveedor en la calidad de la recepción del hormigón? Para ello plantearíamos la hipótesis nula: El tipo de proveedor no influye en la calidad de la recepción del hormigón. La hipótesis alternativa sería que sí que existe dicha influencia o dependencia entre las variables cualitativas.

Para ello necesitamos una prueba estadística, en este caso es la prueba χ². El fundamento de la prueba χ² es comparar la tabla de las frecuencias observadas respecto a la de las frecuencias esperadas (que sería la que esperaríamos encontrar si las variables fueran estadísticamente independientes o no estuvieran relacionadas). Esta prueba permite obtener un p-valor (probabilidad de equivocarnos si rechazamos la hipótesis nula) que podremos contrastar con el nivel de confianza que determinemos. Normalmente el umbral utilizado es de 0,05. De esta forma, si p<0,05 se rechaza la hipótesis nula y, por tanto, diremos que las variables son dependientes. Dicho de forma más precisa, en este caso no existe un nivel de significación suficiente que soporte la independencia de las variables.

Las conclusiones que se obtienen de la prueba son sencillas de interpretar. Si no existe mucha diferencia entre los valores observados y los esperados, no hay razones para dudar de que las variables sean independientes.

No obstante, hay algunos problemas con la prueba χ², uno de ellos relacionado con el tamaño muestral. A mayor número de casos analizados, el valor de la χ² tiende a aumentar. Es decir, si la muestra es excesivamente grande, será más fácil que rechacemos la hipótesis nula de independencia, cuando a lo mejor podrían ser las variables independientes.

Por otra parte, cada una de las celdas de la tabla de contingencia debería tener un mínimo de 5 observaciones esperadas. Si no fuera así, podríamos agrupar filas o columnas (excepto en tablas 2×2). También se podría eliminar la fila que da una frecuencia esperada menor de 5.

Por último, no hay que abusar de la prueba χ². Por ejemplo, podríamos tener una variable numérica, como la resistencia característica del hormigón, y agruparla en una variable categórica en grupos tales como 25, 30, 35, 40, 45 y 50 MPa. Lo correcto cuando tenemos una escala numérica sería aplicar la prueba t-Student, siendo incorrecto convertir la escala numérica en una ordinal o incluso binaria.

A continuación os dejo el problema anterior resuelto, tanto con el programa SPSS como con MINITAB.

Descargar (PDF, 326KB)

Os dejo un par de vídeos explicativos, que espero os sean de interés.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Cuál es el mejor algoritmo para optimizar un problema? “No free lunch”

Figura 1. Desgraciadamente, no existe la comida gratis. https://medium.com/@LeonFedden/the-no-free-lunch-theorem-62ae2c3ed10c

Después de años impartiendo docencia en asignaturas relacionadas con la optimización heurística de estructuras de hormigón, y tras muchos artículos científicos publicados y más donde he sido revisor de artículos de otros grupos de investigación, siempre se plantea la misma pregunta: De todos los algoritmos que utilizamos para optimizar, ¿cuál es el mejor? ¿Por qué dice en su artículo que su algoritmo es el mejor para este problema? ¿Por qué no nos ponemos de acuerdo?

Para resolver esta cuestión, dos investigadores norteamericanos, David Wolpert y William Macready, publicaron un artículo en 1997 donde establecieron un teorema denominado “No free lunch“, que traducido sería algo así como “no hay comida gratis”. Dicho teorema establece que, por cada par de algoritmos de búsqueda, hay tantos problemas en el que el primer algoritmo es mejor que el segundo como problemas en el que el segundo algoritmo es mejor que el primero.

Este teorema revolucionó la forma de entender el rendimiento de los algoritmos. Incluso una búsqueda aleatoria en el espacio de soluciones podría dar mejores resultados que cualquier algoritmo de búsqueda. La conclusión es que no existe un algoritmo que sea universalmente mejor que los demás, pues siempre habrá casos donde funcione peor que otros, lo cual significa que todos ellos se comportarán igual de bien (o de mal) en promedio.

De hecho, se podría decir que un experto en algoritmos genéticos podría diseñar un algoritmo genético más eficiente que, por ejemplo, un recocido simulado, y viceversa. Aquí el arte y la experiencia en un problema y en una familia de algoritmos determinados, suele ser decisivo. En la Figura 2 se puede ver cómo un algoritmo muy especializado, que conoce bien el problema, puede mejorar su rendimiento, pero pierde la generalidad de poder usarse en cualquier tipo de problema de optimización que no sea para el que se diseñó.

Figura 2. El uso del conocimiento del problema puede mejorar el rendimiento, a costa de la generalidad. https://medium.com/@LeonFedden/the-no-free-lunch-theorem-62ae2c3ed10c

¿Qué consecuencias obtenemos de este teorema? Lo primero, una gran decepción, pues hay que abandonar la idea del algoritmo inteligente capaz de optimizar cualquier problema. Lo segundo, que es necesario incorporar en el algoritmo cierto conocimiento específico del problema, lo cual equivale a una “carrera armamentística” para cada problema de optimización. Se escriben y escribirán miles de artículos científicos donde un investigador demuestre que su algoritmo es mejor que otro para un determinado problema.

Una forma de resolver este asunto de incorporar conocimiento específico del problema es el uso de la inteligencia artificial en ayuda de las metaheurísticas. Nuestro grupo de investigación está abriendo puertas en este sentido, incorporando “deep learning” en el diseño de los algoritmos (Yepes et al., 2020; García et al., 2020a; 2020b), o bien redes neuronales (García-Segura et al., 2017). Incluso, en este momento, me encuentro como editor de un número especial de la revista Mathematics (primer decil del JCR) denominado: “Deep Learning and Hybrid-Metaheuristics: Novel Engineering Applications”, al cual os invito a enviar vuestros trabajos de investigación.

Si nos centramos en un tipo de problema determinado, por ejemplo, la optimización de estructuras (puentes, pórticos de edificación, muros, etc.), el teorema nos indica que necesitamos gente formada y creativa para optimizar el problema concreto al que nos enfrentamos. Es por ello que no existen programas comerciales eficientes capaces de adaptarse a cualquier estructura para optimizarla. Tampoco son eficientes las herramientas generales “tools” que ofrecen algunos programas como Matlab para su uso inmediato e indiscriminado.

Por tanto, no se podrá elegir entre dos algoritmos solo basándose en lo bien que trabajaron anteriormente en un problema determinado, pues en el siguiente problema pueden optimizar de forma deficiente. Por tanto, se exige conocimiento intrínseco de cada problema para optimizarlo. Es por ello que, por ejemplo, un experto matemático o informático no puede, sin más, dedicarse a optimizar puentes atirantados.

Referencias:

GARCÍA, J.; YEPES, V.; MARTÍ, J.V. (2020a). A hybrid k-means cuckoo search algorithm applied to the counterfort retaining walls problem. Mathematics,  8(4), 555.

GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2020b). The buttressed  walls problem: An application of a hybrid clustering particle swarm optimization algorithm. Mathematics,  8(6):862.

GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M. (2017). Multi-Objective Design of Post-Tensioned Concrete Road Bridges Using Artificial Neural Networks. Structural and Multidisciplinary Optimization, 56(1):139-150.

WOLPERT, D.H.; MACREADY, W.G. (1997). No Free Lunch Theorems for Optimization. IEEE Transactions on Evolutionary Computation, 1(1):67-82.

YEPES, V.; MARTÍ, J.V.; GARCÍA, J. (2020). Black hole algorithm for sustainable design of counterfort retaining walls. Sustainability, 12(7), 2767.

A continuación os dejo el artículo original “No Free Lunch Theorems for Optimization”. Se ha convertido en un clásico en optimización heurística.

Descargar (PDF, 698KB)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

“Fake engineering”. ¿Es oro todo lo que reluce en internet?

Figura 1. https://nationalpost.com/news/toronto/historic-home-perched-five-storeys-above-solid-ground-so-50-storey-condo-can-rise-behind-19th-century-dwelling

Todos los días vemos miles de imágenes en internet. Un buen número de ellas son montajes que buscan llamar la atención para capturar visitas y aumentar los ingresos por publicidad. La ingeniería no se libra de este tipo de fenómenos.

En la Figura 1 podéis observar una imagen que, a priori es espectacular. Pero para un ingeniero supone un rompecabezas, pues es muy complicado ejecutar unos pilotes justamente debajo de un edificio. Es la típica fotografía que utilizo para que mis estudiantes piensen un poco sobre cómo se ha podido realizar este procedimiento constructivo. Muchas veces la respuesta suele ser correcta: es un montaje. Sin embargo, no es éste el caso.

En este caso, la pregunta me la hizo Marcos Barjola. La respuesta no es nada fácil a priori. No obstante, buscando por internet uno puede encontrar una nota de prensa fechada en Toronto que habla de este caso.

Se trata de una noticia del año 2014. El titular decía lo siguiente: “Una casa histórica encaramada a cinco pisos sobre tierra firme para que un condominio de 50 pisos se levante detrás de una vivienda del siglo XIX”. Además, se añadía lo siguiente: “Hay pocas posibilidades de que los ocupantes originales de la Casa John Irwin pudieran imaginar lo que pasaría con su vivienda dentro de 141 años”.

La solución fue ingeniosa y, ciertamente, costosa. Se desplazó la vivienda, se ejecutaron los pilotes y la viga riostra, y se volvió a situar la vivienda sobre la estructura. Sin embargo, se trataba de salvar un edificio de dos plantas, construido en 1873, que es único porque es una de las últimas casas existentes del siglo XIX en el centro de Toronto.

Este tipo de noticias suele dar pie a muchas reflexiones ingenieriles. Un ejemplo es la Figura 2. ¿Se trata de un montaje? ¿Es posible que la foto sea real? Os dejo la pregunta abierta, para que penséis por un rato.

Figura 2. ¿Es posible? ¿Es fotomontaje?

 

Open Access Book: Optimization for Decision Making

Tengo el placer de compartir con todos vosotros, totalmente en abierto, un libro que he editado junto con el profesor de la Universidad de Zaragoza, José María Moreno Jiménez. La labor de editar libros científicos es una oportunidad de poder seleccionar aquellos autores y temas que destacan en un ámbito determinado. En este caso, la optimización en la toma de decisiones.

Además, resulta gratificante ver que el libro se encuentra editado en abierto, por lo que cualquiera de vosotros os lo podéis descargar sin ningún tipo de problema en esta entrada del blog. También os lo podéis descargar, o incluso pedirlo en papel, en la página web de la editorial MPDI: https://www.mdpi.com/books/pdfview/book/2958

Referencia:

YEPES, V.; MORENO-JIMÉNEZ, J.M. (Eds.) (2020). Optimization for Decision Making. MPDI, 277 pp., Basel, Switzerland. ISBN: 978-3-03943-221-9

 

 

Preface to ”Optimization for Decision Making”

Decision making is one of the distinctive activities of the human being; it is an indication of the degree of evolution, cognition, and freedom of the species. In the past, until the end of the 20th century, scientific decision-making was based on the paradigms of substantive rationality (normative approach) and procedural rationality (descriptive approach). Since the beginning of the 21st century and the advent of the Knowledge Society, decision-making has been enriched with new constructivist, evolutionary, and cognitive paradigms that aim to respond to new challenges and needs; especially the integration into formal models of the intangible, subjective, and emotional aspects associated with the human factor, and the participation in decision-making processes of spatially distributed multiple actors that intervene in a synchronous or asynchronous manner. To help address and resolve these types of questions, this book comprises 13 chapters that present a series of decision models, methods, and techniques and their practical applications in the fields of economics, engineering, and social sciences. The chapters collect the papers included in the “Optimization for Decision Making” Special Issue of the Mathematics journal, 2019, 7(3), first decile of the JCR 2019 in the Mathematics category. We would like to thank both the MDPI publishing editorial team, for their excellent work, and the 47 authors who have collaborated in its preparation. The papers cover a wide spectrum of issues related to the scientific resolution of problems; in particular, related to decision making, optimization, metaheuristics, simulation, and multi-criteria decision-making. We hope that the papers, with their undoubted mathematical content, can be of use to academics and professionals from the many branches of knowledge (philosophy, psychology, economics, mathematics, decision science, computer science, artificial intelligence, neuroscience, and more) that have, from such diverse perspectives, approached the study of decision-making, an essential aspect of human life and development.

Víctor Yepes, José María Moreno-Jiménez
Editors

About the Editors

Víctor Yepes Full Professor of Construction Engineering; he holds a Ph.D. degree in civil engineering. He serves at the Department of Construction Engineering, Universitat Politecnica de Valencia, Valencia, Spain. He has been the Academic Director of the M.S. studies in concrete materials and structures since 2007 and a Member of the Concrete Science and Technology Institute (ICITECH). He is currently involved in several projects related to the optimization and life-cycle assessment
of concrete structures as well as optimization models for infrastructure asset management. He is currently teaching courses in construction methods, innovation, and quality management. He authored more than 250 journals and conference papers including more than 100 published in the journal quoted in JCR. He acted as an Expert for project proposals evaluation for the Spanish Ministry of Technology and Science, and he is the Main Researcher in many projects. He currently serves as the Editor-in-Chief of the International Journal of Construction Engineering and Management and a member of the editorial board of 12 international journals (Structure & Infrastructure Engineering, Structural Engineering and Mechanics, Mathematics, Sustainability, Revista de la Construcción, Advances in Civil Engineering, and Advances in Concrete Construction, among others).

José María Moreno-Jiménez Full Professor of Operations Research and Multicriteria Decision Making, received the degrees in mathematics and economics as well as a Ph.D. degree in applied mathematics from the University of Zaragoza, Spain; where he is teaching from the course 1980–1981. He is the Head of the Quantitative Methods Area in the Faculty of Economics and Business of the University of Zaragoza from 1997, the Chair of the Zaragoza Multicriteria Decision Making Group from 1996, a member of the Advisory Board of the Euro Working Group on Decision Support Systems from 2017, and an Honorary Member of the International Society on Applied Economics ASEPELT from 2019. He has also been the President of this international scientific society (2014–2018) and the Coordinator of the Spanish Multicriteria Decision Making Group (2012–2015). His research interests are in the general area of Operations Research theory and practice, with an emphasis on multicriteria decision making, electronic democracy/cognocracy, performance analysis, and industrial and technological diversification. He has published more than 250 papers in scientific books and journals in the most prestigious editorials and is a member of the Editorial Board of several national and international journals.

Descargar (PDF, 3.61MB)

Instrucciones básicas de Matlab para tratamiento estadístico de datos

Dejo a continuación una serie de instrucciones básicas que podéis utilizar en Matlab para realizar cálculos estadísticos básicos. Este post está dedicado a mis estudiantes de Modelos Predictivos y de Optimización de Estructuras de Hormigón, pero puede ser de interés, por lo que lo dejo en abierto.

Importar datos de un fichero Excel

>> datos=xlsread(‘Ejercicio 4’)

Número de filas y columnas

>> size(datos)

Dimensión más grande de una matriz

>> length(datos)

Ordena los elementos de forma ascendente

>> sort(datos)

Ordena los elementos de forma descendente

>> sort(datos,’descend’)

Suma de los datos

>> sum(datos)

Producto de los datos

>> prod(datos)

Vector de sumas acumuladas

>> cumsum(datos)

Vector de productos acumulados

>> cumprod(datos)

Calcular la media aritmética

>> mean(datos)

Calcular la mediana

>> median(datos)

Calcular la moda de la muestra

>> mode(datos)

Calcular la media aritmética omitiendo el 5% de datos de cada lado

>> trimmean(datos,10)

Calcular la media geométrica de una muestra

>> geomean(datos)

Calcular la media armónica de una muestra

>> harmmean(datos)

Calcular el sesgo de la muestra

>> skewness(datos)

Calcular la curtosis de los datos

>> kurtosis(datos)

Varianza muestral

>> var(datos)

Desviación estándar muestral

>> std(datos)

 

Rango de los datos

>> range(datos)

El menor valor

>> min(datos)

El mayor valor

>> max(datos)

Desviación absoluta respecto a la media

>> mad(datos)

Momento central de orden 3 respecto a la media

>> moment(datos,3)

Rango intercuartílico

>> iqr(datos)

Primer cuartil (percentil 25)

>> prctile(datos, 25)

Percentil del 5%

>> prctile(datos,5)

Dibujar un diagrama de caja

>> boxplot(datos)

Dibujar el histograma de datos

>> hist(datos)

Dibujar la distribución de frecuencia acumulada

>> cdfplot(datos)

Visualización de funciones de probabilidad

>> disttool

Ajuste de modelos de distribución a conjunto de datos

>> dfittool

Matriz 3×3 de números aleatorios entre 0 y 1

>> rand(3)

Matriz 3×2 de números aleatorios entre 0 y 1

>> rand(3,2)

Matriz 3×3 de números aleatorios normales de media 0 y varianza 1

>> randn(3)

Matriz 3×2 de números aleatorios normales de media 0 y varianza 1

>> randn(3,2)

Secuencia de 5 valores aleatorios normales de desviación estándar de 2,5 y media 3

>> rand(1,5)*2.5+3

 

Toma de decisiones multicriterio en el análisis sostenible del ciclo de vida de los puentes

Acaban de publicarnos un artículo en la revista Journal of Civil Engineering and Managament, indexada en Q2 del JCR. Se trata de una revisión del estado del arte de la toma de decisiones multicriterio en el análisis sostenible del ciclo de vida de los puentes.

El trabajo se enmarca dentro del proyecto de investigación DIMALIFE que dirijo como investigador principal en la Universitat Politècnica de València.

El diseño sostenible de las infraestructuras se ha convertido en un importante tema de estudio desde el reciente establecimiento de la Agenda 2030. En este artículo se ofrece una revisión sistemática de la bibliografía sobre la utilización de las técnicas de toma de decisiones basadas en criterios múltiples utilizadas hasta ahora para el proyecto sostenible de puentes. También se presta especial atención a la forma en que los estudios evalúan el comportamiento sostenible de los diseños de los puentes a lo largo de su ciclo de vida desde las perspectivas económica, ambiental y social. Aunque SAW y AHP se utilizan de manera recurrente en la evaluación sostenible de los puentes, el análisis de los artículos más recientes muestra que la aplicación de las técnicas TOPSIS y PROMETHEE están adquiriendo cada vez más relevancia para tal fin. La mayoría de los estudios se centran en la investigación de la construcción y la etapa de mantenimiento de los puentes. Sin embargo, se identifica la necesidad de un análisis más profundo cuando se trata de evaluar los impactos resultantes de la etapa del fin del ciclo vital de los puentes desde un punto de vista sostenible. Se ha detectado el uso de la lógica intuitiva y neutrosófica como alternativas emergentes al enfoque difuso de los problemas de toma de decisiones.

ABSTRACT

Sustainable design of infrastructures has become a major matter of study since the recent establishment of the Agenda 2030. This paper provides a systematic literature review on the use of multi-criteria decision making techniques used so far for the sustainable design of bridges. Special attention is put as well on how the reviewed studies assess the sustainable performance of bridge designs along their life cycle from the economic, the environmental and the social perspective. Although SAW and AHP are recurrently used in the sustainable assessment of bridges, the analysis of the most recent articles show that the application of TOPSIS and PROMETHEE techniques are gaining increasing relevance for such purpose. Most of the studies focus on the research of the construction and the maintenance stage of bridges. However, a need for further analysis is identified when it comes to the assessment of the impacts resulting from the End of Life cycle stage of bridges from a sustainable point of view. The use of intuitionistic and neutrosophic logic have been detected as emerging alternatives to the fuzzy approach of decision making problems.

KEYWORDS:

Decision making, sustainability, bridge design, state of the art, MCDM, life cycle assessment.

REFERENCE:

NAVARRO, I.J.; PENADÉS-PLÀ, V.; MARTÍNEZ-MUÑOZ, D.; REMPLING, R.; YEPES, V. (2020). Life cycle sustainability assessment for multi-criteria decision making in bridge design: A review. Journal of Civil Engineering and Management, 26(7):690-704. DOI:10.3846/jcem.2020.13598

Descargar (PDF, 962KB)