Diseño de experimentos en cuadrado grecolatino. Ejemplo aplicado al hormigón

Figura 1. Cuadrado grecolatino de orden cuatro. Wikipedia

Un cuadrado greco-latinocuadrado de Euler o cuadrados latinos ortogonales de orden n se denomina, en matemáticas, a la disposición en una cuadrícula cuadrada n×n de los elementos de dos conjuntos S y T, ambos con n elementos, cada celda conteniendo un par ordenado (st), siendo s elemento de S y t de T, de forma que cada elemento de S y cada elemento de T aparezca exactamente una vez en cada fila y en cada columna y que no haya dos celdas conteniendo el mismo par ordenado. Si bien los cuadrados grecolatinos eran una curiosidad matemática, a mediados del siglo XX Fisher demostró su utilidad para el control de experimentos estadísticos.

El diseño de experimentos en cuadrado grecolatino constituye una extensión del cuadrado latino. En este caso se eliminan tres fuentes extrañas de variabilidad, es decir, se controlan tres factores de bloques y un factor de tratamiento. Se trata de un diseño basado en una matriz de “n” letras latinas y “n” letras griegas, de forma que cada letra latina aparece solo una vez al lado de cada letra griega. Lo interesante de este diseño es que se permite la investigación de cuatro factores (filas, columnas, letras latinas y letras griegas), cada una con “n” niveles en solo “n2” corridas. Se llama cuadrado grecolatino porque los cuatro factores involucrados se prueban en la misma cantidad de niveles, de aquí que se pueda escribir como un cuadro. En la Figura 1 se presenta el aspecto de los datos del diseño de orden cuatro. El inconveniente de este modelo es que su utilización es muy restrictiva. El análisis de la varianza permite comprobar las hipótesis de igualdad de letras latinas (tratamientos), de las filas, de las columnas y de las letras griegas.

Si a un cuadrado latino p x p se le superpone un segundo cuadrado latino n x n en el que los tratamientos se denotan con letras griegas, entonces los dos cuadrados tienen la propiedad de que cada letra griega aparece una y sólo una vez con cada letra latina. Este diseño permite controlar sistemáticamente tres fuentes de variabilidad extraña. Ello permite la investigación de cuatro factores (filas, columnas, letras latinas y letras griegas), cada una con p niveles en sólo n2 ensayos.

Por tanto, el diseño de experimentos en cuadrado grecolatino se caracteriza por lo siguiente:

  • Es un diseño con cuatro factores a n niveles
  • Se asume que no hay interacciones entre los factores
  • Requiere de n2 observaciones
  • Cada nivel de un factor aparece una vez con cada nivel de los otros factores
  • Se trata de la superposición de dos cuadrados latinos (ver Figura 2)
Figura 2. Superposición de dos cuadrados latinos

En un diseño en cuadrado greco-latino la variable respuesta yij(hp) viene descrita por la siguiente ecuación:

A continuación os presento un caso para aclarar la aplicabilidad de este diseño de experimentos. Se trata de averiguar si la resistencia característica del hormigón a flexocompresión (MPa) varía con cuatro dosificaciones diferentes. Para ello se han preparado amasadas en cuatro amasadoras diferentes, se han utilizado cuatro operarios de amasadora y los ensayos se han realizado en cuatro laboratorios diferentes. Los resultados se encuentran en la tabla que sigue. Se quiere analizar el diseño de experimentos en cuadrado grecolatino realizado.

En el caso que nos ocupa, la variable de respuesta de la resistencia característica del hormigón a flexocompresión (MPa). El factor que se quiere estudiar es la dosificación a cuatro niveles (A, B, C y D). El bloque I es el tipo de amasadora, con cuatro niveles (α, β, γ y δ). El bloque II es el operario de la amasadora, con cuatro niveles (1, 2, 3 y 4). El bloque III es el laboratorio, con cuatro niveles (las filas). Se supone que no hay interacción entre el factor y los bloques entre sí.

Lo que se quiere averiguar es si hay diferencias significativas entre las dosificaciones (el factor a estudiar). De paso, se desea saber si hay diferencias entre los laboratorios, los operarios y las amasadoras (los bloques).

Os paso un pequeño vídeo donde se explica, de forma muy resumida, este caso, tanto para SPSS como para MINITAB.

Os dejo otro vídeo donde también se explica este tipo de diseño de experimentos.

Referencias:

  • Gutiérrez, H.; de la Vara, R. (2004). Análisis y Diseño de Experimentos. McGraw Hill, México.
  • Vicente, MªL.; Girón, P.; Nieto, C.; Pérez, T. (2005). Diseño de Experimentos. Soluciones con SAS y SPSS. Pearson, Prentice Hall, Madrid.
  • Pérez, C. (2013). Diseño de Experimentos. Técnicas y Herramientas. Garceta Grupo Editorial, Madrid.

 

Optimización heurística de pórticos de paso de carretera de hormigón armado

A continuación recojo uno de los primeros trabajos que hizo nuestro grupo de investigación en el año 2005 sobre optimización heurística de estructuras de hormigón. Se trata de la optimización mediante varias heurísticas (máximo gradiente, aceptación por umbrales y recocido simulado) de un pórtico de paso de carretera de hormigón armado. En este caso se consideraron 28 variables para definir una solución de pórtico. Este artículo se publicó en la revista Hormigón y Acero. Espero que os sea de interés.

 

Referencia:

CARRERA, J.M.; ALCALÁ, J.; YEPES, V.; GONZÁLEZ-VIDOSA, F. (2005). Optimización heurística de pórticos de paso de carretera de hormigón armado. Hormigón y Acero, 236: 85-95.

Descargar (PDF, 318KB)

Toma de decisiones aplicada a la construcción de un puente mixto en cajón

Os dejo a continuación un ejemplo sencillo de aplicación de la técnica AHP de toma de decisiones dirigida a la selección de alternativas en la construcción de un puente mixto en cajón. Se trata de un caso que utilizamos con nuestros estudiantes para enseñar la técnica. Tratamos de evitar que, en los estudios de soluciones, los estudiantes recurran siempre a las matrices de valoración ponderada, donde los pesos de cada criterio siempre se ponen de forma más o menos arbitraria, o bien para justificar la solución preferida. Este tipo de problemas también suelen aparecer en los concursos de licitación de obras públicas.

Referencia:

YEPES, V.; MARTÍNEZ-MUÑOZ, D.; ATA-ALI, N.; MARTÍ, J.V. (2019). Multi-criteria decision analysis techniques applied to the construction of a composite box-girder bridge. 13th annual International Technology, Education and Development Conference (INTED 2019), Valencia, 11th, 12th and 13th of March, 2019, 1458-1467. ISBN: 978-84-09-08619-1

Descargar (PDF, 441KB)

 

Gestión de la innovación en las empresas constructoras

Tras la crisis financiera de 2008, que supuso una caída brutal de la contratación de obra pública en España, las empresas constructoras y consultoras tuvieron que internacionalizarse. Sin casi haber salido completamente de este trance, sobrevino la actual crisis sanitaria de la pandemia del coronavirus que ha acarreado una nueva recesión social y económica que, de momento, no se atisba su solución. Las consecuencias de esta nueva crisis, graves sin duda, aún no se sabe hasta dónde pueden alcanzar. Por tanto, el sector de la construcción vuelve a sufrir una convulsión de difícil pronóstico. Las nuevas tecnologías están teniendo un papel determinante en la forma de afrontar esta coyuntura, especialmente en el trabajo no presencial. Los cambios que podrían tardar décadas en llegar, nos han alcanzado de repente. La pregunta es la de siempre: ¿cómo afrontar la competitividad de las empresas en escenarios tan cambiantes como los actuales?

Parece evidente que la metáfora darwinista de la evolución podría aplicarse, con todas las cautelas necesarias, al mundo empresarial. Solo sobrevivirán aquellas organizaciones capaces de adaptarse rápidamente al nuevo entorno. Y para ello no es suficiente la mejora continua de nuestros procesos y productos, sino que se requiere un cambio radical, rupturista, basado en la innovación, capaz de crear un “océano azul” donde la competencia sea irrelevante.

A continuación os paso una clase que tuve que impartir en línea sobre la gestión de la innovación en las empresas constructoras. Se trata de una clase impartida en la asignatura “Gestión de la innovación en el sector de la construcción” del Máster Universitario en Planificación y Gestión en Ingeniería Civil (MAPGIC) de la Escuela Técnica Superior de Ingeniería de Caminos, Canales y Puertos de la Universitat Politècnica de València. La dejo en abierto para que la pueda ver quien esté interesado.

Especialista en tecnologías sin zanja

Os anuncio a continuación la VI edición anual del Curso de Postgrado: ESPECIALISTA EN TECNOLOGÍAS SIN ZANJA, que se desarrolla del 26 de octubre al 11 de noviembre de 2020 en la modalidad online, a través de la plataforma Microsoft Teams. Se trata un curso de 46 horas organizado por la Asociación Ibérica de Tecnología SIN Zanja (IbSTT).

Os adjunto el programa actualizado y el enlace para que puedan cumplimentar el boletín de inscripción, y la reserva de plaza: https://forms.gle/FyYRn9D8XmuENyj4A. Por cierto, podéis solicitar un “código de descuento de empresa asociada” del 10% si sois alumno mío o bien contacto, por ser miembro colaborador (dáis mi nombre al inscribiros y os harán el descuento).

También os paso, gratuitamente, la ponencia que imparto dentro del curso, que he colgado en Youtube, por si os resulta de interés. Se trata del Módulo 7-1: Aspectos generales: Peforación Horizontal Dirigida PHD.

Descargar (PDF, 399KB)

Correlación y modelo de regresión lineal. Problema resuelto en puentes losa

Figura 1. Modelo lineal simple de un tablero de puente losa postesado macizo (Yepes et al., 2009)

Uno de los temas básicos que se estudia en la asignatura de estadística de cualquier grado de ingeniería es la inferencia y los modelos de regresión lineal (Figura 1). A pesar de su sencillez, muchos estudiantes y profesionales aplican, sin más, este tipo de regresiones para interpolar valores en múltiples campos de la ingeniería, la economía, la salud, etc. El conocimiento de algunas nociones básicas nos permitiría evitar errores de bulto. Uno de ellos es intentar forzar las predicciones más allá de las observaciones realizadas. Otro error es confundir la correlación con la regresión. Buscar relaciones donde no las hay (relación espuria, Figura 2). Y por último, uno de los aspectos más descuidados es la no comprobación de las hipótesis básicas que se deben cumplir para que un modelo de regresión lineal sea válido.

Figura 2. Relaciones espuria entre el consumo de chocolate y el número de premios Nobel

Dicho de otra forma, valorar la calidad del ajuste mediante el coeficiente de determinación no equivale a valorar el cumplimiento de las hipótesis básicas del modelo. Si las hipótesis del modelo no se cumplen, se pueden estar cometiendo graves errores en las conclusiones de las inferencias. Así, las hipótesis básicas del modelo de regresión son las siguientes:

  • Linealidad: los parámetros y su interpretación no tienen sentido si los datos no proceden de un modelo lineal
  • Normalidad de los errores: se asume que la distribución de los errores es normal
  • Homocedasticidad: la varianza del error es constante
  • Independencia de los errores: las variables aleatorias que representan los errores son mutuamente independientes
  • Las variables explicativas son linealmente independientes

Para aclarar las ideas, he analizado un caso de regresión lineal simple con datos reales procedentes de 26 puentes losa postesados macizos (Yepes et al., 2009). Se trata de conocer la relación que existe entre la luz principal de este tipo de puentes y el canto del tablero. Utilizaremos los programas siguientes: MINITAB, SPSS, EXCEL y MATLAB. También os dejo un vídeo explicativo, muy básico, pero que espero sea de interés. Dejo los detalles matemáticos aparte. Los interesados pueden consultar cualquier manual básico de estadística al respecto.

Descargar (PDF, 817KB)

Referencias:

YEPES, V.; DÍAZ, J.; GONZÁLEZ-VIDOSA, F.; ALCALÁ, J. (2009). Statistical Characterization of Prestressed Concrete Road Bridge Decks. Revista de la Construcción, 8(2):95-109.

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Los algoritmos genéticos

Charles Darwin en una fotografía tomada por J.M. Cameron en 1869.

Resulta fascinante comprobar cómo aplicando los mecanismos básicos de la evolución ya descrita por Darwin en su obra fundamental, El origen de las especies por medio de la selección natural, o la preservación de las razas preferidas en la lucha por la vida, publicada en 1859, se pueden generar algoritmos capaces de optimizar problemas complejos. Este tipo de metaheurísticas inspiradas en la Naturaleza ya se comentaron en artículos anteriores cuando hablamos de la optimización por colonias de hormigas o de la cristalización simulada. Aunque es un algoritmo ampliamente conocido por la comunidad científica, voy a intentar dar un par de pinceladas con el único afán de divulgar esta técnica. La verdad es que las implicaciones filosóficas que subyacen tras la teoría de Darwin son de una profundidad difícil de entender cuando se lleva a sus últimos extremos. Pero el caso es que estos algoritmos funcionan perfectamente en la optimización de estructuras de hormigón, problemas de transporte y otros problemas difíciles de optimización combinatoria.

Para aquellos interesados, os paso en las referencias un par de artículos donde hemos aplicado los algoritmos genéticos para optimizar rutas de transporte aéreo o pilas de puente huecas de hormigón armado.

Sin embargo, para aquellos otros que queráis un buen libro para pensar, os recomiendo “La peligrosa idea de Darwin”, de Daniel C. Dennett. A más de uno le hará remover los cimientos más profundos de sus creencias. Os paso la referencia al final.

Básicamente, los algoritmos genéticos “Genetic Algorithms, GA”, simulan el proceso de evolución de las especies que se reproducen sexualmente. De manera muy general, se puede decir que en la evolución de los seres vivos, el problema al que cada individuo se enfrenta diariamente es el de la supervivencia. Para ello cuenta, entre otras, con las habilidades innatas provistas en su material genético. A nivel de los genes, el problema consiste en la búsqueda de aquellas adaptaciones beneficiosas en un medio hostil y cambiante. Debido en parte a la selección natural, cada especie gana cierta “información” que es incorporada a sus cromosomas.

Durante la reproducción sexual, un nuevo individuo, diferente de sus padres, se genera a través de la acción de dos mecanismos fundamentales: El primero es el cruzamiento, que combina parte del patrimonio genético de cada progenitor para elaborar el del nuevo individuo; el segundo es la mutación, que supone una modificación espontánea de esta información genética. La descendencia será diferente de los progenitores, pero mantendrá parte de sus características. Si los hijos heredan buenos atributos de sus padres, su probabilidad de supervivencia será mayor que aquellos otros que no las tengan. De este modo, los mejores tendrán altas probabilidades de reproducirse y diseminar su información genética a sus descendientes.

Holland (1975) estableció por primera vez una metaheurística basada en la analogía genética. Un individuo se puede asociar a una solución factible del problema, de modo que se pueda codificar en forma de un vector binario “string”. Entonces un operador de cruzamiento intercambia cadenas de los padres para producir un hijo. La mutación se configura como un operador secundario que cambia, con una probabilidad pequeña, algunos elementos del vector hijo. La aptitud del nuevo vector creado se evalúa de acuerdo con una función objetivo.

Los pasos a seguir con esta metaheurística serían los siguientes:

  1. Generar una población de vectores (individuos).
  2. Mientras no se encuentre un criterio de parada:
    1. Seleccionar un conjunto de vectores padre, que serán reemplazados de la población.
    2. Emparejar aleatoriamente a los progenitores y cruzarlos para obtener unos vectores hijo.
    3. Aplicar una mutación a cada descendiente.
    4. Evaluar a los hijos.
    5. Introducir a los hijos en la población.
    6. Eliminar a aquellos individuos menos eficaces.

Normalmente este proceso finaliza después de un numero determinado de generaciones o cuando la población ya no puede mejorar. La selección de los padres se elige probabilísticamente hacia los individuos más aptos. Al igual que ocurre con en la Naturaleza, los sujetos con mayor aptitud diseminan sus características en toda la población.

Esta descripción de los GA se adapta a cada situación concreta, siendo habitual la codificación de números enteros en vez de binarios. Del mismo modo se han sofisticado los distintos operadores de cruzamiento y mutación.

Os dejo a continuación un vídeo explicativo que he elaborado para mis clases de “Modelos predictivos y de optimización heurística de estructuras de hormigón“, del Máster Universitario en Ingeniería del Hormigón, de la Universitat Politècnica de València.

Referencias:

DENNETT, D.C. (1999). La peligrosa idea de Darwin. Galaxia Gutenberg. Círculo de Lectores, Barcelona.

HOLLAND, J.H. (1975). Adaptation in natural and artificial systems. University of Michigan Press, Ann Arbor.

MARTÍNEZ, F.J.; GONZÁLEZ-VIDOSA, F.; HOSPITALER, A.; YEPES, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88: 375-386. ISSN: 0045-7949.  (link)

MEDINA, J.R.; YEPES, V. (2003). Optimization of touristic distribution networks using genetic algorithms. Statistics and Operations Research Transactions, 27(1): 95-112.  ISSN: 1696-2281.  (pdf)

PONZ-TIENDA, J.L.; YEPES, V.; PELLICER, E.; MORENO-FLORES, J. (2013). The resource leveling problem with multiple resources using an adaptive genetic algorithm. Automation in Construction, 29(1):161-172. DOI:http://dx.doi.org/10.1016/j.autcon.2012.10.003. (link)

YEPES, V. (2003). Apuntes de optimización heurística en ingeniería. Editorial de la Universidad Politécnica de Valencia. Ref. 2003.249. Valencia, 266 pp. Depósito Legal: V-2720-2003.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Tablas de contingencia aplicadas al hormigón

Figura 1. ¿Depende la calidad del hormigón de un proveedor determinado?

En ocasiones nos encontramos con un par de variables cualitativas que, a priori, no sabemos si se encuentran relacionadas entre sí, o si pertenecen a una misma población estadística. Recordemos que las variables cualitativas son aquellas cuyo resultado es un valor o categoría de entre un conjunto finito de respuestas (tipo de defecto, nombre del proveedor, color, etc.).

En el ámbito del hormigón, por ejemplo, podríamos tener varios proveedores de hormigón preparado en central y un control del número de cubas-hormigonera aceptadas, aceptadas con defectos menores o rechazadas. Otro ejemplo sería contabilizar el tipo de incumplimiento de una tolerancia por parte de un equipo que está encofrando un muro de contención. En estos casos, se trata de saber si existe dependencia entre los proveedores o los equipos de encofradores respecto a los defectos detectados. Esto sería interesante en el ámbito del control de la calidad para tomar medidas, como pudiese ser descartar a determinados proveedores o mejorar la formación de un equipo de encofradores.

Así, podríamos tener un problema como el siguiente: Teniendo en cuenta el punto 5.6 del Anejo 11 de la EHE, donde se definen las tolerancias de muros de contención y muros de sótano, se quiere comprobar si tres equipos de encofradores producen de forma homogénea en la ejecución de muros vistos, o por el contrario, unos equipos producen más defectos de un tipo que otro. Todos los equipos emplean el mismo tipo de encofrado. Las tolerancias que deben cumplirse son:

1. Desviación respecto a la vertical
2. Espesor del alzado
3. Desviación relativa de las superficies planas de intradós o de trasdós
4. Desviación de nivel de la arista superior del intradós, en muros vistos
5. Tolerancia de acabado de la cara superior del alzado, en muros vistos

Los equipos han estado trabajando durante año ejecutando este tipo de unidad de obra. Durante este tiempo el número de defectos en relación con la tolerancia dimensional ha sido pequeño, pero se han contabilizado 375 defectos. El control de calidad ha dado como resultado el conteo de la tabla de la Figura 2.

Figura 2. Conteo de incumplimientos según el equipo de encofradores. En paréntesis figura el valor esperado.

En la Figura 2 se ha representado también la frecuencia esperada para cada uno de los casos. Por ejemplo, la fracción esperada del incumplimiento “1” es de 89/375, mientras que la fracción esperada de defectos del equipo A es de 150/375. Ello implica que el valor esperado de incumplimientos del tipo “1” para el equipo de encofradores “A” sería: (89/375)·(150/375)·375=89·150/375=35,60.

La pregunta que nos podríamos hacer es la siguiente: ¿Influye el tipo de proveedor en la calidad de la recepción del hormigón? Para ello plantearíamos la hipótesis nula: El tipo de proveedor no influye en la calidad de la recepción del hormigón. La hipótesis alternativa sería que sí que existe dicha influencia o dependencia entre las variables cualitativas.

Para ello necesitamos una prueba estadística, en este caso es la prueba χ². El fundamento de la prueba χ² es comparar la tabla de las frecuencias observadas respecto a la de las frecuencias esperadas (que sería la que esperaríamos encontrar si las variables fueran estadísticamente independientes o no estuvieran relacionadas). Esta prueba permite obtener un p-valor (probabilidad de equivocarnos si rechazamos la hipótesis nula) que podremos contrastar con el nivel de confianza que determinemos. Normalmente el umbral utilizado es de 0,05. De esta forma, si p<0,05 se rechaza la hipótesis nula y, por tanto, diremos que las variables son dependientes. Dicho de forma más precisa, en este caso no existe un nivel de significación suficiente que soporte la independencia de las variables.

Las conclusiones que se obtienen de la prueba son sencillas de interpretar. Si no existe mucha diferencia entre los valores observados y los esperados, no hay razones para dudar de que las variables sean independientes.

No obstante, hay algunos problemas con la prueba χ², uno de ellos relacionado con el tamaño muestral. A mayor número de casos analizados, el valor de la χ² tiende a aumentar. Es decir, si la muestra es excesivamente grande, será más fácil que rechacemos la hipótesis nula de independencia, cuando a lo mejor podrían ser las variables independientes.

Por otra parte, cada una de las celdas de la tabla de contingencia debería tener un mínimo de 5 observaciones esperadas. Si no fuera así, podríamos agrupar filas o columnas (excepto en tablas 2×2). También se podría eliminar la fila que da una frecuencia esperada menor de 5.

Por último, no hay que abusar de la prueba χ². Por ejemplo, podríamos tener una variable numérica, como la resistencia característica del hormigón, y agruparla en una variable categórica en grupos tales como 25, 30, 35, 40, 45 y 50 MPa. Lo correcto cuando tenemos una escala numérica sería aplicar la prueba t-Student, siendo incorrecto convertir la escala numérica en una ordinal o incluso binaria.

A continuación os dejo el problema anterior resuelto, tanto con el programa SPSS como con MINITAB.

Descargar (PDF, 326KB)

Os dejo un par de vídeos explicativos, que espero os sean de interés.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Cuál es el mejor algoritmo para optimizar un problema? “No free lunch”

Figura 1. Desgraciadamente, no existe la comida gratis. https://medium.com/@LeonFedden/the-no-free-lunch-theorem-62ae2c3ed10c

Después de años impartiendo docencia en asignaturas relacionadas con la optimización heurística de estructuras de hormigón, y tras muchos artículos científicos publicados y más donde he sido revisor de artículos de otros grupos de investigación, siempre se plantea la misma pregunta: De todos los algoritmos que utilizamos para optimizar, ¿cuál es el mejor? ¿Por qué dice en su artículo que su algoritmo es el mejor para este problema? ¿Por qué no nos ponemos de acuerdo?

Para resolver esta cuestión, dos investigadores norteamericanos, David Wolpert y William Macready, publicaron un artículo en 1997 donde establecieron un teorema denominado “No free lunch“, que traducido sería algo así como “no hay comida gratis”. Dicho teorema establece que, por cada par de algoritmos de búsqueda, hay tantos problemas en el que el primer algoritmo es mejor que el segundo como problemas en el que el segundo algoritmo es mejor que el primero.

Este teorema revolucionó la forma de entender el rendimiento de los algoritmos. Incluso una búsqueda aleatoria en el espacio de soluciones podría dar mejores resultados que cualquier algoritmo de búsqueda. La conclusión es que no existe un algoritmo que sea universalmente mejor que los demás, pues siempre habrá casos donde funcione peor que otros, lo cual significa que todos ellos se comportarán igual de bien (o de mal) en promedio.

De hecho, se podría decir que un experto en algoritmos genéticos podría diseñar un algoritmo genético más eficiente que, por ejemplo, un recocido simulado, y viceversa. Aquí el arte y la experiencia en un problema y en una familia de algoritmos determinados, suele ser decisivo. En la Figura 2 se puede ver cómo un algoritmo muy especializado, que conoce bien el problema, puede mejorar su rendimiento, pero pierde la generalidad de poder usarse en cualquier tipo de problema de optimización que no sea para el que se diseñó.

Figura 2. El uso del conocimiento del problema puede mejorar el rendimiento, a costa de la generalidad. https://medium.com/@LeonFedden/the-no-free-lunch-theorem-62ae2c3ed10c

¿Qué consecuencias obtenemos de este teorema? Lo primero, una gran decepción, pues hay que abandonar la idea del algoritmo inteligente capaz de optimizar cualquier problema. Lo segundo, que es necesario incorporar en el algoritmo cierto conocimiento específico del problema, lo cual equivale a una “carrera armamentística” para cada problema de optimización. Se escriben y escribirán miles de artículos científicos donde un investigador demuestre que su algoritmo es mejor que otro para un determinado problema.

Una forma de resolver este asunto de incorporar conocimiento específico del problema es el uso de la inteligencia artificial en ayuda de las metaheurísticas. Nuestro grupo de investigación está abriendo puertas en este sentido, incorporando “deep learning” en el diseño de los algoritmos (Yepes et al., 2020; García et al., 2020a; 2020b), o bien redes neuronales (García-Segura et al., 2017). Incluso, en este momento, me encuentro como editor de un número especial de la revista Mathematics (primer decil del JCR) denominado: “Deep Learning and Hybrid-Metaheuristics: Novel Engineering Applications”, al cual os invito a enviar vuestros trabajos de investigación.

Si nos centramos en un tipo de problema determinado, por ejemplo, la optimización de estructuras (puentes, pórticos de edificación, muros, etc.), el teorema nos indica que necesitamos gente formada y creativa para optimizar el problema concreto al que nos enfrentamos. Es por ello que no existen programas comerciales eficientes capaces de adaptarse a cualquier estructura para optimizarla. Tampoco son eficientes las herramientas generales “tools” que ofrecen algunos programas como Matlab para su uso inmediato e indiscriminado.

Por tanto, no se podrá elegir entre dos algoritmos solo basándose en lo bien que trabajaron anteriormente en un problema determinado, pues en el siguiente problema pueden optimizar de forma deficiente. Por tanto, se exige conocimiento intrínseco de cada problema para optimizarlo. Es por ello que, por ejemplo, un experto matemático o informático no puede, sin más, dedicarse a optimizar puentes atirantados.

Referencias:

GARCÍA, J.; YEPES, V.; MARTÍ, J.V. (2020a). A hybrid k-means cuckoo search algorithm applied to the counterfort retaining walls problem. Mathematics,  8(4), 555.

GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2020b). The buttressed  walls problem: An application of a hybrid clustering particle swarm optimization algorithm. Mathematics,  8(6):862.

GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M. (2017). Multi-Objective Design of Post-Tensioned Concrete Road Bridges Using Artificial Neural Networks. Structural and Multidisciplinary Optimization, 56(1):139-150.

WOLPERT, D.H.; MACREADY, W.G. (1997). No Free Lunch Theorems for Optimization. IEEE Transactions on Evolutionary Computation, 1(1):67-82.

YEPES, V.; MARTÍ, J.V.; GARCÍA, J. (2020). Black hole algorithm for sustainable design of counterfort retaining walls. Sustainability, 12(7), 2767.

A continuación os dejo el artículo original “No Free Lunch Theorems for Optimization”. Se ha convertido en un clásico en optimización heurística.

Descargar (PDF, 698KB)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

“Fake engineering”. ¿Es oro todo lo que reluce en internet?

Figura 1. https://nationalpost.com/news/toronto/historic-home-perched-five-storeys-above-solid-ground-so-50-storey-condo-can-rise-behind-19th-century-dwelling

Todos los días vemos miles de imágenes en internet. Un buen número de ellas son montajes que buscan llamar la atención para capturar visitas y aumentar los ingresos por publicidad. La ingeniería no se libra de este tipo de fenómenos.

En la Figura 1 podéis observar una imagen que, a priori es espectacular. Pero para un ingeniero supone un rompecabezas, pues es muy complicado ejecutar unos pilotes justamente debajo de un edificio. Es la típica fotografía que utilizo para que mis estudiantes piensen un poco sobre cómo se ha podido realizar este procedimiento constructivo. Muchas veces la respuesta suele ser correcta: es un montaje. Sin embargo, no es éste el caso.

En este caso, la pregunta me la hizo Marcos Barjola. La respuesta no es nada fácil a priori. No obstante, buscando por internet uno puede encontrar una nota de prensa fechada en Toronto que habla de este caso.

Se trata de una noticia del año 2014. El titular decía lo siguiente: “Una casa histórica encaramada a cinco pisos sobre tierra firme para que un condominio de 50 pisos se levante detrás de una vivienda del siglo XIX”. Además, se añadía lo siguiente: “Hay pocas posibilidades de que los ocupantes originales de la Casa John Irwin pudieran imaginar lo que pasaría con su vivienda dentro de 141 años”.

La solución fue ingeniosa y, ciertamente, costosa. Se desplazó la vivienda, se ejecutaron los pilotes y la viga riostra, y se volvió a situar la vivienda sobre la estructura. Sin embargo, se trataba de salvar un edificio de dos plantas, construido en 1873, que es único porque es una de las últimas casas existentes del siglo XIX en el centro de Toronto.

Este tipo de noticias suele dar pie a muchas reflexiones ingenieriles. Un ejemplo es la Figura 2. ¿Se trata de un montaje? ¿Es posible que la foto sea real? Os dejo la pregunta abierta, para que penséis por un rato.

Figura 2. ¿Es posible? ¿Es fotomontaje?