El algoritmo de la naturaleza: El secreto de las hormigas para resolver problemas imposibles

¿Cómo es posible que insectos con capacidades individuales sumamente limitadas resuelvan problemas geométricos y logísticos que a la humanidad le han llevado décadas de estudio formal para dominar?

En el rincón más sencillo de un jardín tiene lugar un fenómeno asombroso: una comunidad de diminutos seres encuentra, sin mapas, líderes jerárquicos ni tecnología GPS, el camino más corto entre un hormiguero y una fuente de alimento.

Este prodigio de la naturaleza no es solo una curiosidad biológica, sino la piedra angular de la optimización mediante colonias de hormigas (ACO), una potente metaheurística computacional que actúa como puente entre la eficiencia orgánica y los algoritmos más avanzados de la actualidad.

A continuación, exploramos cinco lecciones fundamentales que estos optimizadores naturales nos enseñan sobre la resolución de problemas complejos.

La inteligencia no reside en el individuo, sino en el colectivo.

En el mundo de las hormigas, la genialidad no es una cualidad de un «líder» con una visión superior, sino que surge del grupo. Así, el comportamiento inteligente surge de la masa, lo que desafía nuestras nociones tradicionales de gestión jerárquica. La ciencia ha comprobado que la brillantez del sistema no radica en sus componentes aislados, sino en la red de interacciones entre ellos.

Como se describe en los fundamentos de la inteligencia colectiva:

«En la naturaleza existen ejemplos de colectivos de individuos cuyo comportamiento es aparentemente inteligente, sin que esta característica se manifieste en sus componentes individuales».

Esta realidad nos invita a reflexionar sobre un cambio de paradigma: frente al liderazgo humano centralizado, la naturaleza propone una lógica bottom-up, en la que la suma de acciones simples y coordinadas supera la capacidad de cualquier genio individual.

El «Universo» como herramienta de comunicación dinámica.

Para que una colonia resuelva un problema, no es necesario que todas las hormigas conozcan el mapa completo del entorno. De hecho, ningún agente posee un conocimiento global. El éxito depende de la interacción con su «universo», que actúa como depositario físico de la información.

Según el contexto científico, deben cumplirse tres condiciones esenciales para que se produzca este comportamiento:

  • Existencia de un objetivo prioritario: una meta clara (como la locomoción o la alimentación) que proporciona un norte y, crucialmente, dicta el comportamiento de los agentes incluso en ausencia de información local.
  • Reglas de interacción local: si existe información local, el agente la utiliza para tomar decisiones que le permitan alcanzar el objetivo más rápidamente. Los agentes independientes depositan y modifican datos en el entorno, comunicando indirectamente los resultados de sus esfuerzos.
  • Un universo donde actuar: el entorno es la «geografía» por la que transitan. Es el medio que proporciona los datos necesarios y en el que se encuentra la memoria colectiva del sistema.

Feromonas: el rastro que se convierte en memoria adaptativa.

El proceso mediante el cual las hormigas optimizan sus rutas es un fascinante ciclo químico-digital. Todo comienza con una exploración aleatoria del entorno. Tan pronto como un individuo encuentra una fuente de alimento, evalúa su cantidad y calidad. Al regresar al hormiguero, deposita una sustancia química llamada feromona.

Este rastro oloroso sirve de señal para las demás hormigas. El camino más corto acaba ganando por una cuestión de frecuencia: las hormigas que viajan por la ruta más breve regresan antes y con mayor frecuencia, por lo que refuerzan ese rastro más rápido que en las rutas largas.

Sin embargo, la clave del éxito radica en la fragilidad del rastro: la feromona es dinámica y se evapora con el tiempo. Si un camino deja de usarse, la señal desaparece. Esta capacidad de «olvido» o plasticidad es vital, ya que permite que el sistema sea flexible y evita la «estagnación», impidiendo que la colonia se quede atrapada en soluciones locales, ya sean mediocres u óptimas, que ya no resultan eficientes ante un entorno cambiante.

De la biología al código: el espejo de la optimización.

La informática ha logrado traducir estos comportamientos biológicos en algoritmos de búsqueda altamente sofisticados. Para comprender esta transición del mundo natural al ámbito del procesador, es necesario observar cómo cada elemento biológico encuentra su contraparte matemática.

Esta estructura permite a los programadores utilizar la lógica de la colonia para explorar enormes espacios de soluciones, donde encontrar la respuesta perfecta sería inviable con métodos tradicionales.

No estamos solos: el club de los optimizadores naturales.

Las hormigas no son las únicas maestras del arte de la economía de recursos. La naturaleza es un club exclusivo de optimizadores en el que la eficiencia es una ley universal de supervivencia, no una invención humana. Otros ejemplos destacados son:

  • Los cisnes: al volar en formación de V, calculan una distribución espacial precisa para minimizar el esfuerzo total que debe realizar la bandada para desplazarse de un punto A a otro B.
  • Los depredadores y los peces: los patrones de ataque de los primeros y las formaciones de los segundos buscan la máxima efectividad con el mínimo riesgo energético.
  • Los ciclistas: apelotonándose instintivamente en una carrera para reducir la resistencia al viento, emulan estos patrones de optimización colectiva.

Conclusión: un futuro inspirado en lo pequeño.

En 1991, los investigadores Corloni, Dorigo y Maniezzo abrieron una puerta trascendental al sugerir que podíamos imitar el comportamiento de los insectos para resolver problemas de optimización combinatoria. Esa semilla científica nos permite hoy en día gestionar redes de tráfico complejas, diseñar ciudades más habitables y optimizar las cadenas logísticas globales que sustentan nuestra economía.

Si aprendiéramos a «escuchar» y a observar con mayor detenimiento los rastros y la información que fluyen en nuestro propio universo, quizá descubriríamos soluciones a problemas que hoy consideramos irresolubles.

En definitiva, nos queda una reflexión provocadora: si una hormiga no sabe que está resolviendo un algoritmo, ¿qué problemas estamos resolviendo colectivamente sin darnos cuenta?

En esta conversación puedes escuchar algunas de las ideas más interesantes sobre el tema.

Este vídeo resume bien los conceptos básicos de la optimización mediante la colonia de hormigas.

Ant_Colony_Optimization Ant_Colony_Optimization

Referencias:

COLORNI, A.; DORIGO, M.; MANIEZZO, V. (1991). Distributed optimization by ant colonies, in VARELA, F.J.; BOURGINE, P. (eds.) Proceedings of the First European Conference on Artificial Life (ECAL-91). The MIT Press: Cambrige, MA, 134-142.

MARTÍNEZ, F.; PEREA, C.; YEPES, V.; HOSPITALER, A.; GONZÁLEZ-VIDOSA, F. (2007). Optimización heurística de pilas rectangulares huecas de hormigón armado. Hormigón y Acero, 244: 67-80. ISBN: 0439-5689. (link)

MARTÍNEZ, F.J.; GONZÁLEZ-VIDOSA, F.; HOSPITALER, A.; YEPES, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88: 375-386. ISSN: 0045-7949.  (link)

YEPES, V. (2003). Apuntes de optimización heurística en ingeniería. Editorial de la Universidad Politécnica de Valencia. Ref. 2003.249. Valencia, 266 pp. Depósito legal: V-2720-2003.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

La inteligencia de la naturaleza: cinco lecciones de los algoritmos genéticos.

Optimizar una estructura de hormigón no es solo una cuestión de cálculo, sino una batalla contra la entropía. Además, en la búsqueda de la combinación precisa entre la cantidad de acero y la resistencia del hormigón, el ingeniero se enfrenta a un océano de variables en el que la solución «perfecta» suele estar oculta bajo capas de complejidad técnica. Por tanto, el proceso exige no solo rigor analítico, sino también una comprensión profunda de cómo interactúan todos los factores que condicionan el diseño estructural.

Ante este desafío, la ingeniería moderna ha dejado de lado las calculadoras para observar el mecanismo de diseño más refinado de la historia: la selección natural.

Hace más de un siglo, Charles Darwin descubrió que la supervivencia es el resultado de un proceso en el que sobreviven los más aptos y transmiten sus rasgos. Hoy en día, aplicamos este rigor biológico a los algoritmos genéticos. Estos sistemas no solo resuelven problemas, sino que también imitan la vida misma para encontrar respuestas con una elegancia estructural que antes considerábamos inalcanzable.

Lección 1: La evolución no ocurre en el individuo, sino en su código.

Una de las distinciones más profundas de la computación evolutiva es que la mejora de un sistema no se logra manipulando el objeto final (el puente o la viga), sino su receta original. Para que un algoritmo sea verdaderamente evolutivo, debe comprender que el éxito se forja en las estructuras subyacentes, tal y como lo definió Davis en 1991:

«La evolución opera en los cromosomas, en lugar de en los individuos a los que representan».

Este enfoque resulta fascinante por lo contraintuitivo que es: para optimizar una estructura física (el fenotipo), manipulamos un vector binario o un string (el genotipo). Al trabajar con la representación abstracta, permitimos que el código explore cambios profundos sin las limitaciones del diseño inmediato, entendiendo que el cromosoma es el verdadero custodio de la adaptación global.

Lección 2: El diccionario biológico del programador.

Para resolver problemas de ingeniería como si fueran organismos vivos, debemos traducir la realidad física a un lenguaje genético preciso. Ver una solución técnica como un «ser» con ADN transforma radicalmente nuestra metodología de resolución.

  • Fenotipo: la solución final y detectable; la expresión física de la interacción genética.
  • Genotipo: la estructura o plan maestro a partir del cual se construye el organismo.
  • Cromosoma: vector o cadena de datos que almacena información.
  • Gen: Cada elemento del vector (un «vagón de tren» en la cadena de datos).
  • Alelo: el valor específico que adopta ese elemento (el bit o dato concreto).
  • Locus: posición exacta del gen, fundamental porque controla un carácter específico de la solución.
  • Aptitud (fitness): función objetivo que mide la capacidad de la solución para sobrevivir en su entorno técnico.

Lección 3: La «ruleta» de la supervivencia y la selección natural.

La selección natural no funciona como un sorteo, aunque tampoco actúa como una sentencia absoluta. Este principio se traslada al código mediante el método de la ruleta. En dicho procedimiento, cada solución se representa por un segmento circular cuya superficie es proporcional a su nivel de aptitud.

Esta «justicia algorítmica» garantiza que los mejores tengan mayores probabilidades de dejar descendencia. Sin embargo, no garantiza el monopolio de la reproducción, ya que los individuos menos aptos mantienen una pequeña probabilidad de transmitir sus genes. Este «caos controlado» es vital, ya que garantiza la diversidad estructural y evita que el algoritmo se estanque en óptimos locales, es decir, soluciones que parecen buenas solo porque el sistema ha perdido la capacidad de mirar más allá de lo inmediato.

Lección 4: Cruzamiento y mutación. El «sexo» de los datos.

La evolución exige novedad. Si nos limitáramos a clonar a los mejores, el progreso se detendría. Por ello, los algoritmos utilizan la recombinación o cruzamiento, mediante el cual dos progenitores intercambian información para crear descendientes con rasgos mixtos. Se destacan operadores sofisticados como el PMX (Partially-Matched Crossover), que copia un fragmento del código manteniendo las posiciones y rellena el resto con valores no utilizados, y el SEX (Strategic Edge Crossover), que busca identificar y preservar secuencias presentes en ambos progenitores.

Pero la mezcla no es suficiente. Es necesaria la mutación para introducir variaciones que no existían en la población original.

«Mutación: modificación espontánea de la información genética».

La mutación actúa como un factor de diversificación radical. Ya sea reemplazando un bit o recombinando elementos al azar sin considerar su aptitud inicial, este mecanismo introduce el «ruido» necesario para sacudir el sistema y permitirle dar el salto a fronteras de eficiencia completamente nuevas.

Lección 5: La memoria es un lastre para la evolución.

Siguiendo la lógica de Holland, uno de los conceptos más disruptivos de la evolución es su capacidad para vivir en el presente absoluto. A diferencia de otros sistemas de optimización que arrastran sesgos históricos, la evolución es un proceso sin memoria en el sentido estricto, ya que es una eficiencia de estado.

Durante la formación de nuevos cromosomas, el algoritmo solo tiene en cuenta la información del periodo inmediatamente anterior. Este enfoque «radical» permite que el sistema converja hacia la excelencia técnica basándose exclusivamente en la eficacia actual de los rasgos, sin verse frenado por configuraciones que fueron útiles en el pasado, pero ya no sirven para afrontar los desafíos del presente. Se podría decir que es una búsqueda de la perfección despojada de prejuicios históricos.

Los algoritmos genéticos demuestran que la naturaleza ya había resuelto los problemas de optimización más difíciles hace millones de años. Al adoptar estas leyes biológicas, la ingeniería no solo encuentra mejores soluciones para sus puentes y edificios, sino que lo hace con una elegancia que solo la evolución puede dictar.

Si principios tan elementales como la herencia y la mutación pueden dar lugar a estructuras de hormigón de una eficiencia asombrosa, ¿qué otros procesos naturales esconden hoy la clave para el próximo gran avance en la inteligencia de nuestro software?

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

Este vídeo resume bien los conceptos básicos de los algoritmos genéticos.

Aquí tenéis un vídeo en el que explico este algoritmo. Espero que os interese.

Genetic_Algorithms

Referencias:

DENNETT, D.C. (1999). La peligrosa idea de Darwin. Galaxia Gutenberg. Círculo de Lectores, Barcelona.

HOLLAND, J.H. (1975). Adaptation in natural and artificial systems. University of Michigan Press, Ann Arbor.

MARTÍNEZ, F.J.; GONZÁLEZ-VIDOSA, F.; HOSPITALER, A.; YEPES, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88: 375-386. ISSN: 0045-7949.  (link)

MEDINA, J.R.; YEPES, V. (2003). Optimization of touristic distribution networks using genetic algorithms. Statistics and Operations Research Transactions, 27(1): 95-112.  ISSN: 1696-2281.  (pdf)

PONZ-TIENDA, J.L.; YEPES, V.; PELLICER, E.; MORENO-FLORES, J. (2013). The resource leveling problem with multiple resources using an adaptive genetic algorithm. Automation in Construction, 29(1):161-172. DOI:http://dx.doi.org/10.1016/j.autcon.2012.10.003. (link)

YEPES, V. (2003). Apuntes de optimización heurística en ingeniería. Editorial de la Universidad Politécnica de Valencia. Ref. 2003.249. Valencia, 266 pp. Depósito legal: V-2720-2003.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Los motivos por los que se equivocan estudiantes y profesionales de ingeniería al abordar la resolución de problemas

Resolver problemas en el ámbito universitario o profesional, en áreas tecnológicas, de ingeniería y ciencias, puede plantear una serie de desafíos que pueden conducir a errores. Estos fallos pueden surgir por diversas razones que van desde no comprender el concepto subyacente hasta confiar demasiado en la tecnología.

En un artículo anterior mencioné algunos ejemplos de problemas teóricamente sencillos, pero que marean a nuestros estudiantes. Ahora vamos a analizar detalladamente algunas de estas razones y cómo se relacionan entre sí. También he incluido enlaces a otros artículos del blog donde reflexiono sobre este tipo de cuestiones.

La falta de comprensión del concepto subyacente a un problema es una preocupación fundamental. Esto puede manifestarse de diversas formas, ya sea a través de errores conceptuales, una aplicación incorrecta del concepto o una interpretación errónea del mismo. Esta falta de entendimiento puede empeorar si se carece de experiencia o conocimientos específicos en el campo correspondiente. Cuando un estudiante o profesional se enfrenta a un problema para el que no tiene experiencia previa, puede tener dificultades para aplicar correctamente los principios necesarios para resolverlo.

Los datos son fundamentales para encontrar soluciones, sin embargo, su calidad y disponibilidad pueden ser problemáticos. La falta de datos adecuados, la presencia de información contradictoria o sesgada pueden conducir a conclusiones incorrectas. Asimismo, centrarse excesivamente en utilizar todos los datos disponibles puede distraer de la información realmente importante, al tiempo que validar datos sesgados o inventados puede conducir a conclusiones incorrectas.

El manejo inadecuado de las bases matemáticas también puede ser una fuente de errores (geometría, trigonometría, cálculo o álgebra). Esto puede incluir errores en el cálculo, así como el uso inapropiado de fórmulas o modelos matemáticos. Los problemas reales rara vez tienen una sola solución, lo que requiere habilidades para evaluar y decidir entre múltiples enfoques posibles. Además, el uso excesivo de la memoria en lugar de la comprensión de los principios subyacentes puede conducir a errores conceptuales y de selección de modelos de cálculo.

Los aspectos psicológicos también son importantes. El estrés, la falta de confianza en uno mismo, la presión por terminar a tiempo y la falta de concentración pueden afectar a la capacidad de resolver problemas de manera efectiva. La falta de atención a los detalles, la fatiga y el agotamiento también pueden provocar errores en la resolución de problemas.

Es crucial comprender que los problemas reales pueden ser complejos y no tener necesariamente una solución única. Esto implica la necesidad de tomar decisiones informadas y comprender las limitaciones de los modelos o fórmulas utilizados. Además, la propagación de errores en las operaciones y el uso incorrecto de datos, fórmulas o software pueden dar lugar a resultados erróneos.

La falta de retroalimentación o revisión de los errores cometidos puede perpetuar la repetición de los mismos una y otra vez. La falta de comunicación o colaboración entre profesionales en entornos de trabajo también puede provocar errores en la resolución de problemas. Confiar ciegamente en la tecnología o en herramientas automatizadas sin comprender en profundidad los principios subyacentes puede ser un problema.

En resumen, resolver problemas en el ámbito universitario o profesional de la ingeniería y las ciencias puede ser un proceso complejo y propenso a errores debido a una variedad de factores interrelacionados. Desde la comprensión del concepto hasta la calidad y disponibilidad de los datos, así como los aspectos psicológicos y técnicos relacionados con la resolución de problemas, es crucial abordar estos desafíos con atención y comprensión para lograr soluciones precisas y efectivas. Desde las universidades debe hacerse todo lo posible para superar este tipo de dificultades y conseguir que nuestros estudiantes adquieran las competencias necesarias para su posterior desarrollo profesional.

Sin querer ser exhaustivo, y sin que estén ordenadas por importancia, aquí os dejo una lista de 30 posibles causas por las cuales nuestros estudiantes en los exámenes o los técnicos en su ámbito profesional, suelen cometer errores al resolver los problemas. Estoy convencido de que hay más causas, pero esto puede ser un buen punto de partida para el debate y la reflexión. En el vídeo que he grabado, me extiendo y explico algo más lo que aquí recojo como una simple lista.

  1. La falta de comprensión del concepto subyacente en un problema puede conducir a errores conceptuales al aplicarlo incorrectamente o interpretarlo de manera errónea.
  2. La inexperiencia o la falta de conocimientos específicos pueden surgir cuando una persona afronta por primera vez un tipo de problema, ya sea durante un examen o en la práctica profesional.
  3. Los problemas relacionados con la disponibilidad de datos pueden presentarse de varias formas, como datos insuficientes, necesarios, innecesarios o contradictorios. A menudo, existe una obsesión por utilizar todos los datos disponibles en el enunciado del problema.
  4. La calidad de los datos también es un factor importante, con la posibilidad de incertidumbre o error en los datos disponibles. Además, dar por válidos datos sesgados, interesados o inventados puede llevar a conclusiones incorrectas. Es necesario un control de calidad de los datos.
  5. Intentar resolver un problema utilizando el enfoque típico visto en clase puede marear a nuestros estudiantes. Los alumnos prefieren resolver un problema típico explicado en clase, a ser posible, con datos parecidos.
  6. El manejo inadecuado de las bases matemáticas, que incluye errores en el cálculo, el uso incorrecto de fórmulas o modelos matemáticos, y la falta de comprensión de los principios subyacentes, puede ser una fuente común de errores. La falta de conocimientos básicos de geometría, trigonometría, álgebra o cálculo básicos son, en ocasiones, escollos. A veces hay dificultades en saber dibujar un esquema para resolver el problema.
  7. Los problemas reales generalmente no tienen una sola solución, lo que requiere habilidades para evaluar y decidir entre múltiples enfoques posibles. Esta distinción, que se da claramente entre los estudios de grado y los de máster, es importante tenerla en cuenta.
  8. Los aspectos psicológicos, como el estrés, la falta de confianza en uno mismo, la presión por terminar a tiempo y la falta de concentración, pueden afectar negativamente la capacidad para resolver problemas de manera efectiva.
  9. La falta de atención o interés, así como la fatiga o el agotamiento, pueden contribuir a errores en la resolución de problemas, al igual que la prisa por resolver el problema.
  10. La complejidad de los problemas puede aumentar cuando se trata de situaciones poco comunes o rebuscadas, lo que requiere un enfoque cuidadoso y creativo para su resolución.
  11. Es crucial comprender la diferencia entre una ley general y una fórmula particular al aplicar normas técnicas que pueden estar basadas en hipótesis o casos específicos.
  12. Utilizar modelos de cálculo inadecuados, ya sean demasiado refinados o demasiado simples para los datos disponibles, puede conducir a soluciones incorrectas.
  13. Carecer de números estimativos para prever el resultado final puede resultar en una falta de comprensión del orden de magnitud del resultado. En este sentido, el uso de nomogramas en la docencia facilita la adquisición de este tipo de habilidad en los estudiantes. Los estudiantes y los profesionales deberían tener un conocimiento del «número gordo» y saber predimensionar.
  14. Es importante ser consciente de la propagación de errores en las operaciones, ya que incluso pequeños errores pueden magnificarse y llevar a resultados incorrectos.
  15. Utilizar fórmulas, datos o tablas en un contexto diferente al que dieron origen puede llevar a interpretaciones incorrectas o a soluciones erróneas.
  16. La extrapolación de resultados a límites no contemplados puede conducir a conclusiones incorrectas o poco realistas.
  17. Utilizar fórmulas empíricas con datos expresados en unidades diferentes a las que funcionan puede generar resultados inconsistentes o incorrectos.
  18. La dependencia excesiva de la memoria en lugar de comprender los principios subyacentes puede conducir a errores en la selección de modelos o fórmulas de cálculo.
  19. Errores conceptuales pueden llevar a la selección incorrecta de modelos o fórmulas de cálculo, lo que resulta en soluciones erróneas.
  20. El uso de software defectuoso o poco contrastado, así como la falta de habilidades para calcular manualmente un problema, pueden resultar en resultados incorrectos. A esto se une un uso inapropiado de la inteligencia artificial.
  21. El mal uso de ecuaciones o fórmulas, como cambiar el nombre de una variable sin entender el concepto subyacente, puede conducir a errores en la resolución de problemas.
  22. La falta de competencia o experiencia en una materia determinada puede resultar en una resolución incorrecta del problema.
  23. Repetir la resolución de problemas de un contexto a otro sin pensar en su validez puede conducir a soluciones inapropiadas.
  24. La falta de comprensión del problema, la pregunta o el tipo de resultado esperado puede resultar en soluciones incorrectas debido a la falta de comprensión lectora, capacidad analítica o de síntesis.
  25. La utilización de unidades defectuosas, notaciones o convenciones específicas puede llevar a interpretaciones erróneas o a soluciones incorrectas.
  26. La falta de retroalimentación o revisión de los errores cometidos puede perpetuar la repetición de los mismos errores una y otra vez.
  27. La falta de comunicación o colaboración en entornos de trabajo entre profesionales puede contribuir a errores en la resolución de problemas.
  28. La confianza excesiva en la tecnología o herramientas automatizadas puede llevar a la falta de comprensión de los principios subyacentes y a la comisión de errores.
  29. La falta de revisión o verificación de los cálculos realizados por parte de un tercero independiente puede resultar en soluciones incorrectas.
  30. La falta de conocimiento del contexto del problema, incluyendo las restricciones, puede conducir a soluciones subóptimas o incorrectas.

Os paso un vídeo donde he desarrollado las ideas anteriores, con ejemplos, y he dejado algunas de mis reflexiones al respecto. Espero que os guste.

Os dejo un podcast sobre este tema (en inglés), generado por una IA sobre el vídeo.

Aquí tenéis un mapa conceptual que también os puede ayudar.

Artículos relacionados en el blog:

Los ingenieros, los ordenadores y mil un indios

De la regla de cálculo al ordenador: olvidarse de cómo se calculaba antes

Cifras significativas y errores de medición

¿Cómo predimensionar un muro sin calculadora?

La inteligencia artificial en la ingeniería civil

Introducción a la toma de decisiones

Problemas teóricamente sencillos pero que marean a nuestros estudiantes

Referencias de libros de problemas:

MARTÍNEZ-PAGÁN, P.; YEPES, V.; MARTÍNEZ-SEGURA, M.A. (2023). Ejercicios resueltos de sistemas de transporte continuo: bombas y cintas transportadoras. Ediciones UPCT. Universidad Politécnica de Cartagena, 284 pp. ISBN: 978-84-17853-62-4

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente nº 97.439. Ed. Universitat Politècnica de València. 253 pág. Depósito Legal: V-4598-1997. ISBN: 84-7721-551-0.

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Visibilidad para el grupo de investigación CONSTRUCTION OPTIMIZATION – ICITECH UPV

En mi blog personal, suelo destacar los logros personales de los miembros de nuestro grupo de investigación, compuesto por profesores e investigadores jóvenes de varios países, cuya sede es el ICITECH (Instituto de Ciencia y Tecnología del Hormigón) de la Universitat Politècnica de València. Sin embargo, estos logros a menudo pasan desapercibidos debido a la falta de una vía de comunicación propia.

Desde 2006, nuestro grupo ha centrado sus investigaciones en la optimización multiobjetivo y la toma de decisiones multicriterio para garantizar la sostenibilidad económica, social y medioambiental a lo largo del ciclo de vida de los puentes y las infraestructuras. Hasta la fecha, hemos publicado unos 150 artículos científicos indexados en el JCR y presentado numerosas comunicaciones en congresos nacionales e internacionales. Ya se han leído 15 tesis doctorales y, en este momento, otras 10 se encuentran en marcha.

No obstante, consideramos crucial aumentar la visibilidad de nuestro trabajo para acercarlo a la sociedad. De esta manera, esperamos que nuestra investigación contribuya a la construcción de infraestructuras más sostenibles y eficientes en el futuro.

Como podréis observar, hemos diseñado un logotipo para identificar nuestro trabajo. El diseño sigue el estilo institucional de los grupos de investigación de nuestra universidad. En la parte inferior, en rojo destacado, aparece el acrónimo de la UPV, mientras que encima figuran dos palabras que consideramos fundamentales: “CONSTRUCTION” y “OPTIMIZATION”. Las hemos escrito en inglés porque queremos comunicar nuestro trabajo a nivel internacional.

La primera de ellas señala que nuestro objeto de investigación no se limita a las estructuras de hormigón o a los puentes, sino que abarca un amplio espectro de infraestructuras, como edificios, carreteras, ferrocarriles, puertos y presas, entre otros. Además, la palabra “optimización” resume la base y los inicios de nuestro grupo, ya que buscamos mejorar la sostenibilidad integral de las infraestructuras a lo largo de su ciclo de vida.

Sin lugar a dudas, lo más complicado para nosotros ha sido crear una silueta que capture, a modo de paraguas, el núcleo central de nuestro mensaje. Hemos creado un arco que simboliza un puente y también tiene la intención de representar una cúpula de un edificio, un tramo de carretera o una sección de una presa bóveda. En resumen, hemos buscado un diseño que sea fácil de comprender y que simbolice el trabajo que llevamos a cabo en nuestro grupo.

Pues bien, podéis encontrar toda la información que vaya generando el grupo en las siguientes redes de comunicación. Os invito a que las sigáis para estar al tanto de lo que está ocurriendo en la punta de lanza del conocimiento en el ámbito de la ingeniería de la construcción.

Twitter: https://twitter.com/ConstOptUPV

Facebook: https://www.facebook.com/groups/231497652653826

LinkedIn: https://www.linkedin.com/groups/12794089/

 

Octave: software libre equivalente a Matlab

En entradas anteriores os he dejado algunos consejos para utilizar Matlab.

Este software es muy potente para nuestros usos en ingeniería y dentro de nuestro grupo de investigación. Sin embargo, a veces me encuentro con algunos estudiantes o profesionales que me preguntan por alguna alternativa que pudiese servir con software libre.

Afortunadamente, Octave es una alternativa con un aspecto y unos comandos de uso iguales y que no presenta problemas de instalación. Se trata de un lenguaje interpretado de alto nivel. Lo puedes descargar desde su página oficial completamente gratis. Aquí tienes el enlace de descarga.

Pero además, puedes utilizar una versión en línea desde tu móvil en el caso de que no tengas a mano tu ordenador. Esta versión la tienes aquí: Octave online.

Os paso el siguiente vídeo de Marcelo Pardo que describe, de forma sencilla, cómo instalar Octave más el plugin de symbolic, que es muy útil.

También os dejo un enlace a su página web donde describe Octave, deja vídeos tutoriales y explica alguna de las aplicaciones, especialmente en el ámbito del hormigón armado y el análisis matricial: https://marcelopardo.com/octave/

Además, la Universidad Politécnica de Madrid ha elaborado un curso gratuito MOOC sobre «Matlab y Octave para ingenieros y científicos» que os puede ser de muchísima utilidad: https://www.youtube.com/watch?v=VF97VH8QIAo&list=PL8bSwVy8_IcNTBBRzsKyE8PojViLIJ4RA

Os dejo a continuación la presentación del curso:

De la regla de cálculo al ordenador: olvidarse de cómo se calculaba antes

Henry Petroski. https://es.wikipedia.org/wiki/Henry_Petroski

Henry Petroski, ingeniero civil estadounidense y profesor en la Universidad de Duke en Durham (Carolina del Norte) escribió un libro que recomiendo a mis estudiantes y a cualquier profesional de la ingeniería que se llama «La ingeniería es humana. La importancia del fallo en el éxito del diseño«. Este libro está editado en castellano por la editorial CINTER, traducido por María Eugenia Matamala Pérez y prologado por Robert Brufau.

Todos los capítulos son verdaderamente interesantes, pero me gustaría destacar el que se llama «De la regla de cálculo al ordenador: olvidarse de cómo se calculaba antes». De este tema ya he hablado en mi blog en alguna ocasión: https://victoryepes.blogs.upv.es/2013/09/10/los-ingenieros-los-ordenadores-y-mil-un-indios/ y también cuando hablaba de las cifras significativas y los errores de precisión. Os remito a su lectura.

La conclusión es muy clara, un ingeniero debería saber de antemano el orden de magnitud del cálculo antes de calcularlo realmente. Dejar todo al libre albedrío del ordenador sin criterio para saber si el resultado final es aceptable o no, es un riesgo inaceptable. Eso explica el éxito de libros sobre «Números gordos» o bien cómo la investigación puede llevarnos a descubrir fórmulas de predimensionamiento útiles en la práctica (ver el artículo que escribí sobre cómo predimensionar un muro sin calculadora).

Pero no voy a ser «spoiler» de libro de Petroski. Simplemente os adjunto lo que la American Society of Civil Engineers (ASCE) indicó cuando anunció el Premio Mead (es un premio anual para estudiantes de ingeniería civil que otorga el ASCE  un trabajo sobre la ética profesional):

«Los ingenieros civiles han recurrido al ordenador en busca de mayor rapidez y productividad. Sin embargo, ¿se corre el riegos de comprometer la seguridad y el bienestar del usuario? Muchos han predicho que los fallos futuros de ingeniería se atribuirán al uso o el mal uso de los ordenadores. ¿Se está convirtiendo en habitual aceptar un proyecto cuando no se tiene experiencia simplemente porque se dispone de un paquete de software? ¿Cómo pueden garantizar los ingenieros civiles la precisión del programa del ordenador y que el ingeniero civil está cualificado para usarlo de manera apropiada?»

Os dejo estas preguntas para pensar. Es evidente que un ordenador no deja de ser más que una regla de cálculo electrónico o los cuadernos de cálculo de toda la vida. Muchas ventajas, pero mucha precaución en su empleo.

Referencia:

PETROSKY, H. (2007). La ingeniería es humana. La importancia del fallo en el éxito del diseño. Ed. CINTER, 320 pp.

 

Los algoritmos genéticos

Charles Darwin en una fotografía tomada por J.M. Cameron en 1869.

Resulta fascinante comprobar cómo, aplicando los mecanismos básicos de la evolución ya descritos por Darwin en su obra fundamental, El origen de las especies por medio de la selección natural, o la preservación de las razas preferidas en la lucha por la vida, publicada en 1859, se pueden generar algoritmos capaces de optimizar problemas complejos. Este tipo de metaheurísticas inspiradas en la naturaleza ya se comentaron en artículos anteriores cuando hablamos de la optimización por colonias de hormigas o de la cristalización simulada. Aunque es un algoritmo ampliamente conocido en la comunidad científica, voy a intentar dar un par de pinceladas con el único afán de divulgar esta técnica. La verdad es que las implicaciones filosóficas que subyacen a la teoría de Darwin son de una profundidad difícil de comprender cuando se llevan a sus últimas consecuencias. Pero el caso es que estos algoritmos funcionan perfectamente en la optimización de estructuras de hormigón, problemas de transporte y otros problemas difíciles de optimización combinatoria.

Para quienes estén interesados, os paso en las referencias un par de artículos en los que hemos aplicado los algoritmos genéticos para optimizar rutas de transporte aéreo o pilas de puente huecas de hormigón armado.

Sin embargo, para aquellos que queráis un buen libro para pensar, os recomiendo «La peligrosa idea de Darwin», de Daniel C. Dennett. A más de uno le hará quitar los cimientos más profundos de sus creencias. Os paso la referencia al final.

Básicamente, los algoritmos genéticos, o “Genetic Algorithms” (GA), simulan el proceso de evolución de las especies que se reproducen sexualmente. De manera muy general, se puede decir que en la evolución de los seres vivos, el problema al que cada individuo se enfrenta diariamente es el de la supervivencia. Para ello, cuenta, entre otras, con las habilidades innatas provistas por su material genético. A nivel de los genes, el problema consiste en buscar adaptaciones beneficiosas en un medio hostil y cambiante. Debido, en parte, a la selección natural, cada especie gana cierta “información” que se incorpora a sus cromosomas.

Durante la reproducción sexual, un nuevo individuo, diferente de sus padres, se genera mediante dos mecanismos fundamentales: el primero es el cruzamiento, que combina parte del patrimonio genético de cada progenitor para elaborar el del nuevo individuo; el segundo es la mutación, que supone una modificación espontánea de esta información genética. La descendencia será diferente de los progenitores, pero conservará parte de sus características. Si los hijos heredan buenos atributos de sus padres, su probabilidad de supervivencia será mayor que la de aquellos que no los tengan. De este modo, los mejores tendrán altas probabilidades de reproducirse y de transmitir su información genética a sus descendientes.

Holland (1975) estableció por primera vez una metaheurística basada en la analogía genética. Un individuo puede asociarse a una solución factible del problema, de modo que pueda codificarse como un vector binario “string”. Entonces, un operador de cruzamiento intercambia las cadenas de los padres para producir un hijo. La mutación se configura como un operador secundario que cambia, con una probabilidad pequeña, algunos elementos del vector hijo. La aptitud del nuevo vector creado se evalúa según una función objetivo.

Los pasos a seguir con esta metaheurística serían los siguientes:

  1. Generar una población de vectores (individuos).
  2. Mientras no se encuentre un criterio de parada:
    1. Seleccionar un conjunto de vectores padres que serán reemplazados por la población.
    2. Emparejar aleatoriamente a los progenitores y cruzarlos para obtener unos vectores hijos.
    3. Aplicar una mutación a cada descendiente.
    4. Evaluar a los hijos.
    5. Introducir a los hijos en la población.
    6. Eliminar a los individuos menos eficaces.

Normalmente este proceso finaliza después de un número determinado de generaciones o cuando la población ya no puede mejorar. La selección de los padres se realiza de forma probabilística hacia los individuos más aptos. Al igual que ocurre en la naturaleza, los sujetos con mayor aptitud difunden sus características a lo largo de toda la población.

Esta descripción de los GA se adapta a cada situación concreta, siendo habitual la codificación en números enteros en lugar de binaria. Del mismo modo, se han sofisticado los distintos operadores de cruzamiento y de mutación.

Os dejo a continuación un vídeo explicativo que he elaborado para mis clases de «Modelos predictivos y de optimización heurística de estructuras de hormigón«, del Máster Universitario en Ingeniería del Hormigón, de la Universitat Politècnica de València.

Referencias:

DENNETT, D.C. (1999). La peligrosa idea de Darwin. Galaxia Gutenberg. Círculo de Lectores, Barcelona.

HOLLAND, J.H. (1975). Adaptation in natural and artificial systems. University of Michigan Press, Ann Arbor.

MARTÍNEZ, F.J.; GONZÁLEZ-VIDOSA, F.; HOSPITALER, A.; YEPES, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88: 375-386. ISSN: 0045-7949.  (link)

MEDINA, J.R.; YEPES, V. (2003). Optimization of touristic distribution networks using genetic algorithms. Statistics and Operations Research Transactions, 27(1): 95-112.  ISSN: 1696-2281.  (pdf)

PONZ-TIENDA, J.L.; YEPES, V.; PELLICER, E.; MORENO-FLORES, J. (2013). The resource leveling problem with multiple resources using an adaptive genetic algorithm. Automation in Construction, 29(1):161-172. DOI:http://dx.doi.org/10.1016/j.autcon.2012.10.003. (link)

YEPES, V. (2003). Apuntes de optimización heurística en ingeniería. Editorial de la Universidad Politécnica de Valencia. Ref. 2003.249. Valencia, 266 pp. Depósito legal: V-2720-2003.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

La inteligencia artificial en la ingeniería civil

https://www.chilecubica.com/revistas-de-construcci%C3%B3n/inteligencia-artificial/

La inteligencia artificial (IA) – tecnologías capaces de realizar tareas que normalmente requieren inteligencia humana – constituye un enfoque alternativo a las técnicas de modelización clásicas. La IA es la rama de la ciencia de la computación que desarrolla máquinas y software con una inteligencia que trata de imitar las funciones cognitivas humanas. En comparación con los métodos tradicionales, la IA ofrece ventajas para abordar los problemas asociados con las incertidumbres y es una ayuda efectiva para resolver problemas de elevada complejidad, como son la mayoría de problemas reales en ingeniería. Además, las soluciones aportadas por la IA constituyen buenas alternativas para determinar los parámetros de diseño cuando no es posible efectuar ensayos, lo que supone un ahorro importante en tiempo y esfuerzo dedicado a los experimentos. La IA también es capaz de acelerar el proceso de toma de decisiones, disminuye las tasas de error y aumenta la eficiencia de los cálculos. Entre las diferentes técnicas de IA destacan el aprendizaje automático (machine learning), el reconocimiento de patrones (pattern recognition) y el aprendizaje profundo (deep learning), técnicas que han adquirido recientemente una atención considerable y que se están estableciendo como una nueva clase de métodos inteligentes para su uso en la ingeniería civil.

Todos conocemos problemas de ingeniería civil cuya solución pone al límite las técnicas computacionales tradicionales. Muchas veces se solucionan porque existen expertos con la formación adecuada capaces de intuir la solución más adecuada, para luego comprobarla con los métodos convencionales de cálculo. En este contexto, la inteligencia artificial está tratando de capturar la esencia de la cognición humana para acelerar la resolución de estos problemas complejos. La IA se ha desarrollado basándose en la interacción de varias disciplinas, como son la informática, la teoría de la información, la cibernética, la lingüística y la neurofisiología.

Figura 1. Interrelación entre diferentes técnicas computacionales inteligentes. Elaboración propia basada en Salehi y Burgueño (2018)

A veces el concepto de «inteligencia artificial (IA)» se confunde con el de «inteligencia de máquina (IM)» (machine intelligence). En general, la IM se refiere a máquinas con un comportamiento y un razonamiento inteligente similar al de los humanos, mientras que la IA se refiere a la capacidad de una máquina de imitar las funciones cognitivas de los humanos para realizar tareas de forma inteligente. Otro término importante es la «computación cognitiva (CC)» (cognitive computing), que se inspira en las capacidades de la mente humana. Los sistemas cognitivos son capaces de resolver problemas imitando el pensamiento y el razonamiento humano. Tales sistemas se basan en la capacidad de las máquinas para medir, razonar y adaptarse utilizando la experiencia adquirida.

Las principales características de los sistemas de CC son su capacidad para interpretar grandes datos, el entrenamiento dinámico y el aprendizaje adaptativo, el descubrimiento probabilístico de patrones relevantes. Técnicamente, la IA se refiere a ordenadores y máquinas que pueden comportarse de forma inteligente, mientras que el CC se concentra en la resolución de los problemas empleando el pensamiento humano. La diferencia más significativa entre la IA y la CC puede definirse en función de su interactuación con los humanos. Para cualquier sistema de IA, hay un agente que decide qué acciones deben tomarse. Sin embargo, los sistemas de CC aprenden, razonan e interactúan como los humanos.

Por otra parte, los «sistemas expertos» son una rama de la IA. Un sistema experto se definiría como un programa de ordenador que intenta imitar a los expertos humanos para resolver problemas que exigen conocimientos humanos y experiencia. Por tanto, la IA incluye diferentes ramas como los sistemas expertos, el aprendizaje automático, el reconocimiento de patrones y la lógica difusa.

La IA se ha usado en estas últimas décadas de forma intensiva en las investigaciones relacionadas con la ingeniería civil. Son notables las aplicaciones de las redes neuronales, los algoritmos genéticos, la lógica difusa y la programación paralela. Además, la optimización heurística ha tenido una especial relevancia en muchos campos de la ingeniería civil, especialmente en el ámbito de las estructuras y las infraestructuras. Sin embargo, los métodos más recientes como el reconocimiento de patrones, el aprendizaje automático y el aprendizaje profundo son métodos totalmente emergentes en este ámbito de la ingeniería. Estas técnicas emergentes tienen la capacidad de aprender complicadas interrelaciones entre los parámetros y las variables, y así permiten resolver una diversidad de problemas que son difíciles, o no son posibles, de resolver con los métodos tradicionales.

El aprendizaje automático es capaz de descubrir información oculta sobre el rendimiento de una estructura al aprender la influencia de diversos mecanismos de daño o degradación y los datos recogidos de los sensores. Además, el aprendizaje automático y el aprendizaje profundo tienen una elevada potencialidad en el dominio de la mecánica computacional, como por ejemplo, para optimizar los procesos en el método de elementos finitos para mejorar la eficiencia de los cálculos. Estos métodos también se pueden utilizar para resolver problemas complejos a través del novedoso concepto de la Internet de las Cosas. En este contexto del Internet de las Cosas, se pueden emplear estas técnicas emergentes para analizar e interpretar grandes bases de datos. Esto abre las puertas al desarrollo de infraestructuras, ciudades o estructuras inteligentes.

Sin embargo, aún nos encontramos con limitaciones en el uso de estos métodos emergentes. Entre esas limitaciones figura la falta de selección racional del método de IA, que no se tenga en cuenta el efecto de los datos incompletos o con ruido, que no se considere la eficiencia de la computación, el hecho de que se informe sobre la exactitud de la clasificación sin explorar soluciones alternativas para aumentar el rendimiento, y la insuficiencia de la presentación del proceso para seleccionar los parámetros óptimos para la técnica de IA. Con todo, a pesar de estas limitaciones, el aprendizaje automático, el reconocimiento de patrones y el aprendizaje profundo se postulan como métodos pioneros para aumentar la eficiencia de muchas aplicaciones actuales de la ingeniería civil, así como para la creación de usos innovadores.

Referencias:

GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M. (2017). Multi-Objective Design of Post-Tensioned Concrete Road Bridges Using Artificial Neural Networks. Structural and Multidisciplinary Optimization, 56(1):139-150.

NAVARRO, I.J.; YEPES, V.; MARTÍ, J.V. (2019). A review of multi-criteria assessment techniques applied to sustainable infrastructures design. Advances in Civil Engineering, 2019: 6134803.

SALEHI, H.; BURGUEÑO, R. (2018). Emerging artificial intelligence methods in structural engineering. Engineering Structures, 171:170-189.

SIERRA, L.A.; YEPES, V.; PELLICER, E. (2018). A review of multi-criteria assessment of the social sustainability of infrastructures. Journal of Cleaner Production, 187:496-513.

YEPES, V. (2013). Métodos no convencionales de investigación basados en la inteligencia artificial. https://victoryepes.blogs.upv.es/2013/11/12/metodos-no-convencionales-de-investigacion-basado-en-la-inteligencia-artificial/

YEPES, V. (2020). Computación cuántica y gemelos híbridos digitales en ingeniería civil y edificación. https://victoryepes.blogs.upv.es/2019/10/30/computacion-cuantica-gemelos-digitales/

YEPES, V.; GARCÍA-SEGURA, T.; MORENO-JIMÉNEZ, J.M. (2015). A cognitive approach for the multi-objective optimization of RC structural problems. Archives of Civil and Mechanical Engineering, 15(4):1024-1036

Os dejo a continuación un informe sobre cómo la inteligencia de máquina permite crear valor y se postula como una herramienta de primer nivel en todos los ámbitos.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Qué se estudia en la asignatura Modelos Predictivos y de Optimización de Estructuras de Hormigón?

El programa de la asignatura Modelos Predictivos y de Optimización de Estructuras de Hormigón se ha diseñado basándose en el programa presentado en el departamento de Ingeniería de la Construcción y Proyectos de Ingeniería Civil por parte de la unidad docente de “Procedimientos de Construcción y Gestión de Obras”, al que está adscrita en la actualidad la asignatura, y aprobado por el Consejo del Departamento. Las líneas maestras de los contenidos se definieron previamente en la Memoria de Verificación del título oficial de “Máster Universitario en Ingeniería del Hormigón por la Universitat Politècnica de València”. Se trata de una de las asignaturas de la materia “Análisis de estructuras de hormigón”, siendo obligatoria para todos los alumnos de esta titulación y se imparte en el primer cuatrimestre del primer curso. La asignación de créditos ECTS es de 5,0, repartidos en 3,0 créditos de teoría y 2,0 de prácticas, de acuerdo con el Plan de Estudios actualmente en vigor en el Departamento de Ingeniería de la Construcción y Proyectos de Ingeniería Civil.

Resultados de aprendizaje

Los resultados de aprendizaje de la asignatura se definen a partir de las competencias y de los contenidos (Yepes, 2017). Como resultado de aprendizaje general, al terminar con éxito esta asignatura, los estudiantes serán capaces de “comprender los diferentes métodos predictivos y procedimientos de optimización de estructuras de hormigón de modo que dispongan de las herramientas necesarias para la toma de decisiones en el ámbito del proyecto, construcción y mantenimiento de estas estructuras considerando los aspectos de sostenibilidad económica, social y ambiental”.

En relación con los resultados específicos de aprendizaje de la asignatura, tenemos los siguientes:

  • RA1    Seleccionar y aplicar las distintas técnicas procedentes de la estadística, de la investigación operativa y de la minería de datos en la toma de decisiones en el ámbito del hormigón
  • RA2    Modelizar un problema de optimización de una estructura de hormigón y resolverlo mediante algoritmos heurísticos secuenciales y poblacionales
  • RA3    Aplicar la inferencia estadística multidimensional para interpretar el comportamiento de las variables cualitativas y cuantitativas en el ámbito del hormigón
  • RA4    Formular modelos lineales de regresión múltiple e interpretar su validez límites predictivos
  • RA5    Emplear técnicas de diseño de experimentos para conocer los efectos principales y las interacciones entre los distintos factores que afectan a una variable de respuesta en el ámbito del hormigón
  • RA6    Optimizar el comportamiento de una estructura de hormigón utilizando la metodología de la superficie de respuesta
  • RA7    Aplicar redes neuronales artificiales en la predicción de sistemas altamente no lineales en el ámbito del hormigón
  • RA8    Aplicar técnicas de decisión multicriterio en la selección de la mejor tipología estructural considerando aspectos económicos, ambientales y sociales
  • RA9    Elegir la mejor opción de una frontera de Pareto tras aplicar técnicas de decisión multicriterio
  • RA10 Aplicar programas estadísticos avanzados, tales como SPSS o Minitab, y otros como Matlab, Sap y Excel en la predicción de variables de respuesta y en problemas de optimización en el ámbito del hormigón

 

Conocimientos previos

Los alumnos que cursan esta asignatura, tienen diversas procedencias: Ingeniería de Caminos, Canales y Puertos, Ingeniería Industrial, Arquitectura, Ingeniería Agronómica, Licenciado en Químicas, Ingeniería Geológica, Ingeniería Técnica de Obras Públicas, Ingeniería Técnica Industrial, o los actuales grados en ingeniería civil, de obras públicas o máster en ingeniería de caminos, canales y puertos, entre otros. Además los alumnos, en un porcentaje significativo, proceden de universidades latinoamericanas o europeas. Como es fácil de comprender, los alumnos tienen formaciones muy diferentes, habiendo estudiado las asignaturas relacionadas con el hormigón, con los métodos numéricos o la estadística de forma muy diversa, con niveles de adquisición de conocimientos descompensados. Esta situación implica cierta nivelación en cada uno de los temas, de forma que se adquieran los niveles básicos de comprensión de los contenidos de forma progresiva con el objetivo que todos los alumnos adquieran las competencias y los resultados de aprendizaje previstos.

Según la Guía Docente de la asignatura, los conocimientos recomendados versarían sobre estadística y sobre lenguajes de programación (MATLAB, SPSS, MINITAB, SAP, etc.), aunque no son imprescindibles.  Además, resultan necesarios unos conocimientos básicos sobre el hormigón y su análisis como material estructural. Ello obliga al profesor a sintetizar el contenido previo para la correcta comprensión de la asignatura.

 

Programa resumido de la asignatura

La asignatura se desarrolla siguiendo un programa que tiene en cuenta los resultados de aprendizaje antes definidos, las actividades formativas y el sistema propuesto para la evaluación. Ello permite organizar la asignatura en 25 temas y sus prácticas de informática asociadas.

  • Tema 1. La investigación operativa y la toma de decisiones
  • Tema 2. La modelización de un problema estructural de hormigón
  • Tema 3. Algoritmos y problemas de decisión
  • Tema 4. Optimización y programación matemática
  • Tema 5. Optimización combinatoria y algoritmos heurísticos
  • Tema 6. Clasificación y uso de heurísticas y metaheurísticas
  • Tema 7. Búsqueda local de máximo gradiente
  • Tema 8. Recocido simulado, aceptación por umbrales y búsqueda tabú
  • Tema 9. Sistemas de inteligencia de enjambre
  • Tema 10. Programación evolutiva y estrategias evolutivas
  • Tema 11. Algoritmos genéticos y meméticos
  • Tema 12. GRASP, búsqueda dispersa y búsqueda de la armonía
  • Tema 13. Heurísticas de optimización multiobjetivo
  • Tema 14. Inferencia estadística bidimensional
  • Tema 15. Inferencia estadística multidimensional
  • Tema 16. Modelos lineales de regresión múltiple
  • Tema 17. Modelos de ecuaciones estructurales
  • Tema 18. Diseño de experimentos
  • Tema 19. Optimización mediante la metodología de superficie de respuesta
  • Tema 20. Modelos Kriging y diseños robustos
  • Tema 21. Redes neuronales artificiales
  • Tema 22. Programación genética y lógica difusa
  • Tema 23. La toma de decisiones en el ciclo de vida de una estructura de hormigón
  • Tema 24. Técnicas de decisión multicriterio continua
  • Tema 25. Técnicas de decisión multicriterio discreta

 

 

Los 25 temas se encuentran agrupados en 4 bloques temáticos. El primero de los bloques es introductorio. Consta de 5 temas que presentan al alumno la aplicación de las técnicas de la investigación científica en el ámbito de la toma de decisiones en las empresas a través de lo que se conoce como investigación operativa. Se introduce al alumno en la forma de abordar los problemas reales en el ámbito de las estructuras de hormigón a través de modelos de distinto tipo. Se describen los componentes básicos de un problema de optimización: función objetivo, variables de decisión, parámetros y restricciones. A continuación se describe el concepto de algoritmo y complejidad algorítmica para explicar las limitaciones de la programación matemática en la resolución de problemas reales, lo cual da paso a la introducción de los algoritmos heurísticos como aproximaciones en la búsqueda de óptimos locales de calidad en tiempos de cálculo razonables.

El segundo de los bloques se centra en la descripción y aplicación de la optimización heurística en las estructuras de hormigón. Se describe paso a paso tanto las técnicas de búsqueda secuencial de máximo gradiente y de “hill-climbing” como otras técnicas poblacionales basadas en los algoritmos genéticos o en la inteligencia de partículas. Este bloque termina con una explicación de la optimización multiobjetivo y la construcción de fronteras de Pareto de calidad en el caso de confluencia de funciones objetivo contrapuestas.

El bloque tercero se centra específicamente en los modelos predictivos de las estructuras de hormigón. Se hace un repaso de las técnicas de inferencia bidimensional y multidimensional para pasar a los modelos predictivos lineales, tanto los basados en regresiones múltiples como en los modelos de ecuaciones estructurales. Posteriormente se aborda el diseño de experimentos como técnicas estadísticas básicas en la predicción de los efectos principales y las interacciones de los distintos factores que afectan a un problema de hormigón. El estudio de los diseños factoriales lleva directamente al planteamiento de la metodología de la superficie de respuesta, que permite realizar la optimización de la respuesta. Tanto la metodología de la superficie de respuesta como los modelos Kriging o las redes neuronales, constituyen metamodelos que se explican como herramientas muy útiles para simplificar el espacio de soluciones de los problemas reales del hormigón estructural. En particular, los modelos Kriging permiten el diseño robusto óptimo, es decir, aquel que se comporta bien incluso ante cambios en las variables o en las condiciones de contorno. Para los sistemas altamente complejos, se explican las redes neuronales artificiales que, además, permiten su uso como metamodelos o como parte de un algoritmo heurístico de optimización. La programación genética y la lógica difusa también se explican en una lección como herramientas posibles en el ámbito de los modelos predictivos y cuando los parámetros o restricciones del problema no son determinísticos.

El cuarto bloque se dedica a la toma de decisión multicriterio en las estructuras de hormigón. A los alumnos se les explica cómo, antes de realizar una optimización multiobjetivo, es necesario seleccionar la mejor tipología estructural con base en criterios que no siempre son objetivos: economía, plazo, estética, medioambiente, aspectos sociales, durabilidad, etc. Se introducen las distintas técnicas de toma de decisión multicriterio y se comentan su empleo, incluso, para la obtención de pesos objetivos de criterios que pueden ser incluso subjetivo, o bien para la selección de la mejor opción dentro de una frontera de Pareto tras una optimización multiobjetivo.

En la Tabla siguiente se muestra el programa resumido de la asignatura “Modelos Predictivos y de Optimización de Estructuras de Hormigón” (T, Teoría; P, Prácticas informáticas), indicándose el número de horas asignadas a cada tema.

Referencias:

YEPES, V. (2017). Proyecto docente. Concurso de Acceso al Cuerpo de Catedráticos de Universidad. Universitat Politècnica de València, 642 pp.

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

 

 

Optimización heurística mediante aceptación por umbrales

En algunos posts anteriores hemos comentado lo que es un modelo matemático de optimización, qué son las metaheurísticas, o cómo poder optimizar las estructuras de hormigón. A continuación os presentamos un Polimedia donde se explica brevemente cómo podemos optimizar siguiendo la técnica de optimización heurística mediante aceptación por umbrales. Podréis comprobar cómo se trata de un caso similar a la famosa técnica de la cristalización simulada. Espero que os sea útil.

Podéis consultar, a modo de ejemplo, algunos artículos científicos que hemos escrito a ese respecto en las siguientes publicaciones:

  • CARBONELL, A.; GONZÁLEZ-VIDOSA, F.; YEPES, V. (2011). Heuristic optimization of reinforced concrete road vault underpasses. Advances in Engineering Software, 42(4): 151-159. ISSN: 0965-9978.  (link)
  • MARTÍNEZ, F.J.; GONZÁLEZ-VIDOSA, F.; HOSPITALER, A.; YEPES, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88: 375-386. ISSN: 0045-7949.  (link)
  • YEPES, V.; MEDINA, J.R. (2006). Economic Heuristic Optimization for Heterogeneous Fleet VRPHESTW. Journal of Transportation Engineering, ASCE, 132(4): 303-311. (link)

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.