El arte de simplificar el caos: los modelos matemáticos de optimización.

En un mundo tan complejo, la toma de decisiones no puede dejarse al azar ni a la intuición desmedida. Nos encontramos ante un laberinto de variables en el que cada elección parece desencadenar consecuencias sistémicas.

Sin embargo, las matemáticas no pretenden capturar cada átomo de esta realidad, sino que su verdadero poder radica en su capacidad para destilarla. Un modelo matemático no es un reflejo del mundo, sino una herramienta de pensamiento diseñada para extraer su esencia y convertir el caos en una estructura inteligible y accionable.

A continuación, exploramos cinco revelaciones fundamentales sobre cómo la optimización matemática transforma nuestra capacidad estratégica.

La paradoja de la modelización: el equilibrio entre abstracción y realidad

A menudo se piensa que un modelo es mejor cuanto más se parece a la realidad. Sin embargo, en la ciencia de la optimización, modelar es una abstracción o representación simplificada de un segmento de la realidad. Intentar una copia exacta es un error de diseño, ya que la realidad es muy compleja y gran parte de ella resulta irrelevante para el problema.

La representación y la simplificación resultan difíciles de conciliar en la práctica. El estratega debe navegar entre dos riesgos: no crear algo tan simple que no represente el problema ni algo tan complejo que dificulte la identificación de las relaciones fundamentales. En este punto, es vital distinguir si operamos en un entorno determinista, donde los datos se conocen con certeza, o en uno estocástico, donde interviene el azar, pues esta clasificación definirá el rigor de nuestra estructura.

«La realidad es difícil de copiar de forma exacta».

El paisaje de las soluciones: navegando por el espacio factible

Para visualizar un problema complejo, debemos imaginar un paisaje de relieves accidentados que represente el conjunto de soluciones posibles. Sin embargo, no todo lo posible es realizable. En este punto, definimos el Espacio Factible (X) como el subconjunto del Espacio Posible (Ω) en el que las soluciones efectivamente cumplen nuestras condiciones.

En este terreno, la interpretación del relieve depende del objetivo que tengamos:

  • Si maximizamos, las cimas son los éxitos. Buscamos el óptimo global (la cumbre más alta), evitando quedar atrapados en un óptimo local (una colina que parece buena, pero que es inferior al máximo absoluto). Los valles representan los peores resultados.
  • Si minimizamos, el paradigma se invierte. El éxito se halla en el valle más profundo (el punto de menor coste o riesgo) y las cimas simbolizan la ineficiencia.

La brújula de las decisiones: los cuatro pilares del modelo

Para que un modelo sea un verdadero instrumento de gestión, debe integrar cuatro componentes estructurales que rigen el proceso de elección:

  • Variable de decisión: el factor que está bajo nuestro control. Es la cantidad cuyo valor debemos determinar para resolver el problema de decisión.
  • Parámetro: información conocida, también llamada constante o dato. Su precisión es crítica para la fidelidad del modelo.
  • Restricción: limitación infranqueable de los valores de las variables. Sin restricciones, no hay optimización real.
  • Función objetivo: nuestro norte matemático. Es la expresión que define el éxito en términos de datos y variables. A menudo, el desafío del estratega consiste en optimizar varias funciones objetivo de forma simultánea, equilibrando metas que pueden ser contrapuestas.

Sensibilidad: la resistencia ante la incertidumbre

Una solución óptima sobre el papel es frágil si no puede resistir los embates del mundo real. Debido a la «frecuente incertidumbre sobre el valor real de los parámetros», el estratega debe realizar un análisis de sensibilidad.

Este proceso evalúa cómo cambiaría la solución ante variaciones en los datos de entrada (los parámetros). No buscamos solo la solución más brillante, sino la más robusta.

Un buen consejo:

Si un pequeño cambio en un parámetro (como el precio de una materia prima o el tiempo de entrega) hace que tu solución óptima se venga abajo, no tienes un plan; tienes un riesgo. La validación consiste en asegurarse de que los valores tengan sentido y las decisiones puedan llevarse a cabo de manera efectiva.

El ciclo de validación: el filtro de la implementación

La modelización no es un acto lineal, sino un ciclo iterativo y riguroso. Según el proceso sistémico, no pasamos directamente del modelo a la decisión, sino que antes tenemos que pasar por un filtro de fuego:

  • Definición y datos: El proceso comienza con la identificación de los límites del problema y la recopilación de datos precisos para los parámetros.
  • Resolución y prueba: Tras resolver el modelo, nos preguntamos: ¿es válida la solución?
  • Iteración: Si la solución no tiene sentido lógico o resulta impracticable, el resultado es un modelo modificado. Debemos retroceder, ajustar nuestras suposiciones o la recopilación de datos y volver a resolver.

Solo cuando la solución ha sido validada, procedemos a su implementación. Las matemáticas sin validación práctica son mera abstracción; la ejecución es el juez final.

Conclusión: dominar la realidad mediante los modelos

Modelar es el arte de optimizar bajo restricciones, un principio de elección que separa el éxito fortuito de la eficiencia estratégica. En última instancia, existen distintos tipos de modelos según la naturaleza de sus variables (enteras o continuas) y la linealidad de sus funciones, pero todos comparten un objetivo: simplificar para dominar.

Pregunta para la reflexión: En su organización o proyecto actual, ¿toma decisiones basándose en parámetros validados o intenta escalar una cima sin saber si se encuentra en un óptimo local mientras el verdadero óptimo global se halla en un terreno que aún no ha modelado?

En esta conversación podéis escuchar ideas interesantes sobre los modelos de optimización.

El vídeo resume bien los conceptos más importantes tratados.

Os dejamos aquí un breve vídeo para explicar qué es un modelo matemático de optimización. Espero que os guste.

En este documento tenéis un resumen del tema.

Optimización_Matemática

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El algoritmo de la naturaleza: El secreto de las hormigas para resolver problemas imposibles

¿Cómo es posible que insectos con capacidades individuales sumamente limitadas resuelvan problemas geométricos y logísticos que a la humanidad le han llevado décadas de estudio formal para dominar?

En el rincón más sencillo de un jardín tiene lugar un fenómeno asombroso: una comunidad de diminutos seres encuentra, sin mapas, líderes jerárquicos ni tecnología GPS, el camino más corto entre un hormiguero y una fuente de alimento.

Este prodigio de la naturaleza no es solo una curiosidad biológica, sino la piedra angular de la optimización mediante colonias de hormigas (ACO), una potente metaheurística computacional que actúa como puente entre la eficiencia orgánica y los algoritmos más avanzados de la actualidad.

A continuación, exploramos cinco lecciones fundamentales que estos optimizadores naturales nos enseñan sobre la resolución de problemas complejos.

La inteligencia no reside en el individuo, sino en el colectivo.

En el mundo de las hormigas, la genialidad no es una cualidad de un «líder» con una visión superior, sino que surge del grupo. Así, el comportamiento inteligente surge de la masa, lo que desafía nuestras nociones tradicionales de gestión jerárquica. La ciencia ha comprobado que la brillantez del sistema no radica en sus componentes aislados, sino en la red de interacciones entre ellos.

Como se describe en los fundamentos de la inteligencia colectiva:

«En la naturaleza existen ejemplos de colectivos de individuos cuyo comportamiento es aparentemente inteligente, sin que esta característica se manifieste en sus componentes individuales».

Esta realidad nos invita a reflexionar sobre un cambio de paradigma: frente al liderazgo humano centralizado, la naturaleza propone una lógica bottom-up, en la que la suma de acciones simples y coordinadas supera la capacidad de cualquier genio individual.

El «Universo» como herramienta de comunicación dinámica.

Para que una colonia resuelva un problema, no es necesario que todas las hormigas conozcan el mapa completo del entorno. De hecho, ningún agente posee un conocimiento global. El éxito depende de la interacción con su «universo», que actúa como depositario físico de la información.

Según el contexto científico, deben cumplirse tres condiciones esenciales para que se produzca este comportamiento:

  • Existencia de un objetivo prioritario: una meta clara (como la locomoción o la alimentación) que proporciona un norte y, crucialmente, dicta el comportamiento de los agentes incluso en ausencia de información local.
  • Reglas de interacción local: si existe información local, el agente la utiliza para tomar decisiones que le permitan alcanzar el objetivo más rápidamente. Los agentes independientes depositan y modifican datos en el entorno, comunicando indirectamente los resultados de sus esfuerzos.
  • Un universo donde actuar: el entorno es la «geografía» por la que transitan. Es el medio que proporciona los datos necesarios y en el que se encuentra la memoria colectiva del sistema.

Feromonas: el rastro que se convierte en memoria adaptativa.

El proceso mediante el cual las hormigas optimizan sus rutas es un fascinante ciclo químico-digital. Todo comienza con una exploración aleatoria del entorno. Tan pronto como un individuo encuentra una fuente de alimento, evalúa su cantidad y calidad. Al regresar al hormiguero, deposita una sustancia química llamada feromona.

Este rastro oloroso sirve de señal para las demás hormigas. El camino más corto acaba ganando por una cuestión de frecuencia: las hormigas que viajan por la ruta más breve regresan antes y con mayor frecuencia, por lo que refuerzan ese rastro más rápido que en las rutas largas.

Sin embargo, la clave del éxito radica en la fragilidad del rastro: la feromona es dinámica y se evapora con el tiempo. Si un camino deja de usarse, la señal desaparece. Esta capacidad de «olvido» o plasticidad es vital, ya que permite que el sistema sea flexible y evita la «estagnación», impidiendo que la colonia se quede atrapada en soluciones locales, ya sean mediocres u óptimas, que ya no resultan eficientes ante un entorno cambiante.

De la biología al código: el espejo de la optimización.

La informática ha logrado traducir estos comportamientos biológicos en algoritmos de búsqueda altamente sofisticados. Para comprender esta transición del mundo natural al ámbito del procesador, es necesario observar cómo cada elemento biológico encuentra su contraparte matemática.

Esta estructura permite a los programadores utilizar la lógica de la colonia para explorar enormes espacios de soluciones, donde encontrar la respuesta perfecta sería inviable con métodos tradicionales.

No estamos solos: el club de los optimizadores naturales.

Las hormigas no son las únicas maestras del arte de la economía de recursos. La naturaleza es un club exclusivo de optimizadores en el que la eficiencia es una ley universal de supervivencia, no una invención humana. Otros ejemplos destacados son:

  • Los cisnes: al volar en formación de V, calculan una distribución espacial precisa para minimizar el esfuerzo total que debe realizar la bandada para desplazarse de un punto A a otro B.
  • Los depredadores y los peces: los patrones de ataque de los primeros y las formaciones de los segundos buscan la máxima efectividad con el mínimo riesgo energético.
  • Los ciclistas: apelotonándose instintivamente en una carrera para reducir la resistencia al viento, emulan estos patrones de optimización colectiva.

Conclusión: un futuro inspirado en lo pequeño.

En 1991, los investigadores Corloni, Dorigo y Maniezzo abrieron una puerta trascendental al sugerir que podíamos imitar el comportamiento de los insectos para resolver problemas de optimización combinatoria. Esa semilla científica nos permite hoy en día gestionar redes de tráfico complejas, diseñar ciudades más habitables y optimizar las cadenas logísticas globales que sustentan nuestra economía.

Si aprendiéramos a «escuchar» y a observar con mayor detenimiento los rastros y la información que fluyen en nuestro propio universo, quizá descubriríamos soluciones a problemas que hoy consideramos irresolubles.

En definitiva, nos queda una reflexión provocadora: si una hormiga no sabe que está resolviendo un algoritmo, ¿qué problemas estamos resolviendo colectivamente sin darnos cuenta?

En esta conversación puedes escuchar algunas de las ideas más interesantes sobre el tema.

Este vídeo resume bien los conceptos básicos de la optimización mediante la colonia de hormigas.

Ant_Colony_Optimization Ant_Colony_Optimization

Referencias:

COLORNI, A.; DORIGO, M.; MANIEZZO, V. (1991). Distributed optimization by ant colonies, in VARELA, F.J.; BOURGINE, P. (eds.) Proceedings of the First European Conference on Artificial Life (ECAL-91). The MIT Press: Cambrige, MA, 134-142.

MARTÍNEZ, F.; PEREA, C.; YEPES, V.; HOSPITALER, A.; GONZÁLEZ-VIDOSA, F. (2007). Optimización heurística de pilas rectangulares huecas de hormigón armado. Hormigón y Acero, 244: 67-80. ISBN: 0439-5689. (link)

MARTÍNEZ, F.J.; GONZÁLEZ-VIDOSA, F.; HOSPITALER, A.; YEPES, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88: 375-386. ISSN: 0045-7949.  (link)

YEPES, V. (2003). Apuntes de optimización heurística en ingeniería. Editorial de la Universidad Politécnica de Valencia. Ref. 2003.249. Valencia, 266 pp. Depósito legal: V-2720-2003.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Por qué «no existe la comida gratis» en el mundo de los algoritmos

El mito del algoritmo universal: una humillación necesaria.

Durante décadas, la comunidad científica persiguió con arrogancia el «santo grial»: el algoritmo de optimización universal. Se soñaba con una «caja negra», ya fuera basada en elegantes procesos evolutivos o en redes neuronales profundas, capaz de resolver cualquier problema, desde el diseño de un puente atirantado hasta la logística del viajante, con una eficiencia superior.

Sin embargo, esta búsqueda no solo era ambiciosa, sino que también era fundamentalmente errónea. La revelación de que no existe una inteligencia algorítmica absoluta supuso un golpe de humildad para quienes creían haber capturado la esencia del aprendizaje, cuando en realidad solo habían logrado un ajuste estadístico fortuito.

La revelación matemática: todos los algoritmos son, en promedio, iguales.

Este mito fue desmentido en 1997 por David Wolpert y William Macready. Sus teoremas «No Free Lunch» (NFL) establecieron una igualdad matemática absoluta que rompe el ego de cualquier programador: si promediamos el rendimiento sobre el conjunto de todos los problemas posibles, cualquier algoritmo sofisticado es idéntico a una búsqueda aleatoria.

Lo que un algoritmo gana en un tipo de problemas, lo paga inevitablemente con un fracaso estrepitoso en otro. No hay «comida gratis»: la superioridad de un algoritmo genético de última generación frente a un proceso de búsqueda ciega es una ilusión que solo se sostiene cuando ignoramos la inmensidad del espacio de funciones posibles.

El teorema uno nos muestra que el uso del conocimiento del dominio puede mejorar el rendimiento, a costa de la generalidad.

La geometría del éxito: el problema de la «alineación».

Para comprender la optimización del éxito, debemos abandonar la idea de la «fuerza bruta» y abrazar la geometría. Imagine el espacio de todas las funciones posibles como una esfera gigantesca. En este espacio, cada algoritmo es un vector v y la distribución de los problemas que deseamos resolver es otro vector p.

Estar «bien adaptado» a un problema significa que el vector del algoritmo apunta en la misma dirección que el del problema.

  • Alineación geométrica: que el vector del algoritmo apunte en la misma dirección que el del problema. El rendimiento es, en esencia, el producto interno de ambos vectores.
  • Sacrificio de la generalidad: un algoritmo «generalista» apunta hacia todas partes y, por tanto, su proyección (su éxito) en un punto concreto es nula.
  • Curvatura del conocimiento: el éxito no reside en el código, sino en cómo este «se dobla» para encajar con la estructura lógica y física del problema.

Los investigadores del problema del viajante no han creado algoritmos «mejores» en términos absolutos, sino que han esculpido herramientas íntimamente alineadas con la geometría específica de las rutas y las distancias.

El golpe al ego: el algoritmo aleatorio como juez de paz.

Los teoremas 5 y 6 de Wolpert y Macready introducen un estándar de rigor que actúa como un «mínimo ético» para la ciencia. Si un algoritmo no consigue que el coste disminuya más rápido que con una búsqueda aleatoria, el investigador habrá fracasado.

Esta métrica es el antídoto contra el fraude intelectual del ajuste fino o manual. Muchos de los éxitos que se describen en la literatura no son más que el resultado de forzar un algoritmo a un puñado de problemas específicos sin superar el umbral de una búsqueda ciega. Superar al «juez de paz» aleatorio es la única prueba de que el algoritmo ha logrado capturar alguna estructura real del problema.

Consecuencias prácticas: el fin del experto generalista.

En ingeniería civil, las implicaciones del NFL son tajantes. No existen programas comerciales que puedan optimizar cualquier estructura de forma indiscriminada. Las herramientas generales (como las toolboxes estándar de Matlab) suelen ser ineficaces porque carecen del «conocimiento del hormigón».

Esta realidad ha provocado una «carrera armamentística» hacia la especialización.

  • Hibridación: La respuesta de la ingeniería moderna consiste en combinar metaheurísticas con técnicas de deep learning y redes neuronales para «aprender» la estructura del dominio.
  • Alineación estructural: un matemático brillante fracasará al optimizar un puente atirantado si no comprende la resistencia de los materiales. No se trata de falta de cálculo, sino de que su algoritmo no está alineado con la «curvatura» física del problema. El conocimiento experto es lo que permite al algoritmo encontrar el camino en un espacio de búsqueda que, de otro modo, sería un desierto uniforme.

El dilema del observador: la ceguera del éxito pasado.

Incluso cuando un algoritmo ha funcionado bien hasta ahora, el teorema 10 (sección VII) nos da un jarro de agua fría: observar el rendimiento pasado no garantiza el éxito futuro sin un conocimiento adicional sobre la función de coste. Sin conocer la estructura, no vemos el siguiente paso.

En este estado de «oscuridad estructural», un procedimiento de elección «irracional» (cambiar un algoritmo que ha funcionado bien por otro que ha funcionado mal) es tan válido como uno «racional». Sin suposiciones sobre la relación entre el algoritmo y la función, el comportamiento pasado es un predictor pobre. La lógica solo surge cuando el observador aporta información que no está presente en los datos.

Conclusión: hacia una optimización consciente.

Debemos aceptar una verdad incómoda: nuestra inteligencia artificial es un reflejo limitado del conocimiento que somos capaces de codificar en ella. La ciencia de la optimización ya no debe buscar el «algoritmo perfecto», sino métodos más profundos para transferir el conocimiento del dominio al proceso de búsqueda.

Si el rendimiento de nuestras máquinas depende por completo de lo que ya sabemos sobre el mundo, ¿no será que la «inteligencia artificial general» es un mito termodinámico, similar a la máquina de movimiento perpetuo? Quizás el mayor descubrimiento de Wolpert y Macready no fue matemático, sino filosófico: la inteligencia no es más que el conocimiento del problema disfrazado de código.

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

Este vídeo resume bien los conceptos más importantes tratados.

The_Universal_Algorithm_Myth

Referencias:

GARCÍA, J.; YEPES, V.; MARTÍ, J.V. (2020a). A hybrid k-means cuckoo search algorithm applied to the counterfort retaining walls problem. Mathematics,  8(4), 555.

MARTÍNEZ-MUÑOZ, D.; GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2022). Optimal design of steel-concrete composite bridge based on a transfer function discrete swarm intelligence algorithm. Structural and Multidisciplinary Optimization, 65:312. DOI:10.1007/s00158-022-03393-9

NEGRÍN, I.; CHAGOYÉN, E.; KRIPKA, M.; YEPES, V. (2025). An integrated framework for Optimization-based Robust Design to Progressive Collapse of RC skeleton buildings incorporating Soil-Structure Interaction effects. Innovative Infrastructure Solutions, 10:446. DOI:10.1007/s41062-025-02243-z

WOLPERT, D.H.; MACREADY, W.G. (1997). No Free Lunch Theorems for Optimization. IEEE Transactions on Evolutionary Computation, 1(1):67-82.

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

A continuación os dejo el artículo original «No Free Lunch Theorems for Optimization». Se ha convertido en un clásico de optimización heurística.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

La inteligencia de la naturaleza: cinco lecciones de los algoritmos genéticos.

Optimizar una estructura de hormigón no es solo una cuestión de cálculo, sino una batalla contra la entropía. Además, en la búsqueda de la combinación precisa entre la cantidad de acero y la resistencia del hormigón, el ingeniero se enfrenta a un océano de variables en el que la solución «perfecta» suele estar oculta bajo capas de complejidad técnica. Por tanto, el proceso exige no solo rigor analítico, sino también una comprensión profunda de cómo interactúan todos los factores que condicionan el diseño estructural.

Ante este desafío, la ingeniería moderna ha dejado de lado las calculadoras para observar el mecanismo de diseño más refinado de la historia: la selección natural.

Hace más de un siglo, Charles Darwin descubrió que la supervivencia es el resultado de un proceso en el que sobreviven los más aptos y transmiten sus rasgos. Hoy en día, aplicamos este rigor biológico a los algoritmos genéticos. Estos sistemas no solo resuelven problemas, sino que también imitan la vida misma para encontrar respuestas con una elegancia estructural que antes considerábamos inalcanzable.

Lección 1: La evolución no ocurre en el individuo, sino en su código.

Una de las distinciones más profundas de la computación evolutiva es que la mejora de un sistema no se logra manipulando el objeto final (el puente o la viga), sino su receta original. Para que un algoritmo sea verdaderamente evolutivo, debe comprender que el éxito se forja en las estructuras subyacentes, tal y como lo definió Davis en 1991:

«La evolución opera en los cromosomas, en lugar de en los individuos a los que representan».

Este enfoque resulta fascinante por lo contraintuitivo que es: para optimizar una estructura física (el fenotipo), manipulamos un vector binario o un string (el genotipo). Al trabajar con la representación abstracta, permitimos que el código explore cambios profundos sin las limitaciones del diseño inmediato, entendiendo que el cromosoma es el verdadero custodio de la adaptación global.

Lección 2: El diccionario biológico del programador.

Para resolver problemas de ingeniería como si fueran organismos vivos, debemos traducir la realidad física a un lenguaje genético preciso. Ver una solución técnica como un «ser» con ADN transforma radicalmente nuestra metodología de resolución.

  • Fenotipo: la solución final y detectable; la expresión física de la interacción genética.
  • Genotipo: la estructura o plan maestro a partir del cual se construye el organismo.
  • Cromosoma: vector o cadena de datos que almacena información.
  • Gen: Cada elemento del vector (un «vagón de tren» en la cadena de datos).
  • Alelo: el valor específico que adopta ese elemento (el bit o dato concreto).
  • Locus: posición exacta del gen, fundamental porque controla un carácter específico de la solución.
  • Aptitud (fitness): función objetivo que mide la capacidad de la solución para sobrevivir en su entorno técnico.

Lección 3: La «ruleta» de la supervivencia y la selección natural.

La selección natural no funciona como un sorteo, aunque tampoco actúa como una sentencia absoluta. Este principio se traslada al código mediante el método de la ruleta. En dicho procedimiento, cada solución se representa por un segmento circular cuya superficie es proporcional a su nivel de aptitud.

Esta «justicia algorítmica» garantiza que los mejores tengan mayores probabilidades de dejar descendencia. Sin embargo, no garantiza el monopolio de la reproducción, ya que los individuos menos aptos mantienen una pequeña probabilidad de transmitir sus genes. Este «caos controlado» es vital, ya que garantiza la diversidad estructural y evita que el algoritmo se estanque en óptimos locales, es decir, soluciones que parecen buenas solo porque el sistema ha perdido la capacidad de mirar más allá de lo inmediato.

Lección 4: Cruzamiento y mutación. El «sexo» de los datos.

La evolución exige novedad. Si nos limitáramos a clonar a los mejores, el progreso se detendría. Por ello, los algoritmos utilizan la recombinación o cruzamiento, mediante el cual dos progenitores intercambian información para crear descendientes con rasgos mixtos. Se destacan operadores sofisticados como el PMX (Partially-Matched Crossover), que copia un fragmento del código manteniendo las posiciones y rellena el resto con valores no utilizados, y el SEX (Strategic Edge Crossover), que busca identificar y preservar secuencias presentes en ambos progenitores.

Pero la mezcla no es suficiente. Es necesaria la mutación para introducir variaciones que no existían en la población original.

«Mutación: modificación espontánea de la información genética».

La mutación actúa como un factor de diversificación radical. Ya sea reemplazando un bit o recombinando elementos al azar sin considerar su aptitud inicial, este mecanismo introduce el «ruido» necesario para sacudir el sistema y permitirle dar el salto a fronteras de eficiencia completamente nuevas.

Lección 5: La memoria es un lastre para la evolución.

Siguiendo la lógica de Holland, uno de los conceptos más disruptivos de la evolución es su capacidad para vivir en el presente absoluto. A diferencia de otros sistemas de optimización que arrastran sesgos históricos, la evolución es un proceso sin memoria en el sentido estricto, ya que es una eficiencia de estado.

Durante la formación de nuevos cromosomas, el algoritmo solo tiene en cuenta la información del periodo inmediatamente anterior. Este enfoque «radical» permite que el sistema converja hacia la excelencia técnica basándose exclusivamente en la eficacia actual de los rasgos, sin verse frenado por configuraciones que fueron útiles en el pasado, pero ya no sirven para afrontar los desafíos del presente. Se podría decir que es una búsqueda de la perfección despojada de prejuicios históricos.

Los algoritmos genéticos demuestran que la naturaleza ya había resuelto los problemas de optimización más difíciles hace millones de años. Al adoptar estas leyes biológicas, la ingeniería no solo encuentra mejores soluciones para sus puentes y edificios, sino que lo hace con una elegancia que solo la evolución puede dictar.

Si principios tan elementales como la herencia y la mutación pueden dar lugar a estructuras de hormigón de una eficiencia asombrosa, ¿qué otros procesos naturales esconden hoy la clave para el próximo gran avance en la inteligencia de nuestro software?

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

Este vídeo resume bien los conceptos básicos de los algoritmos genéticos.

Aquí tenéis un vídeo en el que explico este algoritmo. Espero que os interese.

Genetic_Algorithms

Referencias:

DENNETT, D.C. (1999). La peligrosa idea de Darwin. Galaxia Gutenberg. Círculo de Lectores, Barcelona.

HOLLAND, J.H. (1975). Adaptation in natural and artificial systems. University of Michigan Press, Ann Arbor.

MARTÍNEZ, F.J.; GONZÁLEZ-VIDOSA, F.; HOSPITALER, A.; YEPES, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88: 375-386. ISSN: 0045-7949.  (link)

MEDINA, J.R.; YEPES, V. (2003). Optimization of touristic distribution networks using genetic algorithms. Statistics and Operations Research Transactions, 27(1): 95-112.  ISSN: 1696-2281.  (pdf)

PONZ-TIENDA, J.L.; YEPES, V.; PELLICER, E.; MORENO-FLORES, J. (2013). The resource leveling problem with multiple resources using an adaptive genetic algorithm. Automation in Construction, 29(1):161-172. DOI:http://dx.doi.org/10.1016/j.autcon.2012.10.003. (link)

YEPES, V. (2003). Apuntes de optimización heurística en ingeniería. Editorial de la Universidad Politécnica de Valencia. Ref. 2003.249. Valencia, 266 pp. Depósito legal: V-2720-2003.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Un algoritmo que imita al metal para resolver problemas imposibles

Introducción: Atrapado en lo «suficientemente bueno».

¿Alguna vez has sentido que encontraste una solución funcional a un problema, pero tenías la persistente sensación de que existía una respuesta mucho mejor? En la vida y en la tecnología, es fácil quedarse atascado en una solución «buena», pero no óptima, en un callejón sin salida conocido como «mínimo local». Salir de ahí requiere una estrategia poco convencional.

Es aquí donde entra en juego el recocido simulado, una ingeniosa metaheurística estocástica que toma su inspiración de la metalurgia. Desarrollado de forma independiente por Kirkpatrick, Gelatt y Vecchi en 1983 y por Černý en 1985, este algoritmo es, en esencia, una estrategia de búsqueda inteligente que utiliza la aleatoriedad de forma controlada para encontrar soluciones óptimas en problemas de gran complejidad.

Este artículo explora las lecciones más sorprendentes y contraintuitivas que este poderoso algoritmo puede enseñarnos para abordar y resolver problemas verdaderamente complejos.

1. El secreto está en la metalurgia: un algoritmo que piensa como un herrero.

La genialidad del recocido simulado radica en su analogía directa con el proceso de recocido de metales. El herrero calienta el metal a altas temperaturas y luego lo enfría lentamente y de forma controlada para eliminar sus imperfecciones y lograr una estructura interna sólida y estable. El algoritmo hace exactamente lo mismo, pero en el mundo abstracto de los datos y las soluciones.

Los conceptos clave de esta analogía son:

  • «Temperatura» alta: al principio, el algoritmo opera a una «temperatura» elevada. Esto corresponde a una fase de exploración amplia, en la que se consideran muchísimas soluciones posibles, incluso las que parecen malas, para obtener una visión global del problema.
  • «Enfriamiento» controlado: a medida que avanza el proceso, la «temperatura» se reduce gradualmente. Este «enfriamiento» suele seguir un programa geométrico (como Tt + 1 = α·Tt), lo que obliga al algoritmo a ser más selectivo. Se pasa de la exploración a la explotación, enfocándose progresivamente en las regiones más prometedoras.
  • «Energía» del sistema: en el algoritmo, la «energía» de una configuración corresponde a la función objetivo que se busca optimizar (por ejemplo, minimizar el coste, la distancia o el error).
  • «Estructura cristalina estable» de baja energía: el objetivo final del recocido es lograr un estado de mínima energía que, en el ámbito de la optimización, representa la solución óptima o casi óptima del problema.

2. La estrategia contraintuitiva: aceptar un empeoramiento para poder mejorar.

La característica más paradójica y, a la vez, más poderosa del recocido simulado es su capacidad para aceptar movimientos que, en un principio, empeoran la solución actual. Esa es la esencia de la exploración: a diferencia de los algoritmos «codiciosos» que solo aceptan mejoras, este método sabe que, a veces, hay que atravesar un pequeño valle para escalar una montaña más alta.

No se trata de un error, sino de una estrategia deliberada para evitar quedar atrapado en los mínimos locales. Antes de reducir la temperatura, el algoritmo ejecuta una serie de iteraciones (una cadena de Markov) para explorar a fondo el entorno de la solución actual. La probabilidad de aceptar un «mal» movimiento es mayor cuando la «temperatura» es alta y disminuye a medida que el sistema se «enfría», según el factor de Boltzmann exp(-ΔE/T). Al principio, la exploración es agresiva, pero al final el algoritmo se vuelve mucho más selectivo.

«Esta aceptación controlada de transiciones no mejoradoras permite al algoritmo escapar de los mínimos locales y evitar una convergencia prematura».

3. La perfección es enemiga de lo práctico: por qué «casi óptimo» es un gran resultado.

Teóricamente, para garantizar que el recocido simulado encuentre la solución globalmente óptima, podría requerir un tiempo de ejecución infinito. Sin embargo, su verdadero valor no radica en la perfección teórica, sino en su gran pragmatismo. La lección fundamental aquí es el equilibrio entre la perfección teórica y la aplicación práctica.

El algoritmo «produce de forma consistente soluciones de alta calidad en escalas de tiempo computacionales prácticas». En ingeniería, logística o finanzas, donde los recursos y el tiempo son limitados, una solución excelente entregada a tiempo es mucho más valiosa que una solución perfecta que nunca se entrega. El recocido simulado encarna este principio de diseño esencial: optimizar para el mundo real, no para un ideal teórico.

4. De vendedores viajeros a puentes de hormigón: la asombrosa versatilidad del algoritmo.

La solidez del recocido simulado se evidencia en la increíble diversidad de problemas que puede resolver. Su capacidad para explorar paisajes de soluciones complejos lo convierte en una herramienta fiable cuando no existen solucionadores específicos para un problema.

Algunos de sus campos de aplicación más impactantes incluyen:

  • Rutas y logística: Ha demostrado su eficacia al resolver el problema del vendedor viajero (TSP), encontrando rutas óptimas para conectar múltiples ciudades.
  • Procesamiento de imágenes: Se utiliza en la restauración de imágenes dañadas o con ruido, así como para resolver problemas de segmentación complejos.
  • Química molecular: Es una herramienta estándar en la cristalografía de macromoléculas que permite determinar la estructura tridimensional de moléculas complejas.
  • Ingeniería estructural: Permite realizar optimizaciones de gran impacto, como el diseño de puentes de hormigón pretensado, muros de contención de bajo coste y, en especial, la minimización simultánea del coste y de las emisiones de CO₂ en el diseño de columnas de hormigón armado.

5. A veces, una regla simple supera al azar: la alternativa determinista.

Un giro interesante en la historia de este algoritmo es la variante llamada «Aceptación por umbral» (TA, por sus siglas en inglés). Este método sustituye la regla de aceptación probabilística del recocido simulado por una regla determinista mucho más sencilla.

En lugar de calcular una probabilidad, TA solo acepta una solución peor si el empeoramiento es inferior a un umbral predefinido. Este umbral, al igual que la temperatura del algoritmo original, disminuye gradualmente a lo largo del proceso. Lo sorprendente es el resultado: estudios empíricos han demostrado que, en ciertos problemas como la planificación de tareas, la planificación forestal y la asignación de recursos, este método más simple «puede tener un rendimiento comparable o incluso superior al SA». Una lección de que, a veces, la solución más elegante no es la más compleja.

Conclusión: ¿te atreves a dar un paso atrás?

La gran lección del recocido simulado es una profunda metáfora de la resolución de problemas: el progreso no siempre es una línea recta. La verdadera optimización requiere dominar el cambio gradual, desde una exploración audaz hasta una explotación enfocada. Aceptar retrocesos temporales y controlados no es un signo de fracaso, sino una estrategia inteligente para alcanzar un objetivo mucho más alto a largo plazo.

La próxima vez que te enfrentes a un problema complejo, ¿te atreverás a explorar un camino que parezca peor al principio para encontrar una solución verdaderamente excepcional al final?

En esta conversación puedes escuchar las ideas más interesantes sobre el tema.

Este vídeo resume bien los conceptos más importantes del Simulated Annealing.

Te dejo un documento que puede interesarte.

Recocido_Simulado_Del_Caos_a_la_Solución

Referencia:

Yepes, V. (2026). Heuristic Optimization Using Simulated Annealing. In: Kulkarni, A.J., Mezura-Montes, E., Bonakdari, H. (eds) Encyclopedia of Engineering Optimization and Heuristics. Springer, Singapore. https://doi.org/10.1007/978-981-96-8165-5_48-1

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Optimización heurística mediante recocido simulado (simulated annealing)

El recocido simulado (simulated annealing, SA) es una técnica metaheurística estocástica potente diseñada para abordar problemas de optimización global en espacios de búsqueda grandes y complejos. Inspirado en el proceso de recocido de la metalurgia, el algoritmo explora ampliamente el espacio de soluciones a «temperaturas» elevadas y se centra gradualmente en las regiones más prometedoras a medida que la temperatura desciende. Su característica distintiva es la capacidad de aceptar soluciones peores con una probabilidad que disminuye con el tiempo, lo que le permite escapar de mínimos locales y evitar la convergencia prematura.

Este método es particularmente eficaz para problemas NP-hard, como el problema del viajante, la planificación de tareas y el diseño de circuitos, en los que los algoritmos exactos resultan inviables desde el punto de vista computacional. Aunque el SA no garantiza la obtención del óptimo global, produce soluciones de alta calidad en tiempos de cálculo prácticos de forma consistente. El éxito del algoritmo depende en gran medida del ajuste preciso de sus parámetros, como la temperatura inicial, el esquema de enfriamiento y la longitud de las iteraciones en cada nivel de temperatura. Su robustez y versatilidad lo han consolidado como una herramienta fundamental en campos tan diversos como la ingeniería estructural, la química molecular, el procesamiento de imágenes y la asignación de recursos.

Principios fundamentales y origen

El recocido simulado (SA), también conocido como templado simulado, recristalización simulada o enfriamiento simulado, es una técnica metaheurística que adapta un proceso físico al ámbito de la optimización.

  • Definición: El SA es un método estocástico de optimización global. Su estrategia se basa en la analogía con el recocido metalúrgico, proceso en el que un material se calienta y luego se enfría de forma controlada para alcanzar una estructura cristalina estable y de baja energía.
  • Mecanismo central: El algoritmo mejora las soluciones de forma iterativa. Acepta incondicionalmente las soluciones candidatas que son mejores que la actual y, con una probabilidad decreciente, también acepta movimientos que la empeoran. Esta aceptación controlada de transiciones «cuesta arriba» es clave para evitar quedar atrapado en óptimos locales y para permitir un cambio gradual de la exploración a la explotación del espacio de soluciones.
  • Origen: El SA fue desarrollado de forma independiente por Kirkpatrick, Gelatt y Vecchi (1983) y por Černý (1985). Su base teórica se encuentra en el algoritmo de Metropolis (1953), que se aplicó originalmente a la simulación de sistemas termodinámicos.

Mecanismo de funcionamiento y analogía termodinámica.

El SA establece un paralelismo directo entre la optimización y la termodinámica estadística, donde los conceptos se relacionan de la siguiente manera:

  • Función objetivo: corresponde a la energía de un sistema físico. El objetivo es minimizar dicha energía.
  • Solución óptima: representa una estructura cristalina de baja energía, que es un estado estable del sistema.
  • Temperatura (T): Es el parámetro que regula el comportamiento estocástico. A altas temperaturas, el sistema es más volátil y explora más; a bajas, se estabiliza.

El proceso de optimización se rige por el factor de Boltzmann, exp(-ΔE/T), donde ΔE es el cambio en la energía (valor de la función objetivo) de la nueva configuración y T es la temperatura actual.

El criterio de aceptación de una nueva solución s' a partir de una solución actual s sigue la regla de Metropolis:

  1. Si el cambio de energía ΔE = f(s') - f(s) es menor o igual a cero (ΔE ≤ 0), la nueva solución es mejor o igual, por lo que se acepta siempre.
  2. Si el cambio de energía es positivo (ΔE > 0), la nueva solución es peor. Se acepta con una probabilidad P = exp(-ΔE/T).

Esta probabilidad es alta a temperaturas elevadas, lo que fomenta la diversificación y la exploración global. A medida que T se acerca a cero, la probabilidad de aceptar malos movimientos disminuye drásticamente, haciendo que el algoritmo sea más selectivo y se comporte de manera “codiciosa” (greedy), intensificando la búsqueda en regiones prometedoras.

Componentes clave del algoritmo

El rendimiento del SA depende de la calibración precisa de su «esquema de enfriamiento». Sus componentes matemáticos y de procedimiento clave son los siguientes:

Componente Descripción
Temperatura inicial (T₀) Se elige un valor lo suficientemente alto como para asegurar una alta probabilidad de aceptación inicial, lo que permite una exploración amplia del espacio de soluciones. El método de Medina (2001) sugiere ajustarla para que la tasa de aceptación de soluciones de mayor coste se sitúe entre el 20% y el 40%.
Esquema de enfriamiento Define cómo disminuye la temperatura. El más común es el esquema geométrico: T(t+1) = α * Tt, donde α es un coeficiente de reducción típicamente en el rango de [0.8, 0.99]. Una refrigeración rápida corre el riesgo de atrapar la solución en estados metaestables, mientras que una lenta mejora la fiabilidad a un mayor coste computacional.
Longitud de la cadena de Markov Es el número de iteraciones que se ejecutan en cada nivel de temperatura. Debe ser lo suficientemente largo como para que el sistema alcance un estado de equilibrio a esa temperatura antes de seguir enfriando.
Criterio de parada Determina cuándo finaliza el algoritmo. Las condiciones comunes incluyen que la temperatura caiga por debajo de un umbral predefinido (p. ej., el 1% de la temperatura inicial) o que las mejoras en la solución se estabilicen.

Variantes y mejoras

Con el fin de mejorar la eficiencia y la adaptabilidad del SA, se han desarrollado diversas variantes y modificaciones.

  • Estrategia “Best-So-Far”: Mantiene en memoria la mejor solución encontrada hasta el momento, independientemente del estado actual de la búsqueda.
  • Esquemas de recalentamiento: Cuando el sistema se estanca en un óptimo local, la temperatura se incrementa temporalmente para promover una nueva fase de exploración (Dowsland, 1993).
  • Hibridación: Se integra el SA con otros métodos, como algoritmos genéticos, branch-and-bound o programación entera, para aprovechar sus fortalezas complementarias.
  • Implementaciones paralelas: Distribuyen los ensayos entre múltiples procesadores para mejorar la escalabilidad y la velocidad de convergencia.
  • Evaluaciones aproximadas de ΔE: Se utilizan en problemas de alta dimensionalidad para acelerar el cálculo.

Threshold Accepting (TA)

Una variante notable es el Threshold Accepting (TA), introducido por Dueck y Scheuer en 1990. Este método sustituye la regla de aceptación probabilística por una regla determinista: se acepta una solución subóptima si su empeoramiento es inferior a un umbral predefinido.

  • Se acepta una solución subóptima si su empeoramiento (degradación) es inferior a un umbral predefinido.
    Este umbral disminuye gradualmente durante la búsqueda, de forma análoga al esquema de enfriamiento del SA.

Estudios empíricos han demostrado que el TA puede tener un rendimiento comparable o incluso superior al del SA en problemas de planificación, programación y asignación de recursos (Lin et al., 1995).

Dominios de aplicación y ejemplos notables

El SA ha demostrado ser una herramienta versátil y fiable, especialmente para problemas NP-hard para los que no existen solucionadores específicos.

Dominio Aplicación específica y referencia
Enrutamiento Resolución del Problema del Viajante de Comercio (TSP) y sus variantes con restricciones de tiempo (Kirkpatrick et al., 1983).
Planificación Solución de problemas de job-shop scheduling mediante un equilibrio entre diversificación e intensificación (van Laarhoven et al., 1992).
Asignación de recursos Manejo de la complejidad del Problema de Asignación Cuadrática (QAP) en el diseño de instalaciones (Connolly, 1990).
Procesamiento de imágenes Métodos de relajación estocástica para resolver problemas de segmentación y restauración de imágenes (Geman y Geman, 1984).
Química molecular Herramienta estándar para la cristalografía macromolecular y el refinamiento conformacional (Brünger, 1992).
Ingeniería estructural – Diseño de puentes de hormigón pretensado (Martí et al., 2013).

– Optimización paramétrica de muros de contención (Yepes et al., 2008).

– Optimización del tamaño y la disposición de las estructuras de acero (Bresolin et al., 2022).

– Minimización de costes e impacto ambiental (CO₂) en el hormigón armado (Santoro y Kripka, 2020; Medeiros y Kripka, 2014).

– Diseño de estructuras marinas bajo incertidumbre (Toğan, 2012).

Factores críticos para el rendimiento.

El éxito en la aplicación del SA depende en gran medida de la formulación del problema:

  1. Representación del espacio de configuración: La forma en que se define matemáticamente el espacio de soluciones es fundamental.
  2. Definición de movimientos: Es esencial elegir un conjunto adecuado de «movimientos» o ajustes que permitan pasar de una solución a otra vecina. Las representaciones efectivas aseguran que las transiciones entre mínimos locales impliquen pequeñas diferencias de coste, lo que reduce las «barreras de energía».
  3. Función objetivo: Una función objetivo bien elegida puede modificar la distribución de los mínimos locales hacia valores de menor coste promedio, lo que aumenta la probabilidad de encontrar soluciones mejores.
  4. Manejo de restricciones: En los problemas con restricciones, la búsqueda puede limitarse a regiones factibles o pueden permitirse soluciones infactibles penalizándolas en la función objetivo. Este último enfoque puede simplificar la estructura de vecindad y suavizar la topología del paisaje de búsqueda, lo que mejora la convergencia.

Os dejo un vídeo que grabé hace unos años para explicar esta metaheurística. Espero que os sea de interés.

En este vídeo se recogen bien las principales ideas de este algoritmo.

Referencias:

Bresolin, J. M., Pravia, Z. M., & Kripka, M. (2022). Discrete sizing and layout optimization of steel truss-framed structures with Simulated Annealing Algorithm. Steel and Composite Structures, 44(5), 603–617. https://doi.org/10.12989/scs.2022.44.5.603

Brünger, A. T. (1992). X-PLOR Version 3.1: A system for X-ray crystallography and NMR. Yale University Press.

Černý, V. (1985). Thermodynamical approach to the travelling salesman problem: An efficient simulation algorithm. Journal of Optimization Theory and Applications, 45(1), 41–51. https://doi.org/10.1007/BF00940812

Connolly, D. T. (1990). An improved annealing scheme for the QAP. European Journal of Operational Research, 46(1), 93–100. https://doi.org/10.1016/0377-2217(90)90301-Q

Dowsland, K. A. (1993). Simulated annealing. In C. R. Reeves (Ed.), Modern heuristic techniques for combinatorial problems (pp. 20–69). Wiley.

Dueck, G., & Scheuer, T. (1990). Threshold accepting: A general purpose optimization algorithm appearing superior to simulated annealing. Journal of Computational Physics, 90(1), 161–175. https://doi.org/10.1016/0021-9991(90)90201-B

Geman, S., & Geman, D. (1984). Stochastic relaxation, Gibbs distributions, and the Bayesian restoration of images. IEEE Transactions on Pattern Analysis and Machine Intelligence, 6(6), 721–741. https://doi.org/10.1109/TPAMI.1984.4767596

Kirkpatrick, S., Gelatt, C. D., & Vecchi, M. P. (1983). Optimization by simulated annealing. Science, 220(4598), 671–680. https://doi.org/10.1126/science.220.4598.671

Lin, C. K. Y., Haley, K. B., & Sparks, C. (1995). A comparative study of threshold accepting and simulated annealing algorithms in three scheduling problems. European Journal of Operational Research, 83(2), 330–346. https://doi.org/10.1016/0377-2217(95)00011-E

Martí, J. V., González-Vidosa, F., Yepes, V., & Alcalá, J. (2013). Design of prestressed concrete precast road bridges with hybrid simulated annealing. Engineering Structures, 48, 342–352. https://doi.org/10.1016/j.engstruct.2012.09.014

Medeiros, F., & Kripka, M. (2014). Optimization of reinforced concrete columns according to cost and CO₂ emissions. Engineering Structures, 59, 185–194. https://doi.org/10.1016/j.engstruct.2013.10.045

Medina, J. R. (2001). Estimation of incident and reflected waves using simulated annealing. Journal of Waterway, Port, Coastal and Ocean Engineering, 127(4), 213–221. https://doi.org/10.1061/(ASCE)0733-950X(2001)127:4(213)

Metropolis, N., Rosenbluth, A. W., Rosenbluth, M. N., Teller, A. H., & Teller, E. (1953). Equation of state calculations by fast computing machines. The Journal of Chemical Physics, 21(6), 1087–1092. https://doi.org/10.1063/1.1699114

Santoro, J. F., & Kripka, M. (2020). Minimizing environmental impact in the design of reinforced concrete elements using simulated annealing. Computers and Concrete, 25(2), 111–118. https://doi.org/10.12989/cac.2020.25.2.111

Toğan, V. (2012). Optimization of monopod offshore tower under uncertainties with gradient-based and gradient-free optimization algorithms. Advances in Structural Engineering, 15(12), 2021–2032. https://doi.org/10.1260/1369-4332.15.12.2021

van Laarhoven, P. J. M., & Aarts, E. H. L. (1987). Simulated annealing: Theory and applications (Mathematics and Its Applications, Vol. 37). Springer. https://doi.org/10.1007/978-94-015-7744-1

van Laarhoven, P. J. M., Aarts, E. H. L., & Lenstra, J. K. (1992). Job shop scheduling by simulated annealing. Operations Research, 40(1), 113–125. https://doi.org/10.1287/opre.40.1.113

Yepes, V., Alcalá, J., Perea, C., & González-Vidosa, F. (2008). A parametric study of optimum earth retaining walls by simulated annealing. Engineering Structures, 30(3), 821–830. https://doi.org/10.1016/j.engstruct.2007.05.023

Yepes, V. (2026). Heuristic Optimization Using Simulated Annealing. In: Kulkarni, A.J., Mezura-Montes, E., Bonakdari, H. (eds) Encyclopedia of Engineering Optimization and Heuristics. Springer, Singapore. https://doi.org/10.1007/978-981-96-8165-5_48-1

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

5 lecciones sorprendentes de la IA para construir puentes más sostenibles y económicos.

La tesis doctoral leída recientemente por Lorena Yepes Bellver se centra en la optimización del diseño de puentes de losa de hormigón pretensado para pasos elevados con el fin de mejorar la sostenibilidad económica y ambiental mediante la minimización de costes, energía incorporada y emisiones de CO₂. Con el fin de reducir la elevada carga computacional del análisis estructural, la metodología emplea un marco de optimización de dos fases asistido por modelos sustitutos, en el que se destaca el uso de Kriging y redes neuronales artificiales (RNA).

En concreto, la optimización basada en Kriging condujo a una reducción de costes del 6,54 % al disminuir significativamente el consumo de hormigón y acero activo sin comprometer la integridad estructural. Si bien las redes neuronales demostraron una mayor precisión predictiva global, el modelo Kriging resultó más eficaz para identificar los óptimos locales durante el proceso de búsqueda. El estudio concluye que las configuraciones de diseño óptimas priorizan el uso de altos coeficientes de esbeltez y suponen una reducción del hormigón y del acero activo en favor del acero pasivo, con el fin de mejorar la eficiencia energética. Finalmente, la investigación integra la toma de decisiones multicriterio (MCDM, por sus siglas en inglés) para evaluar de manera integral los diseños en función de sus objetivos económicos, estructurales y ambientales.

Cuando pensamos en la construcción de grandes infraestructuras, como los puentes, suele venirnos a la mente la imagen de proyectos masivos, increíblemente caros y con un gran impacto ambiental. Son gigantes de hormigón y acero que, aunque necesarios, parecen irrenunciablemente vinculados a un alto coste económico y ecológico.

Sin embargo, ¿y si la inteligencia artificial nos estuviera mostrando un camino para que estos gigantes de hormigón fueran más ligeros, económicos y respetuosos con el planeta? Una reciente tesis doctoral sobre la optimización de puentes está desvelando hallazgos impactantes y, en muchos casos, sorprendentes. Este artículo resume esa compleja investigación en cinco lecciones clave y a menudo sorprendentes que no solo se aplican a los puentes, sino que anuncian una nueva era en el diseño de infraestructuras.

1. La sostenibilidad cuesta mucho menos de lo que crees.

Uno de los descubrimientos más importantes de la investigación es que la idea de que la sostenibilidad siempre implica un alto sobrecoste es, en gran medida, un mito. La optimización computacional demuestra que la viabilidad económica y la reducción del impacto ambiental no son objetivos opuestos.

La tesis doctoral lo cuantifica con precisión: un modesto aumento de los costes de construcción (inferior al 1 %) puede reducir sustancialmente las emisiones de CO₂ (en más de un 2 %). Este dato es muy relevante, ya que demuestra que con un diseño inteligente asistido por modelos predictivos se puede conseguir un beneficio medioambiental significativo con una inversión mínima. La sostenibilidad y la rentabilidad pueden y deben coexistir en el diseño de las infraestructuras del futuro.

2. El secreto está en la esbeltez: cuanto más fino, más eficiente.

En el diseño de un puente, la «relación de esbeltez» es un concepto clave que define la proporción entre la altura del tablero (su grosor) y la longitud del vano principal. Tradicionalmente, podríamos pensar que «más robusto es más seguro», pero la investigación demuestra lo contrario.

El estudio identificó una relación de esbeltez óptima para minimizar el impacto ambiental. Concretamente, el estudio halló una relación de esbeltez de aproximadamente 1/30 para optimizar las emisiones de CO₂ y de aproximadamente 1/28 para optimizar la energía incorporada. Esto significa que, en lugar de construir puentes masivos por defecto, los modelos de IA demuestran que un diseño más esbelto y afinado no solo es estructuralmente sólido, sino también mucho más eficiente en el uso de materiales. Este diseño más esbelto se logra no solo usando menos material en general, sino también mediante un sorprendente reequilibrio entre los componentes clave de la estructura, como veremos a continuación.

3. El equilibrio de materiales: menos hormigón, más acero (pasivo).

Quizás uno de los descubrimientos más sorprendentes es que el diseño más sostenible no consiste simplemente en utilizar menos cantidad de todos los materiales. La solución óptima es más un reequilibrio inteligente que una simple reducción general.

La investigación revela que los diseños optimizados lograron reducir el uso de hormigón en un 14,8 % y de acero activo (el acero de pretensado que tensa la estructura) en un 11,25 %. Sin embargo, este descenso se compensa con un aumento de la armadura pasiva (el acero convencional que refuerza el hormigón). Esto resulta contraintuitivo, ya que la intuición ingenieril a menudo favorece una reducción uniforme de los materiales. Sin embargo, los modelos computacionales identifican un complejo intercambio —sacrificar un material más barato (hormigón) por otro más caro (acero pasivo)— para alcanzar un diseño globalmente óptimo en términos de coste y emisiones de CO₂, un equilibrio que sería extremadamente difícil de lograr con métodos de diseño tradicionales.

4. Precisión frente a dirección: El verdadero poder de los modelos predictivos.

Al comparar diferentes modelos de IA, como las redes neuronales artificiales y los modelos Kriging, la tesis doctoral reveló una lección fundamental sobre su verdadero propósito en ingeniería.

El estudio reveló que, si bien las redes neuronales ofrecían predicciones absolutas más precisas, el modelo Kriging era más eficaz para identificar las regiones de diseño óptimas. Esto pone de manifiesto un aspecto crucial sobre el uso de la IA en el diseño: su mayor potencial no radica en predecir un valor exacto, como si fuera una bola de cristal, sino en guiar al ingeniero hacia la «región» del diseño donde se encuentran las mejores soluciones posibles. La IA es una herramienta de exploración y dirección que permite navegar por un universo de posibilidades para encontrar de forma eficiente los diseños más prometedores.

5. La optimización va directo al bolsillo: reducción de costes superior al 6 %.

Más allá de los objetivos medioambientales, la investigación demuestra que estos modelos de IA son herramientas muy potentes para la optimización económica directa. Este descubrimiento no se refiere al equilibrio entre coste y sostenibilidad, sino a la reducción pura y dura de los costes del proyecto.

La tesis doctoral muestra que el método de optimización basado en Kriging consigue una reducción de costes del 6,54 %. Esta importante reducción se consigue principalmente minimizando el uso de materiales: un 14,8 % menos de hormigón y un 11,25 % menos de acero activo, el acero de pretensado más especializado y costoso. Esto demuestra de forma contundente que los modelos sustitutivos no solo sirven para alcanzar metas ecológicas, sino que también son una herramienta de gran impacto para la optimización económica en proyectos a gran escala.

Conclusión: Diseñando el futuro, un puente a la vez.

La inteligencia artificial y los modelos de optimización han dejado de ser conceptos abstractos para convertirse en herramientas prácticas que permiten descubrir formas novedosas y eficientes de construir la infraestructura del futuro. Los resultados de esta investigación demuestran que es posible diseñar y construir puentes que sean más económicos y sostenibles al mismo tiempo.

Estos descubrimientos no solo se aplican a los puentes, sino que abren la puerta a una nueva forma de entender la ingeniería. Si la IA puede rediseñar algo tan grande como un puente para hacerlo más sostenible, ¿qué otras grandes industrias están a punto de transformarse con un enfoque similar?

En este audio podéis escuchar una conversación sobre este tema.

Este vídeo resume las ideas principales.

Aquí tenéis un documento resumen de las ideas básicas.

Pincha aquí para descargar

Referencias:

YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Predictive modeling for carbon footprint optimization of prestressed road flyovers. Applied Sciences15(17), 9591. DOI:10.3390/app15179591

VILLALBA, P.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2025). A Hybrid Fuzzy DEMATEL–DANP–TOPSIS Framework for Life Cycle-Based Sustainable Retrofit Decision-Making in Seismic RC Structures. Mathematics, 13(16), 2649. DOI:10.3390/math13162649

ZHOU, Z.; WANG, Y.J.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Intelligent monitoring of loess landslides and research on multi-factor coupling damage. Geomechanics for Energy and the Environment, 42:100692. DOI:10.1016/j.gete.2025.100692

ZHOU, Z.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Study on the failure mechanism of deep foundation pit of high-rise building: comprehensive test and microstructure coupling. Buildings, 15(8), 1270. DOI:10.3390/buildings15081270

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

BLIGHT, T.; MARTÍNEZ-PAGÁN, P.; ROSCHIER, L.; BOULET, D.; YEPES-BELLVER, L.; YEPES, V. (2025). Innovative approach of nomography application into an engineering educational context. Plos One, 20(2): e0315426. DOI:10.1371/journal.pone.0315426

NAVARRO, I.J.; VILLALBA, I.; YEPES-BELLVER, L.; ALCALÁ, J. Social Life Cycle Assessment of Railway Track Substructure AlternativesJ. Clean. Prod. 2024450, 142008.

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2024). Artificial neural network and Kriging surrogate model for embodied energy optimization of prestressed slab bridges. Sustainability, 16(19), 8450. DOI:10.3390/su16198450

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2023). Embodied energy optimization of prestressed concrete road flyovers by a two-phase Kriging surrogate model. Materials16(20); 6767. DOI:10.3390/ma16206767

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2022). CO₂-optimization of post-tensioned concrete slab-bridge decks using surrogate modeling. Materials, 15(14):4776. DOI:10.3390/ma15144776

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Tesis doctoral: Optimización sostenible y resiliente de edificios con estructuras híbridas y mixtas

De izquierda a derecha: Fermín Navarrina, Víctor Yepes, Iván Negrín, Tatiana García y Rasmus Rempling.

Hoy, 19 de diciembre de 2025, ha tenido lugar la defensa de la tesis doctoral de D. Iván Antonio Negrín Díaz, titulada “Metaheuristic optimization for the sustainable and resilient design of hybrid and composite frame building structures with advanced integrated modeling”, dirigida por los profesores Víctor Yepes y Moacir Kripka. La tesis ha obtenido la máxima calificación de sobresaliente «cum laude». A continuación, presentamos un breve resumen de la misma.

El cambio climático y la rápida expansión de las áreas urbanas han intensificado el impacto ambiental del sector de la construcción, responsable de cerca del 37 % de las emisiones globales de CO₂ y de más de un tercio del consumo energético mundial. Por tanto, mejorar la sostenibilidad y la resiliencia de las estructuras de edificios se ha convertido en una prioridad esencial, plenamente alineada con los Objetivos de Desarrollo Sostenible de las Naciones Unidas. Esta tesis doctoral aborda este reto mediante el desarrollo de un marco de diseño optimizado que permite obtener soluciones innovadoras, sostenibles y resilientes para estructuras porticadas.

El objetivo principal de la investigación es crear y validar metodologías avanzadas que integren tipologías estructurales híbridas y mixtas con estrategias de optimización de vanguardia apoyadas en modelos estructurales de alta fiabilidad. Para ello, se formulan problemas de optimización que consideran conjuntamente criterios económicos, ambientales, constructivos, de durabilidad y de seguridad estructural, e incorporan, además, aspectos frecuentemente ignorados, como la interacción suelo-estructura, la robustez frente al colapso progresivo y el desempeño ambiental a lo largo del ciclo de vida de la estructura. Entre los objetivos específicos, destacan los siguientes: evaluar metaheurísticas avanzadas y técnicas de optimización asistida por metamodelos; cuantificar los riesgos de modelos estructurales simplificados; integrar la resiliencia como restricción de diseño; valorar los beneficios de tipologías híbridas y mixtas; explorar estrategias de optimización multiobjetivo; y comparar enfoques de diseño basados en fases iniciales y en el ciclo de vida.

Los resultados muestran que las estrategias metaheurísticas avanzadas y asistidas por metamodelos (como BBO-CINS, enfoques basados en Kriging y Optimización Escalarizada de Pareto) superan claramente a los algoritmos tradicionales, ya que logran reducciones de hasta el 90 % en el coste computacional en problemas de un solo objetivo y mejoras de hasta el 140 % en la calidad del frente de Pareto en problemas de varios objetivos. Asimismo, se evidencia el riesgo de simplificar en exceso los modelos estructurales: omitir aspectos críticos, como la interacción suelo-estructura o los elementos secundarios (forjados, muros), puede distorsionar el diseño, comprometer la seguridad (por ejemplo, al subestimar la resistencia al colapso) y aumentar los impactos ambientales a largo plazo, debido al deterioro acelerado y a las mayores necesidades de mantenimiento. También se demuestra que, al incorporar la resiliencia como restricción de diseño en lugar de tratarla como un objetivo de optimización, es posible mejorar la robustez frente al colapso progresivo sin perjudicar la sostenibilidad y reducir la carga ambiental del diseño robusto en torno al 11 % al considerar elementos estructurales secundarios.

A nivel de componentes estructurales, la optimización de las vigas de acero soldadas confirmó las ventajas de la hibridación y de las geometrías variables, lo que dio lugar a la tipología Transversely Hybrid Variable Section (THVS), que reduce los costes de fabricación hasta en un 70 % respecto a las vigas I convencionales. Su integración en pórticos compuestos de hormigón armado y elementos THVS proporcionó mejoras adicionales en sostenibilidad, con reducciones del 16 % en emisiones y del 11 % en energía incorporada en las fases iniciales de diseño, y hasta un 30 % en emisiones de ciclo de vida en comparación con los sistemas tradicionales de hormigón armado. La inclusión de forjados y muros estructurales amplificó estos beneficios, reduciendo los impactos del ciclo de vida hasta en un 42 % respecto a configuraciones de pórticos en las que solo el esqueleto trabaja estructuralmente (omitiendo forjados y muros).

En conjunto, esta tesis demuestra que las metodologías de diseño basadas en la optimización, apoyadas en modelos estructurales realistas y en estrategias computacionales avanzadas, permiten concebir edificios que, al mismo tiempo, son más sostenibles y resilientes. Al resaltar las ventajas de las tipologías híbridas y mixtas e integrar la resiliencia sin comprometer la sostenibilidad, la investigación establece un marco claro para el diseño contemporáneo. Además, al enfatizar la optimización a lo largo de todo el ciclo de vida, ofrece una base metodológica sólida para impulsar una nueva generación de edificaciones alineadas con los objetivos globales de sostenibilidad y de acción climática.

Referencias:

  1. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Life-cycle environmental impact optimization of an RC-THVS composite frame for sustainable construction. Engineering Structures, 345, 121461. DOI:10.1016/j.engstruct.2025.121461
  2. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Manufacturing cost optimization of welded steel plate I-girders integrating hybrid construction and tapered geometry. International Journal of Advanced Manufacturing Technology, 140, 1601-1624DOI:10.1007/s00170-025-16365-2
  3. NEGRÍN, I.; CHAGOYÉN, E.; KRIPKA, M.; YEPES, V. (2025). An integrated framework for Optimization-based Robust Design to Progressive Collapse of RC skeleton buildings incorporating Soil-Structure Interaction effects. Innovative Infrastructure Solutions, 10:446. DOI:10.1007/s41062-025-02243-z
  4. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Design optimization of a composite typology based on RC columns and THVS girders to reduce economic cost, emissions, and embodied energy of frame building construction. Energy and Buildings, 336:115607. DOI:10.1016/j.enbuild.2025.115607
  5. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementationEngineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487
  6. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2024). Optimized Transverse-Longitudinal Hybrid Construction for Sustainable Design of Welded Steel Plate Girders. Advances in Civil Engineering, 2024:5561712. DOI:10.1155/2024/5561712.
  7. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2023). Multi-criteria optimization for sustainability-based design of reinforced concrete frame buildingsJournal of Cleaner Production, 425:139115. DOI:10.1016/j.jclepro.2023.139115
  8. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2023). Metamodel-assisted meta-heuristic design optimization of reinforced concrete frame structures considering soil-structure interaction. Engineering Structures, 293:116657. DOI:10.1016/j.engstruct.2023.116657
  9. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2023). Design optimization of welded steel plate girders configured as a hybrid structure. Journal of Constructional Steel Research, 211:108131. DOI:10.1016/j.jcsr.2023.108131
  10. TERREROS-BEDOYA, A.; NEGRÍN, I.; PAYÁ-ZAFORTEZA, I.; YEPES, V. (2023). Hybrid steel girders: review, advantages and new horizons in research and applications. Journal of Constructional Steel Research, 207:107976. DOI:10.1016/j.jcsr.2023.107976.
  11. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2023). Metamodel-assisted design optimization in the field of structural engineering: a literature review. Structures, 52:609-631. DOI:10.1016/j.istruc.2023.04.006

 

Europa premia a la UPV por revolucionar el diseño estructural con Inteligencia Artificial

La Universitat Politècnica de València (UPV) ha obtenido un reconocimiento destacado europeo al ganar el premio al mejor proyecto en la categoría «AI for Sustainable Development» de la European Universities Competition on Artificial Intelligence, organizada por la HAW Hamburg.

El trabajo galardonado, desarrollado en el ICITECH por el doctorando Iván Negrín, demuestra cómo la inteligencia artificial puede transformar el diseño estructural para hacerlo más sostenible y resiliente, con reducciones de hasta un 32 % en la huella de carbono respecto a los sistemas convencionales. Este logro posiciona a la UPV como un referente europeo en innovación ética e impacto y reafirma su compromiso con la búsqueda de soluciones frente al cambio climático y al desarrollo insostenible.

El trabajo se enmarca en el proyecto de investigación RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València. La tesis doctoral de Iván la dirigen los profesores Víctor Yepes y Moacir Kripka.

Introducción: El dilema de la construcción moderna.

La industria de la construcción se enfrenta a un reto monumental: edificar las ciudades del futuro sin agotar los recursos del presente. El enorme impacto medioambiental de los materiales y procesos tradicionales, especialmente las emisiones de CO₂, es uno de los problemas más acuciantes de nuestra era.

¿Y si la solución a este problema no radicara en un nuevo material milagroso, sino en una nueva forma de pensar? ¿Y si la inteligencia artificial (IA) pudiera enseñarnos a construir de manera mucho más eficiente y segura?

Esa es precisamente la hazaña que ha logrado un innovador proyecto de la Universitat Politècnica de València (UPV). Su enfoque es tan revolucionario que acaba de ganar un prestigioso premio europeo, lo que demuestra que la IA ya no es una promesa, sino una herramienta tangible para la ingeniería sostenible.

Clave 1: una innovación europea premiada al más alto nivel.

Este no es un proyecto académico cualquiera. La investigación, dirigida por el doctorando Iván Negrín del Instituto de Ciencia y Tecnología del Hormigón (ICITECH) de la UPV, ha recibido el máximo reconocimiento continental.

Inicialmente seleccionado como uno de los diez finalistas, el proyecto tuvo que defenderse en una presentación final ante un jurado de expertos. Tras la deliberación del jurado, el proyecto fue galardonado como el mejor en la categoría «AI for Sustainable Development Projects» de la competición «European Universities Competition on Artificial Intelligence to Promote Sustainable Development and Address Climate Change», organizada por la Universidad de Ciencias Aplicadas de Hamburgo (HAW Hamburg). Este reconocimiento consolida la reputación del proyecto en el ámbito de la innovación europea.

Clave 2: adiós al CO₂: reduce la huella de carbono en más del 30 %.

El resultado más impactante de esta investigación es su capacidad para abordar el principal problema medioambiental del sector de la construcción: las emisiones de carbono. La plataforma de diseño asistido por IA puede reducir la huella de carbono de los edificios de manera significativa.

En concreto, consigue una reducción del 32 % de la huella de carbono en comparación con los sistemas convencionales de hormigón armado, que ya habían sido optimizados. Esta reducción abarca todo el ciclo de vida del edificio, desde la extracción de materiales y la construcción hasta su mantenimiento y su eventual demolición.

En un sector tan difícil de descarbonizar, un avance de esta magnitud, impulsado por un diseño inteligente y no por un nuevo material, supone un cambio de paradigma fundamental para la ingeniería sostenible.

Clave 3: Rompe el mito: más sostenible no significa menos resistente.

Uno de los aspectos más revolucionarios del proyecto es la forma en que resuelve un conflicto histórico en ingeniería: la sostenibilidad frente a la resiliencia. La IA ha superado la barrera que obligaba a elegir entre usar menos material para ser sostenible o más material para ser resistente.

En una primera fase, el modelo optimizó estructuras mixtas de acero y hormigón (denominadas técnicamente RC-THVS) para que fueran altamente sostenibles, aunque con una resiliencia baja. Lejos de detenerse, la IA iteró sobre su propio diseño y, en una evolución posterior (RC-THVS-R), logró una solución altamente sostenible y resiliente frente a eventos extremos.

La metodología desarrollada permite compatibilizar la sostenibilidad y la resiliencia, superando el tradicional conflicto entre ambos objetivos.

Clave 4: Ahorro desde los cimientos. Menos costes, energía y materiales.

Los beneficios de esta IA no solo benefician al planeta, sino también al bolsillo y a la eficiencia del proyecto. La optimización inteligente de las estructuras se traduce en ahorros tangibles y medibles desde las primeras fases de la construcción.

Los datos demuestran un ahorro significativo en múltiples frentes:

  • -16 % de energía incorporada.
  • -6 % de coste económico.
  • – Reducción del 17 % de las cargas transmitidas a columnas y cimentaciones.

Este último punto es clave. Una menor carga en los cimientos no solo supone un ahorro directo de materiales, sino que tiene un efecto cascada en materia de sostenibilidad: al usar menos hormigón, se reduce la cantidad de cemento empleado, uno de los principales generadores de CO₂ a nivel mundial.

Clave 5: un enfoque versátil para las ciudades del futuro (y del presente).

La aplicación de esta metodología no se limita a los grandes edificios de nueva construcción. Su versatilidad la convierte en una herramienta estratégica para el desarrollo urbano integral.

Puede aplicarse a infraestructuras de transporte, como puentes y pasarelas, para minimizar su impacto ambiental. También es fundamental para la rehabilitación de estructuras existentes, ya que permite optimizar su seguridad y reducir las emisiones asociadas a los refuerzos.

Este enfoque se alinea con los Objetivos de Desarrollo Sostenible (ODS) de la ONU, concretamente con los ODS 9 (Industria, innovación e infraestructura), 11 (Ciudades y comunidades sostenibles) y 13 (Acción por el clima).

Conclusión: construyendo un futuro inteligente.

Este proyecto de la UPV demuestra que la inteligencia artificial ha dejado de ser una tecnología futurista para convertirse en una herramienta imprescindible en la ingeniería civil. Ya no se trata de promesas, sino de soluciones prácticas que resuelven problemas reales, medibles y urgentes.

La capacidad de diseñar estructuras más baratas, ecológicas, seguras y resistentes abre un nuevo capítulo en la construcción.

¿Estamos a las puertas de una nueva era en la ingeniería en la que la sostenibilidad y la máxima seguridad ya no son objetivos contrapuestos, sino aliados inseparables gracias a la inteligencia artificial?

En futuros artículos, explicaremos con más detalle el contenido de este proyecto ganador. De momento, os dejo una conversación que lo explica muy bien y un vídeo que resume lo más importante. Espero que os resulte interesante.

Os dejo un documento resumen, por si queréis ampliar la información.

Pincha aquí para descargar

Referencias:

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Environmental Life-Cycle Design Optimization of a RC-THVS composite frame for modern building construction. Engineering Structures, 345, 121461. DOI:10.1016/j.engstruct.2025.121461

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Manufacturing cost optimization of welded steel plate I-girders integrating hybrid construction and tapered geometry. International Journal of Advanced Manufacturing Technology, 140, 1601-1624DOI:10.1007/s00170-025-16365-2

NEGRÍN, I.; CHAGOYÉN, E.; KRIPKA, M.; YEPES, V. (2025). An integrated framework for Optimization-based Robust Design to Progressive Collapse of RC skeleton buildings incorporating Soil-Structure Interaction effects. Innovative Infrastructure Solutions, 10:446. DOI:10.1007/s41062-025-02243-z

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Design optimization of a composite typology based on RC columns and THVS girders to reduce economic cost, emissions, and embodied energy of frame building construction. Energy and Buildings, 336:115607. DOI:10.1016/j.enbuild.2025.115607

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementationEngineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2024). Optimized Transverse-Longitudinal Hybrid Construction for Sustainable Design of Welded Steel Plate Girders. Advances in Civil Engineering, 2024:5561712. DOI:10.1155/2024/5561712.

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2023). Multi-criteria optimization for sustainability-based design of reinforced concrete frame buildingsJournal of Cleaner Production, 425:139115. DOI:10.1016/j.jclepro.2023.139115

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2023). Metamodel-assisted meta-heuristic design optimization of reinforced concrete frame structures considering soil-structure interaction. Engineering Structures, 293:116657. DOI:10.1016/j.engstruct.2023.116657

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2023). Design optimization of welded steel plate girders configured as a hybrid structure. Journal of Constructional Steel Research, 211:108131. DOI:10.1016/j.jcsr.2023.108131

TERREROS-BEDOYA, A.; NEGRÍN, I.; PAYÁ-ZAFORTEZA, I.; YEPES, V. (2023). Hybrid steel girders: review, advantages and new horizons in research and applications. Journal of Constructional Steel Research, 207:107976. DOI:10.1016/j.jcsr.2023.107976.

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2023). Metamodel-assisted design optimization in the field of structural engineering: a literature review. Structures, 52:609-631. DOI:10.1016/j.istruc.2023.04.006

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

5 lecciones sorprendentes de ingeniería avanzada para construir puentes más sostenibles y económicos

Cuando pensamos en la construcción de grandes infraestructuras, como los puentes, a menudo nos viene a la mente una imagen de fuerza bruta: toneladas de hormigón y acero ensambladas con una precisión monumental. Se trata de una proeza de la ingeniería física, un testimonio de la capacidad humana para dominar los materiales y la geografía.

Sin embargo, detrás de esta fachada de poderío industrial se está produciendo una revolución silenciosa. La inteligencia artificial y los modelos computacionales avanzados, que pueden ejecutar el equivalente a décadas de diseño y pruebas de ingeniería en cuestión de horas, están redefiniendo las reglas del juego. Lejos de ser un mero ejercicio teórico, estas herramientas permiten a los ingenieros diseñar puentes que son no solo más resistentes, sino también sorprendentemente más económicos y respetuosos con el medio ambiente.

Las lecciones que siguen se basan en los hallazgos de una tesis doctoral, defendida por la profesora Lorena Yepes Bellver, innovadora en la optimización de puentes. La tesis obtuvo la máxima calificación de sobresaliente «cum laude». Las lecciones demuestran que el futuro de la construcción no radica únicamente en nuevos materiales milagrosos, sino en la aplicación de una inteligencia que permita aprovechar los ya existentes de forma mucho más eficiente.

De izquierda a derecha: Julián Alcalá, Salvador Ivorra, Lorena Yepes, Tatiana García y Antonio Tomás.

1. El pequeño coste de un gran impacto ecológico: pagar un 1 % más para emitir un 2 % menos de CO₂.

Uno de los principales obstáculos para la adopción de prácticas sostenibles ha sido siempre la creencia de que «ser verde» es significativamente más caro. Sin embargo, la investigación en optimización de puentes revela una realidad mucho más alentadora. Gracias a los diseños perfeccionados mediante metamodelos, es posible lograr reducciones significativas de la huella de carbono con un impacto económico mínimo.

El dato clave del estudio es contundente: «Un modesto aumento de los costes de construcción (menos del 1 %) puede reducir sustancialmente las emisiones de CO₂ (más del 2 %)». Este hallazgo demuestra que la sostenibilidad no tiene por qué ser un lujo, sino el resultado de una ingeniería más inteligente.

 

«Esto demuestra que el diseño de puentes sostenibles puede ser económicamente viable».

Esta lección es fundamental, ya que pone fin a una falsa dicotomía entre la economía y la ecología. Demuestra que no es necesario elegir entre un puente asequible y otro respetuoso con el medio ambiente. Gracias a las decisiones de diseño inteligentes, guiadas por la optimización avanzada, es posible alcanzar ambos objetivos simultáneamente, de modo que la sostenibilidad se convierte en una ventaja competitiva y no en una carga.

2. La paradoja de los materiales: añadir más componentes para reducir el consumo global.

La lógica convencional nos diría que, para construir de forma más sostenible, el objetivo debería ser reducir la cantidad total de materiales utilizados. Menos hormigón, menos acero, menos de todo. Sin embargo, uno de los hallazgos más sorprendentes de la tesis es una paradoja que desafía esta idea tan simple.

El diseño óptimo y más sostenible aumenta, de hecho, la cantidad de uno de sus componentes: la armadura pasiva (el acero de refuerzo convencional). A primera vista, esto parece contradictorio: ¿cómo puede ser más ecológico añadir más material?

La explicación se debe a un enfoque sistémico. Este aumento estratégico y calculado del refuerzo pasivo permite reducir considerablemente el consumo de otros dos materiales clave: el hormigón y la armadura activa (el acero de pretensado). La producción de estos materiales, especialmente la del cemento y del acero de alta resistencia, es intensiva en energía y, por tanto, genera numerosas emisiones de CO₂. En esencia, se sacrifica una pequeña cantidad de un material de menor impacto para ahorrar una cantidad mucho mayor de materiales de alto impacto.

Este enfoque, que podría describirse como «sacrificar una pieza para ganar el juego», es un ejemplo perfecto de cómo la optimización avanzada supera las reglas simplistas de reducción. En lugar de aplicar un recorte general, se analiza el sistema en su conjunto y se determina el equilibrio más eficiente. Este equilibrio inteligente de materiales solo es posible si se afina otro factor clave: la geometría de la estructura.

Retos en la optimización de puentes con metamodelos

3. Más esbelto es mejor: el secreto de la «delgadez» estructural para la sostenibilidad.

En el ámbito de la ingeniería de puentes, el concepto de «esbeltez» es fundamental. En términos sencillos, se refiere a la relación entre el canto de la losa y la luz que debe cubrir. Una mayor esbeltez implica un diseño estructural, en palabras comunes, más «delgado» o «fino».

La investigación revela un hallazgo crucial: los diseños que son óptimos tanto en términos de emisiones de CO₂ como de energía incorporada se logran con relaciones de esbeltez altas, concretamente de entre 1/30 y 1/28. En otras palabras, los puentes más sostenibles son también los más delgados y se complementan con hormigones óptimos situados entre 35 y 40 MPa de resistencia característica.

¿Por qué es esto tan beneficioso? Un diseño más esbelto requiere, inherentemente, una menor cantidad de materiales, principalmente de hormigón. Lo realmente notable es cómo se consigue. Los métodos tradicionales suelen basarse en reglas generales y márgenes de seguridad amplios, mientras que la optimización computacional permite a los ingenieros explorar miles, e incluso millones, de variaciones para acercarse al límite físico de la eficiencia sin sacrificar la seguridad. El resultado es una elegancia estructural casi contraintuitiva: puentes que alcanzan su fuerza no a través de la masa bruta, sino mediante una delgadez inteligentemente calculada, donde la sostenibilidad es una consecuencia natural de la eficiencia.

4. La optimización inteligente genera ahorros reales: una reducción de costes de hasta un 6,5 %.

Más allá de los beneficios medioambientales, la aplicación de estas técnicas de optimización tiene un impacto económico directo y medible. El diseño de infraestructuras deja de ser un arte basado únicamente en la experiencia para convertirse en una ciencia precisa que busca la máxima eficiencia económica.

El resultado principal del estudio sobre la optimización de costes es claro: el uso de modelos sustitutos (metamodelos Kriging) guiados por algoritmos heurísticos, como el recocido simulado, logró una reducción de costes del 6,54 % en comparación con un diseño de referencia.

Estos ahorros no son teóricos, sino que provienen directamente de la reducción de materiales. En concreto, se consiguió una disminución del 14,8 % en el uso de hormigón y del 11,25 % en el acero activo (pretensado). Es crucial destacar que estas reducciones se consiguieron sin afectar a la integridad estructural ni a la capacidad de servicio del puente. No se trata de sacrificar la calidad por el precio, sino de diseñar de manera más inteligente. Esta metodología convierte la optimización del diseño en una tarea académica en una herramienta práctica y altamente eficaz para la gestión económica de grandes proyectos de ingeniería civil.

5. No todos los cerebros artificiales piensan igual; la clave está en elegir el modelo computacional adecuado.

Una de las lecciones más importantes de esta investigación es que no basta con aplicar «inteligencia artificial» de forma genérica. El éxito de la optimización depende de elegir la herramienta computacional adecuada para cada tarea específica.

La tesis comparó dos potentes metamodelos: las redes neuronales artificiales (RNA) y los modelos de Kriging. Se descubrió una diferencia crucial en su rendimiento: si bien las RNA ofrecían predicciones absolutas más precisas sobre el comportamiento de un diseño concreto, el modelo de Kriging demostró ser mucho más eficaz para identificar los «óptimos locales», es decir, las zonas del mapa de diseño donde se encontraban las mejores soluciones.

Esto revela una capa más profunda de la optimización inteligente. Un modelo puede ser excelente para predecir un resultado (RNA), mientras que otro es más eficaz para guiar la búsqueda del mejor resultado posible (Kriging). No se trata solo de utilizar IA, sino de comprender qué «tipo de pensamiento» artificial es el más adecuado para cada fase del problema: predecir frente a optimizar. La verdadera maestría de la ingeniería moderna consiste en saber elegir las herramientas adecuadas para cada fase del problema.

Conclusión: la nueva frontera del diseño de infraestructuras.

La construcción de nuestras infraestructuras entra en una nueva era. La combinación de la ingeniería estructural clásica con el poder de los modelos computacionales avanzados, como el metamodelado Kriging y las redes neuronales artificiales, está abriendo una nueva frontera en la que la eficiencia y la sostenibilidad no son objetivos opcionales, sino resultados intrínsecos de un buen diseño.

Como hemos visto, los grandes avances no siempre provienen de materiales revolucionarios. A menudo, los «secretos» mejor guardados residen en la optimización inteligente de los diseños y materiales que ya conocemos. Obtener un mayor beneficio ecológico pagando menos, utilizar estratégicamente más de un material para reducir el consumo global o diseñar estructuras más esbeltas y elegantes son lecciones que van más allá de la construcción de puentes.

Nos dejan con una pregunta final que invita a la reflexión: si podemos lograr esto con los puentes, ¿qué otras áreas de la construcción y la industria están esperando a ser reinventadas por el poder de la optimización inteligente?

Os dejo un audio en el que se discuten las ideas de la tesis doctoral. Espero que os guste.

Y en este vídeo, tenemos resumidas las ideas principales de esta tesis.

Referencias:

YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Predictive modeling for carbon footprint optimization of prestressed road flyovers. Applied Sciences15(17), 9591. DOI:10.3390/app15179591

VILLALBA, P.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2025). A Hybrid Fuzzy DEMATEL–DANP–TOPSIS Framework for Life Cycle-Based Sustainable Retrofit Decision-Making in Seismic RC Structures. Mathematics, 13(16), 2649. DOI:10.3390/math13162649

ZHOU, Z.; WANG, Y.J.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Intelligent monitoring of loess landslides and research on multi-factor coupling damage. Geomechanics for Energy and the Environment, 42:100692. DOI:10.1016/j.gete.2025.100692

ZHOU, Z.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Study on the failure mechanism of deep foundation pit of high-rise building: comprehensive test and microstructure coupling. Buildings, 15(8), 1270. DOI:10.3390/buildings15081270

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

BLIGHT, T.; MARTÍNEZ-PAGÁN, P.; ROSCHIER, L.; BOULET, D.; YEPES-BELLVER, L.; YEPES, V. (2025). Innovative approach of nomography application into an engineering educational context. Plos One, 20(2): e0315426. DOI:10.1371/journal.pone.0315426

NAVARRO, I.J.; VILLALBA, I.; YEPES-BELLVER, L.; ALCALÁ, J. Social Life Cycle Assessment of Railway Track Substructure AlternativesJ. Clean. Prod. 2024450, 142008.

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2024). Artificial neural network and Kriging surrogate model for embodied energy optimization of prestressed slab bridges. Sustainability, 16(19), 8450. DOI:10.3390/su16198450

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2023). Embodied energy optimization of prestressed concrete road flyovers by a two-phase Kriging surrogate model. Materials16(20); 6767. DOI:10.3390/ma16206767

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2022). CO₂-optimization of post-tensioned concrete slab-bridge decks using surrogate modeling. Materials, 15(14):4776. DOI:10.3390/ma15144776

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.;