En el corazón de nuestra civilización digital late un motor invisible que solemos dar por sentado. Lo que en el siglo IX nació como una serie de reglas rígidas para el cálculo algebraico —el legado de Al-Juarismi— ha evolucionado hasta convertirse en el concepto moderno de algoritmo: una sofisticada «receta» diseñada para manipular información mediante operaciones elementales. En la actualidad, los algoritmos no son solo curiosidades matemáticas, sino la infraestructura lógica que decide desde la ruta de un camión de reparto hasta la resistencia de un viaducto de hormigón. Sin embargo, ¿comprendemos realmente las leyes que rigen su eficiencia o somos ciegos ante las reglas que separan lo posible de lo imposible?
El concepto de algoritmo ha evolucionado desde una acepción antigua, centrada en reglas para operaciones algebraicas, hacia una visión moderna: un conjunto prescrito de reglas o instrucciones bien definidas para resolver un problema específico en un número finito de pasos. En esencia, se trata de un método para manipular información mediante operaciones elementales.
A continuación, desvelamos cinco realidades esenciales para navegar por este universo de precisión y complejidad.
1. Los pilares del rigor: más allá del simple «paso a paso».
A menudo se define el algoritmo como una lista de instrucciones, pero para la ciencia de la computación esta definición es insuficiente. Un algoritmo debe ser un baluarte contra la ambigüedad, ese «fantasma en la máquina» que detiene en seco cualquier proceso lógico. Un método solo alcanza la categoría de algoritmo si cumple cuatro condiciones necesarias, pero no suficientes.
Precisión: cada instrucción debe indicar exactamente qué acción realizar, sin margen de interpretación.
Finitud: el proceso debe tener un final garantizado tras un número determinado de pasos.
Efectividad: cada operación debe poder ser ejecutada por el ejecutor (humano o máquina) en un tiempo finito.
Entrada y salida: debe existir un punto de partida de datos y un resultado concreto.
La finitud no es solo una exigencia teórica, sino también una restricción física. En un mundo de recursos limitados, un proceso que no termina nunca no es una solución, sino un abismo de consumo de energía.
2. El enigma de P vs. NP
Existe una frontera que divide los problemas en dos grandes categorías. Por un lado, la clase P, que agrupa los problemas que podemos resolver rápidamente (de forma eficiente). Por otro lado, está la clase NP, que incluye problemas cuya solución, aunque difícil de encontrar, puede verificarse con rapidez una vez que la tenemos. La gran pregunta que obsesiona a los genios desde 1971 es si resolver es intrínsecamente más difícil que verificar.
«¡Hoy en día no se ha podido demostrar que P = NP!»
Científicamente, sabemos que P ⊂ NP, pero el gran misterio radica en el «empate». Si se demostrara que P = NP, significaría que para la mayoría de los retos complejos de nuestra era —desde la criptografía hasta el diseño estructural— existen algoritmos de una eficiencia asombrosa que aún no hemos logrado ver.
3. La tiranía del tiempo: el análisis del «peor caso».
En ingeniería y computación, el rendimiento no es cuestión de suerte. Para medirlo, recurrimos a la teoría del análisis asintótico de funciones, que nos permite predecir cómo crecerá el esfuerzo de cálculo a medida que aumenta la dimensión del problema (n). Para un especialista, no basta con saber cuánto tarda un algoritmo de media; lo vital es el análisis del peor caso. Este define el coste máximo de aplicar el algoritmo a cualquier problema de tamaño n.
Aquí es donde la matemática se vuelve tangible. Imagine que n representa el número de ciudades que un camión debe visitar.
Complejidad polinómica (O(n^k)): El tiempo crece de forma controlada. Estos problemas se consideran «resolubles eficientemente».
Complejidad exponencial: El tiempo de cálculo aumenta de forma exponencial. Un ligero aumento en el número de ciudades puede hacer que el ordenador necesite más tiempo que la edad del universo para hallar la respuesta.
Orden de magnitud de un algoritmo
4. El drama de los problemas NP-completos.
Dentro del vasto territorio de la clase NP, existe una «aristocracia» del caos: los problemas NP-completos (NPC). El ejemplo más célebre es el problema del viajante (O(n² 2^n)). Estos problemas son fascinantes porque están interconectados: si alguien lograra encontrar un algoritmo polinómico para resolver un problema NPC, automáticamente todos los problemas NP pasarían a ser resolubles de manera eficiente.
Mientras ese día no llegue, los problemas NPC representan el muro contra el que choca la potencia bruta. En ellos, añadir un solo dato más a la entrada no solo implica trabajo, sino que multiplica la dificultad hasta el punto de que la realidad física se vuelve incapaz de soportar el cálculo.
5. El arte de la heurística: la sabiduría de lo «suficientemente bueno».
¿Qué debe hacer un ingeniero ante un problema cuya solución perfecta tardaría milenios en aparecer? La respuesta está en las heurísticas y las metaheurísticas. Se trata de algoritmos aproximados que actúan como un «Plan B» inteligente cuando la perfección se convierte en el enemigo de lo posible.
Sin embargo, el orden de los factores sí altera el producto. Si un problema de optimización se presenta en forma algebraica, es imperativo intentar primero las técnicas clásicas. No tiene sentido utilizar una heurística si los métodos Simplex (para problemas lineales) o de gradiente (para problemas no lineales) pueden proporcionarnos la respuesta exacta. Solo cuando estas herramientas fallan o su lentitud resulta inasumible, recurrimos a la intuición algorítmica.
Conclusión: Hacia una nueva frontera de optimización.
El viaje desde las antiguas reglas de cálculo hasta la optimización de las estructuras de hormigón modernas nos enseña que el límite de la ingeniería no está en la potencia de los procesadores, sino en la elegancia de nuestros métodos. El éxito consiste en saber navegar entre el rigor asintótico y la flexibilidad heurística.
En última instancia, nos enfrentamos a una pregunta que definirá el futuro de nuestra capacidad técnica: ¿residirá el progreso en la búsqueda incansable del algoritmo perfecto que demuestre que P = NP o en perfeccionar nuestra capacidad para utilizar la intuición heurística y construir un mundo «suficientemente bueno» antes de que se agote el tiempo?
En esta conversación podéis escuchar las ideas más interesantes sobre este tema.
El vídeo resume bien los conceptos más importantes de la algoritmia y la complejidad computacional.
Introducción: Atrapado en lo «suficientemente bueno».
¿Alguna vez has sentido que encontraste una solución funcional a un problema, pero tenías la persistente sensación de que existía una respuesta mucho mejor? En la vida y en la tecnología, es fácil quedarse atascado en una solución «buena», pero no óptima, en un callejón sin salida conocido como «mínimo local». Salir de ahí requiere una estrategia poco convencional.
Es aquí donde entra en juego el recocido simulado, una ingeniosa metaheurística estocástica que toma su inspiración de la metalurgia. Desarrollado de forma independiente por Kirkpatrick, Gelatt y Vecchi en 1983 y por Černý en 1985, este algoritmo es, en esencia, una estrategia de búsqueda inteligente que utiliza la aleatoriedad de forma controlada para encontrar soluciones óptimas en problemas de gran complejidad.
Este artículo explora las lecciones más sorprendentes y contraintuitivas que este poderoso algoritmo puede enseñarnos para abordar y resolver problemas verdaderamente complejos.
1. El secreto está en la metalurgia: un algoritmo que piensa como un herrero.
La genialidad del recocido simulado radica en su analogía directa con el proceso de recocido de metales. El herrero calienta el metal a altas temperaturas y luego lo enfría lentamente y de forma controlada para eliminar sus imperfecciones y lograr una estructura interna sólida y estable. El algoritmo hace exactamente lo mismo, pero en el mundo abstracto de los datos y las soluciones.
Los conceptos clave de esta analogía son:
«Temperatura» alta: al principio, el algoritmo opera a una «temperatura» elevada. Esto corresponde a una fase de exploración amplia, en la que se consideran muchísimas soluciones posibles, incluso las que parecen malas, para obtener una visión global del problema.
«Enfriamiento» controlado: a medida que avanza el proceso, la «temperatura» se reduce gradualmente. Este «enfriamiento» suele seguir un programa geométrico (como Tt + 1 = α·Tt), lo que obliga al algoritmo a ser más selectivo. Se pasa de la exploración a la explotación, enfocándose progresivamente en las regiones más prometedoras.
«Energía» del sistema: en el algoritmo, la «energía» de una configuración corresponde a la función objetivo que se busca optimizar (por ejemplo, minimizar el coste, la distancia o el error).
«Estructura cristalina estable» de baja energía: el objetivo final del recocido es lograr un estado de mínima energía que, en el ámbito de la optimización, representa la solución óptima o casi óptima del problema.
2. La estrategia contraintuitiva: aceptar un empeoramiento para poder mejorar.
La característica más paradójica y, a la vez, más poderosa del recocido simulado es su capacidad para aceptar movimientos que, en un principio, empeoran la solución actual. Esa es la esencia de la exploración: a diferencia de los algoritmos «codiciosos» que solo aceptan mejoras, este método sabe que, a veces, hay que atravesar un pequeño valle para escalar una montaña más alta.
No se trata de un error, sino de una estrategia deliberada para evitar quedar atrapado en los mínimos locales. Antes de reducir la temperatura, el algoritmo ejecuta una serie de iteraciones (una cadena de Markov) para explorar a fondo el entorno de la solución actual. La probabilidad de aceptar un «mal» movimiento es mayor cuando la «temperatura» es alta y disminuye a medida que el sistema se «enfría», según el factor de Boltzmann exp(-ΔE/T). Al principio, la exploración es agresiva, pero al final el algoritmo se vuelve mucho más selectivo.
«Esta aceptación controlada de transiciones no mejoradoras permite al algoritmo escapar de los mínimos locales y evitar una convergencia prematura».
3. La perfección es enemiga de lo práctico: por qué «casi óptimo» es un gran resultado.
Teóricamente, para garantizar que el recocido simulado encuentre la solución globalmente óptima, podría requerir un tiempo de ejecución infinito. Sin embargo, su verdadero valor no radica en la perfección teórica, sino en su gran pragmatismo. La lección fundamental aquí es el equilibrio entre la perfección teórica y la aplicación práctica.
El algoritmo «produce de forma consistente soluciones de alta calidad en escalas de tiempo computacionales prácticas». En ingeniería, logística o finanzas, donde los recursos y el tiempo son limitados, una solución excelente entregada a tiempo es mucho más valiosa que una solución perfecta que nunca se entrega. El recocido simulado encarna este principio de diseño esencial: optimizar para el mundo real, no para un ideal teórico.
4. De vendedores viajeros a puentes de hormigón: la asombrosa versatilidad del algoritmo.
La solidez del recocido simulado se evidencia en la increíble diversidad de problemas que puede resolver. Su capacidad para explorar paisajes de soluciones complejos lo convierte en una herramienta fiable cuando no existen solucionadores específicos para un problema.
Algunos de sus campos de aplicación más impactantes incluyen:
Rutas y logística: Ha demostrado su eficacia al resolver el problema del vendedor viajero (TSP), encontrando rutas óptimas para conectar múltiples ciudades.
Procesamiento de imágenes: Se utiliza en la restauración de imágenes dañadas o con ruido, así como para resolver problemas de segmentación complejos.
Química molecular: Es una herramienta estándar en la cristalografía de macromoléculas que permite determinar la estructura tridimensional de moléculas complejas.
Ingeniería estructural: Permite realizar optimizaciones de gran impacto, como el diseño de puentes de hormigón pretensado, muros de contención de bajo coste y, en especial, la minimización simultánea del coste y de las emisiones de CO₂ en el diseño de columnas de hormigón armado.
5. A veces, una regla simple supera al azar: la alternativa determinista.
Un giro interesante en la historia de este algoritmo es la variante llamada «Aceptación por umbral» (TA, por sus siglas en inglés). Este método sustituye la regla de aceptación probabilística del recocido simulado por una regla determinista mucho más sencilla.
En lugar de calcular una probabilidad, TA solo acepta una solución peor si el empeoramiento es inferior a un umbral predefinido. Este umbral, al igual que la temperatura del algoritmo original, disminuye gradualmente a lo largo del proceso. Lo sorprendente es el resultado: estudios empíricos han demostrado que, en ciertos problemas como la planificación de tareas, la planificación forestal y la asignación de recursos, este método más simple «puede tener un rendimiento comparable o incluso superior al SA». Una lección de que, a veces, la solución más elegante no es la más compleja.
Conclusión: ¿te atreves a dar un paso atrás?
La gran lección del recocido simulado es una profunda metáfora de la resolución de problemas: el progreso no siempre es una línea recta. La verdadera optimización requiere dominar el cambio gradual, desde una exploración audaz hasta una explotación enfocada. Aceptar retrocesos temporales y controlados no es un signo de fracaso, sino una estrategia inteligente para alcanzar un objetivo mucho más alto a largo plazo.
La próxima vez que te enfrentes a un problema complejo, ¿te atreverás a explorar un camino que parezca peor al principio para encontrar una solución verdaderamente excepcional al final?
En esta conversación puedes escuchar las ideas más interesantes sobre el tema.
Este vídeo resume bien los conceptos más importantes del Simulated Annealing.
Yepes, V. (2026). Heuristic Optimization Using Simulated Annealing. In: Kulkarni, A.J., Mezura-Montes, E., Bonakdari, H. (eds) Encyclopedia of Engineering Optimization and Heuristics. Springer, Singapore. https://doi.org/10.1007/978-981-96-8165-5_48-1
El recocido simulado (simulated annealing, SA) es una técnica metaheurística estocástica potente diseñada para abordar problemas de optimización global en espacios de búsqueda grandes y complejos. Inspirado en el proceso de recocido de la metalurgia, el algoritmo explora ampliamente el espacio de soluciones a «temperaturas» elevadas y se centra gradualmente en las regiones más prometedoras a medida que la temperatura desciende. Su característica distintiva es la capacidad de aceptar soluciones peores con una probabilidad que disminuye con el tiempo, lo que le permite escapar de mínimos locales y evitar la convergencia prematura.
Este método es particularmente eficaz para problemas NP-hard, como el problema del viajante, la planificación de tareas y el diseño de circuitos, en los que los algoritmos exactos resultan inviables desde el punto de vista computacional. Aunque el SA no garantiza la obtención del óptimo global, produce soluciones de alta calidad en tiempos de cálculo prácticos de forma consistente. El éxito del algoritmo depende en gran medida del ajuste preciso de sus parámetros, como la temperatura inicial, el esquema de enfriamiento y la longitud de las iteraciones en cada nivel de temperatura. Su robustez y versatilidad lo han consolidado como una herramienta fundamental en campos tan diversos como la ingeniería estructural, la química molecular, el procesamiento de imágenes y la asignación de recursos.
Principios fundamentales y origen
El recocido simulado (SA), también conocido como templado simulado, recristalización simulada o enfriamiento simulado, es una técnica metaheurística que adapta un proceso físico al ámbito de la optimización.
Definición: El SA es un método estocástico de optimización global. Su estrategia se basa en la analogía con el recocido metalúrgico, proceso en el que un material se calienta y luego se enfría de forma controlada para alcanzar una estructura cristalina estable y de baja energía.
Mecanismo central: El algoritmo mejora las soluciones de forma iterativa. Acepta incondicionalmente las soluciones candidatas que son mejores que la actual y, con una probabilidad decreciente, también acepta movimientos que la empeoran. Esta aceptación controlada de transiciones «cuesta arriba» es clave para evitar quedar atrapado en óptimos locales y para permitir un cambio gradual de la exploración a la explotación del espacio de soluciones.
Origen: El SA fue desarrollado de forma independiente por Kirkpatrick, Gelatt y Vecchi (1983) y por Černý (1985). Su base teórica se encuentra en el algoritmo de Metropolis (1953), que se aplicó originalmente a la simulación de sistemas termodinámicos.
Mecanismo de funcionamiento y analogía termodinámica.
El SA establece un paralelismo directo entre la optimización y la termodinámica estadística, donde los conceptos se relacionan de la siguiente manera:
Función objetivo: corresponde a la energía de un sistema físico. El objetivo es minimizar dicha energía.
Solución óptima: representa una estructura cristalina de baja energía, que es un estado estable del sistema.
Temperatura (T): Es el parámetro que regula el comportamiento estocástico. A altas temperaturas, el sistema es más volátil y explora más; a bajas, se estabiliza.
El proceso de optimización se rige por el factor de Boltzmann, exp(-ΔE/T), donde ΔE es el cambio en la energía (valor de la función objetivo) de la nueva configuración y T es la temperatura actual.
El criterio de aceptación de una nueva solución s' a partir de una solución actual s sigue la regla de Metropolis:
Si el cambio de energía ΔE = f(s') - f(s) es menor o igual a cero (ΔE ≤ 0), la nueva solución es mejor o igual, por lo que se acepta siempre.
Si el cambio de energía es positivo (ΔE > 0), la nueva solución es peor. Se acepta con una probabilidad P = exp(-ΔE/T).
Esta probabilidad es alta a temperaturas elevadas, lo que fomenta la diversificación y la exploración global. A medida que T se acerca a cero, la probabilidad de aceptar malos movimientos disminuye drásticamente, haciendo que el algoritmo sea más selectivo y se comporte de manera “codiciosa” (greedy), intensificando la búsqueda en regiones prometedoras.
Componentes clave del algoritmo
El rendimiento del SA depende de la calibración precisa de su «esquema de enfriamiento». Sus componentes matemáticos y de procedimiento clave son los siguientes:
Componente
Descripción
Temperatura inicial (T₀)
Se elige un valor lo suficientemente alto como para asegurar una alta probabilidad de aceptación inicial, lo que permite una exploración amplia del espacio de soluciones. El método de Medina (2001) sugiere ajustarla para que la tasa de aceptación de soluciones de mayor coste se sitúe entre el 20% y el 40%.
Esquema de enfriamiento
Define cómo disminuye la temperatura. El más común es el esquema geométrico: T(t+1) = α * Tt, donde α es un coeficiente de reducción típicamente en el rango de [0.8, 0.99]. Una refrigeración rápida corre el riesgo de atrapar la solución en estados metaestables, mientras que una lenta mejora la fiabilidad a un mayor coste computacional.
Longitud de la cadena de Markov
Es el número de iteraciones que se ejecutan en cada nivel de temperatura. Debe ser lo suficientemente largo como para que el sistema alcance un estado de equilibrio a esa temperatura antes de seguir enfriando.
Criterio de parada
Determina cuándo finaliza el algoritmo. Las condiciones comunes incluyen que la temperatura caiga por debajo de un umbral predefinido (p. ej., el 1% de la temperatura inicial) o que las mejoras en la solución se estabilicen.
Variantes y mejoras
Con el fin de mejorar la eficiencia y la adaptabilidad del SA, se han desarrollado diversas variantes y modificaciones.
Estrategia “Best-So-Far”: Mantiene en memoria la mejor solución encontrada hasta el momento, independientemente del estado actual de la búsqueda.
Esquemas de recalentamiento: Cuando el sistema se estanca en un óptimo local, la temperatura se incrementa temporalmente para promover una nueva fase de exploración (Dowsland, 1993).
Hibridación: Se integra el SA con otros métodos, como algoritmos genéticos, branch-and-bound o programación entera, para aprovechar sus fortalezas complementarias.
Implementaciones paralelas: Distribuyen los ensayos entre múltiples procesadores para mejorar la escalabilidad y la velocidad de convergencia.
Evaluaciones aproximadas de ΔE: Se utilizan en problemas de alta dimensionalidad para acelerar el cálculo.
Threshold Accepting (TA)
Una variante notable es el Threshold Accepting (TA), introducido por Dueck y Scheuer en 1990. Este método sustituye la regla de aceptación probabilística por una regla determinista: se acepta una solución subóptima si su empeoramiento es inferior a un umbral predefinido.
Se acepta una solución subóptima si su empeoramiento (degradación) es inferior a un umbral predefinido.
Este umbral disminuye gradualmente durante la búsqueda, de forma análoga al esquema de enfriamiento del SA.
Estudios empíricos han demostrado que el TA puede tener un rendimiento comparable o incluso superior al del SA en problemas de planificación, programación y asignación de recursos (Lin et al., 1995).
Dominios de aplicación y ejemplos notables
El SA ha demostrado ser una herramienta versátil y fiable, especialmente para problemas NP-hard para los que no existen solucionadores específicos.
Dominio
Aplicación específica y referencia
Enrutamiento
Resolución del Problema del Viajante de Comercio (TSP) y sus variantes con restricciones de tiempo (Kirkpatrick et al., 1983).
Planificación
Solución de problemas de job-shop scheduling mediante un equilibrio entre diversificación e intensificación (van Laarhoven et al., 1992).
Asignación de recursos
Manejo de la complejidad del Problema de Asignación Cuadrática (QAP) en el diseño de instalaciones (Connolly, 1990).
Procesamiento de imágenes
Métodos de relajación estocástica para resolver problemas de segmentación y restauración de imágenes (Geman y Geman, 1984).
Química molecular
Herramienta estándar para la cristalografía macromolecular y el refinamiento conformacional (Brünger, 1992).
Ingeniería estructural
– Diseño de puentes de hormigón pretensado (Martí et al., 2013).
– Optimización paramétrica de muros de contención (Yepes et al., 2008).
– Optimización del tamaño y la disposición de las estructuras de acero (Bresolin et al., 2022).
– Minimización de costes e impacto ambiental (CO₂) en el hormigón armado (Santoro y Kripka, 2020; Medeiros y Kripka, 2014).
– Diseño de estructuras marinas bajo incertidumbre (Toğan, 2012).
Factores críticos para el rendimiento.
El éxito en la aplicación del SA depende en gran medida de la formulación del problema:
Representación del espacio de configuración: La forma en que se define matemáticamente el espacio de soluciones es fundamental.
Definición de movimientos: Es esencial elegir un conjunto adecuado de «movimientos» o ajustes que permitan pasar de una solución a otra vecina. Las representaciones efectivas aseguran que las transiciones entre mínimos locales impliquen pequeñas diferencias de coste, lo que reduce las «barreras de energía».
Función objetivo: Una función objetivo bien elegida puede modificar la distribución de los mínimos locales hacia valores de menor coste promedio, lo que aumenta la probabilidad de encontrar soluciones mejores.
Manejo de restricciones: En los problemas con restricciones, la búsqueda puede limitarse a regiones factibles o pueden permitirse soluciones infactibles penalizándolas en la función objetivo. Este último enfoque puede simplificar la estructura de vecindad y suavizar la topología del paisaje de búsqueda, lo que mejora la convergencia.
Os dejo un vídeo que grabé hace unos años para explicar esta metaheurística. Espero que os sea de interés.
Referencias:
Bresolin, J. M., Pravia, Z. M., & Kripka, M. (2022). Discrete sizing and layout optimization of steel truss-framed structures with Simulated Annealing Algorithm. Steel and Composite Structures, 44(5), 603–617. https://doi.org/10.12989/scs.2022.44.5.603
Brünger, A. T. (1992). X-PLOR Version 3.1: A system for X-ray crystallography and NMR. Yale University Press.
Černý, V. (1985). Thermodynamical approach to the travelling salesman problem: An efficient simulation algorithm. Journal of Optimization Theory and Applications, 45(1), 41–51. https://doi.org/10.1007/BF00940812
Dowsland, K. A. (1993). Simulated annealing. In C. R. Reeves (Ed.), Modern heuristic techniques for combinatorial problems (pp. 20–69). Wiley.
Dueck, G., & Scheuer, T. (1990). Threshold accepting: A general purpose optimization algorithm appearing superior to simulated annealing. Journal of Computational Physics, 90(1), 161–175. https://doi.org/10.1016/0021-9991(90)90201-B
Geman, S., & Geman, D. (1984). Stochastic relaxation, Gibbs distributions, and the Bayesian restoration of images. IEEE Transactions on Pattern Analysis and Machine Intelligence, 6(6), 721–741. https://doi.org/10.1109/TPAMI.1984.4767596
Lin, C. K. Y., Haley, K. B., & Sparks, C. (1995). A comparative study of threshold accepting and simulated annealing algorithms in three scheduling problems. European Journal of Operational Research, 83(2), 330–346. https://doi.org/10.1016/0377-2217(95)00011-E
Martí, J. V., González-Vidosa, F., Yepes, V., & Alcalá, J. (2013). Design of prestressed concrete precast road bridges with hybrid simulated annealing. Engineering Structures, 48, 342–352. https://doi.org/10.1016/j.engstruct.2012.09.014
Medeiros, F., & Kripka, M. (2014). Optimization of reinforced concrete columns according to cost and CO₂ emissions. Engineering Structures, 59, 185–194. https://doi.org/10.1016/j.engstruct.2013.10.045
Medina, J. R. (2001). Estimation of incident and reflected waves using simulated annealing. Journal of Waterway, Port, Coastal and Ocean Engineering, 127(4), 213–221. https://doi.org/10.1061/(ASCE)0733-950X(2001)127:4(213)
Metropolis, N., Rosenbluth, A. W., Rosenbluth, M. N., Teller, A. H., & Teller, E. (1953). Equation of state calculations by fast computing machines. The Journal of Chemical Physics, 21(6), 1087–1092. https://doi.org/10.1063/1.1699114
Santoro, J. F., & Kripka, M. (2020). Minimizing environmental impact in the design of reinforced concrete elements using simulated annealing. Computers and Concrete, 25(2), 111–118. https://doi.org/10.12989/cac.2020.25.2.111
Toğan, V. (2012). Optimization of monopod offshore tower under uncertainties with gradient-based and gradient-free optimization algorithms. Advances in Structural Engineering, 15(12), 2021–2032. https://doi.org/10.1260/1369-4332.15.12.2021
van Laarhoven, P. J. M., & Aarts, E. H. L. (1987). Simulated annealing: Theory and applications (Mathematics and Its Applications, Vol. 37). Springer. https://doi.org/10.1007/978-94-015-7744-1
van Laarhoven, P. J. M., Aarts, E. H. L., & Lenstra, J. K. (1992). Job shop scheduling by simulated annealing. Operations Research, 40(1), 113–125. https://doi.org/10.1287/opre.40.1.113
Yepes, V., Alcalá, J., Perea, C., & González-Vidosa, F. (2008). A parametric study of optimum earth retaining walls by simulated annealing. Engineering Structures, 30(3), 821–830. https://doi.org/10.1016/j.engstruct.2007.05.023
Yepes, V. (2026). Heuristic Optimization Using Simulated Annealing. In: Kulkarni, A.J., Mezura-Montes, E., Bonakdari, H. (eds) Encyclopedia of Engineering Optimization and Heuristics. Springer, Singapore. https://doi.org/10.1007/978-981-96-8165-5_48-1
De izquierda a derecha: Fermín Navarrina, Víctor Yepes, Iván Negrín, Tatiana García y Rasmus Rempling.
Hoy, 19 de diciembre de 2025, ha tenido lugar la defensa de la tesis doctoral de D. Iván Antonio Negrín Díaz, titulada “Metaheuristic optimization for the sustainable and resilient design of hybrid and composite frame building structures with advanced integrated modeling”, dirigida por los profesores Víctor Yepes y Moacir Kripka. La tesis ha obtenido la máxima calificación de sobresaliente «cum laude». A continuación, presentamos un breve resumen de la misma.
El cambio climático y la rápida expansión de las áreas urbanas han intensificado el impacto ambiental del sector de la construcción, responsable de cerca del 37 % de las emisiones globales de CO₂ y de más de un tercio del consumo energético mundial. Por tanto, mejorar la sostenibilidad y la resiliencia de las estructuras de edificios se ha convertido en una prioridad esencial, plenamente alineada con los Objetivos de Desarrollo Sostenible de las Naciones Unidas. Esta tesis doctoral aborda este reto mediante el desarrollo de un marco de diseño optimizado que permite obtener soluciones innovadoras, sostenibles y resilientes para estructuras porticadas.
El objetivo principal de la investigación es crear y validar metodologías avanzadas que integren tipologías estructurales híbridas y mixtas con estrategias de optimización de vanguardia apoyadas en modelos estructurales de alta fiabilidad. Para ello, se formulan problemas de optimización que consideran conjuntamente criterios económicos, ambientales, constructivos, de durabilidad y de seguridad estructural, e incorporan, además, aspectos frecuentemente ignorados, como la interacción suelo-estructura, la robustez frente al colapso progresivo y el desempeño ambiental a lo largo del ciclo de vida de la estructura. Entre los objetivos específicos, destacan los siguientes: evaluar metaheurísticas avanzadas y técnicas de optimización asistida por metamodelos; cuantificar los riesgos de modelos estructurales simplificados; integrar la resiliencia como restricción de diseño; valorar los beneficios de tipologías híbridas y mixtas; explorar estrategias de optimización multiobjetivo; y comparar enfoques de diseño basados en fases iniciales y en el ciclo de vida.
Los resultados muestran que las estrategias metaheurísticas avanzadas y asistidas por metamodelos (como BBO-CINS, enfoques basados en Kriging y Optimización Escalarizada de Pareto) superan claramente a los algoritmos tradicionales, ya que logran reducciones de hasta el 90 % en el coste computacional en problemas de un solo objetivo y mejoras de hasta el 140 % en la calidad del frente de Pareto en problemas de varios objetivos. Asimismo, se evidencia el riesgo de simplificar en exceso los modelos estructurales: omitir aspectos críticos, como la interacción suelo-estructura o los elementos secundarios (forjados, muros), puede distorsionar el diseño, comprometer la seguridad (por ejemplo, al subestimar la resistencia al colapso) y aumentar los impactos ambientales a largo plazo, debido al deterioro acelerado y a las mayores necesidades de mantenimiento. También se demuestra que, al incorporar la resiliencia como restricción de diseño en lugar de tratarla como un objetivo de optimización, es posible mejorar la robustez frente al colapso progresivo sin perjudicar la sostenibilidad y reducir la carga ambiental del diseño robusto en torno al 11 % al considerar elementos estructurales secundarios.
A nivel de componentes estructurales, la optimización de las vigas de acero soldadas confirmó las ventajas de la hibridación y de las geometrías variables, lo que dio lugar a la tipología Transversely Hybrid Variable Section (THVS), que reduce los costes de fabricación hasta en un 70 % respecto a las vigas I convencionales. Su integración en pórticos compuestos de hormigón armado y elementos THVS proporcionó mejoras adicionales en sostenibilidad, con reducciones del 16 % en emisiones y del 11 % en energía incorporada en las fases iniciales de diseño, y hasta un 30 % en emisiones de ciclo de vida en comparación con los sistemas tradicionales de hormigón armado. La inclusión de forjados y muros estructurales amplificó estos beneficios, reduciendo los impactos del ciclo de vida hasta en un 42 % respecto a configuraciones de pórticos en las que solo el esqueleto trabaja estructuralmente (omitiendo forjados y muros).
En conjunto, esta tesis demuestra que las metodologías de diseño basadas en la optimización, apoyadas en modelos estructurales realistas y en estrategias computacionales avanzadas, permiten concebir edificios que, al mismo tiempo, son más sostenibles y resilientes. Al resaltar las ventajas de las tipologías híbridas y mixtas e integrar la resiliencia sin comprometer la sostenibilidad, la investigación establece un marco claro para el diseño contemporáneo. Además, al enfatizar la optimización a lo largo de todo el ciclo de vida, ofrece una base metodológica sólida para impulsar una nueva generación de edificaciones alineadas con los objetivos globales de sostenibilidad y de acción climática.
En este artículo se explica el proyecto RESILIFE, cuyos investigadores principales son Víctor Yepes y Julián Alcalá, de la Universitat Politècnica de València. Se trata de un proyecto de investigación de carácter internacional en el que también colaboran profesores de Brasil, Chile y China. Además, se están realizando varias tesis doctorales de estudiantes de Cuba, Perú, México y Ecuador, así como de estudiantes españoles. A continuación, se describe brevemente el proyecto y se incluye una comunicación reciente donde se explica con más detalle.
El proyecto RESILIFE se centra en optimizar de forma resiliente el ciclo de vida de estructuras híbridas y modulares para conseguir una alta eficiencia social y medioambiental, especialmente en condiciones extremas. La investigación aborda la necesidad de diseñar, construir y mantener infraestructuras que puedan resistir y recuperarse rápidamente de desastres naturales o provocados por el ser humano, minimizando las pérdidas y el impacto en la sociedad y el medioambiente. Para ello, el estudio propone utilizar inteligencia artificial, metaheurísticas híbridas, aprendizaje profundo y teoría de juegos en un enfoque multicriterio. El objetivo es mejorar la seguridad, reducir costes y optimizar la recuperación, alineándose con los Objetivos de Desarrollo Sostenible (ODS). La metodología integral incluye el análisis del ciclo de vida, así como la aplicación de lógica neutrosófica y redes bayesianas para la toma de decisiones.
¿Qué problema aborda el proyecto RESILIFE y por qué es urgente?
El proyecto RESILIFE aborda el desafío crítico que supone diseñar y mantener infraestructuras resilientes y sostenibles frente a desastres naturales y provocados por el ser humano. La urgencia es evidente debido a las enormes pérdidas humanas y económicas causadas por estos eventos (más de 1,1 millones de muertes y 1,5 billones de dólares en pérdidas entre 2003 y 2013), lo que subraya la necesidad de estructuras de alto rendimiento que protejan vidas y economías, al tiempo que se alinean con los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas. Además, los errores de diseño y construcción, así como la falta de mantenimiento, han demostrado ser causas significativas de colapso estructural, y solo el 50 % de las reparaciones de hormigón resultan efectivas en Europa.
¿Cuál es el objetivo principal de RESILIFE?
El objetivo general del proyecto RESILIFE es optimizar el diseño, el mantenimiento y la reparación de estructuras híbridas y modulares (MMC) de alta eficiencia social y medioambiental para que puedan resistir condiciones extremas. Para ello, se deben abordar problemas complejos de toma de decisiones en los ámbitos público y privado, integrando criterios de sostenibilidad social y medioambiental durante todo el ciclo de vida de las estructuras y teniendo en cuenta la variabilidad e incertidumbre inherentes al mundo real. El objetivo es que estas estructuras sean tan seguras como las tradicionales, pero con una mayor capacidad de recuperación rápida y un menor impacto social y medioambiental.
¿Qué tipos de estructuras son el foco de RESILIFE y por qué?
El proyecto se centra en estructuras híbridas (que combinan, por ejemplo, acero y hormigón) y en estructuras basadas en métodos modernos de construcción (MMC), especialmente las modulares. Estas estructuras se han elegido como objeto de estudio debido a su gran potencial para mejorar la resiliencia estructural, la eficiencia en la construcción (al reducir las interrupciones en obra y mejorar el control de calidad) y la sostenibilidad. A pesar de sus ventajas, se han identificado lagunas en la investigación sobre su optimización para eventos extremos y su aplicación en estructuras complejas, aspectos que el proyecto RESILIFE busca subsanar.
¿Qué metodologías innovadoras utiliza RESILIFE para lograr sus objetivos?
RESILIFE emplea un enfoque multidisciplinario e innovador que integra diversas técnicas avanzadas:
Análisis del ciclo de vida (ACV): Para evaluar los impactos de las estructuras desde su concepción hasta su demolición.
Diseño óptimo robusto basado en fiabilidad: Para asegurar que las soluciones optimizadas sean viables y resistentes a pequeños cambios o incertidumbres.
Modelado de información para la construcción (BIM) y gemelos digitales: Para integrar el proyecto estructural y ofrecer control y adaptabilidad en tiempo real.
¿Cómo aborda RESILIFE la incertidumbre y la variabilidad en el diseño y mantenimiento de estructuras?
El proyecto aborda la incertidumbre y la variabilidad mediante varias estrategias:
Análisis de funciones de distribución de eventos extremos: Para el diseño óptimo basado en fiabilidad.
Metamodelos y metaheurísticas híbridas basadas en fiabilidad: Permiten manejar la aleatoriedad de los parámetros y asegurar que los proyectos optimizados no sean inviables ante pequeños cambios en las condiciones.
Técnicas de decisión multicriterio (lógica neutrosófica y redes bayesianas): Integran aspectos inciertos y criterios subjetivos en la toma de decisiones.
Análisis de sensibilidad: De los escenarios presupuestarios y las hipótesis del ciclo de vida para identificar las mejores prácticas.
¿Qué se entiende por «resiliencia» en el contexto de RESILIFE y cómo se cuantifica?
En el contexto de RESILIFE, la resiliencia se define como la capacidad de una estructura para resistir eventos extremos, mantener su funcionalidad o recuperarla rápidamente con reparaciones mínimas tras sufrir daños, y con un bajo coste social y medioambiental. El objetivo es ir más allá de la simple resistencia y centrarse en la capacidad de adaptación y recuperación. El proyecto tiene como objetivo desarrollar procedimientos explícitos para cuantificar la resiliencia de las estructuras e infraestructuras en el contexto de múltiples amenazas, un aspecto que actualmente presenta una laguna en la investigación. Esto incluye tener en cuenta la funcionalidad técnico-socioeconómica y los impactos a lo largo de toda su vida útil.
¿Qué tipo de casos de estudio se aplican en la metodología RESILIFE?
La metodología de RESILIFE se aplica a varios casos de estudio clave:
Optimización de pórticos de edificios altos: Con estructura de acero híbrido y hormigón armado, sometidos a un fuerte incremento de temperatura, o ante el fallo completo de soportes para evitar el colapso progresivo.
Viviendas sociales prefabricadas en zonas sísmicas: Optimizando su resistencia a acciones extremas y su capacidad de reparación rápida.
Otras estructuras como puentes mixtos y estructuras modulares: Ampliando el alcance más allá de las viviendas. Estos casos de estudio permiten validar la aplicabilidad de las metodologías propuestas en situaciones reales y complejas.
¿Cuáles son las principales contribuciones esperadas de RESILIFE a la ingeniería estructural y la sostenibilidad?
Las principales contribuciones esperadas de RESILIFE son:
Desarrollo de soluciones constructivas innovadoras: Como conexiones especiales y estructuras fusibles para aumentar la resiliencia y evitar el colapso progresivo.
Formulación de metodologías de participación social: Para integrar criterios objetivos y subjetivos en decisiones multicriterio.
Propuesta de técnicas de optimización multiobjetivo avanzadas: Basadas en metaheurísticas híbridas de deep learning, teoría de juegos y fiabilidad.
Introducción de nuevas métricas: Que prioricen soluciones resilientes en la frontera de Pareto.
Identificación de políticas presupuestarias efectivas: Y definición de buenas prácticas de diseño, reparación y mantenimiento robusto en construcciones MMC y estructuras híbridas.
Avances en la modelización y evaluación: De la sostenibilidad a largo plazo y el impacto ambiental de las infraestructuras, contribuyendo a normativas y software de diseño más eficientes.
Resiliencia (estructural): Capacidad de una estructura para absorber, resistir, adaptarse y recuperarse de un evento extremo, manteniendo o recuperando su funcionalidad rápidamente y con costes mínimos.
Estructuras híbridas: Estructuras que combinan dos o más materiales estructurales diferentes, como acero y hormigón, para optimizar sus propiedades y rendimiento.
Estructuras modulares: Estructuras compuestas por unidades o módulos prefabricados que se ensamblan en el lugar de la construcción, ofreciendo ventajas en velocidad de construcción y control de calidad.
Eventos extremos: Desastres naturales (terremotos, tsunamis, inundaciones) o provocados por humanos (explosiones, impactos) que causan daños significativos a las estructuras y la sociedad.
Optimización del ciclo de vida: Proceso de diseño, construcción, mantenimiento y reparación de una estructura, considerando su impacto total (económico, social, ambiental) a lo largo de toda su vida útil.
Sostenibilidad: Principio que busca satisfacer las necesidades actuales sin comprometer la capacidad de las futuras generaciones para satisfacer sus propias necesidades, integrando aspectos ambientales, sociales y económicos.
Inteligencia artificial (IA): Campo de la informática que dota a las máquinas de la capacidad de aprender, razonar y resolver problemas, utilizada aquí para evaluar y mejorar la resiliencia.
Metaheurísticas híbridas: Algoritmos de optimización que combinan diferentes técnicas heurísticas o metaheurísticas para encontrar soluciones eficientes a problemas complejos, especialmente en la optimización multiobjetivo.
Aprendizaje profundo (Deep Learning – DL): Subcampo del aprendizaje automático que utiliza redes neuronales artificiales con múltiples capas para aprender representaciones de datos, aplicado para mejorar la toma de decisiones y reducir tiempos de cálculo.
Teoría de juegos: Rama de las matemáticas que estudia las interacciones estratégicas entre agentes racionales, aplicada en la optimización multiobjetivo para el diseño de estructuras.
Lógica neutrosófica: Marco matemático para tratar la indeterminación y la inconsistencia, utilizado en la toma de decisiones multicriterio para manejar la incertidumbre.
Redes bayesianas: Modelos gráficos probabilísticos que representan relaciones de dependencia condicional entre variables, empleadas en el análisis multicriterio y la gestión de incertidumbre.
Colapso progresivo: Fenómeno en el cual un daño inicial localizado en una estructura se propaga a otras partes, llevando al colapso desproporcionado de una gran porción o de toda la estructura.
Modern Methods of Construction (MMC): Métodos de construcción modernos que incluyen tecnologías de prefabricación, construcción modular e impresión 3D, buscando mayor eficiencia y control de calidad.
BIM (Building Information Modeling / Modelos de Información en la Construcción): Proceso de creación y gestión de un modelo digital de un edificio o infraestructura, que facilita la integración del proyecto estructural y la toma de decisiones a lo largo del ciclo de vida.
Metamodelo (o modelo subrogado): Modelo simplificado de un sistema complejo que permite realizar cálculos más rápidos y eficientes, crucial para reducir los tiempos de computación en la optimización.
Diseño óptimo basado en fiabilidad: Enfoque de diseño que considera la probabilidad de fallo y las incertidumbres inherentes para optimizar las estructuras, garantizando un nivel de seguridad predefinido.
Frontera de Pareto: Conjunto de soluciones óptimas en problemas de optimización multiobjetivo, donde ninguna de las funciones objetivo puede mejorarse sin degradar al menos otra función objetivo.
Agradecimientos:
Grant PID2023-150003OB-I00 funded by MCIN/AEI/10.13039/501100011033, and the European Regional Development Fund (ERDF), a program of the European Union (EU).
El sector ferroviario, reconocido por su eficiencia energética, sigue siendo objeto de investigación para mejorar su sostenibilidad. Pese a representar solo el 2 % del consumo energético del transporte en Europa, su relevancia en el transporte de mercancías y pasajeros impulsa la investigación para reducir su huella de carbono. La necesidad de reducir las emisiones de gases de efecto invernadero y mejorar la competitividad económica ha llevado a realizar estudios exhaustivos centrados en el consumo energético ferroviario.
Modelización del consumo energético
El modelado del consumo energético permite evaluar y simular el rendimiento de los trenes sin necesidad de realizar pruebas experimentales. Las técnicas de modelado se clasifican principalmente en modelos deterministas y métodos alternativos, como redes neuronales y modelos estocásticos. Estos enfoques permiten analizar múltiples escenarios operativos y optimizar las decisiones estratégicas y operativas.
Modelos deterministas
El enfoque predominante utiliza ecuaciones basadas en la ecuación de Davis, que describe la resistencia al movimiento del tren en función de factores como la velocidad, la masa y la fricción. Su modularidad permite incluir características como frenos regenerativos y sistemas de almacenamiento a bordo. Aunque estos modelos son fiables, requieren numerosos parámetros técnicos, algunos de los cuales son difíciles de obtener debido a su complejidad técnica y a la necesidad de realizar mediciones precisas.
La ecuación de Davis se amplía con frecuencia para incorporar factores como la inclinación de la vía, la resistencia aerodinámica y la fricción en curvas. Estas ampliaciones permiten crear simuladores más detallados que evalúan trayectorias específicas y condiciones operativas complejas. Algunos estudios incluyen incluso el consumo de sistemas auxiliares, como el aire acondicionado y la iluminación, lo que mejora la precisión.
Además, el modelado detallado permite tener en cuenta aspectos como la variación de la masa del tren debida a la carga de pasajeros o mercancías, así como las condiciones meteorológicas y la interacción entre trenes en redes densas. Gracias a estas mejoras, los simuladores no solo evalúan el consumo energético, sino también el impacto de distintas estrategias operativas.
Alternativas al enfoque determinista
Los modelos basados en redes neuronales (Neural Networks) y en técnicas estocásticas (Stochastic Methods) han sido menos explorados, pero ofrecen flexibilidad y pueden manejar incertidumbres como retrasos y cambios en la carga de pasajeros. Las redes neuronales permiten entrenar modelos a partir de grandes volúmenes de datos operativos, lo que les permite aprender patrones complejos que los modelos deterministas podrían pasar por alto. Sin embargo, estos métodos requieren grandes volúmenes de datos y procesos de entrenamiento complejos.
Los modelos estocásticos integran factores aleatorios, como fallos en el sistema y condiciones meteorológicas. Su uso es particularmente relevante en redes ferroviarias densas, donde las interacciones entre trenes generan escenarios difíciles de prever mediante métodos deterministas. Los estudios actuales sugieren que estas técnicas podrían aplicarse a la gestión en tiempo real de las redes ferroviarias para mejorar la eficiencia global.
Métodos de optimización
La optimización del consumo energético ferroviario implica resolver problemas complejos, desde la gestión de perfiles de velocidad hasta la distribución de tiempos de espera y la configuración de infraestructuras. Estos estudios buscan minimizar el consumo energético sin comprometer los tiempos de viaje ni la capacidad operativa.
La formulación de problemas de optimización se basa en variables como los tiempos de viaje, los perfiles de velocidad, el consumo energético y la utilización de las infraestructuras, y su enfoque varía en función de si se optimiza un solo tren o un sistema completo. Las metodologías utilizadas incluyen la optimización unidimensional, que se centra en variables individuales como, por ejemplo, minimizar el tiempo de viaje o el consumo energético, y la optimización multidimensional, que aborda simultáneamente varios factores como el tiempo, el consumo energético, los costos operativos y las emisiones contaminantes. Los problemas de optimización pueden ser estáticos, donde se consideran condiciones fijas, o dinámicos, que ajustan decisiones en tiempo real con datos operativos actualizados.
Los métodos de optimización incluyen la búsqueda directa, que evalúa todas las soluciones posibles y es adecuada para problemas simples con pocos parámetros, y el análisis de principios máximos, que obtiene soluciones exactas mediante ecuaciones matemáticas avanzadas, aunque para ello sea necesario realizar simplificaciones y hacerlos computacionalmente viables. Las metaheurísticas, inspiradas en procesos naturales, se utilizan ampliamente por su capacidad para gestionar espacios de solución complejos. Entre ellas destacan los algoritmos genéticos, que han demostrado su versatilidad y eficacia en numerosos estudios. También se emplean técnicas como la optimización por enjambre de partículas y la optimización por colonias de hormigas, que son útiles en problemas específicos como, por ejemplo, la asignación de horarios y rutas óptimas. Además, la optimización basada en aprendizaje combina aprendizaje individual y colectivo para mejorar los resultados en contextos operativos cambiantes.
Los métodos de optimización también incluyen técnicas como la programación lineal, la programación dinámica y los algoritmos híbridos, que combinan diferentes enfoques para superar las limitaciones de cada uno de ellos. Las técnicas más avanzadas integran sistemas de inteligencia artificial y algoritmos de predicción para ajustar dinámicamente los parámetros operativos.
Discusión y análisis estadístico
Un análisis estadístico muestra que los modelos deterministas predominan debido a su precisión y facilidad para incluir múltiples factores. En optimización, los algoritmos genéticos son ampliamente preferidos, aunque métodos como la optimización por enjambre de partículas han demostrado ser eficaces en ciertos problemas.
Estudios recientes sugieren la posibilidad de combinar diferentes algoritmos para cubrir todo el espacio de soluciones y abordar problemas complejos que incluyen interacciones entre múltiples trenes y redes ferroviarias completas. Estas estrategias son esenciales para implementar operaciones ferroviarias completamente autónomas y sostenibles.
Además, el uso de análisis estadísticos avanzados, como el análisis de correspondencias y el modelado predictivo, permite identificar patrones ocultos y mejorar la precisión de los modelos y algoritmos utilizados.
Conclusión
La combinación de modelos deterministas y técnicas complementarias podría mejorar la precisión de los estudios. En optimización, el desarrollo de enfoques híbridos que combinen diferentes algoritmos metaheurísticos podría suponer un gran avance en la gestión energética ferroviaria. La integración de datos en tiempo real y técnicas de aprendizaje automático (Machine Learning Techniques) podría revolucionar el campo y llevar a sistemas ferroviarios más sostenibles y eficientes.
Figura 1. Vista aérea de paso superior. Google Maps.
El artículo de investigación presentado en el 28th International Congress on Project Management and Engineering por los autores Yepes-Bellver, Martínez-Pagán, Alcalá, y Yepes es un análisis integral del predimensionamiento de los tableros de puentes losa pretensados aligerados.
Este informe detalla su importancia y sugiere mejoras en el diseño estructural mediante la optimización con métodos avanzados como el modelo Kriging y algoritmos de optimización heurística.
El trabajo se enmarca dentro de los proyectos de investigación HYDELIFE y RESILIFE que dirijo como investigador principal en la Universitat Politècnica de València.
1. Contexto del empleo de los puentes losa pretensados aligerados
Los puentes de losa pretensada son fundamentales en las infraestructuras de carreteras y vías ferroviarias debido a su capacidad para cubrir luces de entre 10 y 45 metros, lo que los hace más resistentes, duraderos y adaptables a distintos diseños geométricos. El coste de estos puentes suele representar entre un 5 % y un 15 % de los gastos totales de una infraestructura de transporte. Además, los puentes losa ofrecen una mayor flexibilidad y una apariencia estética superior, ya que eliminan las juntas de calzada, lo que mejora la comodidad y reduce el desgaste del tablero al tráfico.
Principales ventajas de los puentes losa pretensados:
Resistencia y durabilidad: estos puentes ofrecen una alta resistencia a la torsión y la flexión, por lo que son ideales para soportar cargas variables y condiciones climáticas adversas.
Versatilidad en el diseño: gracias a su construcción in situ, es posible adaptarlos a terrenos irregulares o a condiciones complejas, como curvas pronunciadas y anchos variados, lo que permite construirlos con rasantes bajas.
Ahorro de materiales y costes: Al diseñarse sin juntas y con posibilidades de aligeramiento, su mantenimiento resulta menos costoso en comparación con otras tipologías.
2. Predimensionamiento y limitaciones en los métodos actuales
El predimensionamiento es esencial en la fase preliminar del diseño de puentes con losas pretensadas. Tradicionalmente, los ingenieros utilizan reglas empíricas basadas en la experiencia para definir parámetros geométricos iniciales, como el espesor de la losa, la relación entre el canto y la luz y la cantidad de armadura activa y pasiva. Sin embargo, estos métodos tradicionales tienen limitaciones en cuanto a eficiencia y sostenibilidad, ya que no optimizan el uso de materiales ni reducen el impacto ambiental.
Desventajas de los métodos convencionales de predimensionamiento:
Rigidez en el diseño: los métodos empíricos pueden ser inflexibles, lo que limita las opciones de diseño y hace que la estructura no se adapte eficientemente a los criterios de optimización moderna.
Ineficiencia económica y ambiental: al no tener en cuenta factores de sostenibilidad y costes, estos métodos pueden provocar un uso excesivo de materiales, lo que aumenta la huella de carbono y el consumo energético.
3. Propuesta de optimización con modelos Kriging y metaheurísticas
La propuesta de los investigadores consiste en aplicar una optimización bifase mediante modelos Kriging combinados con el recocido simulado, un algoritmo heurístico. Esta técnica permite reducir el tiempo de cómputo en comparación con los métodos de optimización tradicionales sin perder precisión. La optimización se centra en tres objetivos clave:
Minimización del coste
Reducción de emisiones de CO₂
Disminución del consumo energético
El Kriging, un tipo de metamodelo, facilita la interpolación de datos en una muestra determinada, lo que permite que los valores estimados sean predictivos y evite el alto coste computacional que conllevan las simulaciones estructurales completas. Para implementar esta técnica, se usa un muestreo de hipercubo latino (LHS), que permite generar variaciones en el diseño inicial de los puentes y proporciona una base sobre la que se aplica el modelo Kriging para ajustar las alternativas optimizadas de diseño.
4. Resultados y comparación con diseños convencionales
A continuación, se exponen los principales hallazgos del estudio, basados en la optimización de puentes reales y en la comparación con métodos empíricos:
Esbeltez y espesor de la losa: la investigación recomienda que aumentar la relación entre el canto y la luz mejora la sostenibilidad del diseño. Los puentes optimizados presentan relaciones de hasta 1/30, en comparación con el rango usual de 1/22 a 1/25.
Volumen de hormigón y armaduras: los resultados muestran una disminución del volumen de hormigón y del número de armaduras activas necesarias, mientras que aumenta el número de armaduras pasivas. Este ajuste permite reducir tanto el coste como las emisiones.
Uso de materiales de construcción: se recomienda el uso de hormigón de resistencia entre 35 y 40 MPa para obtener una combinación óptima entre coste y sostenibilidad. La cantidad de aligeramientos interiores y exteriores también contribuye significativamente a la reducción del peso total sin comprometer la resistencia.
Comparativa de materiales:
Cuantía de hormigón: entre 0,55 y 0,70 m³ por m² de losa. La optimización reduce el consumo a 0,60 m³ para puentes económicos y a 0,55 m³ para priorizar la reducción de emisiones.
Armadura activa: la cantidad recomendada es inferior a 17 kg/m² de tablero. Esto representa una reducción significativa en comparación con los diseños tradicionales, que promedian alrededor de 22,64 kg/m².
Armadura pasiva: se debe aumentar la cuantía hasta 125 kg/m³ para proyectos de alta sostenibilidad, en contraste con los valores convencionales.
5. Herramientas prácticas para los proyectistas: nomogramas para el predimensionamiento
Uno de los aportes más valiosos del estudio es la creación de nomogramas que permiten a los ingenieros realizar predimensionamientos precisos con un mínimo de datos. Los nomogramas se desarrollaron mediante modelos de regresión múltiple y ofrecen una forma rápida de estimar:
La cantidad de hormigón necesaria.
El espesor de la losa.
La armadura activa en función de la luz del puente y los aligeramientos aplicados.
Estos nomogramas son útiles en las primeras fases de diseño, ya que permiten obtener valores cercanos a los óptimos de manera rápida y eficiente. Los gráficos incluyen secuencias de cálculo específicas con ejemplos de puentes con luces de 34 m y aligeramientos medios (interior de 0,20 m³/m² y exterior de 0,40 m³/m²), lo que facilita un proceso de diseño preliminar que cumple con criterios de sostenibilidad.
Figura 2. Nomograma para estimar el canto del tablero (m). Fuente: Yepes-Bellver et al. (2024)
6. Recomendaciones para el diseño sostenible de puentes losa pretensados aligerados
Basándose en los resultados de optimización, el estudio recomienda ajustar ciertos parámetros de diseño para mejorar la sostenibilidad y reducir los costes:
Aumento de la relación canto/luz: se debe aumentar la relación a 1/26 o incluso 1/30 para conseguir diseños sostenibles.
Reducción del hormigón utilizado: limitar el uso de hormigón a 0,60 m³/m², o menos si la prioridad es reducir las emisiones. Cuantía de armaduras: para la armadura pasiva, se recomienda un mínimo de 125 kg/m³, mientras que la armadura activa debe reducirse a 15 kg/m² de losa. Aligeramientos amplios: utilizar aligeramientos significativos (interior de 0,20 m³/m² y exterior de 0,50 m³/m²) para reducir el peso estructural y minimizar el material empleado.
7. Conclusión: innovación en el diseño de infraestructuras sostenibles
El uso de modelos predictivos, como el Kriging, y de técnicas de optimización avanzada en el diseño de puentes supone un gran avance hacia la construcción de infraestructuras sostenibles y eficientes. Estos métodos permiten reducir costes y minimizar el impacto ambiental, dos factores críticos en la ingeniería moderna. Al promover estos enfoques, la investigación allana el camino hacia políticas de infraestructura más responsables y sostenibles, un objetivo alineado con los Objetivos de Desarrollo Sostenible (ODS).
8. Perspectivas futuras: expansión de la metodología de optimización
Los autores proponen continuar esta línea de investigación aplicando el modelo Kriging y otros metamodelos a diversas estructuras de ingeniería civil, como marcos de carretera, muros de contención y otros tipos de puentes. Esta expansión podría sentar las bases para nuevos estándares en el diseño de infraestructuras sostenibles.
Este estudio se presenta como una herramienta esencial para ingenieros y proyectistas interesados en mejorar el diseño estructural mediante métodos modernos de optimización, ya que ofrece un enfoque práctico y avanzado para lograr una ingeniería civil más sostenible.
Os dejo la presentación que se hizo en el congreso:
Como está publicado en abierto, os dejo la comunicación completa a continuación:
Esta investigación es el resultado de una colaboración internacional realizada en el marco de los proyectos HYDELIFE y RESILIFE, cuyo investigador principal es Víctor Yepes, y es fruto de una colaboración internacional entre investigadores de Cuba, Brasil y España.
Contexto de la investigación
La optimización estructural ha sido ampliamente explorada en las últimas décadas debido a la creciente necesidad de reducir los costes de construcción y el uso de materiales, todo ello mientras se minimiza el impacto ambiental. En el caso de las estructuras de hormigón armado, que son esenciales en la construcción de edificios y obras de infraestructura, optimizar su diseño conlleva implicaciones significativas en cuanto al ahorro de recursos y la reducción de las emisiones de CO₂.
Los problemas de optimización estructural pueden resolverse mediante métodos exactos, como la programación matemática, o mediante métodos heurísticos que imitan procesos naturales (como la evolución genética o el comportamiento de enjambres). Aunque los métodos heurísticos son más eficientes para problemas complejos y no lineales, como los que involucran grandes estructuras tridimensionales, requieren un alto coste computacional. Para abordar este problema, los autores proponen el uso de metamodelos, que son modelos simplificados que permiten realizar simulaciones con un consumo computacional mucho menor sin sacrificar demasiada precisión. En este estudio, se utiliza un metamodelo basado en Kriging, una técnica que permite aproximar el comportamiento de estructuras complejas.
Además, el estudio introduce una novedad crucial: la inclusión de la interacción suelo-estructura (SSI, por sus siglas en inglés) durante el modelado. Esta interacción, que muchas veces se ignora en los modelos tradicionales, afecta significativamente al comportamiento de la superestructura (el marco de hormigón). Ignorarla puede dar lugar a diseños menos precisos que no tienen en cuenta los asentamientos diferenciales del suelo, lo que puede provocar tensiones adicionales y un mayor deterioro de las estructuras con el tiempo.
Metodología
La investigación emplea un enfoque combinado de optimización heurística convencional y una estrategia basada en Kriging para optimizar marcos espaciales de hormigón armado. El objetivo es reducir las emisiones de CO₂ de las estructuras optimizadas, en línea con los esfuerzos para disminuir el impacto ambiental del sector de la construcción. El estudio incluye tres estudios de caso, cada uno con diferentes configuraciones estructurales (variando la longitud de los vanos y el número de niveles de las estructuras) para generalizar los resultados.
El elemento clave en esta investigación es la inclusión de la interacción suelo-estructura, que afecta al comportamiento global del sistema. Los autores utilizan un modelo de Winkler, que representa el suelo como un conjunto de resortes con rigidez variable en función de las características del suelo, y lo implementan en dos tipos de suelos: uno cohesivo y otro granular. Esta diferenciación es importante porque cada tipo de suelo responde de manera distinta a las cargas, lo que provoca asentamientos que, en última instancia, influyen en las tensiones de la superestructura. La plataforma CSi-SAP2000 se utilizó como motor de cálculo, mientras que el análisis geotécnico y estructural se integró mediante MATLAB.
Resultados
Uno de los hallazgos más destacados del estudio es que la inclusión de la interacción suelo-estructura modifica significativamente los diseños estructurales. En general, las estructuras diseñadas teniendo en cuenta la interacción suelo-estructura requieren más material (mayores cantidades de hormigón y acero), lo que refleja el aumento de tensiones debido a los asentamientos diferenciales. Por ejemplo, en comparación con un modelo con soportes rígidos ideales, las estructuras que consideran la inclusión de la interacción suelo-estructura muestran un aumento del 12,03 % en las emisiones de CO₂ en suelos cohesivos y hasta un 18,81 % en suelos friccionales.
Los elementos estructurales más afectados por la interacción suelo-estructura son las columnas. Esto se debe a que los asentamientos diferenciales incrementan los momentos flectores en las columnas, lo que requiere un refuerzo adicional y secciones más grandes para resistir las nuevas tensiones. En algunos casos, las emisiones de CO₂ asociadas a las columnas aumentaron más del 60 % al considerar la interacción con el suelo. Los resultados son especialmente marcados en suelos granulares, donde los asentamientos diferenciales son más pronunciados.
Además, la metodología basada en metamodelos, asistida por la técnica de Kriging, demostró ser eficaz para lograr optimizaciones con un alto grado de precisión (hasta un 98,24 % en suelos cohesivos y un 98,10 % en suelos granulares), todo ello reduciendo el tiempo de cálculo en aproximadamente un 90 % en comparación con los métodos heurísticos convencionales.
Implicaciones
Este estudio tiene importantes implicaciones prácticas para el diseño de estructuras de hormigón armado. La inclusión de la interacción suelo-estructura permite obtener diseños más robustos y precisos, lo que reduce el riesgo de fallos prematuros y la necesidad de costosos trabajos de mantenimiento a largo plazo. Los modelos que no tienen en cuenta la interacción suelo-estructura pueden dar como resultado estructuras que inicialmente parecen eficientes, pero que con el tiempo se deterioran más rápidamente debido a las tensiones adicionales no previstas. Por tanto, incluir esta interacción desde el inicio del diseño mejora significativamente la durabilidad y la fiabilidad de las estructuras.
Desde el punto de vista ambiental, el uso de metamodelos para optimizar estructuras de hormigón supone un importante avance. Al reducir el material necesario y mejorar la eficiencia estructural, se contribuye a la reducción de las emisiones de CO₂, un objetivo clave en la lucha contra el cambio climático. Además, la metodología propuesta ofrece un enfoque más sostenible al disminuir los recursos computacionales necesarios para realizar simulaciones complejas.
En conclusión, la inclusión de la interacción suelo-estructura y el uso de metamodelos basados en Kriging suponen una contribución innovadora al campo de la ingeniería estructural. Esta investigación no solo proporciona mejores resultados de diseño, sino que también tiene el potencial de reducir el impacto ambiental de las estructuras de hormigón armado, lo que hace que el sector de la construcción sea más sostenible y eficiente.
Figura 1. Proceso de recocido del acero. https://www.win-therm.com.my/what-is-annealing-heat-treatment-process-annealing/
En un artículo anterior describimos la metaheurística conocida como “Recocido simulado” o “Cristalización simulada”, que en inglés se conoce como “Simulated Annealing”. Para los que no estéis familiarizados con la optimización, os dejo en este enlace una descripción de lo que son las metaheurísticas.
En la década de 1980, Kirkpatrick et al. (1983), mientras trabajaban en el diseño de circuitos electrónicos, y de manera independiente, Cerny (1985), investigando el problema del TSP (Traveling Salesman Problem), consideraron la aplicación del algoritmo de Metrópolis en algunos de los desafíos de optimización combinatoria que surgen en este tipo de diseño. Para lograrlo, creyeron que era posible establecer una analogía entre los parámetros presentes en la simulación termodinámica y aquellos que se encuentran en los métodos de optimización local. En la Figura 2 se puede ver dicha analogía.
Figura 2. Analogía entre la termodinámica y la optimización (Díaz et al., 1996)
Como se puede observar, en el ámbito de la optimización, el concepto físico de temperatura no tiene un significado literal, sino que debe ser considerado como un parámetro, T, que necesita ser ajustado. De esta manera, podemos encontrar similitudes entre los procesos que tienen lugar cuando las moléculas de una sustancia se distribuyen en diferentes niveles energéticos en busca de un equilibrio a una temperatura específica y los procesos de minimización en la optimización local (o, en el caso de maximización, de manera similar).
En el primer caso, con una temperatura fija, la distribución de las partículas sigue la distribución de Boltzmann. Por lo tanto, cuando una molécula se desplaza, su movimiento será aceptado en la simulación si esto resulta en una disminución de la energía, o con una probabilidad proporcional al factor de Boltzmann si no es así. En el contexto de la optimización, al fijar el parámetro T, introducimos una perturbación y aceptamos directamente la nueva solución si su costo disminuye, o bien con una probabilidad proporcional al “factor de Boltzmann” en caso contrario.
La clave del recocido simulado es su estrategia heurística de búsqueda local. La elección del nuevo elemento del entorno, N(s), se hace de manera aleatoria, lo que puede llevar a quedar atrapado en óptimos locales. Para evitar esto, el recocido simulado permite, con una probabilidad decreciente a medida que nos acercamos a la solución óptima, el movimiento hacia soluciones peores. Al analizar el factor de Boltzmann en función de la temperatura, observamos que a medida que esta disminuye, la probabilidad de aceptar una solución peor disminuye rápidamente.
Figura 3. Valor del factor de Boltzmann en función de la temperatura y de δ (Díaz et al., 1996)
En consecuencia, la estrategia a seguir en el recocido simulado implica comenzar con una temperatura alta. Esto permite la posibilidad de aceptar soluciones peores en las primeras etapas, cuando estamos a gran distancia del óptimo global. A medida que se avanza hacia el óptimo global, se reducirá gradualmente la temperatura, disminuyendo así la probabilidad de aceptar soluciones peores. El nombre de este algoritmo proviene del proceso metalúrgico de “recocido” utilizado, por ejemplo, para eliminar las tensiones internas en el acero laminado en frío. En este proceso, el material se somete a un calentamiento rápido y luego se enfría de manera lenta y controlada durante horas.
A continuación os dejo un nomograma, elaborado junto con los profesores Trevor Blight y Pedro Martínez Pagán, para calcular la probabilidad en función de la temperatura y de δ. Aquí también resulta sencillo comprobar cómo varía dicha probabilidad en función de los valores anteriores.
Os dejo también un vídeo explicativo:
Referencias
CERNY, V. (1985). Thermodynamical approach to the traveling salesman problem: an efficient simulated algorithm. Journal of Optimization Theory and Applications, 45: 41-51.
DÍAZ, A. et al. (1996). Optimización heurística y redes neuronales en dirección de operaciones e ingeniería. Editorial Paraninfo, Madrid, 235 pp.
LUNDY, M.; MEES, A. (1986). Convergence of an Annealing Algorithm. Mathematical programming, 34:111-124.
METROPOLIS, N.; ROSENBLUTH, A.W.; ROSENBLUTH, M.N.; TELLER, A.H.; TELER, E. (1953). Equation of State Calculation by Fast Computing Machines. Journal of Chemical Physics, 21:1087-1092.
GONZÁLEZ-VIDOSA-VIDOSA, F.; YEPES, V.; ALCALÁ, J.; CARRERA, M.; PEREA, C.; PAYÁ-ZAFORTEZA, I. (2008) Optimization of Reinforced Concrete Structures by Simulated Annealing. TAN, C.M. (ed): Simulated Annealing. I-Tech Education and Publishing, Vienna, pp. 307-320. (link)
En el marco del próximo Congreso de Métodos Numéricos en Ingeniería CMN, que se desarrollará del 12 al 14 de septiembre de 2024 en la Universidad de Aveiro (Portugal), tengo el placer de anunciar la organización de un simposio sobre optimización, metaheurísticas y algoritmos evolutivos aplicados a la ingeniería civil. Dicho evento lo organizamos en colaboración con los profesores David Greiner y Diogo Ribeiro.
El principal objetivo de este simposio es congregar a investigadores y estimular el interés por la presentación de trabajos que aborden nuevas perspectivas en el ámbito de la optimización, las metaheurísticas y los algoritmos evolutivos en las disciplinas de ingeniería computacional y civil. Las comunicaciones deben centrarse en metaheurísticas, algoritmos evolutivos y otras técnicas de optimización aplicadas a la resolución de problemas de diseño óptimo en los campos de la ingeniería computacional y civil, así como en temas relacionados.
Los algoritmos evolutivos constituyen un área de investigación interdisciplinaria que abarca diversos paradigmas inspirados en el principio darwiniano de la evolución. En la fase actual de investigación, se consideran, entre otros, los siguientes paradigmas: Algoritmos Genéticos, Programación Genética, Estrategias Evolutivas, Evolución Diferencial, etc., además de otros enfoques de metaheurísticas como la Optimización por Enjambre de Partículas.
Se extiende una cordial bienvenida a las aplicaciones de estos métodos de optimización y otros en el ámbito de la ingeniería computacional y civil, tanto para resolver problemas de optimización de objetivo único como de objetivo múltiple. Los temas que se abordarán, sin limitarse a ellos, incluyen en el ámbito de la ingeniería civil aspectos relacionados con el diseño estructural, como estructuras de hormigón y/o acero, geotecnia, acústica, hidráulica e infraestructura. En el ámbito de la ingeniería computacional, los temas relacionados incluyen ingeniería mecánica y aeronáutica, energías renovables y confiabilidad, entre otros.
Se alienta la exploración de aspectos de desarrollo tales como la modelización de sustitución, la paralelización, la hibridación y la realización de comparaciones de rendimiento entre distintos métodos, entre otros.
Os paso, a continuación, la propuesta del simposio.