Inteligencia artificial y eficiencia en el diseño de edificios

La inteligencia artificial (IA) está transformando de manera radical el diseño arquitectónico y la edificación. En la actualidad, el sector de la construcción se enfrenta a tres tendencias clave: la industrialización, la sostenibilidad y la transformación digital e inteligente. La convergencia de estos factores genera numerosas oportunidades, pero también desafíos significativos.

Los proyectos contemporáneos son cada vez más grandes y complejos, y están sujetos a requisitos ambientales más estrictos, lo que aumenta la presión sobre los equipos de diseño en términos de procesamiento de información, tiempo y recursos. En este contexto, la IA no solo optimiza los procesos, sino que también mejora la eficiencia de los métodos tradicionales de diseño.

A continuación, analizamos cómo la IA puede impulsar la eficiencia del diseño, fomentar la innovación y contribuir a la sostenibilidad de los proyectos. La tecnología ya está presente en todas las etapas del ciclo de vida del edificio, desde el análisis predictivo y la supervisión de la construcción hasta el mantenimiento de las instalaciones.

La digitalización ha transformado profundamente la forma en que concebimos, proyectamos y gestionamos las infraestructuras. Tras la aparición del diseño asistido por ordenador (CAD) y el modelado de información para la construcción (BIM), la inteligencia artificial (IA) se presenta como el siguiente gran avance tecnológico. A diferencia de otras herramientas, la IA no solo automatiza tareas, sino que también aprende, genera propuestas y ayuda a tomar decisiones complejas de manera óptima. Como señalan Li, Chen, Yu y Yang (2025), la IA se está consolidando como una herramienta fundamental para aumentar la eficiencia en el diseño arquitectónico e integrar criterios de sostenibilidad, industrialización y digitalización en toda la cadena de valor.

La IA se puede definir como un conjunto de técnicas informáticas que buscan reproducir procesos propios de la inteligencia humana, como el razonamiento, el aprendizaje o el reconocimiento de patrones. Entre sus ramas se incluyen el aprendizaje automático (machine learning o ML), basado en algoritmos que identifican patrones en grandes volúmenes de datos; las redes neuronales artificiales, que imitan el funcionamiento del cerebro y permiten resolver problemas complejos, como la predicción energética (Chen et al., 2023); los algoritmos genéticos, que simulan procesos evolutivos para hallar soluciones óptimas en problemas con múltiples variables, y la IA generativa, capaz de crear contenidos originales, como imágenes o planos, a partir de descripciones textuales. Este último enfoque, también conocido como AIGC (contenido generado por IA), ha popularizado herramientas como Stable Diffusion o Midjourney (Li et al., 2025).

En el sector de la construcción confluyen tres grandes tendencias: la industrialización, vinculada a la modularización y la prefabricación de componentes; el desarrollo sostenible, que impulsa diseños energéticamente eficientes y con menor impacto ambiental; y la digitalización inteligente, en la que la IA desempeña un papel protagonista (Asif, Naeem y Khalid, 2024). Estas tres dinámicas están interrelacionadas: sin tecnologías de análisis avanzado, como la IA, sería mucho más difícil cumplir los objetivos de sostenibilidad o gestionar procesos constructivos industrializados.

Tendencias de la construcción

Las aplicaciones de la IA se extienden a lo largo de todo el ciclo de vida del edificio. En las primeras fases de diseño, los algoritmos generan en segundos múltiples alternativas de distribución, optimizando la orientación, la iluminación natural o la ventilación. El diseño paramétrico asistido por IA permite explorar variaciones infinitas ajustando solo unos pocos parámetros (Li et al., 2025). Durante la fase de proyecto, los sistemas basados en procesamiento del lenguaje natural pueden interpretar normativas y detectar incumplimientos de forma automática, lo que reduce la probabilidad de modificaciones en obra (Xu et al., 2024). Además, las técnicas de simulación permiten prever el comportamiento estructural, acústico o energético de un edificio antes de su construcción, lo que proporciona seguridad y precisión en la toma de decisiones.

Avances de la IA en el diseño arquitectónico

En el sector de la construcción, la IA se combina con sensores y análisis de datos en tiempo real para optimizar la producción y la logística. En la construcción industrializada, los algoritmos ajustan la fabricación de elementos prefabricados, optimizan los cortes y los ensamblajes, y mejoran la gestión de las obras (Li et al., 2025). Al mismo tiempo, la monitorización inteligente permite anticiparse a las desviaciones, planificar los recursos con mayor eficiencia e incrementar la seguridad en entornos complejos.

Optimización del ciclo de vida del edificio con IA

Uno de los campos más avanzados es la predicción y optimización del consumo energético. Algoritmos como las redes neuronales, las máquinas de soporte vectorial o los métodos evolutivos permiten modelizar con gran precisión el comportamiento energético, incluso en las fases preliminares (Chen et al., 2023). Gracias a estas técnicas, es posible seleccionar soluciones constructivas más sostenibles, diseñar envolventes eficientes e integrar energías renovables en el proyecto. Como señalan Ding et al. (2018), estas herramientas facilitan el cumplimiento de los sistemas de evaluación ambiental y apoyan la transición hacia edificios de energía casi nula.

Las ventajas de la IA son evidentes: aumenta la eficiencia, reduce los errores y permite generar múltiples alternativas en mucho menos tiempo (Li et al., 2025). También optimiza los aspectos energéticos y estructurales, lo que hace que los proyectos sean más fiables y competitivos. La automatización de tareas repetitivas agiliza la creación de planos y documentos, mientras que los profesionales pueden dedicarse a tareas creativas. Además, las herramientas de gestión de proyectos con IA ayudan a organizar mejor los recursos y los plazos. Gracias a su capacidad para analizar grandes volúmenes de datos, fomentan la innovación, diversifican los métodos de diseño y facilitan la selección de materiales y el rendimiento energético.

Beneficios de la IA en el diseño

Sin embargo, la IA también plantea importantes desafíos. Su eficacia depende de la calidad de los datos; sin información fiable, los algoritmos pierden precisión. Además, integrarla con plataformas como CAD o BIM sigue siendo complicado (Xu et al., 2024). A esto se suman cuestiones éticas y legales, como la propiedad intelectual de los diseños generados por IA, la opacidad en la toma de decisiones y el riesgo de que los diseñadores pierdan cierto control. En algunos lugares, como EE. UU., se han revocado derechos de autor sobre obras generadas por IA, lo que refleja la incertidumbre legal existente.

Otros retos son la homogeneización del diseño si todos usan herramientas similares, la reticencia de algunos profesionales a adoptar soluciones de IA por dudas sobre la personalización y la fiabilidad, y los altos costes y la limitada disponibilidad de hardware y software especializados. Aún así, la IA sigue siendo una herramienta poderosa que, si se utiliza correctamente, puede transformar la eficiencia, la creatividad y la sostenibilidad en el sector de la construcción, abriendo un futuro lleno de oportunidades.

Desafíos de la adopción de la IA en el diseño

Ya existen ejemplos prácticos que muestran el potencial de estas tecnologías. Herramientas como Stable Diffusion o FUGenerator pueden generar imágenes y maquetas a partir de descripciones en lenguaje natural y actúan como asistentes que multiplican la productividad del proyectista (Li et al., 2025). Estas plataformas no sustituyen la creatividad humana, pero ofrecen un apoyo decisivo en la fase de ideación.

Bucle interactivo de inferencia de diseño arquitectónico de FUGenerator (Li et al., 2025)

La IA se está convirtiendo en un pilar fundamental de la construcción, integrándose cada vez más con tecnologías como la realidad aumentada (RA), la realidad virtual (RV), la realidad mixta (RM) y los gemelos digitales. Gracias a esta combinación, no solo es posible visualizar cómo será un edificio, sino también anticipar su comportamiento estructural, energético o acústico antes de su construcción (Xu et al., 2024). Esto permite a los diseñadores y a los clientes evaluar las propuestas en las primeras etapas, lo que mejora la calidad del diseño y la experiencia del usuario.

La IA del futuro será más inteligente y adaptable, capaz de predecir con gran precisión los resultados del diseño y ofrecer soluciones personalizadas. Su impacto no se limita al diseño arquitectónico: la gestión de la construcción se beneficiará de la robótica asistida, lo que aumentará la seguridad y la eficiencia en tareas complejas o de alto riesgo; la operación de los edificios podrá monitorizar su rendimiento, anticipar las necesidades de mantenimiento y prolongar su vida útil, lo que reducirá los costes, y el análisis de mercado aprovechará el big data para prever la demanda y los precios de los materiales, lo que optimizará la cadena de suministro.

En ingeniería civil, la integración de la IA y las tecnologías avanzadas permite tomar decisiones más fundamentadas, minimizar riesgos y entregar proyectos más seguros y sostenibles (Xu et al., 2024). Así, la construcción del futuro se perfila como un proceso más eficiente, innovador y conectado, en el que la tecnología y la planificación estratégica trabajan juntas para lograr resultados óptimos.

En conclusión, la IA no pretende sustituir a los ingenieros y arquitectos, sino ampliar sus capacidades, como ya hicieron el CAD o el BIM (Asif et al., 2024; Li et al., 2025). Automatiza tareas repetitivas, agiliza el diseño, facilita la toma de decisiones basada en datos y ayuda a elegir materiales, mejorar la eficiencia energética y estructural e inspirar soluciones creativas. Su impacto trasciende el diseño y se extiende a la planificación, la supervisión de la construcción y la gestión del ciclo de vida del edificio. No obstante, su adopción plantea desafíos como los altos costes, la escasez de software disponible y la necesidad de contar con datos de calidad y algoritmos robustos. Si se depende en exceso de la IA, los diseños podrían homogeneizarse, por lo que es fundamental definir claramente los roles entre los arquitectos y la IA. Si se utiliza correctamente, la IA puede potenciar la creatividad, la eficiencia y la sostenibilidad, y ofrecer un futuro más innovador y dinámico para la construcción.

Os dejo un vídeo que resume las ideas más importantes.

Referencias:

Glosario de términos clave

  • Inteligencia Artificial (IA): Una disciplina científica y tecnológica de vanguardia que simula el aprendizaje y la innovación humanos para extender el alcance de la aplicación de la tecnología.
  • Inteligencia Artificial Generativa (GAI): Un subconjunto de la IA que utiliza el aprendizaje automático y las capacidades de procesamiento del lenguaje natural para que las computadoras simulen la creatividad y el juicio humanos, produciendo automáticamente contenido que cumple con los requisitos.
  • Diseño Paramétrico: Un método de diseño en el que se utilizan algoritmos para definir la relación entre los elementos de diseño, permitiendo la generación de diversas variaciones de diseño mediante el ajuste de parámetros.
  • Diseño Asistido por IA: Métodos en los que las herramientas de IA ayudan a los diseñadores a optimizar diseños, analizar datos, resolver problemas y explorar conceptos creativos.
  • Colaboración Hombre-Máquina: Un enfoque en el que humanos y máquinas trabajan juntos en tareas complejas, con la IA apoyando la innovación humana y el intercambio de información eficiente.
  • Redes Neuronales Artificiales (RNA o ANN): Un tipo de algoritmo de IA, modelado a partir del cerebro humano, que se utiliza para modelar relaciones complejas entre entradas y salidas, a menudo empleadas en la predicción del consumo de energía de los edificios.
  • Aprendizaje Profundo (Deep Learning): Un subcampo del aprendizaje automático que utiliza redes neuronales con múltiples capas (redes neuronales profundas o DNN) para aprender representaciones de datos con múltiples niveles de abstracción.
  • Redes Neuronales Profundas (DNN): Redes neuronales con numerosas capas ocultas que permiten que el modelo aprenda patrones más complejos en los datos, mejorando la precisión en tareas como la predicción del consumo de energía.
  • Máquinas de Vectores de Soporte (SVM): Un algoritmo de aprendizaje supervisado utilizado para tareas de clasificación y regresión, especialmente eficaz con conjuntos de datos pequeños y para identificar relaciones no lineales.
  • Procesamiento del Lenguaje Natural (PLN o NLP): Un campo de la IA que se ocupa de la interacción entre las computadoras y el lenguaje humano, permitiendo a los sistemas interpretar y generar lenguaje humano.
  • Modelado de Información de Construcción (BIM): Una metodología para la gestión de la información de construcción a lo largo de su ciclo de vida, utilizada con la IA para mejorar las simulaciones de rendimiento del edificio.
  • Algoritmos Genéticos (GA): Una clase de algoritmos de optimización inspirados en el proceso de selección natural, utilizados para encontrar soluciones óptimas en tareas de diseño complejas.
  • Adaptación de Bajo Rango (LoRA): Un método de ajuste de bajo rango para modelos de lenguaje grandes, que permite modificar el comportamiento de los modelos añadiendo y entrenando nuevas capas de red sin alterar los parámetros del modelo original.
  • Stable Diffusion: Una herramienta avanzada de IA para generar imágenes a partir de descripciones de texto o dibujos de referencia, que a menudo utiliza el modelo LoRA para estilos específicos.
  • Inception Score (IS) y Fréchet Inception Distance (FID): Métricas cuantitativas utilizadas para evaluar la calidad y diversidad de las imágenes generadas por modelos de IA, con IS evaluando la calidad y FID la similitud de la distribución entre imágenes reales y generadas.
  • FUGenerator: Una plataforma que integra varios modelos de IA (como Diffusion Model, GAN, CLIP) para respaldar múltiples escenarios de aplicación de diseño arquitectónico, desde la descripción semántica hasta la generación de bocetos y el control.
  • Industrialización (en construcción): Énfasis en métodos de construcción modulares y automatizados para mejorar la eficiencia y estandarización.
  • Desarrollo Ecológico (en construcción): Enfoque en la conservación de energía durante el ciclo de vida, el uso de materiales sostenibles y la reducción del impacto ambiental.
  • Transformación Digital-Inteligente (en construcción): Integración de sistemas de digitalización e inteligencia, aprovechando tecnologías como la GAI para optimizar procesos y mejorar la creación de valor.
  • Problema Mal Definido (Ill-defined problem): Problemas de diseño, comunes en arquitectura, que tienen propósitos y medios iniciales poco claros.
  • Problema Malicioso (Wicked problem): Problemas de diseño caracterizados por interconexiones y objetivos poco claros, que requieren enfoques de resolución complejos.
  • Integración del Internet de las Cosas (IoT): La interconexión de dispositivos físicos con sensores, software y otras tecnologías para permitir la recopilación y el intercambio de datos, crucial para los sistemas de control de edificios inteligentes

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

La interacción suelo–estructura como factor decisivo en el diseño optimizado y robusto frente al colapso progresivo de edificios de hormigón armado

Acaban de publicarnos un artículo en Innovative Infrastructure Solutions, revista indexada en el JCR. El artículo presenta un marco de optimización estructural para edificios con pórticos de hormigón armado que integra la resistencia frente al colapso progresivo y la interacción suelo-estructura con el objetivo de conseguir diseños seguros, sostenibles y realistas. El trabajo se enmarca dentro del proyecto de investigación RESILIFE que dirijo como investigador principal en la Universitat Politècnica de València. A continuación se recoge un resumen sintético del trabajo.

En los últimos años, la optimización matemática se ha convertido en una herramienta muy valiosa para la ingeniería. Lejos de ser un mero ejercicio teórico, se ha comprobado que permite diseñar estructuras más eficientes, con menos consumo de materiales, costes e impacto medioambiental. Sin embargo, hasta ahora, un aspecto importante había quedado fuera de estos procesos de optimización: la seguridad frente al colapso progresivo, un fenómeno en el que el fallo localizado de un elemento estructural provoca una reacción en cadena que puede ocasionar el derrumbe total del edificio.

Este tipo de situaciones no son meramente hipotéticas: explosiones accidentales, impactos de vehículos, errores de ejecución e incluso actos intencionados han provocado a lo largo de la historia fallos de este tipo, con consecuencias devastadoras en términos humanos y económicos. Por este motivo, organismos como la General Services Administration (GSA) y el Departamento de Defensa (DoD) de EE. UU. han desarrollado directrices específicas para incorporar criterios de robustez frente al colapso progresivo en el diseño estructural.

La principal aportación de este trabajo es la propuesta de un marco computacional integrado denominado Optimization-based Robust Design to Progressive Collapse (ObRDPC), que combina tres elementos fundamentales:

  1. Optimización estructural mediante algoritmos heurísticos.

  2. Diseño robusto frente a colapso progresivo, aplicado desde el inicio del proceso de cálculo con el método del Alternate Path.

  3. Consideración de la interacción suelo–estructura (SSI), aspecto habitualmente ignorado, pero que modifica de forma notable la respuesta real de un edificio.

La metodología desarrollada no se limita a verificar a posteriori si una estructura cumple los requisitos de robustez, sino que integra estas exigencias como restricciones en el propio proceso de optimización. Así, el algoritmo no solo busca minimizar un objetivo (en este caso, las emisiones de CO₂ asociadas a la construcción), sino que también garantiza la seguridad frente a escenarios de fallo.

Para validar la propuesta, se estudiaron cinco casos de edificios de pórticos de hormigón armado tridimensionales con distintas combinaciones de número de plantas (de cuatro a seis) y longitudes de vano (cuatro, seis y ocho metros). A cada edificio se le aplicaron dos escenarios de daño: la eliminación de una columna de esquina y la eliminación de una columna exterior. Estos escenarios, definidos en la guía GSA, simulan situaciones críticas y permiten evaluar la capacidad de la estructura para redistribuir las cargas y evitar un colapso en cadena.

El marco ObRDPC integra un proceso automatizado en el que el modelado estructural se realiza con SAP2000, enlazado con rutinas programadas en MATLAB. Además, se tiene en cuenta el diseño constructivo de cimentaciones mediante zapatas aisladas, que se modelan como losas apoyadas sobre un suelo con comportamiento elástico. En este punto, la SSI es fundamental, ya que los asientos diferenciales de la cimentación generan esfuerzos adicionales en pilares y vigas, lo que modifica la redistribución de cargas en caso de fallo. El estudio muestra que ignorar este efecto puede dar lugar a errores de hasta el 24 % en el dimensionamiento de la superestructura tras la pérdida de un pilar, lo que se traduce en diseños potencialmente inseguros o, por el contrario, sobredimensionados y poco sostenibles.

Los resultados más destacados se pueden resumir así:

  • Influencia de la altura del edificio: a medida que aumenta el número de plantas, la estructura gana en robustez. Esto se debe a la redundancia estructural y a la existencia de múltiples caminos alternativos para la redistribución de cargas (efecto de pórtico global, mecanismos tipo Vierendeel, etc.). En consecuencia, los edificios de mayor altura presentan una menor diferencia entre un diseño convencional y otro robusto frente al colapso progresivo.

  • Influencia de la luz de vano: a diferencia de lo que ocurre con la altura, un mayor aumento de la luz compromete la robustez. En vanos de 8 metros, el impacto ambiental de un diseño robusto frente al colapso progresivo aumenta en más de un 50 %. La razón es doble: por un lado, las vigas deben absorber momentos flectores mucho mayores cuando desaparece un apoyo y, por otro, disminuye la redundancia estructural al haber menos pilares por unidad de superficie.

  • Estrategias de redistribución de cargas: los mecanismos estructurales varían según el elemento. En las vigas, la optimización conduce a secciones más profundas y a un incremento del refuerzo superior de hasta el 35 % en zonas críticas. En los pilares, tienden a utilizarse secciones más robustas y hormigones de mayor resistencia (hasta 40 MPa) para controlar las solicitaciones combinadas de axiles y flectores. Las cimentaciones, por su parte, tienden a tener geometrías más cuadradas, lo que mejora su respuesta frente a asientos diferenciales.

  • Impacto ambiental y sostenibilidad: en edificios con vanos moderados (4 m), el sobrecoste ambiental de diseñar frente a un colapso progresivo es inferior al 8 %, una cifra razonable para garantizar una mayor seguridad. Sin embargo, en estructuras con vanos grandes, el impacto es muy significativo, por lo que es necesario reflexionar sobre las limitaciones geométricas de ciertos proyectos si se pretende compatibilizar sostenibilidad y robustez.

El valor práctico de esta investigación es indudable. Frente a los métodos tradicionales basados en el ensayo y el error y en hipótesis de apoyo rígido, la propuesta permite automatizar el proceso de diseño e integrar la seguridad y la sostenibilidad desde el principio. Para los ingenieros y proyectistas, esto supone una herramienta que evita tanto el riesgo de subdiseño (estructuras inseguras) como el de sobrediseño (estructuras innecesariamente pesadas y contaminantes).

En definitiva, este trabajo supone un avance hacia una ingeniería estructural más integral, ya que no solo se trata de optimizar costes o reducir emisiones, sino también de garantizar la resiliencia de nuestras construcciones frente a eventos extremos. La integración de la interacción suelo-estructura añade, además, un realismo que acerca la investigación a la práctica profesional. En el futuro, esta metodología podría extenderse a otros sistemas estructurales, como marcos metálicos, estructuras mixtas o rascacielos, lo que supondría un horizonte prometedor para la construcción de infraestructuras seguras, sostenibles y duraderas.

Referencia:

NEGRÍN, I.; CHAGOYÉN, E.; KRIPKA, M.; YEPES, V. (2025). An integrated framework for Optimization-based Robust Design to Progressive Collapse of RC skeleton buildings incorporating Soil-Structure Interaction effects. Innovative Infrastructure Solutions, 10:446. DOI:10.1007/s41062-025-02243-z

Os dejo el artículo para que lo descarguéis, ya que está publicado en abierto.

Pincha aquí para descargar

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

RESILIFE: Optimización resiliente de estructuras híbridas en condiciones extremas

En este artículo se explica el proyecto RESILIFE, cuyos investigadores principales son Víctor Yepes y Julián Alcalá, de la Universitat Politècnica de València. Se trata de un proyecto de investigación de carácter internacional en el que también colaboran profesores de Brasil, Chile y China. Además, se están realizando varias tesis doctorales de estudiantes de Cuba, Perú, México y Ecuador, así como de estudiantes españoles. A continuación, se describe brevemente el proyecto y se incluye una comunicación reciente donde se explica con más detalle.

El proyecto RESILIFE se centra en optimizar de forma resiliente el ciclo de vida de estructuras híbridas y modulares para conseguir una alta eficiencia social y medioambiental, especialmente en condiciones extremas. La investigación aborda la necesidad de diseñar, construir y mantener infraestructuras que puedan resistir y recuperarse rápidamente de desastres naturales o provocados por el ser humano, minimizando las pérdidas y el impacto en la sociedad y el medioambiente. Para ello, el estudio propone utilizar inteligencia artificial, metaheurísticas híbridas, aprendizaje profundo y teoría de juegos en un enfoque multicriterio. El objetivo es mejorar la seguridad, reducir costes y optimizar la recuperación, alineándose con los Objetivos de Desarrollo Sostenible (ODS). La metodología integral incluye el análisis del ciclo de vida, así como la aplicación de lógica neutrosófica y redes bayesianas para la toma de decisiones.

¿Qué problema aborda el proyecto RESILIFE y por qué es urgente?

El proyecto RESILIFE aborda el desafío crítico que supone diseñar y mantener infraestructuras resilientes y sostenibles frente a desastres naturales y provocados por el ser humano. La urgencia es evidente debido a las enormes pérdidas humanas y económicas causadas por estos eventos (más de 1,1 millones de muertes y 1,5 billones de dólares en pérdidas entre 2003 y 2013), lo que subraya la necesidad de estructuras de alto rendimiento que protejan vidas y economías, al tiempo que se alinean con los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas. Además, los errores de diseño y construcción, así como la falta de mantenimiento, han demostrado ser causas significativas de colapso estructural, y solo el 50 % de las reparaciones de hormigón resultan efectivas en Europa.

¿Cuál es el objetivo principal de RESILIFE?

El objetivo general del proyecto RESILIFE es optimizar el diseño, el mantenimiento y la reparación de estructuras híbridas y modulares (MMC) de alta eficiencia social y medioambiental para que puedan resistir condiciones extremas. Para ello, se deben abordar problemas complejos de toma de decisiones en los ámbitos público y privado, integrando criterios de sostenibilidad social y medioambiental durante todo el ciclo de vida de las estructuras y teniendo en cuenta la variabilidad e incertidumbre inherentes al mundo real. El objetivo es que estas estructuras sean tan seguras como las tradicionales, pero con una mayor capacidad de recuperación rápida y un menor impacto social y medioambiental.

 

¿Qué tipos de estructuras son el foco de RESILIFE y por qué?

El proyecto se centra en estructuras híbridas (que combinan, por ejemplo, acero y hormigón) y en estructuras basadas en métodos modernos de construcción (MMC), especialmente las modulares. Estas estructuras se han elegido como objeto de estudio debido a su gran potencial para mejorar la resiliencia estructural, la eficiencia en la construcción (al reducir las interrupciones en obra y mejorar el control de calidad) y la sostenibilidad. A pesar de sus ventajas, se han identificado lagunas en la investigación sobre su optimización para eventos extremos y su aplicación en estructuras complejas, aspectos que el proyecto RESILIFE busca subsanar.

¿Qué metodologías innovadoras utiliza RESILIFE para lograr sus objetivos?

RESILIFE emplea un enfoque multidisciplinario e innovador que integra diversas técnicas avanzadas:

¿Cómo aborda RESILIFE la incertidumbre y la variabilidad en el diseño y mantenimiento de estructuras?

El proyecto aborda la incertidumbre y la variabilidad mediante varias estrategias:

  • Análisis de funciones de distribución de eventos extremos: Para el diseño óptimo basado en fiabilidad.
  • Metamodelos y metaheurísticas híbridas basadas en fiabilidad: Permiten manejar la aleatoriedad de los parámetros y asegurar que los proyectos optimizados no sean inviables ante pequeños cambios en las condiciones.
  • Técnicas de decisión multicriterio (lógica neutrosófica y redes bayesianas): Integran aspectos inciertos y criterios subjetivos en la toma de decisiones.
  • Análisis de sensibilidad: De los escenarios presupuestarios y las hipótesis del ciclo de vida para identificar las mejores prácticas.

¿Qué se entiende por «resiliencia» en el contexto de RESILIFE y cómo se cuantifica?

En el contexto de RESILIFE, la resiliencia se define como la capacidad de una estructura para resistir eventos extremos, mantener su funcionalidad o recuperarla rápidamente con reparaciones mínimas tras sufrir daños, y con un bajo coste social y medioambiental. El objetivo es ir más allá de la simple resistencia y centrarse en la capacidad de adaptación y recuperación. El proyecto tiene como objetivo desarrollar procedimientos explícitos para cuantificar la resiliencia de las estructuras e infraestructuras en el contexto de múltiples amenazas, un aspecto que actualmente presenta una laguna en la investigación. Esto incluye tener en cuenta la funcionalidad técnico-socioeconómica y los impactos a lo largo de toda su vida útil.

¿Qué tipo de casos de estudio se aplican en la metodología RESILIFE?

La metodología de RESILIFE se aplica a varios casos de estudio clave:

  • Optimización de pórticos de edificios altos: Con estructura de acero híbrido y hormigón armado, sometidos a un fuerte incremento de temperatura, o ante el fallo completo de soportes para evitar el colapso progresivo.
  • Viviendas sociales prefabricadas en zonas sísmicas: Optimizando su resistencia a acciones extremas y su capacidad de reparación rápida.
  • Mantenimiento y reparación de patologías: Resultantes de eventos extremos en diversas estructuras.
  • Otras estructuras como puentes mixtos y estructuras modulares: Ampliando el alcance más allá de las viviendas. Estos casos de estudio permiten validar la aplicabilidad de las metodologías propuestas en situaciones reales y complejas.

¿Cuáles son las principales contribuciones esperadas de RESILIFE a la ingeniería estructural y la sostenibilidad?

Las principales contribuciones esperadas de RESILIFE son:

  • Desarrollo de soluciones constructivas innovadoras: Como conexiones especiales y estructuras fusibles para aumentar la resiliencia y evitar el colapso progresivo.
  • Formulación de metodologías de participación social: Para integrar criterios objetivos y subjetivos en decisiones multicriterio.
  • Propuesta de técnicas de optimización multiobjetivo avanzadas: Basadas en metaheurísticas híbridas de deep learning, teoría de juegos y fiabilidad.
  • Introducción de nuevas métricas: Que prioricen soluciones resilientes en la frontera de Pareto.
  • Identificación de políticas presupuestarias efectivas: Y definición de buenas prácticas de diseño, reparación y mantenimiento robusto en construcciones MMC y estructuras híbridas.
  • Avances en la modelización y evaluación: De la sostenibilidad a largo plazo y el impacto ambiental de las infraestructuras, contribuyendo a normativas y software de diseño más eficientes.

Pincha aquí para descargar

Glosario de términos clave

  • Resiliencia (estructural): Capacidad de una estructura para absorber, resistir, adaptarse y recuperarse de un evento extremo, manteniendo o recuperando su funcionalidad rápidamente y con costes mínimos.
  • Estructuras híbridas: Estructuras que combinan dos o más materiales estructurales diferentes, como acero y hormigón, para optimizar sus propiedades y rendimiento.
  • Estructuras modulares: Estructuras compuestas por unidades o módulos prefabricados que se ensamblan en el lugar de la construcción, ofreciendo ventajas en velocidad de construcción y control de calidad.
  • Eventos extremos: Desastres naturales (terremotos, tsunamis, inundaciones) o provocados por humanos (explosiones, impactos) que causan daños significativos a las estructuras y la sociedad.
  • Optimización del ciclo de vida: Proceso de diseño, construcción, mantenimiento y reparación de una estructura, considerando su impacto total (económico, social, ambiental) a lo largo de toda su vida útil.
  • Sostenibilidad: Principio que busca satisfacer las necesidades actuales sin comprometer la capacidad de las futuras generaciones para satisfacer sus propias necesidades, integrando aspectos ambientales, sociales y económicos.
  • Inteligencia artificial (IA): Campo de la informática que dota a las máquinas de la capacidad de aprender, razonar y resolver problemas, utilizada aquí para evaluar y mejorar la resiliencia.
  • Metaheurísticas híbridas: Algoritmos de optimización que combinan diferentes técnicas heurísticas o metaheurísticas para encontrar soluciones eficientes a problemas complejos, especialmente en la optimización multiobjetivo.
  • Aprendizaje profundo (Deep Learning – DL): Subcampo del aprendizaje automático que utiliza redes neuronales artificiales con múltiples capas para aprender representaciones de datos, aplicado para mejorar la toma de decisiones y reducir tiempos de cálculo.
  • Teoría de juegos: Rama de las matemáticas que estudia las interacciones estratégicas entre agentes racionales, aplicada en la optimización multiobjetivo para el diseño de estructuras.
  • Lógica neutrosófica: Marco matemático para tratar la indeterminación y la inconsistencia, utilizado en la toma de decisiones multicriterio para manejar la incertidumbre.
  • Redes bayesianas: Modelos gráficos probabilísticos que representan relaciones de dependencia condicional entre variables, empleadas en el análisis multicriterio y la gestión de incertidumbre.
  • Colapso progresivo: Fenómeno en el cual un daño inicial localizado en una estructura se propaga a otras partes, llevando al colapso desproporcionado de una gran porción o de toda la estructura.
  • Modern Methods of Construction (MMC): Métodos de construcción modernos que incluyen tecnologías de prefabricación, construcción modular e impresión 3D, buscando mayor eficiencia y control de calidad.
  • BIM (Building Information Modeling / Modelos de Información en la Construcción): Proceso de creación y gestión de un modelo digital de un edificio o infraestructura, que facilita la integración del proyecto estructural y la toma de decisiones a lo largo del ciclo de vida.
  • Metamodelo (o modelo subrogado): Modelo simplificado de un sistema complejo que permite realizar cálculos más rápidos y eficientes, crucial para reducir los tiempos de computación en la optimización.
  • Diseño óptimo basado en fiabilidad: Enfoque de diseño que considera la probabilidad de fallo y las incertidumbres inherentes para optimizar las estructuras, garantizando un nivel de seguridad predefinido.
  • Frontera de Pareto: Conjunto de soluciones óptimas en problemas de optimización multiobjetivo, donde ninguna de las funciones objetivo puede mejorarse sin degradar al menos otra función objetivo.

Agradecimientos:

Grant PID2023-150003OB-I00 funded by MCIN/AEI/10.13039/501100011033, and the European Regional Development Fund (ERDF), a program of the European Union (EU).

Aportaciones al Congreso sobre Optimización de Estructuras HPSM/OPTI 2025, Edimburgo (Reino Unido)

Los días 10 a 12 de junio de 2025 se celebró en Edimburgo (Reino Unido) uno de los congresos más importantes sobre optimización de estructuras: “12th International Conference on High Performance and Optimum Design of Structures and Materials, HPSM/OPTI 2025“. He participado en dicho congreso tanto en su Comité Científico como Invited Speaker.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València. Además, es uno de los resultados de la tesis doctoral de Lorena Yepes.

En cuanto la comunicación esté publicada en el libro de ponencias, os pasaré el enlace para su descarga gratuita. A continuación os paso el resumen de la comunicación presentada.

El artículo «Multi-Attribute Decision-Making in Prestressed Concrete Road Flyover Design», propone una innovadora metodología para optimizar el diseño de puentes de hormigón pretensado teniendo en cuenta simultáneamente tres criterios clave: el coste económico, las emisiones de CO₂ y la energía incorporada en los materiales. Su objetivo es encontrar soluciones de compromiso que equilibren sostenibilidad y eficiencia estructural.

Aportaciones principales del estudio

Este trabajo aporta un enfoque sistemático y práctico para integrar criterios medioambientales y económicos en el diseño de pasos elevados. Frente a las metodologías tradicionales que suelen priorizar únicamente el coste, los autores aplican técnicas de toma de decisiones multicriterio para considerar también el impacto ambiental desde el inicio del proceso proyectual. Además, ofrecen pautas concretas para diseños preliminares que buscan un equilibrio entre coste, emisiones y consumo energético.

Metodología empleada

La investigación se basa en técnicas avanzadas de optimización y modelado. En primer lugar, se utilizaron 50 soluciones iniciales de diseño generadas mediante un muestreo estadístico conocido como Latin Hypercube Sampling, que explora diferentes combinaciones de parámetros como la resistencia del hormigón, la anchura de la base y la profundidad del tablero.

A continuación, se aplicó un modelo de sustitución de tipo Kriging, capaz de estimar con gran precisión los resultados estructurales sin necesidad de cálculos exhaustivos para cada diseño. Esto permitió ampliar el análisis a 1.000 soluciones adicionales simuladas.

Con todas las alternativas sobre la mesa, se extrajo la “frontera de Pareto”, un conjunto de soluciones no dominadas que representan los mejores compromisos posibles entre los tres objetivos. Finalmente, se aplicaron distintos escenarios de toma de decisiones multiatributo, asignando diferentes pesos a cada criterio, para seleccionar los diseños más equilibrados.

Resultados más relevantes

El análisis reveló que los diseños más sostenibles tienen características comunes: una relación entre canto del tablero y luz principal cercana a 1/30 y una resistencia del hormigón de 40 MPa. Estas configuraciones permiten reducir tanto el consumo de materiales como las emisiones sin comprometer la viabilidad estructural.

Dependiendo del peso asignado a cada criterio (coste, emisiones, energía), se identificaron varias soluciones óptimas, destacando especialmente dos (denominadas #6 y #13) por su buen rendimiento integral. Curiosamente, priorizar solo el coste lleva a soluciones con mayor canto, mientras que priorizar el medio ambiente genera estructuras más esbeltas y materialmente eficientes.

Conclusiones y recomendaciones

El estudio concluye que aplicar técnicas de decisión multicriterio en la ingeniería civil permite diseñar infraestructuras más sostenibles y racionales, sin sacrificar funcionalidad ni economía. Se recomienda considerar desde fases tempranas del diseño variables ambientales clave como las emisiones o la energía embebida, además de los costes.

Asimismo, los autores sugieren incorporar la participación de los diferentes agentes implicados (ingenieros, administraciones, ciudadanía) para lograr soluciones más equilibradas y duraderas.

Este trabajo representa un avance hacia una práctica de la ingeniería más alineada con los Objetivos de Desarrollo Sostenible, y especialmente con el ODS 9, que promueve infraestructuras resilientes, sostenibles e innovadoras.

Referencia:

YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Multi-attribute decision-making in prestressed concrete road flyover design. International Conference on High Performance and Optimum Design of Structures and Materials, HPSM/OPTI 2025, 10-12 June 2025, Edinburgh, UK.

Tesis doctoral: Optimización multicriterio para el diseño sostenible de puentes postesados mediante metamodelos

De izquierda a derecha: Julián Alcalá, Salvador Ivorra, Lorena Yepes, Tatiana García y Antonio Tomás.

Hoy, 6 de junio de 2025, ha tenido lugar la defensa de la tesis doctoral de Dª. Lorena Yepes Bellver, titulada “Multi-criteria optimization for sustainable design of post-tensioned concrete slab bridges using metamodels”, dirigida por el profesor Julián Alcalá González. La tesis ha obtenido la máxima calificación de sobresaliente «cum laude». A continuación, presentamos un pequeño resumen de la misma.

Esta tesis utiliza técnicas de modelización sustitutiva para optimizar los costes económicos y medioambientales en puentes losa de hormigón postesado hormigonado in situ. El objetivo principal de esta investigación es desarrollar una metodología sistemática que permita optimizar el diseño de puentes, reduciendo los costes, las emisiones de CO₂ y la energía necesaria para construir este tipo de puentes sin comprometer la viabilidad estructural o económica. El marco de optimización propuesto consta de dos fases secuenciales: la primera se centra en ampliar el espacio de búsqueda y la segunda intensifica la búsqueda de soluciones óptimas. El metamodelo basado en Kriging realiza una optimización heurística que da como resultado un diseño con emisiones de CO₂ significativamente menores que los diseños convencionales. El estudio revela que una relación de esbeltez de aproximadamente 1/30 arroja resultados óptimos, ya que se reduce el consumo de material y se mantiene la integridad estructural. Además, el aumento de la armadura pasiva compensa la reducción de hormigón y armadura activa, lo que da como resultado un diseño más sostenible. Por otra parte, se identifica una compensación entre costes y emisiones que muestra que un modesto aumento de los costes de construcción (menos del 1 %) puede reducir sustancialmente las emisiones de CO₂ (más del 2 %), lo que demuestra que el diseño de puentes sostenibles puede ser económicamente viable.

La investigación explora más a fondo la optimización de la energía incorporada en la construcción de pasos elevados de carreteras anuladas mediante el uso de muestreo por hipercubo latino y optimización basada en Kriging. La metodología permite identificar los parámetros críticos de diseño, como los altos coeficientes de esbeltez (en torno a 1/28), el uso mínimo de hormigón y armadura activa, y el aumento de la armadura pasiva para mejorar la eficiencia energética. Aunque en el estudio se emplearon Kriging y redes neuronales artificiales (RNA), Kriging demostró ser más eficaz a la hora de identificar óptimos locales, a pesar de que las redes neuronales ofrecen predicciones absolutas más precisas. Esto pone de manifiesto la eficacia de los modelos sustitutos a la hora de orientar las decisiones de diseño sostenible, incluso cuando los modelos no ofrecen predicciones absolutas perfectamente exactas.

En el contexto de la optimización de costes para puentes de losa postesada, el estudio demuestra el potencial del modelado sustitutivo combinado con la simulación del recocido. Los resultados muestran que el método de optimización basado en Kriging conduce a una reducción de costes del 6,54 %, principalmente mediante la minimización del uso de materiales, concretamente de hormigón en un 14,8 % y de acero activo en un 11,25 %. Estas reducciones en el consumo de material se consiguen manteniendo la integridad estructural y la capacidad de servicio del puente, lo que convierte al modelado sustitutivo en una herramienta práctica y eficaz para la optimización económica en el diseño de puentes.

El estudio también evalúa la forma de optimizar las emisiones de CO₂ en pasos elevados de carreteras pretensadas. Se identifican los parámetros óptimos de diseño, como grados de hormigón entre C-35 y C-40 MPa, profundidades del tablero entre 1,10 y 1,30 m, y anchuras de base entre 3,20 y 3,80 m. La red neuronal mostró las predicciones más precisas entre los modelos predictivos analizados, con los errores medios absolutos (MAE) y cuadrados medios (RMSE) más bajos. Estos resultados subrayan la importancia de seleccionar el modelo predictivo adecuado para optimizar las emisiones de CO₂ en el diseño de puentes y destacan el valor de utilizar modelos sustitutivos para mejorar la sostenibilidad en los proyectos de ingeniería civil.

Por último, la investigación integra la toma de decisiones multicriterio (MCDM) con la optimización basada en Kriging para evaluar y optimizar los diseños de puentes en relación con objetivos económicos, medioambientales y estructurales. El enfoque MCDM permite evaluar de manera más exhaustiva las alternativas de diseño al tener en cuenta las compensaciones entre coste, impacto ambiental y rendimiento estructural. Esta integración contribuye al desarrollo sostenible de las infraestructuras, ya que facilita la selección de diseños óptimos que se ajusten a los objetivos de sostenibilidad.

En conclusión, esta tesis demuestra que el modelado sustitutivo, que utiliza explícitamente el Kriging y redes neuronales artificiales, es un enfoque práctico para optimizar las dimensiones medioambiental y económica del diseño de puentes. El marco de optimización en dos fases que aquí se presenta proporciona una metodología eficiente desde el punto de vista computacional que permite identificar soluciones de diseño óptimas y sostenibles que cumplen las restricciones estructurales y económicas. Los resultados sugieren que la metodología es aplicable a proyectos de infraestructuras a gran escala y sentarán las bases para futuras investigaciones. Futuros estudios podrían investigar el uso de algoritmos y modelos de optimización adicionales para perfeccionar aún más el proceso de optimización y mejorar la aplicabilidad de estas metodologías en proyectos reales.

Referencias:

YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Predictive modeling for carbon footprint optimization of prestressed road flyovers. Applied Sciences15(17), 9591. DOI:10.3390/app15179591

VILLALBA, P.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2025). A Hybrid Fuzzy DEMATEL–DANP–TOPSIS Framework for Life Cycle-Based Sustainable Retrofit Decision-Making in Seismic RC Structures. Mathematics, 13(16), 2649. DOI:10.3390/math13162649

ZHOU, Z.; WANG, Y.J.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Intelligent monitoring of loess landslides and research on multi-factor coupling damage. Geomechanics for Energy and the Environment, 42:100692. DOI:10.1016/j.gete.2025.100692

ZHOU, Z.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Study on the failure mechanism of deep foundation pit of high-rise building: comprehensive test and microstructure coupling. Buildings, 15(8), 1270. DOI:10.3390/buildings15081270

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

BLIGHT, T.; MARTÍNEZ-PAGÁN, P.; ROSCHIER, L.; BOULET, D.; YEPES-BELLVER, L.; YEPES, V. (2025). Innovative approach of nomography application into an engineering educational context. Plos One, 20(2): e0315426. DOI:10.1371/journal.pone.0315426

NAVARRO, I.J.; VILLALBA, I.; YEPES-BELLVER, L.; ALCALÁ, J. Social Life Cycle Assessment of Railway Track Substructure Alternatives. J. Clean. Prod. 2024, 450, 142008.

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2024). Artificial neural network and Kriging surrogate model for embodied energy optimization of prestressed slab bridges. Sustainability, 16(19), 8450. DOI:10.3390/su16198450

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2023). Embodied energy optimization of prestressed concrete road flyovers by a two-phase Kriging surrogate model. Materials16(20); 6767. DOI:10.3390/ma16206767

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2022). CO₂-optimization of post-tensioned concrete slab-bridge decks using surrogate modeling. Materials, 15(14):4776. DOI:10.3390/ma15144776

Tesis doctoral: Baterías níquel-zinc: equilibrio óptimo entre coste y sostenibilidad

Ignacio Villalba, Ashwani Kumar y Víctor Yepes

Hoy, 6 de mayo de 2025, ha tenido lugar la defensa de la tesis doctoral de D. Ashwani Kumar Malviya, titulada “Optimization of LCA and LCCA for a novel NiZn battery through multi-objective particle swarm optimization (MOPSO) and its application in e-mobility and smart building infrastructure”, dirigida por los profesores Ignacio Villalba Sanchis y Víctor Yepes. La tesis ha obtenido la máxima calificación de sobresaliente «cum laude». A continuación, presentamos un pequeño resumen de la misma.

En el contexto de la urgente transición hacia un sistema eléctrico descarbonizado, el almacenamiento energético se ha convertido en un pilar fundamental para integrar fuentes renovables intermitentes, como la solar y la eólica, en la red eléctrica y en aplicaciones de e-movilidad y edificios inteligentes. La tesis de Ashwani Kumar Malviya explora por primera vez de manera integrada la viabilidad de las baterías recargables de níquel-zinc (RNZB), que combinan materias primas abundantes (níquel y zinc), electrólitos acuosos no inflamables y un proceso de producción simplificado que prescinde de salas blancas. Gracias a recientes innovaciones en la formulación de los electrodos, estas celdas de 10 Ah y 60 Wh/kg alcanzan más de 2000 ciclos al 100 % de profundidad de descarga, superando uno de los principales obstáculos de esta tecnología.

El trabajo se estructura en torno a cinco preguntas clave:

  1. ¿Cuál es el coste total de ciclo de vida (LCC) de una batería de litio de níquel (RNZB), desde la extracción de materia prima hasta su fin de vida, medido tanto en €/kg como en €/kWh entregado?
  2. ¿Qué impacto ambiental (LCA) —evaluado en 18 categorías midpoint y 3 endpoint con ReCiPe 2016— genera la RNZB en comparación con baterías de plomo-ácido, LFP y NMC?
  3. ¿Es posible que un algoritmo multiobjetivo (MOPSO) identifique configuraciones de suministro y reciclaje que minimicen simultáneamente el coste de ciclo de vida (LCC) y el impacto ambiental (LCA)?
  4. ¿Hasta qué punto estas soluciones son resistentes ante variaciones de ±20 % en parámetros críticos, tales como la mezcla eléctrica en uso y la eficiencia del ciclo?
  5. ¿En qué medida las preferencias de un panel de expertos, analizadas mediante el proceso de jerarquía analítica (AHP), coinciden con la clasificación de Pareto generada por el MOPSO?

Esta tesis presenta un modelo estructurado que integra ecuaciones de LCC —que incluyen CAPEX, OPEX y fin de vida en función de la masa de batería y la energía suministrada— con un LCA exhaustivo basado en datos de la base Ecoinvent y OpenLCA. La implementación de MOPSO en MATLAB para optimizar ambos indicadores constituye una innovación metodológica de gran valor, pues genera un frente de Pareto de soluciones no dominadas que equilibra coste y huella ambiental. Además, la comparación efectuada demostró que la RNZB puede ofrecer un coste medio de ciclo de vida de aproximadamente 120 €/kWh, en comparación con los 150 €/kWh de LFP y los 180 €/kWh de plomo-ácido, manteniendo un GWP de 0,24 kg CO₂ eq/kWh —inferior a los 0,30 kg CO₂ eq/kWh del plomo-ácido—, lo que sitúa a la RNZB como la opción económicamente más competitiva sin renunciar a un desempeño ambiental favorable.

El estudio establece un alcance «cradle-to-grave», que comprende la extracción de níquel y zinc, la formulación de electrodos (cátodo de NiOOH con un 11,6 % de peso y ánodo de ZnO con un 7,5 %), el transporte, el ensamblaje de celdas de 10 Ah y 60 Wh/kg, los escenarios de uso con diferentes mezclas eléctricas (0-100 % RES) y el fin de vida, que incluye el reciclaje metalúrgico de metales y la valorización energética de plásticos. Para el LCA, se implementó el enfoque ReCiPe 2016 en 18 categorías midpoint (GWP, ODP, entre otras) y 3 endpoint (salud, ecosistemas, recursos). Para el LCC, se desarrollaron fórmulas validadas mediante el uso de OpenLCA. El MOPSO implementado explora variables de origen de materias primas y rutas de reciclaje, manteniendo un archivo diverso de soluciones no dominadas. Una vez concluido el proceso, se realizó un análisis de sensibilidad, que incluyó la evaluación de la variación del mix eléctrico y la eficiencia del ciclo. Posteriormente, se llevó a cabo una validación AHP con un grupo de doce expertos, quienes contrastaron sus preferencias con el ranking de Pareto obtenido.

Los resultados obtenidos evidencian que, en condiciones de mix eléctrico base (100 % red convencional), la RNZB registra un LCC de 120 €/kWh y un GWP de 0,24 kg CO₂ eq/kWh. El MOPSO ha identificado 10 soluciones óptimas que reducen hasta un 15 % el LCC y un 20 % el GWP respecto a la configuración estándar. Al integrar el 75 % de energía renovable en la fase de uso, el GWP desciende a 0,18 kg CO₂ eq/kWh, lo que resulta en una reducción del CED en un 30 %. El análisis de sensibilidad confirmó que estas ventajas se mantienen con variaciones de hasta ±20 % en mix y eficiencia. Asimismo, la validación AHP mostró un 85 % de coincidencia entre las preferencias de los expertos y el ranking de Pareto.

La tesis confirma que las RNZB ofrecen un equilibrio excepcional entre coste y sostenibilidad para aplicaciones estacionarias (almacenamiento residencial, edificios inteligentes y e-movilidad), especialmente si se combinan con un uso mayoritario de RES y se aplican técnicas de «recuperación verde» en el reciclaje. La simplicidad del proceso acuoso y la ausencia de elementos críticos (cobalto) reducen significativamente los riesgos y los costes de suministro. Sin embargo, la dependencia del níquel sugiere la necesidad de diversificar las fuentes de suministro y establecer circuitos cerrados para la recuperación de metales. Desde una perspectiva metodológica, la integración de LCA, LCC, MOPSO y AHP constituye un marco sólido y adaptable a otros sistemas de ingeniería que requieran optimizar múltiples indicadores de manera simultánea.

Tras el análisis llevado a cabo, esta tesis concluye que la RNZB es la opción de ciclo de vida más económica (con un coste aproximado de 120 €/kWh) y que presenta una huella ambiental competitiva (0,24 kg CO₂ eq/kWh). Asimismo, se ha comprobado que un MOPSO bien configurado puede generar frentes de Pareto robustos que reducen hasta un 20 % el GWP y un 15 % el coste. La validación mediante sensibilidad y AHP garantiza la aplicabilidad práctica de las recomendaciones. Se propone como líneas futuras la incorporación de datos en tiempo real de operación, la exploración de electrodos con menor proporción de níquel y la extensión de la metodología a sistemas híbridos de energía para potenciar la circularidad y la resiliencia del sector.

Referencias:

MALVIYA, A.K.; ZAREHPARAST MALEKZADEH, M.; SANTARREMIGIA, F.E.; MOLERO, G.D.; VILLALBA-SANCHIS, I.; MARTÍNEZ-FERNÁNDEZ, P.; YEPES, V. (2024). Optimization of the Life cycle cost and environmental impact functions of NiZn batteries by using Multi-Objective Particle Swarm Optimization (MOPSO). Sustainability, 16(15):6425. DOI:10.3390/su16156425

MALVIYA, A.K.; ZAREHPARAST MALEKZADEH, M.; LI, J.; LI, B.; SANTARREMIGIA, F.E.; MOLERO, G.D.; VILLALBA-SANCHIS, I.; YEPES, V. (2024). A formulation model for computation to estimate the Life Cycle Environmental Impact of NiZn Batteries. Energies, 17(11):2751. DOI:10.3390/en17112751

MALVIYA, A.K.; ZAREHPARAST MALEKZADEH, M.; SANTARREMIGIA, F.E.; MOLERO, G.D.; VILLALBA-SANCHIS, I.; YEPES, V. (2024). A formulation model for computation to estimate the Life Cycle Cost of NiZn Batteries. Sustainability, 16(5):1965. DOI:10.3390/su16051965

Optimización estructural multiobjetivo en edificios: cómo reducir costos y emisiones con vigas de sección variable

Acaban de publicar nuestro artículo en la revista Energy and Buildings, de la editorial Elsevier, indexada en D1 del JCR. El estudio presenta una tipología estructural compuesta que combina columnas de hormigón armado con vigas de acero de sección variable híbrida transversal (THVS) para optimizar el coste económico, las emisiones de CO₂ y la energía incorporada en la construcción de edificios.

Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal, junto con el profesor Julián Alcalá, en la Universitat Politècnica de València.

El estudio plantea la siguiente pregunta de investigación: ¿en qué medida la optimización del diseño estructural de edificios en marco mediante el uso de una tipología compuesta con columnas de hormigón armado y vigas de sección variable transversamente híbridas (THVS) contribuye a la reducción del coste económico, de las emisiones de CO₂ y de la energía incorporada en la construcción?

Esta formulación permite abordar de manera precisa la problemática del impacto ambiental y económico del sector de la construcción, orientando la investigación hacia la identificación de configuraciones estructurales que minimicen estos factores mediante metodologías de optimización. La pregunta define claramente el problema central: la búsqueda de una alternativa estructural más eficiente que las tipologías tradicionales de hormigón armado.

Metodología

El estudio adopta un enfoque de optimización estructural basado en la combinación de Biogeography-Based Optimization (BBO) y Constrained Deterministic Local Iterative Search (CDLIS). Este enfoque permite buscar de manera eficiente soluciones en un espacio de diseño altamente complejo. Se analizan tres tipologías estructurales:

  1. Estructura tradicional de hormigón armado: Se optimizan las dimensiones de vigas, columnas y cimentaciones, así como la calidad del hormigón utilizado.
  2. Estructura compuesta con vigas THVS y uniones rígidas: Se sustituyen las vigas de hormigón armado por vigas THVS con conexiones fijas a las columnas.
  3. Estructura compuesta con vigas THVS y uniones articuladas: Similar a la anterior, pero con conexiones articuladas.

Las funciones objetivo optimizadas incluyen:

  • Coste económico: Calculado con base en los precios unitarios de materiales y procesos constructivos.
  • Emisiones de CO₂(e): Evaluadas según un enfoque «cradle-to-site», considerando la extracción de materias primas, fabricación y construcción.
  • Energía incorporada: Calculada en términos de consumo energético total en las fases de producción y construcción.

Se tienen en cuenta restricciones estructurales y de servicio según las normativas de diseño. Además, se implementa la interacción suelo-estructura mediante un modelo de tipo Winkler para evaluar los asentamientos diferenciales y su efecto en el diseño estructural.

Aportaciones relevantes

  • La tipología compuesta con vigas THVS y conexiones rígidas logra una reducción del 6 % en costes económicos, del 16 % en emisiones de CO₂ y del 11 % en energía incorporada para edificios con luces de 4 m.
  • Para edificios con luces de 8 m, la configuración con uniones articuladas permite reducir los costos económicos y las emisiones en un 5 % y un 6 %, respectivamente, aunque con un mayor consumo de energía.
  • Se demuestra que la menor carga axial transmitida por las vigas THVS reduce las solicitaciones en columnas y cimentaciones, lo que optimiza su diseño y reduce su impacto ambiental.
  • Se comprueba que el uso de acero de mayor calidad en las alas de las vigas THVS en comparación con el alma mejora la eficiencia estructural, con razones de hibridación (Rh) entre 1,2 y 2,0.

Discusión de resultados

El análisis de los resultados revela diferencias significativas entre las configuraciones estructurales. En los edificios con luces reducidas (4 m), las vigas THVS con uniones rígidas ofrecen el mejor rendimiento en términos de coste y sostenibilidad. En cambio, en edificios con luces mayores (8 m), las conexiones articuladas permiten un mejor aprovechamiento del material, aunque con una menor rigidez global.

Cabe destacar que la consideración de elementos de rigidización adicionales, como muros y losas, mejora notablemente el comportamiento de la tipología articulada, reduciendo su impacto ambiental en un 45 % y disminuyendo en un 60 % la carga axial sobre las columnas.

Líneas futuras de investigación

  • Perfeccionamiento del proceso de fabricación de vigas THVS, abordando aspectos como soldadura, control de calidad y optimización de ensamblaje.
  • Desarrollo de conexiones híbridas entre vigas THVS y columnas de hormigón armado, mejorando la eficiencia de transferencia de cargas.
  • Exploración de configuraciones mixtas de soporte, optimizando la selección de conexiones fijas o articuladas según las características del edificio.
  • Evaluación del comportamiento ante cargas dinámicas y sísmicas, considerando efectos de fatiga y estabilidad estructural.
  • Implementación de metamodelos para optimización computacional, reduciendo el tiempo de cálculo en simulaciones de alta fidelidad.

Conclusión

La optimización del diseño estructural de edificios en marco mediante el uso de vigas THVS permite reducir costes y mejorar la sostenibilidad ambiental. Las configuraciones con conexiones rígidas son particularmente eficientes en luces cortas, mientras que las conexiones articuladas son una alternativa viable en luces mayores cuando se combinan con elementos de rigidización adicionales. Estos hallazgos abren nuevas líneas de investigación en la aplicación y mejora de sistemas estructurales compuestos en ingeniería civil.

Referencia:

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Design optimization of a composite typology based on RC columns and THVS girders to reduce economic cost, emissions, and embodied energy of frame building construction. Energy and Buildings, 336:115607. DOI:10.1016/j.enbuild.2025.115607

 

Fases de un estudio de investigación operativa

La investigación operativa busca determinar la solución óptima para un problema de decisión con recursos limitados. Se trata de un procedimiento científico que analiza las actividades de un sistema de organización.

Las principales componentes de un modelo de investigación operativa son: alternativas, restricciones y un criterio objetivo para elegir la mejor opción. Las alternativas se representan como variables desconocidas que luego se utilizan para construir las restricciones y la función objetivo mediante métodos matemáticos. El modelo matemático establece la relación entre estas variables, restricciones y función objetivo. La solución consiste en asignar valores a las variables para optimizar (maximizar o minimizar) la función objetivo y cumplir con las restricciones. A esta solución se le denomina solución posible óptima.

El enfoque del estudio de la ingeniería de operaciones está relacionado con la toma de decisiones para aprovechar al máximo los recursos limitados. Para ello, utiliza herramientas y modelos adaptados a las necesidades para facilitar la toma de decisiones en la resolución de problemas. Implica un trabajo en equipo entre analistas y clientes, con una estrecha colaboración. Los analistas aportan conocimientos de modelado y el cliente, experiencia y cooperación.

Como herramienta para la toma de decisiones, la investigación de operaciones combina ciencia y arte. Es ciencia por sus técnicas matemáticas y arte, porque el éxito en todas las fases, antes y después de resolver el modelo matemático, depende de la creatividad y experiencia del equipo. La práctica efectiva de la investigación de operaciones requiere más que competencia analítica, e incluye la capacidad de juzgar cuándo y cómo utilizar una técnica, así como habilidades de comunicación y adaptación organizativa.

Es complicado recomendar acciones específicas, como las de la teoría precisa de los modelos matemáticos, para abordar factores intangibles. Solo pueden ofrecerse directrices generales para aplicar la investigación de operaciones en la práctica.

El estudio de investigación operativa consta de varias etapas principales, entre las que destacan las siguientes:

  1. Formulación y definición del problema.
  2. Construcción del modelo.
  3. Solución del modelo.
  4. Verificación del modelo y de la solución.
  5. Puesta en práctica y mantenimiento de la solución.

Aunque las fases del proyecto suelen iniciarse en el orden establecido, no suelen completarse en el mismo orden. La interacción entre las fases requiere revisarlas y actualizarlas continuamente hasta la finalización del proyecto. La tercera fase es la única de carácter puramente matemático, ya que en ella se aplican las técnicas y teorías matemáticas necesarias para resolver el problema. El éxito de las demás etapas depende más de la práctica que de la teoría, siendo la experiencia el factor clave para su correcta ejecución.

Definir el problema implica determinar su alcance, tarea que lleva a cabo todo el equipo de investigación de operaciones. El resultado final debe identificar tres elementos principales: 1) descripción de las alternativas de decisión, 2) determinación del objetivo del estudio y 3) especificación de las restricciones del sistema modelado. Además, se deben recolectar los datos necesarios.

La formulación del modelo es quizá la fase más delicada del proceso, ya que consiste en traducir el problema a relaciones matemáticas. Si el modelo se ajusta a un modelo matemático estándar, como la programación lineal, puede resolverse con los algoritmos correspondientes. Para ello, deben definirse las variables de decisión, la función objetivo y las restricciones. Si las relaciones son demasiado complejas para una solución analítica, se puede simplificar el modelo mediante un método heurístico o recurrir a una simulación aproximada. En algunos casos, puede ser necesaria una combinación de modelos matemáticos, simulaciones y heurísticas para resolver el problema de toma de decisiones.

La solución del modelo es la fase más sencilla de la investigación de operaciones, ya que utiliza algoritmos de optimización bien definidos para encontrar la solución óptima. Un aspecto clave es el análisis de sensibilidad, que proporciona información sobre la forma en que la solución óptima responde a cambios en los parámetros del modelo. Esto es crucial cuando los parámetros no se pueden estimar con precisión, puesto que permite estudiar cómo varía la solución cerca de los valores estimados.

La validación del modelo verifica si cumple su propósito, es decir, si predice adecuadamente el comportamiento del sistema estudiado. Para ello, se evalúa si la solución tiene sentido y si los resultados son aceptables, comparando la solución con datos históricos para verificar si habría sido la correcta. Sin embargo, esto no garantiza que el futuro imite al pasado. Si el modelo representa un sistema nuevo sin datos históricos, se puede usar una simulación como herramienta independiente para comprobar los resultados del modelo matemático.

La implantación de la solución de un modelo validado consiste en traducir los resultados en instrucciones claras para quienes gestionarán el sistema recomendado. Esta tarea recae principalmente en el equipo de investigación de operaciones. En esta fase, el equipo debe capacitar al personal encargado de aplicar el modelo, asegurándose de que puedan traducir sus resultados en instrucciones de operación y usarlo correctamente para tomar decisiones sobre los problemas que motivaron su creación.

Os dejo algún vídeo al respecto.

Referencias:

Altier, W. J. (1999). The thinking manager’s toolbox: Effective processes for problem solving and decision making. Oxford University Press.

Checkland, P. (1999). Systems thinking, system practice. Wiley.

Evans, J. (1991). Creative thinking in the decision and management sciences. South-Western Publishing.

Gass, S. (1990). Model world: Danger, beware the user as a modeler. Interfaces, 20(3), 60-64.

Morris, W. (1967). On the art of modeling. Management Science, 13, B707-B717.

Paulos, J. A. (1988). Innumeracy: Mathematical illiteracy and its consequences. Hill and Wang.

Taha, H. A., & Taha, H. A. (2003). Operations research: an introduction (Vol. 7). Upper Saddle River, NJ: Prentice hall.

Willemain, T. R. (1994). Insights on modeling from a dozen experts. Operations Research, 42(2), 213-222.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Diseño optimizado de edificios de pórticos de hormigón armado frente al colapso progresivo mediante metamodelos

El diseño estructural de los edificios plantea importantes retos para garantizar su seguridad y sostenibilidad. El colapso progresivo, provocado por eventos extremos como terremotos o explosiones, puede ocasionar daños catastróficos. Para reducir este riesgo, se propone una metodología de diseño apoyada en metamodelos que combina optimización estructural y criterios de seguridad, y que tiene en cuenta elementos que a menudo se pasan por alto, como los forjados, las pantallas de arriostramiento y la interacción suelo-estructura (SSI, por sus siglas en inglés).

El trabajo se enmarca dentro del proyecto de investigación RESILIFE que dirijo como investigador principal en la Universitat Politècnica de València. También es fruto de la colaboración con investigadores de Brasil y Cuba.

Metodología

Descripción del problema

Se estudiaron cinco edificios de pórticos de hormigón armado con diferentes configuraciones de plantas y luces. Las estructuras incluyen vigas, columnas, forjados y pantallas de arriostramiento. Además, se incorporó el diseño optimizado de cimentaciones, considerando la interacción con el suelo mediante modelos de elasticidad lineal. Las dimensiones de los elementos estructurales se ajustaron siguiendo las normas internacionales de diseño y se consideraron distintas combinaciones de carga para evaluar escenarios críticos.

Se realizaron simulaciones numéricas avanzadas que tuvieron en cuenta escenarios de carga extremos, incluyendo la pérdida de columnas críticas en diversas posiciones. En el análisis se tuvieron en cuenta factores de seguridad, límites de servicio y fallos estructurales para determinar los diseños óptimos. También se tuvieron en cuenta criterios de sostenibilidad y se midieron las emisiones de CO₂ asociadas a cada solución.

Optimización basada en un diseño robusto frente al colapso progresivo (ObRDPC)

La metodología ObRDPC se centra en minimizar las emisiones de CO₂ como función objetivo, garantizando simultáneamente la robustez estructural mediante restricciones de seguridad. Para evaluar el colapso progresivo y simular la pérdida de columnas críticas, así como analizar la redistribución de cargas, se empleó el método de camino alternativo (AP). La metodología incluye la verificación de estados límite últimos y de servicio, lo que garantiza el cumplimiento de los requisitos normativos.

El proceso de optimización incluye la definición precisa de las variables de diseño, como las dimensiones de las vigas, columnas y cimentaciones, así como el tipo de hormigón utilizado. Para maximizar la eficiencia estructural y minimizar los costos ambientales, se aplican técnicas de programación matemática.

Modelización de forjados y pantallas de arriostramiento

  • Forjados: se modelaron como elementos tipo placa de 12 cm de espesor y se conectaron a las vigas mediante nodos rígidos para asegurar la continuidad estructural. Se realizó una discretización adecuada para representar su comportamiento realista ante cargas verticales y horizontales. El análisis incluyó el comportamiento a flexión, los efectos de cargas concentradas y la interacción con los elementos perimetrales. Se consideraron diferentes configuraciones de refuerzo para maximizar la resistencia y minimizar las deformaciones.
  • Pantallas de arriostramiento: representadas mediante diagonales equivalentes elásticas, según las especificaciones normativas. Se definieron sus propiedades mecánicas mediante modelos experimentales previos, incluyendo el módulo de elasticidad y la resistencia a compresión. Se estudiaron distintos tipos de mampostería y su influencia en la resistencia general. Las pantallas de arriostramiento también se evaluaron como elementos activos en la redistribución de cargas después de eventos que provocan la pérdida de soporte, lo que mejora la estabilidad global del sistema estructural.

Interacción suelo-estructura (SSI)

Se consideró el asentamiento diferencial de las cimentaciones mediante coeficientes de rigidez calculados según modelos elásticos. El suelo se modeló como un medio elástico semiespacial. En el análisis se incluyó la interacción entre la superestructura y el terreno para capturar los efectos de asentamientos desiguales y su impacto en el estado de esfuerzos y deformaciones.

En el análisis se tuvieron en cuenta diferentes tipos de suelos, desde arcillas de baja resistencia hasta suelos granulares compactados. Se realizaron estudios paramétricos para evaluar la sensibilidad del sistema a variaciones en la rigidez del terreno y el módulo de elasticidad del hormigón.

Cinco estudios de casos que consideran la modelización de cimientos, forjados y pantallas de arriostramiento.

Optimización asistida por metamodelos

Se utilizaron técnicas avanzadas de optimización asistida por metamodelos para reducir la carga computacional. El proceso incluyó un muestreo inicial mediante muestreo hipercúbico latino para cubrir eficientemente el espacio de diseño, seguido de la construcción del metamodelo a través de técnicas de interpolación Kriging para aproximar las respuestas estructurales, evaluando múltiples configuraciones para garantizar la precisión. Posteriormente, se aplicó una optimización global utilizando algoritmos evolutivos, como la Biogeography-based Optimization (BBO), para explorar soluciones factibles y un método iterativo para refinar las soluciones y garantizar su viabilidad en condiciones críticas.

Resultados

Impacto de forjados y pantallas de arriostramiento

La inclusión de forjados y pantallas de arriostramiento mejoró significativamente la redistribución de cargas y la resistencia al colapso progresivo. El análisis mostró una reducción del 11 % en el impacto ambiental para diseños resistentes al colapso, en comparación con modelos que solo consideran vigas y columnas.

Se observó una mejora notable en la capacidad de redistribución de cargas después de la pérdida de columnas críticas. Las pantallas de arriostramiento actuaron como elementos resistentes adicionales, mitigando fallos en los elementos primarios y reduciendo los desplazamientos globales.

Comparación de enfoques de diseño

Se observó que aumentar el número de niveles incrementa la robustez estructural debido a la mayor redundancia de elementos. Sin embargo, el incremento de la longitud de las luces de las vigas reduce esta capacidad, por lo que es necesario utilizar secciones más robustas y aplicar mayores refuerzos.

Los modelos con luces de 8 m presentaron un aumento del 50 % en las emisiones de CO₂ cuando no se incluyeron forjados ni pantallas de arriostramiento. Al incorporarlos, se consiguió reducir este incremento a la mitad.

Recomendaciones prácticas para el diseño estructural

  1. Incluir forjados y pantallas de arriostramiento: Su integración mejora significativamente la resistencia al colapso progresivo, particularmente en edificios con luces amplias.
  2. Optimizar secciones estructurales: Diseñar secciones de vigas y columnas equilibrando rigidez y eficiencia económica.
  3. Evaluar diferentes tipos de cimentaciones: Incorporar análisis de interacción suelo-estructura para definir bases óptimas.
  4. Aplicar análisis paramétricos: Evaluar la sensibilidad de los diseños a variaciones en la resistencia del hormigón y las condiciones geotécnicas.
  5. Considerar combinaciones de carga extremas: Simular múltiples fallos para garantizar diseños robustos y seguros.

Conclusión

La optimización basada en un diseño robusto frente al colapso progresivo (ObRDPC) permite diseñar estructuras resistentes al colapso progresivo con menor impacto medioambiental. El uso de metamodelos y la consideración de forjados, pantallas de arriostramiento y la interacción suelo-estructura mejoran significativamente la seguridad estructural y la sostenibilidad del diseño. Se recomienda ampliar esta investigación a otros tipos de estructuras y condiciones geotécnicas complejas para validar y perfeccionar la metodología propuesta.

Referencia:

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementation. Engineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487

Como el artículo se ha publicado en abierto, lo podéis descargar aquí:

Pincha aquí para descargar

Modelización y métodos de optimización aplicados al consumo energético en los ferrocarriles

El sector ferroviario, reconocido por su eficiencia energética, sigue siendo objeto de investigación para mejorar su sostenibilidad. Pese a representar solo el 2 % del consumo energético del transporte en Europa, su relevancia en el transporte de mercancías y pasajeros impulsa la investigación para reducir su huella de carbono. La necesidad de reducir las emisiones de gases de efecto invernadero y mejorar la competitividad económica ha llevado a realizar estudios exhaustivos centrados en el consumo energético ferroviario.

 

Modelización del consumo energético

El modelado del consumo energético permite evaluar y simular el rendimiento de los trenes sin necesidad de realizar pruebas experimentales. Las técnicas de modelado se clasifican principalmente en modelos deterministas y métodos alternativos, como redes neuronales y modelos estocásticos. Estos enfoques permiten analizar múltiples escenarios operativos y optimizar las decisiones estratégicas y operativas.

Modelos deterministas

El enfoque predominante utiliza ecuaciones basadas en la ecuación de Davis, que describe la resistencia al movimiento del tren en función de factores como la velocidad, la masa y la fricción. Su modularidad permite incluir características como frenos regenerativos y sistemas de almacenamiento a bordo. Aunque estos modelos son fiables, requieren numerosos parámetros técnicos, algunos de los cuales son difíciles de obtener debido a su complejidad técnica y a la necesidad de realizar mediciones precisas.

La ecuación de Davis se amplía con frecuencia para incorporar factores como la inclinación de la vía, la resistencia aerodinámica y la fricción en curvas. Estas ampliaciones permiten crear simuladores más detallados que evalúan trayectorias específicas y condiciones operativas complejas. Algunos estudios incluyen incluso el consumo de sistemas auxiliares, como el aire acondicionado y la iluminación, lo que mejora la precisión.

Además, el modelado detallado permite tener en cuenta aspectos como la variación de la masa del tren debida a la carga de pasajeros o mercancías, así como las condiciones meteorológicas y la interacción entre trenes en redes densas. Gracias a estas mejoras, los simuladores no solo evalúan el consumo energético, sino también el impacto de distintas estrategias operativas.

Alternativas al enfoque determinista

Los modelos basados en redes neuronales (Neural Networks) y en técnicas estocásticas (Stochastic Methods) han sido menos explorados, pero ofrecen flexibilidad y pueden manejar incertidumbres como retrasos y cambios en la carga de pasajeros. Las redes neuronales permiten entrenar modelos a partir de grandes volúmenes de datos operativos, lo que les permite aprender patrones complejos que los modelos deterministas podrían pasar por alto. Sin embargo, estos métodos requieren grandes volúmenes de datos y procesos de entrenamiento complejos.

Los modelos estocásticos integran factores aleatorios, como fallos en el sistema y condiciones meteorológicas. Su uso es particularmente relevante en redes ferroviarias densas, donde las interacciones entre trenes generan escenarios difíciles de prever mediante métodos deterministas. Los estudios actuales sugieren que estas técnicas podrían aplicarse a la gestión en tiempo real de las redes ferroviarias para mejorar la eficiencia global.

Métodos de optimización

La optimización del consumo energético ferroviario implica resolver problemas complejos, desde la gestión de perfiles de velocidad hasta la distribución de tiempos de espera y la configuración de infraestructuras. Estos estudios buscan minimizar el consumo energético sin comprometer los tiempos de viaje ni la capacidad operativa.

La formulación de problemas de optimización se basa en variables como los tiempos de viaje, los perfiles de velocidad, el consumo energético y la utilización de las infraestructuras, y su enfoque varía en función de si se optimiza un solo tren o un sistema completo. Las metodologías utilizadas incluyen la optimización unidimensional, que se centra en variables individuales como, por ejemplo, minimizar el tiempo de viaje o el consumo energético, y la optimización multidimensional, que aborda simultáneamente varios factores como el tiempo, el consumo energético, los costos operativos y las emisiones contaminantes. Los problemas de optimización pueden ser estáticos, donde se consideran condiciones fijas, o dinámicos, que ajustan decisiones en tiempo real con datos operativos actualizados.

Los métodos de optimización incluyen la búsqueda directa, que evalúa todas las soluciones posibles y es adecuada para problemas simples con pocos parámetros, y el análisis de principios máximos, que obtiene soluciones exactas mediante ecuaciones matemáticas avanzadas, aunque para ello sea necesario realizar simplificaciones y hacerlos computacionalmente viables. Las metaheurísticas, inspiradas en procesos naturales, se utilizan ampliamente por su capacidad para gestionar espacios de solución complejos. Entre ellas destacan los algoritmos genéticos, que han demostrado su versatilidad y eficacia en numerosos estudios. También se emplean técnicas como la optimización por enjambre de partículas y la optimización por colonias de hormigas, que son útiles en problemas específicos como, por ejemplo, la asignación de horarios y rutas óptimas. Además, la optimización basada en aprendizaje combina aprendizaje individual y colectivo para mejorar los resultados en contextos operativos cambiantes.

Los métodos de optimización también incluyen técnicas como la programación lineal, la programación dinámica y los algoritmos híbridos, que combinan diferentes enfoques para superar las limitaciones de cada uno de ellos. Las técnicas más avanzadas integran sistemas de inteligencia artificial y algoritmos de predicción para ajustar dinámicamente los parámetros operativos.

Discusión y análisis estadístico

Un análisis estadístico muestra que los modelos deterministas predominan debido a su precisión y facilidad para incluir múltiples factores. En optimización, los algoritmos genéticos son ampliamente preferidos, aunque métodos como la optimización por enjambre de partículas han demostrado ser eficaces en ciertos problemas.

Estudios recientes sugieren la posibilidad de combinar diferentes algoritmos para cubrir todo el espacio de soluciones y abordar problemas complejos que incluyen interacciones entre múltiples trenes y redes ferroviarias completas. Estas estrategias son esenciales para implementar operaciones ferroviarias completamente autónomas y sostenibles.

Además, el uso de análisis estadísticos avanzados, como el análisis de correspondencias y el modelado predictivo, permite identificar patrones ocultos y mejorar la precisión de los modelos y algoritmos utilizados.

Conclusión

La combinación de modelos deterministas y técnicas complementarias podría mejorar la precisión de los estudios. En optimización, el desarrollo de enfoques híbridos que combinen diferentes algoritmos metaheurísticos podría suponer un gran avance en la gestión energética ferroviaria. La integración de datos en tiempo real y técnicas de aprendizaje automático (Machine Learning Techniques) podría revolucionar el campo y llevar a sistemas ferroviarios más sostenibles y eficientes.

Referencia:

MARTÍNEZ-FERNÁNDEZ, P.; VILLALBA-SANCHÍS, I.; YEPES, V.; INSA-FRANCO, R. (2019). A review of modelling and optimisation methods applied to railways energy consumption. Journal of Cleaner Production, 222:153-162. DOI:10.1016/j.jclepro.2019.03.037

Os dejo la versión autor del artículo, para su consulta.

Pincha aquí para descargar