Optimización del impacto ambiental en el ciclo de vida de estructuras híbridas

Este documento sintetiza los resultados de un estudio sobre la optimización del impacto ambiental del ciclo de vida (LCEIO) en ingeniería estructural, centrado en una tipología de estructura compuesta innovadora de hormigón armado y acero (RC-THVS) como alternativa sostenible para la construcción de edificios porticados. El sistema RC-THVS integra columnas de hormigón armado con vigas de acero híbridas de sección transversal variable (THVS).

Los resultados clave demuestran que la aplicación de la LCEIO reduce significativamente el impacto ambiental, ya que se logra una disminución de hasta un 32 % en las emisiones de potencial de calentamiento global (GWP) en comparación con los edificios diseñados tradicionalmente. La mejora más sustancial se observa en la fase de fabricación, puesto que las vigas THVS reducen las emisiones hasta en un 70 % en comparación con los perfiles I convencionales. Además, los impactos del mantenimiento se reducen en un 45 % gracias a la geometría optimizada de las vigas.

Al comparar las soluciones optimizadas, la tipología compuesta con uniones rígidas (Comp F) supera sistemáticamente a los sistemas de hormigón armado (RC) en entornos de baja agresividad, con una reducción de aproximadamente el 30 % en las emisiones del ciclo de vida. En entornos altamente agresivos, la ventaja se mantiene, aunque disminuye al 21 % debido al mayor impacto del mantenimiento del acero. Otra ventaja del sistema RC-THVS es que reduce el peso estructural, lo que disminuye las cargas axiales en las columnas y en las cimentaciones. Cuando se integran elementos rigidizadores, como losas y muros, en la superestructura, la eficiencia del sistema aumenta y se pueden reducir las emisiones hasta en un 42 %, lo que posiciona la configuración con uniones articuladas (Comp P) como la opción óptima para grandes luces. El estudio concluye que la combinación de LCEIO y las configuraciones compuestas RC-THVS ofrece una estrategia escalable y eficiente para diseñar soluciones edificatorias más sostenibles y respetuosas con el medio ambiente.

Introducción y contexto

La industria de la construcción es una de las principales causantes de la degradación medioambiental, por lo que es necesario transformarla para que adopte prácticas más sostenibles. La optimización estructural surge como una herramienta esencial para este propósito, ya que automatiza el diseño, controla el tipo y la cantidad de material utilizado y fomenta tipologías innovadoras. Aunque la investigación se ha centrado tradicionalmente en la optimización de estructuras convencionales de hormigón armado, existe una necesidad creciente de integrar tipologías compuestas e híbridas en marcos de evaluación del ciclo de vida completo.

Las estructuras compuestas, que combinan materiales como el acero y el hormigón, ofrecen un mejor rendimiento estructural y una mayor sostenibilidad. Sin embargo, su integración con técnicas de optimización ha sido limitada, centrándose a menudo en componentes aislados y obviando el rendimiento a largo plazo. Este estudio aborda estas limitaciones aplicando un marco LCEIO a la nueva tipología RC-THVS y comparándola directamente con un sistema de hormigón armado convencional. La investigación tiene en cuenta factores críticos como la interacción suelo-estructura (SSI), el envejecimiento de los materiales y los escenarios de mantenimiento en diversas condiciones ambientales, y utiliza un algoritmo de optimización eficiente (LHS-CINS) para superar los altos costes computacionales asociados a las simulaciones de alta fidelidad.

Metodología de optimización

Sistemas estructurales y casos de estudio

El estudio evalúa una tipología compuesta (RC-THVS) y otra tradicional de hormigón armado (RC).

  • Tipología RC tradicional: compuesta por vigas, columnas y cimentaciones de hormigón armado con uniones rígidas.
  • Tipología Compuesta RC-THVS: Integra columnas y cimentaciones de RC con vigas de acero THVS. Se analizan dos variantes de conexión viga-columna:
    • Comp F: Conexiones rígidas.
    • Comp P: Conexiones articuladas.

El rendimiento de estas tipologías se evalúa en tres casos de estudio de edificios porticados que varían en altura y en dimensiones del vano, como se muestra en la Figura 1 del documento fuente. El modelado, el análisis y el diseño se han realizado con el programa informático SAP2000 y las verificaciones de las vigas THVS se han procesado mediante una rutina personalizada en MATLAB.

Cargas consideradas Valor
Carga muerta en plantas inferiores 4,80 kN/m²
Carga muerta en cubierta 5,40 kN/m²
Carga viva en plantas inferiores (oficinas) 3,00 kN/m²
Carga viva en cubierta 0,80 kN/m²
Carga de viento extrema Presión positiva variable de 0,92 a 1,50 kN/m², presión negativa variable de 0,50 a 0,83 kN/m².

Formulación del problema de optimización

Función objetivo: impacto ambiental del ciclo de vida

La función objetivo a minimizar es el potencial de calentamiento global (GWP), medido en kg de CO₂ equivalente (kg CO₂ eq), evaluado a lo largo de un ciclo de vida de 100 años. Se consideran dos escenarios de exposición ambiental: baja agresividad y alta agresividad (marina).

GWP = Σ (elcaj × mj)

Donde elcaj es el impacto ambiental unitario de cada proceso j en cada etapa del ciclo de vida i, y mj es la medida que cuantifica dicho proceso.

Análisis del ciclo de vida (ACV)

El ACV incluye cuatro etapas principales, modeladas con el software OpenLCA y datos de Ecoinvent v3.7.1 y BEDEC (2016):

  1. Fabricación: Incluye la producción de hormigón, acero de refuerzo y vigas THVS. Para estas últimas, se consideran los procesos de corte, soldadura y pintura (pintura alquídica).
  2. Construcción: Abarca el transporte de materiales (100 km) y el consumo de energía de la maquinaria para la manipulación, el montaje y los trabajos de cimentación (excavación y relleno).
  3. Uso y mantenimiento:
    • Elementos RC: La vida útil se calcula con el modelo de Tuutti (1982), considerando la carbonatación y la penetración de cloruros. Las reparaciones (46,58 kg CO₂ eq/m²) se realizan si la vida útil es inferior a 100 años. Se contabiliza la absorción de CO₂ mediante la carbonatación.
    • Vigas THVS: El mantenimiento se realiza conforme a la norma ISO 12944:2018. El ciclo de mantenimiento del sistema de recubrimiento protector se extiende por 18 años en entornos de baja agresividad y por 9 años en entornos de alta agresividad e incluye retoques, repintado completo y reemplazo total del recubrimiento.
  4. Fin de vida: Incluye la demolición, el desmontaje, la trituración del hormigón y el reciclaje. Se asume una tasa de reutilización/reciclaje del 93 %/7 % para el acero estructural y del 42 %/58 % para los elementos de RC.

Variables de diseño

El problema de optimización utiliza variables discretas.

  • Tipología RC (19 variables): dimensiones de vigas (4), dimensiones de columnas (8), rectangularidad de las cimentaciones (4) y tipo de hormigón (3).
  • Tipología Compuesta (30 variables): se reemplazan las 5 variables de las vigas RC por 16 variables para las vigas THVS, que definen:
    • Alturas de la sección central y de los extremos (hw1, hw2).
    • Espesor del alma (tw) y de las alas (tf).
    • Ancho del ala (bf).
    • Posición del punto de transición (TP).
    • Calidad del acero para el alma (fyw) y las alas (fyf), con 8 grados de calidad disponibles (S235 a S600).

Algoritmo de solución: LHS-CINS

Para abordar el alto coste computacional de las Simulaciones de Alta Fidelidad (HFS), se utiliza un método híbrido:

  1. Muestreo de Hipercubo Latino (LHS): Genera un conjunto inicial de 100 soluciones bien distribuidas en el espacio de diseño.
  2. Muestreo Iterativo de Vecindad Restringido (CINS): Un algoritmo de búsqueda local mejorado basado en la mejor solución encontrada mediante LHS. CINS explora el vecindario de la solución actual y combina inteligentemente las mejoras para acelerar la convergencia y escapar de óptimos locales.

Esta estrategia LHS-CINS demostró ser significativamente más rápida, requiriendo un 53 % menos de HFS que los algoritmos heurísticos tradicionales, como el Biogeography-Based Optimization (BBO), para alcanzar una solución de alta calidad.

Resultados clave y análisis

Impacto de la LCEIO en el diseño

La optimización estructural reduce drásticamente el impacto ambiental en comparación con un enfoque de diseño tradicional.

  • Diseños RC: La LCEIO reduce el impacto en un ~15 %.
  • Sistemas compuestos: La LCEIO reduce el impacto en más del 30 % (hasta un 32 % en la configuración con uniones rígidas, Comp F).
  • A nivel de elementos: Las vigas THVS optimizadas muestran una reducción del impacto entre el 47 % y el 55 % en comparación con los perfiles W de acero utilizados en el diseño tradicional.

La mayor ventaja de las vigas THVS se observa en las fases de fabricación (reducciones de hasta el 74 %) y de mantenimiento (~45 %), gracias a su eficiencia en materiales y a su geometría cónica.

Ventajas de la tipología compuesta optimizada

Entornos de baja agresividad

  • Rendimiento global: La tipología Comp F es la más eficiente, reduciendo el GWP total en un 30,50 % (CS-1), un 27,17 % (CS-2) y un 27,49 % (CS-3) en comparación con la tipología RC optimizada.
  • Rendimiento de las vigas: Las vigas THVS superan a las de RC, con reducciones de emisiones de ~56 % en vanos de 4 m y de ~44 % en vanos de 8 m.
  • Beneficios sistémicos: La reducción del peso de las vigas THVS disminuye las emisiones de columnas (hasta un 16,31 %) y de cimentaciones (hasta un 12,12 %).

La tipología Comp P, a pesar del buen rendimiento individual de sus vigas, presenta un impacto global mayor debido a su menor rigidez, lo que se traduce en mayores solicitaciones en las columnas.

Entornos de alta agresividad

  • Rendimiento global: La tipología Comp F sigue siendo superior a la RC, pero su ventaja se reduce a un promedio del 21 % (por ejemplo, un 19,65 % en CS-1 y un 14,55 % en CS-3).
  • Impacto del mantenimiento: El principal factor de esta reducción es el fuerte aumento de las emisiones de mantenimiento de los elementos de acero. Para la tipología compuesta, el impacto de la fase de uso y mantenimiento pasa del 7 % al 28 % del de la fase de fabricación.

A pesar de ello, los beneficios fundamentales, como la reducción de la carga axial en las columnas (hasta un 17 %), se mantienen.

Estudio paramétrico de diseños óptimos

  • Vigas THVS:
    • Geometría: Las soluciones optimizadas presentan geometrías cónicas eficientes. En entornos de alta agresividad, las secciones tienden a ser más robustas para reducir la superficie expuesta y, por tanto, el impacto del mantenimiento.
    • Material: Predominan las configuraciones híbridas (Rh > 1,0). Se observa una tendencia al uso de acero de menor grado (S235) para las almas de las vigas exteriores, combinado con aceros de mayor resistencia para las alas.
  • Columnas y Cimentaciones:
    • Columnas: Se observa una rectangularidad estratégica para mejorar la rigidez frente a las cargas de gravedad. Las columnas exteriores se diseñan con mayores dimensiones en el eje principal de flexión. Se favorece el uso de hormigón de alta resistencia (35-40 MPa) para mejorar la capacidad portante y la durabilidad.
    • Cimentaciones: La mayoría de las zapatas tienden a ser cuadradas o de baja rectangularidad. Se prefiere el uso de hormigón de menor impacto ambiental (25 MPa), ya que no está expuesto a la carbonatación y sus solicitaciones son principalmente de flexión.

Influencia de elementos rigidizadores adicionales

La inclusión de losas de 12 cm y muros de mampostería en el modelo estructural mejora significativamente el rendimiento de las tipologías compuestas, mitigando la desventaja de la menor rigidez del pórtico.

  • Tipología Comp P: Se beneficia enormemente, con una reducción del impacto total de casi el 42 % en CS-2. Para edificios de grandes vanos (CS-3), la tipología Comp P resulta la solución óptima, con una reducción del GWP superior al 30 %.
  • Tipología Comp F: Mantiene su ventaja en edificios de vanos pequeños, aunque con mejoras más modestas.

Estos resultados indican que, para pórticos desnudos, las tipologías compuestas pueden ser un 25-30 % menos contaminantes, y esta cifra puede aumentar al 40-50 % en edificios donde todos los componentes contribuyen a la rigidez global.

Discusión y perspectivas futuras

El estudio confirma que el uso de algoritmos de inteligencia artificial como herramientas de diseño supera a los enfoques tradicionales, logrando reducciones globales de impacto de más del 30 %. La tipología compuesta RC-THVS con uniones rígidas se establece como una solución superior en la mayoría de los escenarios, no solo por la eficiencia de las vigas, sino también por los beneficios en cascada en las columnas y las cimentaciones.

El análisis paramétrico revela cómo el algoritmo de optimización equilibra el rendimiento inicial con la durabilidad a largo plazo, por ejemplo, seleccionando aceros de mayor calidad en el alma para reducir el área de superficie expuesta y las futuras demandas de mantenimiento.

Líneas de investigación futuras:

  • Robustez estructural: Aplicar la optimización para mejorar la resistencia al colapso progresivo o al fuego.
  • Configuraciones complejas: Extender el marco a edificios de gran altura o con plantas irregulares y evaluar el comportamiento bajo escenarios multi-riesgo (sismos, fuego).
  • Soluciones alternativas: Utilizar la plataforma de optimización para explorar otros sistemas, como vigas híbridas con aberturas en el alma o sistemas de madera de ingeniería.
  • Precisión del modelo ACV: Incorporar enfoques basados en la incertidumbre (p. ej., optimización basada en la fiabilidad) para modelar la variabilidad de las tasas de degradación, las propiedades de los materiales y los intervalos de mantenimiento.
  • Optimización multiobjetivo: Formular problemas que aborden simultáneamente la constructibilidad, la seguridad y el impacto ambiental.

Conclusiones finales

La aplicación de la Optimización del Impacto Ambiental del Ciclo de Vida (LCEIO) a la tipología compuesta RC-THVS aporta beneficios sustanciales para la construcción sostenible de edificios porticados.

  1. Reducción significativa del impacto: Los sistemas compuestos optimizados reducen el impacto del ciclo de vida hasta en un 32 % en comparación con diseños convencionales, con reducciones de hasta el 70 % en la fase de fabricación y del 45 % en la de mantenimiento.
  2. Superioridad sobre el hormigón armado: En comparación con los sistemas de RC optimizados, la configuración compuesta con uniones rígidas logra una reducción de emisiones del 30 % en entornos de baja agresividad y mantiene una ventaja del 21 % en entornos de alta agresividad.
  3. Eficiencia sistémica: Las vigas THVS, al reducir el peso estructural, disminuyen las solicitaciones y el impacto ambiental de las columnas y las cimentaciones.
  4. Flexibilidad de diseño: La inclusión de elementos rigidizadores, como losas y muros, puede hacer que la configuración con uniones articuladas sea la más sostenible para edificios de grandes vanos, lo que demuestra la adaptabilidad del sistema.

En conjunto, los hallazgos confirman que la combinación de LCEIO con la tipología RC-THVS representa una alternativa altamente sostenible y eficiente frente a los pórticos tradicionales de hormigón armado.

Referencia:

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Life-cycle environmental impact optimization of an RC-THVS composite frame for sustainable construction. Engineering Structures, 345, 121461. DOI:10.1016/j.engstruct.2025.121461 Featured Paper Award

Como se trata de un artículo publicado en abierto, os dejo un enlace para su descarga.

1-s2.0-S0141029625018528-main (3)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El arte de predecir lo invisible: claves para entender la inferencia estadística

¿Cómo podemos determinar la intención de voto de toda una nación o evaluar la eficacia de un nuevo fármaco sin entrevistar a todos los ciudadanos ni tratar a todos los pacientes del planeta? En nuestra vida cotidiana, nos enfrentamos constantemente al reto de tomar decisiones globales basadas en información limitada. Medir el total de elementos suele ser física o económicamente inviable.

Como expertos en comunicación de datos, consideramos la inferencia estadística como el puente intelectual definitivo. Es la disciplina que nos permite pasar de lo que vemos —una pequeña muestra— a la realidad oculta de la población total. En esencia, es la herramienta científica que transforma la observación de unos pocos en el conocimiento preciso de la mayoría.

Población frente a muestra: la ventana hacia la verdad

Para descifrar la realidad, primero debemos distinguir entre los dos protagonistas del análisis: la población y la muestra. La población es el conjunto total que deseamos estudiar y la muestra es un subconjunto extraído de forma aleatoria que nos sirve de ventana para observar la población.

En este proceso, manejamos conceptos que debemos diferenciar con rigor:

  • Parámetro: Es el número «secreto» que describe la población. En la práctica, su valor es desconocido porque no podemos examinar a cada individuo. Usamos símbolos como la media poblacional (μ), la desviación típica (σ), la varianza (σ²) o el porcentaje o la proporción poblacional (p).
  • Estadístico: Es el número que calculamos directamente a partir de los datos muestrales. En este ámbito operamos con la media muestral, la desviación típica muestral, la varianza o la proporción muestral.

Dado que no podemos conocer el parámetro real, nos vemos obligados a operar en el mundo de los estadísticos para realizar estimaciones. El objetivo es claro:

«Extraer conclusiones sobre una población a partir de los datos de una muestra».

El intervalo de confianza: ¿qué tan cerca estamos de la realidad?

Dado que trabajar con muestras implica un error aleatorio inevitable, la estadística no ofrece un único número como verdad absoluta. En su lugar, construimos un intervalo de confianza de nivel C.

Conceptualmente, este rango se define mediante una estructura lógica: estimación ± error de la estimación.

No proporcionamos un único valor porque, en la práctica, el parámetro no se conoce. Por ello, el nivel de confianza C no es solo un porcentaje, sino la respuesta a una pregunta vital sobre la fiabilidad de nuestro trabajo: «¿Con qué frecuencia daría una respuesta correcta este método si lo utilizara muchas veces?». Si afirmamos que tenemos un 95 % de confianza, estamos diciendo que, si repitiéramos el muestreo el 95 % de las veces, nuestro intervalo contendría el verdadero valor del parámetro.

Inocente hasta que se demuestre lo contrario: la hipótesis nula (H0)

Como expertos, empleamos el contraste de hipótesis para evaluar si la evidencia de la muestra es suficiente para inferir una condición en toda la población. Este mecanismo examina dos afirmaciones opuestas:

La hipótesis nula (H0) representa el estado «habitual» o lo que cabría esperar si no hubiera cambios. Es una afirmación de «ausencia de efecto» o de «no diferencia». Algunos ejemplos críticos de H₀ son:

  • El acusado no es culpable (es inocente).
  • No hay embarazo.
  • No hay presencia de cáncer.

Para decidir si rechazamos la hipótesis nula, calculamos el p-valor (o significación muestral). A diferencia de lo que se cree popularmente, el p-valor no es un corte arbitrario, sino la probabilidad de obtener nuestros resultados si la hipótesis nula fuera cierta. Comparamos este p-valor con el nivel de significación (α), que es el límite preestablecido. Si p ≤ α, la evidencia es tan fuerte que rechazamos la situación «habitual» en favor de la hipótesis alternativa.

El dilema del error: falsos positivos y falsos negativos

En cualquier prueba estadística, asumimos el riesgo de tomar una decisión equivocada. Estos errores se dividen en dos categorías fundamentales:

  • Error tipo I (α): el «falso positivo» o riesgo del fabricante. Ocurre cuando rechazamos la hipótesis nula cuando esta es verdadera (por ejemplo, operar a una persona sana o condenar a un inocente).
  • Error tipo II (β): el «falso negativo». Sucede cuando aceptamos la hipótesis nula cuando es falsa (por ejemplo, declarar inocente a un asesino o no detectar una enfermedad).

Para minimizar estos riesgos, no solo tenemos en cuenta el nivel de significación (típicamente fijado en el 5 %), sino que también buscamos maximizar la potencia de la prueba (1 – β). Esta potencia representa nuestra capacidad para detectar un efecto cuando realmente existe y depende directamente del tamaño de la muestra y del nivel de significación. Decimos que un resultado tiene significación estadística cuando es tan improbable que no puede atribuirse razonablemente al azar (p ≤ α).

Propiedades del buen estimador

Para que nuestras conclusiones sean robustas, los métodos que utilizamos deben poseer cuatro pilares técnicos extraídos de la teoría de la probabilidad:

  • Sesgo: el estimador debe carecer de desviaciones sistemáticas; su media debe coincidir con el parámetro real.
  • Eficiencia: buscamos la menor variabilidad posible en los resultados.
  • Convergencia y consistencia: estas propiedades garantizan la fiabilidad del método a largo plazo.

La lógica matemática que hay detrás de la eficiencia es poderosa: si aumenta el tamaño de la muestra, disminuye la varianza del estimador. Esta es la razón técnica por la que una encuesta con miles de personas es más «eficiente» y nos acerca más a la verdad que una consulta informal: al reducir la varianza, estrechamos el margen de error y ganamos precisión.

Conclusión: una mirada al futuro de las decisiones

La inferencia estadística es la ciencia que se ocupa de gestionar la incertidumbre para alcanzar la precisión. Nos enseña que, si bien es imposible tener certeza absoluta sobre una población masiva, el rigor matemático nos permite actuar con una seguridad asombrosa.

Aceptar que nuestras conclusiones conviven con un nivel de confianza y un riesgo de error no debilita el conocimiento, sino que lo fortalece al hacerlo verificable y científico. La próxima vez que lea el titular de una encuesta electoral o el estudio de un nuevo tratamiento, no se quede en la superficie. Pregúntese: ¿cuál es el margen de error?, ¿es el p-valor realmente significativo? Si posee estas cinco claves, pasará de ser un consumidor pasivo de datos a ser un pensador crítico capaz de ver lo invisible.

En esta conversación puedes escuchar las ideas más interesantes sobre inferencia estadística.

El vídeo resume bien los conceptos más importantes de este tema.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Un algoritmo que imita al metal para resolver problemas imposibles

Introducción: Atrapado en lo «suficientemente bueno».

¿Alguna vez has sentido que encontraste una solución funcional a un problema, pero tenías la persistente sensación de que existía una respuesta mucho mejor? En la vida y en la tecnología, es fácil quedarse atascado en una solución «buena», pero no óptima, en un callejón sin salida conocido como «mínimo local». Salir de ahí requiere una estrategia poco convencional.

Es aquí donde entra en juego el recocido simulado, una ingeniosa metaheurística estocástica que toma su inspiración de la metalurgia. Desarrollado de forma independiente por Kirkpatrick, Gelatt y Vecchi en 1983 y por Černý en 1985, este algoritmo es, en esencia, una estrategia de búsqueda inteligente que utiliza la aleatoriedad de forma controlada para encontrar soluciones óptimas en problemas de gran complejidad.

Este artículo explora las lecciones más sorprendentes y contraintuitivas que este poderoso algoritmo puede enseñarnos para abordar y resolver problemas verdaderamente complejos.

1. El secreto está en la metalurgia: un algoritmo que piensa como un herrero.

La genialidad del recocido simulado radica en su analogía directa con el proceso de recocido de metales. El herrero calienta el metal a altas temperaturas y luego lo enfría lentamente y de forma controlada para eliminar sus imperfecciones y lograr una estructura interna sólida y estable. El algoritmo hace exactamente lo mismo, pero en el mundo abstracto de los datos y las soluciones.

Los conceptos clave de esta analogía son:

  • «Temperatura» alta: al principio, el algoritmo opera a una «temperatura» elevada. Esto corresponde a una fase de exploración amplia, en la que se consideran muchísimas soluciones posibles, incluso las que parecen malas, para obtener una visión global del problema.
  • «Enfriamiento» controlado: a medida que avanza el proceso, la «temperatura» se reduce gradualmente. Este «enfriamiento» suele seguir un programa geométrico (como Tt + 1 = α·Tt), lo que obliga al algoritmo a ser más selectivo. Se pasa de la exploración a la explotación, enfocándose progresivamente en las regiones más prometedoras.
  • «Energía» del sistema: en el algoritmo, la «energía» de una configuración corresponde a la función objetivo que se busca optimizar (por ejemplo, minimizar el coste, la distancia o el error).
  • «Estructura cristalina estable» de baja energía: el objetivo final del recocido es lograr un estado de mínima energía que, en el ámbito de la optimización, representa la solución óptima o casi óptima del problema.

2. La estrategia contraintuitiva: aceptar un empeoramiento para poder mejorar.

La característica más paradójica y, a la vez, más poderosa del recocido simulado es su capacidad para aceptar movimientos que, en un principio, empeoran la solución actual. Esa es la esencia de la exploración: a diferencia de los algoritmos «codiciosos» que solo aceptan mejoras, este método sabe que, a veces, hay que atravesar un pequeño valle para escalar una montaña más alta.

No se trata de un error, sino de una estrategia deliberada para evitar quedar atrapado en los mínimos locales. Antes de reducir la temperatura, el algoritmo ejecuta una serie de iteraciones (una cadena de Markov) para explorar a fondo el entorno de la solución actual. La probabilidad de aceptar un «mal» movimiento es mayor cuando la «temperatura» es alta y disminuye a medida que el sistema se «enfría», según el factor de Boltzmann exp(-ΔE/T). Al principio, la exploración es agresiva, pero al final el algoritmo se vuelve mucho más selectivo.

«Esta aceptación controlada de transiciones no mejoradoras permite al algoritmo escapar de los mínimos locales y evitar una convergencia prematura».

3. La perfección es enemiga de lo práctico: por qué «casi óptimo» es un gran resultado.

Teóricamente, para garantizar que el recocido simulado encuentre la solución globalmente óptima, podría requerir un tiempo de ejecución infinito. Sin embargo, su verdadero valor no radica en la perfección teórica, sino en su gran pragmatismo. La lección fundamental aquí es el equilibrio entre la perfección teórica y la aplicación práctica.

El algoritmo «produce de forma consistente soluciones de alta calidad en escalas de tiempo computacionales prácticas». En ingeniería, logística o finanzas, donde los recursos y el tiempo son limitados, una solución excelente entregada a tiempo es mucho más valiosa que una solución perfecta que nunca se entrega. El recocido simulado encarna este principio de diseño esencial: optimizar para el mundo real, no para un ideal teórico.

4. De vendedores viajeros a puentes de hormigón: la asombrosa versatilidad del algoritmo.

La solidez del recocido simulado se evidencia en la increíble diversidad de problemas que puede resolver. Su capacidad para explorar paisajes de soluciones complejos lo convierte en una herramienta fiable cuando no existen solucionadores específicos para un problema.

Algunos de sus campos de aplicación más impactantes incluyen:

  • Rutas y logística: Ha demostrado su eficacia al resolver el problema del vendedor viajero (TSP), encontrando rutas óptimas para conectar múltiples ciudades.
  • Procesamiento de imágenes: Se utiliza en la restauración de imágenes dañadas o con ruido, así como para resolver problemas de segmentación complejos.
  • Química molecular: Es una herramienta estándar en la cristalografía de macromoléculas que permite determinar la estructura tridimensional de moléculas complejas.
  • Ingeniería estructural: Permite realizar optimizaciones de gran impacto, como el diseño de puentes de hormigón pretensado, muros de contención de bajo coste y, en especial, la minimización simultánea del coste y de las emisiones de CO₂ en el diseño de columnas de hormigón armado.

5. A veces, una regla simple supera al azar: la alternativa determinista.

Un giro interesante en la historia de este algoritmo es la variante llamada «Aceptación por umbral» (TA, por sus siglas en inglés). Este método sustituye la regla de aceptación probabilística del recocido simulado por una regla determinista mucho más sencilla.

En lugar de calcular una probabilidad, TA solo acepta una solución peor si el empeoramiento es inferior a un umbral predefinido. Este umbral, al igual que la temperatura del algoritmo original, disminuye gradualmente a lo largo del proceso. Lo sorprendente es el resultado: estudios empíricos han demostrado que, en ciertos problemas como la planificación de tareas, la planificación forestal y la asignación de recursos, este método más simple «puede tener un rendimiento comparable o incluso superior al SA». Una lección de que, a veces, la solución más elegante no es la más compleja.

Conclusión: ¿te atreves a dar un paso atrás?

La gran lección del recocido simulado es una profunda metáfora de la resolución de problemas: el progreso no siempre es una línea recta. La verdadera optimización requiere dominar el cambio gradual, desde una exploración audaz hasta una explotación enfocada. Aceptar retrocesos temporales y controlados no es un signo de fracaso, sino una estrategia inteligente para alcanzar un objetivo mucho más alto a largo plazo.

La próxima vez que te enfrentes a un problema complejo, ¿te atreverás a explorar un camino que parezca peor al principio para encontrar una solución verdaderamente excepcional al final?

En esta conversación puedes escuchar las ideas más interesantes sobre el tema.

Este vídeo resume bien los conceptos más importantes del Simulated Annealing.

Te dejo un documento que puede interesarte.

Recocido_Simulado_Del_Caos_a_la_Solución

Referencia:

Yepes, V. (2026). Heuristic Optimization Using Simulated Annealing. In: Kulkarni, A.J., Mezura-Montes, E., Bonakdari, H. (eds) Encyclopedia of Engineering Optimization and Heuristics. Springer, Singapore. https://doi.org/10.1007/978-981-96-8165-5_48-1

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Crecimiento infinito en un planeta finito?

Introducción: El despertar de una conciencia colectiva.

Durante dos siglos, el modelo industrial funcionó como un motor ciego que ignoraba el agotamiento de su propio combustible. Según la lógica de la Revolución Industrial, el progreso se concebía como una expansión lineal e inagotable, en la que la naturaleza era una reserva infinita de materias primas y un vertedero sin fondo.

La teoría económica tradicional se limitaba a buscar un «equilibrio de mercado» basado estrictamente en el precio, la oferta y la demanda. Sin embargo, este enfoque falló al no considerar los límites biofísicos del planeta. Hoy sabemos que ignorar el capital natural no solo es un error ecológico, sino también una imprudencia financiera y social.

El propósito de este análisis es explorar los puntos de inflexión que nos obligaron a despertar. Desde las advertencias del MIT hasta la Agenda 2030, estos hitos narran cómo la humanidad ha intentado rediseñar su futuro ante la evidencia de que el crecimiento material no puede ser eterno.

El error de Malthus y la trampa de las revoluciones agrícolas.

A finales del siglo XVIII, Thomas Malthus planteó una advertencia: mientras la producción de alimentos avanzaba en progresión aritmética, la población lo hacía en progresión exponencial. Esta brecha, conocida como la «catástrofe maltusiana», sugería que el hambre era el freno inevitable de nuestra especie.

Sin embargo, la Revolución Agraria y la posterior Revolución Verde de los años sesenta introdujeron un arsenal de semillas de alto rendimiento, fertilizantes químicos y riego intensivo. Parecíamos haber «vencido» a Malthus, pero en realidad solo aumentamos el consumo de recursos finitos y de energía.

Desde una perspectiva estratégica, la tecnología actuó como un analgésico que invisibilizó los límites biofísicos del planeta. Al aumentar artificialmente la capacidad de carga del suelo, ocultamos el problema de fondo: seguimos operando bajo un sistema que exige una expansión material infinita en un entorno limitado.

1972: El despertar político y la confirmación de la ciencia.

1972 fue el año en que la diplomacia y el pensamiento sistémico convergieron. Mientras 113 naciones se reunían en la Cumbre de Estocolmo para crear el PNUMA, un think tank pionero, el Club de Roma, publicaba Los límites del crecimiento, un informe del MIT que desafiaba el dogma del progreso ilimitado.

El modelo científico analizó cinco variables críticas: población, producción industrial, alimentos, contaminación y recursos naturales. La conclusión fue un jarro de agua fría para la clase política de la época, ya que por primera vez se introducía la noción de que el crecimiento exponencial colapsaría a corto plazo.

«Si el incremento actual de la población mundial, la industrialización, la contaminación, la producción de alimentos y la explotación de los recursos naturales se mantienen sin variar, se alcanzarán los límites absolutos del crecimiento de la Tierra en los próximos cien años».

Esta tesis resultó disruptiva, pues demostró que no podíamos gestionar el planeta como compartimentos estancos. El año 1972 marcó el inicio de la conciencia política moderna al establecer que la salud de los ecosistemas es la infraestructura básica sobre la que se asienta cualquier economía viable.

La crisis del petróleo: el catalizador de la eficiencia y de la brecha social.

Entre 1973 y 1980, la «edad de oro» de los combustibles baratos llegó a su fin. El precio del barril de crudo aumentó de 1,8 a 11,6 dólares, lo que desencadenó una inflación global que no solo afectó al sector energético, sino que también tuvo profundas repercusiones sociales. La crisis agravó la brecha entre ricos y pobres y provocó recortes masivos en los programas de salud, educación y bienestar.

La recesión y el desempleo en el sector manufacturero obligaron a la industria a reinventarse bajo el lema de la eficiencia. Lo que comenzó como una medida de supervivencia económica terminó sentando las bases de la sostenibilidad energética moderna y del diseño industrial consciente.

  • Eficiencia en el transporte: fabricación de vehículos con menor consumo y emisiones.
  • Fomento de lo colectivo: impulso estratégico del transporte público frente al vehículo privado.
  • Renovables: nacimiento de la industria fotovoltaica y la búsqueda de alternativas al petróleo.
  • Geopolítica de la finitud: reconocimiento oficial de que la dependencia de los recursos fósiles constituye una vulnerabilidad estratégica.

Informe Brundtland: redefinición de la calidad del «progreso».

En 1983, la Comisión Brundtland recibió el encargo de replantear un modelo de desarrollo global que estaba devorando su propio entorno. El informe final de 1987, Nuestro futuro común, no proponía dejar de crecer, sino transformar radicalmente la «calidad del crecimiento» para hacerlo menos materialista y menos intensivo en energía.

Este documento consagró la definición que hoy constituye el pilar de nuestra disciplina:

«El desarrollo sostenible es aquel que satisface las necesidades del presente sin comprometer la capacidad de las generaciones futuras para satisfacer las suyas».

El cambio de paradigma fue absoluto: la sostenibilidad dejó de ser una preocupación ambientalista para convertirse en una tríada en la que lo económico, lo social y lo ecológico son interdependientes. La equidad se convirtió en un requisito técnico para el progreso y no solo en una aspiración ética.

De los Objetivos de Desarrollo del Milenio a la Agenda 2030: una evolución necesaria.

Los Objetivos de Desarrollo del Milenio (ODM) de 2000 fueron un intento loable, pero limitado. Se centraron únicamente en los países en desarrollo y fueron diseñados por un grupo reducido de expertos. El resultado fue desigual: a pesar de los esfuerzos realizados, millones de personas (925 millones pasaban hambre) se quedaron fuera del progreso debido a la falta de indicadores claros y de participación local.

En 2015, la transición a los Objetivos de Desarrollo Sostenible (ODS) de la Agenda 2030 corrigió estos fallos. Por primera vez, se creó una agenda de «aplicación universal» mediante consultas públicas y encuestas globales que involucraron a la ciudadanía en la definición de sus propias prioridades y metas.

La diferencia crítica radica en la participación ciudadana y la visión sistémica. Los ODS reconocen que la pobreza en un país y el cambio climático en otro son dos caras de la misma moneda. Esta legitimidad democrática es el factor que faltaba en los intentos anteriores para transformar la sostenibilidad en una misión colectiva.

Conclusión: la pregunta que define nuestra era.

La sostenibilidad no es una moda pasajera ni una concesión estética de las empresas; es la respuesta histórica acumulada ante las crisis de recursos, las desigualdades sociales y los límites científicos que ya no podemos ignorar. En esencia, es nuestra estrategia de supervivencia como civilización.

Nuestra responsabilidad generacional nos obliga a mirar hacia el pasado para comprender que el crecimiento tal y como lo conocimos en el siglo XX es una anomalía histórica. El éxito de la Agenda 2030 dependerá de si somos capaces de aplicar el rigor del pensamiento sistémico a cada decisión económica y política.

Al observar la velocidad a la que consumimos actualmente, es inevitable preguntarse si estamos actuando conforme a los principios de equidad del Informe Brundtland para proteger a las generaciones futuras o si seguimos ignorando deliberadamente los límites físicos que la ciencia nos señaló hace ya más de medio siglo.

En esta conversación puedes escuchar algunas de las ideas más importantes.

El vídeo que os dejo resume bien la historia de la sostenibilidad.

En este documento podéis ver las ideas más relevantes.

Sostenibilidad_De_la_Revolución_Industrial_a_2030

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El futuro de la construcción: 5 lecciones inesperadas que cambiarán la forma en que construimos edificios

La industria de la construcción tiene una enorme huella medioambiental y es una de las principales causas de la degradación del planeta. Para alcanzar los objetivos de sostenibilidad, es fundamental transformar la forma en que diseñamos y construimos. Por fortuna, la innovación en el diseño estructural, combinada con la optimización mediante inteligencia artificial, está dando lugar a soluciones sorprendentes y altamente eficientes que hace solo unos años parecían imposibles.

Este artículo explora los cinco descubrimientos más impactantes de un estudio reciente sobre un innovador tipo de estructura de edificio compuesto que combina columnas de hormigón armado con vigas de acero de sección variable, conocido como sistema RC-THVS. Estos descubrimientos no solo demuestran el potencial de la tecnología para crear edificios más sostenibles, sino que también desafían algunas de las ideas más arraigadas en la ingeniería estructural.

1. La optimización inteligente no es un pequeño ajuste, sino una revolución medioambiental.

La Optimización del Impacto Ambiental del Ciclo de Vida (LCEIO, por sus siglas en inglés) es una estrategia que utiliza algoritmos para diseñar edificios que no solo sean resistentes, sino que también tengan el menor impacto ambiental posible a lo largo de toda su vida útil, desde la extracción de materiales hasta su demolición y reciclaje.

El resultado clave del estudio es contundente: los sistemas compuestos optimizados con esta tecnología pueden reducir el impacto ambiental del ciclo de vida, medido como el potencial de calentamiento global (GWP), hasta en un 32 % en comparación con los edificios diseñados tradicionalmente.

No se trata de una mejora marginal, sino de un salto cualitativo. Esto demuestra el poder de integrar la inteligencia artificial no como un añadido final, sino en las fases más tempranas del diseño, lo que transforma la sostenibilidad de un ideal a un resultado cuantificable y optimizado desde el núcleo mismo de la estructura.

2. La mayor victoria se consigue en la fábrica, no en la obra.

A menudo pensamos que la sostenibilidad depende del mantenimiento o del reciclaje al final de la vida útil de un edificio. Sin embargo, este estudio demuestra que el mayor ahorro de emisiones se produce mucho antes, en la fase de fabricación.

Los datos son reveladores. Las innovadoras vigas de acero de sección variable (THVS) utilizadas en el sistema compuesto reducen las emisiones de fabricación hasta en un 70 % en comparación con los perfiles de acero tradicionales en forma de I y, en el caso de las columnas de hormigón optimizadas, la reducción en la fabricación (encofrado, acero y hormigón) es del 27 %.

Este hallazgo cambia por completo el enfoque de los esfuerzos. La eficiencia de los materiales y un diseño inteligente desde el principio tienen un impacto mucho mayor que las acciones realizadas al final de la vida útil. La verdadera construcción sostenible comienza en la mesa de diseño y en la planta de fabricación.

3. Una viga más ligera reduce la carga sobre todo el edificio.

Los beneficios de un componente bien diseñado van más allá de él. El estudio demuestra que el menor peso de las vigas THVS optimizadas tiene un efecto dominó positivo en toda la estructura del edificio.

Este «efecto en cascada» puede cuantificarse. Al reducir el peso de las vigas, se disminuyen las cargas axiales que soportan las columnas y, por ende, las cimentaciones. Por ejemplo, en la estructura compuesta analizada, las columnas exteriores experimentan un 17 % menos de fuerza axial que en un sistema tradicional de hormigón armado.

Esta es una lección clave sobre el pensamiento sistémico. Optimizar una sola pieza de forma aislada es ineficiente. En cambio, mejorar un componente clave puede generar una cadena de optimizaciones que aligere y haga más sostenible todo el sistema estructural.

4. La paradoja de las conexiones: ¿por qué la unión «débil» puede fortalecer el sistema?

Aquí es donde el diseño se vuelve contraintuitivo. Las vigas con conexiones articuladas (o «pinned»), que individualmente son las más eficientes (ya que reducen su impacto hasta en un 55 %), empeoran el rendimiento global del edificio en un modelo de estructura esquelética simple. La razón es que su menor rigidez sobrecarga las columnas, lo que incrementa el impacto total.

Sin embargo, la historia da un giro inesperado. Cuando se añaden losas y muros al modelo estructural, este problema no solo desaparece, sino que se invierte. El estudio demuestra que, específicamente en edificios de grandes luces con estos elementos, la configuración con uniones articuladas se convierte en la solución más sostenible, ya que reduce el impacto del ciclo de vida en más del 30 %.

Este hallazgo contradice las suposiciones convencionales sobre el diseño. Pone en tela de juicio la suposición de que los componentes deben optimizarse individualmente para lograr la máxima rigidez. En un sistema integrado, la flexibilidad controlada puede ser la clave para la eficiencia global.

5. El clima y el entorno lo cambian todo.

La ventaja medioambiental de una estructura no es un valor absoluto, sino que depende drásticamente del entorno en el que se construye. El estudio comparó el rendimiento del sistema compuesto en dos escenarios a lo largo de 100 años.

En entornos de baja agresividad, la ventaja fue clara: una reducción de emisiones del 30 % frente a las estructuras de hormigón tradicionales. Sin embargo, en entornos de alta agresividad, como las zonas marinas, la ventaja se redujo al 21 %, aunque siguió siendo superior. La razón es que las emisiones asociadas al mantenimiento de los elementos de acero aumentan drásticamente en condiciones más adversas.

En resumen, se puede llegar a la siguiente conclusión:

El diseño estructural más sostenible no es universal, sino una solución adaptada de forma inteligente a las condiciones específicas de su entorno durante sus primeros 100 años de vida.

Esto subraya la necesidad de un enfoque de diseño basado en el ciclo de vida completo. No basta con pensar en el día de la inauguración; hay que planificar para las décadas de uso, desgaste y mantenimiento que definen el verdadero impacto de un edificio.

Conclusión: mirando hacia el futuro.

La combinación de materiales compuestos innovadores con un diseño optimizado a lo largo de todo el ciclo de vida es una de las vías más prometedoras para reducir drásticamente el impacto ambiental de la construcción. Ya no es necesario elegir entre rendimiento y sostenibilidad, pues la tecnología nos permite optimizar ambos aspectos simultáneamente.

Estos avances demuestran que es posible construir de manera más inteligente y sostenible. Si se pueden lograr estas mejoras optimizando únicamente la estructura, ¿qué no se podría conseguir aplicando este nivel de análisis a cada componente de nuestros edificios?

En esta conversación puedes escuchar las ideas más interesantes de este trabajo.

Este vídeo resume bien las ideas más importantes.

En este documento se resumen las ideas más relevantes.

[gview file=»https://victoryepes.blogs.upv.es/wp-content/uploads/2026/01/Life_Cycle_Optimization_of_Hybrid_Structures.pdf»]

Referencia:

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Life-cycle environmental impact optimization of an RC-THVS composite frame for sustainable construction. Engineering Structures, 345, 121461. DOI:10.1016/j.engstruct.2025.121461 Featured Paper Award

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Quieres más datos? No siempre es mejor: la lección que cambiará tu forma de ver la ciencia.

En la era del Big Data, tenemos, casi instintivamente, la idea de que más información siempre es mejor. Acumular más datos parece el camino directo hacia decisiones más inteligentes, resultados más fiables y una certeza casi absoluta. Creemos que si medimos algo diez, cien o mil veces, nuestra comprensión del fenómeno será inevitablemente más profunda y precisa.

Sin embargo, en el ámbito de la experimentación científica rigurosa, esta intuición puede resultar peligrosamente engañosa. Existe un concepto fundamental que a menudo se pasa por alto y que es mucho más importante que la mera cantidad de mediciones. No se trata de cuántos datos se recogen, sino de cómo se recogen. La estructura de un experimento es clave para su eficacia.

En este artículo se desglosan tres ideas clave del diseño experimental que revelan por qué la arquitectura de un estudio es más relevante que la cantidad de datos brutos. Prepárate para descubrir el secreto del éxito en los experimentos.

1. ¿Quién es nuestro protagonista? La unidad experimental.

Todo experimento comparativo tiene una estrella principal, un elemento central en torno al cual gira toda la acción. No se trata del tratamiento aplicado ni de la variable medida, sino de la unidad experimental (UE). Pero, ¿qué es exactamente?

Una unidad experimental es el elemento más pequeño al que se puede asignar un tratamiento de forma completamente independiente. Es la pieza fundamental sobre la que se realizan las mediciones para determinar qué ocurre. Piensa en ella como el «sujeto» de tu experimento.

Los ejemplos concretos ayudan a entenderlo mejor:

  • En la agricultura, si quieres comparar dos tipos de fertilizantes, la unidad experimental podría ser una parcela de terreno de un tamaño determinado.
  • En un estudio médico, la unidad experimental suele ser un paciente.
  • En entomología, podría tratarse de un insecto concreto o incluso de una colonia entera.

La clave está en que la definición de la unidad experimental depende de los objetivos de la investigación. Se trata de la pieza fundamental sobre la que se construye toda la comparación. Definir esta unidad es el primer paso, pero el verdadero desafío surge cuando empezamos a tomar mediciones en ella, lo que nos lleva a una de las trampas más comunes de la ciencia.

2. El espejismo de los «diez datos»: por qué medir más no siempre es medir mejor.

Esta es una de las confusiones más frecuentes. A menudo, en una unidad experimental podemos tomar varias mediciones. A estos subelementos los llamamos «unidades muestrales». Por ejemplo, en una parcela de terreno (la UE) podríamos analizar diez plantas distintas (las unidades muestrales).

Parecería que tenemos diez datos, ¿verdad? Técnicamente, sí, pero no son lo que parecen. Hay una regla de oro en el diseño experimental que lo cambia todo:

Las unidades muestrales dentro de una misma unidad experimental deben recibir el mismo tratamiento. Por ello, la asignación del tratamiento a estas unidades muestrales no es independiente entre sí.

Esto tiene unas implicaciones enormes. Las diez plantas de la misma parcela son como hermanos que crecieron en la misma casa. Comparten el mismo terreno, la misma cantidad de luz solar y la misma cantidad de agua. Medirlas por separado no es lo mismo que entrevistar a diez personas de distintas partes de la ciudad. Su similitud y su falta de independencia significan que no se obtienen diez puntos de vista únicos, sino diez variaciones sobre el mismo punto de vista. Confundir estas muestras con diez unidades experimentales independientes es uno de los errores más frecuentes al interpretar resultados.

Entonces, si multiplicar las muestras en una misma parcela no aumenta la fiabilidad, ¿cómo podemos estar seguros de que nuestro tratamiento funciona? La respuesta no consiste en acumular más mediciones, sino en comprender y medir correctamente el «ruido» del sistema.

3. Abraza el ruido: por qué el «error experimental» es tu mejor aliado.

La palabra «error» tiene una connotación negativa, pero en la ciencia el error experimental es tu mejor aliado. No se refiere a una equivocación ni a un fallo de medición. Se trata simplemente de la variabilidad natural entre las unidades experimentales. Es el «ruido» de fondo inevitable del sistema que estás estudiando. Dos pacientes nunca son idénticos ni dos parcelas de terreno son clones perfectos.

Para medir este «ruido» natural, necesitamos comparar manzanas con manzanas. Por eso la unidad experimental (Idea 1) es tan importante. La pequeña variación entre diez plantas de la misma parcela (las unidades muestrales de la idea 2) no nos dice nada sobre la variabilidad natural entre parcelas. El verdadero error experimental solo puede medirse comparando las diferencias entre múltiples parcelas completas que recibieron el mismo tratamiento.

La diferencia de altura entre dos plantas situadas a pocos centímetros entre sí en la misma parcela bien fertilizada será mínima. Esta pequeña variación no nos dice nada sobre la eficacia del fertilizante en general, especialmente si lo comparamos con otra parcela que, por su composición natural, presenta un suelo completamente diferente. La variación entre las parcelas es lo que constituye el verdadero desafío. La esencia de un buen experimento consiste en determinar si el efecto del tratamiento es mayor que la variabilidad natural. Sin una medición honesta de este error, es imposible sacar conclusiones válidas.

Conclusión: mirar más allá de los números.

La validez de un experimento no depende de la cantidad de mediciones, sino de la correcta definición, asignación y comparación de sus unidades experimentales. Es la estructura, no el volumen, lo que permite separar la señal del ruido.

La próxima vez que leas sobre un nuevo estudio, ignora por un momento el deslumbrante número de mediciones. En su lugar, busca a la verdadera protagonista: la unidad experimental. Pregúntate cómo la definieron los investigadores y cómo la utilizaron para medir el ruido de fondo. Esa es la diferencia entre una montaña de datos y un verdadero descubrimiento.

En esta conversación puedes descubrir alguna de las ideas de este artículo.

También puedes ver este vídeo, donde se recogen los conceptos más interesantes del tema.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Más allá de la opinión: en busca de la evidencia científica.

¿Cómo entendemos realmente el comportamiento humano y el funcionamiento de la sociedad? A menudo, nos basamos en la intuición o en ideas preconcebidas sobre lo que es «científico». Asociamos la ciencia con laboratorios, experimentos y datos exactos, mientras que el estudio de lo social nos parece más ambiguo o «blando».

Sin embargo, la investigación social es sorprendentemente rigurosa. Sus métodos y principios nos permiten comprender el mundo y desarrollar un pensamiento crítico y estructurado.

En este artículo, veremos cinco ideas impactantes que surgen de la investigación social. Prepárate, porque algunas de tus certezas podrían cambiar.

1. No es el objeto de estudio, sino el método, lo que define a la ciencia.

Una de las primeras barreras con las que nos encontramos al pensar en las ciencias sociales es el objeto de estudio: el ser humano. A diferencia de las células o los planetas, las personas somos sujetos conscientes, llenos de simbolismo y percepciones. Esto lleva a muchas personas a pensar que no pueden ser objeto de estudio científico.

Sin embargo, aquí radica la primera gran idea: lo que distingue a la ciencia de otras formas de conocimiento no es el tema que investiga, sino el rigor de su método. Da igual si estudias la interacción de partículas o las dinámicas de un grupo social; lo importante es cómo lo haces.

«Si no hay método, no hay ciencia».

Por tanto, la cientificidad de las ciencias sociales se basa en el cumplimiento de reglas metodológicas formalizadas. Principios como el rigor y la parsimonia, la verificación empírica y la búsqueda de formulaciones de tipo general (universales) son los pilares que sustentan cualquier investigación válida, independientemente de lo complejo o subjetivo que pueda parecer su objeto de estudio.

2. Que algo sea cuantitativo no lo convierte automáticamente en objetivo (y viceversa).

Vivimos en un mundo obsesionado con los datos. Tendemos a creer que un porcentaje, una estadística o un número son sinónimos de verdad objetiva, mientras que un discurso o una opinión se considera meramente subjetivo. La idea de que los datos cuantitativos son inherentemente objetivos y más científicos es, según la propia metodología, falsa.

La objetividad no reside en la naturaleza del dato (un número frente a una palabra), sino en el método con el que se ha obtenido y analizado. Un estudio cuantitativo basado en un mal diseño de encuesta o en una muestra no representativa puede ofrecer resultados completamente sesgados y poco objetivos. Del mismo modo, un análisis cualitativo de discursos puede ser extremadamente riguroso y objetivo si se sigue un procedimiento sistemático y controlado.

Esta idea nos invita a ser más críticos con la información que consumimos. La próxima vez que veas una estadística impactante, no te quedes en el número; pregúntate cuál es el método que hay detrás.

«¡Ojo! Que trabajemos con discursos y percepciones no significa que la investigación se base en la subjetividad del investigador ni que la investigación sea subjetiva. Sería lo mismo que decir que, por trabajar con números o porcentajes, los resultados son objetivos, sin tener en cuenta cómo se han obtenido esos datos».

3. En toda ciencia hay un factor humano: el propio investigador.

La imagen popular del científico es la de una figura neutral e imparcial que observa la realidad sin afectarla. Sin embargo, la verdad es que en toda investigación científica se incluyen criterios subjetivos del investigador.

El verdadero rigor científico no consiste en negar esta subjetividad, sino en ser consciente de ella, saber identificarla y limitarla para que no condicione los resultados de la investigación. Esto es especialmente crucial en las ciencias sociales, donde el objeto de estudio es, a su vez, un sujeto consciente. El investigador debe esforzarse por distanciarse y seguir el método de forma disciplinada, empleando mecanismos como el «distanciamiento» y la «extrañeza» al analizar el objeto».

Este principio humaniza la ciencia. Nos recuerda que es una actividad humana, llevada a cabo por personas, y que requiere no solo conocimientos técnicos, sino también autoconciencia, disciplina y honestidad intelectual.

4. Antes de elegir una técnica, debes definir qué quieres saber.

Imagina que un carpintero decide usar un martillo antes de saber si tiene que clavar, atornillar o serrar. Suena absurdo, ¿verdad? Pues bien, en la investigación (y en muchos otros ámbitos de la vida) es un error muy común. A menudo, nos enamoramos de una herramienta —una encuesta, una entrevista, un grupo de discusión— sin haber definido previamente la pregunta fundamental.

Un principio clave de la metodología de investigación es que el objeto de estudio y los objetivos deben definirse antes de decidir qué técnicas se utilizarán. La herramienta debe adaptarse al problema y no al revés. ¿Necesitas datos generalizables de una población grande? Quizás lo más adecuado sea una encuesta. ¿Quieres profundizar en los significados y las experiencias de un grupo concreto? Las entrevistas pueden ser más adecuadas.

¿Cómo resume a la perfección el principio metodológico: «El diseño metodológico se construye a partir del objeto y de los objetivos del estudio»? Esta lección es universal: la estrategia siempre debe preceder a la táctica.

5. La mejor investigación no elige bando, sino que combina métodos.

El antiguo debate entre la investigación cuantitativa (basada en números) y la cualitativa (basada en discursos) está cada vez más superado. La investigación social moderna no los concibe como enfoques opuestos e irreconciliables, sino como herramientas complementarias que, utilizadas conjuntamente, ofrecen una visión mucho más completa de la realidad.

Cada método tiene su propia lógica y propósito. La investigación cuantitativa, heredera del positivismo, sigue una lógica de verificación perfectamente diseñada para su objetivo: la búsqueda de leyes generales mediante un enfoque cuantitativo. Por su parte, la investigación cualitativa, más ligada al humanismo, se basa en una lógica de descubrimiento, indispensable para su objetivo, que consiste en la búsqueda de los significados de la acción humana.

Las estrategias más potentes son las de «articulación metodológica», como la complementación (emplear diferentes técnicas para distintos objetivos) o la triangulación, que consiste en utilizar distintas metodologías para validar datos sobre un mismo objetivo. Este enfoque integrador permite construir un conocimiento más rico, robusto y matizado que cualquier método por sí solo podría ofrecer.

Una nueva forma de entender el conocimiento.

Como hemos visto, la investigación social, lejos de ser una «ciencia blanda», está llena de principios rigurosos y sofisticados que desafían muchas de nuestras suposiciones sobre el conocimiento, la objetividad y la verdad. Nos enseña que el «cómo» es tan importante como el «qué», que los números no siempre dicen la verdad y que la clave para entender la complejidad humana a menudo radica en combinar diferentes perspectivas.

Ahora que sabes que la objetividad es más compleja de lo que parece y que el método es la clave, ¿qué «verdad» aceptada en tu día a día empezarás a cuestionar?

En esta conversación puedes descubrir las claves de las técnicas de investigación social.

Os dejo un vídeo que resume bien las ideas fundamentales de estas técnicas.

Os dejo este documento de síntesis de estas técnicas.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Optimización heurística mediante recocido simulado (simulated annealing)

El recocido simulado (simulated annealing, SA) es una técnica metaheurística estocástica potente diseñada para abordar problemas de optimización global en espacios de búsqueda grandes y complejos. Inspirado en el proceso de recocido de la metalurgia, el algoritmo explora ampliamente el espacio de soluciones a «temperaturas» elevadas y se centra gradualmente en las regiones más prometedoras a medida que la temperatura desciende. Su característica distintiva es la capacidad de aceptar soluciones peores con una probabilidad que disminuye con el tiempo, lo que le permite escapar de mínimos locales y evitar la convergencia prematura.

Este método es particularmente eficaz para problemas NP-hard, como el problema del viajante, la planificación de tareas y el diseño de circuitos, en los que los algoritmos exactos resultan inviables desde el punto de vista computacional. Aunque el SA no garantiza la obtención del óptimo global, produce soluciones de alta calidad en tiempos de cálculo prácticos de forma consistente. El éxito del algoritmo depende en gran medida del ajuste preciso de sus parámetros, como la temperatura inicial, el esquema de enfriamiento y la longitud de las iteraciones en cada nivel de temperatura. Su robustez y versatilidad lo han consolidado como una herramienta fundamental en campos tan diversos como la ingeniería estructural, la química molecular, el procesamiento de imágenes y la asignación de recursos.

Principios fundamentales y origen

El recocido simulado (SA), también conocido como templado simulado, recristalización simulada o enfriamiento simulado, es una técnica metaheurística que adapta un proceso físico al ámbito de la optimización.

  • Definición: El SA es un método estocástico de optimización global. Su estrategia se basa en la analogía con el recocido metalúrgico, proceso en el que un material se calienta y luego se enfría de forma controlada para alcanzar una estructura cristalina estable y de baja energía.
  • Mecanismo central: El algoritmo mejora las soluciones de forma iterativa. Acepta incondicionalmente las soluciones candidatas que son mejores que la actual y, con una probabilidad decreciente, también acepta movimientos que la empeoran. Esta aceptación controlada de transiciones «cuesta arriba» es clave para evitar quedar atrapado en óptimos locales y para permitir un cambio gradual de la exploración a la explotación del espacio de soluciones.
  • Origen: El SA fue desarrollado de forma independiente por Kirkpatrick, Gelatt y Vecchi (1983) y por Černý (1985). Su base teórica se encuentra en el algoritmo de Metropolis (1953), que se aplicó originalmente a la simulación de sistemas termodinámicos.

Mecanismo de funcionamiento y analogía termodinámica.

El SA establece un paralelismo directo entre la optimización y la termodinámica estadística, donde los conceptos se relacionan de la siguiente manera:

  • Función objetivo: corresponde a la energía de un sistema físico. El objetivo es minimizar dicha energía.
  • Solución óptima: representa una estructura cristalina de baja energía, que es un estado estable del sistema.
  • Temperatura (T): Es el parámetro que regula el comportamiento estocástico. A altas temperaturas, el sistema es más volátil y explora más; a bajas, se estabiliza.

El proceso de optimización se rige por el factor de Boltzmann, exp(-ΔE/T), donde ΔE es el cambio en la energía (valor de la función objetivo) de la nueva configuración y T es la temperatura actual.

El criterio de aceptación de una nueva solución s' a partir de una solución actual s sigue la regla de Metropolis:

  1. Si el cambio de energía ΔE = f(s') - f(s) es menor o igual a cero (ΔE ≤ 0), la nueva solución es mejor o igual, por lo que se acepta siempre.
  2. Si el cambio de energía es positivo (ΔE > 0), la nueva solución es peor. Se acepta con una probabilidad P = exp(-ΔE/T).

Esta probabilidad es alta a temperaturas elevadas, lo que fomenta la diversificación y la exploración global. A medida que T se acerca a cero, la probabilidad de aceptar malos movimientos disminuye drásticamente, haciendo que el algoritmo sea más selectivo y se comporte de manera “codiciosa” (greedy), intensificando la búsqueda en regiones prometedoras.

Componentes clave del algoritmo

El rendimiento del SA depende de la calibración precisa de su «esquema de enfriamiento». Sus componentes matemáticos y de procedimiento clave son los siguientes:

Componente Descripción
Temperatura inicial (T₀) Se elige un valor lo suficientemente alto como para asegurar una alta probabilidad de aceptación inicial, lo que permite una exploración amplia del espacio de soluciones. El método de Medina (2001) sugiere ajustarla para que la tasa de aceptación de soluciones de mayor coste se sitúe entre el 20% y el 40%.
Esquema de enfriamiento Define cómo disminuye la temperatura. El más común es el esquema geométrico: T(t+1) = α * Tt, donde α es un coeficiente de reducción típicamente en el rango de [0.8, 0.99]. Una refrigeración rápida corre el riesgo de atrapar la solución en estados metaestables, mientras que una lenta mejora la fiabilidad a un mayor coste computacional.
Longitud de la cadena de Markov Es el número de iteraciones que se ejecutan en cada nivel de temperatura. Debe ser lo suficientemente largo como para que el sistema alcance un estado de equilibrio a esa temperatura antes de seguir enfriando.
Criterio de parada Determina cuándo finaliza el algoritmo. Las condiciones comunes incluyen que la temperatura caiga por debajo de un umbral predefinido (p. ej., el 1% de la temperatura inicial) o que las mejoras en la solución se estabilicen.

Variantes y mejoras

Con el fin de mejorar la eficiencia y la adaptabilidad del SA, se han desarrollado diversas variantes y modificaciones.

  • Estrategia “Best-So-Far”: Mantiene en memoria la mejor solución encontrada hasta el momento, independientemente del estado actual de la búsqueda.
  • Esquemas de recalentamiento: Cuando el sistema se estanca en un óptimo local, la temperatura se incrementa temporalmente para promover una nueva fase de exploración (Dowsland, 1993).
  • Hibridación: Se integra el SA con otros métodos, como algoritmos genéticos, branch-and-bound o programación entera, para aprovechar sus fortalezas complementarias.
  • Implementaciones paralelas: Distribuyen los ensayos entre múltiples procesadores para mejorar la escalabilidad y la velocidad de convergencia.
  • Evaluaciones aproximadas de ΔE: Se utilizan en problemas de alta dimensionalidad para acelerar el cálculo.

Threshold Accepting (TA)

Una variante notable es el Threshold Accepting (TA), introducido por Dueck y Scheuer en 1990. Este método sustituye la regla de aceptación probabilística por una regla determinista: se acepta una solución subóptima si su empeoramiento es inferior a un umbral predefinido.

  • Se acepta una solución subóptima si su empeoramiento (degradación) es inferior a un umbral predefinido.
    Este umbral disminuye gradualmente durante la búsqueda, de forma análoga al esquema de enfriamiento del SA.

Estudios empíricos han demostrado que el TA puede tener un rendimiento comparable o incluso superior al del SA en problemas de planificación, programación y asignación de recursos (Lin et al., 1995).

Dominios de aplicación y ejemplos notables

El SA ha demostrado ser una herramienta versátil y fiable, especialmente para problemas NP-hard para los que no existen solucionadores específicos.

Dominio Aplicación específica y referencia
Enrutamiento Resolución del Problema del Viajante de Comercio (TSP) y sus variantes con restricciones de tiempo (Kirkpatrick et al., 1983).
Planificación Solución de problemas de job-shop scheduling mediante un equilibrio entre diversificación e intensificación (van Laarhoven et al., 1992).
Asignación de recursos Manejo de la complejidad del Problema de Asignación Cuadrática (QAP) en el diseño de instalaciones (Connolly, 1990).
Procesamiento de imágenes Métodos de relajación estocástica para resolver problemas de segmentación y restauración de imágenes (Geman y Geman, 1984).
Química molecular Herramienta estándar para la cristalografía macromolecular y el refinamiento conformacional (Brünger, 1992).
Ingeniería estructural – Diseño de puentes de hormigón pretensado (Martí et al., 2013).

– Optimización paramétrica de muros de contención (Yepes et al., 2008).

– Optimización del tamaño y la disposición de las estructuras de acero (Bresolin et al., 2022).

– Minimización de costes e impacto ambiental (CO₂) en el hormigón armado (Santoro y Kripka, 2020; Medeiros y Kripka, 2014).

– Diseño de estructuras marinas bajo incertidumbre (Toğan, 2012).

Factores críticos para el rendimiento.

El éxito en la aplicación del SA depende en gran medida de la formulación del problema:

  1. Representación del espacio de configuración: La forma en que se define matemáticamente el espacio de soluciones es fundamental.
  2. Definición de movimientos: Es esencial elegir un conjunto adecuado de «movimientos» o ajustes que permitan pasar de una solución a otra vecina. Las representaciones efectivas aseguran que las transiciones entre mínimos locales impliquen pequeñas diferencias de coste, lo que reduce las «barreras de energía».
  3. Función objetivo: Una función objetivo bien elegida puede modificar la distribución de los mínimos locales hacia valores de menor coste promedio, lo que aumenta la probabilidad de encontrar soluciones mejores.
  4. Manejo de restricciones: En los problemas con restricciones, la búsqueda puede limitarse a regiones factibles o pueden permitirse soluciones infactibles penalizándolas en la función objetivo. Este último enfoque puede simplificar la estructura de vecindad y suavizar la topología del paisaje de búsqueda, lo que mejora la convergencia.

Os dejo un vídeo que grabé hace unos años para explicar esta metaheurística. Espero que os sea de interés.

En este vídeo se recogen bien las principales ideas de este algoritmo.

Referencias:

Bresolin, J. M., Pravia, Z. M., & Kripka, M. (2022). Discrete sizing and layout optimization of steel truss-framed structures with Simulated Annealing Algorithm. Steel and Composite Structures, 44(5), 603–617. https://doi.org/10.12989/scs.2022.44.5.603

Brünger, A. T. (1992). X-PLOR Version 3.1: A system for X-ray crystallography and NMR. Yale University Press.

Černý, V. (1985). Thermodynamical approach to the travelling salesman problem: An efficient simulation algorithm. Journal of Optimization Theory and Applications, 45(1), 41–51. https://doi.org/10.1007/BF00940812

Connolly, D. T. (1990). An improved annealing scheme for the QAP. European Journal of Operational Research, 46(1), 93–100. https://doi.org/10.1016/0377-2217(90)90301-Q

Dowsland, K. A. (1993). Simulated annealing. In C. R. Reeves (Ed.), Modern heuristic techniques for combinatorial problems (pp. 20–69). Wiley.

Dueck, G., & Scheuer, T. (1990). Threshold accepting: A general purpose optimization algorithm appearing superior to simulated annealing. Journal of Computational Physics, 90(1), 161–175. https://doi.org/10.1016/0021-9991(90)90201-B

Geman, S., & Geman, D. (1984). Stochastic relaxation, Gibbs distributions, and the Bayesian restoration of images. IEEE Transactions on Pattern Analysis and Machine Intelligence, 6(6), 721–741. https://doi.org/10.1109/TPAMI.1984.4767596

Kirkpatrick, S., Gelatt, C. D., & Vecchi, M. P. (1983). Optimization by simulated annealing. Science, 220(4598), 671–680. https://doi.org/10.1126/science.220.4598.671

Lin, C. K. Y., Haley, K. B., & Sparks, C. (1995). A comparative study of threshold accepting and simulated annealing algorithms in three scheduling problems. European Journal of Operational Research, 83(2), 330–346. https://doi.org/10.1016/0377-2217(95)00011-E

Martí, J. V., González-Vidosa, F., Yepes, V., & Alcalá, J. (2013). Design of prestressed concrete precast road bridges with hybrid simulated annealing. Engineering Structures, 48, 342–352. https://doi.org/10.1016/j.engstruct.2012.09.014

Medeiros, F., & Kripka, M. (2014). Optimization of reinforced concrete columns according to cost and CO₂ emissions. Engineering Structures, 59, 185–194. https://doi.org/10.1016/j.engstruct.2013.10.045

Medina, J. R. (2001). Estimation of incident and reflected waves using simulated annealing. Journal of Waterway, Port, Coastal and Ocean Engineering, 127(4), 213–221. https://doi.org/10.1061/(ASCE)0733-950X(2001)127:4(213)

Metropolis, N., Rosenbluth, A. W., Rosenbluth, M. N., Teller, A. H., & Teller, E. (1953). Equation of state calculations by fast computing machines. The Journal of Chemical Physics, 21(6), 1087–1092. https://doi.org/10.1063/1.1699114

Santoro, J. F., & Kripka, M. (2020). Minimizing environmental impact in the design of reinforced concrete elements using simulated annealing. Computers and Concrete, 25(2), 111–118. https://doi.org/10.12989/cac.2020.25.2.111

Toğan, V. (2012). Optimization of monopod offshore tower under uncertainties with gradient-based and gradient-free optimization algorithms. Advances in Structural Engineering, 15(12), 2021–2032. https://doi.org/10.1260/1369-4332.15.12.2021

van Laarhoven, P. J. M., & Aarts, E. H. L. (1987). Simulated annealing: Theory and applications (Mathematics and Its Applications, Vol. 37). Springer. https://doi.org/10.1007/978-94-015-7744-1

van Laarhoven, P. J. M., Aarts, E. H. L., & Lenstra, J. K. (1992). Job shop scheduling by simulated annealing. Operations Research, 40(1), 113–125. https://doi.org/10.1287/opre.40.1.113

Yepes, V., Alcalá, J., Perea, C., & González-Vidosa, F. (2008). A parametric study of optimum earth retaining walls by simulated annealing. Engineering Structures, 30(3), 821–830. https://doi.org/10.1016/j.engstruct.2007.05.023

Yepes, V. (2026). Heuristic Optimization Using Simulated Annealing. In: Kulkarni, A.J., Mezura-Montes, E., Bonakdari, H. (eds) Encyclopedia of Engineering Optimization and Heuristics. Springer, Singapore. https://doi.org/10.1007/978-981-96-8165-5_48-1

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Más allá del ladrillo? El sorprendente futuro de la vivienda social sostenible

Introducción: El reto de los 1 600 millones.

La crisis de la vivienda no es solo una estadística, sino una emergencia humanitaria. Según UN-Habitat, más de 1 600 millones de personas carecen de una vivienda adecuada y, para cerrar esta brecha, el mundo debe enfrentarse al titánico reto de construir 96 000 viviendas al día hasta el año 2030. Este desafío tiene un rostro concreto en distritos como Carabayllo, en Lima (Perú), una zona de expansión urbana acelerada donde la necesidad de soluciones rápidas suele chocar con la falta de recursos y la precariedad constructiva.

Ante este panorama, surge la pregunta central: ¿es posible construir viviendas económicas y rápidas que también respeten el medio ambiente y la dignidad de quienes las habitan? Para responderla, la ciencia del urbanismo recurre hoy a métodos avanzados de evaluación, como el análisis del ciclo de vida (LCA), el análisis de costes del ciclo de vida (LCC) y el análisis del ciclo de vida social (S-LCA). Los resultados de aplicar estas herramientas en el contexto peruano revelan que el futuro de la vivienda social no radica en el ladrillo tradicional, sino en la construcción industrializada.

Punto 1: el acero ligero (LSF) es el nuevo referente en materia de sostenibilidad.

En la búsqueda del sistema constructivo ideal, el acero ligero, también conocido como Light Steel Frame (LSF), ha destronado a las opciones convencionales. Su éxito se debe a su equilibrio casi perfecto entre peso, resistencia y sostenibilidad. Al ser un sistema de baja intensidad material, el LSF utiliza los recursos de forma quirúrgica, minimizando el desperdicio que abunda en las obras tradicionales.

Desde el punto de vista financiero, el LSF no solo es competitivo, sino también transformador: reduce el coste inicial de construcción en un 15 % y los costes de fin de vida (demolición y reciclaje) en un asombroso 77 % en comparación con la mampostería confinada (RCF-M). Al ser altamente reciclable, el acero hace que el edificio, al final de su vida útil, no se convierta en escombro, sino en un recurso.

«El Life Cycle Steel Frame (LSF) ha obtenido la máxima puntuación en sostenibilidad en todas las categorías».

Punto 2: lo social ya no es secundario (pesa un 40 %).

Quizás el hallazgo más revolucionario de la investigación es que la sostenibilidad ya no se mide solo en toneladas de CO₂. Los indicadores sociales representaron casi el 40 % del peso total (38,93 %) en la toma de decisiones, superando por primera vez a los factores económicos y ambientales.

Este estudio introduce una métrica basada en el factor humano: las horas de riesgo medio (MRH). En lugar de limitarse a calcular el ahorro de energía, el análisis cuantifica la seguridad del trabajador, las condiciones laborales y el impacto en la comunidad local. Lo fascinante es que estos resultados son robustos: el análisis de sensibilidad (S-BWM) demostró que, independientemente de si el evaluador era un experto sénior con 35 años de experiencia o un especialista júnior, los datos señalaban de manera consistente al LSF como el camino más ético y eficiente.

Punto 3: La trampa del coste inicial frente al ciclo de vida.

En urbanismo sostenible, lo que hoy es barato puede resultar carísimo mañana. Existe una brecha crítica entre el presupuesto de obra y el LCC (costo del ciclo de vida) a 50 años. Aquí es donde entra en juego la funcionalidad (C9): no debemos considerar la vivienda social como un «refugio temporal», sino como un activo permanente que garantiza la dignidad y el patrimonio familiar.

Los sistemas pesados, como los paneles sándwich, pueden prometer rapidez, pero imponen cargas de mantenimiento y de demolición mucho más elevadas. Para evitar esta trampa, la evaluación debe considerar tres momentos:

  • Construcción: el gasto inmediato en materiales y mano de obra especializada.
  • Uso (mantenimiento): la inversión necesaria para que la casa sea habitable y segura (pintura, anticorrosión).
  • Fin de vida (EoL): el coste de «desaparecer» la estructura de forma responsable.

Punto 4: El «efecto dominó» del coste medioambiental.

Gracias al análisis causal DEMATEL, hemos descubierto que la sostenibilidad funciona como un juego de dominó. El coste de construcción es la pieza clave: el motor principal que impulsa el resto de los impactos.

La ciencia nos dice que no podemos mejorar la salud humana (C5), lo cual actúa como un criterio dependiente o «efecto» si simplemente nos enfocamos en indicadores sanitarios aislados. Para proteger la salud de las poblaciones urbanas, debemos «atacar» los impulsores causales: si optimizamos el coste inicial y la gestión de recursos desde el diseño, reduciremos inevitablemente la contaminación y el estrés ambiental que enferma a las ciudades décadas después.

Punto 5: El mito de que lo prefabricado siempre es mejor.

El estudio revela una ironía tecnológica. Los paneles sándwich con conexiones de pernos (LBSPS), que a primera vista parecen la cúspide de la innovación «prefabricada», ocuparon el último lugar en el ranking de sostenibilidad.

¿Por qué este sistema falló en el contexto de Lima? El análisis revela una paradoja: resultó un 20 % más costoso que la mampostería tradicional que pretendía reemplazar. El sistema se penalizó por una cadena de suministro local inmadura y la necesidad de una mano de obra extremadamente especializada. Esto debe servir de advertencia a los responsables de la toma de decisiones: la tecnología sin un marco institucional y un mercado local preparado es solo una solución teórica, no una realidad social.

Conclusión: una brújula para la política de vivienda.

No existe un sistema «perfecto», sino decisiones equilibradas basadas en datos. Mientras el LSF lidera la vanguardia, los muros de hormigón armado (RCW) se consolidan como la segunda opción: una alternativa económicamente sólida y viable en contextos donde la capacidad industrial del acero es limitada.

Como especialistas, nuestra misión es avanzar hacia procesos de evaluación que no sacrifiquen la calidad de vida en aras de la rapidez. Debemos comprender que cada ladrillo o cada perfil de acero es una decisión que afecta la salud y la economía de las generaciones futuras.

Ante el déficit global de vivienda, ¿estamos dispuestos a cambiar nuestra cultura constructiva para garantizar un hogar digno y sostenible para las generaciones futuras?

Aquí tienes una conversación en la que puedes escuchar argumentos sobre este trabajo.

En este vídeo puedes ver un resumen de las ideas más interesantes sobre este tema.

También os dejo un documento resumen, a modo de presentación.

Vivienda Social Sostenibilidad y Decisiones Integrales.pdf

 

Referencia:

LUQUE CASTILLO, X.; YEPES-BELLVER, L.; YEPES, V. (2026). Towards Sustainable Social Housing: An Integrative Life Cycle and Multi-Criteria ApproachSustainable Cities and Society, 137, 107164. DOI:10.1016/j.scs.2026.107164

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Nueva colaboración internacional: estancia de investigación del profesor Élcio Cassimiro Alves

Profesores Víctor Yepes y Élcio C. Alves

Nuestro grupo de investigación se siente especialmente orgulloso y afortunado de recibir con regularidad a profesores de reconocido prestigio internacional que visitan la Universitat Politècnica de València para colaborar, investigar y compartir experiencias. En entradas anteriores ya he comentado estancias y visitas tan relevantes como la del profesor Dan M. Frangopol, la del profesor Gizo Parskhaladze, o la del profesor Moacir Kripka, todas ellas realizadas junto a nuestro grupo en el ICITECH.

En esta línea de colaboración internacional, la Universitat Politècnica de València (UPV) acoge durante diez meses la estancia de investigación del doctor Élcio Cassimiro Alves, ingeniero civil y profesor de la Universidad Federal de Espírito Santo (UFES, Brasil). Esta estancia, que se desarrolla entre enero y octubre de 2026, tiene como objetivo reforzar la colaboración científica con el grupo de investigación del profesor Víctor Yepes, especialmente en los ámbitos de la optimización estructural y de la sostenibilidad en ingeniería civil.

El profesor Alves cuenta con una sólida trayectoria académica y docente. En la UFES imparte docencia en los grados de Ingeniería Civil y de Arquitectura, así como en los programas de máster y de doctorado en Ingeniería Civil. A lo largo de su carrera ha asumido importantes responsabilidades de gestión académica, entre ellas la coordinación de los grados y másteres en ingeniería civil, periodo durante el cual impulsó de manera decisiva la creación del programa de doctorado en esta disciplina en su universidad.

Más allá de su actividad estrictamente académica, destaca también su compromiso social. Ha coordinado proyectos de extensión universitaria vinculados a la ONG Ingenieros Sin Fronteras, participando en iniciativas orientadas a la transferencia del conocimiento de la ingeniería a comunidades vulnerables, lo cual se alinea directamente con la visión contemporánea de la ingeniería como herramienta de transformación social.

Durante su estancia posdoctoral en la UPV, financiada por la Fundación de Apoyo a la Investigación del Espíritu Santo (FAPES, Brasil), el profesor Cassimiro Alves trabajará estrechamente con el grupo del profesor Víctor Yepes en líneas de investigación comunes. Su trabajo se centra en la optimización estructural, con especial énfasis en criterios de sostenibilidad y en la reducción del impacto ambiental, abordando temas como la minimización de emisiones de CO₂, el análisis estructural lineal y no lineal, el hormigón armado y las estructuras mixtas de acero y hormigón.

Este tipo de estancias refuerza la internacionalización de la investigación, favorece el intercambio de conocimientos y experiencias y contribuye al desarrollo de soluciones innovadoras para uno de los grandes retos actuales de la ingeniería civil: diseñar estructuras más eficientes, seguras y sostenibles. Sin duda, la colaboración entre la UFES y la UPV durante estos meses será una oportunidad enriquecedora para ambas instituciones y para el avance de la investigación en ingeniería estructural.