Símbolos en el paisaje: El impacto emocional y social del diseño de puentes

El desafío de los dos siglos: ¿es posible diseñar el tiempo?

Gracias a la vanguardia en ciencia de materiales y a los sistemas de monitorización estructural, hoy nos enfrentamos a un hito técnico sin precedentes: la capacidad de proyectar infraestructuras con una vida útil de doscientos años o más. Sin embargo, este logro de la ingeniería plantea una cuestión que la técnica por sí sola no puede resolver: ¿cómo podemos garantizar que estas obras sigan siendo hermosas y relevantes para las civilizaciones del siglo XXII?

Entramos entonces en el terreno de la durabilidad estética. No basta con que el hormigón resista la carbonatación o el acero la fatiga; la estructura debe poseer una vigencia formal imperecedera que la proteja del olvido o de la demolición por obsolescencia visual. El reto no es solo construir puentes que no se caigan, sino puentes que la posteridad no quiera dejar de mirar.

En este contexto, una posible respuesta apunta al diseño de estructuras racionales: sistemas concebidos con claridad constructiva, centrados en el detalle —y, por tanto, en su conservación— y dotados de una resiliencia que evite la tentación de la optimización extrema. Aquello que no se lleva al límite, ni en lo material ni en lo formal, tiende a adaptarse mejor con el paso del tiempo. Al fin y al cabo, los gustos estéticos, e incluso sus abusos, cambian; lo que hoy parece inevitablemente contemporáneo, mañana puede resultar superfluo. Analizamos el artículo de Beade Pereda (2022) sobre este interesante tema.

La responsabilidad del diseño: contra la tiranía de la rapidez.

Como ingenieros y arquitectos, debemos entender que un puente no es solo una solución logística para unir dos puntos. Es un acto de transformación emocional del paisaje. El diseño de infraestructuras tan prominentes conlleva una carga ética que a menudo se ignora en los despachos, donde prima la urgencia administrativa.

«Somos responsables de diseñar estructuras que, a lo largo de sus extensas vidas útiles, serán cruzadas y percibidas por innumerables personas, cuya experiencia estará determinada por la calidad del trabajo realizado en el diseño y la construcción de estos puentes».

La rapidez es, por definición, la enemiga del icono. Un puente que aspire a la inmortalidad requiere una contextualización profunda: debe respetar la historia, la cultura y la orografía del lugar. Cuando la construcción se despoja de esta sensibilidad para acelerar los plazos, el resultado suele ser una estructura genérica, un objeto de consumo inmediato que carece de alma e inevitablemente envejecerá mal.

Jerarquía y autosimilitud: el orden que agradece la vista.

Al analizar obras maestras como el Pont du Gard, descubrimos que su belleza no es accidental, sino que responde a una coherencia casi fractal. Hablamos de la autosimilitud, un principio que logra la armonía mediante la repetición de geometrías a distintas escalas. No se trata solo de una sucesión de arcos, sino de una jerarquía visual en la que los arcos principales contienen a los secundarios.

Esta organización formal hace que la estructura sea legible desde cualquier distancia y reduce lo que denominamos «fatiga visual». El cerebro humano encuentra placer en este orden lógico. La simetría sigue siendo el estándar del equilibrio y la belleza universal, pero el uso deliberado de la asimetría, como en el puente Octavio Frias de Oliveira, se reserva para hitos que buscan romper la norma y establecerse como referencias visuales disruptivas en el tejido urbano.

La geometría del instinto: por qué amamos el arco.

Nuestra respuesta ante la infraestructura está mediada por mecanismos subconscientes de supervivencia. Existe una clara preferencia atávica por las formas curvas. Los puentes en arco suelen gozar de una aceptación universal, ya que la curva se percibe como algo orgánico y seguro.

No obstante, existe un matiz fascinante en la tipología de los puentes colgantes. Estas estructuras suelen ser las más apreciadas porque logran el equilibrio psicológico perfecto: combinan la «curva de la catenaria» (que nos atrae instintivamente) con torres elevadas y afiladas. En contraste, los puentes atirantados modernos, con sus ángulos marcados y sus líneas agresivas, captan de inmediato nuestra atención. Son memorables y potentes, pero carecen de la calidez subconsciente que hace que el arco o el puente colgante sea una obra acogida con afecto inmediato por la ciudadanía.

La navaja de Ockham frente a la trampa de la espectacularidad.

En la crítica de diseño solemos debatir entre dos filosofías contrapuestas:

  • Pureza formal (Navaja de Ockham): defiende que el diseño más simple entre soluciones equivalentes es el mejor. Puentes como el Stari Most o el puente Kintai demuestran que la elegancia de las proporciones y la honestidad estructural son inmunes a las modas.
  • Memorabilidad (efecto von Restorff): la búsqueda de lo excepcional para que se grabe en la memoria, como el puente Helix o el puente de la Torre de Londres.

Como profesionales, debemos advertir sobre los peligros del efecto von Restorff. Que un puente sea memorable no significa que sea «bueno». La espectacularidad gratuita a menudo se convierte en esclava de la tendencia del momento. La verdadera durabilidad estética reside en la simplicidad y la armonía técnica; un diseño que no grita suele ser el que más tiempo permanece en el imaginario colectivo.

El puente como destino: la escala de la experiencia.

Los puentes que han sobrevivido durante siglos en el afecto popular, como el Puente de Carlos en Praga o el Ponte Vecchio en Florencia, comparten un secreto: dejaron de ser «vías» para convertirse en «lugares». Estos puentes no solo se admiran desde la orilla, sino que se viven.

Para convertir una infraestructura en un destino, es fundamental atender a la escala humana.

  • Espacios interiores dramáticos: el uso de cubiertas y tejados (como en el puente Khaju) crea una atmósfera arquitectónica que trasciende el mero hecho de cruzar.
  • Integración del arte y el mobiliario: esculturas, barandillas estructurales y detalles ornamentales que invitan al peatón a detenerse.
  • El puente como mirador: diseñar el paso para que el usuario no solo pase, sino que experimente el paisaje a través de vistas enmarcadas y reflejos intencionados.

Conclusión: lo bello es consecuencia de lo correcto.

La durabilidad estética no es algo que se añada al final del proyecto, sino que es consecuencia de la integridad técnica y del respeto cultural. Un diseño excelente puede morir prematuramente si su mantenimiento exige añadidos posteriores que traicionen la intención original del autor. Por ello, la elección de materiales nobles y una concepción que facilite su conservación son decisiones de diseño fundamentales.

Como bien expresa el aforismo japonés: «Lo bello es la consecuencia de lo correcto».

Un puente ideal debe ser funcional y coherente, pero, sobre todo, debe integrarse en su entorno con una escala adecuada. Al proyectar las venas de nuestras ciudades futuras, debemos hacernos la siguiente pregunta: ¿Estamos diseñando objetos de consumo inmediato que la historia devorará en cincuenta años o estamos construyendo monumentos que las generaciones del siglo XXII protegerán como su legado más preciado?

Te dejo una conversación en la que puedes escuchar algunas de las ideas más interesantes.

En este vídeo se resumen bien los conceptos tratados.

Referencia:

Beade Pereda, H. (2022). Sobre la durabilidad estética en el diseño de puentesHormigón y Acero73(297), 7-14.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

ASG, Alto Almanzora Consultoría Geológica e ICITECH-UPV galardonados con el Premio FTI 2025 por innovación en geotecnia sostenible

Acto de entrega de premios, el 27 de marzo de 2026. De izquierda a derecha: José Antonio Galdón Ruiz, Antonio Sánchez Garrido y José Manuel Prieto Barrio.

El hito de la innovación en cimentaciones sostenibles.

La transferencia tecnológica impulsada desde nuestro grupo de investigación sigue dando sus frutos. En el marco de la tesis doctoral de Antonio Sánchez Garrido —doctorando al que tengo el placer de codirigir junto con el profesor Ignacio Navarro—, la alianza estratégica entre las empresas ASG y Alto Almanzora Consultoría Geológica, y el grupo de investigación ICITECH de la Universitat Politècnica de València (UPV), ha sido reconocida con un accésit en el Premio FTI 2025, otorgado por la Fundación Técnica Industrial.

El galardón distingue el proyecto SM-KsDirect Method y el software SM-KsDirect® , una solución disruptiva que establece un método de cálculo directo y riguroso del coeficiente de balasto (Ks). Esta innovación supera la «incertidumbre conservadora» que ha condicionado la práctica geotécnica durante más de cien años y abre la puerta a una nueva forma de trabajar: en lugar de recurrir al sobredimensionamiento estructural —que históricamente ha supuesto un lastre económico y un consumo innecesario de recursos—, profesionales y organizaciones disponen ahora de una herramienta de precisión matemática que garantiza simultáneamente la seguridad estructural y la descarbonización real en la edificación.

El prestigio detrás del galardón: la Fundación Técnica Industrial.

La Fundación Técnica Industrial (FTI) es un actor clave en la investigación científica e industrial en España, cuya misión es fomentar la excelencia técnica como base del progreso económico. En la IV edición del Premio a la Innovación Tecnológica, Empresarial y de Sostenibilidad, se han reconocido específicamente aquellas iniciativas que aplican la innovación para mejorar los procesos industriales y alcanzar los objetivos de descarbonización. La rigurosidad del jurado al otorgar este galardón subraya que el proyecto liderado por ASG e ICITECH no solo supone una mejora incremental, sino que también responde a la necesidad de cerrar el vacío normativo internacional en el cálculo de cimentaciones superficiales.

Galardonados en la IV edición del Premio a la Innovación Tecnológica, Empresarial y de Sostenibilidad de la Fundación Técnica Industrial

Alianza científico-industrial: liderazgo y validación a nivel máximo.

El éxito de esta propuesta radica en un ecosistema de colaboración en el que la academia y la industria convergen para resolver problemas estructurales complejos.

  • Liderazgo científico: el proyecto cuenta con el respaldo del profesor Víctor Yepes, doctor ingeniero de caminos, catedrático de la UPV.
  • Socio tecnológico industrial: es fundamental destacar la participación de Alto Almanzora Consultoría Geológica, S. L., liderada por José F. Moreno Serrano, cuya experiencia en geotecnia aplicada ha sido clave para la conceptualización y el desarrollo del software junto con el autor principal, Antonio J. Sánchez Garrido (ASG Architecture).
  • Rigor académico global: el método se ha validado mediante su publicación en la revista Environmental Impact Assessment Review (2026), situada en el primer cuartil del ranking científico mundial. Esta revisión por pares garantiza que el software SM-KsDirect® es una herramienta de ingeniería calibrada y no una «caja negra» de cálculo.

De la incertidumbre a la objetividad: el factor de seguridad.

Durante décadas, el parámetro «Ks» (que regula la interacción suelo-estructura) se ha definido mediante fórmulas subjetivas o ensayos de placa a pequeña escala, que suelen dar lugar a errores. El método SM-KsDirect rompe con esta dinámica al introducir un procedimiento de puntuación para el factor de seguridad (FS). Este sistema permite al ingeniero asignar un rango de FS entre 1,2 y 2,5 basado en una evaluación objetiva de la incertidumbre de los datos geotécnicos frente a la ignorancia subjetiva del proyectista.

El impacto de pasar del empirismo a la cuantificación objetiva se refleja en los siguientes indicadores clave de rendimiento (KPI), derivados del estudio comparativo de la metodología:

KPI clave Métodos convencionales SM−KsDirect® Impacto / mejora
Capacidad portante utilizable Base 100 180 +80% de optimización
Consumo de hormigón Base 100 92 -8% de ahorro directo
Consumo de acero Base 100 82 -18% de ahorro directo
Huella ambiental (CO2, agua, áridos) Base 100 80-85 -15% a -20% de reducción
Resiliencia y seguridad de usuarios Base 100 130 +30% de control estructural

Validación en el mundo real: el caso del hotel DAIA y la proyección industrial.

La viabilidad del método se ha contrastado en escenarios de alta complejidad técnica, como en la ejecución del Hotel DAIA, en La Herradura (Granada). En este proyecto, el método SM-KsDirect permitió optimizar una losa de cimentación parcialmente compensada en un entorno de suelos granulares estratificados con intercalaciones débiles. Mediante el uso de una losa tipo «Unidome» (formador de huecos multiaxiales de PE), se consiguió un equilibrio físico-matemático que redujo los costes de construcción inicial en un 12 % y prevé una reducción del 24 % en los gastos de mantenimiento durante los próximos 50 años.

Esta eficiencia se puede escalar fácilmente al ámbito industrial:

  • En naves logísticas de 20 000 m², la aplicación del software SM-KsDirect® puede generar ahorros directos de entre 200 000 y 400 000 euros al ajustar los espesores de la losa y las cuantías de acero.
  • Resiliencia industrial: el control de los asientos diferenciales evita paradas productivas y reparaciones costosas en suelos industriales sometidos a cargas pesadas.

Compromiso con el futuro: democratización y sostenibilidad.

El proyecto trasciende la rentabilidad comercial y se alinea con los Objetivos de Desarrollo Sostenible (ODS 9, 11, 12 y 13). Un pilar fundamental de esta iniciativa es su dimensión educativa: el software se distribuirá mediante un modelo freemium para universidades, lo que permitirá democratizar el acceso a la geotecnia de alto nivel para las futuras generaciones de ingenieros.

Acto de entrega de premios: La ceremonia oficial de entrega tendrá lugar el 27 de marzo de 2026 a las 10:30 h en la sede del Colegio de Madrid (C/ Jordán, 14).

Este accésit en el Premio FTI 2025 confirma que el SM-KsDirect Method es el nuevo estándar para una ingeniería geotécnica digitalizada, transparente y, sobre todo, responsable con el entorno y la seguridad de la sociedad.

En esta conversación puedes escuchar las ideas más interesantes de este nuevo método.

El vídeo resume bien el contenido de este artículo.

Sustainable_Foundation_Innovation

Referencia:

SÁNCHEZ-GARRIDO, A.J.; MORENO-SERRANO, J.F.; NAVARRO, I.J.; YEPES, V. (2026). Innovative safety framework and direct load–settlement method to optimize vertical subgrade modulus in sustainable mat foundations. Environmental Impact Assessment Review, 118, 108191. DOI:10.1016/j.eiar.2025.108191

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El arte de simplificar el caos: los modelos matemáticos de optimización.

En un mundo tan complejo, la toma de decisiones no puede dejarse al azar ni a la intuición desmedida. Nos encontramos ante un laberinto de variables en el que cada elección parece desencadenar consecuencias sistémicas.

Sin embargo, las matemáticas no pretenden capturar cada átomo de esta realidad, sino que su verdadero poder radica en su capacidad para destilarla. Un modelo matemático no es un reflejo del mundo, sino una herramienta de pensamiento diseñada para extraer su esencia y convertir el caos en una estructura inteligible y accionable.

A continuación, exploramos cinco revelaciones fundamentales sobre cómo la optimización matemática transforma nuestra capacidad estratégica.

La paradoja de la modelización: el equilibrio entre abstracción y realidad

A menudo se piensa que un modelo es mejor cuanto más se parece a la realidad. Sin embargo, en la ciencia de la optimización, modelar es una abstracción o representación simplificada de un segmento de la realidad. Intentar una copia exacta es un error de diseño, ya que la realidad es muy compleja y gran parte de ella resulta irrelevante para el problema.

La representación y la simplificación resultan difíciles de conciliar en la práctica. El estratega debe navegar entre dos riesgos: no crear algo tan simple que no represente el problema ni algo tan complejo que dificulte la identificación de las relaciones fundamentales. En este punto, es vital distinguir si operamos en un entorno determinista, donde los datos se conocen con certeza, o en uno estocástico, donde interviene el azar, pues esta clasificación definirá el rigor de nuestra estructura.

«La realidad es difícil de copiar de forma exacta».

El paisaje de las soluciones: navegando por el espacio factible

Para visualizar un problema complejo, debemos imaginar un paisaje de relieves accidentados que represente el conjunto de soluciones posibles. Sin embargo, no todo lo posible es realizable. En este punto, definimos el Espacio Factible (X) como el subconjunto del Espacio Posible (Ω) en el que las soluciones efectivamente cumplen nuestras condiciones.

En este terreno, la interpretación del relieve depende del objetivo que tengamos:

  • Si maximizamos, las cimas son los éxitos. Buscamos el óptimo global (la cumbre más alta), evitando quedar atrapados en un óptimo local (una colina que parece buena, pero que es inferior al máximo absoluto). Los valles representan los peores resultados.
  • Si minimizamos, el paradigma se invierte. El éxito se halla en el valle más profundo (el punto de menor coste o riesgo) y las cimas simbolizan la ineficiencia.

La brújula de las decisiones: los cuatro pilares del modelo

Para que un modelo sea un verdadero instrumento de gestión, debe integrar cuatro componentes estructurales que rigen el proceso de elección:

  • Variable de decisión: el factor que está bajo nuestro control. Es la cantidad cuyo valor debemos determinar para resolver el problema de decisión.
  • Parámetro: información conocida, también llamada constante o dato. Su precisión es crítica para la fidelidad del modelo.
  • Restricción: limitación infranqueable de los valores de las variables. Sin restricciones, no hay optimización real.
  • Función objetivo: nuestro norte matemático. Es la expresión que define el éxito en términos de datos y variables. A menudo, el desafío del estratega consiste en optimizar varias funciones objetivo de forma simultánea, equilibrando metas que pueden ser contrapuestas.

Sensibilidad: la resistencia ante la incertidumbre

Una solución óptima sobre el papel es frágil si no puede resistir los embates del mundo real. Debido a la «frecuente incertidumbre sobre el valor real de los parámetros», el estratega debe realizar un análisis de sensibilidad.

Este proceso evalúa cómo cambiaría la solución ante variaciones en los datos de entrada (los parámetros). No buscamos solo la solución más brillante, sino la más robusta.

Un buen consejo:

Si un pequeño cambio en un parámetro (como el precio de una materia prima o el tiempo de entrega) hace que tu solución óptima se venga abajo, no tienes un plan; tienes un riesgo. La validación consiste en asegurarse de que los valores tengan sentido y las decisiones puedan llevarse a cabo de manera efectiva.

El ciclo de validación: el filtro de la implementación

La modelización no es un acto lineal, sino un ciclo iterativo y riguroso. Según el proceso sistémico, no pasamos directamente del modelo a la decisión, sino que antes tenemos que pasar por un filtro de fuego:

  • Definición y datos: El proceso comienza con la identificación de los límites del problema y la recopilación de datos precisos para los parámetros.
  • Resolución y prueba: Tras resolver el modelo, nos preguntamos: ¿es válida la solución?
  • Iteración: Si la solución no tiene sentido lógico o resulta impracticable, el resultado es un modelo modificado. Debemos retroceder, ajustar nuestras suposiciones o la recopilación de datos y volver a resolver.

Solo cuando la solución ha sido validada, procedemos a su implementación. Las matemáticas sin validación práctica son mera abstracción; la ejecución es el juez final.

Conclusión: dominar la realidad mediante los modelos

Modelar es el arte de optimizar bajo restricciones, un principio de elección que separa el éxito fortuito de la eficiencia estratégica. En última instancia, existen distintos tipos de modelos según la naturaleza de sus variables (enteras o continuas) y la linealidad de sus funciones, pero todos comparten un objetivo: simplificar para dominar.

Pregunta para la reflexión: En su organización o proyecto actual, ¿toma decisiones basándose en parámetros validados o intenta escalar una cima sin saber si se encuentra en un óptimo local mientras el verdadero óptimo global se halla en un terreno que aún no ha modelado?

En esta conversación podéis escuchar ideas interesantes sobre los modelos de optimización.

El vídeo resume bien los conceptos más importantes tratados.

Os dejamos aquí un breve vídeo para explicar qué es un modelo matemático de optimización. Espero que os guste.

En este documento tenéis un resumen del tema.

Optimización_Matemática

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Cómo la realidad aumentada está transformando la formación en ingeniería

La ingeniería civil y la minería han sido históricamente industrias definidas por su naturaleza física y ruda, así como por entornos de difícil acceso. Sin embargo, esta realidad está cambiando gracias a la sofisticación de la realidad aumentada, que permite a los ingenieros en formación visualizar lo invisible, desde los desplazamientos tectónicos más profundos hasta los engranajes internos de un camión de extracción. El desafío es evidente: la formación en entornos de alto riesgo y con maquinaria de coste prohibitivo supone una barrera crítica para la educación técnica tradicional.

Frente a este obstáculo, el estudio de Donaire et al. (2026) supone un hito en la Educación 4.0. Su investigación demuestra que la RA no es solo un accesorio visual, sino un motor que impulsa el rendimiento académico. Al trascender el modelo de sustitución tecnológica y alcanzar una auténtica redefinición pedagógica, esta herramienta permite una inmersión segura que mejora sustancialmente la comprensión de procesos geológicos y mecánicos complejos.

El «punto ciego» de la ingeniería en el mapa tecnológico

Al analizar el panorama de las tecnologías inmersivas mediante estudios bibliométricos (figuras 1 y 2), se descubre algo sorprendente. A pesar de la alta complejidad técnica de la industria, la minería se encuentra en una fase inicial de madurez técnica, con un volumen de publicaciones sobre realidad aumentada (RA) significativamente menor que el de la medicina o de la arquitectura.

Este vacío no se debe a una falta de tecnología, sino a la ausencia de una estructura pedagógica sistemática en las aplicaciones existentes. Mientras otras disciplinas han estandarizado el uso de herramientas inmersivas, la minería presentaba un «punto ciego» metodológico. Esta oportunidad permitió el desarrollo del marco SEBAS, diseñado para dotar de rigor académico a la visualización de equipos y la seguridad operativa.

No se trata de la tecnología, sino del método: el auge del marco SEBAS.

La eficacia de la RA en ingeniería no depende de la novedad del software, sino de su alineación con objetivos pedagógicos claros. El estudio de Donaire et al. propone el marco SEBAS, una metodología procedimental que garantiza que cada actividad inmersiva cumpla una función estratégica en el aprendizaje.

  • Selección: definición de competencias y objetivos de aprendizaje específicos.
  • Establecimiento: configuración de parámetros técnicos y de estándares de contenido 3D.
  • Boceto: diseño de prototipos interactivos y validación de la interfaz de usuario.
  • Aplicación: implementación de actividades en entornos de aprendizaje auténticos.
  • Síntesis y supervisión: evaluación de resultados y ciclos de retroalimentación para la mejora continua.

«Este marco facilita el desarrollo de actividades de RA estratégicamente diseñadas que mejoran el rendimiento académico y promueven el compromiso cognitivo».

La democratización del éxito académico.

Los resultados cuantitativos del marco SEBAS constituyen una prueba de su impacto. El uso de esta metodología ha permitido elevar la nota media global de 4,31 a 4,70. Un análisis mediante la prueba t de Welch confirmó que estos resultados son estadísticamente significativos (p < 0,01), especialmente en los cursos con mayor integración tecnológica. Además, la dispersión del rendimiento disminuyó, ya que la desviación estándar bajó de 2,16 a 1,75.

El hallazgo más trascendental es la capacidad de la RA para actuar como un «estabilizador» del aprendizaje, lo que favorece una experiencia educativa más equitativa. Al analizar el percentil 25, se observa que los estudiantes con menor rendimiento en el grupo tradicional obtuvieron una media de 2,70, mientras que en el grupo con RA este percentil subió a 4,50. Esto demuestra que la tecnología inmersiva nivela el terreno de juego, ya que permite que incluso los alumnos con mayores dificultades alcancen el éxito académico.

Del escepticismo a la satisfacción total.

Superar la barrera del «miedo a lo complejo» resultó fundamental para el éxito del proyecto. Inicialmente, solo el 37,2 % de los estudiantes confiaba en la utilidad de la RA para comprender los métodos de explotación. Tras el taller, esta percepción dio un giro radical: el 84,1 % mostró plena confianza y el 92,9 % reconoció su aplicabilidad práctica en la industria real.

La clave de esta adopción fue la rentabilidad de la estrategia. Al utilizar herramientas como Blender y CoSpaces, se demostró que es posible generar contenidos de alta fidelidad sin necesidad de realizar inversiones excesivas. El resultado final habla por sí solo: el 60,5 % de los participantes terminó «muy satisfecho», lo que valida que la facilidad de uso y la relevancia del contenido son los pilares de la transformación digital en el aula.

Hacia la Educación 4.0.

El estudio de Donaire et al. (2026) propone un modelo replicable para todas las disciplinas STEM. La realidad aumentada ha demostrado ser el puente definitivo entre la teoría académica y la práctica profesional, ya que permite a los futuros ingenieros desarrollar una comprensión espacial y procedimental sin precedentes.

Estamos ante una visión de futuro en la que las experiencias inmersivas forman parte integral de la formación profesional y preparan a los estudiantes para afrontar los desafíos de la industria moderna con una base científica y metodológica sólida.

Si la tecnología ya ha demostrado que puede igualar las condiciones académicas, ¿qué nos impide implementarla hoy mismo en todas las facultades de ingeniería?

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

Este vídeo resume bien lo tratado en este artículo.

AR_SEBAS_Evidence_Based_Engineering

Por cierto, podéis descargar el artículo en el enlace de la referencia. Está publicado en abierto.

Referencia:

DONAIRE, S.; BARRAZA, R.; MARTÍNEZ-PAGÁN, P.; MARTÍNEZ-SEGURA, M.A.; ÁLVAREZ, L.; YEPES-BELLVER, L.; YEPES, V. (2026). Augmented Reality in Engineering Education: Strategic Design and Evidence-Based Results. Plos One, 21(2), e0341815. DOI:10.1371/journal.pone.0341815

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Crecimiento infinito en un planeta finito?

Introducción: El despertar de una conciencia colectiva.

Durante dos siglos, el modelo industrial funcionó como un motor ciego que ignoraba el agotamiento de su propio combustible. Según la lógica de la Revolución Industrial, el progreso se concebía como una expansión lineal e inagotable, en la que la naturaleza era una reserva infinita de materias primas y un vertedero sin fondo.

La teoría económica tradicional se limitaba a buscar un «equilibrio de mercado» basado estrictamente en el precio, la oferta y la demanda. Sin embargo, este enfoque falló al no considerar los límites biofísicos del planeta. Hoy sabemos que ignorar el capital natural no solo es un error ecológico, sino también una imprudencia financiera y social.

El propósito de este análisis es explorar los puntos de inflexión que nos obligaron a despertar. Desde las advertencias del MIT hasta la Agenda 2030, estos hitos narran cómo la humanidad ha intentado rediseñar su futuro ante la evidencia de que el crecimiento material no puede ser eterno.

El error de Malthus y la trampa de las revoluciones agrícolas.

A finales del siglo XVIII, Thomas Malthus planteó una advertencia: mientras la producción de alimentos avanzaba en progresión aritmética, la población lo hacía en progresión exponencial. Esta brecha, conocida como la «catástrofe maltusiana», sugería que el hambre era el freno inevitable de nuestra especie.

Sin embargo, la Revolución Agraria y la posterior Revolución Verde de los años sesenta introdujeron un arsenal de semillas de alto rendimiento, fertilizantes químicos y riego intensivo. Parecíamos haber «vencido» a Malthus, pero en realidad solo aumentamos el consumo de recursos finitos y de energía.

Desde una perspectiva estratégica, la tecnología actuó como un analgésico que invisibilizó los límites biofísicos del planeta. Al aumentar artificialmente la capacidad de carga del suelo, ocultamos el problema de fondo: seguimos operando bajo un sistema que exige una expansión material infinita en un entorno limitado.

1972: El despertar político y la confirmación de la ciencia.

1972 fue el año en que la diplomacia y el pensamiento sistémico convergieron. Mientras 113 naciones se reunían en la Cumbre de Estocolmo para crear el PNUMA, un think tank pionero, el Club de Roma, publicaba Los límites del crecimiento, un informe del MIT que desafiaba el dogma del progreso ilimitado.

El modelo científico analizó cinco variables críticas: población, producción industrial, alimentos, contaminación y recursos naturales. La conclusión fue un jarro de agua fría para la clase política de la época, ya que por primera vez se introducía la noción de que el crecimiento exponencial colapsaría a corto plazo.

«Si el incremento actual de la población mundial, la industrialización, la contaminación, la producción de alimentos y la explotación de los recursos naturales se mantienen sin variar, se alcanzarán los límites absolutos del crecimiento de la Tierra en los próximos cien años».

Esta tesis resultó disruptiva, pues demostró que no podíamos gestionar el planeta como compartimentos estancos. El año 1972 marcó el inicio de la conciencia política moderna al establecer que la salud de los ecosistemas es la infraestructura básica sobre la que se asienta cualquier economía viable.

La crisis del petróleo: el catalizador de la eficiencia y de la brecha social.

Entre 1973 y 1980, la «edad de oro» de los combustibles baratos llegó a su fin. El precio del barril de crudo aumentó de 1,8 a 11,6 dólares, lo que desencadenó una inflación global que no solo afectó al sector energético, sino que también tuvo profundas repercusiones sociales. La crisis agravó la brecha entre ricos y pobres y provocó recortes masivos en los programas de salud, educación y bienestar.

La recesión y el desempleo en el sector manufacturero obligaron a la industria a reinventarse bajo el lema de la eficiencia. Lo que comenzó como una medida de supervivencia económica terminó sentando las bases de la sostenibilidad energética moderna y del diseño industrial consciente.

  • Eficiencia en el transporte: fabricación de vehículos con menor consumo y emisiones.
  • Fomento de lo colectivo: impulso estratégico del transporte público frente al vehículo privado.
  • Renovables: nacimiento de la industria fotovoltaica y la búsqueda de alternativas al petróleo.
  • Geopolítica de la finitud: reconocimiento oficial de que la dependencia de los recursos fósiles constituye una vulnerabilidad estratégica.

Informe Brundtland: redefinición de la calidad del «progreso».

En 1983, la Comisión Brundtland recibió el encargo de replantear un modelo de desarrollo global que estaba devorando su propio entorno. El informe final de 1987, Nuestro futuro común, no proponía dejar de crecer, sino transformar radicalmente la «calidad del crecimiento» para hacerlo menos materialista y menos intensivo en energía.

Este documento consagró la definición que hoy constituye el pilar de nuestra disciplina:

«El desarrollo sostenible es aquel que satisface las necesidades del presente sin comprometer la capacidad de las generaciones futuras para satisfacer las suyas».

El cambio de paradigma fue absoluto: la sostenibilidad dejó de ser una preocupación ambientalista para convertirse en una tríada en la que lo económico, lo social y lo ecológico son interdependientes. La equidad se convirtió en un requisito técnico para el progreso y no solo en una aspiración ética.

De los Objetivos de Desarrollo del Milenio a la Agenda 2030: una evolución necesaria.

Los Objetivos de Desarrollo del Milenio (ODM) de 2000 fueron un intento loable, pero limitado. Se centraron únicamente en los países en desarrollo y fueron diseñados por un grupo reducido de expertos. El resultado fue desigual: a pesar de los esfuerzos realizados, millones de personas (925 millones pasaban hambre) se quedaron fuera del progreso debido a la falta de indicadores claros y de participación local.

En 2015, la transición a los Objetivos de Desarrollo Sostenible (ODS) de la Agenda 2030 corrigió estos fallos. Por primera vez, se creó una agenda de «aplicación universal» mediante consultas públicas y encuestas globales que involucraron a la ciudadanía en la definición de sus propias prioridades y metas.

La diferencia crítica radica en la participación ciudadana y la visión sistémica. Los ODS reconocen que la pobreza en un país y el cambio climático en otro son dos caras de la misma moneda. Esta legitimidad democrática es el factor que faltaba en los intentos anteriores para transformar la sostenibilidad en una misión colectiva.

Conclusión: la pregunta que define nuestra era.

La sostenibilidad no es una moda pasajera ni una concesión estética de las empresas; es la respuesta histórica acumulada ante las crisis de recursos, las desigualdades sociales y los límites científicos que ya no podemos ignorar. En esencia, es nuestra estrategia de supervivencia como civilización.

Nuestra responsabilidad generacional nos obliga a mirar hacia el pasado para comprender que el crecimiento tal y como lo conocimos en el siglo XX es una anomalía histórica. El éxito de la Agenda 2030 dependerá de si somos capaces de aplicar el rigor del pensamiento sistémico a cada decisión económica y política.

Al observar la velocidad a la que consumimos actualmente, es inevitable preguntarse si estamos actuando conforme a los principios de equidad del Informe Brundtland para proteger a las generaciones futuras o si seguimos ignorando deliberadamente los límites físicos que la ciencia nos señaló hace ya más de medio siglo.

En esta conversación puedes escuchar algunas de las ideas más importantes.

El vídeo que os dejo resume bien la historia de la sostenibilidad.

En este documento podéis ver las ideas más relevantes.

Sostenibilidad_De_la_Revolución_Industrial_a_2030

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Nuestro trabajo seleccionado entre los mejores de Engineering Structures (Edición vols. 342-345)

Nos complace compartir una excelente noticia: nuestro artículo Life-cycle environmental impact optimization of an RC-THVS composite frame for sustainable construction ha sido reconocido con el Featured Paper Award de la revista Engineering Structures, de Elsevier.

Este galardón distingue a un número muy reducido de trabajos que destacan por su excelencia científica, originalidad y relevancia en la revista. Por tanto, se trata de un reconocimiento de alto nivel al impacto y la calidad de la investigación realizada.

¿Qué es Engineering Structures?

Engineering Structures es una de las revistas internacionales de referencia en el ámbito de la ingeniería civil y estructural. Su objetivo principal es publicar investigaciones avanzadas, tanto teóricas como aplicadas, relacionadas con el análisis, el diseño, el comportamiento y la optimización de estructuras, incluidos puentes, edificios y sistemas estructurales innovadores. La revista hace especial hincapié en los enfoques modernos que integran la sostenibilidad, los nuevos materiales, los métodos computacionales y la evaluación del ciclo de vida.

En términos bibliométricos, Engineering Structures se sitúa en el primer decil (D1) del Journal Citation Reports (JCR) en el área de ingeniería civil, lo que significa que se encuentra entre el 10 % de las revistas con mayor impacto científico a nivel mundial en su campo.

El significado del Featured Paper Award

Recibir el Featured Paper Award implica que el artículo ha sido considerado especialmente relevante por el equipo editorial de la revista, no solo por su calidad metodológica, sino también por su contribución al avance del conocimiento y su interés para la comunidad científica internacional. En este caso, el trabajo aborda la optimización del impacto ambiental a lo largo del ciclo de vida de sistemas estructurales compuestos, lo que lo alinea con uno de los grandes retos actuales de la ingeniería: el desarrollo de infraestructuras más sostenibles y eficientes.

Este reconocimiento aumenta la visibilidad del trabajo publicado y destaca la importancia de integrar criterios ambientales y de sostenibilidad en el diseño estructural, un enfoque cada vez más necesario en el contexto de la transición ecológica del sector de la construcción.

Desde nuestro equipo, agradecemos este reconocimiento y esperamos que el artículo contribuya a seguir impulsando la investigación en ingeniería estructural sostenible y en el análisis del ciclo de vida.

Podéis leer el artículo de forma gratuita si accedéis a este enlace: https://www.sciencedirect.com/science/article/pii/S0141029625018528

Referencia:

Negrín, I., Kripka, M., & Yepes, V. (2025). Life-cycle environmental impact optimization of an RC-THVS composite frame for sustainable construction. Engineering Structures, 345, 121461. https://doi.org/10.1016/j.engstruct.2025.121461

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Marco Vitruvio Polión

Marco Vitruvio Polión (c. 80 a. C.-70 a. C., 15 a. C.). https://www.bbc.com/mundo/noticias-62321557

Marco Vitruvio Polión (en latín Marcus Vitruvius Pollio; c. 80 a. C.-70 a. C., 15 a. C.), conocido simplemente como Vitruvio, fue un arquitecto e ingeniero romano del siglo I a. C. Se desconoce su lugar y año de nacimiento exactos, pero existen varias hipótesis. Maffei lo consideraba originario de Verona; otros estudios señalan Placentia, y algunos autores sostienen que nació en Mola di Gaeta (la antigua Formia), siendo esta última suposición la que parece estar mejor fundada, especialmente por la presencia de la gens Vitruvia en esa zona de la Campania. A pesar de la incertidumbre sobre su biografía, se sabe con certeza que tuvo una vida larga y activa y que su obra ha dejado una huella perdurable en la historia de la arquitectura y la ingeniería.

Vitruvio vivió en un periodo de fuertes transformaciones políticas. Tras décadas de guerras civiles, Roma se encontraba en plena transición de la República al Imperio y nuevos grupos sociales accedían a posiciones de poder antes inaccesibles. Este escenario de expansión territorial, riqueza y cambios culturales generó un gran interés por la construcción, tanto pública como privada, y constituyó el marco en el que Vitruvio desarrolló su carrera. En su juventud, sirvió como soldado bajo el mando de Julio César en Hispania y Grecia, donde trabajó como ingeniero militar especializado en la fabricación de piezas de artillería, como ballistae y scorpiones. En esas campañas adquirió experiencia en construcción militar e infraestructuras que después aplicaría en obras civiles. Posteriormente, residió en Roma, donde trabajó en obras imperiales. Tanto Julio César como Augusto le concedieron una subvención vitalicia en su vejez, lo que constituyó un reconocimiento explícito de su valía profesional y prestigio técnico. La obra que compuso en los últimos años de su vida, ya anciano y enfermo, fue el tratado De Architectura, dedicado a Augusto, su protector, y probablemente terminado antes del año 27 a. C., dado que no menciona los grandes edificios de mármol que caracterizaron el final del reinado de Augusto.

La influencia de Vitruvio también se extiende a su relación con la familia imperial. En su obra se insinúa que contó con la protección de Octavia, hermana de César Augusto, lo que refuerza la idea de que su carrera profesional estuvo vinculada al círculo más próximo al poder. En cuanto a su legado material, sus obras se han perdido casi por completo. Aun así, se conservan vestigios en la ciudad de Fano, donde construyó una famosa basílica y un arco de triunfo augusteo, que aún es visible, aunque ha sido modificado. En el ámbito técnico, se le atribuye la invención del módulo quinario en la construcción de acueductos, lo que constituye una importante aportación a la ingeniería hidráulica romana, y se detalla, además, el uso de la chorobates para nivelar el terreno con una precisión asombrosa. También diseñó máquinas de guerra y construyó numerosos monumentos, aunque la mayoría no han llegado hasta nuestros días.

El Hombre de Vitruvio, de Leonardo da Vinci ilustra, cinco siglos después, las proporciones del cuerpo humano descritas por Vitruvio. https://es.wikipedia.org/wiki/Vitruvio

La fama de Vitruvio se debe, sobre todo, a su tratado De Architectura, la única obra de estas características que se conserva de la Antigüedad clásica. Probablemente compuesto hacia el año 27 a. C., tiene carácter de manual resumido y divulgativo y refleja los procedimientos de la arquitectura romana del último siglo de la República. Aunque en ocasiones resulta incompleto u oscuro, el tratado se organiza en diez libros que abarcan de forma sistemática los distintos aspectos de la arquitectura, desde la teoría hasta la práctica constructiva. Su estructura y contenido constituyen un documento insustituible, también por la información que aporta sobre la pintura y la escultura griegas y romanas, con referencias a artistas y obras.

El libro I comienza con consideraciones sobre las cualidades y los deberes del arquitecto y define la arquitectura como ciencia y arte. Vitruvio expone que la aedificatio incluye la construcción de edificios públicos, clasificados según su finalidad en defensio, religio u oportunitas, y la construcción de edificios privados, en los que se integran aspectos como la gnomónica y la machinatio. El primer libro también aborda problemas urbanísticos, como la elección de lugares adecuados para fundar ciudades, el trazado de calles orientadas para evitar los vientos dominantes, la construcción de murallas defensivas y la distribución de edificios dentro del recinto urbano.

En el libro II, tras repasar la evolución de la arquitectura desde los primeros tiempos, Vitruvio aborda la elección y el uso de materiales y de estructuras murales, con ejemplos prácticos de obras romanas y griegas, destacando especialmente las propiedades de la arena volcánica de Pozzuoli (pulvis puteolanus) para la fabricación de hormigón hidráulico. El libro III describe los distintos tipos de templos y establece normas de proporción y simetría para sus planimetrías y sus partes, prestando especial atención al orden jónico. La columna adquiere una importancia central, ya que regula matemáticamente las proporciones del templo. El libro IV trata sobre los templos dóricos, corintios y toscanos e incorpora preceptos técnicos y rituales de construcción.

El libro V se dedica a los edificios de utilidad pública: foros, basílicas, erarios, cárceles, curias, teatros, pórticos, baños, palestras y puertos. En este apartado, Vitruvio demuestra sus conocimientos técnicos, especialmente en lo relativo a teatros y puertos, donde describe el uso de vasos de bronce afinados armónicamente para mejorar la acústica (echea). Se aprecia un carácter innovador al mencionar y describir brevemente una obra propia: la basílica de Fano. El libro VI trata sobre los edificios privados y supone un distanciamiento respecto a los tratadistas griegos, pues Vitruvio reflexiona sobre cómo el clima y las costumbres determinan las diferencias en la disposición de las viviendas griegas y romanas. El libro VII ofrece preceptos prácticos para los acabados, como enjalbegados, pavimentos y decoraciones esculpidas o pintadas, que confieren a los edificios venustatem y firmitatem.

En el libro VIII, Vitruvio se presenta como un estudioso de la hidráulica y constructor de conductos hidráulicos y aborda cuestiones relacionadas con la ingeniería del agua, incluyendo métodos para descubrir manantiales subterráneos observando la vegetación y los vapores matutinos. El libro IX trata de problemas geométricos y astronómicos aplicados a la gnomónica. Finalmente, en el libro X, retomando conocimientos griegos, se abordan la mecánica y las máquinas de paz y de guerra. En esta última parte, el autor se adentra en un campo de gran interés para él, aunque su lectura resulta difícil para el lector moderno debido a la pérdida de las ilustraciones originales y a la ausencia de un lenguaje técnico consolidado en latín. En este sentido, Vitruvio intentó crear un nuevo lenguaje técnico para describir la arquitectura, transliterando términos griegos o inventándolos en latín, un esfuerzo que algunos especialistas modernos han valorado como innovador.

Conceptualmente, el pensamiento de Vitruvio se inspira en un racionalismo aritmético heredado de la escuela pitagórica, que se complica al combinarse con principios prácticos. La experiencia constructiva interviene continuamente en su juicio, por lo que, desde un punto de vista teórico, algunas ideas resultan confusas y otras categorías no pueden interpretarse con seguridad, como ordinatiodispositiodistributioeuritmia o symmetria.  Entre sus conceptos más influyentes se encuentra la tríada vitruviana: la estabilidad, la utilidad y la belleza (firmitas, utilitas y venustas), que se presentan como cualidades inseparables de una estructura bien concebida. Estas ideas no solo se aplican a edificios públicos, sino también a las residencias privadas, especialmente a las villas de los más ricos, en las que Vitruvio hace hincapié en la decoración interior, la pintura mural y el estuco, así como en la orientación y la función de cada estancia.

A lo largo de los siglos, De Architectura tuvo una fortuna variable. Aunque se conoció y se empleó en la Edad Media —siendo copiado en monasterios como el de Saint Gall—, no ejerció una verdadera influencia sobre el pensamiento artístico hasta el Renacimiento, cuando figuras como León Battista Alberti retomaron y difundieron sus ideas. El redescubrimiento y la difusión del tratado se vieron favorecidos por la imprenta y la edición príncipe de 1486, publicada en Roma por Giovanni Sulpicio da Veroli, resultó decisiva para que los artistas renacentistas accedieran a las formas arquitectónicas de la antigüedad grecorromana. En el siglo XVI, la fama de Vitruvio superó los méritos reales de su obra y se convirtió en un canon rígido de la arquitectura antigua, interpretado de manera normativa en muchos tratados posteriores. En este periodo, el tratado se publicó en numerosos países y se consolidó como una fuente documental insustituible, no solo por su información sobre arquitectura, sino también sobre pintura y escultura, así como por las noticias que aporta sobre artistas y obras.

La influencia de Vitruvio se observa tanto en la evolución de la arquitectura renacentista como en la creación de imágenes emblemáticas como el Hombre de Vitruvio de Leonardo da Vinci (c. 1490). Este dibujo se basó en pasajes de De Architectura y refleja la idea, que se remonta al pensamiento pitagórico y platónico, de que el cuerpo humano es un modelo de proporción y armonía. La idea de que la geometría se deriva de la forma humana y de que las proporciones del cuerpo pueden inscribirse en figuras geométricas como el círculo y el cuadrado convirtió al Hombre de Vitruvio en un símbolo de la conexión entre la naturaleza, las matemáticas y la arquitectura.

Entre las traducciones más importantes destaca la versión italiana de Cesare Cesariano, publicada en 1512 en Como bajo el título Di Lucio Vitruvio Pollione e Cesare Augusto de Architetture… translato in vulgare sermone commentato et affigurato da Cesare Cesariano. Esta edición fue el primer intento de traducir el tratado al italiano y se acompañó de un extenso comentario con numerosas citas de autores clásicos como Plinio el Viejo. Aunque fue criticada por la oscuridad de su lenguaje, supuso un avance importante, ya que se revisaron los códices con método y se ofreció una rica presentación tipográfica. Sus adiciones y comentarios ejercieron una gran influencia en ediciones posteriores hasta que la traducción veneciana de Daniele Barbaro, ilustrada por Andrea Palladio, la superó en claridad y rigor.

En conjunto, Vitruvio puede considerarse una figura clave en la historia de la arquitectura y la ingeniería. Su tratado no solo documenta la técnica constructiva romana, sino que también plantea principios teóricos sobre proporción, belleza y funcionalidad que han perdurado a lo largo de los siglos y siguen siendo una referencia en la cultura arquitectónica occidental.

Dejo un par de videos sobre este eminente personaje. Espero que os sean de interés.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Vivienda social sostenible: un enfoque integrador de ciclo de vida y evaluación multicriterio

Acaban de publicar un artículo nuestro en Sustainable Cities and Society, una de las revistas de mayor impacto científico, ubicada en el primer decil del JCR. En este trabajo se propone un enfoque integrador basado en el ciclo de vida y en métodos de evaluación multicriterio para analizar la vivienda social sostenible. La investigación se enmarca en el proyecto RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València. A continuación, se presenta un resumen del trabajo.

Los principales resultados revelan que el sistema Light Steel Frame (LSF) es la alternativa más sostenible, ya que logra un equilibrio superior entre la eficiencia en el uso de los recursos, la durabilidad y la reducción del mantenimiento. Un descubrimiento crucial es el papel de la dimensión social, que representó casi el 40 % del peso total en la evaluación, por encima de las dimensiones económica y medioambiental. El análisis causal identifica el coste de construcción, la funcionalidad y los agentes de la cadena de valor como los principales factores que condicionan el rendimiento sostenible del resto del sistema.

El artículo presenta un marco metodológico integrador que combina evaluaciones basadas en el ciclo de vida —análisis de ciclo de vida (LCA), análisis de coste del ciclo de vida (LCC) y análisis de ciclo de vida estocástico (S-LCA)— con técnicas avanzadas de decisión multicriterio: método mejor-peor (BWM), análisis DEMATEL difuso y análisis MARCOS. Esta integración permite incorporar ponderaciones de expertos, modelar relaciones causales entre criterios y sintetizar resultados frente a soluciones ideales o anti-ideales, lo que aumenta la transparencia en la priorización de alternativas constructivas. Este enfoque se ha aplicado a un caso real de vivienda social en Perú, en el que se han comparado cinco sistemas estructurales representativos: LSF, LBSPS, RCW, RCF-M y RCF-CP. El estudio ha proporcionado pruebas empíricas sobre los costes del ciclo de vida, los impactos ambientales y las prestaciones sociales que respaldan las decisiones de diseño y las políticas.

El estudio analiza cinco sistemas constructivos adaptados a contextos de urbanización rápida (específicamente en Lima, Perú), que van desde métodos convencionales hasta industrializados:

Entre las aportaciones metodológicas, la combinación de BWM con una agregación basada en credenciales profesionales reduce la carga de comparación y atenúa los sesgos en la agregación de juicios, mientras que la extensión difusa de DEMATEL permite identificar los criterios que funcionan como impulsores del sistema y los que actúan como receptores. Esta capacidad para distinguir entre causas y efectos permite aclarar qué palancas hay que modificar para lograr efectos amplificados en la sostenibilidad. Por último, la validación cruzada con otros métodos de MCDM y los ensayos de sensibilidad aumentan la confianza en la estabilidad de los resultados.

Discusión de resultados

Los análisis económicos muestran que, en un horizonte de 50 años y por metro cuadrado, los sistemas basados en acero ligero (LSF) tienen los menores costes totales de ciclo de vida, mientras que algunas alternativas prefabricadas, como el LBSPS, tienen los mayores costes de construcción. Estos datos implican que si solo se tiene en cuenta la inversión inicial, se pueden tomar decisiones subóptimas, ya que no se consideran el mantenimiento y el fin de vida.

En términos ambientales, la evaluación con ReCiPe (endpoint) sitúa al LSF como el sistema con el menor impacto agregado, principalmente debido a su menor intensidad material. Por el contrario, las soluciones con mayor presencia de hormigón y ladrillo presentan una carga superior, especialmente en la dimensión de recursos. Esta diferenciación pone de manifiesto la influencia del perfil material y del proceso de fabricación en la huella medioambiental de la vivienda y sugiere que, en la práctica profesional, se deben priorizar medidas que reduzcan la demanda de materiales energéticamente intensivos en la fase de fabricación.

La S-LCA revela una tensión entre la industrialización y la exposición social: las alternativas más industrializadas, como el LSF y el LBSPS, presentan mayores valores de exposición laboral y de funcionalidad exigente, mientras que las tipologías convencionales de hormigón muestran menores riesgos sociales, medidos en Medium Risk Hours. Este resultado indica que la adopción de sistemas industrializados exige prestar atención explícita a la gestión del trabajo, la formación y la coordinación de la cadena de suministro para evitar que los impactos negativos se transfieran al personal y a la comunidad.

La síntesis mediante MARCOS ubica a LSF como la alternativa mejor valorada en el escenario analizado, seguida de RCW y RCF-M. Los sistemas LBSPS y RCF-CP quedan en posiciones inferiores. Las pruebas de sensibilidad (variación de los pesos de ±15 %, escenarios de distancia de transporte y estratificación de expertos) muestran que el orden general se mantiene, lo que indica cierta robustez frente a perturbaciones razonables en los supuestos. Estos resultados permiten extraer una conclusión práctica: en contextos con características similares a las del caso estudiado, las soluciones ligeras industrializadas pueden mejorar la relación entre coste, impacto ambiental y rendimiento técnico, siempre que se gestionen adecuadamente los aspectos sociales y de ejecución.

Un aspecto metodológico de interés es la identificación de los criterios causales. La técnica DEMATEL identifica el coste de construcción, la funcionalidad y las interacciones con la cadena de valor como criterios que inciden en el resto del sistema, mientras que los indicadores ambientales, como la salud humana y la conservación de los ecosistemas, se presentan principalmente como efectos. Esto sugiere que las intervenciones en los costes de construcción y en la organización funcional pueden provocar mejoras indirectas en la sostenibilidad ambiental y social, lo cual resulta relevante al diseñar políticas y contratos que incentiven las prácticas integradas.

Futuras líneas de investigación

Una línea de trabajo inmediata consiste en ampliar la diversidad y el tamaño del panel de agentes consultados para captar las variaciones en las prioridades y las competencias profesionales. Esto permitiría evaluar la sensibilidad de las ponderaciones y mejorar la representatividad social del proceso. Otra opción es trasladar y recalibrar el marco a otros contextos geográficos y tipologías constructivas, como viviendas de mayor altura o equipamientos públicos, para evaluar la transferibilidad de la clasificación y de la estructura causal identificada en este estudio.

En el ámbito técnico, utilizar datos primarios de obras reales en lugar de bases de datos secundarias aumentará la fiabilidad de la evaluación del ciclo de vida (LCA) y del análisis del ciclo de vida (S-LCA) y mejorará la precisión de los modelos de coste del ciclo de vida (LCC). La incorporación de enfoques dinámicos, como la LCA dinámica o las simulaciones acopladas a plataformas BIM, puede facilitar las evaluaciones en etapas iniciales y permitir análisis de sensibilidad más detallados relacionados con la sustitución de componentes, las reparaciones y las evoluciones tecnológicas. Asimismo, explorar técnicas de optimización multiobjetivo que vinculen explícitamente las restricciones económicas con las metas ambientales y sociales podría proporcionar soluciones de diseño más operativas para promotores y organismos públicos.

Desde la perspectiva social, investigar intervenciones concretas de capacitación, reorganización de procesos y de contratos que reduzcan la exposición de los trabajadores a los sistemas industrializados aportará pruebas sobre cómo mantener los beneficios ambientales y económicos sin incrementar los impactos sociales. Por último, el estudio de la interacción entre políticas públicas, incentivos financieros y la adopción tecnológica ofrecerá información útil para diseñar instrumentos que favorezcan soluciones constructivas más equilibradas en el marco de los programas de vivienda social.

Conclusión

El estudio proporciona un marco metodológico replicable y sólido que combina la evaluación del ciclo de vida con técnicas multicriterio capaces de representar las interdependencias y la incertidumbre. Los resultados empíricos indican que, en el caso analizado, las soluciones ligeras industrializadas presentan ventajas en términos de coste y de huella ambiental, aunque se requieren medidas específicas para reducir los riesgos sociales derivados de su ejecución. La metodología y los resultados obtenidos sientan las bases para orientar las políticas y las decisiones de los proyectos y ponen de manifiesto la necesidad de ampliar los datos primarios, diversificar la muestra de expertos y conectar el análisis con herramientas digitales de diseño y gestión.

Referencia:

LUQUE CASTILLO, X.; YEPES-BELLVER, L.; YEPES, V. (2026). Towards Sustainable Social Housing: An Integrative Life Cycle and Multi-Criteria ApproachSustainable Cities and Society, 137, 107164. DOI:10.1016/j.scs.2026.107164

Dejo a continuación el artículo completo, ya que está publicado en abierto.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Pánico, secreto y vientos diagonales: La crisis de 59 pisos que casi colapsa el Citigroup Center

Base del Citigroup Center junto a la Iglesia de San Pedro, lo que obligó a una disposición inusual de las columnas. https://es.wikipedia.org/wiki/Citigroup_Center

Introducción: El gigante con pies de barro.

Los rascacielos son monumentos a la permanencia. Se elevan sobre nuestras ciudades como símbolos de ingenio, poder y estabilidad estructural. Sin embargo, en 1978, el Citigroup Center, uno de los edificios más innovadores y reconocibles de Nueva York, ocultaba un secreto aterrador. Inaugurado con gran fanfarria en 1977, este hito de la ingeniería estaba, de hecho, peligrosamente cerca del colapso.

La ironía central de esta historia es casi cinematográfica: el fallo catastrófico se descubrió gracias a la pregunta de una estudiante universitaria, y la persona que cometió el error de cálculo que puso en peligro a miles de personas fue la misma que se convirtió en el héroe que los salvó. Esta es la historia de cómo una combinación de error humano, ética profesional y una suerte increíble evitó uno de los mayores desastres arquitectónicos de la historia moderna.

1. No bastó con un solo error; se necesitaron dos para poner en jaque al gigante.

El fallo que puso en jaque al Citigroup Center no fue un simple descuido, sino la combinación de dos errores críticos que se multiplicaron entre sí.

El primero fue un error de cálculo cometido por William LeMessurier, el ingeniero jefe. Siguiendo el código de construcción de la época, calculó las cargas de viento que incidían perpendicularmente en las caras del edificio. Sin embargo, debido al diseño único de la torre, que estaba apoyada sobre cuatro enormes pilares situados en el centro de cada lado en lugar de en las esquinas, pasó por alto que los vientos diagonales (conocidos como quartering winds) ejercían una tensión mucho mayor. Este descuido incrementó la carga en las uniones estructurales clave en un 40 %.

El segundo error agravó fatalmente el primero. Durante la construcción, la empresa constructora Bethlehem Steel propuso sustituir las uniones soldadas, que eran más resistentes pero también más costosas, por uniones atornilladas, más económicas. Basándose en los cálculos originales de vientos perpendiculares, este cambio parecía una modificación rutinaria y segura, por lo que la oficina de LeMessurier lo aprobó sin que él revisara personalmente las implicaciones. En aquel momento, fue una decisión técnicamente sólida, pero con el paso del tiempo se consideró fatal.

La combinación de un error oculto y una decisión que parecía segura resultó devastadora. La carga adicional del 40 % de los vientos diagonales aplicada a las uniones atornilladas más débiles provocó un aumento catastrófico del 160 % en la tensión de las conexiones. Esto significaba que una tormenta que ocurre cada 55 años podría ser desastrosa. Sin embargo, el peligro real era aún mayor: si el amortiguador de masa sintonizado del edificio, que dependía de la electricidad, fallaba durante un apagón —algo muy probable durante un huracán—, una tormenta mucho más común, de las que golpean Nueva York cada dieciséis años, podría derribarlo.

2. El «héroe» de la historia fue el ingeniero que cometió el error.

Tras descubrir el fallo, William LeMessurier se enfrentó a un dilema ético devastador. Años después, relataría que consideró todas las opciones, desde guardar silencio y arriesgar miles de vidas hasta el suicidio para escapar de la desgracia profesional.

Sin embargo, LeMessurier tomó la decisión más honorable: asumir toda la responsabilidad. Consciente de que esto podría significar el fin de su carrera, la bancarrota y la humillación pública, se puso en contacto con los directivos de Citicorp para informarles de que su flamante rascacielos de 175 millones de dólares era fundamentalmente inseguro. En ese momento, su mentalidad no se limitaba al deber, sino que también reflejaba un profundo sentido de su posición única, como él mismo describió:

«Tenía información que nadie más en el mundo poseía. Tenía en mis manos el poder de influir en eventos extraordinarios que solo yo podía iniciar».

Para su sorpresa, la reacción de los ejecutivos de Citicorp, liderados por el presidente Walter Wriston, no fue de ira, sino de una calma pragmática. En lugar de buscar culpables, Wriston se centró de inmediato en la solución. Pidió un bloc de notas amarillo, empezó a redactar un comunicado de prensa y bromeó: «Todas las guerras se ganan con generales que escriben en blocs amarillos». Este gesto de liderazgo, enfocado y sereno, sentó las bases para la increíble operación de rescate que estaba a punto de comenzar.

El Citigoup Center. https://es.wikipedia.org/wiki/Citigroup_Center

3. Una llamada casual de una estudiante lo desencadenó todo.

Toda esta crisis existencial y de ingeniería se desencadenó en junio de 1978 por un hecho tan improbable como una simple llamada telefónica. Al otro lado de la línea estaba Diane Hartley, una estudiante de ingeniería de la Universidad de Princeton que analizaba la estructura del Citigroup Center para su tesis.

Hartley llamó a LeMessurier con preguntas sobre la estabilidad del edificio frente a vientos diagonales. Confiado en su diseño, LeMessurier le explicó pacientemente por qué la estructura era sólida. Sin embargo, la llamada de Hartley sembró una semilla. No porque tuviera una preocupación inmediata, sino porque la conversación lo inspiró, LeMessurier decidió que el tema sería un excelente ejercicio académico para la conferencia que preparaba para sus propios estudiantes de Harvard.

Fue durante este recálculo, realizado por pura curiosidad intelectual, cuando descubrió con horror su error original. La llamada casual de Hartley no le dio la respuesta, pero le hizo la pregunta correcta en el momento adecuado, lo que supuso el golpe de suerte que reveló una vulnerabilidad mortal y activó la carrera contrarreloj para evitar una catástrofe inimaginable.

4. Una operación secreta, un huracán y una huelga de prensa lo mantuvieron en secreto.

La reparación del Citigroup Center fue una operación clandestina de alta tensión. Bajo el nombre en clave «Proyecto SERENE», los equipos trabajaban con una precisión coreografiada. Cada noche, los carpinteros llegaban a las 17:00 h para construir recintos de madera contrachapada alrededor de las juntas que había que reparar. Entre las 20:00 y las 04:00, con el sistema de alarma contra incendios desactivado, los soldadores trabajaban para reforzar más de doscientas uniones atornilladas con placas de acero de dos pulgadas de espesor. Finalmente, un equipo de limpieza eliminaba todo rastro del trabajo antes de la llegada de los primeros empleados a las 8 a. m., ajenos al peligro que se cernía sobre ellos.

El drama alcanzó su punto álgido a principios de septiembre de 1978, cuando el huracán Ella, una tormenta muy intensa, se dirigía directamente hacia la ciudad de Nueva York. Con las reparaciones a medio terminar, el edificio seguía siendo vulnerable. En secreto, las autoridades elaboraron planes para evacuar la torre y una zona de diez manzanas a su alrededor.

Entonces, la suerte intervino de nuevo. A pocas horas de la posible catástrofe, el huracán Ella viró inesperadamente hacia el Atlántico, salvando a la ciudad. El suspiro de alivio fue inmenso. Y, como si esto no fuera suficiente, un último golpe de fortuna mantuvo todo en secreto: justo cuando la historia estaba a punto de filtrarse, comenzó una huelga de periódicos en toda la ciudad que duró varios meses. La huelga enterró la noticia por completo y el casi desastre permaneció oculto al público durante casi veinte años, hasta que fue revelado en un artículo de The New Yorker en 1995.

Conclusión: la delgada línea entre el desastre y la ética.

La historia del Citigroup Center es un poderoso recordatorio de la fragilidad que puede esconderse tras una apariencia de fortaleza. Una combinación de error humano, profunda ética profesional, liderazgo decisivo y una buena dosis de suerte evitó lo que podría haber sido uno de los peores desastres arquitectónicos de la historia. El ingeniero que cometió el error lo afrontó con una valentía que salvó incontables vidas y, paradójicamente, reforzó su reputación.

La historia del Citigroup Center nos recuerda que incluso los símbolos de la permanencia pueden ser frágiles. Nos deja con una pregunta: ¿cuántos otros secretos se esconden en las estructuras que nos rodean, esperando a que una simple pregunta los saque a la luz?

En esta conversación puedes escuchar las ideas más interesantes sobre este asunto.

Aquí puedes ver un vídeo que resume bien el contenido del artículo.

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Clasificación y principios fundamentales del diseño experimental

Cuando pensamos en un experimento, solemos imaginar una prueba simple para ver qué opción es “mejor”. Sin embargo, esta visión apenas roza la superficie de una disciplina profunda y estratégica. Existen principios sorprendentes que rigen el diseño experimental y son cruciales no solo para la ciencia, sino también para cualquier toma de decisiones informada. A continuación, se describen brevemente los tipos de experimentos que pueden utilizarse en la investigación científica.

El diseño experimental se clasifica en dos categorías principales, según la propuesta de Anscombe (1947): el experimento absoluto y el experimento comparativo. El experimento absoluto se enfoca en la medición de propiedades físicas constantes para ampliar el conocimiento científico, utilizando un modelo estadístico de efectos aleatorios (Modelo II de Eisenhart), ya que los tratamientos se seleccionan al azar de una población más amplia. Por el contrario, el experimento comparativo está orientado a la toma de decisiones en ciencias aplicadas, con el fin de determinar cuál de varios tratamientos predefinidos es “mejor”. Este enfoque utiliza un modelo de efectos fijos (Modelo I de Eisenhart) y exige una definición precisa del problema para garantizar su validez.

El éxito de un experimento, especialmente el comparativo, depende del cumplimiento de cinco principios fundamentales: simplicidad, nivel de precisión adecuado, ausencia de error sistemático, amplio rango de validez de las conclusiones y una correcta cuantificación de la incertidumbre. La elección del diseño y el modelo estadístico asociado (fijo, aleatorio o mixto) determinan directamente el alcance y la naturaleza de las inferencias que pueden extraerse, vinculando de manera inseparable la planificación experimental con las conclusiones científicas y las decisiones de gestión.

La clasificación propuesta por Anscombe distingue los experimentos en dos grandes tipos según su objetivo fundamental: la adquisición de conocimiento puro o la fundamentación de decisiones prácticas.

Uno de ellos es el llamado experimento absoluto. En este tipo de experimento, el interés principal es medir y conocer las propiedades físicas de una población. Se asume que dichas propiedades permanecen constantes, lo que justifica el uso del término absoluto. El objetivo no es comparar alternativas concretas, sino ampliar el conocimiento científico sobre el fenómeno estudiado.

Los experimentos absolutos suelen centrarse en un solo factor y consideran un número limitado de tratamientos o niveles de ese factor. Estos tratamientos suelen elegirse de forma aleatoria. Por esta razón, si el experimento se repite, no es obligatorio utilizar exactamente los mismos tratamientos en cada ocasión.

Debido a esta forma de selección, los tratamientos se consideran variables aleatoriasEn consecuencia, el análisis se basa en un modelo de efectos aleatorios, también conocido como el Modelo II de Eisenhart (1947). Este tipo de modelo permite identificar y estimar los distintos componentes de la variación aleatoria presentes en una población compuesta, lo que constituye un enfoque especialmente útil para muchos problemas de ingeniería.

El experimento comparativo es el segundo tipo de experimento descrito por Anscombe. Este enfoque se utiliza cuando se analizan varios tratamientos y se observa que, aunque los valores absolutos de los resultados pueden fluctuar de forma irregular, las comparaciones relativas entre tratamientos suelen mantenerse estables. En este contexto, es posible concluir que, bajo condiciones similares, algunos tratamientos ofrecen resultados claramente mejores que otros.

Brownlee (1957) sitúa este tipo de experimentos en el ámbito de las ciencias aplicadas, y no es casualidad: la teoría estadística del diseño de experimentos se desarrolló originalmente para responder a las necesidades de este tipo de estudios.

En un experimento comparativo, los tratamientos se evalúan según su efecto promedio sobre una variable de respuesta, con el objetivo principal de determinar cuál es “mejor” según un criterio definido. A diferencia de los experimentos orientados al conocimiento fundamental, aquí el propósito central es apoyar la toma de decisiones prácticas, especialmente las administrativas o de gestión.

Una característica fundamental de los experimentos comparativos es que todos los tratamientos de interés están incluidos explícitamente en el estudio. Por esta razón, el análisis se basa en un modelo de efectos fijos, también conocido como el Modelo I de Eisenhart (1947). Si el experimento se repite, se utilizan exactamente los mismos tratamientos, ya que no se considera una muestra aleatoria. El interés principal radica en detectar y estimar relaciones constantes entre las medias de los tratamientos, lo que conduce naturalmente a la evaluación de hipótesis estadísticas sobre dichas medias.

Para que un experimento comparativo sea válido, debe comenzar con una definición clara y precisa del problema. No basta con plantear de manera general la idea de “comparar tratamientos”. Es imprescindible especificar con detalle los objetivos del estudio y formular con precisión las hipótesis que se probarán. Esta definición inicial determina la población a la que se aplicarán las conclusiones, identifica los factores, los tratamientos y sus niveles, establece las variables de respuesta que se medirán y define qué diferencias entre tratamientos se consideran relevantes. Sin estas especificaciones, no es posible diseñar un experimento adecuado.

Finalmente, una consecuencia natural de los experimentos comparativos es que casi siempre conducen a decisiones concretas. Dado un nivel suficiente de recursos, la hipótesis nula de igualdad entre tratamientos puede rechazarse, lo que obliga a actuar: mantener la situación actual o cambiar a un nuevo tratamiento. Este proceso de decisión consta de dos etapas bien definidas:

  1. Análisis estadístico de los datos, en el que se evalúan las probabilidades asociadas a los resultados y se extraen conclusiones técnicas.
  2. Decisión de gestión en la que, con base en esas conclusiones, se define la acción a realizar.

Esta conexión directa entre el análisis estadístico y la toma de decisiones explica por qué los experimentos comparativos son una herramienta central en la divulgación y la práctica de la ingeniería y de las ciencias aplicadas.

El estadístico cumple un rol clave en el proceso experimental: su responsabilidad es presentar, con la mayor precisión posible, las probabilidades obtenidas en la etapa de análisis, de manera que se reduzca al mínimo la posibilidad de tomar decisiones equivocadas cuando llegue el momento de actuar.

Dado que las decisiones sobre las hipótesis dependen directamente de experimentos cuidadosamente planificados, es esencial que dichos ensayos cumplan con una serie de principios básicos. A continuación se resumen los más importantes, con un enfoque práctico para la ingeniería:

  • Simplicidad: Tanto la selección de los tratamientos como la organización del experimento deben ser lo más simples posible. Un diseño sencillo facilita el análisis estadístico y la interpretación de los resultados y reduce el riesgo de errores innecesarios.
  • Nivel de precisión: El experimento debe permitir detectar diferencias entre tratamientos con el grado de precisión que el investigador considere relevante. Para lograrlo, se requiere un diseño experimental adecuado y un número suficiente de repeticiones que garanticen mediciones confiables.
  • Ausencia de error sistemático: El experimento debe planearse de modo que las unidades experimentales que reciben distintos tratamientos no difieran sistemáticamente entre sí antes de aplicarlos. Este cuidado es fundamental para obtener estimaciones insesgadas del efecto real de cada tratamiento, evitando que factores externos distorsionen los resultados.
  • Rango de validez de las conclusiones: Las conclusiones del experimento deben ser aplicables a un rango de situaciones lo más amplio posible. Los experimentos replicados y los diseños factoriales ayudan a ampliar este rango de validez, ya que permiten evaluar la consistencia de los resultados bajo diferentes condiciones.
  • Cuantificación de la incertidumbre: Todo experimento conlleva cierto grado de incertidumbre. Por ello, el diseño debe permitir calcular la probabilidad de que los resultados observados se deban únicamente al azar. Esta cuantificación es esencial para evaluar la solidez de las conclusiones.

Estos principios conducen a una clasificación clásica de los modelos estadísticos, propuesta por Eisenhart (1947), que conecta el diseño del experimento con el tipo de inferencia que se desea realizar:

  • Modelo de efectos fijos: se utiliza cuando las conclusiones se formulan sobre un conjunto específico y previamente definido de tratamientos. En este caso, el interés estadístico se centra en comparar los efectos medios de dichos tratamientos.
  • Modelo de efectos aleatorios: se aplica cuando los tratamientos evaluados representan una muestra aleatoria de una población más amplia de tratamientos. Aquí, las conclusiones se extienden más allá de los tratamientos observados y la inferencia se centra en las varianzas asociadas a dichos tratamientos.
  • Modelo de efectos mixtos: surge cuando el experimento combina tratamientos de efectos fijos y aleatorios en un mismo estudio.

Esta clasificación permite comprender cómo las decisiones sobre el diseño experimental influyen directamente en el tipo de conclusiones que pueden extraerse, un aspecto fundamental tanto en la práctica como en la divulgación de la ingeniería.

En este archivo de audio puedes escuchar una conversación sobre los tipos de experimentos.

En este vídeo se resumen las ideas más importantes sobre este tema.

Referencias:

Anscombe, F. J. (1947). The validity of comparative experiments. Journal of the Royal Statistical Society, 61, 181–211.

Brownlee, K. A. (1957). The principles of experimental design. Industrial Quality Control, 13, 1–9.

Eisenhart, C. (1947). The assumptions underlying the analysis of variance. Biometrics, 3, 1–21.

Melo, O. O., López, L. A., & Melo, S. E. (2007). Diseño de experimentos: métodos y aplicaciones. Universidad Nacional de Colombia. Facultad de Ciencias.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.