3 secretos sorprendentes detrás de las encuestas que rellenas cada día.

Introducción: La ciencia oculta de las encuestas.

Todos hemos pasado por ello: cuestionarios interminables, preguntas que parecen sacadas de un manual de psicología y, sobre todo, esa sensación de responder a la misma pregunta una y otra vez. Es una experiencia tan común como, a menudo, frustrante. ¿Por qué algunas preguntas parecen extrañas o repetitivas? ¿Realmente merece la pena todo este esfuerzo?

La respuesta es un rotundo sí. Detrás de cada cuestionario bien diseñado se esconde la rigurosa ciencia de la psicometría, el campo dedicado al arte de la medición precisa. Conceptos como la fiabilidad y la validez son los pilares de cualquier instrumento de medición serio, ya sea una encuesta de satisfacción del cliente o un test de personalidad.

Este artículo desvela algunos de los secretos más sorprendentes y fascinantes sobre cómo se construyen estas escalas de medida. Descubrirás por qué la repetición puede ser una virtud, por qué la perfección a veces es sospechosa y por qué es posible equivocarse de manera confiable.

Primer secreto: la fiabilidad no es la validez (y se puede estar fiablemente equivocado).

En el mundo de la medición, la fiabilidad y la validez son dos conceptos cruciales que a menudo se confunden. Sin embargo, comprender su diferencia es fundamental para entender por qué algunas encuestas funcionan y otras no.

  • La fiabilidad se refiere a la precisión o consistencia de una medida. Un instrumento fiable produce resultados muy similares cada vez que se utiliza en las mismas condiciones.
  • La validez es la exactitud de la medida. Un instrumento válido mide exactamente lo que se pretende medir. La validez va más allá de la simple exactitud, ya que se asegura de que las conclusiones que extraemos de los resultados de la encuesta estén justificadas y sean significativas.

La mejor manera de entenderlo es mediante la analogía de un tirador que apunta a una diana.

  • Fiabilidad sin validez: imagina a un tirador. Escuchas el sonido seco y repetitivo de los disparos impactando en la madera, agrupados en un área no mayor que una moneda, pero peligrosamente cerca del borde de la diana. El patrón es muy consistente (alta fiabilidad), pero erróneo de forma sistemática, ya que no alcanza el blanco (baja validez). Esto representa un error sistemático que se debe a un defecto fundamental en el diseño del cuestionario, como preguntas mal redactadas o una escala de respuesta poco clara.
  • Validez con baja fiabilidad: ahora imagina a un tirador cuyos disparos están dispersos por toda la diana, pero cuya media se sitúa justo en el centro. No hay precisión en cada tiro (baja fiabilidad), pero, en conjunto, apuntan en la dirección correcta (alta validez). Esto representa errores aleatorios que pueden deberse a factores incontrolables, como distracciones, ruido ambiental o incluso al estado de ánimo temporal del encuestado.
Validez y fiabilidad (Morales, 2008)

La conclusión clave es que la validez es más importante que la fiabilidad. Como subrayan los expertos en la materia: «Un instrumento puede ser muy fiable (medir muy bien), pero no medir bien lo que se quería medir». De nada sirve medir algo con una precisión milimétrica si no es lo que realmente nos interesa.

Segundo secreto: ¿por qué las encuestas a veces parecen repetitivas?

Una de las quejas más comunes sobre los cuestionarios es que incluyen preguntas que parecen decir lo mismo de distintas maneras. Lejos de ser un descuido, el uso de lo que los expertos denominan «ítems repetitivos» —expresar la misma idea de diversas formas— es una técnica deliberada y muy útil para garantizar la calidad de los datos. Esta «forma bidireccional de redactar los ítems» tiene dos ventajas principales:

  • Requiere mayor atención del sujeto: al presentar la misma idea con formulaciones distintas (a veces en positivo y otras en negativo), se evita que la persona responda de forma automática o sin pensar y se le obliga a procesar el significado de cada pregunta.
  • Permite comprobar la coherencia de las respuestas: sirve como control de calidad para detectar y mitigar dos de los sesgos más frecuentes al responder encuestas: la aquiescencia y el sesgo de confirmación.
    • Aquiescencia: tendencia a estar de acuerdo con todas las afirmaciones. Imagina a alguien que responde con prisas, marcando «Totalmente de acuerdo» a todo («Sí, el servicio fue excelente», «Sí, el producto es terrible»), con el único fin de terminar cuanto antes.
    • Deseabilidad social: tendencia a responder para proyectar una buena imagen. Este sesgo lo muestra la persona que, al ser preguntada por sus hábitos de reciclaje, se presenta como un ecologista modelo, aunque el contenido de su cubo de basura cuente una historia muy diferente.

Por lo tanto, la próxima vez que te encuentres con preguntas que te resulten familiares en un mismo cuestionario, recuerda que no se trata de un error. Se trata de una herramienta diseñada para garantizar que tus respuestas sean más atentas, coherentes y, en última instancia, sinceras.

Tercer secreto: una fiabilidad «perfecta» puede ser una señal de alarma.

Intuitivamente, podríamos pensar que el objetivo de cualquier escala de medida es lograr la mayor fiabilidad posible. Sin embargo, en psicometría, una fiabilidad extremadamente alta puede ser una señal de alarma que indica un problema subyacente.

El coeficiente de fiabilidad más utilizado, el alfa de Cronbach, presenta una particularidad: su valor tiende a aumentar al añadir más ítems a la escala. Esto crea la tentación de inflar artificialmente la fiabilidad simplemente alargando el cuestionario. Como advierte la literatura especializada: «No se debe buscar una alta fiabilidad aumentando sin más el número de ítems, sin pensar si realmente son válidos».

Un ejemplo hipotético ilustra perfectamente este peligro. Imaginemos que aplicamos un test a un grupo mixto compuesto por niñas de 10 años que hacen ballet y niños de 14 años que juegan al fútbol. Les preguntamos por su edad, su sexo y el deporte que practican. La fiabilidad estadística se dispara porque las preguntas son perfectamente consistentes al separar a los dos grupos. Si se pregunta sobre ballet, todas las niñas responden de una manera y todos los niños de otra. Si se pregunta por el fútbol, ocurre lo mismo. El algoritmo estadístico detecta esta consistencia impecable y reporta una fiabilidad altísima, sin comprender que el «rasgo» subyacente que se está midiendo es simplemente una mezcla de datos demográficos, no una característica psicológica coherente. A pesar de esa elevada fiabilidad, en realidad no estaríamos midiendo «nada interpretable».

Este ejemplo nos deja una lección fundamental que el texto fuente resume de manera brillante:

«En ningún caso la estadística sustituye al sentido común y al análisis lógico de nuestras acciones».

Conclusión: la próxima vez que rellenes una encuesta…

Desde el dilema fundamental entre mediciones consistentes, pero erróneas (fiabilidad frente a validez), pasando por el uso deliberado de la repetición para burlar nuestros propios sesgos, hasta la idea contraintuitiva de que una puntuación «perfecta» puede indicar un resultado sin sentido, queda claro que elaborar una buena encuesta es un trabajo científico.

La próxima vez que te enfrentes a un cuestionario, en lugar de frustrarte por sus preguntas, ¿te detendrás a pensar qué rasgo intentan medir y si realmente lo están logrando?

En este audio os dejo una conversación sobre estas ideas.

Os dejo un vídeo que resume el contenido de este artículo.

Referencias:

Campbell, D. T., & Fiske, D. W. (1959). Convergent and discriminant validation by the multitrait–multimethod matrix. Psychological Bulletin, 56(2), 81–105. https://doi.org/10.1037/h0046016

Dunn, T. J., Baguley, T., & Brunsden, V. (2014). From alpha to omega: A practical solution to the pervasive problem of internal consistency estimation. British Journal of Psychology, 105, 399–412. https://doi.org/10.1111/bjop.12046

Farrell, A. M. (2010). Insufficient discriminant validity: A comment on Bove, Pervan, Beatty and Shiu (2009). Journal of Business Research, 63, 324–327. https://ssrn.com/abstract=3466257

Fornell, C., & Larcker, D. F. (1981). Evaluating structural equation models with unobservable variables and measurement error. Journal of Marketing Research, 18(1), 39–50. https://doi.org/10.1177/002224378101800104

Frías-Navarro, D. (2019). Apuntes de consistencia interna de las puntuaciones de un instrumento de medida. Universidad de Valencia. https://www.uv.es/friasnav/AlfaCronbach.pdf

Grande, I., & Abascal, E. (2009). Fundamentos y técnicas de investigación comercial. Madrid: ESIC.

Hernández, B. (2001). Técnicas estadísticas de investigación social. Madrid: Díaz de Santos.

Hair, J. F., Anderson, R. E., Tatham, R. L., & Black, W. C. (1995). Multivariate data analysis (Eds.). New York: Prentice Hall International, Inc.

Kotler, P., & Armstrong, G. (2001). Marketing. México: Pearson Prentice Hall.

Matas, A. (2018). Diseño del formato de escalas tipo Likert: un estado de la cuestión. Revista Electrónica de Investigación Educativa, 20(1), 38–47. http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1607-40412018000100038

Morales, P. (2006). Medición de actitudes en psicología y educación. Madrid: Universidad Pontificia de Comillas.

Morales, P. (2008). Estadística aplicada a las ciencias sociales. Madrid: Universidad Pontificia Comillas.

Nadler, J., Weston, R., & Voyles, E. (2015). Stuck in the middle: The use and interpretation of mid-points in items on questionnaires. The Journal of General Psychology, 142(2), 71–89. https://doi.org/10.1080/00221309.2014.994590

Nunnally, J. C. (1978). Psychometric theory. New York: McGraw-Hill.

Schmitt, N. (1996). Uses and abuses of coefficient alpha. Psychological Assessment, 8(4), 350–353. http://ist-socrates.berkeley.edu/~maccoun/PP279_Schmitt.pdf

Prats, P. (2005). Métodos para medir la satisfacción del cliente. Madrid: AENOR Ediciones.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Reconocimiento especial por la divulgación científica de la DANA de 2024

Figura 1. De izquierda a derecha: Julián Alcalá, José Capilla (rector de la UPV), Víctor Yepes y Eugenio Pellicer

Quisiera expresar mi más sincero agradecimiento a la Universitat Politècnica de València (UPV) por el reconocimiento especial recibido por

«el firme compromiso con la divulgación científica y la exquisita atención a los medios de comunicación en la cobertura periodística vinculada a la DANA que asoló la provincia de Valencia en octubre de 2024».

Este reconocimiento ha sido otorgado a varios profesores de la UPV que, desde el primer momento, han intentado aportar explicaciones rigurosas y fundamentadas desde los ámbitos técnico y científico sobre este trágico fenómeno meteorológico. En la Figura 1 se pueden ver a los profesores Julián Alcalá, Víctor Yepes y Eugenio Pellicer, junto con el rector de la Universitat Politècnica de València, José Capilla. En la imagen aparecemos quienes hemos centrado nuestra labor divulgativa en los aspectos relacionados con las infraestructuras, como los puentes, las vías de comunicación, los procesos de reconstrucción y la resiliencia estructural ante eventos extremos.

Otros compañeros del Instituto de Ingeniería del Agua y Medio Ambiente (IIAMA), como Félix FrancésFrancisco VallésManuel PulidoMiguel Ángel Eguibar y Juan Marco, también han contribuido de forma ejemplar desde la perspectiva de los fenómenos hidrológico e hidráulico, aportando información valiosa para entender las causas y consecuencias de la DANA.

De izquierda a derecha: Francisco Vallés, Manuel Pulido, Juan Marco, José Capilla (rector de la UPV), Miguel Ángel Eguibar y Félix Francés.

En el ámbito del urbanismo y la ordenación del territorio, fueron reconocidos los profesores Sergio Palencia y María Jesús Romero. Y otros tantos de otras áreas de conocimiento de nuestra universidad. Tampoco quisiera olvidarme de algunos profesores, ya jubilados de la UPV y que no estuvieron en el acto de ayer, que también han contribuido a la divulgación científica de la DANA, como Federico Bonet y Vicent Esteban Chapapría.

De izquierda a derecha: Sergio Palencia, José Capilla (rector de la UPV) y María Jesús Romero.

En mi caso, recibo con gratitud este reconocimiento, pero considero que es una obligación profesional y ética ofrecer a la opinión pública explicaciones claras, basadas en la ciencia y la ingeniería, sobre un tema tan complejo y delicado. La divulgación técnica rigurosa es esencial para construir una sociedad más informada, capaz de afrontar los desafíos que nos plantea el cambio climático y sus efectos sobre nuestras infraestructuras.

Por tanto, mi agradecimiento es doble: a la institución, por valorar este trabajo, y a todos los compañeros que comparten la convicción de que la ciencia debe estar al servicio de la sociedad, especialmente en los momentos más difíciles.

Algunas de las intervenciones en prensa del mismo día del primer aniversario de la DANA las podéis ver en este enlace: https://victoryepes.blogs.upv.es/2025/10/29/primer-aniversario-de-la-dana-de-valencia-anatomia-de-un-desastre/

 

5 lecciones sorprendentes de ingeniería avanzada para construir puentes más sostenibles y económicos

Cuando pensamos en la construcción de grandes infraestructuras, como los puentes, a menudo nos viene a la mente una imagen de fuerza bruta: toneladas de hormigón y acero ensambladas con una precisión monumental. Se trata de una proeza de la ingeniería física, un testimonio de la capacidad humana para dominar los materiales y la geografía.

Sin embargo, detrás de esta fachada de poderío industrial se está produciendo una revolución silenciosa. La inteligencia artificial y los modelos computacionales avanzados, que pueden ejecutar el equivalente a décadas de diseño y pruebas de ingeniería en cuestión de horas, están redefiniendo las reglas del juego. Lejos de ser un mero ejercicio teórico, estas herramientas permiten a los ingenieros diseñar puentes que son no solo más resistentes, sino también sorprendentemente más económicos y respetuosos con el medio ambiente.

Las lecciones que siguen se basan en los hallazgos de una tesis doctoral, defendida por la profesora Lorena Yepes Bellver, innovadora en la optimización de puentes. La tesis obtuvo la máxima calificación de sobresaliente «cum laude». Las lecciones demuestran que el futuro de la construcción no radica únicamente en nuevos materiales milagrosos, sino en la aplicación de una inteligencia que permita aprovechar los ya existentes de forma mucho más eficiente.

De izquierda a derecha: Julián Alcalá, Salvador Ivorra, Lorena Yepes, Tatiana García y Antonio Tomás.

1. El pequeño coste de un gran impacto ecológico: pagar un 1 % más para emitir un 2 % menos de CO₂.

Uno de los principales obstáculos para la adopción de prácticas sostenibles ha sido siempre la creencia de que «ser verde» es significativamente más caro. Sin embargo, la investigación en optimización de puentes revela una realidad mucho más alentadora. Gracias a los diseños perfeccionados mediante metamodelos, es posible lograr reducciones significativas de la huella de carbono con un impacto económico mínimo.

El dato clave del estudio es contundente: «Un modesto aumento de los costes de construcción (menos del 1 %) puede reducir sustancialmente las emisiones de CO₂ (más del 2 %)». Este hallazgo demuestra que la sostenibilidad no tiene por qué ser un lujo, sino el resultado de una ingeniería más inteligente.

 

«Esto demuestra que el diseño de puentes sostenibles puede ser económicamente viable».

Esta lección es fundamental, ya que pone fin a una falsa dicotomía entre la economía y la ecología. Demuestra que no es necesario elegir entre un puente asequible y otro respetuoso con el medio ambiente. Gracias a las decisiones de diseño inteligentes, guiadas por la optimización avanzada, es posible alcanzar ambos objetivos simultáneamente, de modo que la sostenibilidad se convierte en una ventaja competitiva y no en una carga.

2. La paradoja de los materiales: añadir más componentes para reducir el consumo global.

La lógica convencional nos diría que, para construir de forma más sostenible, el objetivo debería ser reducir la cantidad total de materiales utilizados. Menos hormigón, menos acero, menos de todo. Sin embargo, uno de los hallazgos más sorprendentes de la tesis es una paradoja que desafía esta idea tan simple.

El diseño óptimo y más sostenible aumenta, de hecho, la cantidad de uno de sus componentes: la armadura pasiva (el acero de refuerzo convencional). A primera vista, esto parece contradictorio: ¿cómo puede ser más ecológico añadir más material?

La explicación se debe a un enfoque sistémico. Este aumento estratégico y calculado del refuerzo pasivo permite reducir considerablemente el consumo de otros dos materiales clave: el hormigón y la armadura activa (el acero de pretensado). La producción de estos materiales, especialmente la del cemento y del acero de alta resistencia, es intensiva en energía y, por tanto, genera numerosas emisiones de CO₂. En esencia, se sacrifica una pequeña cantidad de un material de menor impacto para ahorrar una cantidad mucho mayor de materiales de alto impacto.

Este enfoque, que podría describirse como «sacrificar una pieza para ganar el juego», es un ejemplo perfecto de cómo la optimización avanzada supera las reglas simplistas de reducción. En lugar de aplicar un recorte general, se analiza el sistema en su conjunto y se determina el equilibrio más eficiente. Este equilibrio inteligente de materiales solo es posible si se afina otro factor clave: la geometría de la estructura.

Retos en la optimización de puentes con metamodelos

3. Más esbelto es mejor: el secreto de la «delgadez» estructural para la sostenibilidad.

En el ámbito de la ingeniería de puentes, el concepto de «esbeltez» es fundamental. En términos sencillos, se refiere a la relación entre el canto de la losa y la luz que debe cubrir. Una mayor esbeltez implica un diseño estructural, en palabras comunes, más «delgado» o «fino».

La investigación revela un hallazgo crucial: los diseños que son óptimos tanto en términos de emisiones de CO₂ como de energía incorporada se logran con relaciones de esbeltez altas, concretamente de entre 1/30 y 1/28. En otras palabras, los puentes más sostenibles son también los más delgados y se complementan con hormigones óptimos situados entre 35 y 40 MPa de resistencia característica.

¿Por qué es esto tan beneficioso? Un diseño más esbelto requiere, inherentemente, una menor cantidad de materiales, principalmente de hormigón. Lo realmente notable es cómo se consigue. Los métodos tradicionales suelen basarse en reglas generales y márgenes de seguridad amplios, mientras que la optimización computacional permite a los ingenieros explorar miles, e incluso millones, de variaciones para acercarse al límite físico de la eficiencia sin sacrificar la seguridad. El resultado es una elegancia estructural casi contraintuitiva: puentes que alcanzan su fuerza no a través de la masa bruta, sino mediante una delgadez inteligentemente calculada, donde la sostenibilidad es una consecuencia natural de la eficiencia.

4. La optimización inteligente genera ahorros reales: una reducción de costes de hasta un 6,5 %.

Más allá de los beneficios medioambientales, la aplicación de estas técnicas de optimización tiene un impacto económico directo y medible. El diseño de infraestructuras deja de ser un arte basado únicamente en la experiencia para convertirse en una ciencia precisa que busca la máxima eficiencia económica.

El resultado principal del estudio sobre la optimización de costes es claro: el uso de modelos sustitutos (metamodelos Kriging) guiados por algoritmos heurísticos, como el recocido simulado, logró una reducción de costes del 6,54 % en comparación con un diseño de referencia.

Estos ahorros no son teóricos, sino que provienen directamente de la reducción de materiales. En concreto, se consiguió una disminución del 14,8 % en el uso de hormigón y del 11,25 % en el acero activo (pretensado). Es crucial destacar que estas reducciones se consiguieron sin afectar a la integridad estructural ni a la capacidad de servicio del puente. No se trata de sacrificar la calidad por el precio, sino de diseñar de manera más inteligente. Esta metodología convierte la optimización del diseño en una tarea académica en una herramienta práctica y altamente eficaz para la gestión económica de grandes proyectos de ingeniería civil.

5. No todos los cerebros artificiales piensan igual; la clave está en elegir el modelo computacional adecuado.

Una de las lecciones más importantes de esta investigación es que no basta con aplicar «inteligencia artificial» de forma genérica. El éxito de la optimización depende de elegir la herramienta computacional adecuada para cada tarea específica.

La tesis comparó dos potentes metamodelos: las redes neuronales artificiales (RNA) y los modelos de Kriging. Se descubrió una diferencia crucial en su rendimiento: si bien las RNA ofrecían predicciones absolutas más precisas sobre el comportamiento de un diseño concreto, el modelo de Kriging demostró ser mucho más eficaz para identificar los «óptimos locales», es decir, las zonas del mapa de diseño donde se encontraban las mejores soluciones.

Esto revela una capa más profunda de la optimización inteligente. Un modelo puede ser excelente para predecir un resultado (RNA), mientras que otro es más eficaz para guiar la búsqueda del mejor resultado posible (Kriging). No se trata solo de utilizar IA, sino de comprender qué «tipo de pensamiento» artificial es el más adecuado para cada fase del problema: predecir frente a optimizar. La verdadera maestría de la ingeniería moderna consiste en saber elegir las herramientas adecuadas para cada fase del problema.

Conclusión: la nueva frontera del diseño de infraestructuras.

La construcción de nuestras infraestructuras entra en una nueva era. La combinación de la ingeniería estructural clásica con el poder de los modelos computacionales avanzados, como el metamodelado Kriging y las redes neuronales artificiales, está abriendo una nueva frontera en la que la eficiencia y la sostenibilidad no son objetivos opcionales, sino resultados intrínsecos de un buen diseño.

Como hemos visto, los grandes avances no siempre provienen de materiales revolucionarios. A menudo, los «secretos» mejor guardados residen en la optimización inteligente de los diseños y materiales que ya conocemos. Obtener un mayor beneficio ecológico pagando menos, utilizar estratégicamente más de un material para reducir el consumo global o diseñar estructuras más esbeltas y elegantes son lecciones que van más allá de la construcción de puentes.

Nos dejan con una pregunta final que invita a la reflexión: si podemos lograr esto con los puentes, ¿qué otras áreas de la construcción y la industria están esperando a ser reinventadas por el poder de la optimización inteligente?

Os dejo un audio en el que se discuten las ideas de la tesis doctoral. Espero que os guste.

Y en este vídeo, tenemos resumidas las ideas principales de esta tesis.

Referencias:

YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Predictive modeling for carbon footprint optimization of prestressed road flyovers. Applied Sciences15(17), 9591. DOI:10.3390/app15179591

VILLALBA, P.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2025). A Hybrid Fuzzy DEMATEL–DANP–TOPSIS Framework for Life Cycle-Based Sustainable Retrofit Decision-Making in Seismic RC Structures. Mathematics, 13(16), 2649. DOI:10.3390/math13162649

ZHOU, Z.; WANG, Y.J.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Intelligent monitoring of loess landslides and research on multi-factor coupling damage. Geomechanics for Energy and the Environment, 42:100692. DOI:10.1016/j.gete.2025.100692

ZHOU, Z.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Study on the failure mechanism of deep foundation pit of high-rise building: comprehensive test and microstructure coupling. Buildings, 15(8), 1270. DOI:10.3390/buildings15081270

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

BLIGHT, T.; MARTÍNEZ-PAGÁN, P.; ROSCHIER, L.; BOULET, D.; YEPES-BELLVER, L.; YEPES, V. (2025). Innovative approach of nomography application into an engineering educational context. Plos One, 20(2): e0315426. DOI:10.1371/journal.pone.0315426

NAVARRO, I.J.; VILLALBA, I.; YEPES-BELLVER, L.; ALCALÁ, J. Social Life Cycle Assessment of Railway Track Substructure AlternativesJ. Clean. Prod. 2024450, 142008.

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2024). Artificial neural network and Kriging surrogate model for embodied energy optimization of prestressed slab bridges. Sustainability, 16(19), 8450. DOI:10.3390/su16198450

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2023). Embodied energy optimization of prestressed concrete road flyovers by a two-phase Kriging surrogate model. Materials16(20); 6767. DOI:10.3390/ma16206767

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2022). CO₂-optimization of post-tensioned concrete slab-bridge decks using surrogate modeling. Materials, 15(14):4776. DOI:10.3390/ma15144776

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.;

José Torán Peláez, un visionario de las grandes presas españolas

José Torán Peláez (1916 – 1981). https://www.iagua.es/blogs/eduardo-echeverria/2016-ano-jose-toran

Nació el 10 de agosto de 1916 en Teruel, hijo de José Torán de la Riva (1916-1981) y Consuelo Peláez, pertenecientes a una familia turolense vinculada a la política, la ingeniería y los negocios. Provenía de una estirpe de ingenieros y empresarios: su bisabuelo, José Torán Herreras (1828-1899), y su abuelo, José Torán Garzarán (1853-1902), habían sentado el precedente familiar. En 1924, la familia se trasladó a Madrid, donde José y su hermano Carlos ingresaron en el Instituto-Escuela de la Junta para Ampliación de Estudios, institución que combinaba la formación científica, humanística y artística. Allí se sembró en José Torán un gusto especial por la pulcritud y la estética que marcaría su vida profesional. En 1933 concluyó el bachillerato e inició la preparación para ingresar en la Escuela de Ingenieros de Caminos en la academia de Augusto Krahe. Consiguió la admisión en junio de 1936, justo al inicio de la Guerra Civil.

Durante el conflicto, fue destinado a un campo de trabajo y participó en la construcción del llamado «ferrocarril de los cien días», un proyecto del Gobierno republicano para comunicar Madrid con Valencia. En esta etapa se comenzó la práctica profesional del cuerpo de Ingenieros de Caminos del Ejército republicano. Tras la guerra, entre octubre de 1939 y 1943, completó su formación en la Escuela de Ingenieros de Caminos, con profesores de la talla de José María Aguirre, José Entrecanales, Clemente Sáenz y José María Torroja. De todos ellos, guardó un afecto especial por Clemente Sáenz, a quien dedicó un artículo in memoriam en la Revista de Obras Públicas. Su hermano, Juan Jesús, también cursó Ingeniería de Caminos y llegó a ser ingeniero jefe en la Dirección General de Obras Hidráulicas.

El 22 de julio de 1943, Torán ingresó como ingeniero tercero en el Cuerpo de Ingenieros de Caminos, Canales y Puertos, destinado a los Servicios Hidráulicos del Sur de España. Aunque cesó en agosto de 1947 para dedicarse al ejercicio libre de la profesión, continuó ascendiendo hasta alcanzar el rango de ingeniero primero en 1956 y volvió a ingresar en el cuerpo en 1975.

En 1944, se incorporó a la Empresa Madrileña de Tranvías, gestionada por Augusto Krahe y Ángel Balbás, donde diseñó y construyó el «viaducto Torán», que conectaba Moncloa con la Ciudad Universitaria. Ese mismo año, asistió en Lisboa al Congreso de la Unión Iberoamericana de Urbanismo, donde se reencontró con José Ortega y Gasset, a quien trajo de regreso a España en su coche en 1945. Posteriormente, comenzó a trabajar en Estudios y Ejecución de Obras, S. L., donde gestionó la conclusión de la presa de El Vado (río Jarama), interrumpida durante la guerra, y resolvió problemas de materiales y costes mediante destajos por administración.

Embalse de El Vado. https://es.wikipedia.org/wiki/Embalse_de_El_Vado

En 1946, promovió la creación de su propia empresa, Construcciones Civiles, S. A. (COVILES), con el lema «Grandes presas, grandes obras», e incorporó los contratos y el patrimonio de su anterior empresa. Ese mismo año, inició el recrecimiento de El Vado y entró en contacto con el ingeniero Juan de Arespacochaga, con quien entabló una sólida amistad. En 1950 se casó con Amparo Junquera y tuvieron siete hijos: Leonor, Lucas, Lilia, Lope, Loyola, León y Loreto. Así continuaba la tradición familiar de ingenieros.

En 1955, obtuvo el contrato para construir la base naval de Rota en asociación con Corbetta Construction Company. En esta obra concibió los rompeolas de tetrápodos de hormigón, empleados posteriormente en puertos de todo el mundo. Sin embargo, su salida de Coviles se produjo en 1958 debido a diferencias en la gestión económica. Ese mismo año participó activamente en congresos internacionales de presas y energía, representando a España en la ICOLD y promoviendo la publicación de ponencias sobre recrecimientos de presas existentes.

En 1960, fundó Torán y Compañía, Ingeniería y Fomento, dedicada a la consultoría hidráulica y de grandes obras, un concepto aún incipiente en España. La empresa se integró en Tecniberia. Apoyó como mecenas a literatos, como Jaime Valle-Inclán, Rafael Sánchez Ferlosio, Carmen Martín Gaite, Luis Delgado Benavente y estrecha su amistad con Juan Benet. Torán mantuvo una activa presencia internacional: asistió a congresos en Roma (1961), Moscú (1962) y Estados Unidos, lo que impulsó la proyección española en el ámbito de la hidráulica y los riegos.

Entre 1966 y 1981, presidió el Comité Español de Grandes Presas y fue vicepresidente (1965-1968) y presidente (1970-1973) del Comité Internacional. Bajo su liderazgo, se promovieron normas de diseño y gestión de presas, entre las que destaca la Orden de 31 de marzo de 1967, por la que se aprobó la Instrucción para el proyecto, la construcción y la explotación de grandes presas. Entre sus proyectos internacionales, destaca la regulación de la cuenca del Tigris en Irak (1966-1969), que incluyó el recrecimiento de la presa de Razzaza para crear un embalse de 31 000 hectómetros cúbicos. También fue invitado por el gobierno chino para realizar estudios de planificación hidrológica en 1973 y 1979.

En los años setenta, su oficina de Madrid, ubicada en la calle Pedro de Valdivia, llegó a tener hasta siete sedes, con presencia en Canarias y filiales internacionales. Torán promovió el intercambio cultural y científico y apoyó a escritores y artistas en sus proyectos. Además, en 1979 fundó los foros de debate «Aulas Libres» en el Colegio de Ingenieros de Caminos. A lo largo de su vida, combinó la rigurosidad de la ingeniería con la sensibilidad artística y humanista y siempre proyectó la técnica como un medio para mejorar la sociedad.

Tras el fallecimiento de su esposa, Amparo, en 1976, continuó con su actividad profesional y cultural hasta su fallecimiento el 14 de diciembre de 1981 en Madrid, mientras trabajaba en proyectos para China. Diez años después, se le rindió homenaje denominando el embalse de José Torán en Sevilla en su honor, perpetuando el legado de un ingeniero cuya vida fue una apasionante combinación de ciencia, arte y compromiso internacional.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.;

Prohibieron la IA en sus clases de ingeniería. Ahora es su mejor herramienta para enseñar a pensar.

Introducción: El dilema de la IA en las aulas.

En los pasillos de la educación superior, un debate resuena con fuerza: ¿qué hacemos con la inteligencia artificial generativa (IAG)? Para muchos, herramientas como ChatGPT suponen una amenaza directa para el pensamiento crítico, ya que facilitan el plagio y fomentan la superficialidad académica. El temor es comprensible y está muy extendido.

Sin embargo, ¿y si el problema no fuera la herramienta, sino nuestra forma de reaccionar ante ella? El proyecto PROFUNDIA (acrónimo de PROFUNDo y autonomÍA) surge de esta cuestión, pero con un enfoque inesperado. Esta iniciativa de innovación educativa en ingeniería estructural no surgió de una prohibición teórica, sino de un problema práctico y urgente: el uso no regulado de la IA por parte de los estudiantes estaba deteriorando la calidad de su aprendizaje.

En lugar de intensificar la prohibición, este proyecto propone una solución radicalmente diferente. Este artículo explora los cuatro descubrimientos clave de un enfoque que busca transformar la IA de una amenaza en una de las herramientas pedagógicas más potentes.

Los 4 descubrimientos clave del proyecto PROFUNDIA

1. La cruda realidad es que el uso no supervisado de la IA estaba deteriorando el aprendizaje.

El proyecto PROFUNDIA no se basó en una hipótesis abstracta, sino que surgió de una necesidad urgente detectada en las aulas a partir del curso 2023-2024. El profesorado comenzó a observar un patrón preocupante en los trabajos de los estudiantes.

Las estadísticas internas confirmaron la sospecha: las encuestas revelaron que más del 60 % del alumnado ya utilizaba la IA para hacer sus trabajos. Sin embargo, el dato más alarmante era otro: solo el 25 % de ellos revisaba críticamente los resultados que la herramienta generaba.

La consecuencia fue una «notable disminución de la calidad técnica y argumentativa» de los proyectos. El problema era específico y grave: aunque la herramienta ofrecía soluciones funcionales, no podía verificar las hipótesis iniciales ni razonar la adecuación del modelo al contexto técnico. Los estudiantes dependían de la IA de forma acrítica, entregando trabajos con «errores conceptuales importantes» y debilitando su capacidad de razonamiento. Esto demostró que mirar hacia otro lado no era una opción, sino que era necesaria una intervención educativa guiada.

2. El cambio de paradigma: de la prohibición a la integración crítica.

Hasta entonces, la política en las asignaturas implicadas era clara: el uso de la IA «estaba explícitamente prohibido». Sin embargo, la realidad demostró que esta medida era ineficaz y contraproducente.

En lugar de librar una batalla perdida contra una tecnología omnipresente, el proyecto PROFUNDIA optó por un cambio de 180 grados: integrarla de forma «explícita, guiada y crítica». La nueva filosofía consistía en enseñar a los estudiantes a utilizar la herramienta de manera inteligente en lugar de ignorarla.

La esencia de este nuevo paradigma se resume en su declaración de intenciones:

Frente a enfoques que restringen o penalizan el uso de la IA, PROFUNDIA propone su integración crítica y formativa como herramienta cognitiva para potenciar el aprendizaje profundo, la interpretación técnica, la argumentación fundamentada y el desarrollo de la autonomía del estudiante.

3. El método: aprender a pensar «enseñando» a la IA.

La propuesta metodológica supone un cambio estructural en el aprendizaje, ya que se pasa de un proceso lineal (profesor-estudiante) a otro triangular (profesor-estudiante-IA). En primer lugar, los estudiantes resuelven un problema por sus propios medios. Después, piden a la IA que resuelva el mismo problema. La fase clave llega a continuación: deben comparar críticamente su solución con la de la IA.

En este punto radica la innovación más profunda del método. La IA se incorpora «como un agente más en el proceso, con un papel activo y con un sesgo deliberado hacia el error». El papel del estudiante cambia radicalmente: deja de ser un usuario pasivo para convertirse en entrenador activo de la IA. Su tarea ya no consiste en obtener una respuesta, sino en identificar, cuestionar y corregir los errores de la herramienta, lo que les lleva a «enseñar» a la IA a resolver problemas complejos y, en el proceso, a dominar el tema a un nivel mucho más profundo.

El objetivo final de este proceso es la «reflexión metacognitiva». Se pretende que el estudiante «reflexione sobre cómo piensa y aprende» al contrastar su razonamiento con el de la IA, sus compañeros y el profesor.

4. La meta final: la IA como una «mindtool» para crear mejores ingenieros.

Este enfoque no es solo una técnica ingeniosa, sino que se fundamenta en un concepto pedagógico sólido: el de las mindtools o «herramientas para la mente». Esta idea defiende el uso de la tecnología no como un sustituto del esfuerzo intelectual, sino como un andamio para potenciar el pensamiento crítico y la construcción activa del conocimiento, es decir, tratar la tecnología no como una muleta, sino como un gimnasio para la mente.

Este planteamiento conecta directamente con las demandas del mercado laboral actual. Como señalan estudios previos (Pellicer et al., 2017), las empresas no solo buscan egresados con conocimientos técnicos, sino también con habilidades transversales como la resolución de problemas, la autonomía y el juicio crítico.

Por tanto, los resultados de aprendizaje que se persiguen son extremadamente precisos y potentes. El objetivo es formar ingenieros que puedan:

  1. Formular problemas técnicos complejos con la precisión necesaria para que la IAG pueda analizarlos.
  2. Evaluar y validar críticamente las soluciones generadas por la IAG, justificando sus decisiones.
  3. Gestionar de forma autónoma el uso de la IAG dentro de estrategias complejas de resolución de problemas.

En definitiva, se les prepara para un entorno profesional «complejo, colaborativo y en constante evolución».

Conclusión: ¿Y si dejamos de temer a la tecnología y empezamos a usarla para pensar mejor?

El proyecto PROFUNDIA demuestra que es posible cambiar la perspectiva sobre la IA en la educación. Transforma lo que muchos consideran una amenaza para el aprendizaje en una oportunidad única para fomentar un pensamiento más profundo, crítico y autónomo.

Su reflexión trasciende las aulas de ingeniería. ¿Qué otras tecnologías emergentes podríamos empezar a integrar en nuestras profesiones, no como un atajo, sino como un catalizador para desarrollar un pensamiento más crítico y sofisticado?

Os dejo un audio en el que dos personas hablan y discuten sobre este tema.

También os dejo un vídeo que resume muy bien el contenido del proyecto.

Referencias:

Blight, T., Martínez-Pagán, P., Roschier, L., Boulet, D., Yepes-Bellver, L., & Yepes, V. (2025). Innovative approach of nomography application into an engineering educational context. PloS one, 20(2), e0315426.

Castro-Aristizabal, G., Acosta-Ortega, F., & Moreno-Charris, A. V. (2024). Los entornos de aprendizaje y el éxito escolar en Latinoamérica. Lecturas de Economía, (101), 7-46.

Hadgraft, R. G., & Kolmos, A. (2020). Emerging learning environments in engineering education. Australasian Journal of Engineering Education, 25(1), 3-16.

Jiang, N., Zhou, W., Hasanzadeh, S., & Duffy Ph D, V. G. (2025). Application of Generative AI in Civil Engineering Education: A Systematic Review of Current Research and Future Directions. In CIB Conferences (Vol. 1, No. 1, p. 306).

Jonassen, D. H., Peck, K. L., & Wilson, B. G. (1999). Learning with technology: A constructivist perspective. Columbus, OH: Merrill/Prentice-Hall.

Liao, W., Lu, X., Fei, Y., Gu, Y., & Huang, Y. (2024). Generative AI design for building structures. Automation in Construction157, 105187.

Navarro, I. J., Marti, J. V., & Yepes, V. (2023). Evaluation of Higher Education Students’ Critical Thinking Skills on Sustainability. International Journal of Engineering Education, 39(3), 592-603.

Onatayo, D., Onososen, A., Oyediran, A. O., Oyediran, H., Arowoiya, V., & Onatayo, E. (2024). Generative AI applications in architecture, engineering, and construction: Trends, implications for practice, education & imperatives for upskilling—a review. Architecture4(4), 877-902.

Pellicer, E., Yepes, V., Ortega, A. J., & Carrión, A. (2017). Market demands on construction management: View from graduate students. Journal of Professional Issues in Engineering Education and Practice143(4), 04017005.

Perkins, D., & Unger, C. (1999). La enseñanza para la comprensión. Argentina: Paidós.

Torres-Machí, C., Carrión, A., Yepes, V., & Pellicer, E. (2013). Employability of graduate students in construction management. Journal of Professional Issues in Engineering Education and Practice139(2), 163-170.

Xu, G., & Guo, T. (2025). Advances in AI-powered civil engineering throughout the entire lifecycle. Advances in Structural Engineering, 13694332241307721.

Zhou, Z., Tian, Q., Alcalá, J., & Yepes, V. (2025). Research on the coupling of talent cultivation and reform practice of higher education in architecture. Computers and Education Open, 100268.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Primer aniversario de la DANA de Valencia: Anatomía de un desastre

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

Hoy, 29 de octubre de 2025, se cumple el primer aniversario de la DANA de Valencia de 2024, un evento que ha sido catalogado como una de las mayores catástrofes naturales ocurridas en España en décadas. La tragedia se produjo por unas precipitaciones históricas que pulverizaron récords nacionales, con máximos de más de 770 l/m² acumulados en 24 horas en Turís, lo que demuestra que el riesgo cero no existe en un contexto de cambio climático. El desastre no se explica únicamente por la cantidad de lluvia caída, sino por la trágica multiplicación entre el evento extremo, sobrealimentado por el calentamiento global, y el fallo estructural de un urbanismo que, durante décadas, ha ignorado las zonas de riesgo. Aunque la respuesta inmediata y los esfuerzos por restablecer las infraestructuras críticas han sido notables, la ingeniería de la reconstrucción no puede limitarse a reponer lo perdido, ya que replicar el estado previo implica aceptar que los efectos se repetirán. En este contexto, un medio de comunicación me ha solicitado una entrevista para abordar si, un año después, hemos avanzado hacia las soluciones de resiliencia y prevención que el conocimiento técnico lleva tiempo demandando. Os dejo la entrevista completa, por si os resulta de interés.

¿Cómo describiría desde un punto de vista técnico lo que ocurrió el 29 de octubre en Valencia? ¿Qué falló?

Desde el punto de vista técnico e ingenieril, el suceso del 29 de octubre en Valencia fue un evento de inundación extremo provocado por una DANA con un carácter pluviométrico extraordinario, ya que se registraron cifras extremas, como los 771,8 l/m² en 24 horas en Turís, y caudales en la Rambla del Poyo de hasta 2.283 m³/s antes de que los sensores fueran arrastrados, superando con creces cualquier expectativa de diseño y demostrando que el riesgo cero no existe. La magnitud del impacto fue consecuencia de una serie de factores concurrentes. El factor principal se produjo en la cuenca de la Rambla del Poyo, donde la virulencia del agua (con caudales medidos superiores a 2.200 m³/s y estimaciones simuladas que superan los 3.500 m³/s) se encontró con la ausencia de infraestructuras hidráulicas suficientes para la laminación de avenidas y otras medidas complementarias. Los proyectos de defensa contra inundaciones, que llevaban años planificados y con estudios previos, no se ejecutaron a tiempo. En contraste, el Nuevo Cauce del Turia y las presas de Forata y Buseo funcionaron eficazmente, protegiendo la ciudad de Valencia y otras poblaciones. Además de estas vulnerabilidades latentes, el impacto humano y material se vio agravado por desafíos en la respuesta, incluyendo la efectividad en los sistemas de alerta temprana (SAIH) bajo condiciones tan extremas y en la implantación de los planes de emergencia municipales, así como en la emisión de avisos con suficiente antelación a la población, impidiendo que esta pudiera reaccionar a tiempo.

¿Qué papel jugaron las infraestructuras y la planificación urbana en la magnitud de los daños? ¿Hubo zonas especialmente vulnerables o mal planificadas?

Las infraestructuras y la planificación urbana jugaron un papel determinante en la magnitud de los daños. Por un lado, las obras estructurales, como el Nuevo Cauce del Turia y las presas de Forata y Buseo, resultaron fundamentales, mitigando las inundaciones y protegiendo la ciudad de Valencia y otras poblaciones. Sin embargo, la magnitud de los daños se vio agravada por la ausencia de medidas integrales de defensa diseñadas para la laminación de avenidas, especialmente en la cuenca de la Rambla del Poyo, donde los proyectos planificados no se ejecutaron a tiempo. Los caudales extraordinarios superaron con creces la capacidad existente. Además, las infraestructuras lineales (carreteras, ferrocarriles y puentes) actuaron como puntos de estrangulamiento, reteniendo arrastres y aumentando el nivel de destrucción. Las zonas más vulnerables se concentraron en el cono aluvial de L’Horta Sud, una zona de alto riesgo urbanizada principalmente entre la riada de 1957 y la década de 1970, sin planificación adecuada ni infraestructuras de saneamiento suficientes. La falta de unidad de criterio en la ordenación territorial municipal y la prevalencia de intereses de desarrollo sobre las directrices de restricción de usos en zonas inundables (a pesar de instrumentos como el PATRICOVA) aumentaron la vulnerabilidad social y material del territorio. Aunque algunos hablan de emergencia hidrológica, probablemente sea más adecuado hablar de un profundo desafío urbanístico y de ordenación territorial.

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

Desde entonces, ¿qué medidas reales se han tomado —si las hay— para reducir el riesgo de que vuelva a suceder algo similar?

Desde la DANA de octubre de 2024, las medidas adoptadas se han enfocado en la reconstrucción con criterios de resiliencia y atención a urgencias, aunque las soluciones estructurales de gran calado, que requieren plazos de ejecución más largos, siguen mayormente pendientes. En la fase inmediata, se activaron obras de emergencia, destacando la reparación y refuerzo de infraestructuras críticas como las presas de Forata y Buseo, y la recuperación de cauces y del canal Júcar-Turia. Un ejemplo de reconstrucción en curso es la mejora de la red de drenaje de Paiporta, que forma parte de las primeras actuaciones tras la catástrofe. En el ámbito normativo, el Consell aprobó el Decreto-ley 20/2024 de medidas urbanísticas urgentes y se ha puesto sobre la mesa la revisión de normativas como el Código Técnico de la Edificación (CTE) para incluir requisitos para edificaciones en zonas inundables. También se prevé que los sistemas de comunicación y alerta estén coordinados en todas las cuencas mediterráneas, lo que podría evitar muertes en caso de repetirse el fenómeno. Sin embargo, es un hecho que, meses después, la legislación urbanística de fondo sigue sin cambios estructurales y que, en cuanto a las obras hidráulicas estructurales de prevención, como las presas de laminación, sus plazos de tramitación y ejecución impiden que se hayan materializado avances significativos todavía, dificultando el avance de proyectos críticos. Por tanto, existe una etapa de reconstrucción que debería ser inteligente y no dejar las infraestructuras como estaban antes de la DANA, pues eso implicaría asumir los mismos riesgos, y otra a medio y largo plazo que permita defender a la población, minimizando los riesgos.

¿Qué actuaciones considera urgentes o prioritarias para evitar repetir los errores del pasado?

Para evitar repetir los errores del pasado, es necesario un cambio de modelo que combine inversión estructural urgente con planificación territorial resiliente. En ingeniería hidráulica, la acción prioritaria es acelerar e implementar las obras de laminación contempladas en la planificación hidrológica, como la construcción de presas en las cuencas de la Rambla del Poyo y el río Magro, y destinar recursos extraordinarios para construir las estructuras de prevención necesarias y corregir el déficit de infraestructuras de prevención. También es prioritario eliminar obstáculos urbanísticos, como puentes y terraplenes insuficientes, y reconstruir infraestructuras lineales con criterios resilientes, permitiendo el paso seguro del agua. En urbanismo, la enseñanza principal es devolverle el espacio al agua, retirando estratégicamente infraestructuras de las zonas de flujo preferente para reducir la exposición al riesgo más elevado e iniciando un plan a largo plazo para reubicar infraestructuras críticas y viviendas vulnerables. Se recomienda revisar la normativa sobre garajes subterráneos en llanuras de inundación. Asimismo, es esencial invertir en sistemas de alerta hidrológica robustos, con más sensores y modelos predictivos que traduzcan la predicción en avisos concretos y accionables. Por último, es fundamental que la gobernanza supere la inercia burocrática mediante un modelo de ejecución de urgencia que priorice el conocimiento técnico y garantice que el riesgo no se convierta de nuevo en catástrofe humana.

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

¿Hasta qué punto Valencia está preparada para afrontar lluvias torrenciales o fenómenos extremos de este tipo en el futuro?

Desde una perspectiva técnica e ingenieril, a día de hoy, la vulnerabilidad de fondo persiste y no estamos preparados para afrontar una nueva DANA de la magnitud de la ocurrida en 2024. La situación es similar a la de una familia que circula en coche por la autopista a 120 km/h sin cinturones de seguridad: bastaría un obstáculo inesperado (una DANA) para que el accidente fuera mortal. Aceptar la reposición de lo perdido sin añadir nuevas medidas de protección estructural implicaría aceptar que los efectos del desastre se repetirán, algo inasumible. El problema principal es que prácticamente no se han ejecutado las grandes obras de laminación planificadas, especialmente en las cuencas de la Rambla del Poyo y del Magro, que constituyen la medida más eficaz para proteger zonas densamente pobladas mediante contención en cabecera. La DANA expuso un problema urbanístico severo. Meses después, mientras no se modifique la legislación territorial de fondo y se actúe sobre el territorio, el riesgo latente de la mala planificación persiste ante el próximo fenómeno extremo. La única forma de eliminar esta vulnerabilidad es mediante una acción integral que combine inversión urgente en obras estructurales con retirada estratégica de zonas de flujo preferente.

Os dejo un pequeño vídeo didáctico donde se resume lo acontecido en la DANA del 29 de octubre de 2024.

En las noticias de hoy, aparezco en varios reportajes:

En el Telediario de TVE, en horario de máxima audiencia, a las 21:00 h, se hizo un programa especial sobre la DANA donde tuve la ocasión de participar. Os dejo un trozo del vídeo.

 

Reconstruir Valencia un año después: «cirugía urbana» y zonas verdes para protegerse de futuras danas

Un año después de la DANA del 29-O, los expertos advierten: «Podría volver a pasar»

Valencia: expertos advierten que la región aún no está preparada para afrontar otro episodio climático extremo

Valencia se blinda frente al agua: garajes elevados e ingeniería verde tras la DANA

One year after Valencia’s deadly flooding experts warn ‘it could happen again’

Një vit pas përmbytjeve vdekjeprurëse në Valencia, ekspertët paralajmërojnë se ‘mund të ndodhë përsëri’

Egy évvel a valenciai árvíz után a szakértők figyelmeztetnek: «Ez újra megtörténhet»

Egy évvel a spanyol árvizek után: Tanulságok és kihívások a Valenciai Közösség számára

 

También os dejo los artículos que he ido escribiendo sobre este tema en este blog. Espero que os resulten de interés.

Lo que la catástrofe de Valencia nos obliga a repensar: cuatro lecciones. 30 de septiembre de 2025.

Resiliencia en las infraestructuras: cómo prepararnos para un futuro de incertidumbre. 26 de septiembre de 2025.

Iniciativa Legislativa Popular para la Modificación de la Ley de Aguas. 17 de julio de 2025.

Posibles consecuencias de una nueva DANA en el otoño de 2025. 16 de julio de 2025.

Discurso de apertura en el evento Innotransfer “Infraestructuras resilientes frente a eventos climáticos extremos”. 26 de mayo de 2025.

Ya son 6 meses desde el desastre de la DANA en Valencia. 29 de abril de 2025.

Jornada sobre infraestructuras resilientes al clima. 8 de abril de 2025.

Entrevista en Levante-EMV sobre la reconstrucción tras la DANA. 17 de marzo de 2025.

La ingeniería de la reconstrucción. 6 de marzo de 2025.

Lecciones aprendidas: proteger a la población es la prioridad. 25 de diciembre de 2024.

DANA 2024. Causas, consecuencias y soluciones. 3 de diciembre de 2024.

Qué es una presa. «La via verda», À Punt. 28 de noviembre de 2024.

Aplicación del modelo del queso suizo en la gestión de desastres. 10 de noviembre de 2024.

Gestión del riesgo de inundación en infraestructuras críticas: estrategias y medidas de resiliencia. 8 de noviembre de 2024.

Presas y control de inundaciones: estrategias integradas para la reducción de riesgos hídricos. 7 de noviembre de 2024.

Defensa integral contra inundaciones: un esbozo de las estrategias para la gestión de riesgos. 6 de noviembre de 2024.

Introducción a las crecidas en ingeniería hidráulica. 5 de noviembre de 2024.

Precipitación en ingeniería hidráulica: conceptos, medición y análisis. 4 de noviembre de 2024.

Efectos de las inundaciones en las estructuras de las edificaciones. 2 de noviembre de 2024.

Valencia frente a la amenaza de una nueva inundación: análisis, antecedentes y estrategias para mitigar el riesgo. 1 de noviembre de 2024.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

La herramienta de cálculo del siglo XVII que vuelve a la vida gracias a Python.

Introducción: El arte perdido del cálculo visual.

Vivimos en un mundo donde cualquier cálculo, por complejo que sea, está a un clic de distancia. Dependemos totalmente de las calculadoras digitales y las computadoras, hasta el punto de que resulta difícil imaginar cómo se resolvían problemas de ingeniería complejos antes de la era digital. Sin embargo, hubo una herramienta ingeniosa y puramente visual que dominó el mundo técnico durante décadas: el nomograma.

¿Cómo es posible que una tecnología del siglo XVII, considerada obsoleta durante más de cuarenta años, esté resurgiendo en campos de alta tecnología como la ingeniería minera? La respuesta se halla en una sorprendente sinergia entre la sabiduría analógica del pasado y el poder del código abierto actual.

1. Más allá de la nostalgia: una herramienta antigua para problemas modernos.

Un nomograma es una representación gráfica de una ecuación matemática. Está compuesto por una serie de ejes graduados, rectos o curvos, que representan las variables de la fórmula. Para resolver la ecuación, basta con trazar una línea recta (llamada isopleta) que conecte los valores conocidos en sus respectivos ejes; el punto en el que esta línea corta el eje de la variable desconocida proporciona la solución al instante.

Aunque sus orígenes se remontan al siglo XVII, los nomogramas se convirtieron en herramientas indispensables en el siglo XIX para la navegación astronómica y, más tarde, en la década de 1920, para resolver complejos cálculos de ingeniería relacionados con la presión, el volumen y la temperatura. Durante el resto del siglo XX, vivieron su época dorada en campos como la medicina, la aeronáutica y la química, pero la llegada de los ordenadores en la década de 1980 los dejó relegados al olvido. Hoy, contra todo pronóstico, están volviendo a ser útiles, no como una curiosidad histórica, sino como una herramienta práctica y potente, especialmente en entornos de campo o talleres donde la tecnología digital no siempre es la mejor opción.

2. Ingeniería para todos: resuelve fórmulas complejas solo con una regla.

El beneficio más destacado de los nomogramas es su capacidad para democratizar el cálculo. Permiten que cualquier persona, independientemente de su formación matemática, pueda resolver ecuaciones complejas con gran precisión. Como señala un estudio reciente sobre su aplicación en ingeniería minera:

«Además, los nomogramas permiten que personas sin conocimientos previos resuelvan fórmulas complejas con una precisión adecuada».

Este enfoque es increíblemente poderoso. Elimina la barrera del conocimiento matemático avanzado y reduce drásticamente el riesgo de cometer errores al realizar cálculos manuales en tareas repetitivas. En la práctica, son más rápidos y fáciles de entender que los procedimientos analíticos tradicionales, ya que convierten un problema abstracto en una tarea visual sencilla.

3. A prueba de fallos: la robustez del papel frente a las pantallas.

En un mundo digital, la simplicidad del papel es una ventaja formidable. Los nomogramas destacan en entornos en los que los dispositivos electrónicos no son prácticos, como en operaciones de campo en minería, talleres mecánicos u obras. Sus ventajas son evidentes: son portátiles, resistentes y no necesitan electricidad ni conexión a internet.

Esta robustez los convierte en la herramienta ideal para realizar cálculos repetitivos sobre el terreno. Por ejemplo, un ingeniero de minas podría usar un nomograma impreso para determinar al instante el diseño correcto de una voladura, simplemente conectando líneas entre la densidad de la roca, la velocidad del explosivo y el diámetro de la perforación, y así reducir un cálculo complejo a una tarea visual simple y robusta sobre el papel.

4. El Renacimiento digital: cómo el código abierto revivió el nomograma.

Si los nomogramas son tan útiles, ¿por qué desaparecieron? Su principal inconveniente histórico no radicaba en su uso, sino en su creación. La parte más engorrosa era el dibujo matemático de las escalas graduadas, un proceso laborioso y especializado que probablemente fue una de las principales causas de su declive.

Aquí es donde entra en juego el software moderno. El resurgimiento de esta técnica se debe en gran parte a PyNomo y Nomogen, dos herramientas de código abierto basadas en Python. Fueron creadas por Leif Roschier y Trevor Blight, dos de los autores del estudio que ha inspirado este resurgimiento, que han unido así la experiencia académica con la programación moderna. Estas soluciones permiten a cualquier ingeniero o científico generar nomogramas complejos y precisos en cuestión de segundos, eliminando el obstáculo que los había hecho obsoletos.

5. Intuición visual: comprendiendo la relación entre las variables.

Además de su utilidad práctica, los nomogramas ofrecen una ventaja más sutil, pero profunda: fomentan la comprensión conceptual del problema. Mientras que una calculadora o un programa informático suelen funcionar como una «caja negra» que simplemente proporciona un resultado, un nomograma permite ver la relación entre las variables.

Esta visualización intrínseca de los datos permite una comprensión mucho más profunda. Al mover la isopleta (la regla) sobre el gráfico, un ingeniero puede desarrollar una intuición sobre cómo afecta un pequeño cambio en una variable a las demás, algo que se pierde al introducir simplemente números en un software. Por ello, se convierten en una poderosa herramienta didáctica.

Conclusión: lecciones de una sabiduría olvidada.

La historia del nomograma es un ejemplo fascinante de cómo las ideas del pasado pueden recuperar su relevancia gracias a la tecnología moderna. La combinación de una técnica de cálculo del siglo XVII con un software de código abierto del siglo XXI demuestra que no se trata solo de una reliquia, sino de una prueba de que las soluciones más simples y visuales pueden seguir siendo increíblemente valiosas.

Su regreso nos obliga a plantearnos una pregunta importante: en nuestra carrera constante hacia la digitalización, ¿qué otras herramientas analógicas e ingeniosas hemos olvidado que podrían ayudarnos a resolver los problemas del mañana?

Os dejo aquí una conversación en la que se tratan estos conceptos.

En este vídeo se resumen los conceptos más relevantes sobre los nomogramas.

Os dejo la comunicación que presentamos recientemente en el VII Congreso Nacional de Áridos. En ella se ilustran, proporcionan y explican detalladamente siete ejemplos originales de nomogramas que se utilizan para resolver ecuaciones comunes en la industria de la explotación de áridos, como el diseño de voladuras y la estimación de ratios de perforación.

Pincha aquí para descargar

Referencia:

MARTÍNEZ-PAGÁN, P.; YEPES, V.; ROSCHIER, L.; BLIGHT, T.; BOULET, D.; PERALES, A. (2025). Elaboración y uso de nomogramas para el ámbito de las explotaciones de áridos. Introducción de los códigos abiertos Pynomo y Nomogen. Actas del VII Congreso Nacional de Áridos, Córdoba, pp. 1085-1100. ISBN 978-84-125559-2-9.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Más allá de la resistencia: cinco claves sorprendentes sobre la infraestructura del futuro.

En el mundo de la ingeniería y la construcción, hay una pregunta fundamental que guía todo el proceso de diseño: «¿Qué tan seguro es “bastante seguro”?». Durante décadas, la respuesta parecía sencilla: construir estructuras lo bastante fuertes para soportar las fuerzas esperadas. El objetivo principal era la resistencia, es decir, la capacidad de mantenerse sin romperse.

Sin embargo, en un mundo cada vez más marcado por eventos extremos e impredecibles, desde huracanes más intensos hasta fallos en cadena en redes complejas, esta filosofía ya no es suficiente. La simple resistencia no tiene en cuenta lo que sucede después de un desastre. Es aquí donde surge un concepto mucho más relevante para nuestro tiempo: la resiliencia.

La resiliencia no se limita a soportar un golpe, sino que se centra en la capacidad de recuperación de un sistema tras recibirlo. Supone una nueva frontera en el diseño de ingeniería que va más allá de la fuerza bruta, ya que incorpora la rapidez, la creatividad y la capacidad de recuperación como características de diseño medibles.

Este artículo explorará cinco de los descubrimientos más sorprendentes e impactantes que nos ofrece esta filosofía emergente sobre cómo construir la infraestructura del mañana.

Los cinco descubrimientos clave sobre la resiliencia en ingeniería

1 .La noción de «seguridad» ha evolucionado drásticamente. Ya no se trata solo de resistir.

La forma en que los ingenieros definen la «seguridad» ha cambiado profundamente. Los métodos tradicionales, como el diseño por esfuerzos admisibles (ASD) o el diseño por factores de carga y resistencia (LRFD), se basaban en un principio sencillo: garantizar que la capacidad del sistema superara la demanda esperada. Aunque eran eficaces, estos enfoques no evaluaban la seguridad a nivel del sistema completo y no siempre producían los diseños más eficientes desde el punto de vista económico.

El primer gran avance fue el diseño basado en el desempeño (PBD). Esta filosofía cambió el enfoque de simplemente «no fallar» a evaluar el comportamiento de una estructura durante un evento extremo. El PBD introdujo métricas críticas de rendimiento, como las pérdidas económicas, el tiempo de inactividad y el número de víctimas. Aunque supuso un gran avance, aún dejaba fuera una parte esencial: la capacidad de recuperación del sistema.

El paso más reciente y transformador es el diseño basado en la resiliencia (RBD). La diferencia clave es que el RBD incorpora formalmente el proceso de recuperación del sistema tras un evento. Ya no solo importa cómo resiste el impacto, sino también cuán rápido y eficientemente puede volver a funcionar. Esto supone un cambio de paradigma fundamental en ingeniería, donde la resiliencia se convierte en una métrica tan importante como la resistencia.

La clave del cambio es que un análisis de resiliencia no solo considera los riesgos, sino también la capacidad de recuperación, integrando así la prevención, el impacto y la rehabilitación en una visión holística del diseño.

2. No se trata de ser irrompible. Recuperarse rápido es el nuevo superpoder.

Una de las ideas más contraintuitivas del diseño basado en la resiliencia es que la invulnerabilidad no es el objetivo final. En lugar de buscar estructuras que nunca fallen, la verdadera prioridad es la capacidad de un sistema para recuperarse rápidamente de un fallo, un atributo de diseño tan importante como su resistencia inicial.

Imaginemos dos estructuras, la «Estructura A» y la «Estructura B», ambas sometidas a un evento severo que supera sus límites de diseño. Como resultado, el rendimiento de ambas cae drásticamente. A primera vista, podrían parecer igualmente fallidas. Sin embargo, la resiliencia marca la diferencia.

La «Estructura A» ha sido diseñada de manera que, en caso de fallo, sus componentes puedan ser reparados o reemplazados de forma rápida y eficiente, lo que le permite recuperar su funcionalidad original en mucho menos tiempo. Por el contrario, la «Estructura B» tarda considerablemente más en volver a operar. Según la filosofía de la resiliencia, el diseño de la Estructura A es superior, ya que minimiza el tiempo total de interrupción del servicio.

La lección es clara: el diseño moderno ya no solo se pregunta «¿Qué tan fuerte es?», sino también «¿Qué tan rápido se recupera después de caer?». La rapidez de recuperación no es un extra, sino una característica de diseño fundamental.

3. La resiliencia no es una cualidad única, sino una combinación de cuatro «ingredientes» medibles.

Aunque la resiliencia puede parecer un concepto abstracto, los ingenieros la han desglosado en cuatro propiedades distintas y medibles. Comprender estos cuatro «ingredientes» es clave para diseñar sistemas verdaderamente resilientes.

  • La robustez es la capacidad de un sistema para soportar un cierto nivel de interrupción sin perder eficiencia. Representa la resistencia inherente para absorber el impacto inicial. Cuanto más robusto es un sistema, menos daño sufre desde el comienzo del evento.
  • La rapidez es la capacidad de un sistema para recuperar rápidamente su funcionamiento normal después de una interrupción. Este componente se centra en minimizar las pérdidas y evitar futuras interrupciones, de modo que el sistema vuelva a operar en el menor tiempo posible.
  • El ingenio es la capacidad de identificar problemas, establecer prioridades y movilizar recursos de manera eficaz. Un sistema con ingenio puede reducir el tiempo necesario para evaluar daños y organizar una respuesta eficaz, lo que facilita una recuperación más rápida. Es como un equipo de urgencias experto que sabe exactamente qué especialistas llamar y qué equipo utilizar, minimizando el tiempo entre la detección del problema y la solución eficaz.
  • La redundancia es la capacidad de los elementos dañados del sistema para ser sustituidos por otros. La redundancia permite que el sistema siga funcionando, aunque sea con capacidad reducida, redirigiendo la carga de los componentes fallidos a elementos auxiliares. Piénselo como la rueda de repuesto de un coche o los servidores de respaldo de un sitio web: recursos listos para asumir la función de un componente principal en caso de fallo.

4. La recuperación no es instantánea. Existe una «fase de evaluación» crítica tras el desastre.

Cuando un sistema se ve interrumpido, su rendimiento no mejora de forma inmediata una vez que el evento ha terminado. El análisis de resiliencia muestra que la recuperación sigue una curva con distintas fases críticas. Inicialmente, el rendimiento del sistema empeora durante el evento (de t1 a t2).

A continuación, aparece un período a menudo pasado por alto, pero crucial: la fase de evaluación (de t2 a t3). Durante esta etapa, la funcionalidad del sistema permanece baja y casi plana. No se observa una mejora significativa, ya que en este tiempo se evalúan los daños, se reúnen los recursos, se organizan los equipos de respuesta y se establece un plan de acción efectivo.

Un objetivo clave del diseño resiliente es acortar la duración de esta fase de «línea plana». Mediante una planificación previa más sólida, planes de respuesta a emergencias claros y una movilización eficiente de recursos, es posible reducir significativamente este período de inactividad.

Solo después de esta fase de evaluación comienza la fase de recuperación (de t3 a t4), durante la cual la funcionalidad del sistema empieza a restaurarse hasta alcanzar un nivel aceptable y recuperar gradualmente su capacidad total de operación.

Figura 2. Rendimiento del sistema bajo interrupción

5. La resiliencia no es solo un concepto, sino una cifra que se puede calcular.

Uno de los descubrimientos más importantes del diseño basado en la resiliencia es que esta no solo es un concepto cualitativo, sino también una métrica cuantificable. Los ingenieros pueden calcular un «índice de resiliencia», que a menudo se define como el área bajo la curva de rendimiento del sistema a lo largo del tiempo. Cuanto mayor sea esta área, mayor será la resiliencia del sistema.

Un ejemplo concreto proviene de un estudio realizado en el túnel del metro de Shanghái. Tras ser sometido a una sobrecarga extrema, el túnel perdió entre un 70 % y un 80 % de su rendimiento. Lo revelador del estudio fue que la simple eliminación de la sobrecarga, es decir, una recuperación pasiva, solo restauró el 1 % del rendimiento. Esto demuestra que esperar a que el problema desaparezca no es una estrategia de recuperación viable.

Para recuperar la funcionalidad, fue necesaria una intervención activa: la inyección de lechada de cemento en el suelo alrededor del túnel. No obstante, esta solución no fue inmediata, ya que se necesitaron cuatro años para recuperar un 12,4 % adicional del rendimiento. El estudio concluyó que, al mejorar y acelerar este proceso, el índice de resiliencia del túnel podría aumentar hasta un 73 %.

La capacidad de cuantificar la resiliencia transforma el enfoque de la ingeniería. Permite comparar objetivamente distintas opciones de diseño, justificar inversiones en estrategias de recuperación más rápidas y, en última instancia, tomar decisiones basadas en datos para construir infraestructuras más eficaces y seguras.

Conclusión: Diseñando para el mañana

El debate sobre la infraestructura del futuro está experimentando un profundo cambio. Hemos pasado de una obsesión por la fuerza y la resistencia a un enfoque más inteligente y holístico centrado en la recuperación. La resiliencia nos enseña que la forma en que un sistema se recupera de una avería es tan importante, si no más, que su capacidad para resistir el impacto inicial.

Al entender la resiliencia como una combinación medible de robustez, rapidez, ingenio y redundancia, podemos diseñar sistemas que no solo sobrevivan a los desafíos del siglo XXI, sino que también se recuperen de ellos de manera rápida, eficiente y predecible.

Ahora que la recuperación se considera un factor de diseño, surge una pregunta crítica: ¿qué infraestructura esencial de tu comunidad —eléctrica, de agua o de transporte— necesita ser rediseñada para ser no solo más fuerte, sino también más rápidamente recuperable?

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Antonio da Ponte: el ingeniero que dio forma al Puente de Rialto

Antonio da Ponte (Venecia, 1512-1595). https://www.urbipedia.org/hoja/Antonio_da_Ponte

Antonio da Ponte (Venecia, 1512-1595) fue un arquitecto e ingeniero italiano recordado principalmente por dirigir la reconstrucción del Puente de Rialto de Venecia, una de las obras más emblemáticas del Renacimiento tardío. Aunque es conocido sobre todo por esta estructura, su trayectoria profesional estuvo marcada por su amplia participación en proyectos públicos y arquitectónicos de gran relevancia para la ciudad.

De origen suizo —nació en Ponte Capriasca, en el actual cantón del Tesino—, se trasladó muy joven a la región del Véneto, donde comenzó su formación participando en la construcción de la basílica del Santo de Padua. Posiblemente, era hermano de Paolo da Ponte, otro arquitecto de Padua, lo que sugiere una tradición familiar ligada a este oficio. En 1535 se estableció definitivamente en Venecia, donde primero trabajó como aprendiz y, posteriormente, como propietario de su propio taller.

Su habilidad técnica y sus conocimientos de construcción le valieron pronto el reconocimiento de las autoridades venecianas. En 1563 fue nombrado Proto al Sal, un cargo vitalicio de superintendente de las obras públicas dependientes de la Magistratura del Sale, institución encargada de supervisar las construcciones financiadas con los ingresos del comercio de la sal. Este puesto lo consolidó como una figura clave en la ingeniería y la arquitectura venecianas del siglo XVI.

Uno de sus primeros trabajos destacados fue en el Palacio Ducal, donde, en 1575, proyectó el Salón de las Cuatro Puertas, una antecámara de honor que daba acceso a las salas del Senado y de la Señoría, basándose en un diseño original de Andrea Palladio. Sin embargo, tras el devastador incendio que sufrió el edificio el 20 de diciembre de 1577, Da Ponte desempeñó un papel decisivo en su reconstrucción. Ya en 1574 había sido nombrado arquitecto jefe de las obras de restauración del palacio. Tras el incendio, fue seleccionada su propuesta entre las quince presentadas por los arquitectos invitados para la rehabilitación del edificio, que devolvió al palacio su esplendor original. Además, dirigió la restauración de los arcos y pórticos que daban al oeste y al sur del conjunto.

A partir de entonces, Da Ponte recibió una gran cantidad de encargos públicos. En 1579 asumió nuevas responsabilidades en el Arsenal de Venecia, donde se encargó de elevar la cubierta principal. Entre 1577 y 1592 colaboró con Palladio en la construcción de la iglesia del Redentor. En 1589, continuó también las obras de las nuevas cárceles de Venecia, situadas frente al Palacio Ducal, al otro lado del canal, una obra que había sido iniciada por Giovanni Antonio Rusconi en 1563. Tras su fallecimiento, sus sobrinos Antonio y Tommaso Contin finalizaron la obra en 1614, tras haber trabajado estrechamente con él en sus últimos años.

Sin embargo, el proyecto que marcaría definitivamente su carrera fue el Puente de Rialto. Esta estructura, que cruzaba el Gran Canal, había sido originalmente de madera, pero su fragilidad había provocado su derrumbe en varias ocasiones a lo largo de los siglos. Tras su último derrumbe, las autoridades venecianas decidieron reconstruirlo en piedra, en busca de una solución definitiva y monumental. En 1587, se convocó un concurso público al que se presentaron algunos de los arquitectos más célebres del momento, como Miguel Ángel, Andrea Palladio y Jacopo Sansovino. Contra todo pronóstico, el proyecto ganador fue el de Antonio da Ponte.

El puente de Rialto sobre el Gran Canal. Por kallerna – Trabajo propio, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=168185275

Su diseño retomaba la idea básica del antiguo puente de madera, pero la reinterpretaba con una claridad estructural y una elegancia técnica admirables. El nuevo puente consta de un único arco de piedra sobre el que se disponen dos hileras de arcadas laterales que albergan tiendas y dos rampas que confluyen en una plataforma central. A pesar de su aparente sencillez, la solución estructural ideada por Da Ponte supuso un desafío técnico formidable para su época.

Una peculiaridad del Puente de Rialto es que, a primera vista, parece romper con la tradición de los puentes romanos de arco de medio punto al ofrecer un arco rebajado. Sin embargo, esta innovación es solo visual, ya que en realidad se trata de un arco de medio punto cuyas dovelas basales están ocultas bajo el nivel del agua, lo que crea la ilusión de una estructura más achatada. Este recurso permitió combinar una gran estabilidad estructural con una apariencia más ligera y moderna, adelantándose al gusto arquitectónico de los siglos posteriores.

Las obras del puente se llevaron a cabo entre 1588 y 1591, con la colaboración de su sobrino Antonio Contin, que años más tarde alcanzaría la fama como autor del Puente de los Suspiros. También participaron sus nietos Antonio y Tommaso Contin, con quienes había trabajado en la construcción de la Cárcel Nueva desde 1589.

A pesar de su éxito, la autoría de Da Ponte sobre el diseño del puente de Rialto no estuvo exenta de controversia. En 1841, el arquitecto parisino Antoine Rondelet publicó un tratado en el que cuestionaba la originalidad del proyecto y señalaba las sospechosas similitudes entre el diseño de Da Ponte y el presentado por Vincenzo Scamozzi al mismo concurso. No obstante, la documentación histórica y la coherencia estilística de la obra respaldan la autoría de Da Ponte.

En la actualidad, el Puente de Rialto sigue siendo el más antiguo de Venecia y uno de los monumentos más reconocidos del mundo. Su equilibrio entre solidez estructural, elegancia visual y funcionalidad urbana refleja la maestría de Antonio da Ponte, un ingeniero que supo unir la tradición técnica con la visión estética del Renacimiento veneciano. Su legado no solo transformó la fisonomía de Venecia, sino que también consolidó el papel central del ingeniero en la evolución de la arquitectura moderna.

Os dejo un vídeo del puente de Rialto, que espero os guste.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Verdades incómodas sobre la descarbonización industrial y el sector de la construcción

Todos estamos de acuerdo en que el futuro de la construcción debe ser más ecológico. La descarbonización del entorno construido es una prioridad en la agenda europea y, por intuición, sabemos que debemos favorecer los materiales «verdes». Las etiquetas para productos bajos en carbono parecen una solución obvia y directa para guiar al mercado.

Sin embargo, en el actual debate legislativo, centrado en iniciativas como la Ley de Aceleración de la Descarbonización Industrial (IDAA), la realidad del sector demuestra ser mucho más compleja. La Federación Europea de la Industria de la Construcción (FIEC) ha publicado un análisis estratégico que desmonta varias suposiciones populares y argumenta que las soluciones simplistas no solo son ineficaces, sino que también podrían resultar contraproducentes para la competitividad y la innovación en Europa. Este artículo desglosa las cinco revelaciones más impactantes de su análisis.

Las emisiones bajan, pero por la razón equivocada.

A primera vista, una reducción de las emisiones en industrias de alto consumo energético, como las productoras de acero o cemento, podría parecer una victoria. Sin embargo, el informe de la FIEC encendió una luz de alarma sobre la razón de esta reciente caída. El problema no es que las emisiones bajen, sino el motivo por el que lo hacen. El informe señala que, debido a factores como los altos costes energéticos y la competencia global, la producción industrial europea está en declive.

«Hoy en día, la reducción de las emisiones es con demasiada frecuencia el resultado de una menor producción, en lugar de una mayor eficiencia, una mayor integración del sistema energético y procesos de fabricación descarbonizados…».

Esta observación es crucial. No se trata solo de una mala noticia para la economía, sino de una estrategia climática fallida que simplemente deslocaliza las emisiones en lugar de eliminarlas, y que debilita la capacidad de Europa para construir la infraestructura verde del futuro.

El escepticismo de la industria: ¿por qué las etiquetas verdes son una solución incompleta?

La propuesta de crear etiquetas voluntarias para materiales industriales con bajas emisiones de carbono parece una herramienta lógica. Sin embargo, la FIEC muestra un gran escepticismo sobre su valor real y advierte de varios riesgos potenciales:

  • Los profesionales no las necesitan: Los equipos de compras no se guían por etiquetas simplificadas. Toman sus decisiones basándose en documentación técnica detallada, como las Declaraciones Ambientales de Producto (DAP o EPDs en inglés), que cuantifican de forma estandarizada el impacto ambiental de un producto a lo largo de su ciclo de vida.
  • Riesgo de confusión y carga administrativa: Una multiplicación de diferentes etiquetas podría generar confusión y una enorme carga burocrática, afectando especialmente a las pequeñas y medianas empresas (PYMES), que son la columna vertebral del sector.
  • Fragmentación del mercado: Si cada país establece sus propios umbrales, se corre el riesgo de fragmentar el mercado. No se trata solo de un problema burocrático, sino que socava el principio fundamental del Mercado Único de la UE al crear barreras que impiden a las empresas más innovadoras, independientemente de su país de origen, competir en igualdad de condiciones.
  • Valor añadido cuestionable: En resumen, no está claro que estas etiquetas aporten un valor real al proceso de toma de decisiones de los profesionales del sector, que ya cuentan con herramientas más sólidas.

El peligro de etiquetar lo incorrecto: el caso del cemento frente al hormigón.

Uno de los argumentos más potentes de la FIEC se centra en el peligro del «etiquetado indirecto». Para ilustrarlo, utilizan el ejemplo del cemento y el hormigón, mostrando cómo centrarse en el material equivocado puede anular los beneficios de una política bienintencionada.

La clave está en comprender que el cemento es un ingrediente y el hormigón es el producto final que adquieren y utilizan las empresas constructoras. Las políticas que se centran exclusivamente en etiquetar el cemento «bajo en carbono» ignoran que muchas de las mayores oportunidades de innovación se encuentran en la fase de producción del hormigón. Por ejemplo, se puede reducir la huella de carbono mediante mezclas innovadoras que logran un rendimiento estructural igual o superior con menos clínker (el componente que más emisiones genera).

Si las políticas solo incentivan un cemento «verde», se desaprovecharán todas estas innovaciones en el ámbito del hormigón. En el peor de los casos, este enfoque podría dar lugar a una «suboptimización», en la que se elige un componente supuestamente ecológico que provoca un impacto ambiental general negativo del producto final.

Si pagamos una «prima verde», el dinero debe reinvertirse.

La industria reconoce que los materiales con bajo contenido de carbono suelen tener un coste más elevado, lo que se conoce como «prima verde». La FIEC no se opone por principio a pagar este sobrecoste, pero establece una condición fundamental e ineludible: cualquier coste adicional pagado por estos productos debe reinvertirse de forma explícita y transparente en un mayor esfuerzo de descarbonización.

Esta condición convierte la «prima verde» en un mecanismo de inversión circular, creando un bucle de retroalimentación positiva en el que la demanda actual financia directamente las tecnologías limpias del futuro. Sin esta garantía, el sistema pierde credibilidad y desaparece el incentivo para que los clientes paguen más.

Una alternativa inteligente: El «precio sombra del CO₂».

En lugar de etiquetas, la FIEC propone un mecanismo más sofisticado y alineado con el mercado para la contratación pública: el «precio sombra del CO₂». Se trata de un mecanismo pragmático y elegante que utiliza herramientas existentes.

  1. Se toma la huella de carbono de un producto de construcción, un dato ya disponible en las Declaraciones Ambientales de Producto (DAP/EPD).
  2. Esa cifra de CO₂ se multiplica por el precio del carbono en el mercado de derechos de emisión de la UE (EU ETS).
  3. El resultado es un «precio sombra» monetario que no se añade al coste, sino que se utiliza como un criterio de evaluación clave en las licitaciones públicas.

Este método incentivaría una competencia real para reducir la huella de carbono de las ofertas. Es fundamental señalar que la FIEC lo concibe como un mecanismo de transición. Para evitar una «doble contabilidad», el precio sombra debería eliminarse progresivamente a medida que el EU ETS funcione sin asignaciones gratuitas.

Conclusión: más allá de la simplicidad.

El mensaje del sector de la construcción es claro: la descarbonización de un sector tan complejo no se puede lograr con gestos simbólicos. Se requieren mecanismos sofisticados que incentiven la innovación en toda la cadena de valor, desde la materia prima hasta la construcción finalizada.

La postura de la FIEC es una llamada al realismo: para lograr una descarbonización efectiva, es necesario pasar de los gestos simbólicos a los incentivos sistémicos. La pregunta crucial para los legisladores es si están dispuestos a diseñar políticas que reflejen la complejidad del mercado o si se conformarán con la falsa simplicidad de una etiqueta.

A continuación, os dejo un audio en el que se puede escuchar una conversación que ilustra claramente el contenido de este tema.

En este vídeo se recogen las ideas más importantes del artículo.

El documento que adjunto a continuación sintetiza la postura de la Federación de la Industria Europea de la Construcción (FIEC) respecto a la próxima «Acta Aceleradora de la Descarbonización Industrial» (IDAA) propuesta por la Comisión Europea. La FIEC apoya el objetivo general de la IDAA de fomentar la producción industrial sostenible y resiliente en la Unión Europea, pero expresa serias preocupaciones sobre los métodos sugeridos, en particular la creación de etiquetas voluntarias para productos industriales con bajas emisiones de carbono, como el acero y el cemento.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.