3 secretos sorprendentes detrás de las encuestas que rellenas cada día.

Introducción: La ciencia oculta de las encuestas.

Todos hemos pasado por ello: cuestionarios interminables, preguntas que parecen sacadas de un manual de psicología y, sobre todo, esa sensación de responder a la misma pregunta una y otra vez. Es una experiencia tan común como, a menudo, frustrante. ¿Por qué algunas preguntas parecen extrañas o repetitivas? ¿Realmente merece la pena todo este esfuerzo?

La respuesta es un rotundo sí. Detrás de cada cuestionario bien diseñado se esconde la rigurosa ciencia de la psicometría, el campo dedicado al arte de la medición precisa. Conceptos como la fiabilidad y la validez son los pilares de cualquier instrumento de medición serio, ya sea una encuesta de satisfacción del cliente o un test de personalidad.

Este artículo desvela algunos de los secretos más sorprendentes y fascinantes sobre cómo se construyen estas escalas de medida. Descubrirás por qué la repetición puede ser una virtud, por qué la perfección a veces es sospechosa y por qué es posible equivocarse de manera confiable.

Primer secreto: la fiabilidad no es la validez (y se puede estar fiablemente equivocado).

En el mundo de la medición, la fiabilidad y la validez son dos conceptos cruciales que a menudo se confunden. Sin embargo, comprender su diferencia es fundamental para entender por qué algunas encuestas funcionan y otras no.

  • La fiabilidad se refiere a la precisión o consistencia de una medida. Un instrumento fiable produce resultados muy similares cada vez que se utiliza en las mismas condiciones.
  • La validez es la exactitud de la medida. Un instrumento válido mide exactamente lo que se pretende medir. La validez va más allá de la simple exactitud, ya que se asegura de que las conclusiones que extraemos de los resultados de la encuesta estén justificadas y sean significativas.

La mejor manera de entenderlo es mediante la analogía de un tirador que apunta a una diana.

  • Fiabilidad sin validez: imagina a un tirador. Escuchas el sonido seco y repetitivo de los disparos impactando en la madera, agrupados en un área no mayor que una moneda, pero peligrosamente cerca del borde de la diana. El patrón es muy consistente (alta fiabilidad), pero erróneo de forma sistemática, ya que no alcanza el blanco (baja validez). Esto representa un error sistemático que se debe a un defecto fundamental en el diseño del cuestionario, como preguntas mal redactadas o una escala de respuesta poco clara.
  • Validez con baja fiabilidad: ahora imagina a un tirador cuyos disparos están dispersos por toda la diana, pero cuya media se sitúa justo en el centro. No hay precisión en cada tiro (baja fiabilidad), pero, en conjunto, apuntan en la dirección correcta (alta validez). Esto representa errores aleatorios que pueden deberse a factores incontrolables, como distracciones, ruido ambiental o incluso al estado de ánimo temporal del encuestado.
Validez y fiabilidad (Morales, 2008)

La conclusión clave es que la validez es más importante que la fiabilidad. Como subrayan los expertos en la materia: «Un instrumento puede ser muy fiable (medir muy bien), pero no medir bien lo que se quería medir». De nada sirve medir algo con una precisión milimétrica si no es lo que realmente nos interesa.

Segundo secreto: ¿por qué las encuestas a veces parecen repetitivas?

Una de las quejas más comunes sobre los cuestionarios es que incluyen preguntas que parecen decir lo mismo de distintas maneras. Lejos de ser un descuido, el uso de lo que los expertos denominan «ítems repetitivos» —expresar la misma idea de diversas formas— es una técnica deliberada y muy útil para garantizar la calidad de los datos. Esta «forma bidireccional de redactar los ítems» tiene dos ventajas principales:

  • Requiere mayor atención del sujeto: al presentar la misma idea con formulaciones distintas (a veces en positivo y otras en negativo), se evita que la persona responda de forma automática o sin pensar y se le obliga a procesar el significado de cada pregunta.
  • Permite comprobar la coherencia de las respuestas: sirve como control de calidad para detectar y mitigar dos de los sesgos más frecuentes al responder encuestas: la aquiescencia y el sesgo de confirmación.
    • Aquiescencia: tendencia a estar de acuerdo con todas las afirmaciones. Imagina a alguien que responde con prisas, marcando «Totalmente de acuerdo» a todo («Sí, el servicio fue excelente», «Sí, el producto es terrible»), con el único fin de terminar cuanto antes.
    • Deseabilidad social: tendencia a responder para proyectar una buena imagen. Este sesgo lo muestra la persona que, al ser preguntada por sus hábitos de reciclaje, se presenta como un ecologista modelo, aunque el contenido de su cubo de basura cuente una historia muy diferente.

Por lo tanto, la próxima vez que te encuentres con preguntas que te resulten familiares en un mismo cuestionario, recuerda que no se trata de un error. Se trata de una herramienta diseñada para garantizar que tus respuestas sean más atentas, coherentes y, en última instancia, sinceras.

Tercer secreto: una fiabilidad «perfecta» puede ser una señal de alarma.

Intuitivamente, podríamos pensar que el objetivo de cualquier escala de medida es lograr la mayor fiabilidad posible. Sin embargo, en psicometría, una fiabilidad extremadamente alta puede ser una señal de alarma que indica un problema subyacente.

El coeficiente de fiabilidad más utilizado, el alfa de Cronbach, presenta una particularidad: su valor tiende a aumentar al añadir más ítems a la escala. Esto crea la tentación de inflar artificialmente la fiabilidad simplemente alargando el cuestionario. Como advierte la literatura especializada: «No se debe buscar una alta fiabilidad aumentando sin más el número de ítems, sin pensar si realmente son válidos».

Un ejemplo hipotético ilustra perfectamente este peligro. Imaginemos que aplicamos un test a un grupo mixto compuesto por niñas de 10 años que hacen ballet y niños de 14 años que juegan al fútbol. Les preguntamos por su edad, su sexo y el deporte que practican. La fiabilidad estadística se dispara porque las preguntas son perfectamente consistentes al separar a los dos grupos. Si se pregunta sobre ballet, todas las niñas responden de una manera y todos los niños de otra. Si se pregunta por el fútbol, ocurre lo mismo. El algoritmo estadístico detecta esta consistencia impecable y reporta una fiabilidad altísima, sin comprender que el «rasgo» subyacente que se está midiendo es simplemente una mezcla de datos demográficos, no una característica psicológica coherente. A pesar de esa elevada fiabilidad, en realidad no estaríamos midiendo «nada interpretable».

Este ejemplo nos deja una lección fundamental que el texto fuente resume de manera brillante:

«En ningún caso la estadística sustituye al sentido común y al análisis lógico de nuestras acciones».

Conclusión: la próxima vez que rellenes una encuesta…

Desde el dilema fundamental entre mediciones consistentes, pero erróneas (fiabilidad frente a validez), pasando por el uso deliberado de la repetición para burlar nuestros propios sesgos, hasta la idea contraintuitiva de que una puntuación «perfecta» puede indicar un resultado sin sentido, queda claro que elaborar una buena encuesta es un trabajo científico.

La próxima vez que te enfrentes a un cuestionario, en lugar de frustrarte por sus preguntas, ¿te detendrás a pensar qué rasgo intentan medir y si realmente lo están logrando?

En este audio os dejo una conversación sobre estas ideas.

Os dejo un vídeo que resume el contenido de este artículo.

Referencias:

Campbell, D. T., & Fiske, D. W. (1959). Convergent and discriminant validation by the multitrait–multimethod matrix. Psychological Bulletin, 56(2), 81–105. https://doi.org/10.1037/h0046016

Dunn, T. J., Baguley, T., & Brunsden, V. (2014). From alpha to omega: A practical solution to the pervasive problem of internal consistency estimation. British Journal of Psychology, 105, 399–412. https://doi.org/10.1111/bjop.12046

Farrell, A. M. (2010). Insufficient discriminant validity: A comment on Bove, Pervan, Beatty and Shiu (2009). Journal of Business Research, 63, 324–327. https://ssrn.com/abstract=3466257

Fornell, C., & Larcker, D. F. (1981). Evaluating structural equation models with unobservable variables and measurement error. Journal of Marketing Research, 18(1), 39–50. https://doi.org/10.1177/002224378101800104

Frías-Navarro, D. (2019). Apuntes de consistencia interna de las puntuaciones de un instrumento de medida. Universidad de Valencia. https://www.uv.es/friasnav/AlfaCronbach.pdf

Grande, I., & Abascal, E. (2009). Fundamentos y técnicas de investigación comercial. Madrid: ESIC.

Hernández, B. (2001). Técnicas estadísticas de investigación social. Madrid: Díaz de Santos.

Hair, J. F., Anderson, R. E., Tatham, R. L., & Black, W. C. (1995). Multivariate data analysis (Eds.). New York: Prentice Hall International, Inc.

Kotler, P., & Armstrong, G. (2001). Marketing. México: Pearson Prentice Hall.

Matas, A. (2018). Diseño del formato de escalas tipo Likert: un estado de la cuestión. Revista Electrónica de Investigación Educativa, 20(1), 38–47. http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1607-40412018000100038

Morales, P. (2006). Medición de actitudes en psicología y educación. Madrid: Universidad Pontificia de Comillas.

Morales, P. (2008). Estadística aplicada a las ciencias sociales. Madrid: Universidad Pontificia Comillas.

Nadler, J., Weston, R., & Voyles, E. (2015). Stuck in the middle: The use and interpretation of mid-points in items on questionnaires. The Journal of General Psychology, 142(2), 71–89. https://doi.org/10.1080/00221309.2014.994590

Nunnally, J. C. (1978). Psychometric theory. New York: McGraw-Hill.

Schmitt, N. (1996). Uses and abuses of coefficient alpha. Psychological Assessment, 8(4), 350–353. http://ist-socrates.berkeley.edu/~maccoun/PP279_Schmitt.pdf

Prats, P. (2005). Métodos para medir la satisfacción del cliente. Madrid: AENOR Ediciones.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Resiliencia en las infraestructuras: cómo prepararnos para un futuro de incertidumbre

En nuestra vida cotidiana dependemos de una red invisible de infraestructuras que hace posible casi todo lo que hacemos: el agua que bebemos, la electricidad que ilumina nuestras casas, el transporte que nos conecta o las telecomunicaciones que nos mantienen informados. Sin embargo, basta con que una de estas piezas falle para que se produzca un efecto dominó con graves consecuencias. Un corte eléctrico prolongado puede paralizar hospitales y transportes, una rotura en la red de agua puede afectar a la higiene, la industria y la propia seguridad contra incendios, y un colapso en las telecomunicaciones puede aislar a comunidades enteras. Estas situaciones ponen de manifiesto la necesidad de ir más allá de la protección frente a fallos y centrarse en la resiliencia de los sistemas de infraestructuras.

La resiliencia de la infraestructura se define como «la capacidad de un sistema para minimizar la pérdida de rendimiento debido a una interrupción y para recuperar un nivel de rendimiento específico dentro de límites de tiempo y costes predefinidos y aceptables». Este concepto ha recibido mucha atención en los últimos años, en parte debido a la creciente frecuencia e intensidad de los eventos disruptivos de baja probabilidad y gran impacto, como el huracán Katrina, el tsunami de Indonesia y los atentados terroristas. La sociedad moderna depende en gran medida del funcionamiento casi continuo de sistemas de infraestructura vitales, como los de transporte, suministro de agua, alcantarillado, energía y telecomunicaciones. Estas infraestructuras están compuestas por elementos tangibles e intangibles que forman redes socioeconómicas y técnicas complejas e interdependientes. La interrupción grave de estos «salvavidas» puede tener enormes impactos negativos en las estructuras económicas y sociales de las comunidades humanas. Los conceptos de resiliencia, junto con los enfoques de protección, son fundamentales para garantizar la continuidad operativa de la infraestructura durante y después de tales eventos. La actual urbanización mundial ha aumentado también la población que depende de estas infraestructuras, lo que subraya aún más la necesidad de resiliencia.

En ingeniería, la resiliencia se define como la capacidad de un sistema de infraestructuras para absorber el impacto de una perturbación, mantener un nivel básico de servicio y recuperarse en un tiempo y con un coste socialmente aceptables. No basta con diseñar estructuras robustas que no se caigan; también es importante que, cuando sufran un daño o una interrupción inevitable, puedan volver a funcionar lo antes posible. A diferencia de la fiabilidad, que mide la probabilidad de que un sistema funcione sin fallos, o de la vulnerabilidad, que estima el grado de daño probable, la resiliencia se centra en el comportamiento del sistema antes, durante y después de la crisis.

Imaginemos una red de agua urbana: si sus tuberías están bien mantenidas y cuentan con sensores de fuga, será fiable, ya que es poco probable que falle; si, a pesar de todo, se produce una rotura y existen válvulas de sectorización, equipos de reparación rápida y depósitos de reserva, será resiliente, puesto que el servicio se recuperará en poco tiempo y con costes asumibles; y si la avería afecta a un hospital o a una zona muy poblada, mostrará una alta vulnerabilidad debido al gran impacto inicial.

Resiliencia en el diseño de infraestructuras

Un sistema resiliente se caracteriza por cuatro atributos fundamentales: robustez, que es la capacidad de resistir eventos disruptivos sin que su rendimiento se vea significativamente afectado; redundancia, que implica contar con elementos o recursos alternativos que puedan suplir a los que fallen durante una interrupción; inventiva, que es la capacidad de identificar problemas, priorizar acciones, movilizar recursos y procedimientos de manera eficaz para responder y recuperarse, y rapidez, es decir, la capacidad de contener daños y restaurar el funcionamiento a niveles aceptables en el menor tiempo posible. Además, la resiliencia se manifiesta a través de cuatro dimensiones (técnica, organizativa, social y económica), lo que subraya su carácter multidisciplinar y su relevancia para los sistemas de infraestructura civil.

Valoración de la resiliencia tras un evento extremo (Anwar et al., 2019)

Una de las formas más gráficas de explicar la resiliencia es mediante la curva de funcionalidad, también conocida como «triángulo de resiliencia». Imaginemos una red de suministro eléctrico que opera al 100 % de su capacidad. En el momento en que ocurre un huracán, la funcionalidad del sistema cae en picado, digamos, hasta un 40 %. A partir de ese momento, comienza la recuperación. En algunos casos, la curva puede ser lineal, con una mejora progresiva hasta alcanzar de nuevo el 100 %. En otros, puede presentar una forma exponencial, con una recuperación inicial rápida que se ralentiza al final. También puede ser trigonométrica, comenzando la recuperación lentamente y acelerándose después. El área bajo la curva, es decir, la «superficie» del triángulo de resiliencia, representa la pérdida acumulada de servicio y, por tanto, el coste social del fallo. Esta herramienta permite a los ingenieros comparar estrategias: un sistema con redundancia puede experimentar una caída inicial menor, mientras que otro con mejores recursos de reparación puede recuperarse más rápidamente.

Curvas de resiliencia: patrones de recuperación tras un evento disruptivo

La resiliencia de las infraestructuras no es un concepto aislado de la ingeniería estructural, sino que se nutre de múltiples disciplinas. La ecología, por ejemplo, plantea la idea de que los sistemas no siempre regresan a su estado original, sino que pueden alcanzar nuevos equilibrios tras un evento disruptivo. La economía ayuda a valorar las pérdidas no solo en términos de daños materiales, sino también en costes indirectos, como la pérdida de productividad o el impacto en la actividad social. Las ciencias sociales, por su parte, nos recuerdan que las infraestructuras existen para servir a la comunidad y que el tiempo de recuperación aceptable depende de la tolerancia y de las necesidades de la sociedad. La teoría de grafos, por su parte, ofrece herramientas matemáticas para analizar redes como las de agua o de telecomunicaciones e identificar qué nodos son críticos y qué sucede si se eliminan de forma aleatoria (simulando un desastre natural) o intencionada (como en un ataque).

Perspectiva interdisciplinaria de la resiliencia de las infraestructuras

Las infraestructuras modernas están muy interconectadas, por lo que existe un mayor riesgo de fallos en cadena: por ejemplo, un corte de energía puede afectar al suministro de agua, a las comunicaciones y al transporte. Aunque existen acuerdos de ayuda mutua entre sistemas para apoyarse durante las interrupciones, ello no garantiza que cada sistema sea más resiliente por sí mismo. Un evento grave que afecte a toda la región podría dejar a cada servicio dependiendo únicamente de sus propios recursos. Además, si se confía demasiado en la ayuda externa, se frena el desarrollo de la resiliencia propia. Por eso, es fundamental evaluar la resiliencia de cada sistema de manera individual para que esté mejor preparado ante fallos generalizados y situaciones imprevistas.

Los ejemplos de interdependencia entre infraestructuras ilustran bien la complejidad del problema. Imaginemos un terremoto que daña simultáneamente la red eléctrica y la de agua potable. Las estaciones de bombeo necesitan energía para funcionar, mientras que algunas centrales térmicas requieren agua para la refrigeración. Si falla la electricidad, no habrá agua, y si no hay agua, puede peligrar la producción de electricidad. Este círculo vicioso muestra cómo una perturbación localizada puede propagarse en cascada a otros sectores, multiplicando su impacto. Por ejemplo, un fallo en las telecomunicaciones puede impedir la coordinación de la reparación de carreteras o la distribución de combustible, lo que alarga los tiempos de recuperación. Estos ejemplos subrayan la importancia de diseñar infraestructuras robustas y conscientes de sus interconexiones.

Esquema de interdependencia de infraestructuras críticas: visualiza cómo agua, energía, telecomunicaciones y transporte dependen unas de otras y de la sociedad.

Para los futuros ingenieros, la resiliencia implica un cambio de mentalidad. No se trata solo de dimensionar una estructura para soportar una carga extrema, sino de considerar cómo responderá todo el sistema ante un fallo parcial. Supone aceptar la incertidumbre y trabajar con escenarios probabilísticos en los que se consideran eventos disruptivos, como el envejecimiento de los materiales, las sequías prolongadas o las crisis energéticas. Implica integrar la resiliencia en la gestión de activos y tomar decisiones como, por ejemplo, si es más eficaz duplicar una tubería para garantizar la redundancia o disponer de brigadas de intervención rápida que acorten los tiempos de reparación.

Traducir la resiliencia en aplicaciones prácticas para la infraestructura civil es todo un desafío debido a su complejidad y a su naturaleza transdisciplinaria. Las definiciones varían según la disciplina; es difícil medirla, y muchas metodologías se centran en aspectos aislados sin considerar su interacción. Además, para integrarla en los sistemas de gestión existentes y pasar del concepto teórico a la práctica, es necesario adoptar un enfoque integral que tenga en cuenta la variabilidad de los eventos disruptivos, las dimensiones técnicas y sociales, las implicaciones económicas y las características de red del sistema.

En conclusión, la resiliencia de las infraestructuras civiles no es un lujo, sino una necesidad estratégica en un mundo marcado por el cambio climático, la creciente urbanización y las redes interdependientes. Para los estudiantes de ingeniería, representa un campo fértil en el que confluyen la técnica, la economía y la sociedad, y en el que la innovación tendrá un impacto directo en la seguridad y la calidad de vida de millones de personas. Comprender y aplicar este enfoque significa prepararse para un futuro en el que la incertidumbre será constante, pero en el que nuestra mayor fortaleza será la capacidad de adaptación.

Os paso un vídeo que puede sintetizar bien las ideas de este artículo.

Referencias:

ANWAR, G.A.; DONG, Y.; ZHAI, C. (2020). Performance-based probabilistic framework for seismic risk, resilience, and sustainability assessment of reinforced concrete structures. Advances in Structural Engineering, 23(7):1454-1457.

BRUNEAU, M.; CHANG, S.E.; EGUCHI, R.T. et al. (2003). A framework to quantitatively assess and enhance the seismic resilience of communities. Earthquake Spectra 19(4): 733–752.

GAY, L. F.; SINHA, S. K. (2013). Resilience of civil infrastructure systems: literature review for improved asset management. International Journal of Critical Infrastructures9(4), 330-350.

SALAS, J.; YEPES, V. (2020). Enhancing sustainability and resilience through multi-level infrastructure planning. International Journal of Environmental Research and Public Health, 17(3): 962.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

5 ideas reveladoras sobre la vida secreta de nuestros edificios y puentes (y por qué debería importarte).

Colapso de una torre de viviendas en Ronan Point (Reino Unido). By Derek Voller, CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=59931718

Cada día cruzamos puentes y entramos en edificios con una confianza casi absoluta en su solidez. Damos por hecho que el hormigón y el acero que nos rodean son permanentes. Sin embargo, la realidad es que estas estructuras, al igual que cualquier otra cosa, envejecen, se desgastan y están expuestas a amenazas constantes. Esta degradación no es un problema lejano, sino una realidad silenciosa que ya está aquí. Se trata, como ya he comentado algunas veces, de una verdadera «crisis de las infraestructuras». De eso nos estamos ocupando en el proyecto de investigación RESIFIFE, del cual soy investigador principal.

Para comprender la magnitud del desafío, basta con echar un vistazo a las cifras. Según el informe de la Sociedad Americana de Ingenieros Civiles (ASCE) de 2021, casi el 42 % de todos los puentes de Estados Unidos tienen más de 50 años y un preocupante 7,5 % se consideran «estructuralmente deficientes». A nivel mundial, el panorama es igualmente preocupante. El Foro Económico Mundial estima que la brecha de inversión en infraestructuras podría alcanzar los 18 billones de dólares para el año 2040.

No se trata solo de un problema para ingenieros y gobiernos. Afecta a nuestra seguridad, a nuestra economía y a nuestro futuro. Por eso, hemos recopilado la investigación más reciente para compartir cinco de las ideas más reveladoras que los expertos están debatiendo sobre la gestión del ciclo de vida de nuestra infraestructura.

Los dos «enemigos» al que se enfrentan nuestras estructuras

La degradación de un edificio o un puente no es un proceso único. Para los ingenieros, el primer paso es siempre realizar un diagnóstico correcto. En este caso, hay dos tipos muy diferentes:

  • La degradación progresiva: piense en ella como un desgaste lento y constante. Se trata del «deterioro ambiental», por ejemplo, la corrosión del acero causada por la sal en el aire o la fatiga del material tras soportar cargas durante décadas. Es un enemigo paciente que debilita la estructura poco a poco a lo largo de toda su vida útil.
  • La degradación instantánea: son los impactos repentinos y violentos. Se trata de «eventos extremos», como terremotos, inundaciones o incluso desastres provocados por el ser humano. A diferencia de la degradación progresiva, un solo evento de este tipo puede reducir drásticamente el rendimiento de una estructura en cuestión de minutos.

Comprender esta diferencia es crucial, ya que no se puede utilizar la misma estrategia para reparar una grieta por fatiga que para recuperar una estructura después de un terremoto.

La caja de herramientas de los ingenieros: mantenimiento frente a reparación

Frente a estos dos enemigos, la ingeniería no lucha con las manos vacías. Cuenta con una caja de herramientas específica para cada amenaza, con dos categorías principales de soluciones o «mecanismos de intervención».

  • Mantenimiento: son acciones planificadas para combatir la degradación progresiva. Piense en ellas como la medicina preventiva. Estas «intervenciones preventivas o esenciales» incluyen tareas como reparar grietas, aplicar una nueva capa de pintura protectora o reemplazar componentes estructurales antes de que fallen. El objetivo es frenar el desgaste natural.
  • Reparación: son las acciones que se llevan a cabo en respuesta a la degradación instantánea. Pueden ser «preventivas», como reforzar una estructura (retrofit) para que resista mejor un futuro terremoto, o «correctivas», como las labores de recuperación para devolver la funcionalidad lo antes posible.

Este enfoque de «ciclo de vida» supone un cambio fundamental. En lugar de esperar a que algo se rompa para repararlo, los ingenieros modernos planifican, predicen e intervienen a lo largo de toda la vida útil de la estructura para garantizar su rendimiento a largo plazo.

Más allá de la seguridad: las cuatro formas de medir el «éxito» de una estructura

Es aquí donde el campo se ha vuelto realmente fascinante. La forma de evaluar el «éxito» de una estructura ha evolucionado desde una pregunta sencilla de «¿se ha caído o no?» basta un cuadro de mando sofisticado con cuatro indicadores clave. Para entenderlo mejor, podemos pensar en cómo se evalúa a un atleta profesional:

  • Fiabilidad (reliability): esta es la base. ¿Puede el atleta aguantar el esfuerzo de un partido sin lesionarse? Mide la probabilidad de que una estructura no falle en las condiciones para las que fue diseñada.
  • Riesgo (risk): este indicador va un paso más allá. Si el atleta se lesiona, ¿qué consecuencias tiene para el equipo? ¿Se pierde un partido clave o la final del campeonato? El riesgo tiene en cuenta las consecuencias de un fallo: sociales, económicas y medioambientales.
  • Resiliencia (resilience): este es un concepto más nuevo y crucial. En caso de lesión, ¿cuánto tiempo tardará el atleta en recuperarse y volver a jugar al máximo nivel? Mide la capacidad de una estructura para prepararse, adaptarse y, sobre todo, recuperarse de manera rápida y eficiente tras un evento extremo.
  • Sostenibilidad (sustainability): esta es la visión a largo plazo. ¿Está el atleta gestionando su carrera para poder jugar durante muchos años o se quemará en dos temporadas? La sostenibilidad integra los aspectos sociales, económicos y medioambientales para garantizar que las decisiones de hoy no afecten a las generaciones futuras.

Este cambio de enfoque para evaluar las consecuencias supone una revolución en el campo. Los expertos señalan un cambio de mentalidad fundamental: ya no basta con medir el rendimiento en términos técnicos. Ahora se centran en las consecuencias en el mundo real (sociales, económicas y ambientales), ya que estas ofrecen una visión mucho más fiel y significativa de lo que realmente está en juego.

 

La carrera contra el tiempo: por qué este campo está investigando ahora

El interés por modelar y gestionar el ciclo de vida de las estructuras no es solo una curiosidad académica, sino una respuesta directa a una necesidad global cada vez más acuciante. Un análisis de la investigación científica en este campo revela una clara «tendencia ascendente».

El número de artículos publicados sobre este tema ha crecido constantemente, pero se observa un «incremento importante» a partir de 2015. Este auge de la investigación no es académico, sino una respuesta directa a las alarmantes cifras que vimos al principio. La comunidad mundial de ingenieros está en una carrera contra el tiempo para evitar que ese déficit de 18 billones (18·1012) de dólares se traduzca en fallos catastróficos.

El futuro es inteligente: De la reparación a la predicción

Para gestionar esta complejidad, la ingeniería está recurriendo a herramientas cada vez más avanzadas que van más allá del cálculo tradicional. El objetivo es pasar de un enfoque reactivo a otro predictivo y optimizado. Es como pasar de ir al médico solo cuando tienes un dolor insoportable a llevar un reloj inteligente que monitoriza tu salud las 24 horas del día y te avisa de un problema antes incluso de que lo notes.

Entre las metodologías más destacadas se encuentran:

  • Optimización: algoritmos que ayudan a decidir cuál es la mejor estrategia de mantenimiento (cuándo, dónde y cómo intervenir) para obtener el máximo beneficio con recursos limitados.
  • Modelos de Markov: herramientas estadísticas que funcionan como un pronóstico del tiempo para las estructuras, ya que predicen su estado futuro basándose en su condición actual.
  • Inteligencia artificial (IA), aprendizaje automático y aprendizaje profundo: estas tecnologías permiten analizar grandes cantidades de datos (de sensores, inspecciones, etc.) para predecir fallos, identificar patrones invisibles al ojo humano y optimizar la gestión del ciclo de vida a una escala nunca antes vista.

Este cambio de paradigma significa que, en el futuro, las decisiones sobre cuándo reparar un puente o reforzar un edificio se tomarán con la ayuda de datos y algoritmos complejos que pueden prever el futuro de la estructura.

Conclusión: pensar en el mañana, hoy

Gestionar la salud de nuestra infraestructura es un desafío continuo, complejo y vital. Ya no basta con construir estructuras impresionantes; es fundamental adoptar una mentalidad de «ciclo de vida» que nos obligue a evaluar, intervenir y planificar constantemente pensando en el futuro. Solo así podremos garantizar que los edificios y puentes que usamos cada día no solo sean fiables, sino también resilientes ante los imprevistos y sostenibles para las próximas generaciones.

La próxima vez que cruces un puente, no pienses solo en dónde te lleva. Pregúntate cuál es su historia invisible en su lucha contra el paso del tiempo y si, como sociedad, estamos invirtiendo no solo para construir, sino también para perdurar.

Os dejo un vídeo que os puede servir de guía.

Referencias:

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Algunas preguntas sobre la gestión y el mantenimiento de la maquinaria empleada en la construcción

¿Cuáles son los objetivos principales del mantenimiento de la maquinaria y cómo se clasifica?

El mantenimiento de la maquinaria de construcción tiene como objetivos fundamentales maximizar su disponibilidad al mínimo coste, optimizar su rendimiento y garantizar unas condiciones óptimas de operatividad y seguridad. Esto se traduce en la reducción de costes debidos a paradas accidentales, minimizando las pérdidas de producción y los gastos propios del mantenimiento, así como en la limitación del deterioro de la maquinaria para evitar la disminución de la calidad del producto.

Las tareas de mantenimiento se clasifican en niveles según la importancia de la obra y sus misiones específicas. Por ejemplo, en una empresa constructora típica, el primer escalón (conductoras y conductores) se encarga del mantenimiento diario, semanal o quincenal (limpieza, repostaje, engrase y reparaciones de urgencia). El segundo escalón (equipos de obra) se encarga del mantenimiento mensual, trimestral o semestral, que incluye revisiones, ajustes ligeros y localización de averías. Los escalones superiores (el tercero y el cuarto, talleres móviles y fijos) se dedican a reparaciones más complejas, a la sustitución de piezas y a grandes reconstrucciones.

¿Qué tipos de políticas de mantenimiento existen y cuál es el más beneficioso a largo plazo?

No existe una clasificación rígida de los sistemas de mantenimiento y cada empresa debe elegir el más adecuado para cada máquina. Sin embargo, pueden clasificarse principalmente en:

  • Corrección por avería: Se permite que los equipos funcionen hasta que fallen, y luego se reparan lo antes posible. Aunque a corto plazo puede parecer económico, a medio y largo plazo puede generar costes elevados debido a la imposibilidad de programar las paradas y al riesgo de fallos graves, lo que disminuye la eficiencia del servicio. Solo se justifica en contadas ocasiones o cuando se trata de muchas máquinas iguales y hay capacidad de sobra.
  • Mantenimiento rutinario: Se establecen instrucciones generales para el mantenimiento de grupos homogéneos de máquinas, basado en la experiencia, para prevenir fallos. Es de bajo costo y puede resolver muchas averías antes de que ocurran.
  • Mantenimiento preventivo planificado: Se establecen ciclos de revisiones y sustituciones de componentes importantes según las instrucciones del fabricante y el uso de la máquina. Esto permite registrar averías y prever la vida útil de los elementos. Aunque es más costoso a corto plazo, resulta más ventajoso a medio y largo plazo, ya que permite programar los tiempos de inactividad y evitar fallos catastróficos, lo que aumenta la eficacia general. El objetivo es reparar antes de que se produzca una avería importante, lo que resulta más rápido y económico.

En resumen, el mantenimiento preventivo planificado es el más ventajoso a medio y largo plazo, ya que permite anticiparse a los problemas, reducir los costes y los tiempos de reparación, y aumentar la eficacia del servicio.

¿Cómo se distribuye el tiempo de permanencia de una máquina en obra y qué implicaciones tiene para los costos?

El tiempo que una máquina permanece en obra se divide en varias categorías, lo que afecta directamente el costo horario y la producción.

  • Tiempo de calendario laborable (fondo horario bruto): Horas reconocidas por la legislación laboral y la organización para trabajar.
  • Tiempo laborable real (fondo horario operacional): Horas de presencia efectiva de la máquina en obra, descontando circunstancias fortuitas como fenómenos atmosféricos, huelgas o catástrofes. Incluye horas extraordinarias.
  • Tiempo de máquina en disposición (fondo horario de explotación): Horas en las que la máquina está operativa y lista para trabajar, excluyendo paradas menores a 15 minutos.
  • Tiempo fuera de disposición: Horas en las que la máquina no está operativa, divididas en:
  • Mantenimiento: Tareas previsibles.
  • Averías: Reparaciones imprevisibles.
  • Parada por organización de obra: Tiempo de inactividad por causas ajenas a la máquina (falta de tajo, suministros, averías de otras máquinas, etc.).
  • Tiempo de trabajo útil: Horas netas donde la máquina produce, incluyendo trabajo productivo y trabajo no productivo o complementario.

Esta distribución temporal implica que el coste horario de una máquina varía en función de la referencia. Para el propietario, el coste se evalúa en relación con la hora de utilización, mientras que, en el caso de un alquiler, se refiere a la hora laborable real. Ampliar la jornada laboral para aumentar las horas útiles puede disminuir el coste horario fijo y acortar los plazos, pero hay que sopesarlo con inconvenientes como el aumento de costes por horas extra del operario, su fatiga y la dilución de responsabilidades si hay varios conductores, lo que puede incrementar las averías.

¿Cómo se calcula la fiabilidad de un equipo de construcción y cuáles son las fases de su vida útil según la «curva de la bañera»?

La fiabilidad se define como la probabilidad de que una unidad funcione correctamente en un intervalo de tiempo determinado sin interrupciones debidas a fallos de sus componentes, en condiciones establecidas. Está relacionada con el tiempo medio entre fallos (TMEF), que es la relación entre las horas de funcionamiento y el número de averías sufridas en ese período.

La «curva de la bañera» describe la evolución de la tasa de fallos de una máquina a lo largo del tiempo y se divide en tres fases:

  1. Período de mortalidad infantil o fallos prematuros: Caracterizado por una alta tasa de fallos que disminuye rápidamente. Las causas suelen ser errores de diseño, fabricación o uso. Estos fallos ocurren en la fase de rodaje y, una vez resueltos, no suelen repetirse.
  2. Período de tasa de fallos constante o vida útil: Los fallos aparecen de forma aleatoria y accidental, debidos a limitaciones de diseño, percances por uso o mal mantenimiento. Es el período ideal de utilización de la máquina.
  3. Período de desgaste: La tasa de fallos aumenta con el tiempo debido a la vejez y el fin de la vida útil. En esta fase, se recomienda el reemplazo preventivo de componentes o incluso la renovación completa del equipo para evitar incidentes catastróficos.
Figura 2. Curva de fiabilidad de una máquina

Para alargar su vida útil, se puede aplicar el envejecimiento preventivo (funcionamiento preliminar para detectar fallos prematuros) y la sustitución preventiva (reemplazo de unidades al finalizar su vida útil para evitar fallos).

¿Cómo se modela la fiabilidad de una máquina y qué técnicas de prevención de fallos se utilizan en el diseño?

La fiabilidad de una máquina puede modelarse mediante la distribución exponencial cuando la tasa de fallos es constante durante el período de vida útil. Esto implica que la ocurrencia de un fallo es imprevisible e independiente de la vida útil del equipo. Una generalización de este modelo es la función de Weibull, que se utiliza cuando la tasa de fallos es variable y permite tener en cuenta las fases de fallos precoces y de envejecimiento.

En lo que respecta a las técnicas de prevención de fallos en el diseño de equipos, las empresas se centran en maximizar la fiabilidad del producto. Algunas metodologías clave son:

  • Despliegue de la Función de Calidad (QFD): Permite traducir los requisitos de calidad del cliente en características técnicas del producto, utilizando matrices para analizar necesidades, competencia y nichos de mercado.
  • Análisis Modal de Fallos y Efectos (AMFE): Una metodología estructurada para identificar y prevenir modos de fallo potenciales y sus causas en un producto o sistema.
  • Análisis del valor: Busca reducir el coste del producto sin eliminar las características esenciales demandadas por los clientes, identificando cambios que aumenten el valor sin un incremento desproporcionado del coste.

¿Cómo influyen las condiciones climáticas y otros imprevistos en la planificación del tiempo de trabajo en una obra de construcción?

Las condiciones climáticas y otros imprevistos son factores cruciales que influyen en el plazo de ejecución de una obra. La planificación del tiempo de trabajo disponible se basa en datos históricos del clima y en el calendario laboral.

El método de la Dirección General de Carreteras, por ejemplo, utiliza coeficientes de reducción aplicados al número de días laborables de cada mes para estimar los días efectivamente trabajados. Estos coeficientes tienen en cuenta:

  • Temperatura límite: Por debajo de la cual no se pueden ejecutar ciertas unidades de obra (ej., 10 ºC para riegos bituminosos, 5 ºC para mezclas bituminosas, 0 ºC para manipulación de materiales húmedos).
  • Precipitación límite diaria: Se definen valores como 1 mm/día para trabajos sensibles a lluvia ligera y 10 mm/día para la mayoría de los trabajos, donde una protección especial sería necesaria.

Los días utilizables netos de cada mes se calculan multiplicando los días laborables por los coeficientes reductores por climatología adversa y por los días no laborables, que dependen de festivos y convenios laborales. La reducción de días representa la probabilidad de que un día del mes sea favorable desde el punto de vista climático y laborable. Estos cálculos permiten elaborar un plan de obra lo más ajustado posible, minimizando las desviaciones de plazo, aunque la evolución del tiempo atmosférico es impredecible en la práctica.

¿Qué se entiende por «disponibilidad» de una máquina en obra y cómo se calcula?

La disponibilidad de una máquina se refiere a su estado operativo, es decir, al tiempo en el que se encuentra disponible. Se pueden distinguir dos tipos principales de disponibilidad:

  • Disponibilidad en obra o factor de disponibilidad: Se define como el cociente entre el tiempo en que una máquina se encuentra en estado operativo y el tiempo laborable real. En otras palabras, es la relación entre las horas brutas de disponibilidad y las horas que la máquina ha estado presente en la obra. Valores bajos de este factor pueden indicar una mala conservación, reparaciones lentas o falta de repuestos.
  • Disponibilidad intrínseca: Se define como el cociente entre el tiempo de utilización y el tiempo laborable real, sin tener en cuenta las paradas ajenas a la máquina por tiempo disponible no utilizado (mala organización de la obra, etc.). Estadísticamente, se define como la probabilidad de que una máquina funcione correctamente en un momento determinado o de que no presente averías irreparables en un tiempo máximo.

Las máquinas se clasifican en «principales» (se requiere alta disponibilidad, ya que su fallo paraliza la producción de un conjunto de máquinas) y «secundarias» o «de producción trabajando solas».

¿Cómo se calcula la disponibilidad de un conjunto de máquinas trabajando en cadena y en paralelo?

La disponibilidad de un sistema de máquinas varía significativamente en función de si trabajan en serie o en paralelo.

  • Máquinas trabajando en cadena (serie): Si n máquinas trabajan en cadena, y el fallo de una paraliza a las demás, la disponibilidad intrínseca del conjunto es el producto de las disponibilidades individuales. Esto significa que la disponibilidad general disminuye rápidamente al aumentar el número de máquinas en serie. Si se admiten acopios intermedios suficientemente grandes, la disponibilidad del equipo sería el mínimo de las disponibilidades individuales, lo que amplía la disponibilidad respecto a no tener acopios.
  • Máquinas trabajando en paralelo: Si n máquinas iguales trabajan en paralelo y la inoperatividad de una no detiene completamente el proceso (ya que otras pueden seguir trabajando), la probabilidad de que x máquinas se encuentren en disposición sigue una distribución binomial. En este caso, la disponibilidad del conjunto aumenta al tener más unidades en paralelo, ya que el sistema puede continuar operando incluso si algunas máquinas fallan.

En un caso general de máquinas principales en paralelo y auxiliares en paralelo que luego trabajan en serie, la disponibilidad del conjunto se calcula combinando las fórmulas de disponibilidad en serie y en paralelo.

 

Referencias:

PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente nº 97.439. Ed. Universitat Politècnica de València. 256 pág. Depósito Legal: V-4598-1997. ISBN: 84-7721-551-0.

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442. ISBN: 978-84-1396-046-3

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Robustez estructural y colapso progresivo: claves para entender y proteger nuestras construcciones

Colapso de una torre de viviendas en Ronan Point (Reino Unido). By Derek Voller, CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=59931718

La robustez estructural es la cualidad que permite a un edificio o puente soportar eventos inesperados —un fallo aislado, un impacto, una explosión—sin que ello provoque un colapso generalizado. Con el fin de aclarar el tema, se plantea la siguiente hipótesis: ¿qué ocurriría si un edificio perdiera de forma repentina uno de sus pilares portantes? En caso de que el diseño del edificio sea adecuado, las cargas que anteriormente transmitía dicho pilar se distribuirán de manera alternativa entre los elementos restantes, evitando así su colapso total. La capacidad de «resistir a contracorriente» ante situaciones inusuales se denomina robustez, constituyendo una línea de defensa fundamental para garantizar la seguridad de las personas y la continuidad del uso de la infraestructura.

El concepto puede resultar abstracto, pero es suficiente con considerar ejemplos dramáticos del pasado: en 1968, el colapso de una torre de viviendas en Ronan Point (Reino Unido) se originó por la explosión de una bombona de gas en un piso. Un fallo local aparentemente limitado desencadenó la caída de varias plantas, debido a la falta de mecanismos suficientes para redirigir las cargas. Por el contrario, un diseño sólido y bien fundamentado prevé esa posibilidad y mantiene la estructura del edificio en pie incluso tras el daño inicial, minimizando el número de víctimas y la magnitud del desastre.

Dentro de la robustez, se identifican diversas cualidades fundamentales. La redundancia implica disponer de múltiples vías para garantizar la llegada de las cargas al terreno. En caso de una interrupción en una de las vías, las demás están preparadas para asumir la carga de inmediato. La ductilidad se define como la capacidad de los materiales —como el acero, el hormigón armado o la madera— para deformarse sin quebrarse bruscamente. Esta «flexibilidad» les permite absorber la energía generada por impactos o terremotos, evitando así roturas instantáneas. La integridad estructural se define como la continuidad de todos los elementos conectados, de modo que las vigas, columnas y losas formen un conjunto que trabaje armónicamente y no se separe ante un esfuerzo puntual.

El colapso progresivo es un proceso en el que un fallo inicial genera otros a su alrededor, extendiéndose como una fiebre que consume toda la estructura. Analogía: el desplome de la primera ficha de dominó puede desencadenar la caída de todas las demás. En el ámbito de la ingeniería estructural, se busca evitar dicha reacción en cadena. Para ello, se implementan técnicas de «atado» o «conexión reforzada», mediante las cuales se une las vigas y columnas con armaduras continuas o refuerzos en puntos críticos. De esta manera, en caso de que falte un elemento, el resto del sistema no se ve comprometido.

En el ámbito de la ingeniería, la incorporación de la robustez en los proyectos se aborda mediante diversas estrategias. Una de las metodologías más eficaces consiste en anticipar los posibles escenarios de daño, tales como impactos de vehículos, explosiones accidentales o errores de construcción. Posteriormente, se verifica mediante modelos simplificados que la estructura mantiene su estabilidad incluso cuando falta un pilar o una viga. Otra estrategia prescriptiva consiste en el refuerzo de elementos clave, tales como las columnas exteriores o los núcleos de las escaleras, mediante la incorporación de armaduras o perfiles metálicos de mayor sección, a fin de actuar como «pilares de reserva» que soporten las cargas críticas.

La normativa europea, establecida en los Eurocódigos, ha establecido durante años la exigencia de que los edificios posean la capacidad de resistir sin colapsar de manera desproporcionada ante acciones accidentales. Es importante destacar que esta medida no implica tener que afrontar situaciones de alto riesgo, como bombardeos o terremotos de gran intensidad. En cambio, se refiere a la capacidad del edificio para resistir eventos menos probables pero potencialmente significativos, como la explosión de una tubería de gas o el choque de un camión contra un pilar. Para ello, se establecen diversos niveles de severidad del daño y se implementan criterios de diseño más o menos rigurosos, en función del riesgo para las personas y el entorno.

En la práctica, estos requisitos se traducen en aspectos constructivos específicos, tales como la unión de las vigas de forjado a las vigas principales y a los muros de cerramiento, la instalación de estribos continuos en las columnas para mejorar su comportamiento ante daños localizados o la previsión de refuerzos metálicos en los puntos de unión más expuestos. Asimismo, se recomienda el empleo de materiales con suficiente ductilidad, como aceros estructurales de alta deformabilidad, y técnicas de construcción que garanticen conexiones firmes, tales como soldaduras completas, atornillados de alta resistencia o conectores especiales en estructuras de madera.

Estos principios, además de aplicarse a la obra nueva, también se emplean en el refuerzo de edificios existentes. En el proceso de rehabilitación de estructuras antiguas, con frecuencia se implementa la adición de pórticos metálicos interiores o el refuerzo de las conexiones de hormigón armado con fibras de carbono, con el propósito de incrementar la ductilidad. En el caso de los puentes, se instalan amortiguadores o cables adicionales que permitan la redistribución de esfuerzos en caso de rotura de un tirante. El objetivo principal es la integración de elementos de seguridad en el sistema portante.

En resumen, la robustez estructural es un enfoque global que integra el diseño conceptual, el análisis de riesgos, la definición de escenarios y los detalles constructivos, con el objetivo de evitar que un fallo puntual derive en un colapso mayor. Es imperativo comprender el colapso progresivo y aplicar medidas de redundancia, ductilidad e integridad —junto a estrategias prescriptivas y de análisis directo—. De esta manera, nuestros edificios y puentes se convierten en sistemas más seguros, preparados para afrontar lo imprevisto y reducir al máximo las consecuencias de cualquier incidente.

Tómese un momento para consultar el siguiente texto, que contiene información adicional relevante para su referencia. El presente informe, elaborado por la EU Science Hub, en consonancia con los Eurocódigos, aborda el tema de la resistencia estructural, con el propósito de prevenir colapsos progresivos y desproporcionados en estructuras tales como edificios y puentes. Por favor, proceda a analizar las directrices de diseño vigentes en Europa y en otros países, identificando fortalezas y debilidades de las normativas actuales. El documento propone nuevas estrategias de diseño, como métodos mejorados de fuerza de atado horizontal y consideraciones sobre rutas de carga alternativas, y aborda la importancia de tener en cuenta el envejecimiento, el deterioro y el diseño multirriesgo. Se presentan ejemplos ilustrativos de aplicación a diversas estructuras.

Pincha aquí para descargar

Glosario de términos clave

  • Robustez (estructural): Capacidad o propiedad de un sistema para evitar una variación desproporcionada del rendimiento estructural (rendimiento del sistema) con respecto al daño correspondiente (perturbación del sistema).
  • Vulnerabilidad: Describe el grado de susceptibilidad de un sistema estructural a alcanzar un determinado nivel de consecuencias ante un evento peligroso dado.
  • Daño admisible (damage tolerance): Capacidad de un sistema estructural para soportar un determinado nivel de daño sin perder el equilibrio con las cargas aplicadas.
  • Continuidad: Conexión continua de los miembros de un sistema estructural.
  • Ductilidad: Capacidad de un sistema estructural para soportar las cargas aplicadas disipando energía plástica.
  • Integridad: Condición de un sistema estructural para permitir la transferencia de fuerzas entre los miembros en caso de eventos accidentales.
  • Incertidumbres: Estado de información deficiente, por ejemplo, relacionada con la comprensión o el conocimiento de un evento, su consecuencia o probabilidad.
  • Probabilidad: Expresión matemática del grado de confianza en una predicción.
  • Fiabilidad (reliability): Medida probabilística de la capacidad de un sistema estructural para cumplir con requisitos de diseño específicos. La fiabilidad se expresa comúnmente como el complemento de la probabilidad de falla.
  • Seguridad estructural: Calidad de un sistema estructural, referida a la resistencia, estabilidad e integridad de una estructura para soportar los peligros a los que es probable que esté expuesta durante su vida útil.
  • Riesgo: Una medida de la combinación (generalmente el producto) de la probabilidad o frecuencia de ocurrencia de un peligro definido y la magnitud de las consecuencias de la ocurrencia.
  • Redundancia: La capacidad del sistema para redistribuir la carga que ya no puede soportar algunos elementos dañados y/o deteriorados entre sus miembros.
  • Peligro: Amenaza excepcionalmente inusual y severa, por ejemplo, una posible acción anormal o influencia ambiental, resistencia o rigidez insuficiente, o desviación perjudicial excesiva de las dimensiones previstas.
  • Escenario peligroso: Serie de situaciones, transitorias en el tiempo, que un sistema podría experimentar y que pueden poner en peligro el propio sistema, a las personas y al medio ambiente.
  • Consecuencias del fallo: Los resultados o impactos de un fallo estructural pueden ser directos (daño a elementos afectados directamente) o indirectos (fallo parcial o total del sistema subsiguiente).
  • Análisis por presión-impulso (pressure–impulse analysis): Método utilizado para evaluar el rendimiento y el daño de elementos estructurales individuales bajo carga dinámica, definido por curvas iso-daño que relacionan la presión y el impulso.
  • Capacidad de diseño (capacity design): Un principio de diseño sísmico que establece una jerarquía de resistencias de los miembros para garantizar que las rótulas plásticas se formen en las ubicaciones deseadas, típicamente en las vigas en lugar de en las columnas (regla columna débil-viga fuerte – SCWB).
  • Factor de robustez R(𝜌, Δ): Un factor propuesto para cuantificar la robustez estructural, que relaciona el indicador de rendimiento residual (𝜌) con el índice de daño (Δ), a menudo mediante un parámetro de forma (𝛼).
  • Atados (ties): Elementos o disposiciones utilizados en el diseño estructural para proporcionar resistencia a la tracción y mejorar la robustez, especialmente en caso de pérdida de un elemento vertical de soporte de carga. Pueden ser horizontales o verticales.

Referencias:

MAKOOND, N.; SETIAWAN, A.; BUITRAGO, M., ADAM, J.M. (2024). Arresting failure propagation in buildings through collapse isolation. Nature 629, 592–596 (2024). DOI:10.1038/s41586-024-07268-5

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementationEngineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487

Algunas reflexiones sobre el impacto del cambio climático en el comportamiento de las infraestructuras

El diseño estructural de infraestructuras, como edificios y puentes, se basa en códigos que establecen los criterios necesarios para garantizar su resistencia a diversas condiciones climáticas y ambientales. Estos códigos se actualizan periódicamente para reflejar los avances científicos y tecnológicos. Sin embargo, el cambio climático plantea un desafío disruptivo, ya que altera las condiciones climáticas de manera impredecible, lo que cuestiona la suposición de que las cargas climáticas son estacionarias.

En estas líneas se aborda cómo la transición del diseño estructural basado en estados límites ha influido en la forma en que se tienen en cuenta las variables climáticas. También aborda las dificultades que surgen al integrar el cambio climático en los modelos de riesgo estructural y analiza la necesidad de ajustar los métodos de estimación y diseño para tener en cuenta la creciente incertidumbre sobre el futuro climático.

Estas reflexiones se enmarcan dentro del proyecto RESILIFE, que actualmente desarrollo como investigador principal, y se han basado en algunas ideas desarrolladas en el trabajo reciente de Ellingwood et al. (2024).

Los códigos estructurales establecen los criterios necesarios para diseñar edificios, puentes y otras infraestructuras capaces de resistir las demandas de uso y los eventos ambientales o climáticos, como la nieve, el hielo, las lluvias, las tormentas de viento e inundaciones fluviales y costeras. Para garantizar que reflejen los últimos avances en ciencia e ingeniería, estos códigos se actualizan periódicamente, generalmente cada 5 o 10 años.

En las últimas cuatro décadas, los códigos estructurales de todo el mundo, como el «Minimum Design Loads and Associated Criteria for Buildings and Other Structures (ASCE 7-22)», las «LRFD Bridge Design Specifications (AASHTO)», el «International Building Code«, el «National Building Code of Canada» y los Eurocódigos, han adoptado los principios del diseño basado en estados límite. Durante este tiempo, los ingenieros estructurales y la normativa han reconocido la importancia de las herramientas de análisis de fiabilidad estructural y gestión del riesgo para modelar las incertidumbres asociadas a las cargas estructurales y la respuesta de las estructuras, y así garantizar un rendimiento adecuado en servicio (García-Segura et al., 2017). Con la transición del diseño basado en tensiones admisibles al diseño por estados límite, los criterios para las cargas climáticas han evolucionado gradualmente. Hasta ahora, estos criterios, basados en registros climáticos históricos y en evaluaciones de fiabilidad estructural, han tratado las cargas operativas y climáticas como estacionarias, asumiendo que el pasado es representativo del futuro.

El cambio climático plantea un desafío disruptivo y significativo para la evolución gradual de los códigos basados en el riesgo, así como para las prácticas de diseño estructural (ASCE, 2015a, 2018). La suposición de estacionariedad en el análisis de riesgos naturales deja de ser válida al tener en cuenta los efectos del cambio climático. Además, las incertidumbres asociadas a las proyecciones climáticas para el resto del siglo XXI son considerables, especialmente en lo que respecta a las cargas de viento, hielo y nieve (Tye et al., 2021). Las condiciones climáticas más agresivas podrían acelerar el deterioro estructural en ciertos casos, así como aumentar la intensidad y duración de los peligros. El cambio climático también ha suscitado controversia desde el punto de vista económico y político. Lograr consenso en los comités encargados de los códigos sobre el impacto del cambio climático en las infraestructuras requerirá una gestión técnica eficaz y una separación clara entre los aspectos políticos, como las causas del cambio climático, y los aspectos técnicos, como su impacto en las estructuras. Asimismo, podría haber oposición pública ante los costes adicionales que conlleven las modificaciones en los códigos climáticos. No obstante, ignorar los efectos del cambio climático en el comportamiento a largo plazo de las estructuras e infraestructuras podría incrementar el riesgo de daños y fallos, aumentar los costes de diseño, construcción y mantenimiento, agravar problemas de salud y seguridad públicas, interrumpir servicios esenciales y generar impactos socioeconómicos y ambientales negativos a nivel nacional.

Es fundamental abordar varias preguntas clave para considerar las exigencias del cambio climático en el desarrollo de los códigos estructurales. Entre ellas se encuentran (Ellingwood et al., 2024) :

  • ¿Cómo se debe modelar la no estacionariedad en la ocurrencia e intensidad de los eventos climáticos extremos provocados por el cambio climático?
  • ¿Cómo se deben integrar estas incertidumbres en un análisis de fiabilidad estructural dependiente del tiempo, con el fin de estimar el comportamiento futuro y demostrar el cumplimiento de los objetivos de rendimiento expresados en términos de fiabilidad?
  • ¿Cómo se puede convencer a los ingenieros estructurales y al público en general de la necesidad de aceptar estos cambios en interés nacional (Cooke, 2015), incluso si en algunos casos los costes de los sistemas de infraestructura aumentan?

Problemas y desafíos en el análisis de datos climáticos para el diseño estructural

Las variables climáticas empleadas en los códigos estructurales se basan principalmente en datos históricos. Los vientos extratropicales, la nieve, la temperatura y las precipitaciones se analizan exclusivamente a partir de estos datos. En el caso de los huracanes, se integran datos históricos en un marco que modela su génesis en la cuenca del Atlántico Norte, su desarrollo hasta convertirse en huracanes plenamente formados que impactan en infraestructuras costeras y su disipación tras tocar tierra. Estos análisis suponen que las variables climáticas pueden evaluarse como si fueran estacionarias, es decir, que el pasado es representativo del futuro y que sus intensidades pueden determinarse en función de sus periodos de retorno. Los datos se han recopilado para fines distintos al diseño de edificaciones, como la aviación comercial, la hidrología local, la gestión de recursos hídricos y la agricultura, y generalmente abarcan menos de 100 años.

La mayoría de las variables climáticas incluidas en los códigos se suelen determinar ajustando el parámetro extremo anual a una distribución de probabilidad. Entre las distribuciones más comunes utilizadas para este propósito se encuentran la distribución Tipo I de valores máximos y la distribución generalizada de valores extremos. El periodo de retorno o intervalo medio de recurrencia de una carga se calcula como el recíproco de la probabilidad anual de que dicha carga se supere. El error de muestreo en la estimación de los eventos base de diseño en una secuencia estacionaria para periodos de retorno superiores a 100 años puede ser considerable. Sin embargo, las estimaciones de las medias de las muestras suelen ser razonablemente estables cuando se actualizan en intervalos típicos de 10 años con datos climáticos adicionales.

La suposición de estacionariedad en los datos no puede justificarse en un contexto de cambio climático (Pandey y Lounis, 2023), y el concepto de un evento asociado a un periodo de retorno específico no es aplicable en sentido estricto. El aumento (o disminución) de las variables climáticas, junto con la creciente incertidumbre en los modelos de predicción climática, especialmente a partir del año 2060, afectará a la forma de analizar y especificar los datos para fines de diseño estructural. Quizás lo más relevante sea el impacto que tendrá sobre la forma en que se comunicarán los peligros de diseño a la comunidad profesional de la ingeniería y a sus clientes (Cooke, 2015).  Ellingwood et al. (2024) recuerdan claramente la confusión generada por el concepto de periodo de retorno cuando se introdujo a finales de la década de 1960. El periodo de retorno se concibió como una herramienta para reconocer que el parámetro de carga es aleatorio y para definir indirectamente la probabilidad anual de que se supere su intensidad de diseño, sin necesidad de recurrir a probabilidades pequeñas que no eran habituales entre los ingenieros estructurales de esa época. Esto podría explicar por qué algunos investigadores climáticos han intentado presentar sus estimaciones de parámetros utilizando el concepto de periodo de retorno (Ribereau et al., 2008; Salas y Obeysekera, 2014). Este problema requiere una reflexión cuidadosa al tratar con un clima cambiante, donde las probabilidades anuales no son constantes a lo largo de la vida útil de una estructura.

El crecimiento proyectado de las variables climáticas y sus incertidumbres más allá del año 2060 indica que será necesario desarrollar métodos para gestionar la incertidumbre epistémica -se refiere a la incertidumbre del modelo- en la estimación de parámetros, un aspecto que no se había tenido en cuenta previamente al estimar las variables climáticas para desarrollar códigos estructurales. Aunque la precisión de las técnicas generales de pronóstico climático ha mejorado gracias a la recopilación continua de datos, los modelos climáticos actuales son más capaces de predecir el impacto del cambio climático sobre la temperatura y las precipitaciones que sobre fenómenos como inundaciones, nevadas y vientos. Esto resulta problemático a la hora de considerar los niveles de probabilidad apropiados para el análisis de seguridad estructural.

Las futuras investigaciones podrían centrarse en el desarrollo de modelos más precisos para cargas climáticas específicas, como ciclones tropicales o sequías prolongadas, que aún presentan elevadas incertidumbres en sus proyecciones. Además, sería valioso explorar la aplicación de estos principios a sistemas de infraestructura emergentes, como redes de energía renovable o tecnologías de transporte resilientes. Por último, se sugiere investigar métodos para integrar datos climáticos en tiempo real en el diseño y seguimiento de infraestructuras, fomentando un enfoque dinámico y adaptable al cambio climático.

En resumen, los códigos estructurales establecen los criterios necesarios para diseñar infraestructuras capaces de resistir eventos climáticos como tormentas, nieve e inundaciones, y se actualizan periódicamente para reflejar los avances científicos y tecnológicos. Sin embargo, el cambio climático plantea un reto significativo, ya que altera las condiciones climáticas de manera impredecible, lo que hace que la suposición de estacionariedad que hasta ahora ha guiado el diseño estructural sea obsoleta. Este artículo explora cómo los códigos estructurales han evolucionado hacia un diseño basado en estados límite y la necesidad urgente de ajustar los métodos de análisis de riesgos ante la creciente incertidumbre climática. Además, se analizan los problemas derivados del uso exclusivo de datos históricos para modelar cargas climáticas y las dificultades que plantea el cambio climático a la hora de predecir eventos extremos. Finalmente, se destaca la necesidad de desarrollar nuevos modelos y enfoques analíticos que garanticen la seguridad de las infraestructuras en un entorno climático en constante cambio.

Os dejo un mapa conceptual sobre las reflexiones anteriores.

Referencias:

ASCE (2015). Adapting infrastructure and civil engineering practice to a changing climate. Committee on Adaptation to a Changing Climate. American Society of Civil Engineers.

ASCE (2018). Climate-resilient infrastructure: Adaptive design and risk management. Reston, VA: Committee on Adaptation to a Changing Climate. American Society of Civil Engineers.

Cooke, R. M. (2015). Messaging climate change uncertainty. Nature Climate Change5(1), 8-10.

Ellingwood, B. R., Bocchini, P., Lounis, Z., Ghosn, M., Liu, M., Yang, D., Capacci, L., Diniz, S., Lin, N., Tsiatas, G., Biondini, F., de Lindt, J., Frangopol, D.M., Akiyama, M., Li, Y., Barbato, M., Hong, H., McAllister, T., Tsampras, G. & Vahedifard, F. (2024). Impact of Climate Change on Infrastructure Performance. In Effects of Climate Change on Life-Cycle Performance of Structures and Infrastructure Systems: Safety, Reliability, and Risk (pp. 115-206). Reston, VA: American Society of Civil Engineers.

García-Segura, T., Yepes, V., Frangopol, D. M., & Yang, D. Y. (2017). Lifetime reliability-based optimization of post-tensioned box-girder bridges. Engineering Structures145, 381-391.

Pandey, M. D., & Lounis, Z. (2023). Stochastic modelling of non-stationary environmental loads for reliability analysis under the changing climate. Structural Safety103, 102348.

Ribereau, P., Guillou, A., & Naveau, P. (2008). Estimating return levels from maxima of non-stationary random sequences using the Generalized PWM method. Nonlinear Processes in Geophysics15(6), 1033-1039.

Salas, J. D., & Obeysekera, J. (2014). Revisiting the concepts of return period and risk for nonstationary hydrologic extreme events. Journal of hydrologic engineering19(3), 554-568.

Tye, M. R., & Giovannettone, J. P. (2021, October). Impacts of future weather and climate extremes on United States infrastructure: Assessing and prioritizing adaptation actions. Reston, VA: American Society of Civil Engineers.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Seguridad estructural, los estados límites y los métodos semiprobabilísticos

El concepto de seguridad de una estructura en cumplir un conjunto de funciones para las que ha sido proyectada es un término relacionado con el grado de certeza o fiabilidad de que no alcance un conjunto de estados no deseables que todavía no han acontecido.

La seguridad se representa por consiguiente como un aspecto antagónico al aspecto económico del dimensionamiento: una estructura proyectada para un coste pequeño puede resultar poco segura y, por el contrario, una estructura proyectada para ser muy segura puede resultar antieconómica. La solución debe quedar en un término adecuado.

El concepto de seguridad en una estructura se refiere a su capacidad para cumplir con las funciones previstas, garantizando un nivel de fiabilidad que evite la ocurrencia de estados no deseados. La seguridad se contrapone al aspecto económico del diseño: una estructura económica puede ser menos segura, mientras que una estructura altamente segura puede resultar costosa. Por lo tanto, es necesario encontrar un equilibrio adecuado entre ambos aspectos.

El objetivo principal del Proyecto de Ingeniería Estructural consiste en garantizar que la estructura cumpla satisfactoriamente con su función original. El mantenimiento de esta funcionalidad a lo largo de su vida útil depende de diversos factores o parámetros que tradicionalmente se han considerado como cantidades deterministas.

Sin embargo, evaluar la seguridad en ingeniería es complicado debido a varios factores. En primer lugar, los accidentes pueden ocurrir por causas no relacionadas con los cálculos realizados, como erosiones o modelos inadecuados. Además, tratar el problema de forma aleatoria puede llevar a considerar la probabilidad como medida universal e invariable de seguridad. Sin embargo, la probabilidad solo es significativa en relación con un conjunto coherente de conocimientos, como los estados de falla no ocurridos, difíciles de definir. Además, existen incertidumbres que no pueden ser objetivamente cuantificadas mediante probabilidades. Por lo tanto, las probabilidades solo pueden ser definidas dentro de un contexto específico y los cálculos de probabilidad son meramente convencionales. Además, si bien medir el margen de seguridad a través de una magnitud física puede ser útil en un problema particular, no todas las magnitudes son adecuadas en todos los casos generales. Por ejemplo, las tensiones no son una magnitud adecuada para el estudio del equilibrio estático, y evaluar el margen de seguridad basándose en las tensiones puede ser incorrecto en problemas no lineales.

En el contexto de la Teoría de la Fiabilidad Estructural, Armen Der Kiureghian presenta los siguientes tipos de incertidumbres. En primer lugar, están las incertidumbres físicas, que surgen debido a la inherente variabilidad de las magnitudes físicas involucradas en el problema, como dimensiones, propiedades del material, cargas y resistencia. En segundo lugar, encontramos las incertidumbres estadísticas, que se originan a partir de los modelos probabilísticos utilizados para caracterizar las Variables Básicas del problema. Estas incertidumbres se deben a las aproximaciones necesarias para seleccionar las Funciones de Distribución y estimar sus parámetros, debido a la falta de información disponible. En tercer lugar, se presentan las incertidumbres del modelo, que son generadas por las hipótesis simplificativas realizadas en los modelos matemáticos empleados para describir la respuesta de un sistema estructural. Estas simplificaciones incluyen aspectos como la homogeneidad, el comportamiento elástico o elastoplástico, las pequeñas deformaciones y las condiciones de contorno. Aunque la variabilidad de los dos últimos tipos de incertidumbres puede reducirse a través del estudio e investigación, las incertidumbres físicas del primer tipo son inevitables.

En el pasado, las construcciones se basaban en métodos empíricos, confiando en la experiencia y la intuición del constructor para garantizar la seguridad. Sin embargo, en la actualidad, la experiencia debe complementarse con los resultados obtenidos, ya que la rápida evolución técnica puede presentar situaciones no experimentadas previamente. Con el surgimiento de la construcción metálica en el siglo XIX y el enfoque en la Resistencia de Materiales, se introdujo el método de tensiones admisibles. Este método implica un enfoque determinista en las variables utilizadas, donde la seguridad se basa en el margen establecido por las tensiones admisibles. Estas tensiones se obtienen mediante el cociente entre la resistencia del material y un coeficiente de seguridad, mientras que las cargas variables se establecen de manera empírica y arbitraria.

El desarrollo de la Teoría de la Elasticidad permitió aplicar este método en la construcción de hormigón armado, pero presenta desafíos. Cuando el comportamiento no es lineal debido a los materiales o la geometría de la estructura, las tensiones admisibles no reflejan el margen real de seguridad. Además, el comportamiento del hormigón y el acero dificulta definir el fallo en términos de tensiones. No se consideran los efectos de la adaptación plástica del hormigón, donde la tensión en un punto no determina la confiabilidad estructural si hay una fase de adaptación plástica que redistribuye los esfuerzos. Además, no se distinguen los diferentes tipos de acciones cuya influencia en la seguridad es distinta. No obstante, este método ha sido utilizado con profusión durante la primera mitad del siglo XX.

La Teoría de la Fiabilidad, que inicialmente se aplicaba a procesos industriales de producción en serie, se adaptó en 1960 al campo de la Ingeniería Estructural. El objetivo era desarrollar métodos que permitieran determinar los niveles de seguridad de los Sistemas Estructurales, mediante un enfoque racional de las incertidumbres presentes en ellos. Desde entonces, esta área de investigación ha experimentado un notable impulso, y los fundamentos teóricos desarrollados han dejado de ser exclusivamente un tema de investigación académica para convertirse en un conjunto de metodologías con una amplia gama de aplicaciones prácticas.

No obstante, los avances tecnológicos y los métodos de análisis han permitido realizar estudios de seguridad más precisos en las estructuras mediante la incorporación de modelos estadísticos y de probabilidad en los cálculos. Desde los primeros intentos, como el de Max Mayer en 1926, numerosos autores han contribuido al desarrollo del enfoque probabilístico y a su aplicación práctica. Para emplear la probabilidad en los cálculos, es necesario definir un conjunto coherente de eventos no deseados, denominados “estados límite”. Estos estados límite representan condiciones en las que una estructura o uno de sus elementos deja de cumplir su función de manera inmediata o progresiva. La seguridad se caracteriza por la probabilidad o conjunto de probabilidades de que los estados límite no sean superados. Al elegir la probabilidad de ocurrencia de un estado límite como medida convencional de la seguridad, es necesario establecer los valores aplicables en la práctica.

A primera vista, podría parecer que el uso de probabilidades resuelve por completo el problema de medir la seguridad. Sin embargo, su implementación enfrenta dos dificultades. Por un lado, están los datos que no se pueden cuantificar de manera probabilística debido a su naturaleza. Por otro lado, resulta prácticamente imposible conocer con precisión la probabilidad real de alcanzar un estado límite. Estas limitaciones dificultan la aplicación práctica de las probabilidades en la evaluación de la seguridad.

La seguridad puede tratarse en tres niveles, según el grado de simplificación en el abordaje del problema:

  • Nivel 3: Utiliza el cálculo de probabilidades sin restricciones en la representación de las incertidumbres.
  • Nivel 2: Representa las acciones, resistencias de materiales y secciones mediante distribuciones conocidas o asumidas, definidas por su tipo, media y desviación típica. La fiabilidad se expresa con el «índice de seguridad» (β).
  • Nivel 1: Establece niveles de fiabilidad estructural aplicando factores parciales de seguridad a valores nominales preestablecidos de las variables fundamentales.

Los métodos de nivel 2 y 3 emplean probabilidades que están vinculadas a hipótesis apriorísticas sobre las distribuciones de los datos.

En cambio, el método de nivel 1, conocido como método semiprobabilístico, considera solo ciertos elementos que se pueden cuantificar de manera probabilística, mientras que las demás incertidumbres se abordan mediante factores empíricos que poseen un significado físico específico. Este método es el más simple y ampliamente reconocido en la actualidad.

Os paso un vídeo explicativo sobre conceptos de fiabilidad estructural de Juan Carlos López Agüí, que espero os sea de interés.

Referencias:

GARCÍA-SEGURA, T.; YEPES, V.; FRANGOPOL, D.M.; YANG, D.Y. (2017). Lifetime Reliability-Based Optimization of Post-Tensioned Box-Girder Bridges. Engineering Structures, 145:381-391. DOI:10.1016/j.engstruct.2017.05.013

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Resultados finales del proyecto DIMALIFE: Diseño y mantenimiento robusto y basado en fiabilidad de puentes

Figura 1. Mapa mental del proyecto de investigación DIMALIFE

En el pasado Congreso ACHE 2022, celebrado recientemente en Santander, tuve la oportunidad de presentar los resultados del proyecto de DIMALIFE. Este proyecto fue anterior al actual HYDELIFE y supone una línea de investigación de alta productividad para nuestro grupo de investigación. En el periodo comprendido entre 2018 y 2021, tuvimos la ocasión de publicar 50 artículos indexados de alto impacto en el JCR, defender 5 tesis doctorales, 10 trabajos fin de máster y 25 comunicaciones a congresos. A ello hay que añadir la irrupción de la pandemia, que impidió una mayor presencia física en los congresos para diseminar los resultados alcanzados. Pero para eso está internet y las redes sociales.

Os paso, por tanto, el artículo completo donde se recogen los resultados. Lo más interesante son las referencias. Si alguien tiene interés por alguna de ellas, me las puede solicitar. También os paso un enlace a los resultados del grupo en este y otros proyectos de investigación: https://victoryepes.blogs.upv.es/publicaciones/articulos-jcr/

Referencia:

YEPES, V.; PELLICER, E.; MARTÍ, J.V.; KRIPKA, J. (2022). Diseño y mantenimiento óptimo robusto y basado en fiabilidad de puentes de alta eficiencia social y medioambiental bajo presupuestos restrictivos. VIII Congreso de la Asociación Española de Ingeniería Estructural ACHE. Santander, 2022.

Pincha aquí para descargar

Comunicaciones presentadas al VIII Congreso Internacional de Estructuras de ACHE

Durante los días 20-22 de junio de 2022 tendrá lugar el VIII Congreso Trienal de la Asociación Española de Ingeniería Estructural (ACHE), un excelente encuentro internacional de profesionales y especialistas en el campo de las estructuras, cuyo nivel técnico lo avalan las anteriores ediciones. Los objetivos fundamentales de este Congreso Internacional de Estructuras son, por un lado, dar a conocer los avances, estudios y realizaciones recientemente alcanzados en el ámbito estructural (en Edificación y en Ingeniería Civil e Industrial), y, por otro, exponer las actividades de la Asociación a sus miembros, amigos, y a toda la sociedad a cuyo servicio se encuentra ACHE realizando una labor de difusión técnica sin ánimo de lucro.

Nuestro grupo de investigación, dentro del proyecto de investigación HYDELIFE, presenta varias comunicaciones. A continuación os paso los resúmenes. Además, tendré el honor de ser Presidente de Sala en la Sesión Técnica 5 de Gestión de Estructuras, el martes 21 de junio de 2022, en el Aula 5. Nos veremos pronto en el Congreso.

MARTÍ, J.V.; MARTÍNEZ-MUÑOZ, D.; YEPES, V. (2022). Diseño de experimentos para la calibración de la heurística de optimización de muros de contrafuertes. VIII Congreso de la Asociación Española de Ingeniería Estructural ACHE. Santander, 2022.

En la actualidad, los técnicos se enfrentan al desafío de encontrar soluciones estructurales más eficientes, cumpliendo con todas las restricciones de seguridad y funcionalidad. Como ayuda a este reto, surgen las técnicas de optimización heurísticas. El algoritmo aplicado en este artículo es el Recocido Simulado o Simulated Annealing (SA). La estructura sobre la que se emplea esta metodología es un muro de contrafuertes de hormigón armado de 11 metros de altura. La eficiencia del algoritmo depende de la elección de los parámetros más adecuados que lo definen. Para ello, se realiza un diseño de experimentos factorial fraccionado que permite, a través de un análisis estadístico, detectar aquellos parámetros de la heurística que más afectan al resultado de la solución obtenida.

SÁNCHEZ-GARRIDO, A.J.; YEPES, V. (2022). Aplicación del análisis del valor MIVES a la estructura de una vivienda unifamiliar de autopromoción con criterios de sostenibilidad. VIII Congreso de la Asociación Española de Ingeniería Estructural ACHE. Santander, 2022.

En este trabajo se estudia el óptimo diseño de la estructura y cerramiento entre tres alternativas dispares aplicadas a una vivienda unifamiliar adosada, para la toma de decisión de un autopromotor, apoyándose en métodos multicriterio y teniendo en cuenta parámetros de sostenibilidad. Se obtiene así la validación del método para una alternativa «convencional», «prefabricada» y «tecnológica», consiguiendo esta última la mejor valoración. Esta información permitiría a cualquier gestor conocer desde el inicio del proyecto los aspectos fundamentales que marcarán el equilibrio medioambiental, económico y social del futuro edificio a lo largo de su ciclo de vida para hacerlo, en definitiva, más sostenible.

YEPES, V.; PELLICER, E.; MARTÍ, J.V.; KRIPKA, J. (2022). Diseño y mantenimiento óptimo robusto y basado en fiabilidad de puentes de alta eficiencia social y medioambiental bajo presupuestos restrictivos. VIII Congreso de la Asociación Española de Ingeniería Estructural ACHE. Santander, 2022.

El artículo expone los resultados alcanzados dentro del proyecto de investigación DIMALIFE. Se desarrolla una metodología que incorpora la variabilidad en los procesos de toma de decisiones en el ciclo completo de vida de puentes e infraestructuras viarias, de forma que se contemplen las necesidades e intereses sociales y ambientales con presupuestos restrictivos. La variabilidad inherente a los parámetros, variables y restricciones del problema resulta crítica si se dan por buenas soluciones optimizadas, que pueden encontrarse al borde de la infactibilidad. Se precisa introducir en el análisis la optimización multiobjetivo basada en fiabilidad y conseguir diseños óptimos robustos.

Curso en línea de «Gestión de costes y producción de la maquinaria empleada en la construcción»

La Universitat Politècnica de València, en colaboración con la empresa Ingeoexpert, ha elaborado un Curso online sobre “Gestión de costes y producción de la maquinaria empleada en la construcción”.

El curso, totalmente en línea, se desarrollará en 6 semanas, con un contenido de 75 horas de dedicación del estudiante. Hay plazas limitadas.

Toda la información la puedes encontrar en esta página: https://ingeoexpert.com/cursos/curso-de-gestion-de-costes-y-produccion-de-la-maquinaria-empleada-en-la-construccion/

Os paso un vídeo explicativo y os doy algo de información tras el vídeo.

Este es un curso básico sobre la gestión de los costes y la producción de los equipos y maquinaria empleada en la construcción, tanto en obras civiles y de edificación. Se trata de un curso que no requiere conocimientos previos especiales y está diseñado para que sea útil a un amplio abanico de profesionales con o sin experiencia, estudiantes de cualquier rama de la construcción, ya sea universitaria o de formación profesional. Además, el aprendizaje se ha escalonado para que el estudiante pueda profundizar en aquellos aspectos que les sea de interés mediante documentación complementaria y enlaces de internet a vídeos, catálogos, etc.

En este curso aprenderás los conceptos básicos sobre la gestión de la producción, la selección económica de los bienes de equipo, los costes de propiedad y operación de la maquinaria, su amortización, la disponibilidad y fiabilidad de los equipos, el mantenimiento y reparación, los parques de maquinaria y la gestión de instalaciones, almacenes e inventarios, el estudio del trabajo y la productividad, las políticas de incentivos, métodos de medición del trabajo y la producción de equipos de máquinas. El curso se centra especialmente en la comprensión de los fundamentos básicos que gobiernan la gestión de los costes y la producción de los equipos, mostrando especial atención a la maquinaria pesada de movimientos de tierras y compactación. Es un curso de espectro amplio que incide en el conocimiento de los fundamentos de la ingeniería de la producción. Resulta de especial interés desarrollar el pensamiento crítico del estudiante en relación con la selección de los métodos y técnicas empleadas en la gestión de los costes y el rendimiento de la maquinaria en casos concretos. El curso trata llenar el hueco que deja la bibliografía habitual, donde no se profundiza en el coste y la producción de conjuntos de equipos. Además, el curso está diseñado para que el estudiante pueda ampliar por sí mismo la profundidad de los conocimientos adquiridos en función de su experiencia previa o sus objetivos personales o de empresa.

El contenido del curso se organiza en 30 lecciones, que constituyen cada una de ellas una secuencia de aprendizaje completa. Además, se entregan 75 problemas resueltos que complementan la teoría estudiada en cada lección. La dedicación aproximada para cada lección se estima en 2-3 horas, en función del interés del estudiante para ampliar los temas con el material adicional. Al finalizar cada unidad didáctica, el estudiante afronta una batería de preguntas cuyo objetivo fundamental es afianzar los conceptos básicos y provocar la duda o el interés por aspectos del tema abordado. Al final se han diseñado tres unidades adicionales para afianzar los conocimientos adquiridos a través del desarrollo de casos prácticos, donde lo importante es desarrollar el espíritu crítico y su capacidad para resolver problemas reales. Por último, al finalizar el curso se realiza una batería de preguntas tipo test cuyo objetivo es conocer el aprovechamiento del estudiante, además de servir como herramienta de aprendizaje.

El curso está programado para 75 horas de dedicación por parte del estudiante. Se pretende un ritmo moderado, con una dedicación semanal en torno a las 10-15 horas, dependiendo de la profundidad requerida por el estudiante, con una duración total de 6 semanas de aprendizaje.

Objetivos

Al finalizar el curso, los objetivos de aprendizaje básicos son los siguientes:

  1. Comprender la utilidad y las limitaciones de las técnicas actuales para la gestión de costes y producción de los equipos de máquinas empleados para la construcción
  2. Evaluar y seleccionar la maquinaria atendiendo a criterios económicos y técnicos
  3. Conocer la gestión de los sistemas de almacenamiento de materiales en obra y los parques de maquinaria
  4. Aplicar las técnicas de estudios de métodos y medición del trabajo para mejorar la eficiencia de los equipos
  5. Aplicar técnicas de aprendizaje e incentivos a la producción para mejorar la productividad

Programa

  • – Lección 1. Mecanización de las obras
  • – Lección 2. Adquisición y renovación de la maquinaria
  • – Lección 3. La depreciación de los equipos y su vida económica
  • – Lección 4. Selección de máquinas y equipos
  • – Lección 5. La estructura del coste
  • – Lección 6. Costes de propiedad de las máquinas
  • – Lección 7. Costes de operación de las máquinas
  • – Lección 8. Fondo horario y disponibilidad de los equipos
  • – Lección 9. Fiabilidad de los equipos
  • – Lección 10. Mantenimiento y reparación de los equipos
  • – Lección 11. Instalación y organización interna de la obra
  • – Lección 12. Parques de maquinaria y gestión de inventarios
  • – Lección 13. Constructividad y constructibilidad
  • – Lección 14. Estudio del trabajo y productividad
  • – Lección 15. Los incentivos a la productividad en la construcción
  • – Lección 16. Estudio de métodos
  • – Lección 17. Medición del trabajo
  • – Lección 18. La curva de aprendizaje en la construcción
  • – Lección 19. Ciclo de trabajo y factor de acoplamiento
  • – Lección 20. Producción de los equipos
  • – Lección 21. Composición y clasificación de suelos
  • – Lección 22. Movimiento de tierras y factor de esponjamiento
  • – Lección 23. Producción de los buldóceres
  • – Lección 24. Producción de las cargadoras
  • – Lección 25. Producción de las motoniveladoras
  • – Lección 26. Producción de las mototraíllas
  • – Lección 27. Producción de las retroexcavadoras
  • – Lección 28. Producción de las dragalinas
  • – Lección 29. Producción de los equipos de acarreo
  • – Lección 30. Producción de los compactadores
  • – Supuesto práctico 1.
  • – Supuesto práctico 2.
  • – Supuesto práctico 3.
  • – Batería de preguntas final

Profesorado

Víctor Yepes Piqueras

Doctor Ingeniero de Caminos, Canales y Puertos. Universitat Politècnica de València

Ingeniero de Caminos, Canales y Puertos (1982-1988). Número 1 de promoción (Sobresaliente Matrícula de Honor). Especialista Universitario en Gestión y Control de la Calidad (2000). Doctor Ingeniero de Caminos, Canales y Puertos, Sobresaliente «cum laude». Catedrático de Universidad en el área de ingeniería de la construcción en la Universitat Politècnica de València y profesor, entre otras, de las asignaturas de Procedimientos de Construcción en los grados de ingeniería civil y de obras públicas. Su experiencia profesional se ha desarrollado como jefe de obra en Dragados y Construcciones S.A. (1989-1992) y en la Generalitat Valenciana como Director de Área de Infraestructuras e I+D+i (1992-2008). Ha sido Director Académico del Máster Universitario en Ingeniería del Hormigón (2008-2017), obteniendo durante su dirección la acreditación EUR-ACE para el título. Profesor Visitante en la Pontificia Universidad Católica de Chile. Investigador Principal en 5 proyectos de investigación competitivos. Ha publicado más de 160 artículos en revistas indexadas en el JCR. Autor de 10 libros, 22 apuntes docentes y más de 350 comunicaciones a congresos. Ha dirigido 16 tesis doctorales, con 10 más en marcha. Sus líneas de investigación actuales son las siguientes: (1) optimización sostenible multiobjetivo y análisis del ciclo de vida de estructuras de hormigón, (2) toma de decisiones y evaluación multicriterio de la sostenibilidad social de las infraestructuras y (3) innovación y competitividad de empresas constructoras en sus procesos. Ha recibido el Premio a la Excelencia Docente por parte del Consejo Social, así como el Premio a la Trayectoria Excelente en Investigación y el Premio al Impacto Excelente en Investigación, ambos otorgados por la Universitat Politècnica de València.

Lorena Yepes Bellver

Ingeniera civil, máster en ingeniería de caminos, canales y puertos y máster en ingeniería del hormigón. Universitat Politècnica de València.

Profesora Asociada en el Departamento de Mecánica de los Medios Continuos y Teoría de las Estructuras de la Universitat Politècnica de València. Es ingeniera civil, máster en ingeniería de caminos, canales y puertos y máster en ingeniería del hormigón. Ha trabajado en los últimos años en empresas constructoras y consultoras de ámbito internacional. Aparte de su dedicación docente e investigadora, actualmente se dedica a la consultoría en materia de ingeniería y formación.

Referencias:

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442. ISBN: 978-84-1396-046-3

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3