Tesis doctoral: Optimización multicriterio para el diseño sostenible de puentes postesados mediante metamodelos

De izquierda a derecha: Julián Alcalá, Salvador Ivorra, Lorena Yepes, Tatiana García y Antonio Tomás.

Hoy, 6 de junio de 2025, ha tenido lugar la defensa de la tesis doctoral de Dª. Lorena Yepes Bellver, titulada “Multi-criteria optimization for sustainable design of post-tensioned concrete slab bridges using metamodels”, dirigida por el profesor Julián Alcalá González. La tesis ha obtenido la máxima calificación de sobresaliente «cum laude». A continuación, presentamos un pequeño resumen de la misma.

Esta tesis utiliza técnicas de modelización sustitutiva para optimizar los costes económicos y medioambientales en puentes losa de hormigón postesado hormigonado in situ. El objetivo principal de esta investigación es desarrollar una metodología sistemática que permita optimizar el diseño de puentes, reduciendo los costes, las emisiones de CO₂ y la energía necesaria para construir este tipo de puentes sin comprometer la viabilidad estructural o económica. El marco de optimización propuesto consta de dos fases secuenciales: la primera se centra en ampliar el espacio de búsqueda y la segunda intensifica la búsqueda de soluciones óptimas. El metamodelo basado en Kriging realiza una optimización heurística que da como resultado un diseño con emisiones de CO₂ significativamente menores que los diseños convencionales. El estudio revela que una relación de esbeltez de aproximadamente 1/30 arroja resultados óptimos, ya que se reduce el consumo de material y se mantiene la integridad estructural. Además, el aumento de la armadura pasiva compensa la reducción de hormigón y armadura activa, lo que da como resultado un diseño más sostenible. Por otra parte, se identifica una compensación entre costes y emisiones que muestra que un modesto aumento de los costes de construcción (menos del 1 %) puede reducir sustancialmente las emisiones de CO₂ (más del 2 %), lo que demuestra que el diseño de puentes sostenibles puede ser económicamente viable.

La investigación explora más a fondo la optimización de la energía incorporada en la construcción de pasos elevados de carreteras anuladas mediante el uso de muestreo por hipercubo latino y optimización basada en Kriging. La metodología permite identificar los parámetros críticos de diseño, como los altos coeficientes de esbeltez (en torno a 1/28), el uso mínimo de hormigón y armadura activa, y el aumento de la armadura pasiva para mejorar la eficiencia energética. Aunque en el estudio se emplearon Kriging y redes neuronales artificiales (RNA), Kriging demostró ser más eficaz a la hora de identificar óptimos locales, a pesar de que las redes neuronales ofrecen predicciones absolutas más precisas. Esto pone de manifiesto la eficacia de los modelos sustitutos a la hora de orientar las decisiones de diseño sostenible, incluso cuando los modelos no ofrecen predicciones absolutas perfectamente exactas.

En el contexto de la optimización de costes para puentes de losa postesada, el estudio demuestra el potencial del modelado sustitutivo combinado con la simulación del recocido. Los resultados muestran que el método de optimización basado en Kriging conduce a una reducción de costes del 6,54 %, principalmente mediante la minimización del uso de materiales, concretamente de hormigón en un 14,8 % y de acero activo en un 11,25 %. Estas reducciones en el consumo de material se consiguen manteniendo la integridad estructural y la capacidad de servicio del puente, lo que convierte al modelado sustitutivo en una herramienta práctica y eficaz para la optimización económica en el diseño de puentes.

El estudio también evalúa la forma de optimizar las emisiones de CO₂ en pasos elevados de carreteras pretensadas. Se identifican los parámetros óptimos de diseño, como grados de hormigón entre C-35 y C-40 MPa, profundidades del tablero entre 1,10 y 1,30 m, y anchuras de base entre 3,20 y 3,80 m. La red neuronal mostró las predicciones más precisas entre los modelos predictivos analizados, con los errores medios absolutos (MAE) y cuadrados medios (RMSE) más bajos. Estos resultados subrayan la importancia de seleccionar el modelo predictivo adecuado para optimizar las emisiones de CO₂ en el diseño de puentes y destacan el valor de utilizar modelos sustitutivos para mejorar la sostenibilidad en los proyectos de ingeniería civil.

Por último, la investigación integra la toma de decisiones multicriterio (MCDM) con la optimización basada en Kriging para evaluar y optimizar los diseños de puentes en relación con objetivos económicos, medioambientales y estructurales. El enfoque MCDM permite evaluar de manera más exhaustiva las alternativas de diseño al tener en cuenta las compensaciones entre coste, impacto ambiental y rendimiento estructural. Esta integración contribuye al desarrollo sostenible de las infraestructuras, ya que facilita la selección de diseños óptimos que se ajusten a los objetivos de sostenibilidad.

En conclusión, esta tesis demuestra que el modelado sustitutivo, que utiliza explícitamente el Kriging y redes neuronales artificiales, es un enfoque práctico para optimizar las dimensiones medioambiental y económica del diseño de puentes. El marco de optimización en dos fases que aquí se presenta proporciona una metodología eficiente desde el punto de vista computacional que permite identificar soluciones de diseño óptimas y sostenibles que cumplen las restricciones estructurales y económicas. Los resultados sugieren que la metodología es aplicable a proyectos de infraestructuras a gran escala y sentarán las bases para futuras investigaciones. Futuros estudios podrían investigar el uso de algoritmos y modelos de optimización adicionales para perfeccionar aún más el proceso de optimización y mejorar la aplicabilidad de estas metodologías en proyectos reales.

Referencias:

ZHOU, Z.; WANG, Y.J.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Intelligent monitoring of loess landslides and research on multi-factor coupling damage. Geomechanics for Energy and the Environment, 42:100692. DOI:10.1016/j.gete.2025.100692

ZHOU, Z.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Study on the failure mechanism of deep foundation pit of high-rise building: comprehensive test and microstructure coupling. Buildings, 15(8), 1270. DOI:10.3390/buildings15081270

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

BLIGHT, T.; MARTÍNEZ-PAGÁN, P.; ROSCHIER, L.; BOULET, D.; YEPES-BELLVER, L.; YEPES, V. (2025). Innovative approach of nomography application into an engineering educational context. Plos One, 20(2): e0315426. DOI:10.1371/journal.pone.0315426

NAVARRO, I.J.; VILLALBA, I.; YEPES-BELLVER, L.; ALCALÁ, J. Social Life Cycle Assessment of Railway Track Substructure Alternatives. J. Clean. Prod. 2024, 450, 142008.

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2024). Artificial neural network and Kriging surrogate model for embodied energy optimization of prestressed slab bridges. Sustainability, 16(19), 8450. DOI:10.3390/su16198450

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2023). Embodied energy optimization of prestressed concrete road flyovers by a two-phase Kriging surrogate model. Materials16(20); 6767. DOI:10.3390/ma16206767

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2022). CO₂-optimization of post-tensioned concrete slab-bridge decks using surrogate modeling. Materials, 15(14):4776. DOI:10.3390/ma15144776

Entrevista en Levante-EMV sobre la reconstrucción tras la DANA

Recojo a continuación una entrevista que me han realizado en Levante-EMV sobre la reconstrucción tras la DANA. La noticia la podéis leer en el siguiente enlace: https://www.levante-emv.com/comunitat-valenciana/2025/03/17/error-reconstruir-dana-valencia-sin-adaptar-cambio-climatico-115061981.html

Esta noticia está muy relacionada con el artículo de opinión que escribí en mi blog hace unos días: La ingeniería de la reconstrucción.

La reconstrucción de infraestructuras tras la DANA del 29 de octubre no debe limitarse a la reposición de lo perdido, sino que debe corregir vulnerabilidades y minimizar futuros daños, evitando errores del pasado. Infraestructuras clave como la autovía A7 y la V31 han sido identificadas como barreras que agravaron la inundación, por lo que se plantea la necesidad de medidas de adaptación y mitigación, incluyendo posibles pasos elevados y tecnologías avanzadas para reducir riesgos. Se recomienda rediseñar puentes con cimentación profunda y menor número de soportes para evitar bloqueos en el flujo del agua, así como considerar el impacto de los vehículos arrastrados por la riada en el sistema de drenaje. Expertos en infraestructuras han destacado la necesidad de carreteras y líneas de tren más resilientes al cambio climático, con infraestructuras más permeables a crecidas y posibles modificaciones en su trazado. Para gestionar de manera eficiente la reconstrucción, se propone la creación de un consorcio administrativo que facilite la coordinación entre ayuntamientos, Generalitat y Gobierno central, integrando una visión metropolitana en la planificación territorial.

Descargar (PDF, 158KB)

Algunas reflexiones sobre el impacto del cambio climático en el comportamiento de las infraestructuras

El diseño estructural de infraestructuras, como edificios y puentes, se basa en códigos que establecen los criterios necesarios para garantizar su resistencia a diversas condiciones climáticas y ambientales. Estos códigos se actualizan periódicamente para reflejar los avances científicos y tecnológicos. Sin embargo, el cambio climático plantea un desafío disruptivo, ya que altera las condiciones climáticas de manera impredecible, lo que cuestiona la suposición de que las cargas climáticas son estacionarias.

En estas líneas se aborda cómo la transición del diseño estructural basado en estados límites ha influido en la forma en que se tienen en cuenta las variables climáticas. También aborda las dificultades que surgen al integrar el cambio climático en los modelos de riesgo estructural y analiza la necesidad de ajustar los métodos de estimación y diseño para tener en cuenta la creciente incertidumbre sobre el futuro climático.

Estas reflexiones se enmarcan dentro del proyecto RESILIFE, que actualmente desarrollo como investigador principal, y se han basado en algunas ideas desarrolladas en el trabajo reciente de Ellingwood et al. (2024).

Los códigos estructurales establecen los criterios necesarios para diseñar edificios, puentes y otras infraestructuras capaces de resistir las demandas de uso y los eventos ambientales o climáticos, como la nieve, el hielo, las lluvias, las tormentas de viento e inundaciones fluviales y costeras. Para garantizar que reflejen los últimos avances en ciencia e ingeniería, estos códigos se actualizan periódicamente, generalmente cada 5 o 10 años.

En las últimas cuatro décadas, los códigos estructurales de todo el mundo, como el “Minimum Design Loads and Associated Criteria for Buildings and Other Structures (ASCE 7-22)”, las “LRFD Bridge Design Specifications (AASHTO)”, el “International Building Code“, el “National Building Code of Canada” y los Eurocódigos, han adoptado los principios del diseño basado en estados límite. Durante este tiempo, los ingenieros estructurales y la normativa han reconocido la importancia de las herramientas de análisis de fiabilidad estructural y gestión del riesgo para modelar las incertidumbres asociadas a las cargas estructurales y la respuesta de las estructuras, y así garantizar un rendimiento adecuado en servicio (García-Segura et al., 2017). Con la transición del diseño basado en tensiones admisibles al diseño por estados límite, los criterios para las cargas climáticas han evolucionado gradualmente. Hasta ahora, estos criterios, basados en registros climáticos históricos y en evaluaciones de fiabilidad estructural, han tratado las cargas operativas y climáticas como estacionarias, asumiendo que el pasado es representativo del futuro.

El cambio climático plantea un desafío disruptivo y significativo para la evolución gradual de los códigos basados en el riesgo, así como para las prácticas de diseño estructural (ASCE, 2015a, 2018). La suposición de estacionariedad en el análisis de riesgos naturales deja de ser válida al tener en cuenta los efectos del cambio climático. Además, las incertidumbres asociadas a las proyecciones climáticas para el resto del siglo XXI son considerables, especialmente en lo que respecta a las cargas de viento, hielo y nieve (Tye et al., 2021). Las condiciones climáticas más agresivas podrían acelerar el deterioro estructural en ciertos casos, así como aumentar la intensidad y duración de los peligros. El cambio climático también ha suscitado controversia desde el punto de vista económico y político. Lograr consenso en los comités encargados de los códigos sobre el impacto del cambio climático en las infraestructuras requerirá una gestión técnica eficaz y una separación clara entre los aspectos políticos, como las causas del cambio climático, y los aspectos técnicos, como su impacto en las estructuras. Asimismo, podría haber oposición pública ante los costes adicionales que conlleven las modificaciones en los códigos climáticos. No obstante, ignorar los efectos del cambio climático en el comportamiento a largo plazo de las estructuras e infraestructuras podría incrementar el riesgo de daños y fallos, aumentar los costes de diseño, construcción y mantenimiento, agravar problemas de salud y seguridad públicas, interrumpir servicios esenciales y generar impactos socioeconómicos y ambientales negativos a nivel nacional.

Es fundamental abordar varias preguntas clave para considerar las exigencias del cambio climático en el desarrollo de los códigos estructurales. Entre ellas se encuentran (Ellingwood et al., 2024) :

  • ¿Cómo se debe modelar la no estacionariedad en la ocurrencia e intensidad de los eventos climáticos extremos provocados por el cambio climático?
  • ¿Cómo se deben integrar estas incertidumbres en un análisis de fiabilidad estructural dependiente del tiempo, con el fin de estimar el comportamiento futuro y demostrar el cumplimiento de los objetivos de rendimiento expresados en términos de fiabilidad?
  • ¿Cómo se puede convencer a los ingenieros estructurales y al público en general de la necesidad de aceptar estos cambios en interés nacional (Cooke, 2015), incluso si en algunos casos los costes de los sistemas de infraestructura aumentan?

Problemas y desafíos en el análisis de datos climáticos para el diseño estructural

Las variables climáticas empleadas en los códigos estructurales se basan principalmente en datos históricos. Los vientos extratropicales, la nieve, la temperatura y las precipitaciones se analizan exclusivamente a partir de estos datos. En el caso de los huracanes, se integran datos históricos en un marco que modela su génesis en la cuenca del Atlántico Norte, su desarrollo hasta convertirse en huracanes plenamente formados que impactan en infraestructuras costeras y su disipación tras tocar tierra. Estos análisis suponen que las variables climáticas pueden evaluarse como si fueran estacionarias, es decir, que el pasado es representativo del futuro y que sus intensidades pueden determinarse en función de sus periodos de retorno. Los datos se han recopilado para fines distintos al diseño de edificaciones, como la aviación comercial, la hidrología local, la gestión de recursos hídricos y la agricultura, y generalmente abarcan menos de 100 años.

La mayoría de las variables climáticas incluidas en los códigos se suelen determinar ajustando el parámetro extremo anual a una distribución de probabilidad. Entre las distribuciones más comunes utilizadas para este propósito se encuentran la distribución Tipo I de valores máximos y la distribución generalizada de valores extremos. El periodo de retorno o intervalo medio de recurrencia de una carga se calcula como el recíproco de la probabilidad anual de que dicha carga se supere. El error de muestreo en la estimación de los eventos base de diseño en una secuencia estacionaria para periodos de retorno superiores a 100 años puede ser considerable. Sin embargo, las estimaciones de las medias de las muestras suelen ser razonablemente estables cuando se actualizan en intervalos típicos de 10 años con datos climáticos adicionales.

La suposición de estacionariedad en los datos no puede justificarse en un contexto de cambio climático (Pandey y Lounis, 2023), y el concepto de un evento asociado a un periodo de retorno específico no es aplicable en sentido estricto. El aumento (o disminución) de las variables climáticas, junto con la creciente incertidumbre en los modelos de predicción climática, especialmente a partir del año 2060, afectará a la forma de analizar y especificar los datos para fines de diseño estructural. Quizás lo más relevante sea el impacto que tendrá sobre la forma en que se comunicarán los peligros de diseño a la comunidad profesional de la ingeniería y a sus clientes (Cooke, 2015).  Ellingwood et al. (2024) recuerdan claramente la confusión generada por el concepto de periodo de retorno cuando se introdujo a finales de la década de 1960. El periodo de retorno se concibió como una herramienta para reconocer que el parámetro de carga es aleatorio y para definir indirectamente la probabilidad anual de que se supere su intensidad de diseño, sin necesidad de recurrir a probabilidades pequeñas que no eran habituales entre los ingenieros estructurales de esa época. Esto podría explicar por qué algunos investigadores climáticos han intentado presentar sus estimaciones de parámetros utilizando el concepto de periodo de retorno (Ribereau et al., 2008; Salas y Obeysekera, 2014). Este problema requiere una reflexión cuidadosa al tratar con un clima cambiante, donde las probabilidades anuales no son constantes a lo largo de la vida útil de una estructura.

El crecimiento proyectado de las variables climáticas y sus incertidumbres más allá del año 2060 indica que será necesario desarrollar métodos para gestionar la incertidumbre epistémica -se refiere a la incertidumbre del modelo- en la estimación de parámetros, un aspecto que no se había tenido en cuenta previamente al estimar las variables climáticas para desarrollar códigos estructurales. Aunque la precisión de las técnicas generales de pronóstico climático ha mejorado gracias a la recopilación continua de datos, los modelos climáticos actuales son más capaces de predecir el impacto del cambio climático sobre la temperatura y las precipitaciones que sobre fenómenos como inundaciones, nevadas y vientos. Esto resulta problemático a la hora de considerar los niveles de probabilidad apropiados para el análisis de seguridad estructural.

Las futuras investigaciones podrían centrarse en el desarrollo de modelos más precisos para cargas climáticas específicas, como ciclones tropicales o sequías prolongadas, que aún presentan elevadas incertidumbres en sus proyecciones. Además, sería valioso explorar la aplicación de estos principios a sistemas de infraestructura emergentes, como redes de energía renovable o tecnologías de transporte resilientes. Por último, se sugiere investigar métodos para integrar datos climáticos en tiempo real en el diseño y seguimiento de infraestructuras, fomentando un enfoque dinámico y adaptable al cambio climático.

En resumen, los códigos estructurales establecen los criterios necesarios para diseñar infraestructuras capaces de resistir eventos climáticos como tormentas, nieve e inundaciones, y se actualizan periódicamente para reflejar los avances científicos y tecnológicos. Sin embargo, el cambio climático plantea un reto significativo, ya que altera las condiciones climáticas de manera impredecible, lo que hace que la suposición de estacionariedad que hasta ahora ha guiado el diseño estructural sea obsoleta. Este artículo explora cómo los códigos estructurales han evolucionado hacia un diseño basado en estados límite y la necesidad urgente de ajustar los métodos de análisis de riesgos ante la creciente incertidumbre climática. Además, se analizan los problemas derivados del uso exclusivo de datos históricos para modelar cargas climáticas y las dificultades que plantea el cambio climático a la hora de predecir eventos extremos. Finalmente, se destaca la necesidad de desarrollar nuevos modelos y enfoques analíticos que garanticen la seguridad de las infraestructuras en un entorno climático en constante cambio.

Os dejo un mapa conceptual sobre las reflexiones anteriores.

Referencias:

ASCE (2015). Adapting infrastructure and civil engineering practice to a changing climate. Committee on Adaptation to a Changing Climate. American Society of Civil Engineers.

ASCE (2018). Climate-resilient infrastructure: Adaptive design and risk management. Reston, VA: Committee on Adaptation to a Changing Climate. American Society of Civil Engineers.

Cooke, R. M. (2015). Messaging climate change uncertainty. Nature Climate Change5(1), 8-10.

Ellingwood, B. R., Bocchini, P., Lounis, Z., Ghosn, M., Liu, M., Yang, D., Capacci, L., Diniz, S., Lin, N., Tsiatas, G., Biondini, F., de Lindt, J., Frangopol, D.M., Akiyama, M., Li, Y., Barbato, M., Hong, H., McAllister, T., Tsampras, G. & Vahedifard, F. (2024). Impact of Climate Change on Infrastructure Performance. In Effects of Climate Change on Life-Cycle Performance of Structures and Infrastructure Systems: Safety, Reliability, and Risk (pp. 115-206). Reston, VA: American Society of Civil Engineers.

García-Segura, T., Yepes, V., Frangopol, D. M., & Yang, D. Y. (2017). Lifetime reliability-based optimization of post-tensioned box-girder bridges. Engineering Structures145, 381-391.

Pandey, M. D., & Lounis, Z. (2023). Stochastic modelling of non-stationary environmental loads for reliability analysis under the changing climate. Structural Safety103, 102348.

Ribereau, P., Guillou, A., & Naveau, P. (2008). Estimating return levels from maxima of non-stationary random sequences using the Generalized PWM method. Nonlinear Processes in Geophysics15(6), 1033-1039.

Salas, J. D., & Obeysekera, J. (2014). Revisiting the concepts of return period and risk for nonstationary hydrologic extreme events. Journal of hydrologic engineering19(3), 554-568.

Tye, M. R., & Giovannettone, J. P. (2021, October). Impacts of future weather and climate extremes on United States infrastructure: Assessing and prioritizing adaptation actions. Reston, VA: American Society of Civil Engineers.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Aplicación del modelo del queso suizo en la gestión de desastres

Introducción al modelo del queso suizo en la gestión de desastres

Imagen del desastre provocado por la DANA. Imagen: V.J. Yepes

El modelo del queso suizo, desarrollado por James T. Reason, es un marco ampliamente adoptado en sectores como la aviación, la ingeniería y la sanidad para analizar la causalidad de accidentes. Este modelo representa los sistemas complejos mediante varias capas de defensa o barreras, cada una de ellas simbolizada como una rebanada de queso suizo. Cada rebanada contiene agujeros que representan deficiencias o errores en cada nivel de defensa. Estos agujeros no son estáticos, sino que sus posiciones y tamaños varían constantemente. Cuando los agujeros de varias capas se alinean, crean una «trayectoria de oportunidad de accidente», lo que permite que un peligro atraviese todas las barreras y se materialice en un accidente o desastre.

Aplicado a un escenario de inundación catastrófica provocada por una DANA (depresión aislada en niveles altos), este modelo ayuda a comprender cómo una serie de debilidades preexistentes en infraestructuras, sistemas de alerta, políticas y organización de la respuesta pueden alinearse para agravar los efectos de las lluvias intensas. Las capas de defensa que deberían reducir el impacto de un evento extremo no funcionan como es debido cuando todas las vulnerabilidades se presentan simultáneamente y sin obstáculos. Este informe explica cómo los fallos en distintos niveles pueden contribuir al desencadenamiento de una inundación devastadora. Este análisis tiene carácter general, y no significa que alguno de los fallos descritos sea uno de los que provocó el desastre del 29 de noviembre de 2024 en muchos municipios de la provincia de Valencia.

Dominios de fallo en escenarios de inundación

El modelo de Reason identifica cuatro dominios principales de fallo que pueden adaptarse a la gestión de inundaciones para comprender cómo se generan las condiciones de vulnerabilidad. A continuación, se detallan cada uno de estos dominios en el contexto de una inundación:

  1. Influencias organizativas:

    • Las decisiones organizativas y políticas, como la distribución de presupuestos o la priorización de proyectos, influyen en la ejecución y el mantenimiento de inversiones para las defensas contra inundaciones. Por ejemplo, en un contexto de austeridad, las instituciones pueden reducir la inversión en infraestructuras de protección, como diques, sistemas de drenaje o presas. Esta falta de inversión se convierte en un punto débil del sistema.
    • Estas decisiones también afectan a la capacitación del personal de emergencia y a la actualización de las tecnologías de alerta temprana, que son factores esenciales para mitigar el impacto de una inundación. Del mismo modo que en sanidad la falta de formación o recursos afecta a la seguridad del paciente, en un contexto de inundaciones, la escasez de inversiones y recursos reduce la resiliencia de las infraestructuras y la eficacia de la respuesta.
  2. Fallos de supervisión y control:
    • La supervisión y el cumplimiento de las normativas son esenciales para la gestión de riesgos y las deficiencias en este ámbito representan un factor crítico de vulnerabilidad. En muchas áreas propensas a inundaciones, la falta de control sobre el desarrollo urbano, la construcción en zonas inundables o el mantenimiento de infraestructuras de contención puede crear situaciones de riesgo significativo.
    • Además, la falta de actualización y revisión de los planes de emergencia y evacuación puede provocar que estos protocolos sean ineficaces ante eventos extremos. Como en sanidad, donde una supervisión inadecuada puede provocar errores graves, la falta de control normativo y planificación en el contexto de riesgos de inundación incrementa la probabilidad de que los daños sean graves en un evento extraordinario.
  3. Condiciones ambientales y de infraestructura previas:
    • Las condiciones de infraestructura y medioambientales previas a un evento extremo suponen otro ámbito de riesgo. Factores como sistemas de drenaje obsoletos, deterioro en las defensas fluviales, estructuras en mal estado o infraestructuras críticas con capacidad de drenaje insuficiente agravan el impacto de las lluvias intensas.
    • Estas condiciones, que pueden pasar desapercibidas o considerarse menores durante periodos sin incidentes, se denominan «condiciones latentes». Permiten que un evento extremo, como una DANA, exponga sus debilidades y desborde sus capacidades, similar a los riesgos latentes en los sistemas sanitarios que solo se evidencian en situaciones críticas.
  4. Acciones inseguras o errores en la respuesta de emergencia:
    • Las decisiones y acciones que se toman en el momento de la emergencia suponen un fallo activo. Estos errores incluyen retrasos en la emisión de órdenes de evacuación, mala comunicación con el público, asignación incorrecta de recursos de rescate o falta de personal cualificado. En el caso de una inundación, estos fallos pueden tener consecuencias graves, ya que una respuesta inadecuada puede incrementar las pérdidas humanas y materiales.
    • Por ello, es fundamental coordinar y clarificar la respuesta de emergencia, ya que una gestión desorganizada de la situación puede resultar en caos, confusión y, en consecuencia, agravar el impacto del desastre. Al igual que en el contexto sanitario, donde los errores activos pueden tener un impacto directo, en un desastre natural estos fallos inmediatos repercuten significativamente en el desenlace y la gravedad del evento.

Los agujeros en el modelo del queso suizo: vulnerabilidades en la gestión de inundaciones

Cada una de las capas de defensa del modelo tiene agujeros o fallas por donde puede pasar el riesgo a través de los diferentes niveles de protección. En caso de inundación, los agujeros en estas barreras pueden incluir:

  • Deficiencias en los sistemas de alerta temprana:
    • Un sistema de alerta temprana deficiente o con baja cobertura es una vulnerabilidad crítica. Si el sistema no es lo suficientemente preciso, no llega a todas las zonas afectadas o se activa demasiado tarde, las comunidades y las autoridades no disponen del tiempo necesario para reaccionar. Esta debilidad equivale a un gran agujero en una capa de defensa que permite que el peligro avance sin obstáculos.
  • Infraestructura insuficiente o deteriorada:
    • La infraestructura, como encauzamientos, embalses y sistemas de drenaje, constituye una barrera física fundamental. Cuando estas estructuras no existen, no se mantienen o actualizan, se vuelven vulnerables a eventos climáticos extremos y su colapso puede agravar el efecto de una inundación. Estos problemas son especialmente peligrosos en un evento de DANA, cuando el volumen de agua excede la capacidad de estas defensas obsoletas o mal mantenidas.
  • Falta de concienciación y preparación en la comunidad:
    • La falta de preparación de la población ante un desastre también supone un punto débil en las barreras de defensa. Sin una educación adecuada sobre los riesgos de inundación y las medidas de autoprotección, los residentes pueden reaccionar con pánico o no tomar las decisiones oportunas, lo que aumenta su vulnerabilidad. Esta falta de concienciación es una debilidad difícil de solucionar a corto plazo y requiere esfuerzos continuados de formación.
  • Fallos en la coordinación y comunicación de emergencia:
    • La comunicación efectiva entre las autoridades, los equipos de rescate y la población es crucial en situaciones de desastre. Cuando esta comunicación falla, ya sea por falta de canales adecuados o por mensajes contradictorios, aumenta el riesgo de cometer errores y sufrir pérdidas. Esta barrera defectuosa hace que la confusión y la desorganización predominen en una situación de emergencia, lo que aumenta el impacto del evento.

Cuando ocurre una DANA, el rápido e inesperado incremento del volumen de precipitaciones incrementa la probabilidad de que todos estos agujeros se alineen. Si el sistema de alerta falla, las infraestructuras colapsan y la respuesta de emergencia no está coordinada, el resultado acumulativo es un evento de inundación con consecuencias devastadoras.

De Ian M MacKay – https://figshare.com/articles/figure/The_Swiss_Cheese_Respiratory_Virus_Defence/13082618, CC BY 4.0, https://commons.wikimedia.org/w/index.php?curid=97096004

Fallos activos y condiciones latentes

Una de las claves del modelo del queso suizo es la diferenciación entre fallos activos y condiciones latentes. Ambos tipos de fallo contribuyen al desenlace del desastre, aunque de manera diferente:

  • Fallos activos:
    • Los fallos activos son errores o decisiones inadecuadas que se toman en el momento de la emergencia, como retrasos en la evacuación, fallos en la comunicación o una mala asignación de recursos. En el caso de una inundación, estos fallos tienen un impacto directo, ya que aumentan la exposición de la población al riesgo y la probabilidad de que se produzcan daños.
  • Condiciones latentes:
    • Las condiciones latentes son fallos preexistentes que permanecen en el sistema sin producir daños visibles hasta que un evento extremo los pone de manifiesto. En el contexto de las inundaciones, algunos ejemplos de condiciones latentes son los problemas de infraestructura que no se han abordado, las normativas de construcción que no se cumplen y los planes de emergencia obsoletos. Estas condiciones acumuladas contribuyen al desastre, aunque no se evidencian hasta que una situación crítica como una DANA las revela.

Aplicaciones prácticas del modelo del queso suizo en la prevención y mitigación de inundaciones

El modelo del queso suizo sugiere que la acumulación de barreras robustas y bien diseñadas reduce la probabilidad de que todas las debilidades se alineen. En el contexto de una inundación, estas son algunas de las medidas que refuerzan cada capa de defensa:

  1. Mejorar la política y los recursos organizativos:
    • Aumentar el presupuesto destinado a la resiliencia de las infraestructuras situadas en zonas inundables, prestando especial atención a la actualización y el refuerzo de barreras y sistemas de drenaje.
    • Desarrollar y actualizar políticas de gestión de riesgos de inundación que incluyan las lecciones aprendidas de eventos previos y prioricen las áreas con antecedentes de vulnerabilidad.
  2. Fortalecer la supervisión y el cumplimiento normativo:
    • Implantar regulaciones estrictas para la construcción en zonas inundables y para el mantenimiento periódico de infraestructuras críticas.
    • Promover la transparencia y la responsabilidad en la supervisión de las infraestructuras públicas, incluyendo auditorías periódicas sobre la preparación para desastres..
  3. Fomentar la preparación de la comunidad y la educación en riesgos:
    • Realizar campañas de concienciación pública en zonas de alto riesgo para promover el conocimiento sobre los riesgos de inundación, las rutas de evacuación y las medidas preventivas.
    • Proporcionar formación y recursos a las autoridades locales y a los líderes comunitarios para fortalecer la respuesta ante desastres naturales y garantizar una reacción coordinada en eventos de DANA.
  4. Optimizar la respuesta de emergencia y los protocolos de actuación:
    • Desarrollar protocolos de respuesta con roles definidos para todas las entidades implicadas en la gestión de emergencias y garantizar una evacuación y distribución de ayuda efectiva.
    • Invertir y mejorar constantemente en tecnologías de la información y la comunicación, como mapas en tiempo real y sistemas de alerta a través de dispositivos móviles, para mejorar la coordinación y la capacidad de respuesta de las autoridades.

Conclusión

El modelo del queso suizo es un marco eficaz para comprender cómo los eventos catastróficos de inundación, como los causados por una DANA extraordinaria, resultan de la acumulación de vulnerabilidades latentes y fallos activos. La combinación de políticas, infraestructura, formación y respuesta son capas de defensa que, si presentan fallos simultáneos, facilitan el avance de una amenaza climática. La clave para reducir el impacto de estos eventos radica en mejorar cada una de estas capas, minimizando la posibilidad de que se alineen debilidades y fortaleciendo la resiliencia de las comunidades. Una gestión proactiva del riesgo, basada en la prevención, la adaptación y el aprendizaje continuo, es esencial para evitar que se repitan tragedias como las de las inundaciones futuras.

Os dejo algunos vídeos sobre este modelo del queso suizo. Pero podéis encontrar muchísima más información por internet.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Los motivos por los que se equivocan estudiantes y profesionales de ingeniería al abordar la resolución de problemas

Resolver problemas en el ámbito universitario o profesional, en áreas tecnológicas, de ingeniería y ciencias, puede plantear una serie de desafíos que pueden conducir a errores. Estos fallos pueden surgir por diversas razones que van desde no comprender el concepto subyacente hasta confiar demasiado en la tecnología.

En un artículo anterior mencioné algunos ejemplos de problemas teóricamente sencillos, pero que marean a nuestros estudiantes. Ahora vamos a analizar detalladamente algunas de estas razones y cómo se relacionan entre sí. También he incluido enlaces a otros artículos del blog donde reflexiono sobre este tipo de cuestiones.

La falta de comprensión del concepto subyacente a un problema es una preocupación fundamental. Esto puede manifestarse de diversas formas, ya sea a través de errores conceptuales, una aplicación incorrecta del concepto o una interpretación errónea del mismo. Esta falta de entendimiento puede empeorar si se carece de experiencia o conocimientos específicos en el campo correspondiente. Cuando un estudiante o profesional se enfrenta a un problema para el que no tiene experiencia previa, puede tener dificultades para aplicar correctamente los principios necesarios para resolverlo.

Los datos son fundamentales para encontrar soluciones, sin embargo, su calidad y disponibilidad pueden ser problemáticos. La falta de datos adecuados, la presencia de información contradictoria o sesgada pueden conducir a conclusiones incorrectas. Asimismo, centrarse excesivamente en utilizar todos los datos disponibles puede distraer de la información realmente importante, al tiempo que validar datos sesgados o inventados puede conducir a conclusiones incorrectas.

El manejo inadecuado de las bases matemáticas también puede ser una fuente de errores (geometría, trigonometría, cálculo o álgebra). Esto puede incluir errores en el cálculo, así como el uso inapropiado de fórmulas o modelos matemáticos. Los problemas reales rara vez tienen una sola solución, lo que requiere habilidades para evaluar y decidir entre múltiples enfoques posibles. Además, el uso excesivo de la memoria en lugar de la comprensión de los principios subyacentes puede conducir a errores conceptuales y de selección de modelos de cálculo.

Los aspectos psicológicos también son importantes. El estrés, la falta de confianza en uno mismo, la presión por terminar a tiempo y la falta de concentración pueden afectar a la capacidad de resolver problemas de manera efectiva. La falta de atención a los detalles, la fatiga y el agotamiento también pueden provocar errores en la resolución de problemas.

Es crucial comprender que los problemas reales pueden ser complejos y no tener necesariamente una solución única. Esto implica la necesidad de tomar decisiones informadas y comprender las limitaciones de los modelos o fórmulas utilizados. Además, la propagación de errores en las operaciones y el uso incorrecto de datos, fórmulas o software pueden dar lugar a resultados erróneos.

La falta de retroalimentación o revisión de los errores cometidos puede perpetuar la repetición de los mismos una y otra vez. La falta de comunicación o colaboración entre profesionales en entornos de trabajo también puede provocar errores en la resolución de problemas. Confiar ciegamente en la tecnología o en herramientas automatizadas sin comprender en profundidad los principios subyacentes puede ser un problema.

En resumen, resolver problemas en el ámbito universitario o profesional de la ingeniería y las ciencias puede ser un proceso complejo y propenso a errores debido a una variedad de factores interrelacionados. Desde la comprensión del concepto hasta la calidad y disponibilidad de los datos, así como los aspectos psicológicos y técnicos relacionados con la resolución de problemas, es crucial abordar estos desafíos con atención y comprensión para lograr soluciones precisas y efectivas. Desde las universidades debe hacerse todo lo posible para superar este tipo de dificultades y conseguir que nuestros estudiantes adquieran las competencias necesarias para su posterior desarrollo profesional.

Sin querer ser exhaustivo, y sin que estén ordenadas por importancia, aquí os dejo una lista de 30 posibles causas por las cuales nuestros estudiantes en los exámenes o los técnicos en su ámbito profesional, suelen cometer errores al resolver los problemas. Estoy convencido de que hay más causas, pero esto puede ser un buen punto de partida para el debate y la reflexión. En el vídeo que he grabado, me extiendo y explico algo más lo que aquí recojo como una simple lista.

  1. La falta de comprensión del concepto subyacente en un problema puede conducir a errores conceptuales al aplicarlo incorrectamente o interpretarlo de manera errónea.
  2. La inexperiencia o la falta de conocimientos específicos pueden surgir cuando una persona afronta por primera vez un tipo de problema, ya sea durante un examen o en la práctica profesional.
  3. Los problemas relacionados con la disponibilidad de datos pueden presentarse de varias formas, como datos insuficientes, necesarios, innecesarios o contradictorios. A menudo, existe una obsesión por utilizar todos los datos disponibles en el enunciado del problema.
  4. La calidad de los datos también es un factor importante, con la posibilidad de incertidumbre o error en los datos disponibles. Además, dar por válidos datos sesgados, interesados o inventados puede llevar a conclusiones incorrectas. Es necesario un control de calidad de los datos.
  5. Intentar resolver un problema utilizando el enfoque típico visto en clase puede marear a nuestros estudiantes. Los alumnos prefieren resolver un problema típico explicado en clase, a ser posible, con datos parecidos.
  6. El manejo inadecuado de las bases matemáticas, que incluye errores en el cálculo, el uso incorrecto de fórmulas o modelos matemáticos, y la falta de comprensión de los principios subyacentes, puede ser una fuente común de errores. La falta de conocimientos básicos de geometría, trigonometría, álgebra o cálculo básicos son, en ocasiones, escollos. A veces hay dificultades en saber dibujar un esquema para resolver el problema.
  7. Los problemas reales generalmente no tienen una sola solución, lo que requiere habilidades para evaluar y decidir entre múltiples enfoques posibles. Esta distinción, que se da claramente entre los estudios de grado y los de máster, es importante tenerla en cuenta.
  8. Los aspectos psicológicos, como el estrés, la falta de confianza en uno mismo, la presión por terminar a tiempo y la falta de concentración, pueden afectar negativamente la capacidad para resolver problemas de manera efectiva.
  9. La falta de atención o interés, así como la fatiga o el agotamiento, pueden contribuir a errores en la resolución de problemas, al igual que la prisa por resolver el problema.
  10. La complejidad de los problemas puede aumentar cuando se trata de situaciones poco comunes o rebuscadas, lo que requiere un enfoque cuidadoso y creativo para su resolución.
  11. Es crucial comprender la diferencia entre una ley general y una fórmula particular al aplicar normas técnicas que pueden estar basadas en hipótesis o casos específicos.
  12. Utilizar modelos de cálculo inadecuados, ya sean demasiado refinados o demasiado simples para los datos disponibles, puede conducir a soluciones incorrectas.
  13. Carecer de números estimativos para prever el resultado final puede resultar en una falta de comprensión del orden de magnitud del resultado. En este sentido, el uso de nomogramas en la docencia facilita la adquisición de este tipo de habilidad en los estudiantes. Los estudiantes y los profesionales deberían tener un conocimiento del “número gordo” y saber predimensionar.
  14. Es importante ser consciente de la propagación de errores en las operaciones, ya que incluso pequeños errores pueden magnificarse y llevar a resultados incorrectos.
  15. Utilizar fórmulas, datos o tablas en un contexto diferente al que dieron origen puede llevar a interpretaciones incorrectas o a soluciones erróneas.
  16. La extrapolación de resultados a límites no contemplados puede conducir a conclusiones incorrectas o poco realistas.
  17. Utilizar fórmulas empíricas con datos expresados en unidades diferentes a las que funcionan puede generar resultados inconsistentes o incorrectos.
  18. La dependencia excesiva de la memoria en lugar de comprender los principios subyacentes puede conducir a errores en la selección de modelos o fórmulas de cálculo.
  19. Errores conceptuales pueden llevar a la selección incorrecta de modelos o fórmulas de cálculo, lo que resulta en soluciones erróneas.
  20. El uso de software defectuoso o poco contrastado, así como la falta de habilidades para calcular manualmente un problema, pueden resultar en resultados incorrectos. A esto se une un uso inapropiado de la inteligencia artificial.
  21. El mal uso de ecuaciones o fórmulas, como cambiar el nombre de una variable sin entender el concepto subyacente, puede conducir a errores en la resolución de problemas.
  22. La falta de competencia o experiencia en una materia determinada puede resultar en una resolución incorrecta del problema.
  23. Repetir la resolución de problemas de un contexto a otro sin pensar en su validez puede conducir a soluciones inapropiadas.
  24. La falta de comprensión del problema, la pregunta o el tipo de resultado esperado puede resultar en soluciones incorrectas debido a la falta de comprensión lectora, capacidad analítica o de síntesis.
  25. La utilización de unidades defectuosas, notaciones o convenciones específicas puede llevar a interpretaciones erróneas o a soluciones incorrectas.
  26. La falta de retroalimentación o revisión de los errores cometidos puede perpetuar la repetición de los mismos errores una y otra vez.
  27. La falta de comunicación o colaboración en entornos de trabajo entre profesionales puede contribuir a errores en la resolución de problemas.
  28. La confianza excesiva en la tecnología o herramientas automatizadas puede llevar a la falta de comprensión de los principios subyacentes y a la comisión de errores.
  29. La falta de revisión o verificación de los cálculos realizados por parte de un tercero independiente puede resultar en soluciones incorrectas.
  30. La falta de conocimiento del contexto del problema, incluyendo las restricciones, puede conducir a soluciones subóptimas o incorrectas.

Os paso un vídeo donde he desarrollado las ideas anteriores, con ejemplos, y he dejado algunas de mis reflexiones al respecto. Espero que os guste.

Os dejo un podcast sobre este tema (en inglés), generado por una IA sobre el vídeo.

Aquí tenéis un mapa conceptual que también os puede ayudar.

Artículos relacionados en el blog:

Los ingenieros, los ordenadores y mil un indios

De la regla de cálculo al ordenador: olvidarse de cómo se calculaba antes

Cifras significativas y errores de medición

¿Cómo predimensionar un muro sin calculadora?

La inteligencia artificial en la ingeniería civil

Introducción a la toma de decisiones

Problemas teóricamente sencillos pero que marean a nuestros estudiantes

Referencias de libros de problemas:

MARTÍNEZ-PAGÁN, P.; YEPES, V.; MARTÍNEZ-SEGURA, M.A. (2023). Ejercicios resueltos de sistemas de transporte continuo: bombas y cintas transportadoras. Ediciones UPCT. Universidad Politécnica de Cartagena, 284 pp. ISBN: 978-84-17853-62-4

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente nº 97.439. Ed. Universitat Politècnica de València. 253 pág. Depósito Legal: V-4598-1997. ISBN: 84-7721-551-0.

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Número de observaciones a realizar en un cronometraje

Figura 1. Cronometraje industrial

El cronometraje, junto con las observaciones instantáneas, constituye un procedimiento de medición del trabajo que permite determinar los tiempos improductivos y sus causas, eliminándolas mediante su análisis. Se emplea como auxiliar del estudio de métodos para eliminar o disminuir el tiempo de trabajo. El cronometraje es más apropiado para trabajos muy sistematizados y repetitivos, efectuados por una o pocas unidades de recurso. En cambio, las observaciones instantáneas cubre el resto de los escenarios posibles, como trabajos poco sistematizados, con ciclos largos o realizados por numerosos recursos.

Una medición del tiempo requerido para una operación elemental en la que se divide un trabajo debe ofrecer brindar cierta seguridad que que se recogen todas las posibles causas que pueden influir en los tiempos, incluyendo los datos que se producen de forma esporádica. Para ello, las medidas se basan en una muestra representativa formada por un determinado número de ciclos sucesivos.

La Oficina Internacional de Trabajo recomienda cronometrar al menos 50 ciclos en operaciones breves y de 20 a 30 ciclos en operaciones más largas. Sin embargo, es posible que con un número de lecturas superiores a 10, el valor medio puede cambiar tan poco que no merece la pena aumentar el número de observaciones.

El número de ciclos a cronometrar depende, entre otros, de la duración de los elementos, de la precisión que se quiera para los tiempos representativos y de la estabilidad del operario o máquina cronometrado.

Duración de los elementos

Cuanto mayor sea la duración de los elementos, será menor la influencia de las causas de variación. Aunque los errores tengan el mismo valor absoluto, su valor relativo será menor. La Tabla 1 proporciona un ejemplo del número de lecturas según la duración de la operación (Alonso y Ruiz, 1982) .

Sin embargo, muchas empresas se basan en su propia experiencia o consideran la repetitividad de la operación. Se otorga más importancia y se busca mayor exactitud en los trabajos más frecuentes.

Precisión deseada

Figura 2. Precisión en las mediciones.

Suponiendo que la distribución de probabilidad de los tiempos es normal, entonces se puede determinar el número de observaciones a realizar, de forma que la mayoría de los valores individuales no se desvíen del valor medio más allá de unos límites aceptables de variabilidad. Por lo tanto, se puede determinar el número de observaciones teniendo en cuenta el margen de error y una probabilidad fija de no excederlo.

Si tenemos n medidas, la media muestral se expresa como:

La desviación típica muestral sería:

Y se define el error cuadrático de la media, o desviación típica de la media, como:

Teniendo en cuenta las propiedades de la distribución normal, el 95,45% de los valores probables de la media es que se encuentren en el intervalo de ±2Δx de la media.

De esta forma, si se hacen n lecturas, se puede calcular la media y su error cuadrático, lo cual nos indicará el error que tendrá la lectura. Por aproximaciones sucesivas, se podría aumentar el número de lecturas hasta que el error no supere un determinado límite.

Supongamos, por ejemplo, que el error no sobrepase el 5%, con el nivel de confianza del 95,45%, entonces, el número n’ de observaciones será:

Y por tanto,

Si el número inicial de observaciones, n, es insuficiente al aplicar la fórmula, entonces se debe aumentar las observaciones a n’ y volver a comprobar.

Estabilidad del operario

Como se ha visto anteriormente, el número de observaciones n necesarias será función de la desviación típica muestral. Si el tiempo medido varía poco, se requieren pocas observaciones. Por tanto, es conveniente cronometrar a operarios que realicen su trabajo de la forma más uniforme posible, en condiciones normalizadas. De esta forma, con un número relativamente bajo de medidas, se obtendrá el tiempo estándar como el promedio de las observaciones.

Sin embargo, no es posible desterrar la variabilidad, pues siempre existen ligeros errores en la lectura del cronómetro, pequeños cambios en el material o la posición de la herramienta, variaciones en las propiedades del material o pequeñas variaciones no intencionadas en el ritmo del operario o en el patrón de movimientos.

Os paso un vídeo explicativo al respecto.

Referencias:

ALONSO, J.; RUIZ, J.M. (1982). Ingeniería de producción. Ediciones Deusto, Bilbao.

SERPELL, A. (2002). Administración de operaciones de construcción. Alfaomega, Ediciones Universidad Católica de Chile, Colombia.

YEPES, V. (2008). Productivity and Performance, in Pellicer, E. et al.: Construction Management. Construction Managers’ Library Leonardo da Vinci: PL/06/B/F/PP/174014. Ed. Warsaw University of Technology, pp. 87-101. ISBN: 83-89780-48-8.

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente nº 97.439. Ed. Universitat Politècnica de València. 256 pág. Depósito Legal: V-4598-1997. ISBN: 84-7721-551-0.

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442. ISBN: 978-84-1396-046-3

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Técnicas de prevención de fallos en el diseño de productos

Las empresas dedicadas al diseño de productos deberían focalizar sus esfuerzos en que dicho producto tenga una elevada fiabilidad, es decir, que su probabilidad de fallo se reduzca al mínimo posible. Para asegurarse de que el diseño satisface las necesidades del cliente a un coste proporcionado al valor añadido, es posible utilizar diversas técnicas como son, entre otras, el despliegue de la función de calidad (QFD, Quality Function Deployment), el análisis modal de fallos y efectos (AMFE) y el análisis del valor.

  • El despliegue de la función de calidad, QFD, permite traducir los requerimientos de calidad del cliente en características técnicas del producto. Se trata de una metodología simple y lógica que involucra un conjunto de matrices, las cuales permiten determinar las necesidades del cliente, analizar a la competencia y descubrir los nichos de mercado no explotados.
  • El análisis modal de fallos y efectos, AMFE, es una metodología analítica estructurada que permite tener en cuenta y se han resuelto los modos de fallo potencial de un producto o sistema y sus causas, para evitarlos.
  • El análisis del valor trata de reducir el coste de un producto sin eliminar las características demandadas por los clientes. También permite detectar los cambios que deberían realizarse para dar mayor al producto sin que el incremento de coste sea superior al aumento de precio.

A continuación os dejo algunos vídeos explicativos de estas técnicas de prevención de fallos en los productos.

Referencias:

HARRIS, F.; McCAFFER, R. (1999). Construction Management. Manual de gestión de proyecto y dirección de obra. Ed. Gustavo Gili, S.A., Barcelona, 337 pp. ISBN: 84-252-1714-8.

JORDAN, M.; BALBONTIN, E. (1986). Organización, planificación y control. Escuela de la Edificación, UNED, Madrid. ISBN: 84-86957-39-7.

PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.

VELASCO, J. (2014). Organización de la producción. Distribuciones en planta y mejora de los métodos y los tiempos. 3ª edición, Ed. Pirámide, Madrid. ISBN: 978-84-368-3018-7.

YEPES, V. (2008). Productivity and Performance, in Pellicer, E. et al.: Construction Management. Construction Managers’ Library Leonardo da Vinci: PL/06/B/F/PP/174014. Ed. Warsaw University of Technology, pp. 87-101. ISBN: 83-89780-48-8.

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442. ISBN: 978-84-1396-046-3

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Qué hacemos con los valores atípicos (outliers)?

Figura 1. Valor atípico en el diagrama de caja y bigotes

Un valor atípico (outlier, en inglés) es una observación que numéricamente es muy distinta al resto de elementos de una muestra. Estos datos nos pueden causar problemas en la interpretación de lo que ocurre en un proceso o en una población. Por ejemplo, en el cálculo de la resistencia media a compresión simple de unas probetas de hormigón, la mayoría se encuentran entre 25 y 30 MPa. ¿Qué ocurriría si, de repente, medimos una probeta con una resistencia de 60 MPa? La mediana de los datos puede ser 27 MPa, pero la resistencia media podría llegar a 45 MPa. En este caso, la mediana refleja mejor el valor central de la muestra que la media.

La pregunta que nos podemos plantear es inmediata. ¿Qué hacemos con esos valores atípicos? La opción de ignorarlos a veces no es la mejor de las soluciones posibles si pretendemos conocer qué ha pasado con estos valores. Lo bien cierto es que distorsionan los resultados del análisis, por lo que hay que identificarlos y tratarlos de forma adecuada. A veces se excluyen si son resultado de un error, pero otras veces son datos potencialmente interesantes en la detección de anomalías.

Los valores atípicos pueden deberse a errores en la recolección de datos válidos que muestran un comportamiento diferente, pero reflejan la aleatoriedad de la variable en estudio. Es decir, valores que pueden haber aparecido como parte del proceso, aunque parezcan extraños. Si los valores atípicos son parte del proceso, deben conservarse. En cambio, si ocurren por algún tipo de error (medida, codificación…), lo adecuado es su eliminación. En la Tabla 1 se recogen algunas de las causas comunes de los valores atípicos y sus acciones posibles.

Tabla 1. Causas comunes de los valores atípicos. Fuente: Soporte de Minitab(R) 18.

Causa Acciones posibles
Error de entrada de datos Corregir el error y volver a analizar los datos.
Problema del proceso Investigar el proceso para determinar la causa del valor atípico.
Factor faltante Determinar si no se consideró un factor que afecta el proceso.
Probabilidad aleatoria Investigar el proceso y el valor atípico para determinar si este se produjo en virtud de las probabilidades; realice el análisis con y sin el valor atípico para ver su impacto en los resultados.

Los valores atípicos a veces son subjetivos y existen numerosos métodos para clasificarlos. La detección de valores atípicos se puede realizar a nivel univariante usando gráficos sencillos como histogramas o diagramas de caja y bigotes. A nivel bivariante se pueden localizar mediante análisis de diagrama de dispersión o análisis de los residuos. En el ámbito multivariante se pueden descubrir los valores atípicos mediante un análisis de la matriz de residuos.

El método más habitual por su sencillez y resultados es el test de Tukey, que toma como referencia la diferencia entre el primer cuartil (Q1) y el tercer cuartil (Q3), o rango intercuartílico. En un diagrama de caja se considera un valor atípico el que se encuentra 1,5 veces esa distancia de uno de esos cuartiles (atípico leve) o a 3 veces esa distancia (atípico extremo). Se trata de un método paramétrico que supone que la población es normal (Figura 2). No obstante, también existen métodos no paramétricos cuando la muestra no supere la prueba de normalidad correspondiente.

Figura 2. Detección paramétrica de valores atípicos, basado en la curva de distribución normal. Wikipedia

Os dejo algún vídeo donde se explica cómo detectar los valores atípicos.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Cuántas respuestas son necesarias en una encuesta? Pues depende.

A veces me toca dirigir algún trabajo de investigación de mis estudiantes que trata de conocer la opinión sobre algún aspecto concreto. Normalmente se trata de temas relacionados con el sector de la construcción, aunque también suelo investigar si ha tenido éxito algún tipo de innovación educativa en mis clases. Para ello suelo aconsejar el uso de cuestionarios basados en escalas Likert, pues de esta forma facilito el análisis estadístico multivariante de los resultados.

El problema siempre es el mismo: ¿Profesor, tengo suficientes encuestas o tengo que enviar más encuestas? Y la respuesta siempre es la misma: depende del objeto de la encuesta. Vamos a analizar esto por partes.

Si se trata de describir los resultados obtenidos de un grupo de estudio, la muestra representa a la totalidad de la población, y por tanto no es necesario alcanzar un número de respuestas mínimo. Por ejemplo, si en una asociación de empresarios de la construcción el número de socios es de 30 y todos responden el cuestionario, es evidente que los resultados del estudio representan de forma exacta lo que opinan los 30 socios.

Sin embargo, lo habitual es encontrarse con un número de respuestas que forman una muestra de una población. Aquí se trata de saber si podemos extrapolar los resultados a la población que representa la muestra. Para ello nos debemos hacer dos preguntas: ¿Es la muestra representativa? ¿Cuál es el margen de error que cometemos?

Las técnicas de muestreo permiten extraer muestras representativas. Estos muestreos pueden ser probabilísticos o no probabilísticos. Entre los primeros podemos resaltar el muestreo aleatorio sistemático, el estratificado o el muestreo por conglomerados.  Entre los no probabilísticos, el muestreo por cuotas, por bola de nieve o el muestreo subjetivo por decisión razonada. Remito a los interesados a bibliografía específica, pues se escapa al objetivo de este artículo.

Aquí vamos a comentar brevemente lo relativo al error muestral. El error muestral se corresponde con el margen de error que estamos dispuestos a aceptar. Por ejemplo, si decimos que el 15% de la población está de acuerdo con algo y el error muestral es del 4%, realmente dicha opinión se encuentra entre el 11% y el 19% para un nivel de confianza determinado. Por eso, lo primero, será definir el nivel de confianza o riesgo de primera especie “z”, que sería el riesgo que aceptamos de equivocarnos al presentar nuestros resultados. El nivel de confianza habitual es 1 – α = 95% o α = 5%. Se utiliza como “z”, que es un valor de la distribución normal asociado a una determinada probabilidad de ocurrencia. Así, z=1,96 si 1 – α = 95%, z=2,00 si 1 – α = 95,5% y z=2,57 si 1 – α = 99%.

Otro factor a tener en cuenta es la variabilidad de las respuestas estimada en la población. Si sabemos que todos los sujetos piensan lo mismo, nos bastará preguntar a uno solo o a muy pocos. Pero si sabemos que habrá una gran diversidad de respuestas, hará falta una mayor número de sujetos en la muestra. Como lo normal es desconocer la variabilidad de las respuestas en la población, elegimos la mayor varianza posible p=q=50% (sería que el 50% respondiera que “sí” y el otro 50% lo contrario).

Las fórmulas que nos dan el error muestral, por tanto, dependen de los factores anteriores y también de conocer si la población es finita o infinita (más de 30.000 individuos ya se considera como infinita). En la figura se indican ambas fórmulas.

Fórmulas del error muestral, en función de si la población es finita o infinita

Si jugamos un poco con estas fórmulas, veremos que para un nivel de confianza del 95%, serían necesarias 96 respuestas en una población infinita y 95 respuestas en una población de un tamaño de 10.000 (casi coinciden) para un error muestral del 10%. Pero si queremos bajar el error al 5%, se eleva el número de respuestas a 384 en el caso de la población infinita y a 370 en el caso de una población finita de 10.000. Como vemos, se dispara el número de respuestas necesarias para reducir el error.

Por tanto, mi respuesta a mis estudiantes suele ser siempre la misma: vamos a intentar llegar a 100 respuestas para empezar a tener un error razonable.

En apretada síntesis, os quiero dar las siguientes consideraciones sobre el muestreo:

  • No solo es necesario que el tamaño de la muestra sea suficiente, sino también que la muestra sea representativa de la población que tratamos de describir
  • Una muestra de gran tamaño no garantiza que el margen de error sea pequeño, pues puede estar sesgada hacia segmentos de la población representados en exceso o poco representados
  • Si la población a estudiar es demasiado grande es recomendable segmentarla en estratos y valorar en cuáles de ellos pueden obtenerse muestras representativas, facilitando así una interpretación de los resultados más precisa
  • En general, el margen de error en cada estrato suele ser superior al margen de error de toda la muestra en conjunto. Es recomendable ser consciente de esta diferencia de precisión en la interpretación de resultados

Pues ahora una reflexión final: ¿Qué error tienen las encuestas que contestan los alumnos en relación con la calidad del profesor? ¿Es razonable tomar decisiones respecto a la continuidad o no de un profesor teniendo en cuenta estas encuestas? Tenéis las claves releyendo el artículo.

Aquí tenéis un vídeo sobre las técnicas de muestreo.

Os dejo a continuación un pequeño vídeo sobre el error de muestreo.

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Cuando una “campaña experimental” se convierte en un desperdicio de tiempo y dinero

https://www.laensa.com/probetas-hormigon/

Reconozco abiertamente que me recorre cierto escalofrío cuando escucho por algún sitio que se está desarrollando una “campaña experimental“, a menudo en laboratorios donde, por desgracia, cada ensayo cuesta muchísimo tiempo y dinero. Me viene a la mente una campaña militar a gran escala donde, para conseguir un objetivo, se sacrifica lo que sea necesario. Cuando igual una pequeña fuerza de operaciones especiales sería suficiente.

Lo digo porque no es la primera vez que me encuentro con algún estudiante de máster o doctorado que quiere iniciar ensayos para cubrir, literalmente, las variaciones posibles en ciertos rangos, de un número de factores que influyen en un problema determinado. Y tampoco me es ajeno el típico estudiante que acude a mi despacho a pedirme consejo porque no sabe qué hacer con las montañas de datos generados, no siendo capaz de interpretar con herramientas estadísticas rigurosas.

Pero este problema no solo ocurre en determinados ámbitos científicos, sino que es habitual en empresas, procesos industriales y laboratorios de todo tipo. Cuento esto porque encuentro de vez en cuando a un doctorando que ha dedicado, por ejemplo, más de cinco años en recoger datos que luego, a la postre, se acumulan en hojas de cálculo y son difíciles de interpretar porque no se sabía exactamente cuál era la pregunta de investigación que se quería resolver.

También es muy típico encontrar en las empresas a técnicos expertos en un proceso determinado “con mucha experiencia”, que realmente lo que ha hecho es aprender con los años, y sobre todo, de sufrir en sus carnes muchos errores. Este tipo de experiencia, basada en el error, no es la más barata, ni mucho menos.

Afortunadamente, cada vez son menos los que se enfrascan directamente a ensayar todas las combinaciones posibles en los valores de ciertas variables. Para eso disponemos de una rama del conocimiento denominada diseño de experimentos que permite no solo ahorrar recursos (tiempo, espacio de laboratorio, dinero, etc.), sino también es capaz de sacar muchísima más información de los datos cuando se dedica algo de tiempo a hacer un buen diseño experimental. No digo con esto que existan campañas experimentales bien diseñadas, sino que aún perviven prácticas que, por puro desconocimiento, son utilizadas aún en demasiadas ocasiones.

Veamos un ejemplo sencillo que nos permite aclarar las ideas. Imaginemos un proceso que solo depende de 4 factores. Si de cada factor queremos analizar 5 niveles, una “campaña experimental” exhaustiva nos obligaría a tomar 5^4 = 625 observaciones. Este número tan elevado puede ser inviable. ¿Cómo podemos reducir el número de observaciones? Se podría reducir el número de factores o el número de niveles a estudiar .

Un buen diseño de experimentos puede reducir muchísimo el número de observaciones necesarias ofreciendo, a su vez, información muy valiosa. Por ejemplo, un diseño factorial a dos niveles, ya sea completo o fraccionado, sería suficiente en la mayoría de los casos para estudiar los efectos, las interacciones entre los factores, etc. Invito al lector a revisar en este mismo blog algunos artículos que he escrito al respecto:

¿Qué es el diseño de experimentos?

Definiciones básicas del diseño de experimentos

Incluso, en el caso de que no exista una interacción entre los factores, por ejemplo un diseño en cuadrado grecolatino, para cuatro factores y cuatro niveles, podríamos obtener información valiosa con 16 observaciones en vez de las 256 que serían las necesarias para cubrir todas las combinaciones posibles. En este blog podéis encontrar muchos ejemplos resueltos buscando “diseño de experimentos” en la columna de la izquierda, donde aparece el buscador.

Resumiendo, estoy a favor de las “campañas experimentales”, pero siempre que se basen en un diseño de experimentos previo. Pero mi consejo es que antes de hacer nada, tengamos muy clara la pregunta de investigación que queremos resolver. De hecho, la ciencia experimental trata de llegar a conclusiones generales con datos procedentes de casos particulares, y para eso necesitamos la estadística.

Parafraseando la frase que, según la tradición, estaba grabada a la entrada de la Academia de Platón, yo pondría el siguiente letrero a la puerta de cualquier laboratorio: “NO ENTRE NADIE QUE NO SEPA ESTADÍSTICA”.

Os dejo una conferencia del profesor Xabier Barber de la Universidad Miguel Hernández que os aclarará muchas cosas. Espero que os guste.

Referencias:

  • Box, G.E.; Hunter, J.S.; Hunter, W.G. (2008). Estadística para investigadores. Diseño, innovación y descubrimiento. Segunda Edición, Ed. Reverté, Barcelona.
  • Gutiérrez, H.; de la Vara, R. (2003). Análisis y diseño de experimentos. McGraw-Hill, México.
  • Vicente, M.L.; Girón, P.; Nieto, C.; Pérez, T. (2005). Diseño de experimentos. Soluciones con SAS y SPSS. Pearson Educación, Madrid.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.