1. ¿Cómo explica el «modelo del queso suizo» que la DANA de 2024 no fuera solo un fenómeno natural, sino un fallo de múltiples barreras de defensa?
Esta pregunta aborda la raíz del desastre y la diferencia entre las condiciones latentes —infraestructuras obsoletas, urbanismo en zonas inundables y falta de mantenimiento— y los fallos activos —retrasos en las alertas y errores en la coordinación de la emergencia—. El análisis revela que la catástrofe ocurrió porque los «agujeros» de distintas áreas —la política, la supervisión, la infraestructura y la respuesta inmediata— se alinearon, lo que permitió que el peligro atravesara todas las defensas. Además, subraya que los desastres no son puramente «naturales», sino el resultado de decisiones humanas y de la ocupación de cauces críticos.
2. ¿Por qué se considera la infraestructura hidráulica un «seguro de vida» y qué consecuencias tuvo la falta de ejecución de las obras proyectadas en el barranco del Poyo?
El significado central de las fuentes técnicas y de las comisiones de investigación radica en que demuestran que las obras hidráulicas salvan vidas. Mientras que Valencia se salvó gracias al nuevo cauce del Turia y las poblaciones del río Magro vieron reducidos sus daños por la presa de Forata, la cuenca del Poyo carecía de infraestructuras de laminación, por lo que se produjo una avenida destructiva sin precedentes. La falta de inversión, la ralentización administrativa y la priorización de criterios ambientales por encima de los estructurales impidieron la ejecución de proyectos ya diseñados y aprobados.
3. ¿De qué manera el «fin de la estacionariedad climática» obliga a la ingeniería y al urbanismo a abandonar los registros históricos y adoptar un diseño basado en el rendimiento y la resiliencia?
Las fuentes consultadas destacan que el cambio climático ha invalidado el uso exclusivo de datos históricos para predecir el futuro. Fenómenos como la DANA de 2024 demuestran que lo que antes se consideraba un evento con un periodo de retorno de 500 años ahora puede ocurrir con mucha mayor frecuencia. Por tanto, es necesario rediseñar las infraestructuras con mayores márgenes de seguridad (retornos de 1000 años), utilizar modelos probabilísticos y aplicar el diseño basado en el desempeño (PBD), que garantiza que un sistema pueda seguir funcionando o recuperarse rápidamente cuando se vea superado.
4. ¿Por qué la «retirada estratégica» de las zonas de alto riesgo y el rediseño arquitectónico resiliente son ahora imperativos para convivir con el «riesgo residual» que las infraestructuras no pueden eliminar?
Esta pregunta aborda el hecho de que, durante décadas, se ha construido con una grave «amnesia hidrológica», ocupando zonas de flujo preferente que la naturaleza ha acabado por reclamar. El análisis de las fuentes indica que, dado que el «riesgo cero» no existe y las presas pueden verse superadas por eventos extremos, la reconstrucción no debe limitarse a reparar, sino a reubicar las infraestructuras críticas (colegios, centros de salud) fuera de las zonas de alto riesgo. En cuanto a las viviendas que permanecen en áreas inundables, se propone un cambio radical en los códigos de edificación: prohibir dormitorios y garajes en las plantas bajas, elevar las instalaciones críticas (electricidad, calderas) y utilizar materiales resistentes al agua que permitan recuperar rápidamente la funcionalidad. Por último, las fuentes subrayan que la educación pública y la cultura de la prevención (siguiendo modelos como el japonés) son medidas de bajo coste y alto impacto que salvan vidas cuando las barreras físicas fallan.
5. ¿Qué cambios son imprescindibles en la gobernanza y la coordinación institucional para evitar que la reconstrucción sea una mera réplica de los errores del pasado?
Las fuentes coinciden en que la reconstrucción no puede limitarse a reponer lo perdido, pues, de lo contrario, se perpetuaría la vulnerabilidad. Se recomienda la creación de un «ministerio del pensamiento» o de un equipo de reflexión que establezca directrices estratégicas a largo plazo y evite la «rapidez ilusoria» de las obras tácticas. Además, se reclama una gobernanza interadministrativa eficaz, posiblemente mediante consorcios en los que las administraciones deleguen competencias para unificar presupuestos y decisiones técnicas sobre las políticas, y así superar la fragmentación y la parálisis burocrática.
Creo que dos analogías o metáforas pueden aclarar algunos conceptos básicos:
Gestionar el territorio hoy es como construir en la ladera de un volcán. Podemos instalar sensores y construir diques para desviar la lava (infraestructuras), pero la verdadera seguridad depende de no construir los dormitorios en el camino de la colada (ordenación del territorio) y de que todos los habitantes sepan exactamente qué mochila coger y hacia dónde correr cuando suene la alarma (concienciación comunitaria).
Gestionar el riesgo de inundaciones hoy en día es como conducir un coche moderno por una autopista peligrosa: no basta con tener un motor potente (infraestructuras hidráulicas), también es necesario que los cinturones de seguridad y el airbag funcionen (alertas y protección civil), que el conductor esté capacitado (concienciación comunitaria) y que las normas de circulación se adapten a las condiciones meteorológicas de la vía, y no a cómo era el asfalto hace cincuenta años.
Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes
Hoy, 29 de octubre de 2025, se cumple el primer aniversario de la DANA de Valencia de 2024, un evento que ha sido catalogado como una de las mayores catástrofes naturales ocurridas en España en décadas. La tragedia se produjo por unas precipitaciones históricas que pulverizaron récords nacionales, con máximos de más de 770 l/m² acumulados en 24 horas en Turís, lo que demuestra que el riesgo cero no existe en un contexto de cambio climático. El desastre no se explica únicamente por la cantidad de lluvia caída, sino por la trágica multiplicación entre el evento extremo, sobrealimentado por el calentamiento global, y el fallo estructural de un urbanismo que, durante décadas, ha ignorado las zonas de riesgo. Aunque la respuesta inmediata y los esfuerzos por restablecer las infraestructuras críticas han sido notables, la ingeniería de la reconstrucción no puede limitarse a reponer lo perdido, ya que replicar el estado previo implica aceptar que los efectos se repetirán. En este contexto, un medio de comunicación me ha solicitado una entrevista para abordar si, un año después, hemos avanzado hacia las soluciones de resiliencia y prevención que el conocimiento técnico lleva tiempo demandando. Os dejo la entrevista completa, por si os resulta de interés.
¿Cómo describiría desde un punto de vista técnico lo que ocurrió el 29 de octubre en Valencia? ¿Qué falló?
Desde el punto de vista técnico e ingenieril, el suceso del 29 de octubre en Valencia fue un evento de inundación extremo provocado por una DANA con un carácter pluviométrico extraordinario, ya que se registraron cifras extremas, como los 771,8 l/m² en 24 horas en Turís, y caudales en la Rambla del Poyo de hasta 2.283 m³/s antes de que los sensores fueran arrastrados, superando con creces cualquier expectativa de diseño y demostrando que el riesgo cero no existe. La magnitud del impacto fue consecuencia de una serie de factores concurrentes. El factor principal se produjo en la cuenca de la Rambla del Poyo, donde la virulencia del agua (con caudales medidos superiores a 2.200 m³/s y estimaciones simuladas que superan los 3.500 m³/s) se encontró con la ausencia de infraestructuras hidráulicas suficientes para la laminación de avenidas y otras medidas complementarias. Los proyectos de defensa contra inundaciones, que llevaban años planificados y con estudios previos, no se ejecutaron a tiempo. En contraste, el Nuevo Cauce del Turia y las presas de Forata y Buseo funcionaron eficazmente, protegiendo la ciudad de Valencia y otras poblaciones. Además de estas vulnerabilidades latentes, el impacto humano y material se vio agravado por desafíos en la respuesta, incluyendo la efectividad en los sistemas de alerta temprana (SAIH) bajo condiciones tan extremas y en la implantación de los planes de emergencia municipales, así como en la emisión de avisos con suficiente antelación a la población, impidiendo que esta pudiera reaccionar a tiempo.
¿Qué papel jugaron las infraestructuras y la planificación urbana en la magnitud de los daños? ¿Hubo zonas especialmente vulnerables o mal planificadas?
Las infraestructuras y la planificación urbana jugaron un papel determinante en la magnitud de los daños. Por un lado, las obras estructurales, como el Nuevo Cauce del Turia y las presas de Forata y Buseo, resultaron fundamentales, mitigando las inundaciones y protegiendo la ciudad de Valencia y otras poblaciones. Sin embargo, la magnitud de los daños se vio agravada por la ausencia de medidas integrales de defensa diseñadas para la laminación de avenidas, especialmente en la cuenca de la Rambla del Poyo, donde los proyectos planificados no se ejecutaron a tiempo. Los caudales extraordinarios superaron con creces la capacidad existente. Además, las infraestructuras lineales (carreteras, ferrocarriles y puentes) actuaron como puntos de estrangulamiento, reteniendo arrastres y aumentando el nivel de destrucción. Las zonas más vulnerables se concentraron en el cono aluvial de L’Horta Sud, una zona de alto riesgo urbanizada principalmente entre la riada de 1957 y la década de 1970, sin planificación adecuada ni infraestructuras de saneamiento suficientes. La falta de unidad de criterio en la ordenación territorial municipal y la prevalencia de intereses de desarrollo sobre las directrices de restricción de usos en zonas inundables (a pesar de instrumentos como el PATRICOVA) aumentaron la vulnerabilidad social y material del territorio. Aunque algunos hablan de emergencia hidrológica, probablemente sea más adecuado hablar de un profundo desafío urbanístico y de ordenación territorial.
Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes
Desde entonces, ¿qué medidas reales se han tomado —si las hay— para reducir el riesgo de que vuelva a suceder algo similar?
Desde la DANA de octubre de 2024, las medidas adoptadas se han enfocado en la reconstrucción con criterios de resiliencia y atención a urgencias, aunque las soluciones estructurales de gran calado, que requieren plazos de ejecución más largos, siguen mayormente pendientes. En la fase inmediata, se activaron obras de emergencia, destacando la reparación y refuerzo de infraestructuras críticas como las presas de Forata y Buseo, y la recuperación de cauces y del canal Júcar-Turia. Un ejemplo de reconstrucción en curso es la mejora de la red de drenaje de Paiporta, que forma parte de las primeras actuaciones tras la catástrofe. En el ámbito normativo, el Consell aprobó el Decreto-ley 20/2024 de medidas urbanísticas urgentes y se ha puesto sobre la mesa la revisión de normativas como el Código Técnico de la Edificación (CTE) para incluir requisitos para edificaciones en zonas inundables. También se prevé que los sistemas de comunicación y alerta estén coordinados en todas las cuencas mediterráneas, lo que podría evitar muertes en caso de repetirse el fenómeno. Sin embargo, es un hecho que, meses después, la legislación urbanística de fondo sigue sin cambios estructurales y que, en cuanto a las obras hidráulicas estructurales de prevención, como las presas de laminación, sus plazos de tramitación y ejecución impiden que se hayan materializado avances significativos todavía, dificultando el avance de proyectos críticos. Por tanto, existe una etapa de reconstrucción que debería ser inteligente y no dejar las infraestructuras como estaban antes de la DANA, pues eso implicaría asumir los mismos riesgos, y otra a medio y largo plazo que permita defender a la población, minimizando los riesgos.
¿Qué actuaciones considera urgentes o prioritarias para evitar repetir los errores del pasado?
Para evitar repetir los errores del pasado, es necesario un cambio de modelo que combine inversión estructural urgente con planificación territorial resiliente. En ingeniería hidráulica, la acción prioritaria es acelerar e implementar las obras de laminación contempladas en la planificación hidrológica, como la construcción de presas en las cuencas de la Rambla del Poyo y el río Magro, y destinar recursos extraordinarios para construir las estructuras de prevención necesarias y corregir el déficit de infraestructuras de prevención. También es prioritario eliminar obstáculos urbanísticos, como puentes y terraplenes insuficientes, y reconstruir infraestructuras lineales con criterios resilientes, permitiendo el paso seguro del agua. En urbanismo, la enseñanza principal es devolverle el espacio al agua, retirando estratégicamente infraestructuras de las zonas de flujo preferente para reducir la exposición al riesgo más elevado e iniciando un plan a largo plazo para reubicar infraestructuras críticas y viviendas vulnerables. Se recomienda revisar la normativa sobre garajes subterráneos en llanuras de inundación. Asimismo, es esencial invertir en sistemas de alerta hidrológica robustos, con más sensores y modelos predictivos que traduzcan la predicción en avisos concretos y accionables. Por último, es fundamental que la gobernanza supere la inercia burocrática mediante un modelo de ejecución de urgencia que priorice el conocimiento técnico y garantice que el riesgo no se convierta de nuevo en catástrofe humana.
Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes
¿Hasta qué punto Valencia está preparada para afrontar lluvias torrenciales o fenómenos extremos de este tipo en el futuro?
Desde una perspectiva técnica e ingenieril, a día de hoy, la vulnerabilidad de fondo persiste y no estamos preparados para afrontar una nueva DANA de la magnitud de la ocurrida en 2024. La situación es similar a la de una familia que circula en coche por la autopista a 120 km/h sin cinturones de seguridad: bastaría un obstáculo inesperado (una DANA) para que el accidente fuera mortal. Aceptar la reposición de lo perdido sin añadir nuevas medidas de protección estructural implicaría aceptar que los efectos del desastre se repetirán, algo inasumible. El problema principal es que prácticamente no se han ejecutado las grandes obras de laminación planificadas, especialmente en las cuencas de la Rambla del Poyo y del Magro, que constituyen la medida más eficaz para proteger zonas densamente pobladas mediante contención en cabecera. La DANA expuso un problema urbanístico severo. Meses después, mientras no se modifique la legislación territorial de fondo y se actúe sobre el territorio, el riesgo latente de la mala planificación persiste ante el próximo fenómeno extremo. La única forma de eliminar esta vulnerabilidad es mediante una acción integral que combine inversión urgente en obras estructurales con retirada estratégica de zonas de flujo preferente.
Os dejo un pequeño vídeo didáctico donde se resume lo acontecido en la DANA del 29 de octubre de 2024.
En las noticias de hoy, aparezco en varios reportajes:
En el Telediario de TVE, en horario de máxima audiencia, a las 21:00 h, se hizo un programa especial sobre la DANA donde tuve la ocasión de participar. Os dejo un trozo del vídeo.
¿Sientes que tu negocio está en una lucha constante por la cuota de mercado? ¿Las guerras de precios y los márgenes de beneficio cada vez más reducidos marcan tu día a día? Si es así, es probable que estés navegando, por lo que los estrategas W. Chan Kim y Renée Mauborgne llaman un «océano rojo».
Esta metáfora describe el espacio de mercado conocido, donde las industrias y sus reglas del juego están perfectamente definidas. En estas aguas, las empresas compiten ferozmente por una demanda existente, tratando de superar a sus rivales para llevarse la mayor participación posible. A medida que el mercado se satura, la competencia a muerte tiñe el agua de sangre, dando lugar a un entorno de crecimiento limitado y utilidades decrecientes.
Pero ¿y si hubiera una alternativa? ¿Y si, en lugar de luchar por un trozo del pastel, pudieras crear uno completamente nuevo? Esa es la promesa del «océano azul»: la creación de espacios de mercado sin competencia, donde aún no existen las reglas del juego y la demanda se crea en lugar de disputarse.
A continuación, te presentamos las cinco ideas más impactantes del libro La estrategia del océano azul, que ofrecen un método sistemático para salir del océano rojo y navegar hacia un crecimiento rentable y sostenible.
1. Olvida a tus rivales: el objetivo es que la competencia sea irrelevante.
La primera idea puede resultar sorprendente: el objetivo de una buena estrategia no es vencer a la competencia, sino hacerla irrelevante. Mientras que la estrategia convencional se centra en la referenciación (benchmarking) y en superar a los rivales, la estrategia del océano azul propone un cambio de enfoque radical.
El contraste, basado en los principios del libro, es claro:
Estrategia del Océano Rojo:
Competir en el espacio existente del mercado.
Vencer a la competencia.
Explotar la demanda existente.
Elegir entre la disyuntiva entre valor y coste.
Alinear todo el sistema de las actividades de una empresa con la decisión estratégica de la diferenciación o del bajo costo.
Estrategia del Océano Azul:
Crear un espacio sin competencia en el mercado.
Hacer que la competencia pierda toda importancia.
Crear y capturar nueva demanda.
Romper la disyuntiva entre valor y coste.
Alinear todo el sistema de las actividades de una empresa con el propósito de lograr diferenciación y bajo costo.
Este cambio de mentalidad se resume a la perfección en una de las frases más célebres del libro:
«La única manera de vencer a la competencia es dejar de tratar de vencerla».
Estratégicamente, este giro es poderoso porque desplaza el objetivo empresarial de un juego de suma cero, en el que la ganancia de una empresa es la pérdida de otra, a una lógica de creación de nuevo valor. En lugar de repartir una demanda limitada, el objetivo es aumentar el tamaño total del mercado.
2. Innovación en valor: el arte de ser diferente y más barato a la vez.
El pensamiento estratégico tradicional nos ha enseñado que las empresas deben tomar una decisión fundamental: o bien compiten por diferenciación, ofreciendo un mayor valor a un coste más alto, o bien compiten por bajo coste, ofreciendo un valor razonable a un coste menor. La estrategia de los océanos azules rompe esta disyuntiva con su piedra angular: la innovación en valor.
La innovación en valor consiste en buscar simultáneamente la diferenciación y el bajo coste. No se trata de un simple avance tecnológico o de ser el primero en un mercado, sino de alinear la innovación con la utilidad para el comprador, el precio y la estructura de costes de la empresa.
Este concepto se materializa cuando se cuestiona en qué compite la industria. Al eliminar o reducir las variables que los clientes no valoran o que suponen un alto coste, la empresa consigue una estructura de costes inferior a la de sus competidores. Del mismo modo, al incrementar y crear nuevas fuentes de valor que la industria nunca antes había ofrecido, se genera una diferenciación radical. Es esta doble acción la que rompe la disyuntiva clásica y permite ofrecer un valor superior a un coste menor.
Este enfoque, que busca la diferenciación y el bajo coste de forma simultánea, no es solo una teoría elegante, sino que tiene un impacto medible y desproporcionado en los resultados del negocio, como demuestran las cifras del siguiente apartado.
3. El impacto real de los océanos azules (traducido en cifras).
Para quienes puedan pensar que crear nuevos mercados es una apuesta demasiado arriesgada, los autores presentan los resultados de un estudio sobre 108 lanzamientos de negocios que demuestran lo contrario. Los resultados son sorprendentes y revelan una clara asimetría entre el riesgo y la recompensa.
Las cifras hablan por sí solas:
Lanzamientos en océanos rojos (el 86 % del total) generaron solo el 62 % de los ingresos totales y un escaso 39 % de las utilidades.
Lanzamientos en océanos azules (14 % del total): generaron el 38 % de los ingresos y un impresionante 61 % de las utilidades totales.
Esta asimetría demuestra que, aunque la creación de océanos azules es menos frecuente, su impacto en la rentabilidad es desproporcionadamente alto. Aunque navegar en aguas competitivas puede parecer la opción más segura, las cifras indican que la verdadera oportunidad de crecimiento y rentabilidad se halla en la creación de nuevos espacios de mercado. Por tanto, la búsqueda de océanos azules se convierte en un imperativo estratégico.
4. Deja de obsesionarte con tus clientes y empieza a pensar en los «no clientes».
Las empresas tienden a centrarse en sus clientes actuales, tratando de segmentar el mercado de manera cada vez más precisa para satisfacer mejor sus preferencias. Para crear un océano azul y maximizar su tamaño, la estrategia propone hacer lo contrario: mirar más allá de la demanda existente y centrarse en los «no clientes».
Los autores identifican tres niveles de «no clientes» que representan un torrente de demanda potencial sin explotar:
Primer nivel: Personas que están próximas a convertirse en no clientes. Utilizan mínimamente la oferta actual mientras buscan algo mejor y están a la espera de dejar de ser clientes.
Segundo nivel: No clientes que rechazan conscientemente el mercado de la empresa. Han visto la oferta y han decidido no utilizarla.
Tercer nivel: No clientes inexplorados que jamás han contemplado la oferta de la empresa como una opción.
El caso del vino australiano Yellow Tail es un ejemplo perfecto. En lugar de competir con los conocedores del vino, se centraron en los no clientes: los bebedores de cerveza y cócteles. Este grupo se sentía intimidado por los aspectos del vino tradicional, como la compleja terminología enológica, el envejecimiento, los taninos y la sofisticación que rodeaba su consumo. Al identificar estos puntos de fricción, Yellow Tail creó un vino fácil de beber, accesible y divertido que eliminó o redujo sistemáticamente esas barreras, creando en su lugar «facilidad para beber» y «diversión y aventura», y abrió un océano azul masivo al convertir a los no bebedores de vino en nuevos clientes.
5. La herramienta para reconstruir tu mercado: eliminar, reducir, incrementar y crear.
La estrategia del océano azul no es un concepto abstracto, sino un proceso práctico y sistemático. Su principal herramienta para aplicar la innovación en valor es el esquema de las cuatro acciones, que desafía la lógica estratégica de una industria a través de cuatro preguntas clave:
¿Qué variables que la industria da por sentadas se deben eliminar?
¿Qué variables se deben reducir muy por debajo de la norma de la industria?
¿Qué variables se deben incrementar muy por encima de la norma de la industria?
¿Qué variables se deben crear porque la industria nunca las ha ofrecido?
El ejemplo más paradigmático es el Cirque du Soleil. En una industria del circo en declive, aplicaron este modelo para reinventar el entretenimiento en vivo.
Eliminó: las estrellas del circo, los espectáculos con animales, las concesiones en los pasillos y las pistas múltiples.
Redujo: la diversión, el humor, el suspense y el peligro.
Incrementó: un único escenario.
Creó: un tema, un ambiente refinado, múltiples producciones y música y danza artísticas.
Esta herramienta sistemática permite a cualquier empresa deconstruir la lógica de su sector y reconstruirla en una nueva curva de valor. Al responder a estas cuatro preguntas, una empresa puede visualizar un nuevo perfil estratégico que la diferencie radicalmente de la competencia, de modo que la comparación directa pierda sentido.
Conclusión: ¿cuál es tu océano azul?
La estrategia del océano azul es mucho más que una teoría empresarial: supone un cambio de mentalidad fundamental. Nos invita a pasar, de competir a crear, de dividir los mercados existentes a construirlos de nuevo. Demuestra que la creación de estos nuevos espacios no es fruto de la suerte o la genialidad, sino el resultado de un proceso estratégico, analítico y sistemático que cualquier organización puede llevar a cabo.
La próxima vez que te sientas atrapado en las sangrientas aguas de la competencia, detente y hazte una pregunta: ¿qué reglas «inquebrantables» de tu sector podrías empezar a cuestionar hoy mismo para descubrir tu propio océano azul?
En este audio se mantiene una conversación interesante sobre este tema.
El siguiente vídeo sintetiza bien las ideas más importantes de la estrategia del océano azul.
Os dejo un vídeo de Polimedia en el que el profesor Jordi Joan Mauri Castelló nos explica este concepto. Espero que os resulte útil.
En el panorama actual, marcado por una mayor complejidad e interconexión a nivel mundial, los efectos de los desastres son cada vez más graves. El cambio climático, por ejemplo, actúa como un multiplicador de riesgos, intensificando los peligros existentes y generando otros nuevos. Ante esta realidad, el concepto de resiliencia comunitaria se ha convertido en un elemento clave de las estrategias de gestión del riesgo de desastres. La misión de la ingeniería es proporcionar a las comunidades las herramientas necesarias para resistir, adaptarse y recuperarse de estos eventos. En este contexto, los sistemas de apoyo a la decisión (DSS) emergen como herramientas indispensables que transforman la manera en que abordamos la protección de las ciudades y sus ciudadanos.
En el ámbito de la ingeniería civil y la planificación urbana, la resiliencia se define como la capacidad de un sistema, comunidad o sociedad expuesta a peligros para resistir, absorber, adaptarse, transformarse y recuperarse de manera oportuna y eficiente de los efectos de un evento adverso. Esto incluye la preservación y restauración de sus estructuras y funciones básicas esenciales mediante una gestión de riesgos adecuada. Una comunidad resiliente es aquella que, tras un terremoto, una inundación o una ola de calor extrema, logra mantener operativas o recuperar rápidamente sus infraestructuras críticas —desde la red eléctrica hasta los hospitales—, minimizando el impacto en la vida de sus habitantes.
La gestión del riesgo de desastres (DRM) incluye las fases de prevención, preparación, respuesta y recuperación. La resiliencia está intrínsecamente vinculada a todas estas fases. Por ejemplo, la implementación de códigos de construcción más estrictos o sistemas de control de inundaciones es una medida de prevención que aumenta la resiliencia. La preparación, por su parte, permite que las comunidades se adapten mejor a una situación de desastre y se recuperen con mayor rapidez.
Sistemas de apoyo a la decisión (DSS): herramientas inteligentes para la gestión de crisis.
Los DSS son herramientas informáticas diseñadas para ayudar a los responsables de la toma de decisiones, ya que proporcionan análisis, información y recomendaciones, e incluso permiten simular diferentes escenarios. Son fundamentales para mejorar la resiliencia comunitaria, puesto que ofrecen soluciones rápidas y eficientes a los problemas relacionados con los desastres, integrando diversas fuentes de datos y perspectivas de múltiples interesados. Además, los DSS facilitan la operacionalización de la resiliencia, es decir, permiten traducir este concepto abstracto en acciones y modelos analíticos concretos en los que están implicados todos los actores clave, lo que ofrece una comprensión más profunda del proceso de resiliencia. Esto, a su vez, conduce a una toma de decisiones más objetiva y basada en pruebas, que mitiga la subjetividad humana.
Las técnicas de modelización en los DSS: un arsenal de estrategias.
Los DSS se construyen utilizando diversas técnicas de modelización, cada una con sus propias fortalezas. Entre ellas, las técnicas de optimización son las más utilizadas. Estas técnicas permiten encontrar la mejor solución a un problema teniendo en cuenta múltiples factores y restricciones, a menudo mediante algoritmos matemáticos que identifican la opción más eficiente o efectiva. Por ejemplo, se utilizan para decidir la asignación óptima de recursos para la reparación de infraestructuras tras un terremoto o para la gestión de intervenciones en infraestructuras interdependientes.
Otras técnicas destacadas incluyen:
Modelado espacial (SIG): utiliza sistemas de información geográfica (SIG) para capturar relaciones espaciales, analizar, predecir y visualizar la influencia de los factores geográficos en los procesos y las decisiones. Esta técnica resulta muy útil para visualizar la distribución de riesgos y recursos en una ubicación específica, lo que facilita la comprensión del estado de resiliencia.
Análisis de decisiones multicriterio (MCDA): ayuda a los responsables de la toma de decisiones a ponderar diferentes factores y evaluar alternativas frente a múltiples criterios, a menudo conflictivos, para identificar la opción más adecuada en función de las prioridades y los objetivos. Es idóneo para la toma de decisiones en grupo y para capturar aspectos cualitativos de un problema.
Simulación: crea un modelo digital para imitar sistemas o procesos del mundo real, lo que permite la experimentación y el análisis en un entorno controlado. Es excelente para probar el impacto de diversas políticas y decisiones en el comportamiento del sistema antes de su implementación real.
Teoría de grafos: estudia las relaciones entre objetos, que se representan como nodos y aristas en un grafo. Es fundamental para analizar la conectividad de las redes interdependientes, como las infraestructuras de transporte o suministro, y para encontrar rutas óptimas, por ejemplo, para la distribución de ayuda humanitaria.
Minería de texto: extrae conocimiento e información de grandes volúmenes de datos textuales mediante métodos computacionales. Un ejemplo práctico es el uso de chatbots que procesan datos de redes sociales para ofrecer información en tiempo real durante un desastre.
Aplicación de los DSS en las fases de gestión de desastres.
Es interesante observar que los DSS tienden a centrarse más en las fases de preparación y respuesta que en las de recuperación y mitigación. Por ejemplo, el modelado espacial se utiliza mucho en la fase de preparación (en el 80 % de los artículos consultados) para tomar decisiones estratégicas, como determinar la ubicación óptima de los refugios o cómo distribuir los recursos. Durante la fase de respuesta, los DSS espaciales permiten visualizar la situación en tiempo real, identificar rutas bloqueadas y distribuir la ayuda humanitaria de manera eficiente mediante algoritmos que calculan la ruta más corta.
La optimización, por su parte, se utiliza principalmente en la fase de recuperación (en el 75 % de los artículos consultados), particularmente en las decisiones relativas a la rehabilitación y reconstrucción de infraestructuras dañadas. Las técnicas de MCDA son adecuadas para la fase de preparación (el 75 % de los artículos), ya que permiten comparar planes y políticas alternativas con el tiempo necesario para su análisis. Los modelos de simulación también se utilizan en la fase de respuesta para imitar el comportamiento del sistema y de los individuos durante una catástrofe.
Desafíos en el desarrollo y la implementación de los DSS.
A pesar de su potencial, el desarrollo e implementación de sistemas de apoyo a la decisión para la resiliencia no están exentos de desafíos significativos. Uno de los principales desafíos es la disponibilidad y calidad de los datos. La modelización de la resiliencia es un proceso complejo en el que los datos, tanto cuantitativos como cualitativos, son fundamentales. A menudo, la información proviene de múltiples fuentes con diferentes niveles de precisión, lo que dificulta su integración. En los países menos desarrollados, el acceso a los datos públicos (censos, informes, etc.) es aún más complicado, lo que limita la aplicación de ciertos modelos.
Otro obstáculo es la incertidumbre inherente al contexto de un desastre y la necesidad de gestionar cambios en tiempo real. También es una preocupación crucial la privacidad de los datos sensibles sobre infraestructuras críticas o planes de emergencia.
Por último, la colaboración interdisciplinar es imprescindible, pero difícil de conseguir, y la integración de estos sistemas en las operaciones diarias de las organizaciones de emergencia sigue siendo un reto considerable.
La colaboración con los interesados es clave para el éxito.
La implicación de los diversos actores o partes interesadas (stakeholders) es fundamental en el ciclo de vida de un DSS para la resiliencia. Se identifican tres enfoques principales:
Como fuente de datos: recopilando sus opiniones y datos (mediante entrevistas, encuestas o incluso información compartida en redes sociales).
Participación en el diseño: involucrándolos en la identificación de problemas, la construcción del modelo y el desarrollo del sistema para garantizar que la herramienta sea relevante y práctica para sus necesidades reales
Incorporación de preferencias en el modelo: reflejando sus prioridades como parámetros o funciones objetivo en los modelos matemáticos, lo que influirá directamente en las soluciones propuestas. Por ejemplo, se pueden integrar las preferencias comunitarias como restricciones en un modelo de optimización.
Conclusiones y futuras direcciones en ingeniería resiliente.
Los sistemas de apoyo a la decisión suponen un avance significativo en nuestra capacidad para crear comunidades más resilientes frente a los desastres. Aunque hemos logrado grandes avances, especialmente en las fases de preparación y respuesta, y con el uso intensivo de modelos de optimización, aún queda mucho por hacer. Es imperativo ampliar el enfoque a las fases de recuperación y mitigación e investigar cómo integrar fuentes de datos en tiempo real y tecnologías IoT para mejorar la capacidad de respuesta de los DSS en entornos dinámicos. Además, debemos seguir profundizando en la modelización de las interacciones entre los diversos actores de la comunidad para fomentar una colaboración más sólida y, en última instancia, crear un entorno más seguro y resiliente para todos.
Ayer, cuando se cumplían 11 meses de la catástrofe de la DANA de 2024, volvimos a estar en alerta roja en Valencia. No se trató de un evento tan catastrófico como el que vivimos hace menos de un año. Pero volvieron los fantasmas y se volvió a poner a prueba todo el esfuerzo, con mayor o menor acierto, que se está realizando para evitar este tipo de catástrofes.
Queda mucho por hacer: necesitamos consenso en la gobernanza de los proyectos de futuro, desarrollo sostenible de los territorios, un mejor conocimiento para actuar de manera más eficaz por parte de las autoridades y los ciudadanos, y finalmente, aprender a convivir con las inundaciones.
A continuación, os resumo algunos pensamientos sobre este tema que he ido publicando en este blog. Espero que sirvan para reflexionar sobre este tema.
Introducción: cuando la «naturaleza» no es la única culpable.
Tras la devastadora DANA que asoló la provincia de Valencia en octubre de 2024, dejando una estela de dolor y destrucción, es natural buscar explicaciones. La tendencia humana nos lleva a señalar a la «furia de la naturaleza», a la «mala suerte» o a un evento tan extraordinario que era imposible de prever. Nos sentimos víctimas de una fuerza incontrolable.
Sin embargo, un análisis técnico y sereno nos obliga a mirar más allá del barro y el agua. Como se argumenta en foros de expertos, los desastres no son naturales, sino que son siempre el resultado de acciones y decisiones humanas que, acumuladas con el paso del tiempo, crean las condiciones perfectas para la tragedia. Esta idea no es nueva. Ya en 1755, tras el terremoto de Lisboa, Jean-Jacques Rousseau le escribía a Voltaire: «Convenga usted que la naturaleza no construyó las 20.000 casas de seis y siete pisos, y que, si los habitantes de esta gran ciudad hubieran vivido menos hacinados, con mayor igualdad y modestia, los estragos del terremoto hubieran sido menores, o quizá inexistentes».
Este artículo explora cuatro de las ideas menos obvias y más impactantes que surgen del análisis técnico del desastre. Cuatro revelaciones que nos invitan a dejar de buscar un único culpable para empezar a entender las verdaderas raíces del riesgo, repensar cómo nos preparamos para él y, sobre todo, cómo lo reconstruimos de forma más inteligente.
Primera revelación: un desastre no es azar, es la coincidencia de errores en cadena (el modelo del queso suizo).
La primera revelación consiste en abandonar la búsqueda de un único culpable. Un desastre no es un rayo que cae, sino una tormenta perfecta de debilidades sistémicas.
1. Las catástrofes no se producen por un único fallo, sino por una tormenta perfecta de pequeñas debilidades.
Para entender por qué un fenómeno meteorológico extremo se convierte en una catástrofe, los analistas de riesgos utilizan el «modelo del queso suizo» de James T. Reason. La idea es sencilla: nuestro sistema de protección es como una pila de lonchas de queso. Cada loncha representa una capa de defensa (infraestructuras, planes de emergencia, normativas urbanísticas) y los agujeros en cada una de ellas simbolizan fallos o debilidades. Ocurre un desastre cuando los agujeros de varias capas se alinean, creando una «trayectoria de oportunidad de accidente» que permite al peligro atravesar todas las barreras.
Aplicado a la gestión de inundaciones, este modelo identifica cuatro áreas principales donde se producen estos fallos:
Influencias organizativas: decisiones políticas a largo plazo, como «un contexto de austeridad» en el que las instituciones «reducen la inversión en infraestructuras de protección». Esto crea agujeros latentes en nuestras defensas.
Fallos de supervisión: falta de control efectivo sobre el cumplimiento de normativas, como la construcción en zonas inundables o el mantenimiento de infraestructuras de contención.
Condiciones latentes: Debilidades preexistentes que permanecen ocultas hasta que se produce la crisis. Un sistema de drenaje obsoleto, planes de evacuación anticuados o la «falta de concienciación y preparación en la comunidad» son ejemplos de condiciones latentes.
Acciones inseguras: errores activos cometidos durante la emergencia, como retrasos en la emisión de alertas o una comunicación deficiente con el público.
Esta perspectiva nos saca del juego de la culpa lineal —una presa que falló, una alerta que no llegó— y nos obliga a entender el desastre como un fallo sistémico acumulado, resultado de años de pequeñas decisiones, omisiones y debilidades que finalmente se alinearon en el peor momento posible.
2. Volver a construir lo mismo que se destruyó es programar la siguiente catástrofe.
Tras la conmoción, la presión política y social exige una respuesta inmediata: limpiar, reparar y reconstruir. Sin embargo, este impulso esconde una de las trampas más peligrosas. Si la reconstrucción se limita a la reposición de lo perdido, ignoramos la lección más importante y perpetuamos las mismas vulnerabilidades.
La forma en que se afronta la reconstrucción tras un desastre no puede limitarse a la reposición de lo perdido.
Aquí surge un conflicto fundamental. Por un lado, está el «enfoque táctico» de los políticos, que necesitan acciones rápidas y visibles. Como explican los análisis de ingeniería, «la rapidez en la ejecución de ciertas obras genera la percepción de una gestión eficaz, pero este proceder puede ocultar la ausencia de una estrategia que optimice las actuaciones a largo plazo». Por otro lado, está la necesidad técnica de llevar a cabo una reflexión estratégica que requiere tiempo para analizar qué ha fallado y diseñar soluciones resilientes que no repitan los errores del pasado.
Para evitar que la urgencia impida esta reflexión, es esencial contar con un equipo de análisis, una especie de «ministerio del pensamiento», que establezca directrices fundamentadas. Esta «trampa de la reconstrucción» es común porque la reflexión es lenta y políticamente menos rentable que una foto posando en la inauguración de un puente reparado. Evitarla tras la DANA de Valencia es crucial. No se trata solo de levantar muros, sino de aprovechar esta dolorosa oportunidad para reordenar el territorio, rediseñar las infraestructuras y construir una sociedad más segura.
Tercera revelación: El clima ha roto las reglas del juego.
3. Ya no podemos utilizar el pasado como guía infalible para diseñar el futuro de nuestras infraestructuras.
Durante un siglo, la ingeniería se ha basado en una premisa fundamental que hoy es una peligrosa falsedad: que el clima del pasado era una guía fiable para el futuro. Este principio, conocido como «estacionariedad climática», ha dejado de ser válido. Esta hipótesis partía de la base de que, aunque el clima es variable, sus patrones a largo plazo se mantenían estables, lo que permitía utilizar registros históricos para calcular estadísticamente los «periodos de retorno» y diseñar infraestructuras capaces de soportar, por ejemplo, la «tormenta de los 100 años», un evento que no ocurre cada 100 años, sino que tiene un 1 % de probabilidad de suceder en cualquier año.
El cambio climático ha invalidado esta hipótesis. El clima ya no es estacionario. La frecuencia e intensidad de los fenómenos meteorológicos extremos están aumentando a un ritmo que hace que los datos históricos dejen de ser una referencia fiable. Esta no estacionariedad aumenta los «agujeros» en nuestro queso suizo de defensas, haciendo que las vulnerabilidades sistémicas sean aún más críticas.
La consecuencia es alarmante: muchas de nuestras infraestructuras (puentes, sistemas de drenaje, presas) pueden haber sido diseñadas para unas condiciones que ya no existen, lo que aumenta drásticamente el riesgo estructural. La adaptación al cambio climático no es una opción ideológica, sino una necesidad inaplazable. Esto exige una revisión completa de los códigos de diseño y los planes de ordenación del territorio. Debemos dejar de mirar exclusivamente por el retrovisor para empezar a diseñar con la vista puesta en el futuro.
Cuarta revelación: Los argumentos técnicos no ganan batallas culturales.
4. El obstáculo más grande no es técnico ni económico, sino nuestra propia mente.
Ingenieros y científicos llevan años advirtiendo sobre los riesgos. Sin embargo, estas advertencias a menudo no se traducen en la voluntad política y social necesaria para actuar. La respuesta se halla en la psicología humana. El fenómeno de la «disonancia cognitiva» explica nuestra tendencia a rechazar información que contradiga nuestras creencias más profundas. A esto se suma la «asimetría cognitiva»: la brecha de comunicación existente entre los distintos «estratos» de la sociedad (científicos, técnicos, políticos y la opinión pública). Cada grupo opera con su propia percepción de la realidad, su lenguaje y sus prioridades, lo que crea mundos paralelos que rara vez se tocan.
Esto nos lleva a una de las ideas más frustrantes para los técnicos: la creencia de que es posible convencer a alguien solo con datos es, en muchos casos, una falacia.
«Cuando intentas convencer a alguien con argumentos respecto a un prejuicio que tiene, es imposible. Es un tema mental, es la disonancia cognitiva».
Cuando un dato choca con un interés o una creencia, lo más habitual no es cambiar de opinión, sino rechazar el dato. Esto explica por qué, a pesar de la evidencia sobre ciertos riesgos, se posponen las decisiones o se toman decisiones que van en direcciones contrarias. El problema no es la falta de conocimiento técnico, sino la enorme dificultad para comunicarlo de manera que sea aceptado eficazmente por quienes toman las decisiones y por la sociedad en su conjunto. Superar esta barrera mental es, quizás, el mayor desafío de todos.
Conclusión: reconstruir algo más que edificios y puentes.
Las lecciones de la DANA de 2024 nos obligan a conectar los puntos: los desastres son fallos sistémicos (como el queso suizo), cuyas debilidades se multiplican porque el clima ha cambiado las reglas del juego (no estacionariedad); la reconstrucción debe suponer una reinvención estratégica, no una copia; y las barreras humanas, alimentadas por la disonancia cognitiva, a menudo son más difíciles de superar que cualquier obstáculo técnico.
La verdadera lección, por tanto, no se limita a la hidráulica o al urbanismo. Se trata de cómo tomamos decisiones como sociedad frente a riesgos complejos y sistémicos. Se trata de nuestra capacidad para aprender, adaptarnos y actuar con valentía y visión de futuro.
Ahora que conocemos mejor las causas profundas del desastre, ¿estamos dispuestos como sociedad a adoptar las decisiones valientes que exige una reconstrucción inteligente o la urgencia nos hará tropezar de nuevo con la misma piedra?
En este audio hay ideas que os pueden servir para entender el problema.
Os dejo un vídeo que os puede ayudar a entender las ideas principales de este artículo.
Y por último, os dejo una intervención que tuve sobre este tema en el Colegio de Ingenieros de Caminos. Espero que os interese.
Figura 1. Pala sobre neumáticos cargando dúmper. Imagen: V. Yepes
1. ¿Qué es un ciclo de trabajo y cuáles son sus componentes principales?
Un ciclo de trabajo se define como la secuencia de operaciones elementales necesarias para completar una tarea. El tiempo total necesario para realizar estas operaciones se denomina «tiempo del ciclo». Se descompone en tres tipos principales:
Tiempo fijo: Duración de operaciones que requieren un tiempo determinado, como la carga, la descarga y las maniobras.
Tiempo variable: Duración de las operaciones que dependen de las condiciones de trabajo, como la distancia en un ciclo de transporte.
Tiempo muerto de inactividad: Tiempo de espera de una máquina mientras otra está realizando una operación en un equipo coordinado.
Figura 2. Esquema de los ciclos acoplados de máquinas trabajando en equipo. Tiempo muerto en la máquina principal
2. ¿Cómo se calcula la producción de un equipo por unidad de tiempo y qué factores la afectan?
La producción por unidad de tiempo o rendimiento de un equipo se calcula multiplicando la capacidad de producción en un ciclo por el número de ciclos realizados en ese período.
La producción de una máquina o conjunto de máquinas está influenciada por múltiples factores, como el clima, la dureza del trabajo, los turnos, el estado de las máquinas, el dimensionamiento de los equipos, la habilidad del operador y la existencia de incentivos. Para estimar la producción real a partir de la producción teórica, hay que multiplicar la producción teórica por una serie de factores de producción.
3. ¿Qué es el «cuello de botella» en un equipo de máquinas y por qué es importante identificarlo?
El «cuello de botella» es el recurso o máquina que limita la producción total del equipo. Identificarlo es fundamental porque cualquier cambio en su funcionamiento afectará directamente a la capacidad de producción de todo el equipo. Por ejemplo, en un sistema de cargadora y camiones, si la cargadora espera a los camiones, estos son el cuello de botella. Si los camiones esperan a la cargadora, entonces la cargadora es el cuello de botella.
4. ¿Qué es el factor de acoplamiento (match factor) y cuál es su valor óptimo para el coste de producción?
El factor de acoplamiento es la relación entre la producción máxima posible de los equipos auxiliares y la producción máxima posible de los equipos principales, suponiendo que no hay tiempos de espera. El coste de producción más bajo se logra con factores de acoplamiento cercanos a la unidad, pero ligeramente por debajo de ella. Esto se debe a las variaciones estadísticas en los ciclos de trabajo, por lo que, incluso con un equipo bien dimensionado y un factor de acoplamiento de uno, siempre habrá tiempos de espera.
5. ¿Cómo se determina el número de máquinas principales y auxiliares necesarias para un trabajo concreto?
Este número se puede estimar conociendo los tiempos de ciclo de cada tipo de máquina. En una unidad de tiempo (por ejemplo, una hora), el número total de ciclos realizados por las máquinas principales debe ser igual al número total de ciclos realizados por las máquinas auxiliares. Esta relación se puede generalizar para múltiples tipos de máquinas.
6. ¿Cuáles son los tiempos improductivos necesarios para operar una máquina?
Se trata de tiempos imprescindibles para el desarrollo normal de un trabajo, aunque no contribuyen directamente a la producción. Incluyen:
Tiempo preparativo-conclusivo: Revisión, arranque, traslado y protección de la máquina.
Tiempo de interrupciones tecnológicas: Necesidades de la tecnología implicada, como el cambio de posición de una cuchilla.
Tiempo de servicio: Mantenimiento y atención diaria del equipo durante la jornada.
Tiempo de descanso y necesidades personales: Tiempo para prevenir la fatiga del operador y atender sus necesidades básicas.
7. ¿Qué es la «producción tipo» y cómo se relaciona con la producción real?
La «producción tipo» es la producción obtenida durante 54 minutos ininterrumpidos de trabajo, siguiendo un método específico, en condiciones determinadas y con una habilidad media del operador. Se utilizan 54 minutos por hora para estimar las pérdidas de tiempo ajenas al trabajo. En esencia, se trata de una producción teórica en condiciones específicas.
Para estimar la producción real a partir de la producción tipo, se multiplica la producción tipo por una serie de factores de producción que tienen en cuenta las condiciones reales. La producción por hora de trabajo productivo en una obra concreta se relaciona con la producción tipo mediante el factor de eficacia.
Figura 3. Determinación del tiempo tipo de un trabajo
8. ¿Cuáles son los principales factores que modifican la producción tipo y de qué depende?
Los principales factores que modifican la producción tipo para estimar la producción real son los siguientes:
Factor de disponibilidad: Relación entre el tiempo disponible y el tiempo laborable real. Depende de la máquina y del equipo de mantenimiento.
Factor de utilización: Vincula el tiempo de utilización con el de disposición. Indica la calidad de la organización y planificación de la obra.
Eficiencia horaria, factor de eficacia o factor operacional: Cociente entre la producción media por hora de utilización y la producción tipo. Considera tiempos no productivos como traslados y preparación. Depende de la selección del personal y el método de trabajo.
Es importante señalar que solo el factor de disponibilidad depende directamente de la máquina; los demás están vinculados a la organización de la obra, la selección del personal y el método de trabajo.
Os dejo un audio que recoge estas ideas. Espero que os sea interesante.
También un vídeo explicativo del contenido.
Glosario de términos clave
Ciclo de trabajo: Serie completa de operaciones elementales necesarias para realizar una tarea o labor.
Tiempo del ciclo: Duración total invertida en completar un ciclo de trabajo.
Tiempo fijo: Parte del tiempo del ciclo que corresponde a operaciones de duración constante, independientemente de las condiciones de trabajo (ej., carga, descarga).
Tiempo variable: Parte del tiempo del ciclo que depende de las condiciones específicas de la operación (ej., distancia de transporte).
Tiempo muerto de inactividad: Período de espera de una máquina, usualmente debido a la necesidad de sincronización con otra máquina en una operación conjunta.
Cuello de botella: El recurso dentro de un equipo de trabajo que limita la producción total del conjunto.
Factor de acoplamiento (Match Factor): Relación entre la máxima producción posible de los equipos auxiliares y la máxima producción posible de los equipos principales, idealmente sin tiempos de espera.
Producción: La transformación de elementos para obtener productos terminados o resultados útiles, a menudo asociados a unidades de obra en construcción.
Capacidad de producción: Cantidad de producto generado en un solo ciclo de trabajo.
Rendimiento: Producción por unidad de tiempo de un equipo.
Producción teórica: La producción esperada de un equipo bajo condiciones ideales o de diseño.
Producción real: La producción efectiva de un equipo, considerando las condiciones y factores operativos reales en una obra.
Factores de producción: Coeficientes utilizados para ajustar la producción teórica y obtener una estimación más precisa de la producción real, considerando diversas variables de la obra.
Tiempo productivo: Tiempo en el que el equipo trabaja directamente en la ejecución de una operación, ya sea principal o auxiliar.
Tiempos improductivos necesarios: Tiempos no productivos, pero esenciales para el desarrollo normal del trabajo (ej., preparativo-conclusivo, interrupciones tecnológicas, servicio, descanso).
Producción tipo: Producción obtenida en 54 minutos ininterrumpidos de trabajo bajo un método y condiciones específicas, con un operador de habilidad media. (Referencia a la hora reducida de 54 minutos útiles).
Factor de disponibilidad: Relación entre el tiempo que una máquina está disponible para trabajar y el tiempo laborable real. Refleja el estado mecánico y de mantenimiento.
Factor de utilización: Relación entre el tiempo que una máquina es utilizada efectivamente y el tiempo que está disponible. Refleja la organización y planificación de la obra.
Eficiencia horaria / Factor de eficacia: Cociente entre la producción media por hora de utilización y la producción tipo. Considera los tiempos de trabajo no productivo dedicados a tareas auxiliares y la habilidad del personal.
Producción media por hora laborable real: La producción promedio de un equipo durante una hora efectiva de trabajo, considerando todos los factores de corrección.
Índice de paralizaciones: Relación entre las interrupciones debidas a la organización, mal acoplamiento o averías de otras máquinas, y el tiempo laborable real.
Factor de aprovechamiento: Cociente entre el tiempo de utilización de una máquina y el tiempo laborable real. Es el producto del factor de disponibilidad y el factor de utilización.
Equipo en cadena: Un conjunto de máquinas donde la producción de una está ligada al trabajo de la que le precede, y la paralización de una detiene toda la cadena.
Equipo en paralelo: Un conjunto de máquinas iguales que trabajan simultáneamente, y la producción total es la suma de las producciones individuales o la probabilidad de que un cierto número de ellas esté activa.
Disponibilidad intrínseca: La disponibilidad de una máquina individual en un conjunto paralelo, sin considerar las interrupciones por organización.
¿Qué es la productividad y por qué es crucial para una empresa?
La productividad se define como la relación entre los bienes y servicios producidos y los recursos empleados para ello. Es un indicador vital para cualquier actividad empresarial, ya que las empresas que no mejoran su productividad con respecto a la de sus competidores están abocadas a desaparecer. Un aumento de la producción no siempre implica un aumento de la productividad; para conseguirlo, es necesario buscar la eficiencia en todos los procesos de la empresa. La mejora de la productividad conlleva una reducción de costes y plazos, lo que incrementa la competitividad a largo plazo.
¿Cuál es la diferencia entre productividad y rendimiento?
La productividad se refiere a la relación entre la producción y los recursos consumidos. El rendimiento, por otro lado, es el cociente entre lo realizado y lo previsto, ya sea en relación con la producción o con el tiempo dedicado a una actividad. El rendimiento contribuye a aumentar o disminuir la productividad modificando la eficiencia de los medios de producción, pero no los medios en sí mismos. La pérdida de productividad a menudo se debe a ineficiencias en el tiempo total invertido en una operación.
¿Cómo se puede aumentar la productividad de una empresa, según la OIT?
De acuerdo con la Organización Internacional del Trabajo (OIT), existen dos categorías principales de medios directos para aumentar la productividad.
Inversión de capital: Esto incluye idear nuevos procedimientos básicos o mejorar fundamentalmente los existentes, así como instalar maquinaria o equipo más moderno y de mayor capacidad, o modernizar los ya existentes.
Mejor dirección: Implica reducir el contenido de trabajo del producto, reducir el contenido de trabajo del proceso y reducir el tiempo improductivo, ya sea imputable a la dirección o a los trabajadores.
¿Qué es el estudio del trabajo y cuáles son sus componentes principales?
El estudio del trabajo es un término que engloba técnicas para examinar tareas humanas en todos sus contextos con el fin de investigar sistemáticamente los factores que influyen en la eficiencia y la economía, y así poder introducir mejoras. Se trata de una herramienta fundamental para alcanzar objetivos y tomar decisiones. Consta de dos técnicas interrelacionadas:
Estudio de métodos: Se enfoca en cómo se realiza un trabajo, buscando formas más sencillas y eficientes para reducir costes.
Medición del trabajo: Su objetivo es determinar cuánto tiempo se requiere para ejecutar una tarea definida por un trabajador calificado, según normas y rendimientos preestablecidos.
¿Cuáles son los objetivos principales del estudio de métodos?
El estudio de métodos busca registrar y examinar críticamente de forma sistemática los factores y recursos involucrados en los sistemas de ejecución existentes y propuestos. Sus objetivos son:
Mejorar los procesos y los procedimientos.
Optimizar la disposición del lugar de trabajo, el diseño del equipo y las instalaciones.
Economizar el esfuerzo humano y reducir la fatiga innecesaria.
Mejorar la utilización de materiales, máquinas y mano de obra.
Crear mejores condiciones de trabajo.
¿Cuáles son las fases clave para implementar un estudio de mejora de métodos?
Para abordar y llevar a la práctica un estudio de mejora de métodos, se siguen cinco fases generales:
Elección y definición del problema: Identificar el trabajo a analizar que ofrecerá la mayor rentabilidad.
Observación y registro del método actual: Recopilar datos sobre cómo se realiza el trabajo actualmente.
Análisis del método actual: Cuestionar sistemáticamente cada aspecto del método actual (qué, dónde, cuánto, quién, cómo, cuándo) para identificar ineficiencias.
Desarrollo del método mejorado: Basándose en el análisis, buscar posibilidades como eliminar trabajo innecesario, combinar operaciones, cambiar el orden de ejecución o simplificar las operaciones.
Aplicación y mantenimiento del nuevo método: Una vez aprobado por la dirección, implementar el nuevo método y vigilar periódicamente su cumplimiento.
¿Qué son los diagramas de proceso y qué tipos se mencionan?
Los diagramas de procesos (o cursogramas) son representaciones gráficas de los eventos que ocurren durante una serie de acciones u operaciones, junto con información relevante. Durante un proceso, se identifican cinco tipos de acciones: operación, transporte, inspección, demora y almacenamiento. Entre los tipos de diagramas de proceso se incluyen:
Diagrama de las operaciones del proceso (operation process-chart): Muestra los puntos donde se introducen los materiales, la secuencia de inspecciones y todas las operaciones (excepto el manejo de materiales), incluyendo tiempo y localización. Útil para procesos complicados o nuevos.
Diagrama del análisis del proceso del recorrido (flow process-chart): Representa todas las operaciones, transportes, inspecciones, demoras y almacenajes, con información sobre tiempo requerido y distancia recorrida. Se construye determinando el producto y unidad, anotando fases, uniendo símbolos, y midiendo distancias y duraciones.
Diagramas planimétricos de flujo o diagrama de recorrido: Representación gráfica sobre un plano del área de actividad, mostrando la ubicación de los puestos de trabajo y el trazado de movimientos de hombres y/o materiales. Ayuda a identificar áreas congestionadas, avances y retrocesos, y a mejorar la distribución de la planta. Se utiliza la misma simbología que el diagrama de proceso.
¿Qué son los gráficos de actividades simultáneas y cuál es su propósito?
Los gráficos de actividades simultáneas o múltiples son herramientas que se utilizan para registrar y estudiar las actividades interdependientes de personas y máquinas. Su objetivo principal es reducir el número y la duración de los tiempos improductivos (paradas y esperas). La técnica consiste en representar el trabajo de cada recurso en una escala de tiempos común para visualizar las interrelaciones entre ellos y examinar y analizar el método con el fin de eliminar los periodos de inactividad.
Referencias:
PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.
En artículos anteriores, ya he explicado cuáles son las características que debería tener una reconstrucción tras una catástrofe. Argumenté entonces que limitarse a devolver la situación al estado previo al desastre supone, en la práctica, que la sociedad acepte que los efectos del desastre se repetirán y eso es inasumible. Para ilustrarlo, imaginemos una familia —una pareja, dos niños pequeños y una persona mayor— circulando en un coche por la autopista a 120 km/h sin llevar cinturones de seguridad: bastaría con que se cruzara un animal en la carretera para que el accidente fuera mortal. Esa es precisamente la analogía de lo que supone enfrentarse a una nueva DANA, como la que sufrió Valencia en 2024: aun suponiendo que la reconstrucción hubiera sido rápida y eficaz, restableciendo viviendas, servicios e infraestructuras al estado anterior a la catástrofe, no se ha llevado a cabo una actuación integral de defensa que proteja realmente a la población.
Hay quien opina que lo mejor sería «no coger el coche», es decir, evacuar a la población de las zonas inundables. Sin embargo, otros pensamos que, en muchas ocasiones, merece la pena «ponerse los cinturones», equipar el «vehículo» con airbags, silla de retención infantil y todas las medidas de protección necesarias para circular con seguridad por esa autopista. La solución no es sencilla, pero, ocho meses y medio después de la DANA, tengo la impresión de que todavía falta algo más que reconstruir. Hay que iniciar las acciones integrales que protejan a la población. En este sentido, remito al lector a la Iniciativa Legislativa Popular para la Modificación de la Ley de Aguas, en apoyo de este tipo de acciones integrales.
La creciente frecuencia e intensidad de las DANAs en el Mediterráneo sitúan a la Comunidad Valenciana como una región especialmente vulnerable a eventos extremos de lluvia y avenidas repentinas. Según la Agencia Europea de Medio Ambiente, fenómenos como la DANA de octubre de 2024 anticipan un repunte continuado de inundaciones terrestres y costeras, con episodios que superarán con frecuencia las expectativas de diseño de las infraestructuras actuales (eea.europa.eu).
Vulnerabilidad de infraestructuras en reconstrucción
A mediados de 2025, muchas obras de renovación de redes de drenaje, carreteras y puentes seguirán en fase de ejecución. Las soluciones parciales adoptadas, como bombeos provisionales, diques temporales y canalizaciones pendientes, no están concebidas para resistir lluvias extremas. Una nueva DANA podría dañar o destruir tramos sin concluir, lo que obligaría a reiniciar los proyectos, encarecer los materiales y prolongar los plazos de entrega. Además, la falta de flexibilidad constatada en los contratos públicos dificulta la adaptación rápida de las obras a las variaciones atmosféricas imprevistas (joint-research-centre.ec.europa.eu).
Agotamiento financiero y riesgo de “efecto dominó”
Hasta la fecha, las administraciones centrales, autonómicas y locales han movilizado más de 29 000 millones de euros en ayudas y obras. Sin embargo, los presupuestos aprobados para 2025 contemplan márgenes muy ajustados. Un nuevo desembolso urgente de una magnitud similar tensionaría la capacidad de endeudamiento, obligaría a redirigir partidas previstas para servicios esenciales (sanidad, educación, mantenimiento urbano) y podría provocar recortes en la inversión pública. El Network for Greening the Financial System advierte de que los eventos climáticos repetidos podrían provocar una caída del 5 % del PIB de la eurozona en los próximos cinco años, comparable a crisis financieras previas (Reuters).
Impactos socioeconómicos acumulativos
La población y las empresas locales aún no se han recuperado plenamente de la DANA de 2024. Los hogares que tramitaron reclamaciones a los seguros podrían ver reabiertos sus expedientes, las pymes del sector primario y del turismo de interior perderían de nuevo ingresos críticos en temporada alta y los autónomos que volvieron a la normalidad tras recibir ayudas iniciales se enfrentarían de nuevo a la incertidumbre. Esta inestabilidad puede traducirse en migración temporal de trabajadores, aumento del paro en economías locales dependientes del sector primario y ralentización de la reconstrucción social (The Guardian).
Agravamiento del daño ambiental
Las intervenciones de emergencia han empleado grandes cantidades de áridos y han adoptado medidas provisionales en los cauces y las riberas. Una nueva inundación arrastraría sedimentos contaminados, dificultaría la recuperación de los ecosistemas fluviales y aceleraría la pérdida de biodiversidad. Según estudios del Joint Research Centre, la combinación de construcciones urgentes y posteriores avenidas pone en riesgo la productividad primaria del litoral mediterráneo, lo que podría suponer pérdidas anuales de hasta 4700 millones de euros en el sector pesquero si no se implementan medidas de adaptación más eficaces (joint-research-centre.ec.europa.eu).
Erosión de la confianza ciudadana y gobernanza
Encuestas recientes indican que más del 65 % de las personas afectadas considera que la respuesta institucional es insuficiente. Un segundo episodio destructivo reforzaría la percepción de incapacidad de las administraciones, lo que desencadenaría protestas ciudadanas y obstaculizaría la aprobación de nuevos créditos en las Cortes y en Les Corts. La escasa coordinación inicial entre los distintos niveles de gobierno en 2024 sentaría un precedente de fragmentación política que dificultaría tanto la gestión de la crisis como la aplicación de soluciones a medio plazo (eea.europa.eu).
Consecuencias sobre la salud mental y sanitaria
El síndrome postraumático de las víctimas y supervivientes de la DANA de 2024 aún no se ha tratado en profundidad. Un nuevo impacto reactivaría el estrés colectivo, incrementaría la demanda de atención psicológica y tensionaría un sistema sanitario que ya está volcado en equilibrar la recuperación y las campañas de salud pública. La EEA advierte de que los efectos de las inundaciones repetidas no solo incluyen lesiones físicas, sino también trastornos mentales, infecciones y problemas crónicos derivados de la exposición prolongada a entornos contaminados (eea.europa.eu).
Conclusión
La probabilidad de una nueva DANA en otoño de 2025 supone un riesgo multidimensional que compromete obras en curso, presiona las finanzas públicas, frena la recuperación socioeconómica, daña el medio ambiente, debilita la confianza institucional y agrava la carga sobre la salud mental y física de la población. Solo mediante un enfoque preventivo que combine adaptación estructural, innovación en sistemas de alerta temprana y planificación urbanística, la Comunidad Valenciana podrá afrontar un nuevo evento de este tipo sin sucumbir a un «efecto multiplicador» de crisis.
Os paso a continuación una entrevista que me han hecho en Hoy por hoy Comunitat Valenciana, de la Cadena Ser y un enlace a la noticia. Espero que os sea de interés.
¿Cuáles son los objetivos principales del mantenimiento de la maquinaria y cómo se clasifica?
El mantenimiento de la maquinaria de construcción tiene como objetivos fundamentales maximizar su disponibilidad al mínimo coste, optimizar su rendimiento y garantizar unas condiciones óptimas de operatividad y seguridad. Esto se traduce en la reducción de costes debidos a paradas accidentales, minimizando las pérdidas de producción y los gastos propios del mantenimiento, así como en la limitación del deterioro de la maquinaria para evitar la disminución de la calidad del producto.
Las tareas de mantenimiento se clasifican en niveles según la importancia de la obra y sus misiones específicas. Por ejemplo, en una empresa constructora típica, el primer escalón (conductoras y conductores) se encarga del mantenimiento diario, semanal o quincenal (limpieza, repostaje, engrase y reparaciones de urgencia). El segundo escalón (equipos de obra) se encarga del mantenimiento mensual, trimestral o semestral, que incluye revisiones, ajustes ligeros y localización de averías. Los escalones superiores (el tercero y el cuarto, talleres móviles y fijos) se dedican a reparaciones más complejas, a la sustitución de piezas y a grandes reconstrucciones.
No existe una clasificación rígida de los sistemas de mantenimiento y cada empresa debe elegir el más adecuado para cada máquina. Sin embargo, pueden clasificarse principalmente en:
Corrección por avería: Se permite que los equipos funcionen hasta que fallen, y luego se reparan lo antes posible. Aunque a corto plazo puede parecer económico, a medio y largo plazo puede generar costes elevados debido a la imposibilidad de programar las paradas y al riesgo de fallos graves, lo que disminuye la eficiencia del servicio. Solo se justifica en contadas ocasiones o cuando se trata de muchas máquinas iguales y hay capacidad de sobra.
Mantenimiento rutinario: Se establecen instrucciones generales para el mantenimiento de grupos homogéneos de máquinas, basado en la experiencia, para prevenir fallos. Es de bajo costo y puede resolver muchas averías antes de que ocurran.
Mantenimiento preventivo planificado: Se establecen ciclos de revisiones y sustituciones de componentes importantes según las instrucciones del fabricante y el uso de la máquina. Esto permite registrar averías y prever la vida útil de los elementos. Aunque es más costoso a corto plazo, resulta más ventajoso a medio y largo plazo, ya que permite programar los tiempos de inactividad y evitar fallos catastróficos, lo que aumenta la eficacia general. El objetivo es reparar antes de que se produzca una avería importante, lo que resulta más rápido y económico.
En resumen, el mantenimiento preventivo planificado es el más ventajoso a medio y largo plazo, ya que permite anticiparse a los problemas, reducir los costes y los tiempos de reparación, y aumentar la eficacia del servicio.
El tiempo que una máquina permanece en obra se divide en varias categorías, lo que afecta directamente el costo horario y la producción.
Tiempo de calendario laborable (fondo horario bruto): Horas reconocidas por la legislación laboral y la organización para trabajar.
Tiempo laborable real (fondo horario operacional): Horas de presencia efectiva de la máquina en obra, descontando circunstancias fortuitas como fenómenos atmosféricos, huelgas o catástrofes. Incluye horas extraordinarias.
Tiempo de máquina en disposición (fondo horario de explotación): Horas en las que la máquina está operativa y lista para trabajar, excluyendo paradas menores a 15 minutos.
Tiempo fuera de disposición: Horas en las que la máquina no está operativa, divididas en:
Mantenimiento: Tareas previsibles.
Averías: Reparaciones imprevisibles.
Parada por organización de obra: Tiempo de inactividad por causas ajenas a la máquina (falta de tajo, suministros, averías de otras máquinas, etc.).
Tiempo de trabajo útil: Horas netas donde la máquina produce, incluyendo trabajo productivo y trabajo no productivo o complementario.
Esta distribución temporal implica que el coste horario de una máquina varía en función de la referencia. Para el propietario, el coste se evalúa en relación con la hora de utilización, mientras que, en el caso de un alquiler, se refiere a la hora laborable real. Ampliar la jornada laboral para aumentar las horas útiles puede disminuir el coste horario fijo y acortar los plazos, pero hay que sopesarlo con inconvenientes como el aumento de costes por horas extra del operario, su fatiga y la dilución de responsabilidades si hay varios conductores, lo que puede incrementar las averías.
¿Cómo se calcula la fiabilidad de un equipo de construcción y cuáles son las fases de su vida útil según la «curva de la bañera»?
La fiabilidad se define como la probabilidad de que una unidad funcione correctamente en un intervalo de tiempo determinado sin interrupciones debidas a fallos de sus componentes, en condiciones establecidas. Está relacionada con el tiempo medio entre fallos (TMEF), que es la relación entre las horas de funcionamiento y el número de averías sufridas en ese período.
La «curva de la bañera» describe la evolución de la tasa de fallos de una máquina a lo largo del tiempo y se divide en tres fases:
Período de mortalidad infantil o fallos prematuros: Caracterizado por una alta tasa de fallos que disminuye rápidamente. Las causas suelen ser errores de diseño, fabricación o uso. Estos fallos ocurren en la fase de rodaje y, una vez resueltos, no suelen repetirse.
Período de tasa de fallos constante o vida útil: Los fallos aparecen de forma aleatoria y accidental, debidos a limitaciones de diseño, percances por uso o mal mantenimiento. Es el período ideal de utilización de la máquina.
Período de desgaste: La tasa de fallos aumenta con el tiempo debido a la vejez y el fin de la vida útil. En esta fase, se recomienda el reemplazo preventivo de componentes o incluso la renovación completa del equipo para evitar incidentes catastróficos.
Figura 2. Curva de fiabilidad de una máquina
Para alargar su vida útil, se puede aplicar el envejecimiento preventivo (funcionamiento preliminar para detectar fallos prematuros) y la sustitución preventiva (reemplazo de unidades al finalizar su vida útil para evitar fallos).
¿Cómo se modela la fiabilidad de una máquina y qué técnicas de prevención de fallos se utilizan en el diseño?
La fiabilidad de una máquina puede modelarse mediante la distribución exponencial cuando la tasa de fallos es constante durante el período de vida útil. Esto implica que la ocurrencia de un fallo es imprevisible e independiente de la vida útil del equipo. Una generalización de este modelo es la función de Weibull, que se utiliza cuando la tasa de fallos es variable y permite tener en cuenta las fases de fallos precoces y de envejecimiento.
En lo que respecta a las técnicas de prevención de fallos en el diseño de equipos, las empresas se centran en maximizar la fiabilidad del producto. Algunas metodologías clave son:
Despliegue de la Función de Calidad (QFD): Permite traducir los requisitos de calidad del cliente en características técnicas del producto, utilizando matrices para analizar necesidades, competencia y nichos de mercado.
Análisis Modal de Fallos y Efectos (AMFE): Una metodología estructurada para identificar y prevenir modos de fallo potenciales y sus causas en un producto o sistema.
Análisis del valor: Busca reducir el coste del producto sin eliminar las características esenciales demandadas por los clientes, identificando cambios que aumenten el valor sin un incremento desproporcionado del coste.
¿Cómo influyen las condiciones climáticas y otros imprevistos en la planificación del tiempo de trabajo en una obra de construcción?
Las condiciones climáticas y otros imprevistos son factores cruciales que influyen en el plazo de ejecución de una obra. La planificación del tiempo de trabajo disponible se basa en datos históricos del clima y en el calendario laboral.
El método de la Dirección General de Carreteras, por ejemplo, utiliza coeficientes de reducción aplicados al número de días laborables de cada mes para estimar los días efectivamente trabajados. Estos coeficientes tienen en cuenta:
Temperatura límite: Por debajo de la cual no se pueden ejecutar ciertas unidades de obra (ej., 10 ºC para riegos bituminosos, 5 ºC para mezclas bituminosas, 0 ºC para manipulación de materiales húmedos).
Precipitación límite diaria: Se definen valores como 1 mm/día para trabajos sensibles a lluvia ligera y 10 mm/día para la mayoría de los trabajos, donde una protección especial sería necesaria.
Los días utilizables netos de cada mes se calculan multiplicando los días laborables por los coeficientes reductores por climatología adversa y por los días no laborables, que dependen de festivos y convenios laborales. La reducción de días representa la probabilidad de que un día del mes sea favorable desde el punto de vista climático y laborable. Estos cálculos permiten elaborar un plan de obra lo más ajustado posible, minimizando las desviaciones de plazo, aunque la evolución del tiempo atmosférico es impredecible en la práctica.
¿Qué se entiende por «disponibilidad» de una máquina en obra y cómo se calcula?
La disponibilidad de una máquina se refiere a su estado operativo, es decir, al tiempo en el que se encuentra disponible. Se pueden distinguir dos tipos principales de disponibilidad:
Disponibilidad en obra o factor de disponibilidad: Se define como el cociente entre el tiempo en que una máquina se encuentra en estado operativo y el tiempo laborable real. En otras palabras, es la relación entre las horas brutas de disponibilidad y las horas que la máquina ha estado presente en la obra. Valores bajos de este factor pueden indicar una mala conservación, reparaciones lentas o falta de repuestos.
Disponibilidad intrínseca: Se define como el cociente entre el tiempo de utilización y el tiempo laborable real, sin tener en cuenta las paradas ajenas a la máquina por tiempo disponible no utilizado (mala organización de la obra, etc.). Estadísticamente, se define como la probabilidad de que una máquina funcione correctamente en un momento determinado o de que no presente averías irreparables en un tiempo máximo.
Las máquinas se clasifican en «principales» (se requiere alta disponibilidad, ya que su fallo paraliza la producción de un conjunto de máquinas) y «secundarias» o «de producción trabajando solas».
¿Cómo se calcula la disponibilidad de un conjunto de máquinas trabajando en cadena y en paralelo?
La disponibilidad de un sistema de máquinas varía significativamente en función de si trabajan en serie o en paralelo.
Máquinas trabajando en cadena (serie): Si n máquinas trabajan en cadena, y el fallo de una paraliza a las demás, la disponibilidad intrínseca del conjunto es el producto de las disponibilidades individuales. Esto significa que la disponibilidad general disminuye rápidamente al aumentar el número de máquinas en serie. Si se admiten acopios intermedios suficientemente grandes, la disponibilidad del equipo sería el mínimo de las disponibilidades individuales, lo que amplía la disponibilidad respecto a no tener acopios.
Máquinas trabajando en paralelo: Si n máquinas iguales trabajan en paralelo y la inoperatividad de una no detiene completamente el proceso (ya que otras pueden seguir trabajando), la probabilidad de que x máquinas se encuentren en disposición sigue una distribución binomial. En este caso, la disponibilidad del conjunto aumenta al tener más unidades en paralelo, ya que el sistema puede continuar operando incluso si algunas máquinas fallan.
En un caso general de máquinas principales en paralelo y auxiliares en paralelo que luego trabajan en serie, la disponibilidad del conjunto se calcula combinando las fórmulas de disponibilidad en serie y en paralelo.
Referencias:
PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.
En la ingeniería o la arquitectura, la estimación de costes no constituye únicamente una labor técnica, sino que representa un componente esencial en la planificación, gestión y toma de decisiones de todo proyecto. Ya sea para la construcción de una presa, una carretera o una infraestructura ferroviaria, es fundamental contar con una estimación precisa, bien fundamentada y comunicada adecuadamente, ya que esto puede marcar la diferencia entre el éxito y el fracaso de una iniciativa. En el presente artículo, se aborda la evaluación de las competencias que constituyen una estimación de costes sólida y conforme a las normas profesionales y las prácticas óptimas del sector.
Una estimación de costes sólida y confiable debe cumplir con cuatro características relevantes: exhaustividad, razonabilidad, credibilidad y solidez analítica. Estos principios aseguran que el análisis sea riguroso desde el punto de vista técnico, así como útil y comprensible para quienes toman decisiones.
En primer lugar, toda estimación sólida debe basarse en el rendimiento histórico de programas anteriores. Por lo tanto, es necesario utilizar datos de proyectos análogos como referencia, ya sean similares en alcance, naturaleza o contexto, para respaldar el análisis. Estas experiencias previas deben estar claramente identificadas como fuentes de datos, aportando así transparencia y reforzando la confianza en los resultados.
Sin embargo, si bien los datos históricos constituyen el punto de partida, es imperativo considerar las posibles mejoras en diseño, materiales y procesos constructivos que puedan incorporarse en el nuevo proyecto. A pesar de la ausencia de datos empíricos que respalden estos avances, es necesario evaluar su impacto de manera rigurosa y fundamentada. En tales circunstancias, se acude al juicio profesional o conocimiento experto (también denominado subject matter expertise), cuya aplicación debe estar debidamente documentada y justificada.
Otro aspecto clave es la claridad en la comunicación. Una estimación sólida debe ser comprensible, especialmente para los responsables de programas y directivos que, si bien toman decisiones estratégicas, pueden carecer del tiempo o del perfil técnico necesario para profundizar en los detalles metodológicos. Por ello, se recomienda optar por enfoques sencillos, evitando complejidades innecesarias, para que la estimación pueda ser fácilmente interpretada por sus destinatarios.
Asimismo, es preciso identificar las reglas de base y los supuestos. Como se suele decir en el ámbito del análisis: «Permítame realizar las suposiciones, y usted podrá realizar los cálculos». Esta frase resume la enorme influencia que tienen las hipótesis en cualquier estimación. Si bien es difícil que todos los agentes implicados compartan exactamente los mismos supuestos, la mejor estrategia consiste en incorporar análisis de sensibilidad. Estos instrumentos permiten evaluar la variación de la estimación ante diferentes escenarios y contribuyen a una gestión más eficiente de la incertidumbre.
Precisamente, una buena estimación debe abordar de forma explícita los riesgos y las incertidumbres inherentes al proyecto. Si bien el resultado final se manifiesta a través de una cifra concreta —conocida como «punto estimado»—, es importante destacar que dicha cifra es el resultado de una serie de supuestos. Por lo tanto, es posible que esta haya variado si los supuestos hubiesen sido distintos. Por tanto, es esencial señalar las sensibilidades del modelo y mostrar cómo afectan al resultado final, para ofrecer una visión más completa y realista del coste previsto.
Desde una perspectiva técnica, existen otras cualidades que refuerzan la validez y utilidad de la estimación. Una de las características esenciales que debe cumplir es que esté impulsada por los requisitos del proyecto. Resulta improcedente solicitar una estimación del coste de rehabilitar una cocina sin definir previamente el alcance de dicha rehabilitación. En el ámbito de los proyectos civiles de gran envergadura, resulta imperativo que los requisitos funcionales y técnicos se encuentren debidamente documentados, ya sea a través de especificaciones técnicas, documentos de alcance, solicitudes de propuesta (RFP) o, en el caso de proyectos públicos, mediante instrumentos normalizados como el «Cost Analysis Requirements Description» (CARD).
Otra condición esencial es que el proyecto esté suficientemente definido desde el punto de vista técnico y que se hayan identificado las áreas de mayor riesgo. De este modo, se garantizará una selección meticulosa de la metodología de estimación más apropiada y una aplicación precisa de las herramientas de análisis.
En proyectos de gran envergadura, especialmente en el ámbito público, se recomienda disponer de una estimación independiente. Esta función de validación externa contribuye a reforzar la credibilidad del análisis. De igual manera, es importante contar con estimaciones independientes que respalden los presupuestos en los grandes proyectos.
Finalmente, una estimación de calidad debe ser trazable y auditable. Por lo tanto, es imperativo que sea posible reconstruirla a partir de los datos, supuestos y fuentes utilizadas. Existe un consenso tácito entre los profesionales de la estimación, según el cual cualquier individuo con conocimientos básicos de análisis cuantitativo debería estar en condiciones de seguir los pasos del cálculo, aplicar los datos y reproducir el resultado. La transparencia, por tanto, no es solo un valor añadido, sino un requisito indispensable para asegurar la fiabilidad del proceso.
En el ámbito de la ingeniería civil, donde los proyectos conllevan frecuentemente inversiones significativas y pueden afectar a miles de personas, la estimación de costes deja de ser una tarea secundaria para convertirse en una herramienta estratégica esencial. El cálculo de cifras por sí solo no es suficiente; es imperativo comprender el proyecto en su totalidad, anticipar escenarios, comunicar con claridad y tomar decisiones con fundamento.
Invito a todas las personas —ya sean profesionales con experiencia o estudiantes en proceso de formación— a considerar la estimación de costes no como un mero trámite técnico, sino como una disciplina que integra ciencia, experiencia y criterio. Reflexionar sobre el proceso de construcción de nuestras estimaciones, los supuestos que las sustentan y la manera en que las comunicamos, puede resultar fundamental para mejorar la eficiencia, la transparencia y la sostenibilidad de nuestras infraestructuras.
Glosario de términos clave
Estimación de costes: Proceso de predecir el coste monetario de un proyecto o iniciativa, basándose en datos disponibles, supuestos y metodologías de análisis.
Exhaustividad: Característica de una estimación que implica considerar todos los elementos relevantes del proyecto y sus posibles costes asociados.
Razonabilidad: Característica que indica que la estimación está lógicamente estructurada y los valores utilizados tienen sentido dentro del contexto del proyecto y la experiencia previa.
Credibilidad: Característica que denota la confianza en la estimación, basada en la solidez de la metodología, la transparencia en los datos y supuestos, y la validación (interna o externa).
Solidez analítica: Característica que se refiere a que la estimación se basa en métodos de análisis cuantitativos rigurosos y bien aplicados.
Rendimiento histórico: Datos de coste y ejecución de proyectos anteriores similares que se utilizan como base empírica para una nueva estimación.
Juicio profesional (o conocimiento experto): Aplicación de la experiencia y conocimiento de expertos en la materia para realizar estimaciones o tomar decisiones cuando los datos empíricos son limitados.
Reglas de base y supuestos: Las hipótesis fundamentales y las condiciones iniciales que subyacen a una estimación y sobre las cuales se realizan los cálculos.
Análisis de sensibilidad: Técnica que evalúa cómo varía el resultado de una estimación cuando se modifican los supuestos o parámetros clave, ayudando a entender el impacto de la incertidumbre.
Punto estimado: La cifra única que representa el resultado más probable o esperado de la estimación de costes.
Requisitos del proyecto: Las especificaciones funcionales, técnicas y de rendimiento que definen el alcance y los objetivos de un proyecto, y que deben impulsar la estimación de costes.
Cost Analysis Requirements Description (CARD): Instrumento normalizado, especialmente en proyectos públicos, que documenta los requisitos necesarios para realizar un análisis de costes.
Estimación independiente: Una estimación de costes realizada por un equipo o entidad separada del equipo principal del proyecto, con el fin de validar o contrastar la estimación principal.
Trazabilidad: La capacidad de seguir y documentar el proceso de estimación, desde los datos y supuestos iniciales hasta el resultado final.
Auditabilidad: La capacidad de verificar la exactitud y fiabilidad de una estimación, examinando los datos, métodos y supuestos utilizados, de modo que otro analista pueda reproducirla.
Referencias:
Mislick, G. K., & Nussbaum, D. A. (2015). Cost estimation: Methods and tools. John Wiley & Sons.