El factor humano: motivación y calidad en el trabajo.

Introducción: El enigma de la productividad.

Desde el estallido de la Revolución Industrial a finales del siglo XIX, el mundo empresarial ha estado obsesionado con una creencia persistente: que la productividad depende de la presión y la vigilancia.

Según el modelo de Taylor, el trabajador no era más que un engranaje reemplazable en una maquinaria sedienta de precios bajos y de alta competitividad. Sin embargo, en el complejo ecosistema actual, nos enfrentamos a un dilema que el capital, por sí solo, no puede resolver: ¿qué lleva realmente a una persona a buscar la excelencia?

La respuesta es la motivación, un concepto que a menudo se malinterpreta en el liderazgo moderno. Etimológicamente derivada del latín motus, la motivación es un «ensayo mental preparatorio» de la acción. No se trata de un impulso externo, sino de un catalizador interno que surge del deseo de satisfacer una necesidad. Para el estratega organizacional, la lección es clara: la verdadera productividad surge cuando el individuo se siente atraído por los objetivos, no empujado hacia ellos.

Lección 1: La motivación es un «ensayo mental», no una orden externa.

En psicología de la calidad, la motivación no es un accesorio decorativo, sino el prerrequisito de la competencia técnica. Muchos líderes cometen el error de intentar «imponer» la calidad mediante decretos, ignorando que el control externo tiene un límite insalvable.

La verdadera motivación en la gestión de la calidad se manifiesta cuando el trabajador interioriza el concepto de «adecuación del producto al uso». Este compromiso va más allá del mero cumplimiento de horarios. Un operario motivado es aquel que:

  • Sigue con rigor el plan de control establecido.
  • Acepta con apertura los métodos de entrenamiento y de reentrenamiento.
  • Adopta con agilidad las nuevas tecnologías.

Cuando el deseo es interno, la vigilancia constante resulta innecesaria. El líder no debe imponer la calidad, sino diseñar el entorno en el que el trabajador decida ejecutarla.

Lección 2: El efecto Hawthorne y el poder de ser escuchado.

En la década de 1920, el psicólogo Elton Mayo desmontó el mito del «hombre-máquina» mediante sus estudios en la Western Electric Company y en la fábrica textil de Filadelfia. Entre 1923 y 1924, Mayo demostró que pequeñas intervenciones en el trato humano aumentaban considerablemente la producción. Al permitir que los trabajadores programaran sus propios periodos de descanso, el absentismo se desplomó y la actitud cambió.

«El salario no es la única motivación del trabajador y un cierto nivel de libertad y autocontrol mejora los índices de productividad».

Este descubrimiento demostró que el rendimiento no es una respuesta mecánica a la iluminación o al entorno físico, sino una respuesta emocional a la atención de la gerencia. El hecho de ser escuchado es, en sí mismo, un factor de productividad.

Lección 3: Supervisores centrados en las personas frente a supervisores centrados en la producción.

Los estudios de Michigan aportaron una distinción fundamental para cualquier estratega: el estilo del supervisor es el principal predictor de la eficiencia del grupo. La investigación comparó dos estilos de liderazgo: el obsesionado con la producción y el centrado en los empleados.

El veredicto fue contundente: el supervisor centrado en los empleados, que prioriza el respeto, la dignidad y las necesidades humanas, obtuvo resultados consistentemente superiores. Mientras que el enfoque en la producción se limita a la vigilancia, el enfoque humano genera una lealtad que se traduce en un rendimiento que ninguna cámara de seguridad puede captar.

Lección 4: La paradoja de Herzberg (factores higiénicos frente a motivadores).

Frederick Herzberg nos legó una de las distinciones más potentes de la gestión moderna: la diferencia entre lo que evita el dolor y lo que genera placer.

  • Factores higiénicos: incluyen el salario mínimo, la seguridad laboral y las condiciones físicas. Herzberg advirtió que estos factores no estimulan el rendimiento, sino que simplemente evitan la insatisfacción. Si el sueldo es justo, el trabajador lo acepta como algo normal y no se esforzará más por él.
  • Factores motivadores: la satisfacción real nace de la tarea misma. La implicación en el trabajo, la responsabilidad en la planificación y la oportunidad de creatividad inciden en la calidad.

Aquí reside la paradoja: un salario alto puede comprar la presencia de un cuerpo, pero solo un trabajo estimulante puede comprar la entrega de una mente.

Lección 5: La teoría Y y el potencial humano infrautilizado.

A mediados de los años cincuenta, Douglas McGregor desafió la visión tayloriana con su teoría Y. Mientras que la teoría X parte de la premisa de que el ser humano es perezoso y carece de integridad, la teoría Y plantea que el trabajo es tan natural como el juego si las condiciones son adecuadas.

Los pilares de la Teoría Y para la organización superior son los siguientes:

  • El trabajo como fuente de satisfacción personal.
  • El fomento del autodireccionamiento y el autocontrol.
  • La distribución democrática de la imaginación y la creatividad para resolver problemas.

McGregor lanzó una advertencia que aún resuena:

«En las condiciones actuales, solo se utiliza una pequeña parte del potencial humano disponible».

Conclusión: hacia una organización humana superior.

La excelencia no es un accidente, sino la convergencia entre una estructura técnica y una psicología profunda. Si aplicamos la jerarquía de Maslow a la calidad, descubrimos que cada nivel de necesidad representa una oportunidad estratégica.

  • Fisiológica: gratificaciones por un trabajo bien hecho.
  • De seguridad: calidad que genera ventas y, por ende, estabilidad laboral.
  • Social: Sensibilidad del empleado como miembro vital de un equipo.
  • Autoestima: apelar al orgullo por la calidad del trabajo mediante el reconocimiento.
  • Autorrealización: participación activa en la planificación, la creación y la innovación.

Como líder, su misión no es controlar a las personas, sino liberar su potencial. La pregunta final no es técnica, sino ética: ¿está diseñando su empresa para personas de la «teoría X» o está listo para liderar a los creadores de la «teoría Y»?

El jaque mate estratégico: más allá de la nómina, ¿ha considerado cómo juzgan sus empleados que son tratados con justicia? Según la teoría de la equidad de Adams, si un empleado percibe una brecha entre su esfuerzo y su recompensa frente a los demás, entrará en un estado de disonancia cognitiva. Esa falta de acuerdo entre lo que piensan que debería hacerse y lo que realmente ocurre es el veneno más silencioso para la calidad de su organización.

En esta conversación puedes escuchar las ideas más interesantes sobre el tema.

Este vídeo resume bien cómo gestionar el factor humano atendiendo a criterios de calidad.

The_Human_Factor_in_Quality (1)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Fundamentos y procesos de la estimación de costes

Cada mañana, millones de personas realizan un ejercicio intuitivo de predicción: consultan el tiempo y deciden si llevarse un paraguas. Se trata de un acto de mitigación de riesgos basado en datos actuales. Sin embargo, cuando trasladamos esta lógica a la adquisición de sistemas de defensa o de infraestructuras críticas, la intuición no resulta de gran utilidad.

La estimación de costes no es un simple cálculo contable, sino una compleja combinación de arte y ciencia. Técnicamente, la definimos como una «instantánea de probabilidad» basada exclusivamente en la información disponible en un momento determinado.

Si cambian las suposiciones iniciales, la estimación variará inevitablemente. No es que el modelo sea erróneo, sino que ha mutado la realidad.

Como señaló el físico y premio Nobel Niels Bohr:

«Predecir es muy difícil, especialmente cuando se trata del futuro».

Lección 1: tus predecesores no eran incompetentes (y por qué eso importa).

Existe un mito persistente entre la alta dirección: que utilizar datos históricos para proyectar costes equivale a heredar las ineficiencias y los errores de los gestores anteriores. Se teme que, si el pasado fue accidentado, el futuro será un reflejo de esos fallos.

Nada más lejos de la realidad técnica. La búsqueda y la normalización de datos históricos son pilares de cualquier estimación científicamente fundamentada. Las desviaciones en proyectos pasados rara vez se deben a la incompetencia; suelen ser respuestas adaptativas a eventos externos e imprevisibles que escapan al control del director del programa. Al analizar el pasado, no buscamos replicar el error, sino comprender la volatilidad. En este sentido, la honestidad intelectual nos obliga a aceptar una máxima del sector:

«No cometerás los mismos errores que tus predecesores, ¡cometerás los tuyos propios!».

Esta perspectiva permite a los directivos sénior comprender que la gestión de proyectos complejos no consiste en eliminar la incertidumbre, sino en gestionarla mediante modelos cuantitativos transparentes y defendibles.

Lección 2: El «iceberg» de los costes del ciclo de vida.

Uno de los errores estratégicos más comunes en proyectos de infraestructura es centrarse exclusivamente en el “precio de etiqueta”, es decir, en el coste de construcción. En la consultoría de proyectos complejos se utiliza el análisis del coste del ciclo de vida (Life Cycle Cost Estimate, LCCE) para comprender el verdadero esfuerzo económico que conlleva una infraestructura desde su concepción hasta su retirada o renovación.

Un LCCE permite visualizar todos los recursos necesarios a lo largo del tiempo y suele estructurarse en cuatro grandes fases:

  1. Diseño y desarrollo (estudios previos, ingeniería, proyectos y ensayos).
  2. Inversión inicial (construcción y puesta en servicio).
  3. Operación y mantenimiento (explotación, conservación, energía, personal, reparaciones).
  4. Fin de vida o disposición (desmantelamiento, renovación o sustitución).

La metáfora del iceberg de los costes resulta especialmente útil para comprender este enfoque. La construcción visible —la parte que suele atraer toda la atención— es solo la punta del iceberg. Bajo la superficie se encuentran los costes acumulados durante décadas de operación y mantenimiento, que en muchos casos pueden representar la mayor parte del gasto total.

Sin embargo, un análisis riguroso exige reconocer que no existe una estructura de costes universal. La distribución del gasto depende en gran medida del tipo de activo y de su modelo de explotación.

Por ejemplo:

  • En infraestructuras digitales vinculadas a la ingeniería civil, como plataformas de gestión del tráfico o sistemas de control ferroviario, una parte muy significativa del coste puede concentrarse en el desarrollo tecnológico inicial, en el que la ingeniería y el software son determinantes.
  • En infraestructuras estandarizadas y repetitivas, como determinados tramos de carreteras o estructuras prefabricadas, el peso principal suele recaer en la fase de inversión inicial, donde materiales, maquinaria y ejecución concentran la mayor parte del presupuesto.
  • En infraestructuras intensivas en operación, como redes ferroviarias, aeropuertos, presas o grandes instalaciones hidráulicas, los costes dominantes suelen concentrarse en la fase de operación y mantenimiento: conservación, inspecciones, energía, personal especializado y renovación periódica de equipos.

La lección estratégica es clara: evaluar una infraestructura únicamente por su coste de construcción puede conducir a decisiones subóptimas. Incorporar una visión de ciclo de vida permite diseñar activos más eficientes, reducir costes futuros y tomar decisiones de inversión con una perspectiva verdaderamente estratégica.

Lección 3: La inercia estratégica de los «costes hundidos».

El cerebro humano tiene una vulnerabilidad bien conocida: la tendencia a intentar “salvar” un proyecto problemático solo porque ya se ha invertido mucho en él. En economía y gestión de proyectos, este fenómeno se conoce como la falacia del coste hundido.

En términos estrictamente financieros, el dinero gastado en el pasado ya no debería influir en las decisiones futuras, porque no puede recuperarse. Lo relevante para quien toma decisiones no es cuánto se ha gastado, sino cuánto costará terminar el proyecto a partir de ahora. Por eso, una de las métricas clave es el coste por completar (cost to go), es decir, el dinero adicional necesario para completar una infraestructura.

Veamos un ejemplo sencillo aplicado a la ingeniería civil. Imaginemos la construcción de una autovía o un gran puente cuyo presupuesto inicial se ha visto superado:

  • Estado actual del proyecto: ya se han invertido 200 millones de euros (coste hundido).
  • Coste estimado para terminar la obra: 100 millones adicionales.
  • Coste total final: 300 millones.

Ahora aparece una alternativa técnica: rediseñar el proyecto desde cero con otra solución constructiva, cuyo coste total sería de 250 millones.

Si miramos únicamente el coste total, la nueva solución (250 M€) parece más eficiente que el proyecto actual (300 M€). Sin embargo, desde el punto de vista financiero, el análisis correcto es otro.

El dinero ya invertido —los 200 millones— es un coste hundido y no puede recuperarse. La decisión debe basarse únicamente en el capital adicional necesario:

  • Terminar el proyecto actual requiere 100 millones adicionales.
  • Empezar una nueva solución requiere una nueva inversión de 250 millones.

Si ambas infraestructuras ofrecen un resultado equivalente en servicio, seguridad y prestaciones, la opción racional sería terminar el proyecto existente, ya que requiere mucho menos capital adicional.

Superar la inercia estratégica de los costes hundidos exige disciplina analítica: centrarse exclusivamente en los costes y beneficios futuros y no en el peso psicológico de lo ya gastado. En proyectos de infraestructura —donde las inversiones son muy elevadas y los plazos son largos— esta distinción es crucial para evitar decisiones económicamente ineficientes.

Lección 4: ¿Coste o precio? La distinción que lo cambia todo.

En el lenguaje coloquial, son sinónimos, pero en la estrategia de adquisiciones son conceptos totalmente distintos. El coste es la medición de los recursos consumidos para producir un bien. El precio es lo que el mercado está dispuesto a pagar y se ve afectado por el margen de beneficio, la competencia y el valor percibido. Nuestra máxima es que la profesión de la estimación se centra en los costes, no en el precio.

Para ilustrar esta complejidad, analicemos algo tan simple como una cabeza de lechuga. Para un consumidor, el precio es una cifra que ve en el estante. Para un estimador, el «coste» es un desglose multicapa que incluye el cultivo y la siembra, la irrigación y el mantenimiento, el proceso de cosecha, el embalaje en planta y, por último, la logística de transporte. Solo comprendiendo estas capas podemos evaluar si el precio de un sistema complejo es razonable o si estamos asumiendo riesgos financieros ocultos.

Lección 5: la «segunda opinión» como salvaguarda estratégica.

En muchos proyectos de ingeniería civil, la estimación independiente de costes (ICE, Independent Cost Estimate) suele percibirse por los directores de proyecto como una revisión incómoda o incluso como una señal de desconfianza hacia el trabajo del equipo interno. Sin embargo, en proyectos complejos —infraestructuras ferroviarias, grandes presas, túneles o corredores logísticos— contar con una segunda opinión técnica sobre los costes se ha consolidado como una práctica clave de gestión del riesgo.

Una estimación independiente no busca cuestionar al equipo del proyecto, sino aportar una visión externa y metodológicamente rigurosa que reduzca los sesgos inevitables de los equipos profundamente implicados en el diseño y la planificación. En proyectos de obra civil, donde intervienen múltiples disciplinas, contratistas y condicionantes regulatorios, es frecuente que el entusiasmo técnico o la presión por aprobar un proyecto conduzca a estimaciones demasiado optimistas.

Por ejemplo, en la planificación de una línea ferroviaria de alta velocidad, un equipo promotor puede basar su estimación en rendimientos teóricos de obra o en condiciones geotécnicas favorables. Una evaluación independiente puede introducir escenarios alternativos: variaciones en los costes de materiales, incertidumbres geológicas en los túneles o desviaciones en la productividad de los equipos. Del mismo modo, en la construcción de grandes infraestructuras hidráulicas o viarias, una revisión externa puede detectar partidas infravaloradas relacionadas con desvíos de servicios, con la gestión ambiental o con riesgos constructivos.

Las instituciones públicas que financian grandes infraestructuras han aprendido que la calidad de las estimaciones de costes es decisiva para la viabilidad de los proyectos. Como advierte la Government Accountability Office (GAO):

«La capacidad de generar estimaciones de costes fiables es necesaria para apoyar los procesos presupuestarios. Sin ella, existe el riesgo de sufrir sobrecostes, incumplimientos de plazos y deficiencias en el rendimiento, lo que implica que el Gobierno no pueda financiar tantos programas como pretendía».

En este contexto, la estimación independiente de costes funciona como una salvaguarda estratégica: no solo mejora la calidad de las previsiones económicas, sino que también fortalece la credibilidad de los proyectos ante financiadores, administraciones y la ciudadanía. En un sector donde las decisiones de inversión comprometen recursos durante décadas, disponer de una segunda opinión rigurosa no es una señal de debilidad, sino de buena gobernanza.

Conclusión: el «Estándar del Estudiante de Secundaria».

Una estimación de alta calidad no se mide por su capacidad de «acertar» el número final, sino por su trazabilidad y auditabilidad. En nuestro sector, aplicamos lo que se conoce como «Estándar del Estudiante de Secundaria»: el análisis debe ser lo suficientemente transparente y lógico como para que un estudiante con conocimientos básicos de aritmética pueda seguir los argumentos, formular suposiciones y obtener el mismo resultado.

Al final del día, quien controla las suposiciones controla el análisis. Al evaluar sus proyectos actuales, pregúntese: ¿sus estimaciones son cajas negras de complejidad innecesaria o documentos trazables que reflejan el coste real del ciclo de vida? La transparencia no es solo una buena práctica, sino la brújula que separa el éxito estratégico del desastre presupuestario.

Aquí puedes escuchar una conversación sobre los aspectos de mayor interés de este tema.

El vídeo resume bien los conceptos más importantes.

Strategic_Cost_Prediction

Referencias:

Mislick, G. K., & Nussbaum, D. A. (2015). Cost estimation: Methods and tools. John Wiley & Sons.

Yepes, V. (2022). Gestión de costes y producción de maquinaria de construcción. Universidad Politécnica de Valencia.

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Más allá del casco: verdades esenciales (y sorprendentes) sobre la gestión de riesgos laborales

En el imaginario colectivo, la seguridad laboral se reduce a una lista de normas restrictivas o al uso obligatorio del casco. Para muchos líderes empresariales, la seguridad y la salud en el trabajo se perciben como un trámite burocrático que ralentiza la producción. Sin embargo, ¿qué pasaría si viéramos la seguridad y salud en el trabajo (SST) no como un obstáculo, sino como el motor de una empresa eficiente?

La gestión de la SST no es un accesorio ni un «extra» para cumplir la ley, sino una parte intrínseca de la gestión empresarial moderna. Una organización que no controla sus riesgos es, por definición, ineficiente. A continuación, desglosamos cinco realidades fundamentales, basadas en los estándares internacionales, que transformarán su visión sobre la prevención.

La seguridad no es un accesorio, sino un sistema

A menudo, tendemos a ver la seguridad como una serie de elementos aislados. La realidad es que la SST funciona como un sistema de gestión. Imagine un coche: para que se mueva de forma eficiente, es necesario que el sistema de frenos, la dirección y el motor interactúen entre sí de manera perfecta. Si uno falla, se compromete el objetivo de llegar al destino.

Un sistema requiere entradas (recursos, información y energía), procesos interconectados y salidas para alcanzar su objetivo. En la SST, los objetivos son la integridad del trabajador y la continuidad operativa.

«Un sistema puede definirse como un conjunto de elementos (medios o recursos) que interactúan entre sí para alcanzar un objetivo».

Ver la seguridad como un sistema cambia la narrativa: deja de ser un «gasto» para convertirse en un engranaje operativo que garantiza que los recursos se transformen en resultados sin las interrupciones costosas que provocan los accidentes.

La paradoja de la jerarquía: cuanto mayor es el rango, mayor es la vigilancia

La gestión moderna exige integrar la prevención en todos los niveles, desde el director ejecutivo hasta el personal operativo. Lo sorprendente es que, a medida que se asciende en el organigrama, la función de seguridad no desaparece, sino que se transforma en la obligación de «velar» por los demás.

Es fundamental distinguir las funciones de control para evitar vacíos de responsabilidad.

  • El mando o supervisor de una actividad peligrosa debe asegurarse de que el trabajador sabe realizarla de manera segura y de que se realice correctamente.
  • El inmediato superior debe establecer el procedimiento de ejecución y controlar que la supervisión se realice adecuadamente.
  • La alta dirección (CEO/directores) debe asegurar que la prevención esté integrada en el sistema global y dotar a la organización de los recursos necesarios.

El estándar de oro: el ciclo ILO-OSH 2001

Para que la seguridad no se quede estancada, la guía ILO-OSH 2001 de la Organización Internacional del Trabajo (OIT) propone un modelo de mejora continua estructurado en cinco elementos clave que toda empresa debe implementar.

  • Política: Establecer por escrito el compromiso de la empresa.
  • Organización: Definir responsabilidades, competencias y comunicación.
  • Planificación y aplicación: Evaluar los peligros y diseñar la estrategia de control.
  • Evaluación: Controlar los resultados mediante auditorías e investigaciones.
  • Acción en pro de las mejoras: Adoptar medidas preventivas y correctivas permanentes.

Un factor crítico de éxito es que la política de SST no sea un documento genérico, sino que esté adaptada a la organización, consensuada con los trabajadores y sus representantes, y difundida de manera que sea accesible para todos los miembros.

Formación: gratuita, en horario laboral y evaluable

La formación es un pilar fundamental de la organización, pero para que sea efectiva y cumpla con los estándares internacionales, debe extenderse a todos los miembros de la organización y cumplir condiciones estrictas:

  • Gratuidad y horario: Debe ofrecerse sin coste para el participante y, preferiblemente, durante la jornada laboral.
  • Competencia: Debe ser impartida por personas capacitadas y revisada periódicamente.
  • Evaluación de retención: Este es el punto más disruptivo. No basta con asistir a una charla; el sistema exige una evaluación en la que los participantes demuestren su grado de comprensión y retención. Si no hay evidencia de aprendizaje, la formación no ha cumplido su objetivo preventivo.

La jerarquía del control: el EPI es el último recurso

Este es el concepto que más cuesta entender para la dirección. Solemos pensar que proporcionar un equipo de protección individual (EPI), como guantes, es la primera medida. En una gestión profesional, el EPI es la última línea de defensa.

Las medidas deben aplicarse estrictamente en este orden de prioridad:

  • Supresión del peligro/riesgo: eliminar la fuente del riesgo por completo.
  • Control del peligro en su origen: adoptar medidas técnicas o organizativas para que el riesgo no se propague.
  • Reducción al mínimo (minimización): diseñar sistemas de trabajo seguros que incluyan disposiciones administrativas de control.
  • Equipo de protección individual (EPI): solo se suministra cuando los peligros no pueden controlarse mediante medidas colectivas y el empleador se asegura de que se mantenga y se utilice correctamente sin coste para el trabajador.

Por ejemplo, ponerle un casco a un trabajador antes de intentar eliminar el riesgo de caída de objetos es un error de diseño. La protección personal solo entra en juego cuando las medidas de ingeniería y organización han llegado a su límite.

Conclusión: Hacia una cultura de la prevención

La seguridad y la salud en el trabajo son responsabilidad del empleador, pero su éxito real depende de la participación activa de todos. Entender que la prevención es un sistema interconectado, con jerarquías de control claras y formación evaluable, es lo que separa a las empresas que simplemente cumplen la normativa de aquellas que operan con excelencia.

Al final del día, la pregunta para cualquier líder es: En su organización, ¿la seguridad es la primera prioridad en el diseño de los procesos o simplemente la última capa de ropa que se pone el trabajador?

En esta conversación puedes escuchar algunas de las ideas más interesantes del tema.

Este vídeo resume bien los conceptos más importantes de la gestión de riesgos.

Gestión_de_Riesgos_SST

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El mito de la ISO 9001: por qué tu «calidad» está matando tu agilidad operativa.

Durante años, la norma ISO 9001 ha sido víctima de una mala interpretación sistémica. En muchas salas de juntas, la palabra «calidad» no evoca excelencia, sino una imagen lúgubre de estanterías llenas de manuales que nadie lee y de una burocracia asfixiante que ralentiza cada decisión. A esto es a lo que yo llamo «la muerte por papel»: un estado en el que la organización trabaja para el sistema en lugar de ser el sistema quien trabaje para la organización.

Sin embargo, si eliminamos el cumplimiento superficial, lo que queda no es un obstáculo reglamentario, sino un sistema de inteligencia estratégica de alto nivel. La ISO 9001, entendida desde la perspectiva de la madurez organizacional, es, en realidad, el «sistema operativo» de los negocios modernos. Si tu certificación se siente como un lastre y no como una palanca para aumentar el retorno de la inversión (ROI), es probable que estés cometiendo los errores que separan a las empresas que solo «tienen el sello» de las que dominan su mercado.

A continuación, expongo cinco verdades disruptivas extraídas de la esencia técnica de la norma que obligarán a cualquier líder a replantearse su modelo de gestión.

1. El gran pecado de la burocracia autoimpuesta.

La principal fuente de fricción operativa es la confusión entre procedimientos e instrucciones de trabajo. Muchas empresas documentan cada paso de cada tarea en «procedimientos» densos, creando una red de la que es imposible escapar. El consultor sénior sabe que el procedimiento describe el qué, el porqué y quién es el responsable, mientras que el cómo detallado pertenece exclusivamente a las instrucciones de trabajo.

Sin embargo, la verdad más sorprendente, que la mayoría de los gestores ignora, es la siguiente:

Los procedimientos del sistema de gestión de la calidad, según la norma ISO 9001, describen la implementación de dicho sistema. No son obligatorios.

Así es. La norma no te obliga a tener esa montaña de procedimientos. Si tu sistema es burocrático, es por decisión interna, no por exigencia del estándar. La agilidad se recupera cuando se entiende que la ISO busca resultados, no literatura.

2. La estructura de alto nivel.

La ISO 9001 ya no es una isla. Gracias a su Estructura de Alto Nivel, ahora utiliza un lenguaje universal compatible con otros estándares. Esto no es solo un detalle técnico, sino la base para crear sistemas integrales de gestión.

En lugar de tener departamentos estancos que gestionan por separado los riesgos ambientales, de seguridad o de calidad, esta estructura permite integrarlos.

  • ISO 14001: Gestión Ambiental.
  • ISO 45001: Seguridad y salud en el trabajo.

Esta compatibilidad transforma el sistema de gestión en un tronco común que optimiza los recursos de auditoría y, lo que es más importante, elimina la redundancia de datos, de modo que la dirección tenga una visión única de la resiliencia corporativa.

3. El riesgo invisible: de la expectativa voluntaria al requisito legal.

Muchos gestores limitan su visión al cliente final. La norma, sin embargo, exige un enfoque de 360 grados respecto de las partes interesadas. Pero cuidado: el análisis de sus necesidades no es un ejercicio de relaciones públicas, sino una trampa de cumplimiento si no se gestiona con inteligencia estratégica.

Tomemos como ejemplo una empresa de transporte de mercancías. Para un inversor, la «calidad» no solo consiste en que el camión llegue a tiempo, sino que también abarca la imagen de la reputación y el control de riesgos económicos. Para un trabajador, son el reconocimiento y la participación. Lo verdaderamente crítico es que la organización puede decidir aceptar voluntariamente estas expectativas (por ejemplo, mediante un contrato o una promesa de marca).

Muchos se sorprenden al descubrir que una vez que la organización adopta voluntariamente un requisito de una parte interesada, este se convierte automáticamente en un requisito obligatorio del sistema de gestión. Un compromiso contractual con un proveedor sobre plazos de pago o una promesa de sostenibilidad para la sociedad se vuelve tan auditable y legalmente vinculante para tu sistema de calidad como la entrega del producto mismo.

4. Verificación frente a validación: la diferencia entre cumplir y satisfacer.

En la alta dirección, confundir estos términos es una receta para el desastre financiero. La diferencia es sutil, pero vital para garantizar el valor real:

  • Verificación: Confirmación, mediante inspección, de que se han cumplido los requisitos especificados. Se trata de una comprobación frente al plano o al diseño.
  • Validación: Comprobación, mediante ensayo, de que el producto cumple su aplicación específica prevista en el mundo real.

Un producto puede estar perfectamente verificado (cumplir todas las especificaciones técnicas) y ser un fracaso total si no ha sido validado (no sirve para lo que el usuario necesitaba). Un gestor estratégico no se detiene en la inspección, sino que busca el ensayo que demuestre su utilidad real.

5. El liderazgo como eje del PDCA.

El ciclo PDCA (Planificar, Hacer, Verificar, Actuar) suele representarse como un círculo estático. Es un error. En el modelo real de la ISO 9001, el liderazgo no es un paso más del ciclo, sino el eje central que mantiene todos los procesos en órbita y en armonía. Sin liderazgo, el ciclo se fragmenta.

Para que este motor genere mejora continua y no solo «mantenimiento», debe nutrirse de la toma de decisiones basada en la evidencia. La norma es el antídoto contra la gestión por intuición. En la fase de «Actuar», el sistema no solo busca corregir el fallo, sino también eliminar su causa raíz para que no vuelva a ocurrir. Esto solo es posible si los líderes utilizan los datos del sistema para abordar riesgos y oportunidades, en lugar de reaccionar visceralmente ante las crisis diarias.

Conclusión: ¿activo estratégico o certificado decorativo?

La calidad no es un destino, sino una cultura de mejora continua que debe reflejar la salud de tu dirección estratégica. Si analizamos el contexto de una empresa de transporte mediante un análisis DAFO, veremos que factores externos como la fluctuación del precio del combustible o las nuevas regulaciones medioambientales no son «problemas de logística», sino variables de calidad.

En última instancia, tu sistema de gestión de la calidad debería poder responder a las preguntas más difíciles de tu análisis estratégico: ¿por qué un cliente potencial compra a tu competencia y no a ti? ¿Qué le falta a tu servicio para ser verdaderamente superior?

Si tu sistema no te ayuda a responder estas preguntas, no tienes un sistema de gestión, sino un certificado en la pared. La verdadera ISO 9001 es una plataforma para potenciar tus fortalezas y mitigar amenazas antes de que se conviertan en crisis. La pregunta es: ¿estás listo para dejar de «cumplir» y empezar a competir?

En esta conversación puedes escuchar algunas de las ideas más interesantes del tema.

En el vídeo se sintetizan algunos de los aspectos más relevantes de la norma ISO 9001.

ISO_9001_Logistics_and_Transport

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Por qué el pato es el ganador? La sorprendente ciencia detrás de nuestras mejores (y peores) decisiones

El dilema del guepardo y el halcón

En nuestra búsqueda de la excelencia, tendemos a caer en la especialización extrema. Admiramos al guepardo, cuya fisonomía está diseñada para ser el proyectil terrestre definitivo; nos asombra el halcón peregrino, capaz de desafiar la gravedad y alcanzar velocidades de vértigo; y respetamos al pez espada, que se desplaza por el océano con una hidrodinámica inigualable. Cada uno es el «mejor» en su ámbito. Sin embargo, en el tablero de la supervivencia y la estrategia, la excelencia en un solo campo no garantiza el éxito global.

El problema radica en que la realidad rara vez es unidimensional. El dilema del guepardo y el halcón nos muestra que ser el número uno en una categoría puede dejarnos vulnerables cuando el entorno nos exige operar en medios distintos. La «mejor» decisión no surge de la búsqueda ciega de la perfección en un solo criterio, sino de un ejercicio sofisticado de equilibrio.

La paradoja del pato: la versatilidad frente a la especialización.

Desde la perspectiva de la ciencia de las decisiones, el pato es el ganador inesperado de esta contienda evolutiva. Aunque no corre tan rápido como un guepardo, no vuela con la potencia de un halcón ni nada con la destreza de un pez espada, el pato puede realizar las tres acciones con eficacia. En un modelo de decisión multicriterio, el pato representa una «solución de compromiso»: aquella que maximiza la utilidad global en diversos escenarios.

Técnicamente, decidir no es simplemente elegir. Es un proceso de optimización que requiere rigor conceptual.

«Decisión: elegir la mejor opción posible. Hay que definir qué significa mejor y qué significa posible».

El pato triunfa porque cumple con lo «posible» (su conjunto de alternativas factibles es más amplio) y redefine lo «mejor» desde un enfoque sistémico. Mientras que el guepardo es una solución óptima para un conjunto finito de restricciones terrestres, el pato es la respuesta robusta ante un mundo de variables múltiples.

Comparar manzanas con naranjas: el arte de la normalización.

El mayor obstáculo estratégico al evaluar opciones es la disparidad de unidades. ¿Cómo se sopesa el beneficio de la velocidad frente al coste del riesgo o el precio de un activo? Aquí es donde entra en juego la normalización, una técnica matemática que permite unificar escalas y convertir los datos xij en valores adimensionales mij comparables entre sí.

Para un estratega, la normalización no es solo un ajuste de escala, sino un cambio de lógica. Debemos distinguir entre los criterios de beneficio (donde más es mejor) y los de coste (donde menos es mejor).

Sin normalización vectorial o lineal, nuestras decisiones diarias fallan, ya que nuestras escalas mentales están descalibradas y otorgamos un peso desproporcionado a lo que es fácil de medir, ignorando lo que realmente importa.

Lógica difusa: traduciendo la ambigüedad en números reales.

En la estrategia real, los datos rara vez son determinísticos. El lenguaje humano es vago: decimos que una oportunidad es «muy buena» o «normal». La ciencia de la decisión estructura esta incertidumbre mediante la lógica difusa, que transforma los juicios lingüísticos en números triangulares difusos (NTD).

Un NTD se define por tres valores (L, M, U):

  • L (más bajo): el límite inferior o el escenario más pesimista.
  • M (moda): el valor más probable o el núcleo del juicio.
  • U (más alto): el límite superior o el escenario más optimista.

Por ejemplo, la expresión «muy bueno» podría representarse como (0,6; 0,7; 0,8). Esta tríada no es arbitraria, sino que representa el «margen de error» y la vaguedad intrínseca de la percepción humana. Al utilizar estos intervalos, pasamos de una falsa precisión a una objetividad robusta que acepta y cuantifica la duda.

El axioma de Zeleny: la búsqueda del «punto ideal».

¿Cómo identificar la mejor opción en un mar de alternativas? El axioma de Zeleny postula que la solución preferida es la que minimiza la distancia al «punto ideal». Imaginemos un animal hipotético que corriera como el guepardo, volara como el halcón y nadara como el pez espada: ese sería nuestro punto ideal, una utopía técnica.

Para medir cuán cerca estamos de ese ideal, utilizamos funciones de distancia Lp, cuya interpretación cambia nuestra postura estratégica.

  • La distancia de Manhattan (L₁) es una métrica compensatoria. Suma todas las diferencias, lo que permite que una gran fortaleza en un área compense una debilidad en otra.
  • La distancia euclidiana (L₂) es la distancia física más directa en un espacio multidimensional y es la medida estándar de proximidad.
  • La distancia de Chebyshev (L∞) es la medida más conservadora. Se enfoca exclusivamente en la mayor diferencia posible, buscando minimizar el «máximo dolor». Es la estrategia de quien no puede permitirse un solo fallo crítico.

El pato no es perfecto, pero su distancia euclidiana al ideal es menor que la de los especialistas cuando el entorno exige versatilidad.

El filtro de la consistencia: no te contradigas.

Incluso con las mejores herramientas, la calidad de una decisión depende de la lógica del decisor. El Proceso de Jerarquía Analítica (AHP) nos obliga a ser coherentes mediante matrices de comparación pareada que deben respetar tres propiedades fundamentales.

  • Reciprocidad: si la opción A es tres veces mejor que la B, entonces la B debe ser, obligatoriamente, una tercera parte tan buena como la A.
  • Homogeneidad: los elementos comparados deben pertenecer al mismo orden de magnitud para que la escala tenga sentido.
  • Consistencia: si prefieres A sobre B y B sobre C, sería una contradicción lógica preferir C sobre A.

El AHP calcula una razón de consistencia (CR). Si este ratio es elevado, el «autovector» (o vector de prioridades) de la decisión se distorsiona y el juicio pierde validez.

«Los juicios emitidos deben ser revisados si la razón de consistencia es mayor que 0,1».

En la alta estrategia, el objetivo es minimizar este valor para garantizar que nuestras prioridades sean lógicamente sólidas y no fruto de un sesgo momentáneo.

Conclusión: Hacia una estrategia de vida «multicriterio».

La ciencia de la decisión nos enseña que el éxito no es una carrera de cien metros lisos, sino un triatlón constante. Para diseñar vidas y negocios más equilibrados, debemos evolucionar de la optimización simple a la estrategia multicriterio.

  • Sintetizar la versatilidad: hay que dejar de buscar la especialización extrema y empezar a valorar las «soluciones de compromiso» que ofrecen solidez.
  • Normalizar con rigor: antes de comparar, ajuste sus escalas. No ignore el coste por deslumbrarse con el beneficio.
  • Gestionar la incertidumbre: utilice la lógica difusa para aceptar que sus juicios tienen márgenes de error (L, M, U).
  • Medir la distancia al ideal: defina su punto ideal, pero tenga en cuenta si opera bajo una lógica de compensación (L₁) o de mitigación de riesgos (L∞).
  • Exigirse consistencia: si sus prioridades se contradicen, su estrategia colapsará. Mantenga su CR < 0,1.

Al final del día, el pato sobrevive porque es consistente en su mediocridad brillante a través de múltiples medios. ¿Qué criterio fundamental está sacrificando hoy por obsesionarse con una sola métrica de éxito?

En esta conversación puedes escuchar las ideas más interesantes sobre la toma de decisiones.

Una buena síntesis de las ideas sobre este tema la puedes encontrar en el siguiente vídeo.

Aquí dejo un documento de síntesis que espero os resulte útil.

Optimizing_Multicriteria_Decisions

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Gestión y normativa de sostenibilidad medioambiental

En el entorno corporativo actual, la presión por ser «sostenible» es omnipresente. Sin embargo, existe una brecha crítica entre el marketing ecológico y la capacidad real de ejecución. Para un líder estratégico, la sostenibilidad no es una mera declaración de intenciones, sino una cuestión de arquitectura organizativa.

Un Sistema de Gestión Ambiental (SGA) es, en esencia, la forma en que las empresas se organizan, mediante estructuras y procesos definidos, para actuar de manera sistemática, garantizar la fluidez de las operaciones y alcanzar los resultados previstos.

A continuación, se desglosan cinco ideas que te permitirán pasar de la intuición a la estructura y optimizar la competitividad de tu organización conforme a estándares internacionales.

Flexibilidad estratégica: el mito de las metas cuantitativas en la ISO 14001.

Existe la creencia errónea de que la certificación ISO 14001 impone límites uniformes de emisiones a todas las empresas. En realidad, esta norma no dicta resultados, sino que facilita procesos. Como estratega, debes entender que la serie ISO 14000 proporciona un marco lógico que se adapta a tu realidad operativa, ya sea que dirijas una multinacional como Toyota o una empresa de servicios.

Como aclara el estándar técnico:

«No establece un conjunto de objetivos cuantitativos en cuanto a niveles de emisiones ni métodos específicos para medirlos».

Esta característica es la que otorga flexibilidad estratégica. La norma te obliga a identificar tus propios riesgos y externalidades, lo que te permite fijar objetivos acordes con tu modelo de negocio y tus recursos disponibles, garantizando siempre una mejora en el desempeño ambiental.

Resiliencia operativa: el ciclo PHVA como motor de eficiencia.

Un sistema de gestión ambiental (SGA) eficaz no es una foto estática, sino un sistema dinámico diseñado para combatir el estancamiento corporativo. El motor de esta resiliencia es el ciclo PHVA (Planificar-Hacer-Verificar-Actuar), que convierte la gestión ambiental en un flujo operativo constante.

  • Planificar: Definición de objetivos y procesos alineados con la política ambiental de la empresa.
  • Hacer: Ejecución e implementación de los procesos según lo previsto.
  • Verificar: Fase crítica de seguimiento y medición de los compromisos, en la que se evalúan no solo los objetivos, sino también los criterios de operación establecidos.
  • Actuar: Tomar decisiones basadas en datos para optimizar el sistema de forma continua.

Este ciclo garantiza que la gestión ambiental sea un proceso de optimización continua y no un evento aislado para cumplir con una auditoría.

Integración de sistemas: el valor estratégico de la Estructura de Alto Nivel (HLS)

Para los directivos que temen la parálisis burocrática, la Estructura de Alto Nivel (HLS) es la solución definitiva. Las versiones modernas de las normas ISO comparten un texto básico y definiciones comunes. Esto no solo simplifica los trámites administrativos, sino que también ofrece la oportunidad de lograr una integración estratégica.

La implementación de la HLS permite que normas como la ISO 14001 (medio ambiente), la ISO 9001 (calidad) y la ISO 45001 (seguridad y salud) hablen el mismo idioma. Al tratarse de requisitos comunes, el esfuerzo documental se reduce drásticamente, ya que lo único que varía es el enfoque aplicado. Puede gestionar sus responsabilidades legales y operativas desde una única plataforma documental, lo que elimina los silos organizativos y el caos de múltiples sistemas aislados.

 

El rigor en la medición: la ISO 14064 frente a la ISO 14067

Anunciar una «huella de carbono» sin definir sus límites supone un riesgo para la reputación. Según la norma ISO 14064, la credibilidad de sus cifras depende de dos decisiones técnicas cruciales que todo director ejecutivo debe validar:

  • Límites organizativos: ¿Informará desde un enfoque de control (emisiones sobre las que tiene potestad operativa o financiera) o desde un enfoque de cuota de participación (emisiones proporcionales a su capital accionario)?
  • Límites operativos: identificación precisa de los tipos de emisiones (directas e indirectas) que se integran en el inventario anual.

Además, como consultor sénior, es fundamental que su equipo no confunda los términos: la ISO 14064 se centra en la huella de la organización, mientras que si su objetivo es certificar el impacto de un producto o servicio específico, debe recurrir a la ISO 14067. Sin esta distinción, su informe de sostenibilidad carecerá de la transparencia y la veracidad necesarias ante los grupos de interés externos.

El desafío del rediseño: por qué la sostenibilidad no se «compra»

Implementar un SGA no es una transacción, sino una transformación. Un sistema mal gestionado puede convertirse en una «fábrica de papel» si no se aborda con una mentalidad eficiente. El «lado B» de la gestión ambiental exige reconocer tres factores ineludibles:

  • Reestructuración de procesos: la implantación suele requerir cambios profundos en la forma en que opera la empresa, lo que demanda inversión técnica y financiera.
  • Compromiso de la alta dirección: sin la implicación directa de los líderes, el sistema se convierte en un ejercicio burocrático estéril.
  • Gestión documental estratégica: un SGA genera abundantes registros, instrucciones técnicas y procedimientos. La clave para evitar el colapso administrativo es automatizar los procesos rutinarios e integrar estratégicamente la documentación.

Conclusión: la gestión ambiental es gestión de la eficiencia

Los casos de éxito de empresas líderes como Toyota, 3M y Ford demuestran que un sistema de gestión ambiental (SGA) robusto es sinónimo de competitividad. Toyota ha reducido drásticamente su consumo de agua y energía, 3M ha logrado minimizar la contaminación y el desperdicio de recursos y Ford ha transformado sus plantas mediante la eficiencia energética y prácticas de reciclaje de vanguardia.

Un sistema de gestión ambiental aporta el orden y la coherencia necesarios para transformar preocupaciones dispersas en una estructura sistemática de responsabilidades.

La pregunta ya no es si su empresa tiene la intención de ser sostenible, sino si su estructura organizativa actual es lo suficientemente sólida como para sobrevivir y prosperar sin un sistema de gestión formal.

En esta conversación puedes escuchar las ideas más interesantes sobre los sistemas de gestión ambiental.

Este vídeo resume bien los conceptos más importantes del tema.

Aquí dejo un documento que sirve como resumen.

Environmental_Management_and_ISO_Standards

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Preguntas y respuestas sobre la DANA de Valencia que nos obligan a reflexionar

1. ¿Cómo explica el «modelo del queso suizo» que la DANA de 2024 no fuera solo un fenómeno natural, sino un fallo de múltiples barreras de defensa?

Esta pregunta aborda la raíz del desastre y la diferencia entre las condiciones latentes —infraestructuras obsoletas, urbanismo en zonas inundables y falta de mantenimiento— y los fallos activos —retrasos en las alertas y errores en la coordinación de la emergencia—. El análisis revela que la catástrofe ocurrió porque los «agujeros» de distintas áreas —la política, la supervisión, la infraestructura y la respuesta inmediata— se alinearon, lo que permitió que el peligro atravesara todas las defensas. Además, subraya que los desastres no son puramente «naturales», sino el resultado de decisiones humanas y de la ocupación de cauces críticos.

2. ¿Por qué se considera la infraestructura hidráulica un «seguro de vida» y qué consecuencias tuvo la falta de ejecución de las obras proyectadas en el barranco del Poyo?

El significado central de las fuentes técnicas y de las comisiones de investigación radica en que demuestran que las obras hidráulicas salvan vidas. Mientras que Valencia se salvó gracias al nuevo cauce del Turia y las poblaciones del río Magro vieron reducidos sus daños por la presa de Forata, la cuenca del Poyo carecía de infraestructuras de laminación, por lo que se produjo una avenida destructiva sin precedentes. La falta de inversión, la ralentización administrativa y la priorización de criterios ambientales por encima de los estructurales impidieron la ejecución de proyectos ya diseñados y aprobados.

3. ¿De qué manera el «fin de la estacionariedad climática» obliga a la ingeniería y al urbanismo a abandonar los registros históricos y adoptar un diseño basado en el rendimiento y la resiliencia?

Las fuentes consultadas destacan que el cambio climático ha invalidado el uso exclusivo de datos históricos para predecir el futuro. Fenómenos como la DANA de 2024 demuestran que lo que antes se consideraba un evento con un periodo de retorno de 500 años ahora puede ocurrir con mucha mayor frecuencia. Por tanto, es necesario rediseñar las infraestructuras con mayores márgenes de seguridad (retornos de 1000 años), utilizar modelos probabilísticos y aplicar el diseño basado en el desempeño (PBD), que garantiza que un sistema pueda seguir funcionando o recuperarse rápidamente cuando se vea superado.

4. ¿Por qué la «retirada estratégica» de las zonas de alto riesgo y el rediseño arquitectónico resiliente son ahora imperativos para convivir con el «riesgo residual» que las infraestructuras no pueden eliminar?

Esta pregunta aborda el hecho de que, durante décadas, se ha construido con una grave «amnesia hidrológica», ocupando zonas de flujo preferente que la naturaleza ha acabado por reclamar. El análisis de las fuentes indica que, dado que el «riesgo cero» no existe y las presas pueden verse superadas por eventos extremos, la reconstrucción no debe limitarse a reparar, sino a reubicar las infraestructuras críticas (colegios, centros de salud) fuera de las zonas de alto riesgo. En cuanto a las viviendas que permanecen en áreas inundables, se propone un cambio radical en los códigos de edificación: prohibir dormitorios y garajes en las plantas bajas, elevar las instalaciones críticas (electricidad, calderas) y utilizar materiales resistentes al agua que permitan recuperar rápidamente la funcionalidad. Por último, las fuentes subrayan que la educación pública y la cultura de la prevención (siguiendo modelos como el japonés) son medidas de bajo coste y alto impacto que salvan vidas cuando las barreras físicas fallan.

5. ¿Qué cambios son imprescindibles en la gobernanza y la coordinación institucional para evitar que la reconstrucción sea una mera réplica de los errores del pasado?

Las fuentes coinciden en que la reconstrucción no puede limitarse a reponer lo perdido, pues, de lo contrario, se perpetuaría la vulnerabilidad. Se recomienda la creación de un «ministerio del pensamiento» o de un equipo de reflexión que establezca directrices estratégicas a largo plazo y evite la «rapidez ilusoria» de las obras tácticas. Además, se reclama una gobernanza interadministrativa eficaz, posiblemente mediante consorcios en los que las administraciones deleguen competencias para unificar presupuestos y decisiones técnicas sobre las políticas, y así superar la fragmentación y la parálisis burocrática.

Creo que dos analogías o metáforas pueden aclarar algunos conceptos básicos:

  • Gestionar el territorio hoy es como construir en la ladera de un volcán. Podemos instalar sensores y construir diques para desviar la lava (infraestructuras), pero la verdadera seguridad depende de no construir los dormitorios en el camino de la colada (ordenación del territorio) y de que todos los habitantes sepan exactamente qué mochila coger y hacia dónde correr cuando suene la alarma (concienciación comunitaria).
  • Gestionar el riesgo de inundaciones hoy en día es como conducir un coche moderno por una autopista peligrosa: no basta con tener un motor potente (infraestructuras hidráulicas), también es necesario que los cinturones de seguridad y el airbag funcionen (alertas y protección civil), que el conductor esté capacitado (concienciación comunitaria) y que las normas de circulación se adapten a las condiciones meteorológicas de la vía, y no a cómo era el asfalto hace cincuenta años.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Primer aniversario de la DANA de Valencia: Anatomía de un desastre

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

Hoy, 29 de octubre de 2025, se cumple el primer aniversario de la DANA de Valencia de 2024, un evento que ha sido catalogado como una de las mayores catástrofes naturales ocurridas en España en décadas. La tragedia se produjo por unas precipitaciones históricas que pulverizaron récords nacionales, con máximos de más de 770 l/m² acumulados en 24 horas en Turís, lo que demuestra que el riesgo cero no existe en un contexto de cambio climático. El desastre no se explica únicamente por la cantidad de lluvia caída, sino por la trágica multiplicación entre el evento extremo, sobrealimentado por el calentamiento global, y el fallo estructural de un urbanismo que, durante décadas, ha ignorado las zonas de riesgo. Aunque la respuesta inmediata y los esfuerzos por restablecer las infraestructuras críticas han sido notables, la ingeniería de la reconstrucción no puede limitarse a reponer lo perdido, ya que replicar el estado previo implica aceptar que los efectos se repetirán. En este contexto, un medio de comunicación me ha solicitado una entrevista para abordar si, un año después, hemos avanzado hacia las soluciones de resiliencia y prevención que el conocimiento técnico lleva tiempo demandando. Os dejo la entrevista completa, por si os resulta de interés.

¿Cómo describiría desde un punto de vista técnico lo que ocurrió el 29 de octubre en Valencia? ¿Qué falló?

Desde el punto de vista técnico e ingenieril, el suceso del 29 de octubre en Valencia fue un evento de inundación extremo provocado por una DANA con un carácter pluviométrico extraordinario, ya que se registraron cifras extremas, como los 771,8 l/m² en 24 horas en Turís, y caudales en la Rambla del Poyo de hasta 2.283 m³/s antes de que los sensores fueran arrastrados, superando con creces cualquier expectativa de diseño y demostrando que el riesgo cero no existe. La magnitud del impacto fue consecuencia de una serie de factores concurrentes. El factor principal se produjo en la cuenca de la Rambla del Poyo, donde la virulencia del agua (con caudales medidos superiores a 2.200 m³/s y estimaciones simuladas que superan los 3.500 m³/s) se encontró con la ausencia de infraestructuras hidráulicas suficientes para la laminación de avenidas y otras medidas complementarias. Los proyectos de defensa contra inundaciones, que llevaban años planificados y con estudios previos, no se ejecutaron a tiempo. En contraste, el Nuevo Cauce del Turia y las presas de Forata y Buseo funcionaron eficazmente, protegiendo la ciudad de Valencia y otras poblaciones. Además de estas vulnerabilidades latentes, el impacto humano y material se vio agravado por desafíos en la respuesta, incluyendo la efectividad en los sistemas de alerta temprana (SAIH) bajo condiciones tan extremas y en la implantación de los planes de emergencia municipales, así como en la emisión de avisos con suficiente antelación a la población, impidiendo que esta pudiera reaccionar a tiempo.

¿Qué papel jugaron las infraestructuras y la planificación urbana en la magnitud de los daños? ¿Hubo zonas especialmente vulnerables o mal planificadas?

Las infraestructuras y la planificación urbana jugaron un papel determinante en la magnitud de los daños. Por un lado, las obras estructurales, como el Nuevo Cauce del Turia y las presas de Forata y Buseo, resultaron fundamentales, mitigando las inundaciones y protegiendo la ciudad de Valencia y otras poblaciones. Sin embargo, la magnitud de los daños se vio agravada por la ausencia de medidas integrales de defensa diseñadas para la laminación de avenidas, especialmente en la cuenca de la Rambla del Poyo, donde los proyectos planificados no se ejecutaron a tiempo. Los caudales extraordinarios superaron con creces la capacidad existente. Además, las infraestructuras lineales (carreteras, ferrocarriles y puentes) actuaron como puntos de estrangulamiento, reteniendo arrastres y aumentando el nivel de destrucción. Las zonas más vulnerables se concentraron en el cono aluvial de L’Horta Sud, una zona de alto riesgo urbanizada principalmente entre la riada de 1957 y la década de 1970, sin planificación adecuada ni infraestructuras de saneamiento suficientes. La falta de unidad de criterio en la ordenación territorial municipal y la prevalencia de intereses de desarrollo sobre las directrices de restricción de usos en zonas inundables (a pesar de instrumentos como el PATRICOVA) aumentaron la vulnerabilidad social y material del territorio. Aunque algunos hablan de emergencia hidrológica, probablemente sea más adecuado hablar de un profundo desafío urbanístico y de ordenación territorial.

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

Desde entonces, ¿qué medidas reales se han tomado —si las hay— para reducir el riesgo de que vuelva a suceder algo similar?

Desde la DANA de octubre de 2024, las medidas adoptadas se han enfocado en la reconstrucción con criterios de resiliencia y atención a urgencias, aunque las soluciones estructurales de gran calado, que requieren plazos de ejecución más largos, siguen mayormente pendientes. En la fase inmediata, se activaron obras de emergencia, destacando la reparación y refuerzo de infraestructuras críticas como las presas de Forata y Buseo, y la recuperación de cauces y del canal Júcar-Turia. Un ejemplo de reconstrucción en curso es la mejora de la red de drenaje de Paiporta, que forma parte de las primeras actuaciones tras la catástrofe. En el ámbito normativo, el Consell aprobó el Decreto-ley 20/2024 de medidas urbanísticas urgentes y se ha puesto sobre la mesa la revisión de normativas como el Código Técnico de la Edificación (CTE) para incluir requisitos para edificaciones en zonas inundables. También se prevé que los sistemas de comunicación y alerta estén coordinados en todas las cuencas mediterráneas, lo que podría evitar muertes en caso de repetirse el fenómeno. Sin embargo, es un hecho que, meses después, la legislación urbanística de fondo sigue sin cambios estructurales y que, en cuanto a las obras hidráulicas estructurales de prevención, como las presas de laminación, sus plazos de tramitación y ejecución impiden que se hayan materializado avances significativos todavía, dificultando el avance de proyectos críticos. Por tanto, existe una etapa de reconstrucción que debería ser inteligente y no dejar las infraestructuras como estaban antes de la DANA, pues eso implicaría asumir los mismos riesgos, y otra a medio y largo plazo que permita defender a la población, minimizando los riesgos.

¿Qué actuaciones considera urgentes o prioritarias para evitar repetir los errores del pasado?

Para evitar repetir los errores del pasado, es necesario un cambio de modelo que combine inversión estructural urgente con planificación territorial resiliente. En ingeniería hidráulica, la acción prioritaria es acelerar e implementar las obras de laminación contempladas en la planificación hidrológica, como la construcción de presas en las cuencas de la Rambla del Poyo y el río Magro, y destinar recursos extraordinarios para construir las estructuras de prevención necesarias y corregir el déficit de infraestructuras de prevención. También es prioritario eliminar obstáculos urbanísticos, como puentes y terraplenes insuficientes, y reconstruir infraestructuras lineales con criterios resilientes, permitiendo el paso seguro del agua. En urbanismo, la enseñanza principal es devolverle el espacio al agua, retirando estratégicamente infraestructuras de las zonas de flujo preferente para reducir la exposición al riesgo más elevado e iniciando un plan a largo plazo para reubicar infraestructuras críticas y viviendas vulnerables. Se recomienda revisar la normativa sobre garajes subterráneos en llanuras de inundación. Asimismo, es esencial invertir en sistemas de alerta hidrológica robustos, con más sensores y modelos predictivos que traduzcan la predicción en avisos concretos y accionables. Por último, es fundamental que la gobernanza supere la inercia burocrática mediante un modelo de ejecución de urgencia que priorice el conocimiento técnico y garantice que el riesgo no se convierta de nuevo en catástrofe humana.

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

¿Hasta qué punto Valencia está preparada para afrontar lluvias torrenciales o fenómenos extremos de este tipo en el futuro?

Desde una perspectiva técnica e ingenieril, a día de hoy, la vulnerabilidad de fondo persiste y no estamos preparados para afrontar una nueva DANA de la magnitud de la ocurrida en 2024. La situación es similar a la de una familia que circula en coche por la autopista a 120 km/h sin cinturones de seguridad: bastaría un obstáculo inesperado (una DANA) para que el accidente fuera mortal. Aceptar la reposición de lo perdido sin añadir nuevas medidas de protección estructural implicaría aceptar que los efectos del desastre se repetirán, algo inasumible. El problema principal es que prácticamente no se han ejecutado las grandes obras de laminación planificadas, especialmente en las cuencas de la Rambla del Poyo y del Magro, que constituyen la medida más eficaz para proteger zonas densamente pobladas mediante contención en cabecera. La DANA expuso un problema urbanístico severo. Meses después, mientras no se modifique la legislación territorial de fondo y se actúe sobre el territorio, el riesgo latente de la mala planificación persiste ante el próximo fenómeno extremo. La única forma de eliminar esta vulnerabilidad es mediante una acción integral que combine inversión urgente en obras estructurales con retirada estratégica de zonas de flujo preferente.

Os dejo un pequeño vídeo didáctico donde se resume lo acontecido en la DANA del 29 de octubre de 2024.

En las noticias de hoy, aparezco en varios reportajes:

En el Telediario de TVE, en horario de máxima audiencia, a las 21:00 h, se hizo un programa especial sobre la DANA donde tuve la ocasión de participar. Os dejo un trozo del vídeo.

 

Reconstruir Valencia un año después: «cirugía urbana» y zonas verdes para protegerse de futuras danas

Un año después de la DANA del 29-O, los expertos advierten: «Podría volver a pasar»

Valencia: expertos advierten que la región aún no está preparada para afrontar otro episodio climático extremo

Valencia se blinda frente al agua: garajes elevados e ingeniería verde tras la DANA

One year after Valencia’s deadly flooding experts warn ‘it could happen again’

Një vit pas përmbytjeve vdekjeprurëse në Valencia, ekspertët paralajmërojnë se ‘mund të ndodhë përsëri’

Egy évvel a valenciai árvíz után a szakértők figyelmeztetnek: «Ez újra megtörténhet»

Egy évvel a spanyol árvizek után: Tanulságok és kihívások a Valenciai Közösség számára

 

También os dejo los artículos que he ido escribiendo sobre este tema en este blog. Espero que os resulten de interés.

Lo que la catástrofe de Valencia nos obliga a repensar: cuatro lecciones. 30 de septiembre de 2025.

Resiliencia en las infraestructuras: cómo prepararnos para un futuro de incertidumbre. 26 de septiembre de 2025.

Iniciativa Legislativa Popular para la Modificación de la Ley de Aguas. 17 de julio de 2025.

Posibles consecuencias de una nueva DANA en el otoño de 2025. 16 de julio de 2025.

Discurso de apertura en el evento Innotransfer “Infraestructuras resilientes frente a eventos climáticos extremos”. 26 de mayo de 2025.

Ya son 6 meses desde el desastre de la DANA en Valencia. 29 de abril de 2025.

Jornada sobre infraestructuras resilientes al clima. 8 de abril de 2025.

Entrevista en Levante-EMV sobre la reconstrucción tras la DANA. 17 de marzo de 2025.

La ingeniería de la reconstrucción. 6 de marzo de 2025.

Lecciones aprendidas: proteger a la población es la prioridad. 25 de diciembre de 2024.

DANA 2024. Causas, consecuencias y soluciones. 3 de diciembre de 2024.

Qué es una presa. «La via verda», À Punt. 28 de noviembre de 2024.

Aplicación del modelo del queso suizo en la gestión de desastres. 10 de noviembre de 2024.

Gestión del riesgo de inundación en infraestructuras críticas: estrategias y medidas de resiliencia. 8 de noviembre de 2024.

Presas y control de inundaciones: estrategias integradas para la reducción de riesgos hídricos. 7 de noviembre de 2024.

Defensa integral contra inundaciones: un esbozo de las estrategias para la gestión de riesgos. 6 de noviembre de 2024.

Introducción a las crecidas en ingeniería hidráulica. 5 de noviembre de 2024.

Precipitación en ingeniería hidráulica: conceptos, medición y análisis. 4 de noviembre de 2024.

Efectos de las inundaciones en las estructuras de las edificaciones. 2 de noviembre de 2024.

Valencia frente a la amenaza de una nueva inundación: análisis, antecedentes y estrategias para mitigar el riesgo. 1 de noviembre de 2024.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Cinco ideas revolucionarias de la «estrategia del océano azul» que cambiarán tu forma de ver los negocios.

Introducción: ¿Atrapado en un mar de competencia?

¿Sientes que tu negocio está en una lucha constante por la cuota de mercado? ¿Las guerras de precios y los márgenes de beneficio cada vez más reducidos marcan tu día a día? Si es así, es probable que estés navegando, por lo que los estrategas W. Chan Kim y Renée Mauborgne llaman un «océano rojo».

Esta metáfora describe el espacio de mercado conocido, donde las industrias y sus reglas del juego están perfectamente definidas. En estas aguas, las empresas compiten ferozmente por una demanda existente, tratando de superar a sus rivales para llevarse la mayor participación posible. A medida que el mercado se satura, la competencia a muerte tiñe el agua de sangre, dando lugar a un entorno de crecimiento limitado y utilidades decrecientes.

Pero ¿y si hubiera una alternativa? ¿Y si, en lugar de luchar por un trozo del pastel, pudieras crear uno completamente nuevo? Esa es la promesa del «océano azul»: la creación de espacios de mercado sin competencia, donde aún no existen las reglas del juego y la demanda se crea en lugar de disputarse.

A continuación, te presentamos las cinco ideas más impactantes del libro La estrategia del océano azul, que ofrecen un método sistemático para salir del océano rojo y navegar hacia un crecimiento rentable y sostenible.

1. Olvida a tus rivales: el objetivo es que la competencia sea irrelevante.

La primera idea puede resultar sorprendente: el objetivo de una buena estrategia no es vencer a la competencia, sino hacerla irrelevante. Mientras que la estrategia convencional se centra en la referenciación (benchmarking) y en superar a los rivales, la estrategia del océano azul propone un cambio de enfoque radical.

El contraste, basado en los principios del libro, es claro:

  • Estrategia del Océano Rojo:
    • Competir en el espacio existente del mercado.
    • Vencer a la competencia.
    • Explotar la demanda existente.
    • Elegir entre la disyuntiva entre valor y coste.
    • Alinear todo el sistema de las actividades de una empresa con la decisión estratégica de la diferenciación o del bajo costo.
  • Estrategia del Océano Azul:
    • Crear un espacio sin competencia en el mercado.
    • Hacer que la competencia pierda toda importancia.
    • Crear y capturar nueva demanda.
    • Romper la disyuntiva entre valor y coste.
    • Alinear todo el sistema de las actividades de una empresa con el propósito de lograr diferenciación y bajo costo.

Este cambio de mentalidad se resume a la perfección en una de las frases más célebres del libro:

«La única manera de vencer a la competencia es dejar de tratar de vencerla».

Estratégicamente, este giro es poderoso porque desplaza el objetivo empresarial de un juego de suma cero, en el que la ganancia de una empresa es la pérdida de otra, a una lógica de creación de nuevo valor. En lugar de repartir una demanda limitada, el objetivo es aumentar el tamaño total del mercado.

2. Innovación en valor: el arte de ser diferente y más barato a la vez.

El pensamiento estratégico tradicional nos ha enseñado que las empresas deben tomar una decisión fundamental: o bien compiten por diferenciación, ofreciendo un mayor valor a un coste más alto, o bien compiten por bajo coste, ofreciendo un valor razonable a un coste menor. La estrategia de los océanos azules rompe esta disyuntiva con su piedra angular: la innovación en valor.

La innovación en valor consiste en buscar simultáneamente la diferenciación y el bajo coste. No se trata de un simple avance tecnológico o de ser el primero en un mercado, sino de alinear la innovación con la utilidad para el comprador, el precio y la estructura de costes de la empresa.

Este concepto se materializa cuando se cuestiona en qué compite la industria. Al eliminar o reducir las variables que los clientes no valoran o que suponen un alto coste, la empresa consigue una estructura de costes inferior a la de sus competidores. Del mismo modo, al incrementar y crear nuevas fuentes de valor que la industria nunca antes había ofrecido, se genera una diferenciación radical. Es esta doble acción la que rompe la disyuntiva clásica y permite ofrecer un valor superior a un coste menor.

Este enfoque, que busca la diferenciación y el bajo coste de forma simultánea, no es solo una teoría elegante, sino que tiene un impacto medible y desproporcionado en los resultados del negocio, como demuestran las cifras del siguiente apartado.

3. El impacto real de los océanos azules (traducido en cifras).

Para quienes puedan pensar que crear nuevos mercados es una apuesta demasiado arriesgada, los autores presentan los resultados de un estudio sobre 108 lanzamientos de negocios que demuestran lo contrario. Los resultados son sorprendentes y revelan una clara asimetría entre el riesgo y la recompensa.

Las cifras hablan por sí solas:

  • Lanzamientos en océanos rojos (el 86 % del total) generaron solo el 62 % de los ingresos totales y un escaso 39 % de las utilidades.
  • Lanzamientos en océanos azules (14 % del total): generaron el 38 % de los ingresos y un impresionante 61 % de las utilidades totales.

Esta asimetría demuestra que, aunque la creación de océanos azules es menos frecuente, su impacto en la rentabilidad es desproporcionadamente alto. Aunque navegar en aguas competitivas puede parecer la opción más segura, las cifras indican que la verdadera oportunidad de crecimiento y rentabilidad se halla en la creación de nuevos espacios de mercado. Por tanto, la búsqueda de océanos azules se convierte en un imperativo estratégico.

4. Deja de obsesionarte con tus clientes y empieza a pensar en los «no clientes».

Las empresas tienden a centrarse en sus clientes actuales, tratando de segmentar el mercado de manera cada vez más precisa para satisfacer mejor sus preferencias. Para crear un océano azul y maximizar su tamaño, la estrategia propone hacer lo contrario: mirar más allá de la demanda existente y centrarse en los «no clientes».

Los autores identifican tres niveles de «no clientes» que representan un torrente de demanda potencial sin explotar:

  • Primer nivel: Personas que están próximas a convertirse en no clientes. Utilizan mínimamente la oferta actual mientras buscan algo mejor y están a la espera de dejar de ser clientes.
  • Segundo nivel: No clientes que rechazan conscientemente el mercado de la empresa. Han visto la oferta y han decidido no utilizarla.
  • Tercer nivel: No clientes inexplorados que jamás han contemplado la oferta de la empresa como una opción.

El caso del vino australiano Yellow Tail es un ejemplo perfecto. En lugar de competir con los conocedores del vino, se centraron en los no clientes: los bebedores de cerveza y cócteles. Este grupo se sentía intimidado por los aspectos del vino tradicional, como la compleja terminología enológica, el envejecimiento, los taninos y la sofisticación que rodeaba su consumo. Al identificar estos puntos de fricción, Yellow Tail creó un vino fácil de beber, accesible y divertido que eliminó o redujo sistemáticamente esas barreras, creando en su lugar «facilidad para beber» y «diversión y aventura», y abrió un océano azul masivo al convertir a los no bebedores de vino en nuevos clientes.

5. La herramienta para reconstruir tu mercado: eliminar, reducir, incrementar y crear.

La estrategia del océano azul no es un concepto abstracto, sino un proceso práctico y sistemático. Su principal herramienta para aplicar la innovación en valor es el esquema de las cuatro acciones, que desafía la lógica estratégica de una industria a través de cuatro preguntas clave:

  • ¿Qué variables que la industria da por sentadas se deben eliminar?
  • ¿Qué variables se deben reducir muy por debajo de la norma de la industria?
  • ¿Qué variables se deben incrementar muy por encima de la norma de la industria?
  • ¿Qué variables se deben crear porque la industria nunca las ha ofrecido?

El ejemplo más paradigmático es el Cirque du Soleil. En una industria del circo en declive, aplicaron este modelo para reinventar el entretenimiento en vivo.

  • Eliminó: las estrellas del circo, los espectáculos con animales, las concesiones en los pasillos y las pistas múltiples.
  • Redujo: la diversión, el humor, el suspense y el peligro.
  • Incrementó: un único escenario.
  • Creó: un tema, un ambiente refinado, múltiples producciones y música y danza artísticas.

Esta herramienta sistemática permite a cualquier empresa deconstruir la lógica de su sector y reconstruirla en una nueva curva de valor. Al responder a estas cuatro preguntas, una empresa puede visualizar un nuevo perfil estratégico que la diferencie radicalmente de la competencia, de modo que la comparación directa pierda sentido.

Conclusión: ¿cuál es tu océano azul?

La estrategia del océano azul es mucho más que una teoría empresarial: supone un cambio de mentalidad fundamental. Nos invita a pasar, de competir a crear, de dividir los mercados existentes a construirlos de nuevo. Demuestra que la creación de estos nuevos espacios no es fruto de la suerte o la genialidad, sino el resultado de un proceso estratégico, analítico y sistemático que cualquier organización puede llevar a cabo.

La próxima vez que te sientas atrapado en las sangrientas aguas de la competencia, detente y hazte una pregunta: ¿qué reglas «inquebrantables» de tu sector podrías empezar a cuestionar hoy mismo para descubrir tu propio océano azul?

En este audio se mantiene una conversación interesante sobre este tema.

El siguiente vídeo sintetiza bien las ideas más importantes de la estrategia del océano azul.

Os dejo un vídeo de Polimedia en el que el profesor Jordi Joan Mauri Castelló nos explica este concepto. Espero que os resulte útil.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Ingeniería y resiliencia: la clave de los sistemas de apoyo a la decisión en la gestión de desastres.

En el panorama actual, marcado por una mayor complejidad e interconexión a nivel mundial, los efectos de los desastres son cada vez más graves. El cambio climático, por ejemplo, actúa como un multiplicador de riesgos, intensificando los peligros existentes y generando otros nuevos. Ante esta realidad, el concepto de resiliencia comunitaria se ha convertido en un elemento clave de las estrategias de gestión del riesgo de desastres. La misión de la ingeniería es proporcionar a las comunidades las herramientas necesarias para resistir, adaptarse y recuperarse de estos eventos. En este contexto, los sistemas de apoyo a la decisión (DSS) emergen como herramientas indispensables que transforman la manera en que abordamos la protección de las ciudades y sus ciudadanos.

¿Qué entendemos por resiliencia comunitaria?

En el ámbito de la ingeniería civil y la planificación urbana, la resiliencia se define como la capacidad de un sistema, comunidad o sociedad expuesta a peligros para resistir, absorber, adaptarse, transformarse y recuperarse de manera oportuna y eficiente de los efectos de un evento adverso. Esto incluye la preservación y restauración de sus estructuras y funciones básicas esenciales mediante una gestión de riesgos adecuada. Una comunidad resiliente es aquella que, tras un terremoto, una inundación o una ola de calor extrema, logra mantener operativas o recuperar rápidamente sus infraestructuras críticas —desde la red eléctrica hasta los hospitales—, minimizando el impacto en la vida de sus habitantes.

La gestión del riesgo de desastres (DRM) incluye las fases de prevención, preparación, respuesta y recuperación. La resiliencia está intrínsecamente vinculada a todas estas fases. Por ejemplo, la implementación de códigos de construcción más estrictos o sistemas de control de inundaciones es una medida de prevención que aumenta la resiliencia. La preparación, por su parte, permite que las comunidades se adapten mejor a una situación de desastre y se recuperen con mayor rapidez.

Sistemas de apoyo a la decisión (DSS): herramientas inteligentes para la gestión de crisis.

Los DSS son herramientas informáticas diseñadas para ayudar a los responsables de la toma de decisiones, ya que proporcionan análisis, información y recomendaciones, e incluso permiten simular diferentes escenarios. Son fundamentales para mejorar la resiliencia comunitaria, puesto que ofrecen soluciones rápidas y eficientes a los problemas relacionados con los desastres, integrando diversas fuentes de datos y perspectivas de múltiples interesados. Además, los DSS facilitan la operacionalización de la resiliencia, es decir, permiten traducir este concepto abstracto en acciones y modelos analíticos concretos en los que están implicados todos los actores clave, lo que ofrece una comprensión más profunda del proceso de resiliencia. Esto, a su vez, conduce a una toma de decisiones más objetiva y basada en pruebas, que mitiga la subjetividad humana.

Las técnicas de modelización en los DSS: un arsenal de estrategias.

Los DSS se construyen utilizando diversas técnicas de modelización, cada una con sus propias fortalezas. Entre ellas, las técnicas de optimización son las más utilizadas. Estas técnicas permiten encontrar la mejor solución a un problema teniendo en cuenta múltiples factores y restricciones, a menudo mediante algoritmos matemáticos que identifican la opción más eficiente o efectiva. Por ejemplo, se utilizan para decidir la asignación óptima de recursos para la reparación de infraestructuras tras un terremoto o para la gestión de intervenciones en infraestructuras interdependientes.

Otras técnicas destacadas incluyen:

  • Modelado espacial (SIG): utiliza sistemas de información geográfica (SIG) para capturar relaciones espaciales, analizar, predecir y visualizar la influencia de los factores geográficos en los procesos y las decisiones. Esta técnica resulta muy útil para visualizar la distribución de riesgos y recursos en una ubicación específica, lo que facilita la comprensión del estado de resiliencia.
  • Análisis de decisiones multicriterio (MCDA): ayuda a los responsables de la toma de decisiones a ponderar diferentes factores y evaluar alternativas frente a múltiples criterios, a menudo conflictivos, para identificar la opción más adecuada en función de las prioridades y los objetivos. Es idóneo para la toma de decisiones en grupo y para capturar aspectos cualitativos de un problema.
  • Simulación: crea un modelo digital para imitar sistemas o procesos del mundo real, lo que permite la experimentación y el análisis en un entorno controlado. Es excelente para probar el impacto de diversas políticas y decisiones en el comportamiento del sistema antes de su implementación real.
  • Teoría de grafos: estudia las relaciones entre objetos, que se representan como nodos y aristas en un grafo. Es fundamental para analizar la conectividad de las redes interdependientes, como las infraestructuras de transporte o suministro, y para encontrar rutas óptimas, por ejemplo, para la distribución de ayuda humanitaria.
  • Minería de texto: extrae conocimiento e información de grandes volúmenes de datos textuales mediante métodos computacionales. Un ejemplo práctico es el uso de chatbots que procesan datos de redes sociales para ofrecer información en tiempo real durante un desastre.

Aplicación de los DSS en las fases de gestión de desastres.

Es interesante observar que los DSS tienden a centrarse más en las fases de preparación y respuesta que en las de recuperación y mitigación. Por ejemplo, el modelado espacial se utiliza mucho en la fase de preparación (en el 80 % de los artículos consultados) para tomar decisiones estratégicas, como determinar la ubicación óptima de los refugios o cómo distribuir los recursos. Durante la fase de respuesta, los DSS espaciales permiten visualizar la situación en tiempo real, identificar rutas bloqueadas y distribuir la ayuda humanitaria de manera eficiente mediante algoritmos que calculan la ruta más corta.

La optimización, por su parte, se utiliza principalmente en la fase de recuperación (en el 75 % de los artículos consultados), particularmente en las decisiones relativas a la rehabilitación y reconstrucción de infraestructuras dañadas. Las técnicas de MCDA son adecuadas para la fase de preparación (el 75 % de los artículos), ya que permiten comparar planes y políticas alternativas con el tiempo necesario para su análisis. Los modelos de simulación también se utilizan en la fase de respuesta para imitar el comportamiento del sistema y de los individuos durante una catástrofe.

Desafíos en el desarrollo y la implementación de los DSS.

A pesar de su potencial, el desarrollo e implementación de sistemas de apoyo a la decisión para la resiliencia no están exentos de desafíos significativos. Uno de los principales desafíos es la disponibilidad y calidad de los datos. La modelización de la resiliencia es un proceso complejo en el que los datos, tanto cuantitativos como cualitativos, son fundamentales. A menudo, la información proviene de múltiples fuentes con diferentes niveles de precisión, lo que dificulta su integración. En los países menos desarrollados, el acceso a los datos públicos (censos, informes, etc.) es aún más complicado, lo que limita la aplicación de ciertos modelos.

Otro obstáculo es la incertidumbre inherente al contexto de un desastre y la necesidad de gestionar cambios en tiempo real. También es una preocupación crucial la privacidad de los datos sensibles sobre infraestructuras críticas o planes de emergencia.

Por último, la colaboración interdisciplinar es imprescindible, pero difícil de conseguir, y la integración de estos sistemas en las operaciones diarias de las organizaciones de emergencia sigue siendo un reto considerable.

La colaboración con los interesados es clave para el éxito.

La implicación de los diversos actores o partes interesadas (stakeholders) es fundamental en el ciclo de vida de un DSS para la resiliencia. Se identifican tres enfoques principales:

  1. Como fuente de datos: recopilando sus opiniones y datos (mediante entrevistas, encuestas o incluso información compartida en redes sociales).
  2. Participación en el diseño: involucrándolos en la identificación de problemas, la construcción del modelo y el desarrollo del sistema para garantizar que la herramienta sea relevante y práctica para sus necesidades reales
  3. Incorporación de preferencias en el modelo: reflejando sus prioridades como parámetros o funciones objetivo en los modelos matemáticos, lo que influirá directamente en las soluciones propuestas. Por ejemplo, se pueden integrar las preferencias comunitarias como restricciones en un modelo de optimización.

Conclusiones y futuras direcciones en ingeniería resiliente.

Los sistemas de apoyo a la decisión suponen un avance significativo en nuestra capacidad para crear comunidades más resilientes frente a los desastres. Aunque hemos logrado grandes avances, especialmente en las fases de preparación y respuesta, y con el uso intensivo de modelos de optimización, aún queda mucho por hacer. Es imperativo ampliar el enfoque a las fases de recuperación y mitigación e investigar cómo integrar fuentes de datos en tiempo real y tecnologías IoT para mejorar la capacidad de respuesta de los DSS en entornos dinámicos. Además, debemos seguir profundizando en la modelización de las interacciones entre los diversos actores de la comunidad para fomentar una colaboración más sólida y, en última instancia, crear un entorno más seguro y resiliente para todos.

Referencias:

Elkady, S., Hernantes, J., & Labaka, L. (2024). Decision-making for community resilience: A review of decision support systems and their applicationsHeliyon10(12).

Salas, J., & Yepes, V. (2020). Enhancing sustainability and resilience through multi-level infrastructure planningInternational Journal of Environmental Research and Public Health17(3), 962.

Zhou, Z. W., Alcalà, J., & Yepes, V. (2023). Carbon impact assessment of bridge construction based on resilience theoryJournal of Civil Engineering and Management29(6), 561-576.

Os dejo un audio que resume bien el artículo anterior. Espero que os sea de interés.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.