El mito de la ISO 9001: por qué tu «calidad» está matando tu agilidad operativa.

Durante años, la norma ISO 9001 ha sido víctima de una mala interpretación sistémica. En muchas salas de juntas, la palabra «calidad» no evoca excelencia, sino una imagen lúgubre de estanterías llenas de manuales que nadie lee y de una burocracia asfixiante que ralentiza cada decisión. A esto es a lo que yo llamo «la muerte por papel»: un estado en el que la organización trabaja para el sistema en lugar de ser el sistema quien trabaje para la organización.

Sin embargo, si eliminamos el cumplimiento superficial, lo que queda no es un obstáculo reglamentario, sino un sistema de inteligencia estratégica de alto nivel. La ISO 9001, entendida desde la perspectiva de la madurez organizacional, es, en realidad, el «sistema operativo» de los negocios modernos. Si tu certificación se siente como un lastre y no como una palanca para aumentar el retorno de la inversión (ROI), es probable que estés cometiendo los errores que separan a las empresas que solo «tienen el sello» de las que dominan su mercado.

A continuación, expongo cinco verdades disruptivas extraídas de la esencia técnica de la norma que obligarán a cualquier líder a replantearse su modelo de gestión.

1. El gran pecado de la burocracia autoimpuesta.

La principal fuente de fricción operativa es la confusión entre procedimientos e instrucciones de trabajo. Muchas empresas documentan cada paso de cada tarea en «procedimientos» densos, creando una red de la que es imposible escapar. El consultor sénior sabe que el procedimiento describe el qué, el porqué y quién es el responsable, mientras que el cómo detallado pertenece exclusivamente a las instrucciones de trabajo.

Sin embargo, la verdad más sorprendente, que la mayoría de los gestores ignora, es la siguiente:

Los procedimientos del sistema de gestión de la calidad, según la norma ISO 9001, describen la implementación de dicho sistema. No son obligatorios.

Así es. La norma no te obliga a tener esa montaña de procedimientos. Si tu sistema es burocrático, es por decisión interna, no por exigencia del estándar. La agilidad se recupera cuando se entiende que la ISO busca resultados, no literatura.

2. La estructura de alto nivel.

La ISO 9001 ya no es una isla. Gracias a su Estructura de Alto Nivel, ahora utiliza un lenguaje universal compatible con otros estándares. Esto no es solo un detalle técnico, sino la base para crear sistemas integrales de gestión.

En lugar de tener departamentos estancos que gestionan por separado los riesgos ambientales, de seguridad o de calidad, esta estructura permite integrarlos.

  • ISO 14001: Gestión Ambiental.
  • ISO 45001: Seguridad y salud en el trabajo.

Esta compatibilidad transforma el sistema de gestión en un tronco común que optimiza los recursos de auditoría y, lo que es más importante, elimina la redundancia de datos, de modo que la dirección tenga una visión única de la resiliencia corporativa.

3. El riesgo invisible: de la expectativa voluntaria al requisito legal.

Muchos gestores limitan su visión al cliente final. La norma, sin embargo, exige un enfoque de 360 grados respecto de las partes interesadas. Pero cuidado: el análisis de sus necesidades no es un ejercicio de relaciones públicas, sino una trampa de cumplimiento si no se gestiona con inteligencia estratégica.

Tomemos como ejemplo una empresa de transporte de mercancías. Para un inversor, la «calidad» no solo consiste en que el camión llegue a tiempo, sino que también abarca la imagen de la reputación y el control de riesgos económicos. Para un trabajador, son el reconocimiento y la participación. Lo verdaderamente crítico es que la organización puede decidir aceptar voluntariamente estas expectativas (por ejemplo, mediante un contrato o una promesa de marca).

Muchos se sorprenden al descubrir que una vez que la organización adopta voluntariamente un requisito de una parte interesada, este se convierte automáticamente en un requisito obligatorio del sistema de gestión. Un compromiso contractual con un proveedor sobre plazos de pago o una promesa de sostenibilidad para la sociedad se vuelve tan auditable y legalmente vinculante para tu sistema de calidad como la entrega del producto mismo.

4. Verificación frente a validación: la diferencia entre cumplir y satisfacer.

En la alta dirección, confundir estos términos es una receta para el desastre financiero. La diferencia es sutil, pero vital para garantizar el valor real:

  • Verificación: Confirmación, mediante inspección, de que se han cumplido los requisitos especificados. Se trata de una comprobación frente al plano o al diseño.
  • Validación: Comprobación, mediante ensayo, de que el producto cumple su aplicación específica prevista en el mundo real.

Un producto puede estar perfectamente verificado (cumplir todas las especificaciones técnicas) y ser un fracaso total si no ha sido validado (no sirve para lo que el usuario necesitaba). Un gestor estratégico no se detiene en la inspección, sino que busca el ensayo que demuestre su utilidad real.

5. El liderazgo como eje del PDCA.

El ciclo PDCA (Planificar, Hacer, Verificar, Actuar) suele representarse como un círculo estático. Es un error. En el modelo real de la ISO 9001, el liderazgo no es un paso más del ciclo, sino el eje central que mantiene todos los procesos en órbita y en armonía. Sin liderazgo, el ciclo se fragmenta.

Para que este motor genere mejora continua y no solo «mantenimiento», debe nutrirse de la toma de decisiones basada en la evidencia. La norma es el antídoto contra la gestión por intuición. En la fase de «Actuar», el sistema no solo busca corregir el fallo, sino también eliminar su causa raíz para que no vuelva a ocurrir. Esto solo es posible si los líderes utilizan los datos del sistema para abordar riesgos y oportunidades, en lugar de reaccionar visceralmente ante las crisis diarias.

Conclusión: ¿activo estratégico o certificado decorativo?

La calidad no es un destino, sino una cultura de mejora continua que debe reflejar la salud de tu dirección estratégica. Si analizamos el contexto de una empresa de transporte mediante un análisis DAFO, veremos que factores externos como la fluctuación del precio del combustible o las nuevas regulaciones medioambientales no son «problemas de logística», sino variables de calidad.

En última instancia, tu sistema de gestión de la calidad debería poder responder a las preguntas más difíciles de tu análisis estratégico: ¿por qué un cliente potencial compra a tu competencia y no a ti? ¿Qué le falta a tu servicio para ser verdaderamente superior?

Si tu sistema no te ayuda a responder estas preguntas, no tienes un sistema de gestión, sino un certificado en la pared. La verdadera ISO 9001 es una plataforma para potenciar tus fortalezas y mitigar amenazas antes de que se conviertan en crisis. La pregunta es: ¿estás listo para dejar de «cumplir» y empezar a competir?

En esta conversación puedes escuchar algunas de las ideas más interesantes del tema.

En el vídeo se sintetizan algunos de los aspectos más relevantes de la norma ISO 9001.

ISO_9001_Logistics_and_Transport

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Por qué el pato es el ganador? La sorprendente ciencia detrás de nuestras mejores (y peores) decisiones

El dilema del guepardo y el halcón

En nuestra búsqueda de la excelencia, tendemos a caer en la especialización extrema. Admiramos al guepardo, cuya fisonomía está diseñada para ser el proyectil terrestre definitivo; nos asombra el halcón peregrino, capaz de desafiar la gravedad y alcanzar velocidades de vértigo; y respetamos al pez espada, que se desplaza por el océano con una hidrodinámica inigualable. Cada uno es el «mejor» en su ámbito. Sin embargo, en el tablero de la supervivencia y la estrategia, la excelencia en un solo campo no garantiza el éxito global.

El problema radica en que la realidad rara vez es unidimensional. El dilema del guepardo y el halcón nos muestra que ser el número uno en una categoría puede dejarnos vulnerables cuando el entorno nos exige operar en medios distintos. La «mejor» decisión no surge de la búsqueda ciega de la perfección en un solo criterio, sino de un ejercicio sofisticado de equilibrio.

La paradoja del pato: la versatilidad frente a la especialización.

Desde la perspectiva de la ciencia de las decisiones, el pato es el ganador inesperado de esta contienda evolutiva. Aunque no corre tan rápido como un guepardo, no vuela con la potencia de un halcón ni nada con la destreza de un pez espada, el pato puede realizar las tres acciones con eficacia. En un modelo de decisión multicriterio, el pato representa una «solución de compromiso»: aquella que maximiza la utilidad global en diversos escenarios.

Técnicamente, decidir no es simplemente elegir. Es un proceso de optimización que requiere rigor conceptual.

«Decisión: elegir la mejor opción posible. Hay que definir qué significa mejor y qué significa posible».

El pato triunfa porque cumple con lo «posible» (su conjunto de alternativas factibles es más amplio) y redefine lo «mejor» desde un enfoque sistémico. Mientras que el guepardo es una solución óptima para un conjunto finito de restricciones terrestres, el pato es la respuesta robusta ante un mundo de variables múltiples.

Comparar manzanas con naranjas: el arte de la normalización.

El mayor obstáculo estratégico al evaluar opciones es la disparidad de unidades. ¿Cómo se sopesa el beneficio de la velocidad frente al coste del riesgo o el precio de un activo? Aquí es donde entra en juego la normalización, una técnica matemática que permite unificar escalas y convertir los datos xij en valores adimensionales mij comparables entre sí.

Para un estratega, la normalización no es solo un ajuste de escala, sino un cambio de lógica. Debemos distinguir entre los criterios de beneficio (donde más es mejor) y los de coste (donde menos es mejor).

Sin normalización vectorial o lineal, nuestras decisiones diarias fallan, ya que nuestras escalas mentales están descalibradas y otorgamos un peso desproporcionado a lo que es fácil de medir, ignorando lo que realmente importa.

Lógica difusa: traduciendo la ambigüedad en números reales.

En la estrategia real, los datos rara vez son determinísticos. El lenguaje humano es vago: decimos que una oportunidad es «muy buena» o «normal». La ciencia de la decisión estructura esta incertidumbre mediante la lógica difusa, que transforma los juicios lingüísticos en números triangulares difusos (NTD).

Un NTD se define por tres valores (L, M, U):

  • L (más bajo): el límite inferior o el escenario más pesimista.
  • M (moda): el valor más probable o el núcleo del juicio.
  • U (más alto): el límite superior o el escenario más optimista.

Por ejemplo, la expresión «muy bueno» podría representarse como (0,6; 0,7; 0,8). Esta tríada no es arbitraria, sino que representa el «margen de error» y la vaguedad intrínseca de la percepción humana. Al utilizar estos intervalos, pasamos de una falsa precisión a una objetividad robusta que acepta y cuantifica la duda.

El axioma de Zeleny: la búsqueda del «punto ideal».

¿Cómo identificar la mejor opción en un mar de alternativas? El axioma de Zeleny postula que la solución preferida es la que minimiza la distancia al «punto ideal». Imaginemos un animal hipotético que corriera como el guepardo, volara como el halcón y nadara como el pez espada: ese sería nuestro punto ideal, una utopía técnica.

Para medir cuán cerca estamos de ese ideal, utilizamos funciones de distancia Lp, cuya interpretación cambia nuestra postura estratégica.

  • La distancia de Manhattan (L₁) es una métrica compensatoria. Suma todas las diferencias, lo que permite que una gran fortaleza en un área compense una debilidad en otra.
  • La distancia euclidiana (L₂) es la distancia física más directa en un espacio multidimensional y es la medida estándar de proximidad.
  • La distancia de Chebyshev (L∞) es la medida más conservadora. Se enfoca exclusivamente en la mayor diferencia posible, buscando minimizar el «máximo dolor». Es la estrategia de quien no puede permitirse un solo fallo crítico.

El pato no es perfecto, pero su distancia euclidiana al ideal es menor que la de los especialistas cuando el entorno exige versatilidad.

El filtro de la consistencia: no te contradigas.

Incluso con las mejores herramientas, la calidad de una decisión depende de la lógica del decisor. El Proceso de Jerarquía Analítica (AHP) nos obliga a ser coherentes mediante matrices de comparación pareada que deben respetar tres propiedades fundamentales.

  • Reciprocidad: si la opción A es tres veces mejor que la B, entonces la B debe ser, obligatoriamente, una tercera parte tan buena como la A.
  • Homogeneidad: los elementos comparados deben pertenecer al mismo orden de magnitud para que la escala tenga sentido.
  • Consistencia: si prefieres A sobre B y B sobre C, sería una contradicción lógica preferir C sobre A.

El AHP calcula una razón de consistencia (CR). Si este ratio es elevado, el «autovector» (o vector de prioridades) de la decisión se distorsiona y el juicio pierde validez.

«Los juicios emitidos deben ser revisados si la razón de consistencia es mayor que 0,1».

En la alta estrategia, el objetivo es minimizar este valor para garantizar que nuestras prioridades sean lógicamente sólidas y no fruto de un sesgo momentáneo.

Conclusión: Hacia una estrategia de vida «multicriterio».

La ciencia de la decisión nos enseña que el éxito no es una carrera de cien metros lisos, sino un triatlón constante. Para diseñar vidas y negocios más equilibrados, debemos evolucionar de la optimización simple a la estrategia multicriterio.

  • Sintetizar la versatilidad: hay que dejar de buscar la especialización extrema y empezar a valorar las «soluciones de compromiso» que ofrecen solidez.
  • Normalizar con rigor: antes de comparar, ajuste sus escalas. No ignore el coste por deslumbrarse con el beneficio.
  • Gestionar la incertidumbre: utilice la lógica difusa para aceptar que sus juicios tienen márgenes de error (L, M, U).
  • Medir la distancia al ideal: defina su punto ideal, pero tenga en cuenta si opera bajo una lógica de compensación (L₁) o de mitigación de riesgos (L∞).
  • Exigirse consistencia: si sus prioridades se contradicen, su estrategia colapsará. Mantenga su CR < 0,1.

Al final del día, el pato sobrevive porque es consistente en su mediocridad brillante a través de múltiples medios. ¿Qué criterio fundamental está sacrificando hoy por obsesionarse con una sola métrica de éxito?

En esta conversación puedes escuchar las ideas más interesantes sobre la toma de decisiones.

Una buena síntesis de las ideas sobre este tema la puedes encontrar en el siguiente vídeo.

Aquí dejo un documento de síntesis que espero os resulte útil.

Optimizing_Multicriteria_Decisions

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Gestión y normativa de sostenibilidad medioambiental

En el entorno corporativo actual, la presión por ser «sostenible» es omnipresente. Sin embargo, existe una brecha crítica entre el marketing ecológico y la capacidad real de ejecución. Para un líder estratégico, la sostenibilidad no es una mera declaración de intenciones, sino una cuestión de arquitectura organizativa.

Un Sistema de Gestión Ambiental (SGA) es, en esencia, la forma en que las empresas se organizan, mediante estructuras y procesos definidos, para actuar de manera sistemática, garantizar la fluidez de las operaciones y alcanzar los resultados previstos.

A continuación, se desglosan cinco ideas que te permitirán pasar de la intuición a la estructura y optimizar la competitividad de tu organización conforme a estándares internacionales.

Flexibilidad estratégica: el mito de las metas cuantitativas en la ISO 14001.

Existe la creencia errónea de que la certificación ISO 14001 impone límites uniformes de emisiones a todas las empresas. En realidad, esta norma no dicta resultados, sino que facilita procesos. Como estratega, debes entender que la serie ISO 14000 proporciona un marco lógico que se adapta a tu realidad operativa, ya sea que dirijas una multinacional como Toyota o una empresa de servicios.

Como aclara el estándar técnico:

«No establece un conjunto de objetivos cuantitativos en cuanto a niveles de emisiones ni métodos específicos para medirlos».

Esta característica es la que otorga flexibilidad estratégica. La norma te obliga a identificar tus propios riesgos y externalidades, lo que te permite fijar objetivos acordes con tu modelo de negocio y tus recursos disponibles, garantizando siempre una mejora en el desempeño ambiental.

Resiliencia operativa: el ciclo PHVA como motor de eficiencia.

Un sistema de gestión ambiental (SGA) eficaz no es una foto estática, sino un sistema dinámico diseñado para combatir el estancamiento corporativo. El motor de esta resiliencia es el ciclo PHVA (Planificar-Hacer-Verificar-Actuar), que convierte la gestión ambiental en un flujo operativo constante.

  • Planificar: Definición de objetivos y procesos alineados con la política ambiental de la empresa.
  • Hacer: Ejecución e implementación de los procesos según lo previsto.
  • Verificar: Fase crítica de seguimiento y medición de los compromisos, en la que se evalúan no solo los objetivos, sino también los criterios de operación establecidos.
  • Actuar: Tomar decisiones basadas en datos para optimizar el sistema de forma continua.

Este ciclo garantiza que la gestión ambiental sea un proceso de optimización continua y no un evento aislado para cumplir con una auditoría.

Integración de sistemas: el valor estratégico de la Estructura de Alto Nivel (HLS)

Para los directivos que temen la parálisis burocrática, la Estructura de Alto Nivel (HLS) es la solución definitiva. Las versiones modernas de las normas ISO comparten un texto básico y definiciones comunes. Esto no solo simplifica los trámites administrativos, sino que también ofrece la oportunidad de lograr una integración estratégica.

La implementación de la HLS permite que normas como la ISO 14001 (medio ambiente), la ISO 9001 (calidad) y la ISO 45001 (seguridad y salud) hablen el mismo idioma. Al tratarse de requisitos comunes, el esfuerzo documental se reduce drásticamente, ya que lo único que varía es el enfoque aplicado. Puede gestionar sus responsabilidades legales y operativas desde una única plataforma documental, lo que elimina los silos organizativos y el caos de múltiples sistemas aislados.

 

El rigor en la medición: la ISO 14064 frente a la ISO 14067

Anunciar una «huella de carbono» sin definir sus límites supone un riesgo para la reputación. Según la norma ISO 14064, la credibilidad de sus cifras depende de dos decisiones técnicas cruciales que todo director ejecutivo debe validar:

  • Límites organizativos: ¿Informará desde un enfoque de control (emisiones sobre las que tiene potestad operativa o financiera) o desde un enfoque de cuota de participación (emisiones proporcionales a su capital accionario)?
  • Límites operativos: identificación precisa de los tipos de emisiones (directas e indirectas) que se integran en el inventario anual.

Además, como consultor sénior, es fundamental que su equipo no confunda los términos: la ISO 14064 se centra en la huella de la organización, mientras que si su objetivo es certificar el impacto de un producto o servicio específico, debe recurrir a la ISO 14067. Sin esta distinción, su informe de sostenibilidad carecerá de la transparencia y la veracidad necesarias ante los grupos de interés externos.

El desafío del rediseño: por qué la sostenibilidad no se «compra»

Implementar un SGA no es una transacción, sino una transformación. Un sistema mal gestionado puede convertirse en una «fábrica de papel» si no se aborda con una mentalidad eficiente. El «lado B» de la gestión ambiental exige reconocer tres factores ineludibles:

  • Reestructuración de procesos: la implantación suele requerir cambios profundos en la forma en que opera la empresa, lo que demanda inversión técnica y financiera.
  • Compromiso de la alta dirección: sin la implicación directa de los líderes, el sistema se convierte en un ejercicio burocrático estéril.
  • Gestión documental estratégica: un SGA genera abundantes registros, instrucciones técnicas y procedimientos. La clave para evitar el colapso administrativo es automatizar los procesos rutinarios e integrar estratégicamente la documentación.

Conclusión: la gestión ambiental es gestión de la eficiencia

Los casos de éxito de empresas líderes como Toyota, 3M y Ford demuestran que un sistema de gestión ambiental (SGA) robusto es sinónimo de competitividad. Toyota ha reducido drásticamente su consumo de agua y energía, 3M ha logrado minimizar la contaminación y el desperdicio de recursos y Ford ha transformado sus plantas mediante la eficiencia energética y prácticas de reciclaje de vanguardia.

Un sistema de gestión ambiental aporta el orden y la coherencia necesarios para transformar preocupaciones dispersas en una estructura sistemática de responsabilidades.

La pregunta ya no es si su empresa tiene la intención de ser sostenible, sino si su estructura organizativa actual es lo suficientemente sólida como para sobrevivir y prosperar sin un sistema de gestión formal.

En esta conversación puedes escuchar las ideas más interesantes sobre los sistemas de gestión ambiental.

Este vídeo resume bien los conceptos más importantes del tema.

Aquí dejo un documento que sirve como resumen.

Environmental_Management_and_ISO_Standards

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Preguntas y respuestas sobre la DANA de Valencia que nos obligan a reflexionar

1. ¿Cómo explica el «modelo del queso suizo» que la DANA de 2024 no fuera solo un fenómeno natural, sino un fallo de múltiples barreras de defensa?

Esta pregunta aborda la raíz del desastre y la diferencia entre las condiciones latentes —infraestructuras obsoletas, urbanismo en zonas inundables y falta de mantenimiento— y los fallos activos —retrasos en las alertas y errores en la coordinación de la emergencia—. El análisis revela que la catástrofe ocurrió porque los «agujeros» de distintas áreas —la política, la supervisión, la infraestructura y la respuesta inmediata— se alinearon, lo que permitió que el peligro atravesara todas las defensas. Además, subraya que los desastres no son puramente «naturales», sino el resultado de decisiones humanas y de la ocupación de cauces críticos.

2. ¿Por qué se considera la infraestructura hidráulica un «seguro de vida» y qué consecuencias tuvo la falta de ejecución de las obras proyectadas en el barranco del Poyo?

El significado central de las fuentes técnicas y de las comisiones de investigación radica en que demuestran que las obras hidráulicas salvan vidas. Mientras que Valencia se salvó gracias al nuevo cauce del Turia y las poblaciones del río Magro vieron reducidos sus daños por la presa de Forata, la cuenca del Poyo carecía de infraestructuras de laminación, por lo que se produjo una avenida destructiva sin precedentes. La falta de inversión, la ralentización administrativa y la priorización de criterios ambientales por encima de los estructurales impidieron la ejecución de proyectos ya diseñados y aprobados.

3. ¿De qué manera el «fin de la estacionariedad climática» obliga a la ingeniería y al urbanismo a abandonar los registros históricos y adoptar un diseño basado en el rendimiento y la resiliencia?

Las fuentes consultadas destacan que el cambio climático ha invalidado el uso exclusivo de datos históricos para predecir el futuro. Fenómenos como la DANA de 2024 demuestran que lo que antes se consideraba un evento con un periodo de retorno de 500 años ahora puede ocurrir con mucha mayor frecuencia. Por tanto, es necesario rediseñar las infraestructuras con mayores márgenes de seguridad (retornos de 1000 años), utilizar modelos probabilísticos y aplicar el diseño basado en el desempeño (PBD), que garantiza que un sistema pueda seguir funcionando o recuperarse rápidamente cuando se vea superado.

4. ¿Por qué la «retirada estratégica» de las zonas de alto riesgo y el rediseño arquitectónico resiliente son ahora imperativos para convivir con el «riesgo residual» que las infraestructuras no pueden eliminar?

Esta pregunta aborda el hecho de que, durante décadas, se ha construido con una grave «amnesia hidrológica», ocupando zonas de flujo preferente que la naturaleza ha acabado por reclamar. El análisis de las fuentes indica que, dado que el «riesgo cero» no existe y las presas pueden verse superadas por eventos extremos, la reconstrucción no debe limitarse a reparar, sino a reubicar las infraestructuras críticas (colegios, centros de salud) fuera de las zonas de alto riesgo. En cuanto a las viviendas que permanecen en áreas inundables, se propone un cambio radical en los códigos de edificación: prohibir dormitorios y garajes en las plantas bajas, elevar las instalaciones críticas (electricidad, calderas) y utilizar materiales resistentes al agua que permitan recuperar rápidamente la funcionalidad. Por último, las fuentes subrayan que la educación pública y la cultura de la prevención (siguiendo modelos como el japonés) son medidas de bajo coste y alto impacto que salvan vidas cuando las barreras físicas fallan.

5. ¿Qué cambios son imprescindibles en la gobernanza y la coordinación institucional para evitar que la reconstrucción sea una mera réplica de los errores del pasado?

Las fuentes coinciden en que la reconstrucción no puede limitarse a reponer lo perdido, pues, de lo contrario, se perpetuaría la vulnerabilidad. Se recomienda la creación de un «ministerio del pensamiento» o de un equipo de reflexión que establezca directrices estratégicas a largo plazo y evite la «rapidez ilusoria» de las obras tácticas. Además, se reclama una gobernanza interadministrativa eficaz, posiblemente mediante consorcios en los que las administraciones deleguen competencias para unificar presupuestos y decisiones técnicas sobre las políticas, y así superar la fragmentación y la parálisis burocrática.

Creo que dos analogías o metáforas pueden aclarar algunos conceptos básicos:

  • Gestionar el territorio hoy es como construir en la ladera de un volcán. Podemos instalar sensores y construir diques para desviar la lava (infraestructuras), pero la verdadera seguridad depende de no construir los dormitorios en el camino de la colada (ordenación del territorio) y de que todos los habitantes sepan exactamente qué mochila coger y hacia dónde correr cuando suene la alarma (concienciación comunitaria).
  • Gestionar el riesgo de inundaciones hoy en día es como conducir un coche moderno por una autopista peligrosa: no basta con tener un motor potente (infraestructuras hidráulicas), también es necesario que los cinturones de seguridad y el airbag funcionen (alertas y protección civil), que el conductor esté capacitado (concienciación comunitaria) y que las normas de circulación se adapten a las condiciones meteorológicas de la vía, y no a cómo era el asfalto hace cincuenta años.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Primer aniversario de la DANA de Valencia: Anatomía de un desastre

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

Hoy, 29 de octubre de 2025, se cumple el primer aniversario de la DANA de Valencia de 2024, un evento que ha sido catalogado como una de las mayores catástrofes naturales ocurridas en España en décadas. La tragedia se produjo por unas precipitaciones históricas que pulverizaron récords nacionales, con máximos de más de 770 l/m² acumulados en 24 horas en Turís, lo que demuestra que el riesgo cero no existe en un contexto de cambio climático. El desastre no se explica únicamente por la cantidad de lluvia caída, sino por la trágica multiplicación entre el evento extremo, sobrealimentado por el calentamiento global, y el fallo estructural de un urbanismo que, durante décadas, ha ignorado las zonas de riesgo. Aunque la respuesta inmediata y los esfuerzos por restablecer las infraestructuras críticas han sido notables, la ingeniería de la reconstrucción no puede limitarse a reponer lo perdido, ya que replicar el estado previo implica aceptar que los efectos se repetirán. En este contexto, un medio de comunicación me ha solicitado una entrevista para abordar si, un año después, hemos avanzado hacia las soluciones de resiliencia y prevención que el conocimiento técnico lleva tiempo demandando. Os dejo la entrevista completa, por si os resulta de interés.

¿Cómo describiría desde un punto de vista técnico lo que ocurrió el 29 de octubre en Valencia? ¿Qué falló?

Desde el punto de vista técnico e ingenieril, el suceso del 29 de octubre en Valencia fue un evento de inundación extremo provocado por una DANA con un carácter pluviométrico extraordinario, ya que se registraron cifras extremas, como los 771,8 l/m² en 24 horas en Turís, y caudales en la Rambla del Poyo de hasta 2.283 m³/s antes de que los sensores fueran arrastrados, superando con creces cualquier expectativa de diseño y demostrando que el riesgo cero no existe. La magnitud del impacto fue consecuencia de una serie de factores concurrentes. El factor principal se produjo en la cuenca de la Rambla del Poyo, donde la virulencia del agua (con caudales medidos superiores a 2.200 m³/s y estimaciones simuladas que superan los 3.500 m³/s) se encontró con la ausencia de infraestructuras hidráulicas suficientes para la laminación de avenidas y otras medidas complementarias. Los proyectos de defensa contra inundaciones, que llevaban años planificados y con estudios previos, no se ejecutaron a tiempo. En contraste, el Nuevo Cauce del Turia y las presas de Forata y Buseo funcionaron eficazmente, protegiendo la ciudad de Valencia y otras poblaciones. Además de estas vulnerabilidades latentes, el impacto humano y material se vio agravado por desafíos en la respuesta, incluyendo la efectividad en los sistemas de alerta temprana (SAIH) bajo condiciones tan extremas y en la implantación de los planes de emergencia municipales, así como en la emisión de avisos con suficiente antelación a la población, impidiendo que esta pudiera reaccionar a tiempo.

¿Qué papel jugaron las infraestructuras y la planificación urbana en la magnitud de los daños? ¿Hubo zonas especialmente vulnerables o mal planificadas?

Las infraestructuras y la planificación urbana jugaron un papel determinante en la magnitud de los daños. Por un lado, las obras estructurales, como el Nuevo Cauce del Turia y las presas de Forata y Buseo, resultaron fundamentales, mitigando las inundaciones y protegiendo la ciudad de Valencia y otras poblaciones. Sin embargo, la magnitud de los daños se vio agravada por la ausencia de medidas integrales de defensa diseñadas para la laminación de avenidas, especialmente en la cuenca de la Rambla del Poyo, donde los proyectos planificados no se ejecutaron a tiempo. Los caudales extraordinarios superaron con creces la capacidad existente. Además, las infraestructuras lineales (carreteras, ferrocarriles y puentes) actuaron como puntos de estrangulamiento, reteniendo arrastres y aumentando el nivel de destrucción. Las zonas más vulnerables se concentraron en el cono aluvial de L’Horta Sud, una zona de alto riesgo urbanizada principalmente entre la riada de 1957 y la década de 1970, sin planificación adecuada ni infraestructuras de saneamiento suficientes. La falta de unidad de criterio en la ordenación territorial municipal y la prevalencia de intereses de desarrollo sobre las directrices de restricción de usos en zonas inundables (a pesar de instrumentos como el PATRICOVA) aumentaron la vulnerabilidad social y material del territorio. Aunque algunos hablan de emergencia hidrológica, probablemente sea más adecuado hablar de un profundo desafío urbanístico y de ordenación territorial.

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

Desde entonces, ¿qué medidas reales se han tomado —si las hay— para reducir el riesgo de que vuelva a suceder algo similar?

Desde la DANA de octubre de 2024, las medidas adoptadas se han enfocado en la reconstrucción con criterios de resiliencia y atención a urgencias, aunque las soluciones estructurales de gran calado, que requieren plazos de ejecución más largos, siguen mayormente pendientes. En la fase inmediata, se activaron obras de emergencia, destacando la reparación y refuerzo de infraestructuras críticas como las presas de Forata y Buseo, y la recuperación de cauces y del canal Júcar-Turia. Un ejemplo de reconstrucción en curso es la mejora de la red de drenaje de Paiporta, que forma parte de las primeras actuaciones tras la catástrofe. En el ámbito normativo, el Consell aprobó el Decreto-ley 20/2024 de medidas urbanísticas urgentes y se ha puesto sobre la mesa la revisión de normativas como el Código Técnico de la Edificación (CTE) para incluir requisitos para edificaciones en zonas inundables. También se prevé que los sistemas de comunicación y alerta estén coordinados en todas las cuencas mediterráneas, lo que podría evitar muertes en caso de repetirse el fenómeno. Sin embargo, es un hecho que, meses después, la legislación urbanística de fondo sigue sin cambios estructurales y que, en cuanto a las obras hidráulicas estructurales de prevención, como las presas de laminación, sus plazos de tramitación y ejecución impiden que se hayan materializado avances significativos todavía, dificultando el avance de proyectos críticos. Por tanto, existe una etapa de reconstrucción que debería ser inteligente y no dejar las infraestructuras como estaban antes de la DANA, pues eso implicaría asumir los mismos riesgos, y otra a medio y largo plazo que permita defender a la población, minimizando los riesgos.

¿Qué actuaciones considera urgentes o prioritarias para evitar repetir los errores del pasado?

Para evitar repetir los errores del pasado, es necesario un cambio de modelo que combine inversión estructural urgente con planificación territorial resiliente. En ingeniería hidráulica, la acción prioritaria es acelerar e implementar las obras de laminación contempladas en la planificación hidrológica, como la construcción de presas en las cuencas de la Rambla del Poyo y el río Magro, y destinar recursos extraordinarios para construir las estructuras de prevención necesarias y corregir el déficit de infraestructuras de prevención. También es prioritario eliminar obstáculos urbanísticos, como puentes y terraplenes insuficientes, y reconstruir infraestructuras lineales con criterios resilientes, permitiendo el paso seguro del agua. En urbanismo, la enseñanza principal es devolverle el espacio al agua, retirando estratégicamente infraestructuras de las zonas de flujo preferente para reducir la exposición al riesgo más elevado e iniciando un plan a largo plazo para reubicar infraestructuras críticas y viviendas vulnerables. Se recomienda revisar la normativa sobre garajes subterráneos en llanuras de inundación. Asimismo, es esencial invertir en sistemas de alerta hidrológica robustos, con más sensores y modelos predictivos que traduzcan la predicción en avisos concretos y accionables. Por último, es fundamental que la gobernanza supere la inercia burocrática mediante un modelo de ejecución de urgencia que priorice el conocimiento técnico y garantice que el riesgo no se convierta de nuevo en catástrofe humana.

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

¿Hasta qué punto Valencia está preparada para afrontar lluvias torrenciales o fenómenos extremos de este tipo en el futuro?

Desde una perspectiva técnica e ingenieril, a día de hoy, la vulnerabilidad de fondo persiste y no estamos preparados para afrontar una nueva DANA de la magnitud de la ocurrida en 2024. La situación es similar a la de una familia que circula en coche por la autopista a 120 km/h sin cinturones de seguridad: bastaría un obstáculo inesperado (una DANA) para que el accidente fuera mortal. Aceptar la reposición de lo perdido sin añadir nuevas medidas de protección estructural implicaría aceptar que los efectos del desastre se repetirán, algo inasumible. El problema principal es que prácticamente no se han ejecutado las grandes obras de laminación planificadas, especialmente en las cuencas de la Rambla del Poyo y del Magro, que constituyen la medida más eficaz para proteger zonas densamente pobladas mediante contención en cabecera. La DANA expuso un problema urbanístico severo. Meses después, mientras no se modifique la legislación territorial de fondo y se actúe sobre el territorio, el riesgo latente de la mala planificación persiste ante el próximo fenómeno extremo. La única forma de eliminar esta vulnerabilidad es mediante una acción integral que combine inversión urgente en obras estructurales con retirada estratégica de zonas de flujo preferente.

Os dejo un pequeño vídeo didáctico donde se resume lo acontecido en la DANA del 29 de octubre de 2024.

En las noticias de hoy, aparezco en varios reportajes:

En el Telediario de TVE, en horario de máxima audiencia, a las 21:00 h, se hizo un programa especial sobre la DANA donde tuve la ocasión de participar. Os dejo un trozo del vídeo.

 

Reconstruir Valencia un año después: «cirugía urbana» y zonas verdes para protegerse de futuras danas

Un año después de la DANA del 29-O, los expertos advierten: «Podría volver a pasar»

Valencia: expertos advierten que la región aún no está preparada para afrontar otro episodio climático extremo

Valencia se blinda frente al agua: garajes elevados e ingeniería verde tras la DANA

One year after Valencia’s deadly flooding experts warn ‘it could happen again’

Një vit pas përmbytjeve vdekjeprurëse në Valencia, ekspertët paralajmërojnë se ‘mund të ndodhë përsëri’

Egy évvel a valenciai árvíz után a szakértők figyelmeztetnek: «Ez újra megtörténhet»

Egy évvel a spanyol árvizek után: Tanulságok és kihívások a Valenciai Közösség számára

 

También os dejo los artículos que he ido escribiendo sobre este tema en este blog. Espero que os resulten de interés.

Lo que la catástrofe de Valencia nos obliga a repensar: cuatro lecciones. 30 de septiembre de 2025.

Resiliencia en las infraestructuras: cómo prepararnos para un futuro de incertidumbre. 26 de septiembre de 2025.

Iniciativa Legislativa Popular para la Modificación de la Ley de Aguas. 17 de julio de 2025.

Posibles consecuencias de una nueva DANA en el otoño de 2025. 16 de julio de 2025.

Discurso de apertura en el evento Innotransfer “Infraestructuras resilientes frente a eventos climáticos extremos”. 26 de mayo de 2025.

Ya son 6 meses desde el desastre de la DANA en Valencia. 29 de abril de 2025.

Jornada sobre infraestructuras resilientes al clima. 8 de abril de 2025.

Entrevista en Levante-EMV sobre la reconstrucción tras la DANA. 17 de marzo de 2025.

La ingeniería de la reconstrucción. 6 de marzo de 2025.

Lecciones aprendidas: proteger a la población es la prioridad. 25 de diciembre de 2024.

DANA 2024. Causas, consecuencias y soluciones. 3 de diciembre de 2024.

Qué es una presa. «La via verda», À Punt. 28 de noviembre de 2024.

Aplicación del modelo del queso suizo en la gestión de desastres. 10 de noviembre de 2024.

Gestión del riesgo de inundación en infraestructuras críticas: estrategias y medidas de resiliencia. 8 de noviembre de 2024.

Presas y control de inundaciones: estrategias integradas para la reducción de riesgos hídricos. 7 de noviembre de 2024.

Defensa integral contra inundaciones: un esbozo de las estrategias para la gestión de riesgos. 6 de noviembre de 2024.

Introducción a las crecidas en ingeniería hidráulica. 5 de noviembre de 2024.

Precipitación en ingeniería hidráulica: conceptos, medición y análisis. 4 de noviembre de 2024.

Efectos de las inundaciones en las estructuras de las edificaciones. 2 de noviembre de 2024.

Valencia frente a la amenaza de una nueva inundación: análisis, antecedentes y estrategias para mitigar el riesgo. 1 de noviembre de 2024.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Cinco ideas revolucionarias de la «estrategia del océano azul» que cambiarán tu forma de ver los negocios.

Introducción: ¿Atrapado en un mar de competencia?

¿Sientes que tu negocio está en una lucha constante por la cuota de mercado? ¿Las guerras de precios y los márgenes de beneficio cada vez más reducidos marcan tu día a día? Si es así, es probable que estés navegando, por lo que los estrategas W. Chan Kim y Renée Mauborgne llaman un «océano rojo».

Esta metáfora describe el espacio de mercado conocido, donde las industrias y sus reglas del juego están perfectamente definidas. En estas aguas, las empresas compiten ferozmente por una demanda existente, tratando de superar a sus rivales para llevarse la mayor participación posible. A medida que el mercado se satura, la competencia a muerte tiñe el agua de sangre, dando lugar a un entorno de crecimiento limitado y utilidades decrecientes.

Pero ¿y si hubiera una alternativa? ¿Y si, en lugar de luchar por un trozo del pastel, pudieras crear uno completamente nuevo? Esa es la promesa del «océano azul»: la creación de espacios de mercado sin competencia, donde aún no existen las reglas del juego y la demanda se crea en lugar de disputarse.

A continuación, te presentamos las cinco ideas más impactantes del libro La estrategia del océano azul, que ofrecen un método sistemático para salir del océano rojo y navegar hacia un crecimiento rentable y sostenible.

1. Olvida a tus rivales: el objetivo es que la competencia sea irrelevante.

La primera idea puede resultar sorprendente: el objetivo de una buena estrategia no es vencer a la competencia, sino hacerla irrelevante. Mientras que la estrategia convencional se centra en la referenciación (benchmarking) y en superar a los rivales, la estrategia del océano azul propone un cambio de enfoque radical.

El contraste, basado en los principios del libro, es claro:

  • Estrategia del Océano Rojo:
    • Competir en el espacio existente del mercado.
    • Vencer a la competencia.
    • Explotar la demanda existente.
    • Elegir entre la disyuntiva entre valor y coste.
    • Alinear todo el sistema de las actividades de una empresa con la decisión estratégica de la diferenciación o del bajo costo.
  • Estrategia del Océano Azul:
    • Crear un espacio sin competencia en el mercado.
    • Hacer que la competencia pierda toda importancia.
    • Crear y capturar nueva demanda.
    • Romper la disyuntiva entre valor y coste.
    • Alinear todo el sistema de las actividades de una empresa con el propósito de lograr diferenciación y bajo costo.

Este cambio de mentalidad se resume a la perfección en una de las frases más célebres del libro:

«La única manera de vencer a la competencia es dejar de tratar de vencerla».

Estratégicamente, este giro es poderoso porque desplaza el objetivo empresarial de un juego de suma cero, en el que la ganancia de una empresa es la pérdida de otra, a una lógica de creación de nuevo valor. En lugar de repartir una demanda limitada, el objetivo es aumentar el tamaño total del mercado.

2. Innovación en valor: el arte de ser diferente y más barato a la vez.

El pensamiento estratégico tradicional nos ha enseñado que las empresas deben tomar una decisión fundamental: o bien compiten por diferenciación, ofreciendo un mayor valor a un coste más alto, o bien compiten por bajo coste, ofreciendo un valor razonable a un coste menor. La estrategia de los océanos azules rompe esta disyuntiva con su piedra angular: la innovación en valor.

La innovación en valor consiste en buscar simultáneamente la diferenciación y el bajo coste. No se trata de un simple avance tecnológico o de ser el primero en un mercado, sino de alinear la innovación con la utilidad para el comprador, el precio y la estructura de costes de la empresa.

Este concepto se materializa cuando se cuestiona en qué compite la industria. Al eliminar o reducir las variables que los clientes no valoran o que suponen un alto coste, la empresa consigue una estructura de costes inferior a la de sus competidores. Del mismo modo, al incrementar y crear nuevas fuentes de valor que la industria nunca antes había ofrecido, se genera una diferenciación radical. Es esta doble acción la que rompe la disyuntiva clásica y permite ofrecer un valor superior a un coste menor.

Este enfoque, que busca la diferenciación y el bajo coste de forma simultánea, no es solo una teoría elegante, sino que tiene un impacto medible y desproporcionado en los resultados del negocio, como demuestran las cifras del siguiente apartado.

3. El impacto real de los océanos azules (traducido en cifras).

Para quienes puedan pensar que crear nuevos mercados es una apuesta demasiado arriesgada, los autores presentan los resultados de un estudio sobre 108 lanzamientos de negocios que demuestran lo contrario. Los resultados son sorprendentes y revelan una clara asimetría entre el riesgo y la recompensa.

Las cifras hablan por sí solas:

  • Lanzamientos en océanos rojos (el 86 % del total) generaron solo el 62 % de los ingresos totales y un escaso 39 % de las utilidades.
  • Lanzamientos en océanos azules (14 % del total): generaron el 38 % de los ingresos y un impresionante 61 % de las utilidades totales.

Esta asimetría demuestra que, aunque la creación de océanos azules es menos frecuente, su impacto en la rentabilidad es desproporcionadamente alto. Aunque navegar en aguas competitivas puede parecer la opción más segura, las cifras indican que la verdadera oportunidad de crecimiento y rentabilidad se halla en la creación de nuevos espacios de mercado. Por tanto, la búsqueda de océanos azules se convierte en un imperativo estratégico.

4. Deja de obsesionarte con tus clientes y empieza a pensar en los «no clientes».

Las empresas tienden a centrarse en sus clientes actuales, tratando de segmentar el mercado de manera cada vez más precisa para satisfacer mejor sus preferencias. Para crear un océano azul y maximizar su tamaño, la estrategia propone hacer lo contrario: mirar más allá de la demanda existente y centrarse en los «no clientes».

Los autores identifican tres niveles de «no clientes» que representan un torrente de demanda potencial sin explotar:

  • Primer nivel: Personas que están próximas a convertirse en no clientes. Utilizan mínimamente la oferta actual mientras buscan algo mejor y están a la espera de dejar de ser clientes.
  • Segundo nivel: No clientes que rechazan conscientemente el mercado de la empresa. Han visto la oferta y han decidido no utilizarla.
  • Tercer nivel: No clientes inexplorados que jamás han contemplado la oferta de la empresa como una opción.

El caso del vino australiano Yellow Tail es un ejemplo perfecto. En lugar de competir con los conocedores del vino, se centraron en los no clientes: los bebedores de cerveza y cócteles. Este grupo se sentía intimidado por los aspectos del vino tradicional, como la compleja terminología enológica, el envejecimiento, los taninos y la sofisticación que rodeaba su consumo. Al identificar estos puntos de fricción, Yellow Tail creó un vino fácil de beber, accesible y divertido que eliminó o redujo sistemáticamente esas barreras, creando en su lugar «facilidad para beber» y «diversión y aventura», y abrió un océano azul masivo al convertir a los no bebedores de vino en nuevos clientes.

5. La herramienta para reconstruir tu mercado: eliminar, reducir, incrementar y crear.

La estrategia del océano azul no es un concepto abstracto, sino un proceso práctico y sistemático. Su principal herramienta para aplicar la innovación en valor es el esquema de las cuatro acciones, que desafía la lógica estratégica de una industria a través de cuatro preguntas clave:

  • ¿Qué variables que la industria da por sentadas se deben eliminar?
  • ¿Qué variables se deben reducir muy por debajo de la norma de la industria?
  • ¿Qué variables se deben incrementar muy por encima de la norma de la industria?
  • ¿Qué variables se deben crear porque la industria nunca las ha ofrecido?

El ejemplo más paradigmático es el Cirque du Soleil. En una industria del circo en declive, aplicaron este modelo para reinventar el entretenimiento en vivo.

  • Eliminó: las estrellas del circo, los espectáculos con animales, las concesiones en los pasillos y las pistas múltiples.
  • Redujo: la diversión, el humor, el suspense y el peligro.
  • Incrementó: un único escenario.
  • Creó: un tema, un ambiente refinado, múltiples producciones y música y danza artísticas.

Esta herramienta sistemática permite a cualquier empresa deconstruir la lógica de su sector y reconstruirla en una nueva curva de valor. Al responder a estas cuatro preguntas, una empresa puede visualizar un nuevo perfil estratégico que la diferencie radicalmente de la competencia, de modo que la comparación directa pierda sentido.

Conclusión: ¿cuál es tu océano azul?

La estrategia del océano azul es mucho más que una teoría empresarial: supone un cambio de mentalidad fundamental. Nos invita a pasar, de competir a crear, de dividir los mercados existentes a construirlos de nuevo. Demuestra que la creación de estos nuevos espacios no es fruto de la suerte o la genialidad, sino el resultado de un proceso estratégico, analítico y sistemático que cualquier organización puede llevar a cabo.

La próxima vez que te sientas atrapado en las sangrientas aguas de la competencia, detente y hazte una pregunta: ¿qué reglas «inquebrantables» de tu sector podrías empezar a cuestionar hoy mismo para descubrir tu propio océano azul?

En este audio se mantiene una conversación interesante sobre este tema.

El siguiente vídeo sintetiza bien las ideas más importantes de la estrategia del océano azul.

Os dejo un vídeo de Polimedia en el que el profesor Jordi Joan Mauri Castelló nos explica este concepto. Espero que os resulte útil.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Ingeniería y resiliencia: la clave de los sistemas de apoyo a la decisión en la gestión de desastres.

En el panorama actual, marcado por una mayor complejidad e interconexión a nivel mundial, los efectos de los desastres son cada vez más graves. El cambio climático, por ejemplo, actúa como un multiplicador de riesgos, intensificando los peligros existentes y generando otros nuevos. Ante esta realidad, el concepto de resiliencia comunitaria se ha convertido en un elemento clave de las estrategias de gestión del riesgo de desastres. La misión de la ingeniería es proporcionar a las comunidades las herramientas necesarias para resistir, adaptarse y recuperarse de estos eventos. En este contexto, los sistemas de apoyo a la decisión (DSS) emergen como herramientas indispensables que transforman la manera en que abordamos la protección de las ciudades y sus ciudadanos.

¿Qué entendemos por resiliencia comunitaria?

En el ámbito de la ingeniería civil y la planificación urbana, la resiliencia se define como la capacidad de un sistema, comunidad o sociedad expuesta a peligros para resistir, absorber, adaptarse, transformarse y recuperarse de manera oportuna y eficiente de los efectos de un evento adverso. Esto incluye la preservación y restauración de sus estructuras y funciones básicas esenciales mediante una gestión de riesgos adecuada. Una comunidad resiliente es aquella que, tras un terremoto, una inundación o una ola de calor extrema, logra mantener operativas o recuperar rápidamente sus infraestructuras críticas —desde la red eléctrica hasta los hospitales—, minimizando el impacto en la vida de sus habitantes.

La gestión del riesgo de desastres (DRM) incluye las fases de prevención, preparación, respuesta y recuperación. La resiliencia está intrínsecamente vinculada a todas estas fases. Por ejemplo, la implementación de códigos de construcción más estrictos o sistemas de control de inundaciones es una medida de prevención que aumenta la resiliencia. La preparación, por su parte, permite que las comunidades se adapten mejor a una situación de desastre y se recuperen con mayor rapidez.

Sistemas de apoyo a la decisión (DSS): herramientas inteligentes para la gestión de crisis.

Los DSS son herramientas informáticas diseñadas para ayudar a los responsables de la toma de decisiones, ya que proporcionan análisis, información y recomendaciones, e incluso permiten simular diferentes escenarios. Son fundamentales para mejorar la resiliencia comunitaria, puesto que ofrecen soluciones rápidas y eficientes a los problemas relacionados con los desastres, integrando diversas fuentes de datos y perspectivas de múltiples interesados. Además, los DSS facilitan la operacionalización de la resiliencia, es decir, permiten traducir este concepto abstracto en acciones y modelos analíticos concretos en los que están implicados todos los actores clave, lo que ofrece una comprensión más profunda del proceso de resiliencia. Esto, a su vez, conduce a una toma de decisiones más objetiva y basada en pruebas, que mitiga la subjetividad humana.

Las técnicas de modelización en los DSS: un arsenal de estrategias.

Los DSS se construyen utilizando diversas técnicas de modelización, cada una con sus propias fortalezas. Entre ellas, las técnicas de optimización son las más utilizadas. Estas técnicas permiten encontrar la mejor solución a un problema teniendo en cuenta múltiples factores y restricciones, a menudo mediante algoritmos matemáticos que identifican la opción más eficiente o efectiva. Por ejemplo, se utilizan para decidir la asignación óptima de recursos para la reparación de infraestructuras tras un terremoto o para la gestión de intervenciones en infraestructuras interdependientes.

Otras técnicas destacadas incluyen:

  • Modelado espacial (SIG): utiliza sistemas de información geográfica (SIG) para capturar relaciones espaciales, analizar, predecir y visualizar la influencia de los factores geográficos en los procesos y las decisiones. Esta técnica resulta muy útil para visualizar la distribución de riesgos y recursos en una ubicación específica, lo que facilita la comprensión del estado de resiliencia.
  • Análisis de decisiones multicriterio (MCDA): ayuda a los responsables de la toma de decisiones a ponderar diferentes factores y evaluar alternativas frente a múltiples criterios, a menudo conflictivos, para identificar la opción más adecuada en función de las prioridades y los objetivos. Es idóneo para la toma de decisiones en grupo y para capturar aspectos cualitativos de un problema.
  • Simulación: crea un modelo digital para imitar sistemas o procesos del mundo real, lo que permite la experimentación y el análisis en un entorno controlado. Es excelente para probar el impacto de diversas políticas y decisiones en el comportamiento del sistema antes de su implementación real.
  • Teoría de grafos: estudia las relaciones entre objetos, que se representan como nodos y aristas en un grafo. Es fundamental para analizar la conectividad de las redes interdependientes, como las infraestructuras de transporte o suministro, y para encontrar rutas óptimas, por ejemplo, para la distribución de ayuda humanitaria.
  • Minería de texto: extrae conocimiento e información de grandes volúmenes de datos textuales mediante métodos computacionales. Un ejemplo práctico es el uso de chatbots que procesan datos de redes sociales para ofrecer información en tiempo real durante un desastre.

Aplicación de los DSS en las fases de gestión de desastres.

Es interesante observar que los DSS tienden a centrarse más en las fases de preparación y respuesta que en las de recuperación y mitigación. Por ejemplo, el modelado espacial se utiliza mucho en la fase de preparación (en el 80 % de los artículos consultados) para tomar decisiones estratégicas, como determinar la ubicación óptima de los refugios o cómo distribuir los recursos. Durante la fase de respuesta, los DSS espaciales permiten visualizar la situación en tiempo real, identificar rutas bloqueadas y distribuir la ayuda humanitaria de manera eficiente mediante algoritmos que calculan la ruta más corta.

La optimización, por su parte, se utiliza principalmente en la fase de recuperación (en el 75 % de los artículos consultados), particularmente en las decisiones relativas a la rehabilitación y reconstrucción de infraestructuras dañadas. Las técnicas de MCDA son adecuadas para la fase de preparación (el 75 % de los artículos), ya que permiten comparar planes y políticas alternativas con el tiempo necesario para su análisis. Los modelos de simulación también se utilizan en la fase de respuesta para imitar el comportamiento del sistema y de los individuos durante una catástrofe.

Desafíos en el desarrollo y la implementación de los DSS.

A pesar de su potencial, el desarrollo e implementación de sistemas de apoyo a la decisión para la resiliencia no están exentos de desafíos significativos. Uno de los principales desafíos es la disponibilidad y calidad de los datos. La modelización de la resiliencia es un proceso complejo en el que los datos, tanto cuantitativos como cualitativos, son fundamentales. A menudo, la información proviene de múltiples fuentes con diferentes niveles de precisión, lo que dificulta su integración. En los países menos desarrollados, el acceso a los datos públicos (censos, informes, etc.) es aún más complicado, lo que limita la aplicación de ciertos modelos.

Otro obstáculo es la incertidumbre inherente al contexto de un desastre y la necesidad de gestionar cambios en tiempo real. También es una preocupación crucial la privacidad de los datos sensibles sobre infraestructuras críticas o planes de emergencia.

Por último, la colaboración interdisciplinar es imprescindible, pero difícil de conseguir, y la integración de estos sistemas en las operaciones diarias de las organizaciones de emergencia sigue siendo un reto considerable.

La colaboración con los interesados es clave para el éxito.

La implicación de los diversos actores o partes interesadas (stakeholders) es fundamental en el ciclo de vida de un DSS para la resiliencia. Se identifican tres enfoques principales:

  1. Como fuente de datos: recopilando sus opiniones y datos (mediante entrevistas, encuestas o incluso información compartida en redes sociales).
  2. Participación en el diseño: involucrándolos en la identificación de problemas, la construcción del modelo y el desarrollo del sistema para garantizar que la herramienta sea relevante y práctica para sus necesidades reales
  3. Incorporación de preferencias en el modelo: reflejando sus prioridades como parámetros o funciones objetivo en los modelos matemáticos, lo que influirá directamente en las soluciones propuestas. Por ejemplo, se pueden integrar las preferencias comunitarias como restricciones en un modelo de optimización.

Conclusiones y futuras direcciones en ingeniería resiliente.

Los sistemas de apoyo a la decisión suponen un avance significativo en nuestra capacidad para crear comunidades más resilientes frente a los desastres. Aunque hemos logrado grandes avances, especialmente en las fases de preparación y respuesta, y con el uso intensivo de modelos de optimización, aún queda mucho por hacer. Es imperativo ampliar el enfoque a las fases de recuperación y mitigación e investigar cómo integrar fuentes de datos en tiempo real y tecnologías IoT para mejorar la capacidad de respuesta de los DSS en entornos dinámicos. Además, debemos seguir profundizando en la modelización de las interacciones entre los diversos actores de la comunidad para fomentar una colaboración más sólida y, en última instancia, crear un entorno más seguro y resiliente para todos.

Referencias:

Elkady, S., Hernantes, J., & Labaka, L. (2024). Decision-making for community resilience: A review of decision support systems and their applicationsHeliyon10(12).

Salas, J., & Yepes, V. (2020). Enhancing sustainability and resilience through multi-level infrastructure planningInternational Journal of Environmental Research and Public Health17(3), 962.

Zhou, Z. W., Alcalà, J., & Yepes, V. (2023). Carbon impact assessment of bridge construction based on resilience theoryJournal of Civil Engineering and Management29(6), 561-576.

Os dejo un audio que resume bien el artículo anterior. Espero que os sea de interés.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Lo que la catástrofe de Valencia nos obliga a repensar: cuatro lecciones

Ayer, cuando se cumplían 11 meses de la catástrofe de la DANA de 2024, volvimos a estar en alerta roja en Valencia. No se trató de un evento tan catastrófico como el que vivimos hace menos de un año. Pero volvieron los fantasmas y se volvió a poner a prueba todo el esfuerzo, con mayor o menor acierto, que se está realizando para evitar este tipo de catástrofes.

Queda mucho por hacer: necesitamos consenso en la gobernanza de los proyectos de futuro, desarrollo sostenible de los territorios, un mejor conocimiento para actuar de manera más eficaz por parte de las autoridades y los ciudadanos, y finalmente, aprender a convivir con las inundaciones.

A continuación, os resumo algunos pensamientos sobre este tema que he ido publicando en este blog. Espero que sirvan para reflexionar sobre este tema.

Introducción: cuando la «naturaleza» no es la única culpable.

Tras la devastadora DANA que asoló la provincia de Valencia en octubre de 2024, dejando una estela de dolor y destrucción, es natural buscar explicaciones. La tendencia humana nos lleva a señalar a la «furia de la naturaleza», a la «mala suerte» o a un evento tan extraordinario que era imposible de prever. Nos sentimos víctimas de una fuerza incontrolable.

Sin embargo, un análisis técnico y sereno nos obliga a mirar más allá del barro y el agua. Como se argumenta en foros de expertos, los desastres no son naturales, sino que son siempre el resultado de acciones y decisiones humanas que, acumuladas con el paso del tiempo, crean las condiciones perfectas para la tragedia. Esta idea no es nueva. Ya en 1755, tras el terremoto de Lisboa, Jean-Jacques Rousseau le escribía a Voltaire: «Convenga usted que la naturaleza no construyó las 20.000 casas de seis y siete pisos, y que, si los habitantes de esta gran ciudad hubieran vivido menos hacinados, con mayor igualdad y modestia, los estragos del terremoto hubieran sido menores, o quizá inexistentes».

Este artículo explora cuatro de las ideas menos obvias y más impactantes que surgen del análisis técnico del desastre. Cuatro revelaciones que nos invitan a dejar de buscar un único culpable para empezar a entender las verdaderas raíces del riesgo, repensar cómo nos preparamos para él y, sobre todo, cómo lo reconstruimos de forma más inteligente.

Primera revelación: un desastre no es azar, es la coincidencia de errores en cadena (el modelo del queso suizo).

La primera revelación consiste en abandonar la búsqueda de un único culpable. Un desastre no es un rayo que cae, sino una tormenta perfecta de debilidades sistémicas.

1. Las catástrofes no se producen por un único fallo, sino por una tormenta perfecta de pequeñas debilidades.

Para entender por qué un fenómeno meteorológico extremo se convierte en una catástrofe, los analistas de riesgos utilizan el «modelo del queso suizo» de James T. Reason. La idea es sencilla: nuestro sistema de protección es como una pila de lonchas de queso. Cada loncha representa una capa de defensa (infraestructuras, planes de emergencia, normativas urbanísticas) y los agujeros en cada una de ellas simbolizan fallos o debilidades. Ocurre un desastre cuando los agujeros de varias capas se alinean, creando una «trayectoria de oportunidad de accidente» que permite al peligro atravesar todas las barreras.

Aplicado a la gestión de inundaciones, este modelo identifica cuatro áreas principales donde se producen estos fallos:

  • Influencias organizativas: decisiones políticas a largo plazo, como «un contexto de austeridad» en el que las instituciones «reducen la inversión en infraestructuras de protección». Esto crea agujeros latentes en nuestras defensas.
  • Fallos de supervisión: falta de control efectivo sobre el cumplimiento de normativas, como la construcción en zonas inundables o el mantenimiento de infraestructuras de contención.
  • Condiciones latentes: Debilidades preexistentes que permanecen ocultas hasta que se produce la crisis. Un sistema de drenaje obsoleto, planes de evacuación anticuados o la «falta de concienciación y preparación en la comunidad» son ejemplos de condiciones latentes.
  • Acciones inseguras: errores activos cometidos durante la emergencia, como retrasos en la emisión de alertas o una comunicación deficiente con el público.

Esta perspectiva nos saca del juego de la culpa lineal —una presa que falló, una alerta que no llegó— y nos obliga a entender el desastre como un fallo sistémico acumulado, resultado de años de pequeñas decisiones, omisiones y debilidades que finalmente se alinearon en el peor momento posible.

Segunda revelación: La trampa de la reconstrucción apresurada.

2. Volver a construir lo mismo que se destruyó es programar la siguiente catástrofe.

Tras la conmoción, la presión política y social exige una respuesta inmediata: limpiar, reparar y reconstruir. Sin embargo, este impulso esconde una de las trampas más peligrosas. Si la reconstrucción se limita a la reposición de lo perdido, ignoramos la lección más importante y perpetuamos las mismas vulnerabilidades.

La forma en que se afronta la reconstrucción tras un desastre no puede limitarse a la reposición de lo perdido.

Aquí surge un conflicto fundamental. Por un lado, está el «enfoque táctico» de los políticos, que necesitan acciones rápidas y visibles. Como explican los análisis de ingeniería, «la rapidez en la ejecución de ciertas obras genera la percepción de una gestión eficaz, pero este proceder puede ocultar la ausencia de una estrategia que optimice las actuaciones a largo plazo». Por otro lado, está la necesidad técnica de llevar a cabo una reflexión estratégica que requiere tiempo para analizar qué ha fallado y diseñar soluciones resilientes que no repitan los errores del pasado.

Para evitar que la urgencia impida esta reflexión, es esencial contar con un equipo de análisis, una especie de «ministerio del pensamiento», que establezca directrices fundamentadas. Esta «trampa de la reconstrucción» es común porque la reflexión es lenta y políticamente menos rentable que una foto posando en la inauguración de un puente reparado. Evitarla tras la DANA de Valencia es crucial. No se trata solo de levantar muros, sino de aprovechar esta dolorosa oportunidad para reordenar el territorio, rediseñar las infraestructuras y construir una sociedad más segura.

Tercera revelación: El clima ha roto las reglas del juego.

3. Ya no podemos utilizar el pasado como guía infalible para diseñar el futuro de nuestras infraestructuras.

Durante un siglo, la ingeniería se ha basado en una premisa fundamental que hoy es una peligrosa falsedad: que el clima del pasado era una guía fiable para el futuro. Este principio, conocido como «estacionariedad climática», ha dejado de ser válido. Esta hipótesis partía de la base de que, aunque el clima es variable, sus patrones a largo plazo se mantenían estables, lo que permitía utilizar registros históricos para calcular estadísticamente los «periodos de retorno» y diseñar infraestructuras capaces de soportar, por ejemplo, la «tormenta de los 100 años», un evento que no ocurre cada 100 años, sino que tiene un 1 % de probabilidad de suceder en cualquier año.

El cambio climático ha invalidado esta hipótesis. El clima ya no es estacionario. La frecuencia e intensidad de los fenómenos meteorológicos extremos están aumentando a un ritmo que hace que los datos históricos dejen de ser una referencia fiable. Esta no estacionariedad aumenta los «agujeros» en nuestro queso suizo de defensas, haciendo que las vulnerabilidades sistémicas sean aún más críticas.

La consecuencia es alarmante: muchas de nuestras infraestructuras (puentes, sistemas de drenaje, presas) pueden haber sido diseñadas para unas condiciones que ya no existen, lo que aumenta drásticamente el riesgo estructural. La adaptación al cambio climático no es una opción ideológica, sino una necesidad inaplazable. Esto exige una revisión completa de los códigos de diseño y los planes de ordenación del territorio. Debemos dejar de mirar exclusivamente por el retrovisor para empezar a diseñar con la vista puesta en el futuro.

Cuarta revelación: Los argumentos técnicos no ganan batallas culturales.

4. El obstáculo más grande no es técnico ni económico, sino nuestra propia mente.

Ingenieros y científicos llevan años advirtiendo sobre los riesgos. Sin embargo, estas advertencias a menudo no se traducen en la voluntad política y social necesaria para actuar. La respuesta se halla en la psicología humana. El fenómeno de la «disonancia cognitiva» explica nuestra tendencia a rechazar información que contradiga nuestras creencias más profundas. A esto se suma la «asimetría cognitiva»: la brecha de comunicación existente entre los distintos «estratos» de la sociedad (científicos, técnicos, políticos y la opinión pública). Cada grupo opera con su propia percepción de la realidad, su lenguaje y sus prioridades, lo que crea mundos paralelos que rara vez se tocan.

Esto nos lleva a una de las ideas más frustrantes para los técnicos: la creencia de que es posible convencer a alguien solo con datos es, en muchos casos, una falacia.

«Cuando intentas convencer a alguien con argumentos respecto a un prejuicio que tiene, es imposible. Es un tema mental, es la disonancia cognitiva».

Cuando un dato choca con un interés o una creencia, lo más habitual no es cambiar de opinión, sino rechazar el dato. Esto explica por qué, a pesar de la evidencia sobre ciertos riesgos, se posponen las decisiones o se toman decisiones que van en direcciones contrarias. El problema no es la falta de conocimiento técnico, sino la enorme dificultad para comunicarlo de manera que sea aceptado eficazmente por quienes toman las decisiones y por la sociedad en su conjunto. Superar esta barrera mental es, quizás, el mayor desafío de todos.

Conclusión: reconstruir algo más que edificios y puentes.

Las lecciones de la DANA de 2024 nos obligan a conectar los puntos: los desastres son fallos sistémicos (como el queso suizo), cuyas debilidades se multiplican porque el clima ha cambiado las reglas del juego (no estacionariedad); la reconstrucción debe suponer una reinvención estratégica, no una copia; y las barreras humanas, alimentadas por la disonancia cognitiva, a menudo son más difíciles de superar que cualquier obstáculo técnico.

La verdadera lección, por tanto, no se limita a la hidráulica o al urbanismo. Se trata de cómo tomamos decisiones como sociedad frente a riesgos complejos y sistémicos. Se trata de nuestra capacidad para aprender, adaptarnos y actuar con valentía y visión de futuro.

Ahora que conocemos mejor las causas profundas del desastre, ¿estamos dispuestos como sociedad a adoptar las decisiones valientes que exige una reconstrucción inteligente o la urgencia nos hará tropezar de nuevo con la misma piedra?

En este audio hay ideas que os pueden servir para entender el problema.

Os dejo un vídeo que os puede ayudar a entender las ideas principales de este artículo.

Y por último, os dejo una intervención que tuve sobre este tema en el Colegio de Ingenieros de Caminos. Espero que os interese.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Preguntas sobre ciclos de trabajo y producción de la maquinaria de construcción

Figura 1. Pala sobre neumáticos cargando dúmper. Imagen: V. Yepes

1. ¿Qué es un ciclo de trabajo y cuáles son sus componentes principales?

Un ciclo de trabajo se define como la secuencia de operaciones elementales necesarias para completar una tarea. El tiempo total necesario para realizar estas operaciones se denomina «tiempo del ciclo». Se descompone en tres tipos principales:

  1. Tiempo fijo: Duración de operaciones que requieren un tiempo determinado, como la carga, la descarga y las maniobras.
  2. Tiempo variable: Duración de las operaciones que dependen de las condiciones de trabajo, como la distancia en un ciclo de transporte.
  3. Tiempo muerto de inactividad: Tiempo de espera de una máquina mientras otra está realizando una operación en un equipo coordinado.
Figura 2. Esquema de los ciclos acoplados de máquinas trabajando en equipo. Tiempo muerto en la máquina principal

2. ¿Cómo se calcula la producción de un equipo por unidad de tiempo y qué factores la afectan?

La producción por unidad de tiempo o rendimiento de un equipo se calcula multiplicando la capacidad de producción en un ciclo por el número de ciclos realizados en ese período.

La producción de una máquina o conjunto de máquinas está influenciada por múltiples factores, como el clima, la dureza del trabajo, los turnos, el estado de las máquinas, el dimensionamiento de los equipos, la habilidad del operador y la existencia de incentivos. Para estimar la producción real a partir de la producción teórica, hay que multiplicar la producción teórica por una serie de factores de producción.

3. ¿Qué es el «cuello de botella» en un equipo de máquinas y por qué es importante identificarlo?

El «cuello de botella» es el recurso o máquina que limita la producción total del equipo. Identificarlo es fundamental porque cualquier cambio en su funcionamiento afectará directamente a la capacidad de producción de todo el equipo. Por ejemplo, en un sistema de cargadora y camiones, si la cargadora espera a los camiones, estos son el cuello de botella. Si los camiones esperan a la cargadora, entonces la cargadora es el cuello de botella.

4. ¿Qué es el factor de acoplamiento (match factor) y cuál es su valor óptimo para el coste de producción?

El factor de acoplamiento es la relación entre la producción máxima posible de los equipos auxiliares y la producción máxima posible de los equipos principales, suponiendo que no hay tiempos de espera. El coste de producción más bajo se logra con factores de acoplamiento cercanos a la unidad, pero ligeramente por debajo de ella. Esto se debe a las variaciones estadísticas en los ciclos de trabajo, por lo que, incluso con un equipo bien dimensionado y un factor de acoplamiento de uno, siempre habrá tiempos de espera.

5. ¿Cómo se determina el número de máquinas principales y auxiliares necesarias para un trabajo concreto?

Este número se puede estimar conociendo los tiempos de ciclo de cada tipo de máquina. En una unidad de tiempo (por ejemplo, una hora), el número total de ciclos realizados por las máquinas principales debe ser igual al número total de ciclos realizados por las máquinas auxiliares. Esta relación se puede generalizar para múltiples tipos de máquinas.

6. ¿Cuáles son los tiempos improductivos necesarios para operar una máquina?

Se trata de tiempos imprescindibles para el desarrollo normal de un trabajo, aunque no contribuyen directamente a la producción. Incluyen:

  • Tiempo preparativo-conclusivo: Revisión, arranque, traslado y protección de la máquina.
  • Tiempo de interrupciones tecnológicas: Necesidades de la tecnología implicada, como el cambio de posición de una cuchilla.
  • Tiempo de servicio: Mantenimiento y atención diaria del equipo durante la jornada.
  • Tiempo de descanso y necesidades personales: Tiempo para prevenir la fatiga del operador y atender sus necesidades básicas.

7. ¿Qué es la «producción tipo» y cómo se relaciona con la producción real?

La «producción tipo» es la producción obtenida durante 54 minutos ininterrumpidos de trabajo, siguiendo un método específico, en condiciones determinadas y con una habilidad media del operador. Se utilizan 54 minutos por hora para estimar las pérdidas de tiempo ajenas al trabajo. En esencia, se trata de una producción teórica en condiciones específicas.

Para estimar la producción real a partir de la producción tipo, se multiplica la producción tipo por una serie de factores de producción que tienen en cuenta las condiciones reales. La producción por hora de trabajo productivo en una obra concreta se relaciona con la producción tipo mediante el factor de eficacia.

Figura 3. Determinación del tiempo tipo de un trabajo

8. ¿Cuáles son los principales factores que modifican la producción tipo y de qué depende?

Los principales factores que modifican la producción tipo para estimar la producción real son los siguientes:

  • Factor de disponibilidad: Relación entre el tiempo disponible y el tiempo laborable real. Depende de la máquina y del equipo de mantenimiento.
  • Factor de utilización: Vincula el tiempo de utilización con el de disposición. Indica la calidad de la organización y planificación de la obra.
  • Eficiencia horaria, factor de eficacia o factor operacional: Cociente entre la producción media por hora de utilización y la producción tipo. Considera tiempos no productivos como traslados y preparación. Depende de la selección del personal y el método de trabajo.

Es importante señalar que solo el factor de disponibilidad depende directamente de la máquina; los demás están vinculados a la organización de la obra, la selección del personal y el método de trabajo.

Os dejo un audio que recoge estas ideas. Espero que os sea interesante.

También un vídeo explicativo del contenido.

Glosario de términos clave

  • Ciclo de trabajo: Serie completa de operaciones elementales necesarias para realizar una tarea o labor.
  • Tiempo del ciclo: Duración total invertida en completar un ciclo de trabajo.
  • Tiempo fijo: Parte del tiempo del ciclo que corresponde a operaciones de duración constante, independientemente de las condiciones de trabajo (ej., carga, descarga).
  • Tiempo variable: Parte del tiempo del ciclo que depende de las condiciones específicas de la operación (ej., distancia de transporte).
  • Tiempo muerto de inactividad: Período de espera de una máquina, usualmente debido a la necesidad de sincronización con otra máquina en una operación conjunta.
  • Cuello de botella: El recurso dentro de un equipo de trabajo que limita la producción total del conjunto.
  • Factor de acoplamiento (Match Factor): Relación entre la máxima producción posible de los equipos auxiliares y la máxima producción posible de los equipos principales, idealmente sin tiempos de espera.
  • Producción: La transformación de elementos para obtener productos terminados o resultados útiles, a menudo asociados a unidades de obra en construcción.
  • Capacidad de producción: Cantidad de producto generado en un solo ciclo de trabajo.
  • Rendimiento: Producción por unidad de tiempo de un equipo.
  • Producción teórica: La producción esperada de un equipo bajo condiciones ideales o de diseño.
  • Producción real: La producción efectiva de un equipo, considerando las condiciones y factores operativos reales en una obra.
  • Factores de producción: Coeficientes utilizados para ajustar la producción teórica y obtener una estimación más precisa de la producción real, considerando diversas variables de la obra.
  • Tiempo productivo: Tiempo en el que el equipo trabaja directamente en la ejecución de una operación, ya sea principal o auxiliar.
  • Tiempos improductivos necesarios: Tiempos no productivos, pero esenciales para el desarrollo normal del trabajo (ej., preparativo-conclusivo, interrupciones tecnológicas, servicio, descanso).
  • Producción tipo: Producción obtenida en 54 minutos ininterrumpidos de trabajo bajo un método y condiciones específicas, con un operador de habilidad media. (Referencia a la hora reducida de 54 minutos útiles).
  • Factor de disponibilidad: Relación entre el tiempo que una máquina está disponible para trabajar y el tiempo laborable real. Refleja el estado mecánico y de mantenimiento.
  • Factor de utilización: Relación entre el tiempo que una máquina es utilizada efectivamente y el tiempo que está disponible. Refleja la organización y planificación de la obra.
  • Eficiencia horaria / Factor de eficacia: Cociente entre la producción media por hora de utilización y la producción tipo. Considera los tiempos de trabajo no productivo dedicados a tareas auxiliares y la habilidad del personal.
  • Producción media por hora laborable real: La producción promedio de un equipo durante una hora efectiva de trabajo, considerando todos los factores de corrección.
  • Índice de paralizaciones: Relación entre las interrupciones debidas a la organización, mal acoplamiento o averías de otras máquinas, y el tiempo laborable real.
  • Factor de aprovechamiento: Cociente entre el tiempo de utilización de una máquina y el tiempo laborable real. Es el producto del factor de disponibilidad y el factor de utilización.
  • Equipo en cadena: Un conjunto de máquinas donde la producción de una está ligada al trabajo de la que le precede, y la paralización de una detiene toda la cadena.
  • Equipo en paralelo: Un conjunto de máquinas iguales que trabajan simultáneamente, y la producción total es la suma de las producciones individuales o la probabilidad de que un cierto número de ellas esté activa.
  • Disponibilidad intrínseca: La disponibilidad de una máquina individual en un conjunto paralelo, sin considerar las interrupciones por organización.

Referencias:

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente nº 97.439. Ed. Universitat Politècnica de València. 256 pág. Depósito Legal: V-4598-1997. ISBN: 84-7721-551-0.

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442. ISBN: 978-84-1396-046-3

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Preguntas sobre la productividad y el estudio del trabajo

¿Qué es la productividad y por qué es crucial para una empresa?

La productividad se define como la relación entre los bienes y servicios producidos y los recursos empleados para ello. Es un indicador vital para cualquier actividad empresarial, ya que las empresas que no mejoran su productividad con respecto a la de sus competidores están abocadas a desaparecer. Un aumento de la producción no siempre implica un aumento de la productividad; para conseguirlo, es necesario buscar la eficiencia en todos los procesos de la empresa. La mejora de la productividad conlleva una reducción de costes y plazos, lo que incrementa la competitividad a largo plazo.

¿Cuál es la diferencia entre productividad y rendimiento?

La productividad se refiere a la relación entre la producción y los recursos consumidos. El rendimiento, por otro lado, es el cociente entre lo realizado y lo previsto, ya sea en relación con la producción o con el tiempo dedicado a una actividad. El rendimiento contribuye a aumentar o disminuir la productividad modificando la eficiencia de los medios de producción, pero no los medios en sí mismos. La pérdida de productividad a menudo se debe a ineficiencias en el tiempo total invertido en una operación.

¿Cómo se puede aumentar la productividad de una empresa, según la OIT?

De acuerdo con la Organización Internacional del Trabajo (OIT), existen dos categorías principales de medios directos para aumentar la productividad.

  • Inversión de capital: Esto incluye idear nuevos procedimientos básicos o mejorar fundamentalmente los existentes, así como instalar maquinaria o equipo más moderno y de mayor capacidad, o modernizar los ya existentes.
  • Mejor dirección: Implica reducir el contenido de trabajo del producto, reducir el contenido de trabajo del proceso y reducir el tiempo improductivo, ya sea imputable a la dirección o a los trabajadores.

¿Qué es el estudio del trabajo y cuáles son sus componentes principales?

El estudio del trabajo es un término que engloba técnicas para examinar tareas humanas en todos sus contextos con el fin de investigar sistemáticamente los factores que influyen en la eficiencia y la economía, y así poder introducir mejoras. Se trata de una herramienta fundamental para alcanzar objetivos y tomar decisiones. Consta de dos técnicas interrelacionadas:

  • Estudio de métodos: Se enfoca en cómo se realiza un trabajo, buscando formas más sencillas y eficientes para reducir costes.
  • Medición del trabajo: Su objetivo es determinar cuánto tiempo se requiere para ejecutar una tarea definida por un trabajador calificado, según normas y rendimientos preestablecidos.

¿Cuáles son los objetivos principales del estudio de métodos?

El estudio de métodos busca registrar y examinar críticamente de forma sistemática los factores y recursos involucrados en los sistemas de ejecución existentes y propuestos. Sus objetivos son:

  • Mejorar los procesos y los procedimientos.
  • Optimizar la disposición del lugar de trabajo, el diseño del equipo y las instalaciones.
  • Economizar el esfuerzo humano y reducir la fatiga innecesaria.
  • Mejorar la utilización de materiales, máquinas y mano de obra.
  • Crear mejores condiciones de trabajo.

¿Cuáles son las fases clave para implementar un estudio de mejora de métodos?

Para abordar y llevar a la práctica un estudio de mejora de métodos, se siguen cinco fases generales:

  1. Elección y definición del problema: Identificar el trabajo a analizar que ofrecerá la mayor rentabilidad.
  2. Observación y registro del método actual: Recopilar datos sobre cómo se realiza el trabajo actualmente.
  3. Análisis del método actual: Cuestionar sistemáticamente cada aspecto del método actual (qué, dónde, cuánto, quién, cómo, cuándo) para identificar ineficiencias.
  4. Desarrollo del método mejorado: Basándose en el análisis, buscar posibilidades como eliminar trabajo innecesario, combinar operaciones, cambiar el orden de ejecución o simplificar las operaciones.
  5. Aplicación y mantenimiento del nuevo método: Una vez aprobado por la dirección, implementar el nuevo método y vigilar periódicamente su cumplimiento.

¿Qué son los diagramas de proceso y qué tipos se mencionan?

Los diagramas de procesos (o cursogramas) son representaciones gráficas de los eventos que ocurren durante una serie de acciones u operaciones, junto con información relevante. Durante un proceso, se identifican cinco tipos de acciones: operación, transporte, inspección, demora y almacenamiento. Entre los tipos de diagramas de proceso se incluyen:

  • Diagrama de las operaciones del proceso (operation process-chart): Muestra los puntos donde se introducen los materiales, la secuencia de inspecciones y todas las operaciones (excepto el manejo de materiales), incluyendo tiempo y localización. Útil para procesos complicados o nuevos.
  • Diagrama del análisis del proceso del recorrido (flow process-chart): Representa todas las operaciones, transportes, inspecciones, demoras y almacenajes, con información sobre tiempo requerido y distancia recorrida. Se construye determinando el producto y unidad, anotando fases, uniendo símbolos, y midiendo distancias y duraciones.
  • Diagramas planimétricos de flujo o diagrama de recorrido: Representación gráfica sobre un plano del área de actividad, mostrando la ubicación de los puestos de trabajo y el trazado de movimientos de hombres y/o materiales. Ayuda a identificar áreas congestionadas, avances y retrocesos, y a mejorar la distribución de la planta. Se utiliza la misma simbología que el diagrama de proceso.

¿Qué son los gráficos de actividades simultáneas y cuál es su propósito?

Los gráficos de actividades simultáneas o múltiples son herramientas que se utilizan para registrar y estudiar las actividades interdependientes de personas y máquinas. Su objetivo principal es reducir el número y la duración de los tiempos improductivos (paradas y esperas). La técnica consiste en representar el trabajo de cada recurso en una escala de tiempos común para visualizar las interrelaciones entre ellos y examinar y analizar el método con el fin de eliminar los periodos de inactividad.

Referencias:

PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente n.º 97.439. Ed. Universitat Politècnica de València. 256 pág. Depósito Legal: V-4598-1997. ISBN: 84-7721-551-0.

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442.

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376.

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.