Objetivos y políticas de calidad: marco estratégico y operativo.

Para que una organización alcance los niveles de calidad esperados en sus productos o servicios, es imprescindible establecer formalmente los objetivos y las políticas de calidad. Los objetivos representan las metas tangibles y los resultados concretos que se deben alcanzar en plazos determinados, mientras que las políticas actúan como estrategias o líneas de acción para lograrlos.

La implementación de estos elementos, debidamente documentados y aprobados por la alta dirección, permite a la empresa pasar de una gestión basada en crisis constantes a una operación planificada. Este documento sintetiza las definiciones, clasificaciones, fuentes de establecimiento y pautas críticas para la gestión efectiva de la calidad según los principios de la gestión por objetivos y las normativas de referencia.

Distinción conceptual: objetivos, políticas y procedimientos.

Es fundamental diferenciar estos tres conceptos, ya que, aunque están relacionados, cumplen funciones distintas dentro del sistema de gestión.

  • Objetivos de calidad: son propósitos, metas o resultados específicos que sirven de base para un plan de acción. Deben ser cuantitativos (o tangibles), estar por escrito y contar con un plazo de consecución definido.
  • Políticas de calidad: representan el «qué hacer». Son las estrategias o líneas de acción generales. A diferencia de los objetivos (que son el resultado), la política es la guía para la actividad de gestión.
  • Procedimientos: representan el «cómo hacerlo». Son las instrucciones detalladas para ejecutar las políticas.

«La política expresa «lo que hay que hacer» y el procedimiento «cómo hay que hacerlo«».

Características esenciales de los objetivos de calidad.

Para que un objetivo sea efectivo, debe cumplir los siguientes atributos:

  • Medibilidad: deben ser cuantitativos para permitir la comparación posterior entre el resultado real y la meta.
  • Viabilidad: deben ser alcanzables, económicos y merecer la pena el esfuerzo.
  • Claridad: deben ser comprensibles, legítimos y debidamente redactados.
  • Integralidad: deben cubrir todas las actividades y buscar la excelencia en los resultados globales.

Clasificación de los objetivos.

Según su propósito y su horizonte temporal, los objetivos se dividen en:

Tipo de objetivo Horizonte temporal Función principal
Estratégicos Largo plazo (~5 años) Metas corporativas globales de la organización.
Tácticos Corto plazo (~1 año) Definidos para áreas, departamentos o funciones concretas.
Operacionales Meses Metas inmediatas de ejecución.

Además, se distinguen por su impacto en el estado actual.

  • Objetivos de innovación: buscan cambiar el statu quo para mejorar los niveles actuales de actuación.
  • Objetivos de control: buscan mantener el statu quo para impedir cambios no deseados en los niveles de actuación.

Establecimiento de objetivos: fuentes de información.

La definición de metas no debe ser arbitraria, sino basarse en datos científicos y de mercado.

  • Historial y análisis técnico: utilizar el comportamiento histórico de la empresa y estudios de ingeniería (recolección y análisis científico de datos) para establecer estándares técnicos y tolerancias.
  • Análisis de Pareto: identificación de señales de alarma repetitivas, tanto externas (reclamaciones, devoluciones) como internas (desperdicio, retrabajo).
  • Referenciación externa: comportamiento del mercado competitivo, rendimiento de los productos de la competencia y opiniones de clientes, proveedores, prensa y laboratorios independientes.
  • Aportaciones internas: propuestas del personal clave (gerentes, supervisores) y sugerencias de los trabajadores.
  • Estándares decretados: requisitos impuestos por monopolios internos o por normativas gubernamentales, fuera del control de la empresa.

Políticas de calidad

Tipología de políticas:

  • Corporativas: líneas de acción generales de la compañía (por ejemplo, no lanzar productos si su calidad no supera la de la competencia).
  • Departamentales: directrices específicas para la calidad en un área determinada (por ejemplo, criterios de inspección de materiales recibidos).

Ventajas de la formalización por escrito:

  • Legitimidad y claridad: minimiza las malas interpretaciones y comunica las intenciones de forma consistente.
  • Toma de decisiones: obliga a los interesados a decidir sobre el rumbo estratégico y proporciona una base para dirigir según los objetivos convenidos.
  • Prevención: facilita que las actividades se enfoquen en prevenir problemas en lugar de limitarse a detectarlos y corregirlos.
  • Control: permite comparar objetivamente lo realizado con la política establecida.

Directrices para el establecimiento y la gestión.

Para establecer políticas de calidad sólidas, la organización debe tener en cuenta su posición en el mercado, la ética en sus relaciones con los clientes (veracidad en las garantías) y su capacidad para adaptarse a las necesidades de los usuarios.

  • El papel de la alta dirección: La aprobación final de los objetivos y las políticas corresponde exclusivamente a ella. Su impulso legitima estas directrices para que se apliquen de manera efectiva en toda la organización.
  • Documentación y accesibilidad: Tanto las políticas como los objetivos deben estar documentados y ser accesibles para todo el personal pertinente. El instrumento estándar para esta comunicación es el Manual de Calidad.
  • Proceso de elaboración de políticas:
    • Identificar los objetivos y las decisiones estratégicas (de productos y procesos).
    • Analizar los problemas actuales o potenciales relacionados con el uso o la fabricación de productos.
    • Redactar el documento incluyendo: título, justificación de la necesidad, declaración de la política, medidas de acción, responsabilidades y definiciones.

Conclusión: hacia una gestión planificada

La transición de una gestión reactiva a otra basada en políticas y objetivos por escrito es el paso definitivo hacia la madurez empresarial. Al definir nuestros objetivos y las reglas bajo las cuales operaremos, convertimos la incertidumbre en un plan de acción ejecutable.

Le planteo un reto: revise sus metas actuales. ¿Son objetivos tangibles, con el desglose de cinco años, un año y meses, que su empresa necesita, o son simples aspiraciones que no resistirían un análisis de Pareto? Si no es capaz de documentar sus errores como señales de alarma, difícilmente podrá convertirlos en victorias de calidad. La excelencia comienza en el papel, pero se consolida con el rigor de la dirección.

En esta conversación puedes escuchar algunas de las ideas más importantes del tema.

El vídeo resume bien los conceptos más interesantes.

Strategic_Quality_Architecture

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El arte de simplificar el caos: los modelos matemáticos de optimización.

En un mundo tan complejo, la toma de decisiones no puede dejarse al azar ni a la intuición desmedida. Nos encontramos ante un laberinto de variables en el que cada elección parece desencadenar consecuencias sistémicas.

Sin embargo, las matemáticas no pretenden capturar cada átomo de esta realidad, sino que su verdadero poder radica en su capacidad para destilarla. Un modelo matemático no es un reflejo del mundo, sino una herramienta de pensamiento diseñada para extraer su esencia y convertir el caos en una estructura inteligible y accionable.

A continuación, exploramos cinco revelaciones fundamentales sobre cómo la optimización matemática transforma nuestra capacidad estratégica.

La paradoja de la modelización: el equilibrio entre abstracción y realidad

A menudo se piensa que un modelo es mejor cuanto más se parece a la realidad. Sin embargo, en la ciencia de la optimización, modelar es una abstracción o representación simplificada de un segmento de la realidad. Intentar una copia exacta es un error de diseño, ya que la realidad es muy compleja y gran parte de ella resulta irrelevante para el problema.

La representación y la simplificación resultan difíciles de conciliar en la práctica. El estratega debe navegar entre dos riesgos: no crear algo tan simple que no represente el problema ni algo tan complejo que dificulte la identificación de las relaciones fundamentales. En este punto, es vital distinguir si operamos en un entorno determinista, donde los datos se conocen con certeza, o en uno estocástico, donde interviene el azar, pues esta clasificación definirá el rigor de nuestra estructura.

«La realidad es difícil de copiar de forma exacta».

El paisaje de las soluciones: navegando por el espacio factible

Para visualizar un problema complejo, debemos imaginar un paisaje de relieves accidentados que represente el conjunto de soluciones posibles. Sin embargo, no todo lo posible es realizable. En este punto, definimos el Espacio Factible (X) como el subconjunto del Espacio Posible (Ω) en el que las soluciones efectivamente cumplen nuestras condiciones.

En este terreno, la interpretación del relieve depende del objetivo que tengamos:

  • Si maximizamos, las cimas son los éxitos. Buscamos el óptimo global (la cumbre más alta), evitando quedar atrapados en un óptimo local (una colina que parece buena, pero que es inferior al máximo absoluto). Los valles representan los peores resultados.
  • Si minimizamos, el paradigma se invierte. El éxito se halla en el valle más profundo (el punto de menor coste o riesgo) y las cimas simbolizan la ineficiencia.

La brújula de las decisiones: los cuatro pilares del modelo

Para que un modelo sea un verdadero instrumento de gestión, debe integrar cuatro componentes estructurales que rigen el proceso de elección:

  • Variable de decisión: el factor que está bajo nuestro control. Es la cantidad cuyo valor debemos determinar para resolver el problema de decisión.
  • Parámetro: información conocida, también llamada constante o dato. Su precisión es crítica para la fidelidad del modelo.
  • Restricción: limitación infranqueable de los valores de las variables. Sin restricciones, no hay optimización real.
  • Función objetivo: nuestro norte matemático. Es la expresión que define el éxito en términos de datos y variables. A menudo, el desafío del estratega consiste en optimizar varias funciones objetivo de forma simultánea, equilibrando metas que pueden ser contrapuestas.

Sensibilidad: la resistencia ante la incertidumbre

Una solución óptima sobre el papel es frágil si no puede resistir los embates del mundo real. Debido a la «frecuente incertidumbre sobre el valor real de los parámetros», el estratega debe realizar un análisis de sensibilidad.

Este proceso evalúa cómo cambiaría la solución ante variaciones en los datos de entrada (los parámetros). No buscamos solo la solución más brillante, sino la más robusta.

Un buen consejo:

Si un pequeño cambio en un parámetro (como el precio de una materia prima o el tiempo de entrega) hace que tu solución óptima se venga abajo, no tienes un plan; tienes un riesgo. La validación consiste en asegurarse de que los valores tengan sentido y las decisiones puedan llevarse a cabo de manera efectiva.

El ciclo de validación: el filtro de la implementación

La modelización no es un acto lineal, sino un ciclo iterativo y riguroso. Según el proceso sistémico, no pasamos directamente del modelo a la decisión, sino que antes tenemos que pasar por un filtro de fuego:

  • Definición y datos: El proceso comienza con la identificación de los límites del problema y la recopilación de datos precisos para los parámetros.
  • Resolución y prueba: Tras resolver el modelo, nos preguntamos: ¿es válida la solución?
  • Iteración: Si la solución no tiene sentido lógico o resulta impracticable, el resultado es un modelo modificado. Debemos retroceder, ajustar nuestras suposiciones o la recopilación de datos y volver a resolver.

Solo cuando la solución ha sido validada, procedemos a su implementación. Las matemáticas sin validación práctica son mera abstracción; la ejecución es el juez final.

Conclusión: dominar la realidad mediante los modelos

Modelar es el arte de optimizar bajo restricciones, un principio de elección que separa el éxito fortuito de la eficiencia estratégica. En última instancia, existen distintos tipos de modelos según la naturaleza de sus variables (enteras o continuas) y la linealidad de sus funciones, pero todos comparten un objetivo: simplificar para dominar.

Pregunta para la reflexión: En su organización o proyecto actual, ¿toma decisiones basándose en parámetros validados o intenta escalar una cima sin saber si se encuentra en un óptimo local mientras el verdadero óptimo global se halla en un terreno que aún no ha modelado?

En esta conversación podéis escuchar ideas interesantes sobre los modelos de optimización.

El vídeo resume bien los conceptos más importantes tratados.

Os dejamos aquí un breve vídeo para explicar qué es un modelo matemático de optimización. Espero que os guste.

En este documento tenéis un resumen del tema.

Optimización_Matemática

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El factor humano: motivación y calidad en el trabajo.

Introducción: El enigma de la productividad.

Desde el estallido de la Revolución Industrial a finales del siglo XIX, el mundo empresarial ha estado obsesionado con una creencia persistente: que la productividad depende de la presión y la vigilancia.

Según el modelo de Taylor, el trabajador no era más que un engranaje reemplazable en una maquinaria sedienta de precios bajos y de alta competitividad. Sin embargo, en el complejo ecosistema actual, nos enfrentamos a un dilema que el capital, por sí solo, no puede resolver: ¿qué lleva realmente a una persona a buscar la excelencia?

La respuesta es la motivación, un concepto que a menudo se malinterpreta en el liderazgo moderno. Etimológicamente derivada del latín motus, la motivación es un «ensayo mental preparatorio» de la acción. No se trata de un impulso externo, sino de un catalizador interno que surge del deseo de satisfacer una necesidad. Para el estratega organizacional, la lección es clara: la verdadera productividad surge cuando el individuo se siente atraído por los objetivos, no empujado hacia ellos.

Lección 1: La motivación es un «ensayo mental», no una orden externa.

En psicología de la calidad, la motivación no es un accesorio decorativo, sino el prerrequisito de la competencia técnica. Muchos líderes cometen el error de intentar «imponer» la calidad mediante decretos, ignorando que el control externo tiene un límite insalvable.

La verdadera motivación en la gestión de la calidad se manifiesta cuando el trabajador interioriza el concepto de «adecuación del producto al uso». Este compromiso va más allá del mero cumplimiento de horarios. Un operario motivado es aquel que:

  • Sigue con rigor el plan de control establecido.
  • Acepta con apertura los métodos de entrenamiento y de reentrenamiento.
  • Adopta con agilidad las nuevas tecnologías.

Cuando el deseo es interno, la vigilancia constante resulta innecesaria. El líder no debe imponer la calidad, sino diseñar el entorno en el que el trabajador decida ejecutarla.

Lección 2: El efecto Hawthorne y el poder de ser escuchado.

En la década de 1920, el psicólogo Elton Mayo desmontó el mito del «hombre-máquina» mediante sus estudios en la Western Electric Company y en la fábrica textil de Filadelfia. Entre 1923 y 1924, Mayo demostró que pequeñas intervenciones en el trato humano aumentaban considerablemente la producción. Al permitir que los trabajadores programaran sus propios periodos de descanso, el absentismo se desplomó y la actitud cambió.

«El salario no es la única motivación del trabajador y un cierto nivel de libertad y autocontrol mejora los índices de productividad».

Este descubrimiento demostró que el rendimiento no es una respuesta mecánica a la iluminación o al entorno físico, sino una respuesta emocional a la atención de la gerencia. El hecho de ser escuchado es, en sí mismo, un factor de productividad.

Lección 3: Supervisores centrados en las personas frente a supervisores centrados en la producción.

Los estudios de Michigan aportaron una distinción fundamental para cualquier estratega: el estilo del supervisor es el principal predictor de la eficiencia del grupo. La investigación comparó dos estilos de liderazgo: el obsesionado con la producción y el centrado en los empleados.

El veredicto fue contundente: el supervisor centrado en los empleados, que prioriza el respeto, la dignidad y las necesidades humanas, obtuvo resultados consistentemente superiores. Mientras que el enfoque en la producción se limita a la vigilancia, el enfoque humano genera una lealtad que se traduce en un rendimiento que ninguna cámara de seguridad puede captar.

Lección 4: La paradoja de Herzberg (factores higiénicos frente a motivadores).

Frederick Herzberg nos legó una de las distinciones más potentes de la gestión moderna: la diferencia entre lo que evita el dolor y lo que genera placer.

  • Factores higiénicos: incluyen el salario mínimo, la seguridad laboral y las condiciones físicas. Herzberg advirtió que estos factores no estimulan el rendimiento, sino que simplemente evitan la insatisfacción. Si el sueldo es justo, el trabajador lo acepta como algo normal y no se esforzará más por él.
  • Factores motivadores: la satisfacción real nace de la tarea misma. La implicación en el trabajo, la responsabilidad en la planificación y la oportunidad de creatividad inciden en la calidad.

Aquí reside la paradoja: un salario alto puede comprar la presencia de un cuerpo, pero solo un trabajo estimulante puede comprar la entrega de una mente.

Lección 5: La teoría Y y el potencial humano infrautilizado.

A mediados de los años cincuenta, Douglas McGregor desafió la visión tayloriana con su teoría Y. Mientras que la teoría X parte de la premisa de que el ser humano es perezoso y carece de integridad, la teoría Y plantea que el trabajo es tan natural como el juego si las condiciones son adecuadas.

Los pilares de la Teoría Y para la organización superior son los siguientes:

  • El trabajo como fuente de satisfacción personal.
  • El fomento del autodireccionamiento y el autocontrol.
  • La distribución democrática de la imaginación y la creatividad para resolver problemas.

McGregor lanzó una advertencia que aún resuena:

«En las condiciones actuales, solo se utiliza una pequeña parte del potencial humano disponible».

Conclusión: hacia una organización humana superior.

La excelencia no es un accidente, sino la convergencia entre una estructura técnica y una psicología profunda. Si aplicamos la jerarquía de Maslow a la calidad, descubrimos que cada nivel de necesidad representa una oportunidad estratégica.

  • Fisiológica: gratificaciones por un trabajo bien hecho.
  • De seguridad: calidad que genera ventas y, por ende, estabilidad laboral.
  • Social: Sensibilidad del empleado como miembro vital de un equipo.
  • Autoestima: apelar al orgullo por la calidad del trabajo mediante el reconocimiento.
  • Autorrealización: participación activa en la planificación, la creación y la innovación.

Como líder, su misión no es controlar a las personas, sino liberar su potencial. La pregunta final no es técnica, sino ética: ¿está diseñando su empresa para personas de la «teoría X» o está listo para liderar a los creadores de la «teoría Y»?

El jaque mate estratégico: más allá de la nómina, ¿ha considerado cómo juzgan sus empleados que son tratados con justicia? Según la teoría de la equidad de Adams, si un empleado percibe una brecha entre su esfuerzo y su recompensa frente a los demás, entrará en un estado de disonancia cognitiva. Esa falta de acuerdo entre lo que piensan que debería hacerse y lo que realmente ocurre es el veneno más silencioso para la calidad de su organización.

En esta conversación puedes escuchar las ideas más interesantes sobre el tema.

Este vídeo resume bien cómo gestionar el factor humano atendiendo a criterios de calidad.

The_Human_Factor_in_Quality (1)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Fundamentos y procesos de la estimación de costes

Cada mañana, millones de personas realizan un ejercicio intuitivo de predicción: consultan el tiempo y deciden si llevarse un paraguas. Se trata de un acto de mitigación de riesgos basado en datos actuales. Sin embargo, cuando trasladamos esta lógica a la adquisición de sistemas de defensa o de infraestructuras críticas, la intuición no resulta de gran utilidad.

La estimación de costes no es un simple cálculo contable, sino una compleja combinación de arte y ciencia. Técnicamente, la definimos como una «instantánea de probabilidad» basada exclusivamente en la información disponible en un momento determinado.

Si cambian las suposiciones iniciales, la estimación variará inevitablemente. No es que el modelo sea erróneo, sino que ha mutado la realidad.

Como señaló el físico y premio Nobel Niels Bohr:

«Predecir es muy difícil, especialmente cuando se trata del futuro».

Lección 1: tus predecesores no eran incompetentes (y por qué eso importa).

Existe un mito persistente entre la alta dirección: que utilizar datos históricos para proyectar costes equivale a heredar las ineficiencias y los errores de los gestores anteriores. Se teme que, si el pasado fue accidentado, el futuro será un reflejo de esos fallos.

Nada más lejos de la realidad técnica. La búsqueda y la normalización de datos históricos son pilares de cualquier estimación científicamente fundamentada. Las desviaciones en proyectos pasados rara vez se deben a la incompetencia; suelen ser respuestas adaptativas a eventos externos e imprevisibles que escapan al control del director del programa. Al analizar el pasado, no buscamos replicar el error, sino comprender la volatilidad. En este sentido, la honestidad intelectual nos obliga a aceptar una máxima del sector:

«No cometerás los mismos errores que tus predecesores, ¡cometerás los tuyos propios!».

Esta perspectiva permite a los directivos sénior comprender que la gestión de proyectos complejos no consiste en eliminar la incertidumbre, sino en gestionarla mediante modelos cuantitativos transparentes y defendibles.

Lección 2: El «iceberg» de los costes del ciclo de vida.

Uno de los errores estratégicos más comunes en proyectos de infraestructura es centrarse exclusivamente en el “precio de etiqueta”, es decir, en el coste de construcción. En la consultoría de proyectos complejos se utiliza el análisis del coste del ciclo de vida (Life Cycle Cost Estimate, LCCE) para comprender el verdadero esfuerzo económico que conlleva una infraestructura desde su concepción hasta su retirada o renovación.

Un LCCE permite visualizar todos los recursos necesarios a lo largo del tiempo y suele estructurarse en cuatro grandes fases:

  1. Diseño y desarrollo (estudios previos, ingeniería, proyectos y ensayos).
  2. Inversión inicial (construcción y puesta en servicio).
  3. Operación y mantenimiento (explotación, conservación, energía, personal, reparaciones).
  4. Fin de vida o disposición (desmantelamiento, renovación o sustitución).

La metáfora del iceberg de los costes resulta especialmente útil para comprender este enfoque. La construcción visible —la parte que suele atraer toda la atención— es solo la punta del iceberg. Bajo la superficie se encuentran los costes acumulados durante décadas de operación y mantenimiento, que en muchos casos pueden representar la mayor parte del gasto total.

Sin embargo, un análisis riguroso exige reconocer que no existe una estructura de costes universal. La distribución del gasto depende en gran medida del tipo de activo y de su modelo de explotación.

Por ejemplo:

  • En infraestructuras digitales vinculadas a la ingeniería civil, como plataformas de gestión del tráfico o sistemas de control ferroviario, una parte muy significativa del coste puede concentrarse en el desarrollo tecnológico inicial, en el que la ingeniería y el software son determinantes.
  • En infraestructuras estandarizadas y repetitivas, como determinados tramos de carreteras o estructuras prefabricadas, el peso principal suele recaer en la fase de inversión inicial, donde materiales, maquinaria y ejecución concentran la mayor parte del presupuesto.
  • En infraestructuras intensivas en operación, como redes ferroviarias, aeropuertos, presas o grandes instalaciones hidráulicas, los costes dominantes suelen concentrarse en la fase de operación y mantenimiento: conservación, inspecciones, energía, personal especializado y renovación periódica de equipos.

La lección estratégica es clara: evaluar una infraestructura únicamente por su coste de construcción puede conducir a decisiones subóptimas. Incorporar una visión de ciclo de vida permite diseñar activos más eficientes, reducir costes futuros y tomar decisiones de inversión con una perspectiva verdaderamente estratégica.

Lección 3: La inercia estratégica de los «costes hundidos».

El cerebro humano tiene una vulnerabilidad bien conocida: la tendencia a intentar “salvar” un proyecto problemático solo porque ya se ha invertido mucho en él. En economía y gestión de proyectos, este fenómeno se conoce como la falacia del coste hundido.

En términos estrictamente financieros, el dinero gastado en el pasado ya no debería influir en las decisiones futuras, porque no puede recuperarse. Lo relevante para quien toma decisiones no es cuánto se ha gastado, sino cuánto costará terminar el proyecto a partir de ahora. Por eso, una de las métricas clave es el coste por completar (cost to go), es decir, el dinero adicional necesario para completar una infraestructura.

Veamos un ejemplo sencillo aplicado a la ingeniería civil. Imaginemos la construcción de una autovía o un gran puente cuyo presupuesto inicial se ha visto superado:

  • Estado actual del proyecto: ya se han invertido 200 millones de euros (coste hundido).
  • Coste estimado para terminar la obra: 100 millones adicionales.
  • Coste total final: 300 millones.

Ahora aparece una alternativa técnica: rediseñar el proyecto desde cero con otra solución constructiva, cuyo coste total sería de 250 millones.

Si miramos únicamente el coste total, la nueva solución (250 M€) parece más eficiente que el proyecto actual (300 M€). Sin embargo, desde el punto de vista financiero, el análisis correcto es otro.

El dinero ya invertido —los 200 millones— es un coste hundido y no puede recuperarse. La decisión debe basarse únicamente en el capital adicional necesario:

  • Terminar el proyecto actual requiere 100 millones adicionales.
  • Empezar una nueva solución requiere una nueva inversión de 250 millones.

Si ambas infraestructuras ofrecen un resultado equivalente en servicio, seguridad y prestaciones, la opción racional sería terminar el proyecto existente, ya que requiere mucho menos capital adicional.

Superar la inercia estratégica de los costes hundidos exige disciplina analítica: centrarse exclusivamente en los costes y beneficios futuros y no en el peso psicológico de lo ya gastado. En proyectos de infraestructura —donde las inversiones son muy elevadas y los plazos son largos— esta distinción es crucial para evitar decisiones económicamente ineficientes.

Lección 4: ¿Coste o precio? La distinción que lo cambia todo.

En el lenguaje coloquial, son sinónimos, pero en la estrategia de adquisiciones son conceptos totalmente distintos. El coste es la medición de los recursos consumidos para producir un bien. El precio es lo que el mercado está dispuesto a pagar y se ve afectado por el margen de beneficio, la competencia y el valor percibido. Nuestra máxima es que la profesión de la estimación se centra en los costes, no en el precio.

Para ilustrar esta complejidad, analicemos algo tan simple como una cabeza de lechuga. Para un consumidor, el precio es una cifra que ve en el estante. Para un estimador, el «coste» es un desglose multicapa que incluye el cultivo y la siembra, la irrigación y el mantenimiento, el proceso de cosecha, el embalaje en planta y, por último, la logística de transporte. Solo comprendiendo estas capas podemos evaluar si el precio de un sistema complejo es razonable o si estamos asumiendo riesgos financieros ocultos.

Lección 5: la «segunda opinión» como salvaguarda estratégica.

En muchos proyectos de ingeniería civil, la estimación independiente de costes (ICE, Independent Cost Estimate) suele percibirse por los directores de proyecto como una revisión incómoda o incluso como una señal de desconfianza hacia el trabajo del equipo interno. Sin embargo, en proyectos complejos —infraestructuras ferroviarias, grandes presas, túneles o corredores logísticos— contar con una segunda opinión técnica sobre los costes se ha consolidado como una práctica clave de gestión del riesgo.

Una estimación independiente no busca cuestionar al equipo del proyecto, sino aportar una visión externa y metodológicamente rigurosa que reduzca los sesgos inevitables de los equipos profundamente implicados en el diseño y la planificación. En proyectos de obra civil, donde intervienen múltiples disciplinas, contratistas y condicionantes regulatorios, es frecuente que el entusiasmo técnico o la presión por aprobar un proyecto conduzca a estimaciones demasiado optimistas.

Por ejemplo, en la planificación de una línea ferroviaria de alta velocidad, un equipo promotor puede basar su estimación en rendimientos teóricos de obra o en condiciones geotécnicas favorables. Una evaluación independiente puede introducir escenarios alternativos: variaciones en los costes de materiales, incertidumbres geológicas en los túneles o desviaciones en la productividad de los equipos. Del mismo modo, en la construcción de grandes infraestructuras hidráulicas o viarias, una revisión externa puede detectar partidas infravaloradas relacionadas con desvíos de servicios, con la gestión ambiental o con riesgos constructivos.

Las instituciones públicas que financian grandes infraestructuras han aprendido que la calidad de las estimaciones de costes es decisiva para la viabilidad de los proyectos. Como advierte la Government Accountability Office (GAO):

«La capacidad de generar estimaciones de costes fiables es necesaria para apoyar los procesos presupuestarios. Sin ella, existe el riesgo de sufrir sobrecostes, incumplimientos de plazos y deficiencias en el rendimiento, lo que implica que el Gobierno no pueda financiar tantos programas como pretendía».

En este contexto, la estimación independiente de costes funciona como una salvaguarda estratégica: no solo mejora la calidad de las previsiones económicas, sino que también fortalece la credibilidad de los proyectos ante financiadores, administraciones y la ciudadanía. En un sector donde las decisiones de inversión comprometen recursos durante décadas, disponer de una segunda opinión rigurosa no es una señal de debilidad, sino de buena gobernanza.

Conclusión: el «Estándar del Estudiante de Secundaria».

Una estimación de alta calidad no se mide por su capacidad de «acertar» el número final, sino por su trazabilidad y auditabilidad. En nuestro sector, aplicamos lo que se conoce como «Estándar del Estudiante de Secundaria»: el análisis debe ser lo suficientemente transparente y lógico como para que un estudiante con conocimientos básicos de aritmética pueda seguir los argumentos, formular suposiciones y obtener el mismo resultado.

Al final del día, quien controla las suposiciones controla el análisis. Al evaluar sus proyectos actuales, pregúntese: ¿sus estimaciones son cajas negras de complejidad innecesaria o documentos trazables que reflejan el coste real del ciclo de vida? La transparencia no es solo una buena práctica, sino la brújula que separa el éxito estratégico del desastre presupuestario.

Aquí puedes escuchar una conversación sobre los aspectos de mayor interés de este tema.

El vídeo resume bien los conceptos más importantes.

Strategic_Cost_Prediction

Referencias:

Mislick, G. K., & Nussbaum, D. A. (2015). Cost estimation: Methods and tools. John Wiley & Sons.

Yepes, V. (2022). Gestión de costes y producción de maquinaria de construcción. Universidad Politécnica de Valencia.

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Más allá del casco: verdades esenciales (y sorprendentes) sobre la gestión de riesgos laborales

En el imaginario colectivo, la seguridad laboral se reduce a una lista de normas restrictivas o al uso obligatorio del casco. Para muchos líderes empresariales, la seguridad y la salud en el trabajo se perciben como un trámite burocrático que ralentiza la producción. Sin embargo, ¿qué pasaría si viéramos la seguridad y salud en el trabajo (SST) no como un obstáculo, sino como el motor de una empresa eficiente?

La gestión de la SST no es un accesorio ni un «extra» para cumplir la ley, sino una parte intrínseca de la gestión empresarial moderna. Una organización que no controla sus riesgos es, por definición, ineficiente. A continuación, desglosamos cinco realidades fundamentales, basadas en los estándares internacionales, que transformarán su visión sobre la prevención.

La seguridad no es un accesorio, sino un sistema

A menudo, tendemos a ver la seguridad como una serie de elementos aislados. La realidad es que la SST funciona como un sistema de gestión. Imagine un coche: para que se mueva de forma eficiente, es necesario que el sistema de frenos, la dirección y el motor interactúen entre sí de manera perfecta. Si uno falla, se compromete el objetivo de llegar al destino.

Un sistema requiere entradas (recursos, información y energía), procesos interconectados y salidas para alcanzar su objetivo. En la SST, los objetivos son la integridad del trabajador y la continuidad operativa.

«Un sistema puede definirse como un conjunto de elementos (medios o recursos) que interactúan entre sí para alcanzar un objetivo».

Ver la seguridad como un sistema cambia la narrativa: deja de ser un «gasto» para convertirse en un engranaje operativo que garantiza que los recursos se transformen en resultados sin las interrupciones costosas que provocan los accidentes.

La paradoja de la jerarquía: cuanto mayor es el rango, mayor es la vigilancia

La gestión moderna exige integrar la prevención en todos los niveles, desde el director ejecutivo hasta el personal operativo. Lo sorprendente es que, a medida que se asciende en el organigrama, la función de seguridad no desaparece, sino que se transforma en la obligación de «velar» por los demás.

Es fundamental distinguir las funciones de control para evitar vacíos de responsabilidad.

  • El mando o supervisor de una actividad peligrosa debe asegurarse de que el trabajador sabe realizarla de manera segura y de que se realice correctamente.
  • El inmediato superior debe establecer el procedimiento de ejecución y controlar que la supervisión se realice adecuadamente.
  • La alta dirección (CEO/directores) debe asegurar que la prevención esté integrada en el sistema global y dotar a la organización de los recursos necesarios.

El estándar de oro: el ciclo ILO-OSH 2001

Para que la seguridad no se quede estancada, la guía ILO-OSH 2001 de la Organización Internacional del Trabajo (OIT) propone un modelo de mejora continua estructurado en cinco elementos clave que toda empresa debe implementar.

  • Política: Establecer por escrito el compromiso de la empresa.
  • Organización: Definir responsabilidades, competencias y comunicación.
  • Planificación y aplicación: Evaluar los peligros y diseñar la estrategia de control.
  • Evaluación: Controlar los resultados mediante auditorías e investigaciones.
  • Acción en pro de las mejoras: Adoptar medidas preventivas y correctivas permanentes.

Un factor crítico de éxito es que la política de SST no sea un documento genérico, sino que esté adaptada a la organización, consensuada con los trabajadores y sus representantes, y difundida de manera que sea accesible para todos los miembros.

Formación: gratuita, en horario laboral y evaluable

La formación es un pilar fundamental de la organización, pero para que sea efectiva y cumpla con los estándares internacionales, debe extenderse a todos los miembros de la organización y cumplir condiciones estrictas:

  • Gratuidad y horario: Debe ofrecerse sin coste para el participante y, preferiblemente, durante la jornada laboral.
  • Competencia: Debe ser impartida por personas capacitadas y revisada periódicamente.
  • Evaluación de retención: Este es el punto más disruptivo. No basta con asistir a una charla; el sistema exige una evaluación en la que los participantes demuestren su grado de comprensión y retención. Si no hay evidencia de aprendizaje, la formación no ha cumplido su objetivo preventivo.

La jerarquía del control: el EPI es el último recurso

Este es el concepto que más cuesta entender para la dirección. Solemos pensar que proporcionar un equipo de protección individual (EPI), como guantes, es la primera medida. En una gestión profesional, el EPI es la última línea de defensa.

Las medidas deben aplicarse estrictamente en este orden de prioridad:

  • Supresión del peligro/riesgo: eliminar la fuente del riesgo por completo.
  • Control del peligro en su origen: adoptar medidas técnicas o organizativas para que el riesgo no se propague.
  • Reducción al mínimo (minimización): diseñar sistemas de trabajo seguros que incluyan disposiciones administrativas de control.
  • Equipo de protección individual (EPI): solo se suministra cuando los peligros no pueden controlarse mediante medidas colectivas y el empleador se asegura de que se mantenga y se utilice correctamente sin coste para el trabajador.

Por ejemplo, ponerle un casco a un trabajador antes de intentar eliminar el riesgo de caída de objetos es un error de diseño. La protección personal solo entra en juego cuando las medidas de ingeniería y organización han llegado a su límite.

Conclusión: Hacia una cultura de la prevención

La seguridad y la salud en el trabajo son responsabilidad del empleador, pero su éxito real depende de la participación activa de todos. Entender que la prevención es un sistema interconectado, con jerarquías de control claras y formación evaluable, es lo que separa a las empresas que simplemente cumplen la normativa de aquellas que operan con excelencia.

Al final del día, la pregunta para cualquier líder es: En su organización, ¿la seguridad es la primera prioridad en el diseño de los procesos o simplemente la última capa de ropa que se pone el trabajador?

En esta conversación puedes escuchar algunas de las ideas más interesantes del tema.

Este vídeo resume bien los conceptos más importantes de la gestión de riesgos.

Gestión_de_Riesgos_SST

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El mito de la ISO 9001: por qué tu «calidad» está matando tu agilidad operativa.

Durante años, la norma ISO 9001 ha sido víctima de una mala interpretación sistémica. En muchas salas de juntas, la palabra «calidad» no evoca excelencia, sino una imagen lúgubre de estanterías llenas de manuales que nadie lee y de una burocracia asfixiante que ralentiza cada decisión. A esto es a lo que yo llamo «la muerte por papel»: un estado en el que la organización trabaja para el sistema en lugar de ser el sistema quien trabaje para la organización.

Sin embargo, si eliminamos el cumplimiento superficial, lo que queda no es un obstáculo reglamentario, sino un sistema de inteligencia estratégica de alto nivel. La ISO 9001, entendida desde la perspectiva de la madurez organizacional, es, en realidad, el «sistema operativo» de los negocios modernos. Si tu certificación se siente como un lastre y no como una palanca para aumentar el retorno de la inversión (ROI), es probable que estés cometiendo los errores que separan a las empresas que solo «tienen el sello» de las que dominan su mercado.

A continuación, expongo cinco verdades disruptivas extraídas de la esencia técnica de la norma que obligarán a cualquier líder a replantearse su modelo de gestión.

1. El gran pecado de la burocracia autoimpuesta.

La principal fuente de fricción operativa es la confusión entre procedimientos e instrucciones de trabajo. Muchas empresas documentan cada paso de cada tarea en «procedimientos» densos, creando una red de la que es imposible escapar. El consultor sénior sabe que el procedimiento describe el qué, el porqué y quién es el responsable, mientras que el cómo detallado pertenece exclusivamente a las instrucciones de trabajo.

Sin embargo, la verdad más sorprendente, que la mayoría de los gestores ignora, es la siguiente:

Los procedimientos del sistema de gestión de la calidad, según la norma ISO 9001, describen la implementación de dicho sistema. No son obligatorios.

Así es. La norma no te obliga a tener esa montaña de procedimientos. Si tu sistema es burocrático, es por decisión interna, no por exigencia del estándar. La agilidad se recupera cuando se entiende que la ISO busca resultados, no literatura.

2. La estructura de alto nivel.

La ISO 9001 ya no es una isla. Gracias a su Estructura de Alto Nivel, ahora utiliza un lenguaje universal compatible con otros estándares. Esto no es solo un detalle técnico, sino la base para crear sistemas integrales de gestión.

En lugar de tener departamentos estancos que gestionan por separado los riesgos ambientales, de seguridad o de calidad, esta estructura permite integrarlos.

  • ISO 14001: Gestión Ambiental.
  • ISO 45001: Seguridad y salud en el trabajo.

Esta compatibilidad transforma el sistema de gestión en un tronco común que optimiza los recursos de auditoría y, lo que es más importante, elimina la redundancia de datos, de modo que la dirección tenga una visión única de la resiliencia corporativa.

3. El riesgo invisible: de la expectativa voluntaria al requisito legal.

Muchos gestores limitan su visión al cliente final. La norma, sin embargo, exige un enfoque de 360 grados respecto de las partes interesadas. Pero cuidado: el análisis de sus necesidades no es un ejercicio de relaciones públicas, sino una trampa de cumplimiento si no se gestiona con inteligencia estratégica.

Tomemos como ejemplo una empresa de transporte de mercancías. Para un inversor, la «calidad» no solo consiste en que el camión llegue a tiempo, sino que también abarca la imagen de la reputación y el control de riesgos económicos. Para un trabajador, son el reconocimiento y la participación. Lo verdaderamente crítico es que la organización puede decidir aceptar voluntariamente estas expectativas (por ejemplo, mediante un contrato o una promesa de marca).

Muchos se sorprenden al descubrir que una vez que la organización adopta voluntariamente un requisito de una parte interesada, este se convierte automáticamente en un requisito obligatorio del sistema de gestión. Un compromiso contractual con un proveedor sobre plazos de pago o una promesa de sostenibilidad para la sociedad se vuelve tan auditable y legalmente vinculante para tu sistema de calidad como la entrega del producto mismo.

4. Verificación frente a validación: la diferencia entre cumplir y satisfacer.

En la alta dirección, confundir estos términos es una receta para el desastre financiero. La diferencia es sutil, pero vital para garantizar el valor real:

  • Verificación: Confirmación, mediante inspección, de que se han cumplido los requisitos especificados. Se trata de una comprobación frente al plano o al diseño.
  • Validación: Comprobación, mediante ensayo, de que el producto cumple su aplicación específica prevista en el mundo real.

Un producto puede estar perfectamente verificado (cumplir todas las especificaciones técnicas) y ser un fracaso total si no ha sido validado (no sirve para lo que el usuario necesitaba). Un gestor estratégico no se detiene en la inspección, sino que busca el ensayo que demuestre su utilidad real.

5. El liderazgo como eje del PDCA.

El ciclo PDCA (Planificar, Hacer, Verificar, Actuar) suele representarse como un círculo estático. Es un error. En el modelo real de la ISO 9001, el liderazgo no es un paso más del ciclo, sino el eje central que mantiene todos los procesos en órbita y en armonía. Sin liderazgo, el ciclo se fragmenta.

Para que este motor genere mejora continua y no solo «mantenimiento», debe nutrirse de la toma de decisiones basada en la evidencia. La norma es el antídoto contra la gestión por intuición. En la fase de «Actuar», el sistema no solo busca corregir el fallo, sino también eliminar su causa raíz para que no vuelva a ocurrir. Esto solo es posible si los líderes utilizan los datos del sistema para abordar riesgos y oportunidades, en lugar de reaccionar visceralmente ante las crisis diarias.

Conclusión: ¿activo estratégico o certificado decorativo?

La calidad no es un destino, sino una cultura de mejora continua que debe reflejar la salud de tu dirección estratégica. Si analizamos el contexto de una empresa de transporte mediante un análisis DAFO, veremos que factores externos como la fluctuación del precio del combustible o las nuevas regulaciones medioambientales no son «problemas de logística», sino variables de calidad.

En última instancia, tu sistema de gestión de la calidad debería poder responder a las preguntas más difíciles de tu análisis estratégico: ¿por qué un cliente potencial compra a tu competencia y no a ti? ¿Qué le falta a tu servicio para ser verdaderamente superior?

Si tu sistema no te ayuda a responder estas preguntas, no tienes un sistema de gestión, sino un certificado en la pared. La verdadera ISO 9001 es una plataforma para potenciar tus fortalezas y mitigar amenazas antes de que se conviertan en crisis. La pregunta es: ¿estás listo para dejar de «cumplir» y empezar a competir?

En esta conversación puedes escuchar algunas de las ideas más interesantes del tema.

En el vídeo se sintetizan algunos de los aspectos más relevantes de la norma ISO 9001.

ISO_9001_Logistics_and_Transport

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Por qué el pato es el ganador? La sorprendente ciencia detrás de nuestras mejores (y peores) decisiones

El dilema del guepardo y el halcón

En nuestra búsqueda de la excelencia, tendemos a caer en la especialización extrema. Admiramos al guepardo, cuya fisonomía está diseñada para ser el proyectil terrestre definitivo; nos asombra el halcón peregrino, capaz de desafiar la gravedad y alcanzar velocidades de vértigo; y respetamos al pez espada, que se desplaza por el océano con una hidrodinámica inigualable. Cada uno es el «mejor» en su ámbito. Sin embargo, en el tablero de la supervivencia y la estrategia, la excelencia en un solo campo no garantiza el éxito global.

El problema radica en que la realidad rara vez es unidimensional. El dilema del guepardo y el halcón nos muestra que ser el número uno en una categoría puede dejarnos vulnerables cuando el entorno nos exige operar en medios distintos. La «mejor» decisión no surge de la búsqueda ciega de la perfección en un solo criterio, sino de un ejercicio sofisticado de equilibrio.

La paradoja del pato: la versatilidad frente a la especialización.

Desde la perspectiva de la ciencia de las decisiones, el pato es el ganador inesperado de esta contienda evolutiva. Aunque no corre tan rápido como un guepardo, no vuela con la potencia de un halcón ni nada con la destreza de un pez espada, el pato puede realizar las tres acciones con eficacia. En un modelo de decisión multicriterio, el pato representa una «solución de compromiso»: aquella que maximiza la utilidad global en diversos escenarios.

Técnicamente, decidir no es simplemente elegir. Es un proceso de optimización que requiere rigor conceptual.

«Decisión: elegir la mejor opción posible. Hay que definir qué significa mejor y qué significa posible».

El pato triunfa porque cumple con lo «posible» (su conjunto de alternativas factibles es más amplio) y redefine lo «mejor» desde un enfoque sistémico. Mientras que el guepardo es una solución óptima para un conjunto finito de restricciones terrestres, el pato es la respuesta robusta ante un mundo de variables múltiples.

Comparar manzanas con naranjas: el arte de la normalización.

El mayor obstáculo estratégico al evaluar opciones es la disparidad de unidades. ¿Cómo se sopesa el beneficio de la velocidad frente al coste del riesgo o el precio de un activo? Aquí es donde entra en juego la normalización, una técnica matemática que permite unificar escalas y convertir los datos xij en valores adimensionales mij comparables entre sí.

Para un estratega, la normalización no es solo un ajuste de escala, sino un cambio de lógica. Debemos distinguir entre los criterios de beneficio (donde más es mejor) y los de coste (donde menos es mejor).

Sin normalización vectorial o lineal, nuestras decisiones diarias fallan, ya que nuestras escalas mentales están descalibradas y otorgamos un peso desproporcionado a lo que es fácil de medir, ignorando lo que realmente importa.

Lógica difusa: traduciendo la ambigüedad en números reales.

En la estrategia real, los datos rara vez son determinísticos. El lenguaje humano es vago: decimos que una oportunidad es «muy buena» o «normal». La ciencia de la decisión estructura esta incertidumbre mediante la lógica difusa, que transforma los juicios lingüísticos en números triangulares difusos (NTD).

Un NTD se define por tres valores (L, M, U):

  • L (más bajo): el límite inferior o el escenario más pesimista.
  • M (moda): el valor más probable o el núcleo del juicio.
  • U (más alto): el límite superior o el escenario más optimista.

Por ejemplo, la expresión «muy bueno» podría representarse como (0,6; 0,7; 0,8). Esta tríada no es arbitraria, sino que representa el «margen de error» y la vaguedad intrínseca de la percepción humana. Al utilizar estos intervalos, pasamos de una falsa precisión a una objetividad robusta que acepta y cuantifica la duda.

El axioma de Zeleny: la búsqueda del «punto ideal».

¿Cómo identificar la mejor opción en un mar de alternativas? El axioma de Zeleny postula que la solución preferida es la que minimiza la distancia al «punto ideal». Imaginemos un animal hipotético que corriera como el guepardo, volara como el halcón y nadara como el pez espada: ese sería nuestro punto ideal, una utopía técnica.

Para medir cuán cerca estamos de ese ideal, utilizamos funciones de distancia Lp, cuya interpretación cambia nuestra postura estratégica.

  • La distancia de Manhattan (L₁) es una métrica compensatoria. Suma todas las diferencias, lo que permite que una gran fortaleza en un área compense una debilidad en otra.
  • La distancia euclidiana (L₂) es la distancia física más directa en un espacio multidimensional y es la medida estándar de proximidad.
  • La distancia de Chebyshev (L∞) es la medida más conservadora. Se enfoca exclusivamente en la mayor diferencia posible, buscando minimizar el «máximo dolor». Es la estrategia de quien no puede permitirse un solo fallo crítico.

El pato no es perfecto, pero su distancia euclidiana al ideal es menor que la de los especialistas cuando el entorno exige versatilidad.

El filtro de la consistencia: no te contradigas.

Incluso con las mejores herramientas, la calidad de una decisión depende de la lógica del decisor. El Proceso de Jerarquía Analítica (AHP) nos obliga a ser coherentes mediante matrices de comparación pareada que deben respetar tres propiedades fundamentales.

  • Reciprocidad: si la opción A es tres veces mejor que la B, entonces la B debe ser, obligatoriamente, una tercera parte tan buena como la A.
  • Homogeneidad: los elementos comparados deben pertenecer al mismo orden de magnitud para que la escala tenga sentido.
  • Consistencia: si prefieres A sobre B y B sobre C, sería una contradicción lógica preferir C sobre A.

El AHP calcula una razón de consistencia (CR). Si este ratio es elevado, el «autovector» (o vector de prioridades) de la decisión se distorsiona y el juicio pierde validez.

«Los juicios emitidos deben ser revisados si la razón de consistencia es mayor que 0,1».

En la alta estrategia, el objetivo es minimizar este valor para garantizar que nuestras prioridades sean lógicamente sólidas y no fruto de un sesgo momentáneo.

Conclusión: Hacia una estrategia de vida «multicriterio».

La ciencia de la decisión nos enseña que el éxito no es una carrera de cien metros lisos, sino un triatlón constante. Para diseñar vidas y negocios más equilibrados, debemos evolucionar de la optimización simple a la estrategia multicriterio.

  • Sintetizar la versatilidad: hay que dejar de buscar la especialización extrema y empezar a valorar las «soluciones de compromiso» que ofrecen solidez.
  • Normalizar con rigor: antes de comparar, ajuste sus escalas. No ignore el coste por deslumbrarse con el beneficio.
  • Gestionar la incertidumbre: utilice la lógica difusa para aceptar que sus juicios tienen márgenes de error (L, M, U).
  • Medir la distancia al ideal: defina su punto ideal, pero tenga en cuenta si opera bajo una lógica de compensación (L₁) o de mitigación de riesgos (L∞).
  • Exigirse consistencia: si sus prioridades se contradicen, su estrategia colapsará. Mantenga su CR < 0,1.

Al final del día, el pato sobrevive porque es consistente en su mediocridad brillante a través de múltiples medios. ¿Qué criterio fundamental está sacrificando hoy por obsesionarse con una sola métrica de éxito?

En esta conversación puedes escuchar las ideas más interesantes sobre la toma de decisiones.

Una buena síntesis de las ideas sobre este tema la puedes encontrar en el siguiente vídeo.

Aquí dejo un documento de síntesis que espero os resulte útil.

Optimizing_Multicriteria_Decisions

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Gestión y normativa de sostenibilidad medioambiental

En el entorno corporativo actual, la presión por ser «sostenible» es omnipresente. Sin embargo, existe una brecha crítica entre el marketing ecológico y la capacidad real de ejecución. Para un líder estratégico, la sostenibilidad no es una mera declaración de intenciones, sino una cuestión de arquitectura organizativa.

Un Sistema de Gestión Ambiental (SGA) es, en esencia, la forma en que las empresas se organizan, mediante estructuras y procesos definidos, para actuar de manera sistemática, garantizar la fluidez de las operaciones y alcanzar los resultados previstos.

A continuación, se desglosan cinco ideas que te permitirán pasar de la intuición a la estructura y optimizar la competitividad de tu organización conforme a estándares internacionales.

Flexibilidad estratégica: el mito de las metas cuantitativas en la ISO 14001.

Existe la creencia errónea de que la certificación ISO 14001 impone límites uniformes de emisiones a todas las empresas. En realidad, esta norma no dicta resultados, sino que facilita procesos. Como estratega, debes entender que la serie ISO 14000 proporciona un marco lógico que se adapta a tu realidad operativa, ya sea que dirijas una multinacional como Toyota o una empresa de servicios.

Como aclara el estándar técnico:

«No establece un conjunto de objetivos cuantitativos en cuanto a niveles de emisiones ni métodos específicos para medirlos».

Esta característica es la que otorga flexibilidad estratégica. La norma te obliga a identificar tus propios riesgos y externalidades, lo que te permite fijar objetivos acordes con tu modelo de negocio y tus recursos disponibles, garantizando siempre una mejora en el desempeño ambiental.

Resiliencia operativa: el ciclo PHVA como motor de eficiencia.

Un sistema de gestión ambiental (SGA) eficaz no es una foto estática, sino un sistema dinámico diseñado para combatir el estancamiento corporativo. El motor de esta resiliencia es el ciclo PHVA (Planificar-Hacer-Verificar-Actuar), que convierte la gestión ambiental en un flujo operativo constante.

  • Planificar: Definición de objetivos y procesos alineados con la política ambiental de la empresa.
  • Hacer: Ejecución e implementación de los procesos según lo previsto.
  • Verificar: Fase crítica de seguimiento y medición de los compromisos, en la que se evalúan no solo los objetivos, sino también los criterios de operación establecidos.
  • Actuar: Tomar decisiones basadas en datos para optimizar el sistema de forma continua.

Este ciclo garantiza que la gestión ambiental sea un proceso de optimización continua y no un evento aislado para cumplir con una auditoría.

Integración de sistemas: el valor estratégico de la Estructura de Alto Nivel (HLS)

Para los directivos que temen la parálisis burocrática, la Estructura de Alto Nivel (HLS) es la solución definitiva. Las versiones modernas de las normas ISO comparten un texto básico y definiciones comunes. Esto no solo simplifica los trámites administrativos, sino que también ofrece la oportunidad de lograr una integración estratégica.

La implementación de la HLS permite que normas como la ISO 14001 (medio ambiente), la ISO 9001 (calidad) y la ISO 45001 (seguridad y salud) hablen el mismo idioma. Al tratarse de requisitos comunes, el esfuerzo documental se reduce drásticamente, ya que lo único que varía es el enfoque aplicado. Puede gestionar sus responsabilidades legales y operativas desde una única plataforma documental, lo que elimina los silos organizativos y el caos de múltiples sistemas aislados.

 

El rigor en la medición: la ISO 14064 frente a la ISO 14067

Anunciar una «huella de carbono» sin definir sus límites supone un riesgo para la reputación. Según la norma ISO 14064, la credibilidad de sus cifras depende de dos decisiones técnicas cruciales que todo director ejecutivo debe validar:

  • Límites organizativos: ¿Informará desde un enfoque de control (emisiones sobre las que tiene potestad operativa o financiera) o desde un enfoque de cuota de participación (emisiones proporcionales a su capital accionario)?
  • Límites operativos: identificación precisa de los tipos de emisiones (directas e indirectas) que se integran en el inventario anual.

Además, como consultor sénior, es fundamental que su equipo no confunda los términos: la ISO 14064 se centra en la huella de la organización, mientras que si su objetivo es certificar el impacto de un producto o servicio específico, debe recurrir a la ISO 14067. Sin esta distinción, su informe de sostenibilidad carecerá de la transparencia y la veracidad necesarias ante los grupos de interés externos.

El desafío del rediseño: por qué la sostenibilidad no se «compra»

Implementar un SGA no es una transacción, sino una transformación. Un sistema mal gestionado puede convertirse en una «fábrica de papel» si no se aborda con una mentalidad eficiente. El «lado B» de la gestión ambiental exige reconocer tres factores ineludibles:

  • Reestructuración de procesos: la implantación suele requerir cambios profundos en la forma en que opera la empresa, lo que demanda inversión técnica y financiera.
  • Compromiso de la alta dirección: sin la implicación directa de los líderes, el sistema se convierte en un ejercicio burocrático estéril.
  • Gestión documental estratégica: un SGA genera abundantes registros, instrucciones técnicas y procedimientos. La clave para evitar el colapso administrativo es automatizar los procesos rutinarios e integrar estratégicamente la documentación.

Conclusión: la gestión ambiental es gestión de la eficiencia

Los casos de éxito de empresas líderes como Toyota, 3M y Ford demuestran que un sistema de gestión ambiental (SGA) robusto es sinónimo de competitividad. Toyota ha reducido drásticamente su consumo de agua y energía, 3M ha logrado minimizar la contaminación y el desperdicio de recursos y Ford ha transformado sus plantas mediante la eficiencia energética y prácticas de reciclaje de vanguardia.

Un sistema de gestión ambiental aporta el orden y la coherencia necesarios para transformar preocupaciones dispersas en una estructura sistemática de responsabilidades.

La pregunta ya no es si su empresa tiene la intención de ser sostenible, sino si su estructura organizativa actual es lo suficientemente sólida como para sobrevivir y prosperar sin un sistema de gestión formal.

En esta conversación puedes escuchar las ideas más interesantes sobre los sistemas de gestión ambiental.

Este vídeo resume bien los conceptos más importantes del tema.

Aquí dejo un documento que sirve como resumen.

Environmental_Management_and_ISO_Standards

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Preguntas y respuestas sobre la DANA de Valencia que nos obligan a reflexionar

1. ¿Cómo explica el «modelo del queso suizo» que la DANA de 2024 no fuera solo un fenómeno natural, sino un fallo de múltiples barreras de defensa?

Esta pregunta aborda la raíz del desastre y la diferencia entre las condiciones latentes —infraestructuras obsoletas, urbanismo en zonas inundables y falta de mantenimiento— y los fallos activos —retrasos en las alertas y errores en la coordinación de la emergencia—. El análisis revela que la catástrofe ocurrió porque los «agujeros» de distintas áreas —la política, la supervisión, la infraestructura y la respuesta inmediata— se alinearon, lo que permitió que el peligro atravesara todas las defensas. Además, subraya que los desastres no son puramente «naturales», sino el resultado de decisiones humanas y de la ocupación de cauces críticos.

2. ¿Por qué se considera la infraestructura hidráulica un «seguro de vida» y qué consecuencias tuvo la falta de ejecución de las obras proyectadas en el barranco del Poyo?

El significado central de las fuentes técnicas y de las comisiones de investigación radica en que demuestran que las obras hidráulicas salvan vidas. Mientras que Valencia se salvó gracias al nuevo cauce del Turia y las poblaciones del río Magro vieron reducidos sus daños por la presa de Forata, la cuenca del Poyo carecía de infraestructuras de laminación, por lo que se produjo una avenida destructiva sin precedentes. La falta de inversión, la ralentización administrativa y la priorización de criterios ambientales por encima de los estructurales impidieron la ejecución de proyectos ya diseñados y aprobados.

3. ¿De qué manera el «fin de la estacionariedad climática» obliga a la ingeniería y al urbanismo a abandonar los registros históricos y adoptar un diseño basado en el rendimiento y la resiliencia?

Las fuentes consultadas destacan que el cambio climático ha invalidado el uso exclusivo de datos históricos para predecir el futuro. Fenómenos como la DANA de 2024 demuestran que lo que antes se consideraba un evento con un periodo de retorno de 500 años ahora puede ocurrir con mucha mayor frecuencia. Por tanto, es necesario rediseñar las infraestructuras con mayores márgenes de seguridad (retornos de 1000 años), utilizar modelos probabilísticos y aplicar el diseño basado en el desempeño (PBD), que garantiza que un sistema pueda seguir funcionando o recuperarse rápidamente cuando se vea superado.

4. ¿Por qué la «retirada estratégica» de las zonas de alto riesgo y el rediseño arquitectónico resiliente son ahora imperativos para convivir con el «riesgo residual» que las infraestructuras no pueden eliminar?

Esta pregunta aborda el hecho de que, durante décadas, se ha construido con una grave «amnesia hidrológica», ocupando zonas de flujo preferente que la naturaleza ha acabado por reclamar. El análisis de las fuentes indica que, dado que el «riesgo cero» no existe y las presas pueden verse superadas por eventos extremos, la reconstrucción no debe limitarse a reparar, sino a reubicar las infraestructuras críticas (colegios, centros de salud) fuera de las zonas de alto riesgo. En cuanto a las viviendas que permanecen en áreas inundables, se propone un cambio radical en los códigos de edificación: prohibir dormitorios y garajes en las plantas bajas, elevar las instalaciones críticas (electricidad, calderas) y utilizar materiales resistentes al agua que permitan recuperar rápidamente la funcionalidad. Por último, las fuentes subrayan que la educación pública y la cultura de la prevención (siguiendo modelos como el japonés) son medidas de bajo coste y alto impacto que salvan vidas cuando las barreras físicas fallan.

5. ¿Qué cambios son imprescindibles en la gobernanza y la coordinación institucional para evitar que la reconstrucción sea una mera réplica de los errores del pasado?

Las fuentes coinciden en que la reconstrucción no puede limitarse a reponer lo perdido, pues, de lo contrario, se perpetuaría la vulnerabilidad. Se recomienda la creación de un «ministerio del pensamiento» o de un equipo de reflexión que establezca directrices estratégicas a largo plazo y evite la «rapidez ilusoria» de las obras tácticas. Además, se reclama una gobernanza interadministrativa eficaz, posiblemente mediante consorcios en los que las administraciones deleguen competencias para unificar presupuestos y decisiones técnicas sobre las políticas, y así superar la fragmentación y la parálisis burocrática.

Creo que dos analogías o metáforas pueden aclarar algunos conceptos básicos:

  • Gestionar el territorio hoy es como construir en la ladera de un volcán. Podemos instalar sensores y construir diques para desviar la lava (infraestructuras), pero la verdadera seguridad depende de no construir los dormitorios en el camino de la colada (ordenación del territorio) y de que todos los habitantes sepan exactamente qué mochila coger y hacia dónde correr cuando suene la alarma (concienciación comunitaria).
  • Gestionar el riesgo de inundaciones hoy en día es como conducir un coche moderno por una autopista peligrosa: no basta con tener un motor potente (infraestructuras hidráulicas), también es necesario que los cinturones de seguridad y el airbag funcionen (alertas y protección civil), que el conductor esté capacitado (concienciación comunitaria) y que las normas de circulación se adapten a las condiciones meteorológicas de la vía, y no a cómo era el asfalto hace cincuenta años.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Primer aniversario de la DANA de Valencia: Anatomía de un desastre

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

Hoy, 29 de octubre de 2025, se cumple el primer aniversario de la DANA de Valencia de 2024, un evento que ha sido catalogado como una de las mayores catástrofes naturales ocurridas en España en décadas. La tragedia se produjo por unas precipitaciones históricas que pulverizaron récords nacionales, con máximos de más de 770 l/m² acumulados en 24 horas en Turís, lo que demuestra que el riesgo cero no existe en un contexto de cambio climático. El desastre no se explica únicamente por la cantidad de lluvia caída, sino por la trágica multiplicación entre el evento extremo, sobrealimentado por el calentamiento global, y el fallo estructural de un urbanismo que, durante décadas, ha ignorado las zonas de riesgo. Aunque la respuesta inmediata y los esfuerzos por restablecer las infraestructuras críticas han sido notables, la ingeniería de la reconstrucción no puede limitarse a reponer lo perdido, ya que replicar el estado previo implica aceptar que los efectos se repetirán. En este contexto, un medio de comunicación me ha solicitado una entrevista para abordar si, un año después, hemos avanzado hacia las soluciones de resiliencia y prevención que el conocimiento técnico lleva tiempo demandando. Os dejo la entrevista completa, por si os resulta de interés.

¿Cómo describiría desde un punto de vista técnico lo que ocurrió el 29 de octubre en Valencia? ¿Qué falló?

Desde el punto de vista técnico e ingenieril, el suceso del 29 de octubre en Valencia fue un evento de inundación extremo provocado por una DANA con un carácter pluviométrico extraordinario, ya que se registraron cifras extremas, como los 771,8 l/m² en 24 horas en Turís, y caudales en la Rambla del Poyo de hasta 2.283 m³/s antes de que los sensores fueran arrastrados, superando con creces cualquier expectativa de diseño y demostrando que el riesgo cero no existe. La magnitud del impacto fue consecuencia de una serie de factores concurrentes. El factor principal se produjo en la cuenca de la Rambla del Poyo, donde la virulencia del agua (con caudales medidos superiores a 2.200 m³/s y estimaciones simuladas que superan los 3.500 m³/s) se encontró con la ausencia de infraestructuras hidráulicas suficientes para la laminación de avenidas y otras medidas complementarias. Los proyectos de defensa contra inundaciones, que llevaban años planificados y con estudios previos, no se ejecutaron a tiempo. En contraste, el Nuevo Cauce del Turia y las presas de Forata y Buseo funcionaron eficazmente, protegiendo la ciudad de Valencia y otras poblaciones. Además de estas vulnerabilidades latentes, el impacto humano y material se vio agravado por desafíos en la respuesta, incluyendo la efectividad en los sistemas de alerta temprana (SAIH) bajo condiciones tan extremas y en la implantación de los planes de emergencia municipales, así como en la emisión de avisos con suficiente antelación a la población, impidiendo que esta pudiera reaccionar a tiempo.

¿Qué papel jugaron las infraestructuras y la planificación urbana en la magnitud de los daños? ¿Hubo zonas especialmente vulnerables o mal planificadas?

Las infraestructuras y la planificación urbana jugaron un papel determinante en la magnitud de los daños. Por un lado, las obras estructurales, como el Nuevo Cauce del Turia y las presas de Forata y Buseo, resultaron fundamentales, mitigando las inundaciones y protegiendo la ciudad de Valencia y otras poblaciones. Sin embargo, la magnitud de los daños se vio agravada por la ausencia de medidas integrales de defensa diseñadas para la laminación de avenidas, especialmente en la cuenca de la Rambla del Poyo, donde los proyectos planificados no se ejecutaron a tiempo. Los caudales extraordinarios superaron con creces la capacidad existente. Además, las infraestructuras lineales (carreteras, ferrocarriles y puentes) actuaron como puntos de estrangulamiento, reteniendo arrastres y aumentando el nivel de destrucción. Las zonas más vulnerables se concentraron en el cono aluvial de L’Horta Sud, una zona de alto riesgo urbanizada principalmente entre la riada de 1957 y la década de 1970, sin planificación adecuada ni infraestructuras de saneamiento suficientes. La falta de unidad de criterio en la ordenación territorial municipal y la prevalencia de intereses de desarrollo sobre las directrices de restricción de usos en zonas inundables (a pesar de instrumentos como el PATRICOVA) aumentaron la vulnerabilidad social y material del territorio. Aunque algunos hablan de emergencia hidrológica, probablemente sea más adecuado hablar de un profundo desafío urbanístico y de ordenación territorial.

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

Desde entonces, ¿qué medidas reales se han tomado —si las hay— para reducir el riesgo de que vuelva a suceder algo similar?

Desde la DANA de octubre de 2024, las medidas adoptadas se han enfocado en la reconstrucción con criterios de resiliencia y atención a urgencias, aunque las soluciones estructurales de gran calado, que requieren plazos de ejecución más largos, siguen mayormente pendientes. En la fase inmediata, se activaron obras de emergencia, destacando la reparación y refuerzo de infraestructuras críticas como las presas de Forata y Buseo, y la recuperación de cauces y del canal Júcar-Turia. Un ejemplo de reconstrucción en curso es la mejora de la red de drenaje de Paiporta, que forma parte de las primeras actuaciones tras la catástrofe. En el ámbito normativo, el Consell aprobó el Decreto-ley 20/2024 de medidas urbanísticas urgentes y se ha puesto sobre la mesa la revisión de normativas como el Código Técnico de la Edificación (CTE) para incluir requisitos para edificaciones en zonas inundables. También se prevé que los sistemas de comunicación y alerta estén coordinados en todas las cuencas mediterráneas, lo que podría evitar muertes en caso de repetirse el fenómeno. Sin embargo, es un hecho que, meses después, la legislación urbanística de fondo sigue sin cambios estructurales y que, en cuanto a las obras hidráulicas estructurales de prevención, como las presas de laminación, sus plazos de tramitación y ejecución impiden que se hayan materializado avances significativos todavía, dificultando el avance de proyectos críticos. Por tanto, existe una etapa de reconstrucción que debería ser inteligente y no dejar las infraestructuras como estaban antes de la DANA, pues eso implicaría asumir los mismos riesgos, y otra a medio y largo plazo que permita defender a la población, minimizando los riesgos.

¿Qué actuaciones considera urgentes o prioritarias para evitar repetir los errores del pasado?

Para evitar repetir los errores del pasado, es necesario un cambio de modelo que combine inversión estructural urgente con planificación territorial resiliente. En ingeniería hidráulica, la acción prioritaria es acelerar e implementar las obras de laminación contempladas en la planificación hidrológica, como la construcción de presas en las cuencas de la Rambla del Poyo y el río Magro, y destinar recursos extraordinarios para construir las estructuras de prevención necesarias y corregir el déficit de infraestructuras de prevención. También es prioritario eliminar obstáculos urbanísticos, como puentes y terraplenes insuficientes, y reconstruir infraestructuras lineales con criterios resilientes, permitiendo el paso seguro del agua. En urbanismo, la enseñanza principal es devolverle el espacio al agua, retirando estratégicamente infraestructuras de las zonas de flujo preferente para reducir la exposición al riesgo más elevado e iniciando un plan a largo plazo para reubicar infraestructuras críticas y viviendas vulnerables. Se recomienda revisar la normativa sobre garajes subterráneos en llanuras de inundación. Asimismo, es esencial invertir en sistemas de alerta hidrológica robustos, con más sensores y modelos predictivos que traduzcan la predicción en avisos concretos y accionables. Por último, es fundamental que la gobernanza supere la inercia burocrática mediante un modelo de ejecución de urgencia que priorice el conocimiento técnico y garantice que el riesgo no se convierta de nuevo en catástrofe humana.

Vista del barranco del Poyo, en Paiporta, 17 de octubre de 2025. Imagen: V. Yepes

¿Hasta qué punto Valencia está preparada para afrontar lluvias torrenciales o fenómenos extremos de este tipo en el futuro?

Desde una perspectiva técnica e ingenieril, a día de hoy, la vulnerabilidad de fondo persiste y no estamos preparados para afrontar una nueva DANA de la magnitud de la ocurrida en 2024. La situación es similar a la de una familia que circula en coche por la autopista a 120 km/h sin cinturones de seguridad: bastaría un obstáculo inesperado (una DANA) para que el accidente fuera mortal. Aceptar la reposición de lo perdido sin añadir nuevas medidas de protección estructural implicaría aceptar que los efectos del desastre se repetirán, algo inasumible. El problema principal es que prácticamente no se han ejecutado las grandes obras de laminación planificadas, especialmente en las cuencas de la Rambla del Poyo y del Magro, que constituyen la medida más eficaz para proteger zonas densamente pobladas mediante contención en cabecera. La DANA expuso un problema urbanístico severo. Meses después, mientras no se modifique la legislación territorial de fondo y se actúe sobre el territorio, el riesgo latente de la mala planificación persiste ante el próximo fenómeno extremo. La única forma de eliminar esta vulnerabilidad es mediante una acción integral que combine inversión urgente en obras estructurales con retirada estratégica de zonas de flujo preferente.

Os dejo un pequeño vídeo didáctico donde se resume lo acontecido en la DANA del 29 de octubre de 2024.

En las noticias de hoy, aparezco en varios reportajes:

En el Telediario de TVE, en horario de máxima audiencia, a las 21:00 h, se hizo un programa especial sobre la DANA donde tuve la ocasión de participar. Os dejo un trozo del vídeo.

 

Reconstruir Valencia un año después: «cirugía urbana» y zonas verdes para protegerse de futuras danas

Un año después de la DANA del 29-O, los expertos advierten: «Podría volver a pasar»

Valencia: expertos advierten que la región aún no está preparada para afrontar otro episodio climático extremo

Valencia se blinda frente al agua: garajes elevados e ingeniería verde tras la DANA

One year after Valencia’s deadly flooding experts warn ‘it could happen again’

Një vit pas përmbytjeve vdekjeprurëse në Valencia, ekspertët paralajmërojnë se ‘mund të ndodhë përsëri’

Egy évvel a valenciai árvíz után a szakértők figyelmeztetnek: «Ez újra megtörténhet»

Egy évvel a spanyol árvizek után: Tanulságok és kihívások a Valenciai Közösség számára

 

También os dejo los artículos que he ido escribiendo sobre este tema en este blog. Espero que os resulten de interés.

Lo que la catástrofe de Valencia nos obliga a repensar: cuatro lecciones. 30 de septiembre de 2025.

Resiliencia en las infraestructuras: cómo prepararnos para un futuro de incertidumbre. 26 de septiembre de 2025.

Iniciativa Legislativa Popular para la Modificación de la Ley de Aguas. 17 de julio de 2025.

Posibles consecuencias de una nueva DANA en el otoño de 2025. 16 de julio de 2025.

Discurso de apertura en el evento Innotransfer “Infraestructuras resilientes frente a eventos climáticos extremos”. 26 de mayo de 2025.

Ya son 6 meses desde el desastre de la DANA en Valencia. 29 de abril de 2025.

Jornada sobre infraestructuras resilientes al clima. 8 de abril de 2025.

Entrevista en Levante-EMV sobre la reconstrucción tras la DANA. 17 de marzo de 2025.

La ingeniería de la reconstrucción. 6 de marzo de 2025.

Lecciones aprendidas: proteger a la población es la prioridad. 25 de diciembre de 2024.

DANA 2024. Causas, consecuencias y soluciones. 3 de diciembre de 2024.

Qué es una presa. «La via verda», À Punt. 28 de noviembre de 2024.

Aplicación del modelo del queso suizo en la gestión de desastres. 10 de noviembre de 2024.

Gestión del riesgo de inundación en infraestructuras críticas: estrategias y medidas de resiliencia. 8 de noviembre de 2024.

Presas y control de inundaciones: estrategias integradas para la reducción de riesgos hídricos. 7 de noviembre de 2024.

Defensa integral contra inundaciones: un esbozo de las estrategias para la gestión de riesgos. 6 de noviembre de 2024.

Introducción a las crecidas en ingeniería hidráulica. 5 de noviembre de 2024.

Precipitación en ingeniería hidráulica: conceptos, medición y análisis. 4 de noviembre de 2024.

Efectos de las inundaciones en las estructuras de las edificaciones. 2 de noviembre de 2024.

Valencia frente a la amenaza de una nueva inundación: análisis, antecedentes y estrategias para mitigar el riesgo. 1 de noviembre de 2024.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.