Fundamentos y procesos de la estimación de costes

Cada mañana, millones de personas realizan un ejercicio intuitivo de predicción: consultan el tiempo y deciden si llevarse un paraguas. Se trata de un acto de mitigación de riesgos basado en datos actuales. Sin embargo, cuando trasladamos esta lógica a la adquisición de sistemas de defensa o de infraestructuras críticas, la intuición no resulta de gran utilidad.

La estimación de costes no es un simple cálculo contable, sino una compleja combinación de arte y ciencia. Técnicamente, la definimos como una «instantánea de probabilidad» basada exclusivamente en la información disponible en un momento determinado.

Si cambian las suposiciones iniciales, la estimación variará inevitablemente. No es que el modelo sea erróneo, sino que ha mutado la realidad.

Como señaló el físico y premio Nobel Niels Bohr:

«Predecir es muy difícil, especialmente cuando se trata del futuro».

Lección 1: tus predecesores no eran incompetentes (y por qué eso importa).

Existe un mito persistente entre la alta dirección: que utilizar datos históricos para proyectar costes equivale a heredar las ineficiencias y los errores de los gestores anteriores. Se teme que, si el pasado fue accidentado, el futuro será un reflejo de esos fallos.

Nada más lejos de la realidad técnica. La búsqueda y la normalización de datos históricos son pilares de cualquier estimación científicamente fundamentada. Las desviaciones en proyectos pasados rara vez se deben a la incompetencia; suelen ser respuestas adaptativas a eventos externos e imprevisibles que escapan al control del director del programa. Al analizar el pasado, no buscamos replicar el error, sino comprender la volatilidad. En este sentido, la honestidad intelectual nos obliga a aceptar una máxima del sector:

«No cometerás los mismos errores que tus predecesores, ¡cometerás los tuyos propios!».

Esta perspectiva permite a los directivos sénior comprender que la gestión de proyectos complejos no consiste en eliminar la incertidumbre, sino en gestionarla mediante modelos cuantitativos transparentes y defendibles.

Lección 2: El «iceberg» de los costes del ciclo de vida.

Uno de los errores estratégicos más comunes en proyectos de infraestructura es centrarse exclusivamente en el “precio de etiqueta”, es decir, en el coste de construcción. En la consultoría de proyectos complejos se utiliza el análisis del coste del ciclo de vida (Life Cycle Cost Estimate, LCCE) para comprender el verdadero esfuerzo económico que conlleva una infraestructura desde su concepción hasta su retirada o renovación.

Un LCCE permite visualizar todos los recursos necesarios a lo largo del tiempo y suele estructurarse en cuatro grandes fases:

  1. Diseño y desarrollo (estudios previos, ingeniería, proyectos y ensayos).
  2. Inversión inicial (construcción y puesta en servicio).
  3. Operación y mantenimiento (explotación, conservación, energía, personal, reparaciones).
  4. Fin de vida o disposición (desmantelamiento, renovación o sustitución).

La metáfora del iceberg de los costes resulta especialmente útil para comprender este enfoque. La construcción visible —la parte que suele atraer toda la atención— es solo la punta del iceberg. Bajo la superficie se encuentran los costes acumulados durante décadas de operación y mantenimiento, que en muchos casos pueden representar la mayor parte del gasto total.

Sin embargo, un análisis riguroso exige reconocer que no existe una estructura de costes universal. La distribución del gasto depende en gran medida del tipo de activo y de su modelo de explotación.

Por ejemplo:

  • En infraestructuras digitales vinculadas a la ingeniería civil, como plataformas de gestión del tráfico o sistemas de control ferroviario, una parte muy significativa del coste puede concentrarse en el desarrollo tecnológico inicial, en el que la ingeniería y el software son determinantes.
  • En infraestructuras estandarizadas y repetitivas, como determinados tramos de carreteras o estructuras prefabricadas, el peso principal suele recaer en la fase de inversión inicial, donde materiales, maquinaria y ejecución concentran la mayor parte del presupuesto.
  • En infraestructuras intensivas en operación, como redes ferroviarias, aeropuertos, presas o grandes instalaciones hidráulicas, los costes dominantes suelen concentrarse en la fase de operación y mantenimiento: conservación, inspecciones, energía, personal especializado y renovación periódica de equipos.

La lección estratégica es clara: evaluar una infraestructura únicamente por su coste de construcción puede conducir a decisiones subóptimas. Incorporar una visión de ciclo de vida permite diseñar activos más eficientes, reducir costes futuros y tomar decisiones de inversión con una perspectiva verdaderamente estratégica.

Lección 3: La inercia estratégica de los «costes hundidos».

El cerebro humano tiene una vulnerabilidad bien conocida: la tendencia a intentar “salvar” un proyecto problemático solo porque ya se ha invertido mucho en él. En economía y gestión de proyectos, este fenómeno se conoce como la falacia del coste hundido.

En términos estrictamente financieros, el dinero gastado en el pasado ya no debería influir en las decisiones futuras, porque no puede recuperarse. Lo relevante para quien toma decisiones no es cuánto se ha gastado, sino cuánto costará terminar el proyecto a partir de ahora. Por eso, una de las métricas clave es el coste por completar (cost to go), es decir, el dinero adicional necesario para completar una infraestructura.

Veamos un ejemplo sencillo aplicado a la ingeniería civil. Imaginemos la construcción de una autovía o un gran puente cuyo presupuesto inicial se ha visto superado:

  • Estado actual del proyecto: ya se han invertido 200 millones de euros (coste hundido).
  • Coste estimado para terminar la obra: 100 millones adicionales.
  • Coste total final: 300 millones.

Ahora aparece una alternativa técnica: rediseñar el proyecto desde cero con otra solución constructiva, cuyo coste total sería de 250 millones.

Si miramos únicamente el coste total, la nueva solución (250 M€) parece más eficiente que el proyecto actual (300 M€). Sin embargo, desde el punto de vista financiero, el análisis correcto es otro.

El dinero ya invertido —los 200 millones— es un coste hundido y no puede recuperarse. La decisión debe basarse únicamente en el capital adicional necesario:

  • Terminar el proyecto actual requiere 100 millones adicionales.
  • Empezar una nueva solución requiere una nueva inversión de 250 millones.

Si ambas infraestructuras ofrecen un resultado equivalente en servicio, seguridad y prestaciones, la opción racional sería terminar el proyecto existente, ya que requiere mucho menos capital adicional.

Superar la inercia estratégica de los costes hundidos exige disciplina analítica: centrarse exclusivamente en los costes y beneficios futuros y no en el peso psicológico de lo ya gastado. En proyectos de infraestructura —donde las inversiones son muy elevadas y los plazos son largos— esta distinción es crucial para evitar decisiones económicamente ineficientes.

Lección 4: ¿Coste o precio? La distinción que lo cambia todo.

En el lenguaje coloquial, son sinónimos, pero en la estrategia de adquisiciones son conceptos totalmente distintos. El coste es la medición de los recursos consumidos para producir un bien. El precio es lo que el mercado está dispuesto a pagar y se ve afectado por el margen de beneficio, la competencia y el valor percibido. Nuestra máxima es que la profesión de la estimación se centra en los costes, no en el precio.

Para ilustrar esta complejidad, analicemos algo tan simple como una cabeza de lechuga. Para un consumidor, el precio es una cifra que ve en el estante. Para un estimador, el «coste» es un desglose multicapa que incluye el cultivo y la siembra, la irrigación y el mantenimiento, el proceso de cosecha, el embalaje en planta y, por último, la logística de transporte. Solo comprendiendo estas capas podemos evaluar si el precio de un sistema complejo es razonable o si estamos asumiendo riesgos financieros ocultos.

Lección 5: la «segunda opinión» como salvaguarda estratégica.

En muchos proyectos de ingeniería civil, la estimación independiente de costes (ICE, Independent Cost Estimate) suele percibirse por los directores de proyecto como una revisión incómoda o incluso como una señal de desconfianza hacia el trabajo del equipo interno. Sin embargo, en proyectos complejos —infraestructuras ferroviarias, grandes presas, túneles o corredores logísticos— contar con una segunda opinión técnica sobre los costes se ha consolidado como una práctica clave de gestión del riesgo.

Una estimación independiente no busca cuestionar al equipo del proyecto, sino aportar una visión externa y metodológicamente rigurosa que reduzca los sesgos inevitables de los equipos profundamente implicados en el diseño y la planificación. En proyectos de obra civil, donde intervienen múltiples disciplinas, contratistas y condicionantes regulatorios, es frecuente que el entusiasmo técnico o la presión por aprobar un proyecto conduzca a estimaciones demasiado optimistas.

Por ejemplo, en la planificación de una línea ferroviaria de alta velocidad, un equipo promotor puede basar su estimación en rendimientos teóricos de obra o en condiciones geotécnicas favorables. Una evaluación independiente puede introducir escenarios alternativos: variaciones en los costes de materiales, incertidumbres geológicas en los túneles o desviaciones en la productividad de los equipos. Del mismo modo, en la construcción de grandes infraestructuras hidráulicas o viarias, una revisión externa puede detectar partidas infravaloradas relacionadas con desvíos de servicios, con la gestión ambiental o con riesgos constructivos.

Las instituciones públicas que financian grandes infraestructuras han aprendido que la calidad de las estimaciones de costes es decisiva para la viabilidad de los proyectos. Como advierte la Government Accountability Office (GAO):

«La capacidad de generar estimaciones de costes fiables es necesaria para apoyar los procesos presupuestarios. Sin ella, existe el riesgo de sufrir sobrecostes, incumplimientos de plazos y deficiencias en el rendimiento, lo que implica que el Gobierno no pueda financiar tantos programas como pretendía».

En este contexto, la estimación independiente de costes funciona como una salvaguarda estratégica: no solo mejora la calidad de las previsiones económicas, sino que también fortalece la credibilidad de los proyectos ante financiadores, administraciones y la ciudadanía. En un sector donde las decisiones de inversión comprometen recursos durante décadas, disponer de una segunda opinión rigurosa no es una señal de debilidad, sino de buena gobernanza.

Conclusión: el «Estándar del Estudiante de Secundaria».

Una estimación de alta calidad no se mide por su capacidad de «acertar» el número final, sino por su trazabilidad y auditabilidad. En nuestro sector, aplicamos lo que se conoce como «Estándar del Estudiante de Secundaria»: el análisis debe ser lo suficientemente transparente y lógico como para que un estudiante con conocimientos básicos de aritmética pueda seguir los argumentos, formular suposiciones y obtener el mismo resultado.

Al final del día, quien controla las suposiciones controla el análisis. Al evaluar sus proyectos actuales, pregúntese: ¿sus estimaciones son cajas negras de complejidad innecesaria o documentos trazables que reflejan el coste real del ciclo de vida? La transparencia no es solo una buena práctica, sino la brújula que separa el éxito estratégico del desastre presupuestario.

Aquí puedes escuchar una conversación sobre los aspectos de mayor interés de este tema.

El vídeo resume bien los conceptos más importantes.

Strategic_Cost_Prediction

Referencias:

Mislick, G. K., & Nussbaum, D. A. (2015). Cost estimation: Methods and tools. John Wiley & Sons.

Yepes, V. (2022). Gestión de costes y producción de maquinaria de construcción. Universidad Politécnica de Valencia.

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Indicadores de gestión logística (KPI)

Los indicadores de gestión logística, conocidos como KPI (del inglés, Key Performance Indicators), son herramientas de medición cuantitativa esenciales para evaluar el rendimiento de las operaciones dentro de una organización. Su función principal es transformar datos brutos en información estratégica para supervisar la eficiencia, detectar cuellos de botella y apoyar la toma de decisiones basada en datos. La implementación de un sistema robusto de indicadores no solo optimiza el uso de los recursos y la calidad del servicio, sino que también garantiza la adaptabilidad de la cadena de suministro ante condiciones cambiantes, lo que asegura la competitividad y la reputación de la marca.

Los datos no son el fin, sino el medio para tomar decisiones.

La excelencia logística exige abandonar la «intuición» y adoptar una gestión basada en datos. Los indicadores actúan como el combustible que alimenta la dirección estratégica y la mitigación de riesgos.

Al controlar la eficiencia, el directivo puede llevar a cabo acciones correctivas con precisión quirúrgica. Como establece el marco de excelencia en las operaciones:

«El objetivo fundamental es tomar decisiones basadas en los datos obtenidos».

El índice de rotación (IRO) como termómetro de vitalidad.

El índice de rotación de inventarios mide la frecuencia de venta y de reposición de las existencias. Un IRO alto indica una gestión ágil de los recursos.

Desde una perspectiva financiera, el inventario estancado es capital congelado que erosiona la liquidez. Mantener el flujo constante es vital para garantizar la disponibilidad de activos y la salud económica de la empresa.

La calidad logística se mide por lo que «no» sucede: las devoluciones.

La calidad operativa se refleja en el índice de devoluciones. Este KPI evidencia fallos críticos en la calidad del producto y en la precisión de los pedidos, lo que afecta directamente la rentabilidad.

Un alto volumen de devoluciones degrada el nivel de servicio al cliente y la reputación de la marca. Una medición objetiva permite identificar las causas raíz antes de que se pierda la confianza del mercado.

El tiempo de ciclo de pedido: la métrica de la promesa cumplida.

El tiempo de ciclo de pedido es el tiempo total transcurrido desde la recepción hasta la entrega final. Es el indicador más sensible de la experiencia y la satisfacción del cliente.

Su optimización depende de la eficiencia del transporte, que exige una utilización efectiva de los vehículos y rutas optimizadas. Sin una coordinación eficaz del transporte, la promesa de entrega se convierte en una responsabilidad financiera.

La paradoja del almacenamiento: espacio frente a coste.

Un almacén extenso no es un activo, sino una carga si no se utiliza de manera inteligente. El almacenamiento conlleva costes críticos de alquiler, seguros y depreciación que pueden reducir los márgenes de beneficio.

La clave del éxito es alcanzar un nivel óptimo de organización mediante la metodología 5S y cumplir estrictamente con el sistema FEFO (First Expired, First Out). Estas métricas garantizan la precisión operativa y evitan el riesgo de obsolescencia.

El marco del rendimiento: los cinco pilares de la evaluación.

Para optimizar los recursos, es fundamental comprender que el rendimiento no es un concepto monolítico. La evaluación integral de la cadena de suministro se basa en cinco dimensiones:

  • Cumplimiento: mide el grado de consecución de los objetivos y la finalización de las tareas programadas.
  • Evaluación: analiza el rendimiento para identificar fortalezas, debilidades y oportunidades de mejora.
  • Eficiencia: capacidad de ejecutar los procesos con el mínimo de recursos.
  • Eficacia: se centra en la capacidad de alcanzar los propósitos o metas establecidos por la organización.
  • Gestión: relacionada con la administración y las acciones concretas necesarias para ejecutar lo planeado.

Conclusión: hacia una logística consciente.

La integración de estos KPI permite establecer una cultura de mejora continua y adaptar la empresa a las condiciones cambiantes. Solo midiendo el rendimiento se logra una verdadera identificación de las mejoras y del éxito estratégico.

Como líder, la pregunta final es ineludible: ¿su organización mide lo que realmente importa para tener éxito o simplemente acumula datos sin propósito?

En esta conversación puedes escuchar las ideas más interesantes sobre los indicadores de gestión logística.

Este vídeo resume bien los conceptos más importantes abordados en este artículo.

Indicadores KPI

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Riesgos y seguridad en logística y transporte.

Introducción: La tiranía del clic y el paquete en la puerta.

En la economía del «ahora», el gesto de pulsar un botón y recibir un paquete en la puerta pocas horas después se ha convertido en un hábito mecánico. Sin embargo, esta aparente magia del comercio electrónico esconde una estructura de tensiones invisibles. Observamos que, detrás de la eficiencia que celebramos como consumidores, existe un ecosistema de centros logísticos que opera bajo una presión técnica y humana extenuante.

Debemos preguntarnos si esta inmediatez tiene un precio humano que no figura en la factura. La respuesta está en la seguridad de las personas que sostienen la cadena de suministro, que a menudo se sacrifica en aras de la velocidad.

 

La trampa de la inmediatez: cuando el tiempo se convierte en el peor enemigo

La rapidez se ha convertido en el principal factor de diferenciación competitiva. Gigantes de la logística ofrecen entregas el mismo día para competir en plazas exigentes como Madrid, mientras que otros permiten recoger los pedidos en línea en tan solo una hora. Esta carrera por el plazo más corto está transformando el sector, pero también está elevando exponencialmente los riesgos laborales al comprimir los tiempos de reacción y de supervisión.

La relación es directa: cuanto mayor es la presión cronométrica, mayor es la tensión en las medidas de seguridad. Como señala la Asociación Española de Servicios de Prevención Laboral (Aespla):

«Actualmente, la tendencia del modelo de compra de la sociedad se está transformando hacia un modelo de negocio en el que el cliente demanda inmediatez en los productos que adquiere, por lo que la capacidad de almacenamiento y de transporte por parte de las empresas del sector logístico debe ser muy alta y, sobre todo, muy eficiente».

Hacinamiento y vulnerabilidad en el último kilómetro

El modelo de máxima eficiencia tiene, en algunas multinacionales de logística, un exponente crítico. Los datos del sector sitúan a algunas empresas a la cabeza de la siniestralidad, con una tasa de accidentes que duplica la del resto del sector. Desde una perspectiva industrial, esto no es casualidad: la necesidad comercial de contar con un volumen de existencias cada vez mayor en los centros logísticos deriva en un hacinamiento de mercancías que compromete la movilidad segura y aumenta el riesgo de desplomes.

Este problema se agrava en el «último kilómetro», donde el auge del «reparto verde» en bicicleta ha trasladado el peligro a la vía pública. Este modelo afecta de manera desproporcionada a los trabajadores jóvenes de entre 16 y 30 años, que sufren más accidentes laborales de tráfico que cualquier otro grupo de edad, a menudo en condiciones de contratación precarias.

Burocracia frente a la realidad: el papel frente al peligro en el terreno

Existe una desconexión crítica entre la gestión documental exigida por el Real Decreto 171/2004 y la gestión operativa efectiva. En los grandes operadores, la Coordinación de Actividades Empresariales (CAE) se ha convertido en una excesiva burocracia. Se dedica tanto esfuerzo a recopilar documentación de transportistas autónomos y de subcontratas que la «prevención en el terreno» queda desatendida. La dinámica diaria, marcada por la urgencia de sacar camiones, prevalece sobre una coordinación efectiva.

La seguridad real no se garantiza con carpetas, sino con la presencia en el puesto de trabajo:

«En la práctica, esto significa que estoy más pendiente de que me entregues todos los meses la documentación que acredita la realización de los trabajos que de bajar a la nave y de asegurarme de que, cuando estás soldando, no haya un pintor al lado con un producto inflamable. Lo que evita los accidentes no es esta coordinación de papeleo, sino estar en el día a día, en la realidad y en la propia actividad que se desarrolla».

El mito de la experiencia: la barrera psicológica ante la formación

La formación es un punto de fricción constante, especialmente en los modelos de negocio que recurren a la subcontratación de mano de obra. Es difícil implantar una cultura de seguridad sólida cuando el personal no pertenece a la empresa principal. En este entorno conviven dos perfiles: el receptivo y el reticente. Este último, generalmente un trabajador veterano, suele parapetarse tras una frase demoledora: «Si yo llevo 40 años trabajando, ¿qué me van a venir a informar?».

Esta falsa sensación de invulnerabilidad, basada en la creencia de que «nunca ha pasado nada», es la barrera más difícil de derribar. La realidad es que la formación suele ser deficiente: por ejemplo, apenas se imparten tres horas de curso para manipular cargas, lo que resulta claramente insuficiente para gestionar productos tóxicos o procesos complejos.

El riesgo invisible: más allá de las estanterías

La zona de operaciones concentra el núcleo de la peligrosidad y en ella mozos, jefes de almacén y carretilleros representan el 84 % de la plantilla. Los riesgos no solo son las caídas, sino también los fallos estructurales y químicos derivados de la alta rotación.

  • Colapso de estructuras: caída de cargas por sobrecargas o deterioro de los bastidores por golpes de carretillas. Es imperativo verificar siempre la placa de carga antes de depositar la mercancía.
  • Diseño de vías: un error común es ignorar las medidas técnicas. Los pasillos de sentido único deben tener, como mínimo, el ancho del vehículo más 1 metro, y los de doble sentido, dos veces el ancho más 1,20 metros.
  • Mercancías peligrosas: exposición a vertidos de líquidos corrosivos (ácido de baterías, desatascadores), bases fuertes, pinturas y gases licuados a presión.
  • Fatiga física: lesiones dorso-lumbares por movimientos repetitivos en la preparación de pedidos (picking).

Conclusión: ¿Es sostenible nuestra velocidad de consumo?

La velocidad con la que consumimos actualmente pone en riesgo la seguridad industrial. Para lograr una logística más humana, debemos dejar de ver la prevención como un mero trámite administrativo y empezar a entenderla como una inversión en la integridad de las personas.

Como consumidores, formamos parte de este ecosistema. Cada vez que elegimos la entrega inmediata, activamos una cadena de presiones que recae sobre el eslabón más débil. Cabe preguntarse: ¿estamos dispuestos a aceptar una espera razonable si eso garantiza que el trabajador que prepara nuestro paquete no tenga que arriesgar su vida entre estanterías sobrecargadas? El equilibrio entre la eficiencia comercial y la seguridad es el único camino hacia una logística verdaderamente sostenible.

En esta conversación puedes escuchar algunas de las ideas más interesantes sobre seguridad en la logística y el transporte.

Este vídeo resume bien los conceptos más importantes que se han tratado.

Logistics_Safety

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Crecimiento infinito en un planeta finito?

Introducción: El despertar de una conciencia colectiva.

Durante dos siglos, el modelo industrial funcionó como un motor ciego que ignoraba el agotamiento de su propio combustible. Según la lógica de la Revolución Industrial, el progreso se concebía como una expansión lineal e inagotable, en la que la naturaleza era una reserva infinita de materias primas y un vertedero sin fondo.

La teoría económica tradicional se limitaba a buscar un «equilibrio de mercado» basado estrictamente en el precio, la oferta y la demanda. Sin embargo, este enfoque falló al no considerar los límites biofísicos del planeta. Hoy sabemos que ignorar el capital natural no solo es un error ecológico, sino también una imprudencia financiera y social.

El propósito de este análisis es explorar los puntos de inflexión que nos obligaron a despertar. Desde las advertencias del MIT hasta la Agenda 2030, estos hitos narran cómo la humanidad ha intentado rediseñar su futuro ante la evidencia de que el crecimiento material no puede ser eterno.

El error de Malthus y la trampa de las revoluciones agrícolas.

A finales del siglo XVIII, Thomas Malthus planteó una advertencia: mientras la producción de alimentos avanzaba en progresión aritmética, la población lo hacía en progresión exponencial. Esta brecha, conocida como la «catástrofe maltusiana», sugería que el hambre era el freno inevitable de nuestra especie.

Sin embargo, la Revolución Agraria y la posterior Revolución Verde de los años sesenta introdujeron un arsenal de semillas de alto rendimiento, fertilizantes químicos y riego intensivo. Parecíamos haber «vencido» a Malthus, pero en realidad solo aumentamos el consumo de recursos finitos y de energía.

Desde una perspectiva estratégica, la tecnología actuó como un analgésico que invisibilizó los límites biofísicos del planeta. Al aumentar artificialmente la capacidad de carga del suelo, ocultamos el problema de fondo: seguimos operando bajo un sistema que exige una expansión material infinita en un entorno limitado.

1972: El despertar político y la confirmación de la ciencia.

1972 fue el año en que la diplomacia y el pensamiento sistémico convergieron. Mientras 113 naciones se reunían en la Cumbre de Estocolmo para crear el PNUMA, un think tank pionero, el Club de Roma, publicaba Los límites del crecimiento, un informe del MIT que desafiaba el dogma del progreso ilimitado.

El modelo científico analizó cinco variables críticas: población, producción industrial, alimentos, contaminación y recursos naturales. La conclusión fue un jarro de agua fría para la clase política de la época, ya que por primera vez se introducía la noción de que el crecimiento exponencial colapsaría a corto plazo.

«Si el incremento actual de la población mundial, la industrialización, la contaminación, la producción de alimentos y la explotación de los recursos naturales se mantienen sin variar, se alcanzarán los límites absolutos del crecimiento de la Tierra en los próximos cien años».

Esta tesis resultó disruptiva, pues demostró que no podíamos gestionar el planeta como compartimentos estancos. El año 1972 marcó el inicio de la conciencia política moderna al establecer que la salud de los ecosistemas es la infraestructura básica sobre la que se asienta cualquier economía viable.

La crisis del petróleo: el catalizador de la eficiencia y de la brecha social.

Entre 1973 y 1980, la «edad de oro» de los combustibles baratos llegó a su fin. El precio del barril de crudo aumentó de 1,8 a 11,6 dólares, lo que desencadenó una inflación global que no solo afectó al sector energético, sino que también tuvo profundas repercusiones sociales. La crisis agravó la brecha entre ricos y pobres y provocó recortes masivos en los programas de salud, educación y bienestar.

La recesión y el desempleo en el sector manufacturero obligaron a la industria a reinventarse bajo el lema de la eficiencia. Lo que comenzó como una medida de supervivencia económica terminó sentando las bases de la sostenibilidad energética moderna y del diseño industrial consciente.

  • Eficiencia en el transporte: fabricación de vehículos con menor consumo y emisiones.
  • Fomento de lo colectivo: impulso estratégico del transporte público frente al vehículo privado.
  • Renovables: nacimiento de la industria fotovoltaica y la búsqueda de alternativas al petróleo.
  • Geopolítica de la finitud: reconocimiento oficial de que la dependencia de los recursos fósiles constituye una vulnerabilidad estratégica.

Informe Brundtland: redefinición de la calidad del «progreso».

En 1983, la Comisión Brundtland recibió el encargo de replantear un modelo de desarrollo global que estaba devorando su propio entorno. El informe final de 1987, Nuestro futuro común, no proponía dejar de crecer, sino transformar radicalmente la «calidad del crecimiento» para hacerlo menos materialista y menos intensivo en energía.

Este documento consagró la definición que hoy constituye el pilar de nuestra disciplina:

«El desarrollo sostenible es aquel que satisface las necesidades del presente sin comprometer la capacidad de las generaciones futuras para satisfacer las suyas».

El cambio de paradigma fue absoluto: la sostenibilidad dejó de ser una preocupación ambientalista para convertirse en una tríada en la que lo económico, lo social y lo ecológico son interdependientes. La equidad se convirtió en un requisito técnico para el progreso y no solo en una aspiración ética.

De los Objetivos de Desarrollo del Milenio a la Agenda 2030: una evolución necesaria.

Los Objetivos de Desarrollo del Milenio (ODM) de 2000 fueron un intento loable, pero limitado. Se centraron únicamente en los países en desarrollo y fueron diseñados por un grupo reducido de expertos. El resultado fue desigual: a pesar de los esfuerzos realizados, millones de personas (925 millones pasaban hambre) se quedaron fuera del progreso debido a la falta de indicadores claros y de participación local.

En 2015, la transición a los Objetivos de Desarrollo Sostenible (ODS) de la Agenda 2030 corrigió estos fallos. Por primera vez, se creó una agenda de «aplicación universal» mediante consultas públicas y encuestas globales que involucraron a la ciudadanía en la definición de sus propias prioridades y metas.

La diferencia crítica radica en la participación ciudadana y la visión sistémica. Los ODS reconocen que la pobreza en un país y el cambio climático en otro son dos caras de la misma moneda. Esta legitimidad democrática es el factor que faltaba en los intentos anteriores para transformar la sostenibilidad en una misión colectiva.

Conclusión: la pregunta que define nuestra era.

La sostenibilidad no es una moda pasajera ni una concesión estética de las empresas; es la respuesta histórica acumulada ante las crisis de recursos, las desigualdades sociales y los límites científicos que ya no podemos ignorar. En esencia, es nuestra estrategia de supervivencia como civilización.

Nuestra responsabilidad generacional nos obliga a mirar hacia el pasado para comprender que el crecimiento tal y como lo conocimos en el siglo XX es una anomalía histórica. El éxito de la Agenda 2030 dependerá de si somos capaces de aplicar el rigor del pensamiento sistémico a cada decisión económica y política.

Al observar la velocidad a la que consumimos actualmente, es inevitable preguntarse si estamos actuando conforme a los principios de equidad del Informe Brundtland para proteger a las generaciones futuras o si seguimos ignorando deliberadamente los límites físicos que la ciencia nos señaló hace ya más de medio siglo.

En esta conversación puedes escuchar algunas de las ideas más importantes.

El vídeo que os dejo resume bien la historia de la sostenibilidad.

En este documento podéis ver las ideas más relevantes.

Sostenibilidad_De_la_Revolución_Industrial_a_2030

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Vivienda social sostenible: un enfoque integrador de ciclo de vida y evaluación multicriterio

Acaban de publicar un artículo nuestro en Sustainable Cities and Society, una de las revistas de mayor impacto científico, ubicada en el primer decil del JCR. En este trabajo se propone un enfoque integrador basado en el ciclo de vida y en métodos de evaluación multicriterio para analizar la vivienda social sostenible. La investigación se enmarca en el proyecto RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València. A continuación, se presenta un resumen del trabajo.

Los principales resultados revelan que el sistema Light Steel Frame (LSF) es la alternativa más sostenible, ya que logra un equilibrio superior entre la eficiencia en el uso de los recursos, la durabilidad y la reducción del mantenimiento. Un descubrimiento crucial es el papel de la dimensión social, que representó casi el 40 % del peso total en la evaluación, por encima de las dimensiones económica y medioambiental. El análisis causal identifica el coste de construcción, la funcionalidad y los agentes de la cadena de valor como los principales factores que condicionan el rendimiento sostenible del resto del sistema.

El artículo presenta un marco metodológico integrador que combina evaluaciones basadas en el ciclo de vida —análisis de ciclo de vida (LCA), análisis de coste del ciclo de vida (LCC) y análisis de ciclo de vida estocástico (S-LCA)— con técnicas avanzadas de decisión multicriterio: método mejor-peor (BWM), análisis DEMATEL difuso y análisis MARCOS. Esta integración permite incorporar ponderaciones de expertos, modelar relaciones causales entre criterios y sintetizar resultados frente a soluciones ideales o anti-ideales, lo que aumenta la transparencia en la priorización de alternativas constructivas. Este enfoque se ha aplicado a un caso real de vivienda social en Perú, en el que se han comparado cinco sistemas estructurales representativos: LSF, LBSPS, RCW, RCF-M y RCF-CP. El estudio ha proporcionado pruebas empíricas sobre los costes del ciclo de vida, los impactos ambientales y las prestaciones sociales que respaldan las decisiones de diseño y las políticas.

El estudio analiza cinco sistemas constructivos adaptados a contextos de urbanización rápida (específicamente en Lima, Perú), que van desde métodos convencionales hasta industrializados:

Entre las aportaciones metodológicas, la combinación de BWM con una agregación basada en credenciales profesionales reduce la carga de comparación y atenúa los sesgos en la agregación de juicios, mientras que la extensión difusa de DEMATEL permite identificar los criterios que funcionan como impulsores del sistema y los que actúan como receptores. Esta capacidad para distinguir entre causas y efectos permite aclarar qué palancas hay que modificar para lograr efectos amplificados en la sostenibilidad. Por último, la validación cruzada con otros métodos de MCDM y los ensayos de sensibilidad aumentan la confianza en la estabilidad de los resultados.

Discusión de resultados

Los análisis económicos muestran que, en un horizonte de 50 años y por metro cuadrado, los sistemas basados en acero ligero (LSF) tienen los menores costes totales de ciclo de vida, mientras que algunas alternativas prefabricadas, como el LBSPS, tienen los mayores costes de construcción. Estos datos implican que si solo se tiene en cuenta la inversión inicial, se pueden tomar decisiones subóptimas, ya que no se consideran el mantenimiento y el fin de vida.

En términos ambientales, la evaluación con ReCiPe (endpoint) sitúa al LSF como el sistema con el menor impacto agregado, principalmente debido a su menor intensidad material. Por el contrario, las soluciones con mayor presencia de hormigón y ladrillo presentan una carga superior, especialmente en la dimensión de recursos. Esta diferenciación pone de manifiesto la influencia del perfil material y del proceso de fabricación en la huella medioambiental de la vivienda y sugiere que, en la práctica profesional, se deben priorizar medidas que reduzcan la demanda de materiales energéticamente intensivos en la fase de fabricación.

La S-LCA revela una tensión entre la industrialización y la exposición social: las alternativas más industrializadas, como el LSF y el LBSPS, presentan mayores valores de exposición laboral y de funcionalidad exigente, mientras que las tipologías convencionales de hormigón muestran menores riesgos sociales, medidos en Medium Risk Hours. Este resultado indica que la adopción de sistemas industrializados exige prestar atención explícita a la gestión del trabajo, la formación y la coordinación de la cadena de suministro para evitar que los impactos negativos se transfieran al personal y a la comunidad.

La síntesis mediante MARCOS ubica a LSF como la alternativa mejor valorada en el escenario analizado, seguida de RCW y RCF-M. Los sistemas LBSPS y RCF-CP quedan en posiciones inferiores. Las pruebas de sensibilidad (variación de los pesos de ±15 %, escenarios de distancia de transporte y estratificación de expertos) muestran que el orden general se mantiene, lo que indica cierta robustez frente a perturbaciones razonables en los supuestos. Estos resultados permiten extraer una conclusión práctica: en contextos con características similares a las del caso estudiado, las soluciones ligeras industrializadas pueden mejorar la relación entre coste, impacto ambiental y rendimiento técnico, siempre que se gestionen adecuadamente los aspectos sociales y de ejecución.

Un aspecto metodológico de interés es la identificación de los criterios causales. La técnica DEMATEL identifica el coste de construcción, la funcionalidad y las interacciones con la cadena de valor como criterios que inciden en el resto del sistema, mientras que los indicadores ambientales, como la salud humana y la conservación de los ecosistemas, se presentan principalmente como efectos. Esto sugiere que las intervenciones en los costes de construcción y en la organización funcional pueden provocar mejoras indirectas en la sostenibilidad ambiental y social, lo cual resulta relevante al diseñar políticas y contratos que incentiven las prácticas integradas.

Futuras líneas de investigación

Una línea de trabajo inmediata consiste en ampliar la diversidad y el tamaño del panel de agentes consultados para captar las variaciones en las prioridades y las competencias profesionales. Esto permitiría evaluar la sensibilidad de las ponderaciones y mejorar la representatividad social del proceso. Otra opción es trasladar y recalibrar el marco a otros contextos geográficos y tipologías constructivas, como viviendas de mayor altura o equipamientos públicos, para evaluar la transferibilidad de la clasificación y de la estructura causal identificada en este estudio.

En el ámbito técnico, utilizar datos primarios de obras reales en lugar de bases de datos secundarias aumentará la fiabilidad de la evaluación del ciclo de vida (LCA) y del análisis del ciclo de vida (S-LCA) y mejorará la precisión de los modelos de coste del ciclo de vida (LCC). La incorporación de enfoques dinámicos, como la LCA dinámica o las simulaciones acopladas a plataformas BIM, puede facilitar las evaluaciones en etapas iniciales y permitir análisis de sensibilidad más detallados relacionados con la sustitución de componentes, las reparaciones y las evoluciones tecnológicas. Asimismo, explorar técnicas de optimización multiobjetivo que vinculen explícitamente las restricciones económicas con las metas ambientales y sociales podría proporcionar soluciones de diseño más operativas para promotores y organismos públicos.

Desde la perspectiva social, investigar intervenciones concretas de capacitación, reorganización de procesos y de contratos que reduzcan la exposición de los trabajadores a los sistemas industrializados aportará pruebas sobre cómo mantener los beneficios ambientales y económicos sin incrementar los impactos sociales. Por último, el estudio de la interacción entre políticas públicas, incentivos financieros y la adopción tecnológica ofrecerá información útil para diseñar instrumentos que favorezcan soluciones constructivas más equilibradas en el marco de los programas de vivienda social.

Conclusión

El estudio proporciona un marco metodológico replicable y sólido que combina la evaluación del ciclo de vida con técnicas multicriterio capaces de representar las interdependencias y la incertidumbre. Los resultados empíricos indican que, en el caso analizado, las soluciones ligeras industrializadas presentan ventajas en términos de coste y de huella ambiental, aunque se requieren medidas específicas para reducir los riesgos sociales derivados de su ejecución. La metodología y los resultados obtenidos sientan las bases para orientar las políticas y las decisiones de los proyectos y ponen de manifiesto la necesidad de ampliar los datos primarios, diversificar la muestra de expertos y conectar el análisis con herramientas digitales de diseño y gestión.

Referencia:

LUQUE CASTILLO, X.; YEPES-BELLVER, L.; YEPES, V. (2026). Towards Sustainable Social Housing: An Integrative Life Cycle and Multi-Criteria ApproachSustainable Cities and Society, 137, 107164. DOI:10.1016/j.scs.2026.107164

Dejo a continuación el artículo completo, ya que está publicado en abierto.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Entrevista en Construnews — Monográfico infraestructuras en España

A continuación, os paso una entrevista que me hicieron recientemente en Construnews sobre las infraestructuras en España. Forma parte de una serie de entrevistas a personas relacionadas directamente con el sector de la construcción. Espero que os resulte interesante.

“Hay que reingenierizar el modelo de financiación, ejecutar estratégicamente los corredores ferroviarios y desbloquear el suelo para vivienda asequible”

¿Cómo valora el estado actual de las infraestructuras en España (transporte, energía, digitalización, logística)? ¿Cuáles son, a su juicio, los principales retos de país en los próximos 5‑10 años?

La valoración del estado actual de las infraestructuras españolas indica que el notable patrimonio de ingeniería civil presenta síntomas claros de desequilibrio, ya que el modelo se ha centrado excesivamente en la construcción de nuevas infraestructuras de muy alta capacidad, dejando en un segundo plano la conservación preventiva y correctiva de la red existente. En el ámbito viario, los firmes están deteriorados y los sistemas de contención y señalización están obsoletos. En el sector ferroviario, el éxito de la alta velocidad contrasta con la situación de la red convencional y de cercanías, que necesita atención debido a la falta de renovación de los sistemas de seguridad y de las catenarias, lo que provoca incidencias. Además, el hecho de que el ancho de vía sea diferente al de Europa sigue suponiendo un desafío para el transporte de mercancías. El reto más significativo es, por un lado, abordar la vivienda como un problema social y estructural prioritario a nivel nacional, dado el creciente difícil acceso de la población joven y de rentas medias. Por otro lado, la vulnerabilidad ante la emergencia climática, especialmente en lo referente a la gestión del agua, es crítica, por lo que existe una urgencia en materia de defensa contra inundaciones. Gran parte de los sistemas de drenaje se diseñaron basándose en series estadísticas que han quedado obsoletas, y no se está invirtiendo lo suficiente en modernizar las infraestructuras hidráulicas para soportar nuevos caudales punta.

¿Qué segmentos infraestructurales ofrecen mayor potencial de crecimiento para el sector de la construcción y la ingeniería? ¿Y cuáles están quedando fuera del foco?

La inversión se centra en una transición estructural que se está desplazando de la expansión territorial a la intensificación, la digitalización y la resiliencia. El principal motor de crecimiento es la transición energética, ya que la integración masiva de las energías renovables exige un ambicioso programa de refuerzo, digitalización y almacenamiento de la red eléctrica a gran escala. La necesidad de dotar al sistema de baterías industriales y de sistemas de bombeo reversible supone la aparición de un nuevo y gran nicho de mercado. El desarrollo urgente de vivienda asequible y social también se perfila como un segmento clave para el crecimiento del sector. La crisis hídrica convierte la reingeniería hidráulica en un sector estratégico, ya que la oportunidad radica en crear una nueva oferta hídrica mediante desaladoras y sistemas de tratamiento avanzado para la reutilización de aguas residuales, junto con la renovación de las redes de distribución para reducir las pérdidas por fugas. La ingeniería logística crecerá en la dotación de terminales intermodales y en la adaptación de las líneas de transporte al ancho de vía estándar europeo. No obstante, la priorización de grandes proyectos deja en un segundo plano segmentos cruciales para la cohesión. El mantenimiento de las carreteras de titularidad autonómica y provincial es un problema pendiente, al igual que la renovación de los sistemas de señalización del ferrocarril de cercanías. La falta de atención a las pequeñas obras de defensa hidráulica a nivel local (drenajes, encauzamientos) también es crítica.

El déficit de conservación lastra la red existente: señales obsoletas, firmes deteriorados y falta de mantenimiento.

¿Cómo evalúa la coordinación entre administraciones, sector privado y financiación (incluyendo fondos europeos)? ¿Qué mecanismos están funcionando y cuáles habría que reforzar?

La coordinación administrativa presenta una diferencia entre la solidez de la planificación de alto nivel y la lentitud de la fase de materialización. Aunque existe un consenso técnico adecuado y el sector privado ha demostrado su capacidad de ejecución, la principal fricción se debe a la fragmentación administrativa a nivel local y a la superposición de competencias en la financiación del mantenimiento de las redes. Esta situación provoca cuellos de botella en los trámites de expropiación y licencias. La llegada de los fondos europeos de recuperación ha supuesto una inyección de capital necesaria y ha dotado a la inversión de una clara orientación hacia la descarbonización. No obstante, ha puesto de manifiesto la necesidad de reforzar la capacidad administrativa para absorber y licitar el volumen de capital. El mayor riesgo económico es que esta financiación sustituya a la inversión ordinaria en conservación en lugar de complementarla. Para garantizar la sostenibilidad, es necesario establecer mecanismos que separen la gestión técnica del ciclo político. La propuesta más proactiva consiste en crear una Agencia Técnica de Proyectos Estratégicos que tenga autonomía para ejecutar obras de impacto nacional de forma ágil. En cuanto a la financiación, es fundamental sustituir el modelo presupuestario anual por contratos-programa plurianuales y de carácter finalista para la conservación.

Más allá de los discursos, ¿cómo se está incorporando la sostenibilidad en el diseño, ejecución y explotación de infraestructuras? ¿Podría compartir un caso inspirador o representativo?

La sostenibilidad ha dejado de ser un mero postulado ético para convertirse en un requisito técnico y normativo que rediseña el ciclo de vida de las infraestructuras. La ingeniería actual integra este concepto desde la fase de planificación, exigiendo el análisis del ciclo de vida de los activos para cuantificar y minimizar la huella de carbono de los materiales. Esto se traduce en una preferencia técnica por el uso de hormigones y asfaltos con un alto porcentaje de material reciclado y por la implementación de soluciones basadas en la naturaleza. Durante la ejecución, la sostenibilidad se centra en la economía circular mediante la obligación contractual de reutilizar y reciclar in situ los materiales de demolición. Durante la fase de explotación, la sostenibilidad se vincula a la eficiencia: la digitalización mediante sensores permite un mantenimiento predictivo que alarga la vida útil de los activos. Un ejemplo representativo de esta integración es la reingeniería hídrica en zonas con estrés hídrico. Se han desarrollado sistemas de regeneración de aguas residuales con tratamientos terciarios avanzados que permiten cerrar el ciclo del agua y producir un recurso predecible. Este proceso, que requiere mucha energía, se gestiona de forma sostenible al generarse energía a partir de biogás o energía solar.

La transición energética y la ingeniería del agua abren nuevos nichos clave para el sector.

Las infraestructuras ya no son solo estructuras físicas: mantenimiento predictivo, digital twins, infraestructura como servicio… ¿Cuál es su visión sobre esta transformación? ¿Qué proyectos le parecen referentes?

La ingeniería de infraestructuras ha superado la fase de la mera estructura física para transformarse en un sistema dinámico de información y servicio. El enfoque ha cambiado del coste de construcción a la eficiencia operativa a largo plazo. Esta revolución se basa en tres pilares: la monitorización masiva de activos para el mantenimiento predictivo, la creación del gemelo digital, que simula el comportamiento de la infraestructura ante escenarios de estrés, y la adopción del concepto de infraestructura como servicio, que fomenta la colaboración público-privada para construir sistemas duraderos. El gemelo digital es la herramienta clave, ya que permite realizar ensayos virtuales de resiliencia y ampliación sin afectar al activo físico. España está a la vanguardia en la aplicación práctica de esta tecnología. Un ejemplo destacado es la gestión de los túneles de la red de carreteras de alta capacidad, donde la iluminación y la ventilación se ajustan dinámicamente en tiempo real. Otro caso inspirador es el del sector ferroviario, donde el modelado virtual se utiliza para gestionar activos críticos, como la catenaria y los puentes, y simular el impacto físico para anticiparse a la probabilidad de fallo.

En un entorno de alta inversión pública y necesidad de eficiencia, ¿cómo se está calculando y midiendo el ROI en infraestructuras? ¿Podría compartir ejemplos reales o estimaciones? ¿Qué factores lo están condicionando más?

La medición de la rentabilidad de la inversión pública se centra en el retorno social de la inversión, desvinculándose del retorno financiero privado. El cálculo se realiza mediante el análisis coste-beneficio socioeconómico, cuyo principal indicador es el valor actual neto social (VAN social). El mantenimiento preventivo es el segmento con mayor y más estable rentabilidad social; los informes técnicos demuestran que por cada euro invertido en conservación oportuna se evitan entre cuatro y cinco euros en costes de reparación o reconstrucción futura. En contraste, la alta velocidad ferroviaria genera una Tasa Interna de Retorno Social significativa (a menudo superior al 8 %), pero su rentabilidad financiera es insuficiente. La precisión del cálculo se ve comprometida por la sobreestimación recurrente de las previsiones de demanda en las fases iniciales de muchos proyectos. Otros factores críticos son la dificultad para valorar monetariamente las externalidades blandas y los retrasos en la ejecución de la obra, ya que estos elevan el coste final y reducen la rentabilidad esperada.

A raíz de las últimas iniciativas de Bruselas (como el plan para conectar capitales europeas por alta velocidad), ¿qué papel debería jugar España en el nuevo mapa europeo? ¿Estamos preparados o en riesgo de quedar fuera?

El impulso de Bruselas para consolidar la Red Transeuropea de Transporte otorga a España un doble papel estratégico: eje principal de conexión de alta velocidad para viajeros y plataforma logística clave para canalizar el tráfico de mercancías. Sin embargo, a pesar de tener una de las redes de alta velocidad más extensas, España corre el riesgo de quedar menos integrada en el mapa logístico por una barrera técnica: el uso mayoritario del ancho de vía ibérico. Esta diferencia limita la competitividad del transporte de mercancías por ferrocarril. Si no se completa la adecuación al ancho de vía internacional de los corredores Mediterráneo y Atlántico antes de las fechas límite, existe el riesgo de que las mercancías elijan rutas alternativas. Para evitar una menor integración, es necesario reingenierizar los procesos de licitación pública para agilizar la ejecución de la inversión y centrarla en finalizar estos corredores clave y crear los nodos logísticos interiores.

Pensando en todos los modos —carretera, ferrocarril, puertos, aeropuertos, redes logísticas y digitales—, ¿qué ejes o áreas infraestructurales deberían ser prioritarios para mejorar la competitividad y cohesión territorial en España?

La inversión estratégica para mejorar la competitividad y la cohesión territorial debe resolver los cuellos de botella y priorizar la seguridad. El primer eje ineludible se centra en la intermodalidad y la logística de mercancías. Es de máxima prioridad estratégica completar la adaptación de los corredores mediterráneo y atlántico al ancho de vía internacional. El segundo gran eje es la vivienda, cuya provisión masiva y asequible es crucial para la cohesión social y para facilitar la movilidad laboral en zonas de alta demanda. El tercer eje fundamental es la seguridad y el abastecimiento hídrico. La respuesta a la sequía estructural pasa por invertir en infraestructuras que no dependan de las precipitaciones, como la regeneración de aguas residuales mediante un tratamiento avanzado y la ampliación de las plantas desaladoras. También es crucial invertir en obras de defensa y drenaje en cuencas fluviales para proteger a las poblaciones de las avenidas extremas. El cuarto eje se centra en la cohesión a través de la calidad del servicio. Es fundamental saldar el grave déficit de conservación acumulado en la red de carreteras de titularidad autonómica y provincial, que son vitales para la vertebración de la España rural. En cuanto a la prioridad digital, el objetivo es cerrar la brecha y garantizar la cobertura universal de banda ancha ultrarrápida en todos los municipios.

La sostenibilidad ya no es discurso: se mide, se diseña y se exige en todas las fases del ciclo de vida.

El aumento de costes de materiales, la tramitación lenta o la falta de personal cualificado afectan a las infraestructuras. ¿Qué medidas urgentes propondría para desbloquear estos frenos?

La alta inversión pública se ve obstaculizada por tres frenos principales: la volatilidad de los costes, la complejidad administrativa y la necesidad de reforzar el talento. La medida más urgente para hacer frente a la volatilidad de los precios es implementar un sistema de revisión contractual objetivo, automático y no discrecional. Esta medida debe complementarse con la posibilidad de que la Administración adquiera con antelación materiales estratégicos para proyectos clave. Para combatir la lentitud en la tramitación, es imperativo crear Unidades de Gestión de Proyectos Estratégicos que actúen como ventanilla única y coordinen los plazos de licencias y expropiaciones entre las distintas administraciones. Por último, para abordar la falta de personal cualificado, la Administración debe ofrecer condiciones salariales y de progresión profesional más competitivas. Es crucial que la normativa de contratación pública flexibilice la valoración y permita que la calidad técnica y la experiencia del equipo pesen más que el precio en los concursos de servicios de ingeniería.

Si pudiera proponer tres decisiones inmediatas que mejoren las infraestructuras españolas a corto y medio plazo, ¿cuáles serían y por qué?

La mejora de las infraestructuras españolas a corto y medio plazo requiere tomar cuatro decisiones de alto impacto ineludibles. La primera es la reingeniería del modelo de financiación del mantenimiento. Hay que establecer un sistema de contratos programa plurianuales para la conservación de la red de carreteras de alta capacidad y de ferrocarril. La segunda decisión ineludible se centra en la ejecución estratégica y la interoperabilidad. Es urgente crear una unidad ejecutora especializada y con autonomía técnica que se encargue de gestionar de manera integral y acelerada los corredores ferroviarios Mediterráneo y Atlántico. Esta medida resolvería el cuello de botella técnico del ancho de vía y garantizaría el cumplimiento de los plazos exigidos por la Unión Europea para 2030. La tercera decisión debe abordar la gestión eficiente del suelo y la construcción de viviendas asequibles, simplificando los trámites urbanísticos y movilizando suelo público de manera inmediata para aumentar el parque de viviendas sociales. Por último, la cuarta decisión debe resolver los frenos de la gestión: la volatilidad de los costes y la falta de talento. Es imprescindible revisar automáticamente los precios de los contratos de obra pública. De forma complementaria, es necesario modificar la normativa de contratación pública para que, en los servicios de ingeniería, la calidad técnica y la experiencia del equipo humano pesen más que el precio ofertado.

Digital twins, mantenimiento predictivo e infraestructuras como servicio: el futuro ya está en marcha.

Os dejo una conversación donde se habla de estos temas.

En este vídeo se resumen algunas de las ideas principales sobre las infraestructuras en España.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Crees que la ciencia «transfiere» conocimiento a la sociedad? 4 revelaciones que cambiarán tu perspectiva.

Introducción: de la torre de marfil al diálogo abierto.

A menudo imaginamos la ciencia como un proceso aislado: un grupo de expertos en una torre de marfil que, una vez finalizado su trabajo, «transfiere» su conocimiento empaquetado a una sociedad que lo recibe pasivamente. Esta imagen de un flujo unidireccional en el que el conocimiento fluye desde el laboratorio hasta la calle ha dominado nuestra percepción durante décadas. Sin embargo, esta visión está profundamente obsoleta. La relación entre la ciencia y la sociedad es, en realidad, un ecosistema vibrante, un diálogo complejo y multidireccional que enriquece a ambas partes de formas que apenas empezamos a comprender.

Este artículo se sumerge en el corazón de esta nueva perspectiva basándose en un profundo análisis del documento de trabajo de la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA). A continuación, revelaremos las claves más impactantes y sorprendentes sobre cómo el conocimiento científico crea realmente valor social, desmontando viejos mitos y abriendo la puerta a una nueva forma de entender la ciencia.

1. No es «transferencia», sino «intercambio». Y el cambio es enorme.

El primer gran cambio es conceptual, pero tiene implicaciones transformadoras. La anterior Ley Orgánica de Universidades de 2001 entendía la «transferencia» como un flujo que siempre partía de la universidad hacia la sociedad, con un enfoque casi exclusivo en el valor económico o tecnológico. Era un monólogo en el que la ciencia hablaba y la sociedad escuchaba.

El nuevo paradigma, impulsado por las recientes leyes del Sistema Universitario y de la Ciencia, habla de «transferencia e intercambio de conocimiento». Este término enriquece radicalmente la perspectiva. Reconoce que los flujos de conocimiento son multidireccionales, ya que la sociedad también aporta saberes, necesidades y contextos cruciales para la investigación. Se valora la interacción con actores no académicos y los procesos de cocreación, en los que el valor ya no es solo económico, sino también social, artístico y cultural. Este cambio es significativo, puesto que transforma la relación de un monólogo a un diálogo y reconoce que el conocimiento y las necesidades de la sociedad son fundamentales para enriquecer la propia ciencia.

La valorización del conocimiento consiste en crear valor social y económico a partir de él, vinculando diferentes ámbitos y sectores, y transformando datos, conocimientos técnicos y resultados de la investigación en productos, servicios, soluciones y políticas basadas en el conocimiento, sostenibles y que beneficien a la sociedad.

2. Las patentes son solo la punta del iceberg (y muy pequeña, además).

Cuando pensamos en la ciencia aplicada a la sociedad, suele venirnos a la mente la imagen de una patente que se convierte en un producto comercial o la creación de una empresa spin-off a partir de una investigación universitaria. Estas se han considerado durante mucho tiempo como el máximo exponente de la transferencia de tecnología.

Sin embargo, la realidad es muy diferente. El informe de la ANECA pone de manifiesto que solo una minoría de investigadores e instituciones participa activamente en estas actividades. Los datos del estudio EXTRA son reveladores: la comercialización de resultados (que incluye patentes y empresas derivadas) es una práctica mucho menos frecuente (12 %) que la colaboración formal mediante contrato (63 %) o la colaboración informal (80 %). Esto significa que, durante décadas, los sistemas de evaluación han premiado y medido la actividad de una minoría (el 12 %), mientras que el vasto ecosistema de colaboración real (el 80 %) que genera valor social ha permanecido en la sombra, sin ser reconocido ni incentivado.

Esta obsesión por lo comercial no es solo teórica. En una evaluación piloto de la «transferencia» realizada en 2018, los resultados favorecieron abrumadoramente un modelo económico y tecnológico que premiaba perfiles muy específicos (hombres de mayor edad con trayectorias consolidadas) y actividades como las spin-offs y las patentes, mientras que la divulgación y la transferencia con valor social obtuvieron resultados muy inferiores. Este sesgo sistémico demostró que el antiguo modelo no solo era incompleto, sino también excluyente.

La mayor parte del intercambio real se produce a través de un «espectro oculto» de mecanismos menos visibles, pero muy valiosos, como la investigación conjunta con empresas u ONG, la consultoría especializada, la formación a medida o la participación directa en la elaboración de políticas públicas.

«Intercambio de conocimientos» es el nombre que damos a la amplia gama de actividades que las instituciones de educación superior emprenden con socios (…) para explorar datos y explicaciones sobre las diferentes maneras en que trabajan con sus socios externos, desde empresas hasta grupos comunitarios, en beneficio de la economía y la sociedad.

3. El valor de la ciencia no es intrínseco, sino que lo crean quienes la utilizan.

Medir el «impacto social» de la investigación es un gran desafío. De hecho, la literatura citada en el documento de ANECA señala que ni siquiera existe una definición consensuada de qué es exactamente. Esto ha llevado a un cambio de enfoque radical: la «valorización y el uso social».

La idea es sencilla, pero potente: el valor no reside inherentemente en los resultados científicos, como un artículo o un descubrimiento. El valor se crea y materializa cuando los agentes sociales —empresas, administraciones públicas, ONG, asociaciones de pacientes o ciudadanos— utilizan ese conocimiento para resolver problemas, mejorar procesos o enriquecer contextos. La investigación, por sí sola, no tiene valor social; lo adquiere cuando alguien la pone en práctica.

En la práctica, son los actores sociales que usan o apoyan el uso de la investigación quienes le confieren valor, ya que este no es intrínseco a los resultados científicos, sino que depende de su materialización efectiva por parte de los usuarios en sus respectivos entornos.

Esta perspectiva empodera a la sociedad y transforma por completo el enfoque de la evaluación. La pregunta clave ya no es «¿qué ha producido el científico?», sino «¿cómo y quién ha utilizado el conocimiento generado para crear valor real en el mundo?».

4. La ciencia del futuro debe ser inclusiva, abierta y responsable.

La idea de una ciencia completamente neutral y objetiva, inmune a los problemas sociales, es otro mito que se desmorona. El documento de ANECA deja claro que la ciencia, al igual que cualquier actividad humana, no está exenta de sesgos sistémicos como el sexismo, el racismo o la discriminación por clase social. Reconocer esto es el primer paso para construir una ciencia mejor, guiada por tres pilares fundamentales:

  • Ciencia inclusiva: supera el «modelo del déficit», que asume que el público es un receptor vacío de conocimiento. En su lugar, incorpora activamente las voces, experiencias y preocupaciones de comunidades diversas e históricamente excluidas en el propio proceso científico. En esencia, es la puesta en práctica del verdadero «intercambio» del que hablamos al principio y garantiza que el diálogo sea real y representativo.
  • Ciencia abierta: promueve el acceso libre y gratuito a los datos, las metodologías y los resultados de la investigación. El objetivo es maximizar su reutilización, transparencia y beneficio para toda la sociedad, no solo para quienes pueden pagarlo.
  • Ciencia responsable: implica considerar proactivamente las implicaciones éticas, sociales y medioambientales de la investigación. Se trata de anticipar consecuencias para garantizar que el «valor» creado por la sociedad, como vimos antes, se oriente siempre hacia el bien común.

Integrar estos principios no es solo una cuestión de justicia social. Se trata de una estrategia indispensable para mejorar la calidad y la relevancia de la propia investigación, fortalecer la confianza pública en la ciencia y garantizar que sus beneficios lleguen a todos.

Conclusión: una conversación, no un monólogo.

El viaje ha sido revelador. Hemos pasado de la idea de una «transferencia» unidireccional y centrada en las patentes a un ecosistema de «intercambio», en el que el verdadero valor no radica en el descubrimiento científico en sí, sino en cómo la sociedad lo utiliza y lo transforma. Este cambio nos obliga a replantearnos qué es lo que realmente importa. La ciencia del futuro no puede medirse por sus productos aislados, sino por la riqueza y la calidad de sus relaciones con la sociedad. Su éxito no radica en un monólogo desde la autoridad, sino en su capacidad para crear, conjuntamente, un valor tangible y equitativo mediante un diálogo inclusivo, abierto y responsable.

Ahora que entendemos la ciencia no como un monólogo desde una torre de marfil, sino como una conversación continua, ¿qué pregunta urgente le harías tú a la comunidad científica?

En esta conversación se descubre gran parte de las ideas anteriores.

En este vídeo tenéis un resumen del tema.

El documento de ANECA lo podéis ver en este enlace: https://www.aneca.es/web/guest/-/documento-transferencia-e-intercambio-de-conocimiento

Pero también lo podéis descargar aquí:

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Cinco ideas revolucionarias de la «estrategia del océano azul» que cambiarán tu forma de ver los negocios.

Introducción: ¿Atrapado en un mar de competencia?

¿Sientes que tu negocio está en una lucha constante por la cuota de mercado? ¿Las guerras de precios y los márgenes de beneficio cada vez más reducidos marcan tu día a día? Si es así, es probable que estés navegando, por lo que los estrategas W. Chan Kim y Renée Mauborgne llaman un «océano rojo».

Esta metáfora describe el espacio de mercado conocido, donde las industrias y sus reglas del juego están perfectamente definidas. En estas aguas, las empresas compiten ferozmente por una demanda existente, tratando de superar a sus rivales para llevarse la mayor participación posible. A medida que el mercado se satura, la competencia a muerte tiñe el agua de sangre, dando lugar a un entorno de crecimiento limitado y utilidades decrecientes.

Pero ¿y si hubiera una alternativa? ¿Y si, en lugar de luchar por un trozo del pastel, pudieras crear uno completamente nuevo? Esa es la promesa del «océano azul»: la creación de espacios de mercado sin competencia, donde aún no existen las reglas del juego y la demanda se crea en lugar de disputarse.

A continuación, te presentamos las cinco ideas más impactantes del libro La estrategia del océano azul, que ofrecen un método sistemático para salir del océano rojo y navegar hacia un crecimiento rentable y sostenible.

1. Olvida a tus rivales: el objetivo es que la competencia sea irrelevante.

La primera idea puede resultar sorprendente: el objetivo de una buena estrategia no es vencer a la competencia, sino hacerla irrelevante. Mientras que la estrategia convencional se centra en la referenciación (benchmarking) y en superar a los rivales, la estrategia del océano azul propone un cambio de enfoque radical.

El contraste, basado en los principios del libro, es claro:

  • Estrategia del Océano Rojo:
    • Competir en el espacio existente del mercado.
    • Vencer a la competencia.
    • Explotar la demanda existente.
    • Elegir entre la disyuntiva entre valor y coste.
    • Alinear todo el sistema de las actividades de una empresa con la decisión estratégica de la diferenciación o del bajo costo.
  • Estrategia del Océano Azul:
    • Crear un espacio sin competencia en el mercado.
    • Hacer que la competencia pierda toda importancia.
    • Crear y capturar nueva demanda.
    • Romper la disyuntiva entre valor y coste.
    • Alinear todo el sistema de las actividades de una empresa con el propósito de lograr diferenciación y bajo costo.

Este cambio de mentalidad se resume a la perfección en una de las frases más célebres del libro:

«La única manera de vencer a la competencia es dejar de tratar de vencerla».

Estratégicamente, este giro es poderoso porque desplaza el objetivo empresarial de un juego de suma cero, en el que la ganancia de una empresa es la pérdida de otra, a una lógica de creación de nuevo valor. En lugar de repartir una demanda limitada, el objetivo es aumentar el tamaño total del mercado.

2. Innovación en valor: el arte de ser diferente y más barato a la vez.

El pensamiento estratégico tradicional nos ha enseñado que las empresas deben tomar una decisión fundamental: o bien compiten por diferenciación, ofreciendo un mayor valor a un coste más alto, o bien compiten por bajo coste, ofreciendo un valor razonable a un coste menor. La estrategia de los océanos azules rompe esta disyuntiva con su piedra angular: la innovación en valor.

La innovación en valor consiste en buscar simultáneamente la diferenciación y el bajo coste. No se trata de un simple avance tecnológico o de ser el primero en un mercado, sino de alinear la innovación con la utilidad para el comprador, el precio y la estructura de costes de la empresa.

Este concepto se materializa cuando se cuestiona en qué compite la industria. Al eliminar o reducir las variables que los clientes no valoran o que suponen un alto coste, la empresa consigue una estructura de costes inferior a la de sus competidores. Del mismo modo, al incrementar y crear nuevas fuentes de valor que la industria nunca antes había ofrecido, se genera una diferenciación radical. Es esta doble acción la que rompe la disyuntiva clásica y permite ofrecer un valor superior a un coste menor.

Este enfoque, que busca la diferenciación y el bajo coste de forma simultánea, no es solo una teoría elegante, sino que tiene un impacto medible y desproporcionado en los resultados del negocio, como demuestran las cifras del siguiente apartado.

3. El impacto real de los océanos azules (traducido en cifras).

Para quienes puedan pensar que crear nuevos mercados es una apuesta demasiado arriesgada, los autores presentan los resultados de un estudio sobre 108 lanzamientos de negocios que demuestran lo contrario. Los resultados son sorprendentes y revelan una clara asimetría entre el riesgo y la recompensa.

Las cifras hablan por sí solas:

  • Lanzamientos en océanos rojos (el 86 % del total) generaron solo el 62 % de los ingresos totales y un escaso 39 % de las utilidades.
  • Lanzamientos en océanos azules (14 % del total): generaron el 38 % de los ingresos y un impresionante 61 % de las utilidades totales.

Esta asimetría demuestra que, aunque la creación de océanos azules es menos frecuente, su impacto en la rentabilidad es desproporcionadamente alto. Aunque navegar en aguas competitivas puede parecer la opción más segura, las cifras indican que la verdadera oportunidad de crecimiento y rentabilidad se halla en la creación de nuevos espacios de mercado. Por tanto, la búsqueda de océanos azules se convierte en un imperativo estratégico.

4. Deja de obsesionarte con tus clientes y empieza a pensar en los «no clientes».

Las empresas tienden a centrarse en sus clientes actuales, tratando de segmentar el mercado de manera cada vez más precisa para satisfacer mejor sus preferencias. Para crear un océano azul y maximizar su tamaño, la estrategia propone hacer lo contrario: mirar más allá de la demanda existente y centrarse en los «no clientes».

Los autores identifican tres niveles de «no clientes» que representan un torrente de demanda potencial sin explotar:

  • Primer nivel: Personas que están próximas a convertirse en no clientes. Utilizan mínimamente la oferta actual mientras buscan algo mejor y están a la espera de dejar de ser clientes.
  • Segundo nivel: No clientes que rechazan conscientemente el mercado de la empresa. Han visto la oferta y han decidido no utilizarla.
  • Tercer nivel: No clientes inexplorados que jamás han contemplado la oferta de la empresa como una opción.

El caso del vino australiano Yellow Tail es un ejemplo perfecto. En lugar de competir con los conocedores del vino, se centraron en los no clientes: los bebedores de cerveza y cócteles. Este grupo se sentía intimidado por los aspectos del vino tradicional, como la compleja terminología enológica, el envejecimiento, los taninos y la sofisticación que rodeaba su consumo. Al identificar estos puntos de fricción, Yellow Tail creó un vino fácil de beber, accesible y divertido que eliminó o redujo sistemáticamente esas barreras, creando en su lugar «facilidad para beber» y «diversión y aventura», y abrió un océano azul masivo al convertir a los no bebedores de vino en nuevos clientes.

5. La herramienta para reconstruir tu mercado: eliminar, reducir, incrementar y crear.

La estrategia del océano azul no es un concepto abstracto, sino un proceso práctico y sistemático. Su principal herramienta para aplicar la innovación en valor es el esquema de las cuatro acciones, que desafía la lógica estratégica de una industria a través de cuatro preguntas clave:

  • ¿Qué variables que la industria da por sentadas se deben eliminar?
  • ¿Qué variables se deben reducir muy por debajo de la norma de la industria?
  • ¿Qué variables se deben incrementar muy por encima de la norma de la industria?
  • ¿Qué variables se deben crear porque la industria nunca las ha ofrecido?

El ejemplo más paradigmático es el Cirque du Soleil. En una industria del circo en declive, aplicaron este modelo para reinventar el entretenimiento en vivo.

  • Eliminó: las estrellas del circo, los espectáculos con animales, las concesiones en los pasillos y las pistas múltiples.
  • Redujo: la diversión, el humor, el suspense y el peligro.
  • Incrementó: un único escenario.
  • Creó: un tema, un ambiente refinado, múltiples producciones y música y danza artísticas.

Esta herramienta sistemática permite a cualquier empresa deconstruir la lógica de su sector y reconstruirla en una nueva curva de valor. Al responder a estas cuatro preguntas, una empresa puede visualizar un nuevo perfil estratégico que la diferencie radicalmente de la competencia, de modo que la comparación directa pierda sentido.

Conclusión: ¿cuál es tu océano azul?

La estrategia del océano azul es mucho más que una teoría empresarial: supone un cambio de mentalidad fundamental. Nos invita a pasar, de competir a crear, de dividir los mercados existentes a construirlos de nuevo. Demuestra que la creación de estos nuevos espacios no es fruto de la suerte o la genialidad, sino el resultado de un proceso estratégico, analítico y sistemático que cualquier organización puede llevar a cabo.

La próxima vez que te sientas atrapado en las sangrientas aguas de la competencia, detente y hazte una pregunta: ¿qué reglas «inquebrantables» de tu sector podrías empezar a cuestionar hoy mismo para descubrir tu propio océano azul?

En este audio se mantiene una conversación interesante sobre este tema.

El siguiente vídeo sintetiza bien las ideas más importantes de la estrategia del océano azul.

Os dejo un vídeo de Polimedia en el que el profesor Jordi Joan Mauri Castelló nos explica este concepto. Espero que os resulte útil.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Ni ladrillo ni hormigón: las 5 claves sorprendentes de la casa del futuro

De vez en cuando, los resultados de los trabajos de investigación de nuestro grupo tienen una gran repercusión. En algunos artículos anteriores podéis ver un ejemplo de la repercusión del proyecto RESILIFE. En este caso, se trata de una entrevista que me realizó Eduard Muñoz para el programa Un día perfecte. Se trata de un espacio donde se abre una puerta a todas aquellas personas con inquietudes culturales y científicas. Mi agradecimiento.

A continuación, os dejo un resumen de la entrevista. Al final del artículo, podréis escucharla completa. Espero que os resulte interesante.

El acceso a una vivienda digna, asequible y sostenible es uno de los grandes desafíos de nuestra era. Ante la escasez, el aumento de los costes y la necesidad de reducir el impacto medioambiental, buscar soluciones se ha convertido en una urgencia global. A menudo, las respuestas más innovadoras no provienen de las oficinas de las grandes constructoras, sino de la investigación académica. En este caso, un equipo de la Universitat Politècnica de València (UPV), dirigido por el investigador Víctor Yepes y la doctoranda Ximena Luque, ha desarrollado una nueva metodología que cambia nuestra forma de entender la construcción. Sus conclusiones, fruto de un riguroso análisis, desafían muchas de nuestras ideas preconcebidas sobre cómo debe ser la casa del futuro.

Olvida la idea del «barracón»: la prefabricación de alta calidad ya está aquí.

En España, la palabra «prefabricado» suele evocar una imagen de baja calidad, de construcciones temporales o «barracones» poco estéticos. Sin embargo, como explica Yepes, esta percepción está completamente desactualizada. Para desmontar este mito, propone una analogía contundente: las autocaravanas de gran lujo o los yates son elementos industrializados y prefabricados que alcanzan un altísimo nivel de acabado y calidad. El principio es el mismo: fabricar componentes en un entorno de fábrica controlado permite un nivel de precisión y de control de calidad difícil de lograr en una obra a la intemperie. Este nuevo enfoque de construcción industrializada no es una solución de segunda categoría, sino una tendencia en auge en los países nórdicos y en ciudades como Londres, que demuestra que la eficiencia de la fabricación en serie puede ir de la mano de la excelencia y el diseño.

La vivienda más eficiente está hecha de acero ligero.

El proyecto de investigación RESILIFE se centró en un caso de estudio en Perú, un país que se enfrenta a dos grandes desafíos en materia de vivienda: la prevalencia de la autoconstrucción de baja calidad y el alto riesgo sísmico. Tras analizar múltiples alternativas, desde los tradicionales muros de ladrillo y hormigón armado hasta paneles prefabricados, el estudio halló la solución óptima para este contexto específico: un sistema industrializado de acero ligero conocido como light steel frame.

Esta solución resultó ser superior por varias razones clave:

  • Seguridad sísmica: cumple con la estricta normativa de zonas de alto riesgo sísmico.
  • Eficiencia energética: proporciona un alto rendimiento energético, lo que reduce los costes de mantenimiento a largo plazo.
  • Estructura liviana: se basa en paneles prefabricados que conforman una estructura muy ligera.
  • Velocidad de construcción: permite una edificación extraordinariamente rápida, una ventaja crucial en situaciones de emergencia, como demostró China al construir un hospital en 15 días durante la pandemia.

Este caso demuestra que los materiales tradicionales no siempre son la respuesta más inteligente.

«El hormigón y el ladrillo son formas tradicionales de construcción en España, pero no hay que descartar otras posibilidades que, gracias a las nuevas tecnologías de inteligencia artificial, diseño asistido por ordenador, etc., harán que en el futuro sean posiblemente las más rápidas y eficientes».

— Víctor Yepes, investigador del Instituto de Ciencia y Tecnología del Hormigón (ICITECH).

Reducir el coste de construcción no basta para solucionar la crisis de la vivienda.

Los sistemas industrializados, como el de acero ligero, pueden reducir los costes directos de construcción entre un 15 % y un 20 %, lo cual no es una cifra desdeñable. Sin embargo, este ahorro no es la solución mágica a la crisis de asequibilidad, al menos en España. El investigador señala una realidad estructural del mercado inmobiliario español: el suelo SUELE representa más del 50 % del precio final de una vivienda. Por lo tanto, aunque abaratar la construcción es un paso positivo, la solución fundamental para que los precios bajen pasa por otra vía: es necesario poner más suelo público en el mercado para equilibrar la oferta y la demanda.

La clave no es un tipo de casa, sino una «receta» inteligente para construirla.

Aunque la casa de acero ligero en Perú es un resultado interesante, el verdadero avance de esta investigación no es un producto, sino un proceso. El resultado más importante es la creación de una metodología universal y adaptable, un motor capaz de generar la mejor solución para cualquier lugar del mundo. El equipo ha desarrollado una herramienta objetiva e imparcial que, mediante el uso de inteligencia artificial, puede analizar las condiciones locales y determinar la solución constructiva más adecuada.

Esta metodología tiene en cuenta una gran variedad de factores para tomar la decisión más acertada.

  • Costes locales de energía, electricidad y transporte.
  • La normativa vigente en la zona.
  • Disponibilidad de materiales y mano de obra.
  • Nivel de especialización de los trabajadores locales.

Esto significa que la mejor solución para Perú no tiene por qué serlo para España o el Reino Unido. La verdadera innovación consiste en ofrecer una solución personalizada y optimizada para las circunstancias específicas de cada lugar.

El futuro de la construcción debe ser inteligente, pero también humano.

Este trabajo demuestra que el futuro de la vivienda no depende de aferrarse a un único material, sino de aplicar inteligencia y una visión holística. No obstante, los investigadores advierten contra una solución puramente tecnocrática. Un proceso industrial muy eficiente puede reducir costes, pero si deja de lado a la mano de obra local, simplemente cambia un problema por otro. Por ello, ahora estudian cómo integrar el «factor humano» en su metodología. La casa verdaderamente «inteligente» del futuro también debe tener un impacto social inteligente, equilibrando la eficiencia con el empleo.

El conocimiento para construir mejor ya existe. Como subraya Víctor Yepes, la ciencia y la universidad generan soluciones aplicables a problemas reales. Su llamamiento final es un recordatorio crucial para los responsables políticos y económicos: es hora de escuchar a la investigación y aplicar estos criterios para construir un futuro más sostenible y justo para todos.

Si la ciencia ya nos ofrece las herramientas para construir de forma más inteligente y sostenible, ¿estamos preparados como sociedad para adoptar el cambio?

Os dejo la entrevista completa. Espero que os resulte interesante.

Referencia

LUQUE-CASTILLO, X.; YEPES, V. (2025). Life Cycle Assessment of Social Housing Construction: A Multicriteria Approach. Building and Environment, 282:113294. DOI:10.1016/j.buildenv.2025.113294

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El diagrama de Pareto en ingeniería: teoría, aplicaciones y ejemplos prácticos

Figura 1. Diagrama de Pareto

1. Introducción.

En el ámbito de la ingeniería y la gestión de la calidad, el diagrama de Pareto se ha consolidado como una herramienta esencial para la toma de decisiones y la mejora continua. Permite identificar los problemas más importantes, priorizar acciones y optimizar el uso de recursos.

La idea central se basa en la observación de que unos pocos factores tienen un impacto desproporcionado en los resultados, lo que se conoce como el principio 80/20. Por ejemplo, en una obra de construcción, unos pocos materiales concentran la mayor parte del coste, mientras que, en logística, unos pocos clientes generan la mayoría de las ventas.

Figura 2. Vilfredo Pareto (1848-1923). https://es.wikipedia.org/

2. Origen histórico

El concepto fue acuñado por el economista italiano Vilfredo Pareto (1848-1923), quien observó que aproximadamente el 80 % de la riqueza en Europa estaba en manos del 20 % de la población.

Décadas más tarde, el ingeniero y consultor de calidad Joseph M. Juran reconoció la aplicabilidad universal de esta distribución y acuñó la expresión «los pocos vitales y los muchos triviales (o útiles)», extendiendo su uso a la gestión empresarial y de calidad.

3. ¿Qué es un diagrama de Pareto?

Es un gráfico de barras en el que los datos se clasifican de mayor a menor importancia, de izquierda a derecha. Cada barra representa una categoría (por ejemplo, defectos, causas de fallo o tipos de no conformidades).

A menudo, se añade una línea de porcentaje acumulado que muestra qué porcentaje del problema total explican las categorías principales.

La diferencia con respecto a un histograma es clara: en el diagrama de Pareto, el eje horizontal representa categorías, mientras que en el histograma representa intervalos numéricos.

Figura 3. Diagrama de Pareto – Defectos en prefabricados de hormigón

4. Construcción paso a paso.

El procedimiento clásico consta de seis pasos:

  1. Determinar cómo clasificar los datos (problemas, causas, defectos, costes, etc.).
  2. Definir la métrica (frecuencia, valor monetario o frecuencia ponderada).
  3. Recolectar datos en un periodo adecuado.
  4. Agrupar y ordenar las categorías en orden descendente.
  5. Calcular el porcentaje acumulado.
  6. Dibujar el diagrama y distinguir cuáles son los pocos vitales.

Cuando se emplea el porcentaje acumulado, este debe coincidir con la escala principal para que el 100 % se sitúe a la misma altura que la suma de frecuencias o valores.

5. Importancia en la mejora continua.

El diagrama de Pareto no es un análisis estático, sino un proceso cíclico.

  • En la primera iteración, se identifican las categorías más críticas.
  • Tras actuar sobre ellas, un nuevo análisis muestra otras prioridades.
  • El ciclo se repite hasta que los problemas se vuelven residuales o insignificantes.

Este enfoque garantiza que los recursos se destinen a lo que realmente afecta a la calidad, la productividad o los costes.

6. Aplicaciones prácticas

Ingeniería civil: defectos en prefabricados de hormigón.

En una planta de prefabricados, se recopilaron datos sobre los defectos.

  • Fisuras: 120
  • Huecos: 80
  • Desconchados: 45
  • Dimensiones incorrectas: 30
  • Color defectuoso: 25
  • Otros: 20

El análisis de la Figura 3 muestra que las fisuras y los huecos representan más del 65 % de los defectos totales, por lo que constituyen los «puntos vitales» en los que hay que centrarse para mejorar.

Logística: gestión de inventarios en obra (análisis ABC).

En el suministro de materiales de construcción, el análisis Pareto se traduce en el método ABC (Figura 4).

Para ello se clasifican según su valor de uso anual (podría ser cualquier otro periodo), agrupándolos de acuerdo con el coste de su gasto anual: cantidad utilizada (consumida, vendida, empleada, etc.) coste unitario (o precio unitario). Para ello se dividen los elementos en tres grupos:

  • Grupo A: Suponen un porcentaje alto de la inversión total, de forma que, controlando este grupo, se tiene controlado casi todo el almacén. Representa generalmente el 10 % de los artículos, estando su valor de uso entre el 60 % y el 80 % del total.
  • Grupo C: Son aquellos cuyo control es poco interesante, pues siendo muy numeroso, su valor es pequeño. Suele ser el 50-70 % del total de artículos, significando solo entre el 5-10 % del valor total de uso
  • Grupo B: Tienen una importancia en relación con el número de unidades del almacén parecida a la que tienen con referencia al valor total de la inversión del inventario. Abarca generalmente al 25 % de los artículos, y representa entre el 15-30 % del valor total de uso.
Figura 4. Método ABC para gestionar los inventarios

Por ejemplo:

  • Acero estructural: 40 000 €
  • Cemento: 30 000 €
  • Tuberías PVC: 12 000 €
  • Pintura: 6 000 €
  • Clavos y tornillería: 2 000 €
  • Otros: 1 000 €

La Figura 5 muestra que el acero y el cemento (el 20 % de los artículos) representan el 70 % del valor total. Estos materiales requieren un control de inventario estricto, mientras que los de bajo impacto se gestionan de manera más flexible.

Figura 5. Diagrama de Pareto – Inventario en obra

6.3 Otras aplicaciones destacadas.

  • Quejas de clientes: un pequeño grupo de problemas genera la mayoría de las reclamaciones.
  • Procesos productivos: unos pocos defectos causan la mayor parte de los reprocesos.
  • Mantenimiento: unas pocas averías originan la mayor parte del tiempo de inactividad.
  • Ventas: unos pocos clientes concentran la mayor parte de los ingresos.

7. Conclusión

El diagrama de Pareto es sencillo de apariencia, pero potente en resultados.

  • Facilita la visualización de las prioridades.
  • Permite concentrar los recursos en lo más importante.
  • Puede aplicarse en ingeniería civil, logística, producción, calidad, marketing y gestión empresarial.

La clave está en identificar los aspectos vitales y no dispersar esfuerzos en los triviales.

Os dejo algunos vídeos al respecto.

Referencias:

Cursos:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.