Más allá de los datos: el arte (y la ciencia) de escuchar lo que nadie se atreve a decir

¿Por qué, a pesar de tener todas las estadísticas y los gráficos sobre la mesa, a veces fracasamos en nuestro intento de entender el comportamiento humano? En una era obsesionada con el Big Data, tendemos a olvidar que los números solo muestran una parte de la realidad. Las decisiones estratégicas, desde la optimización de un servicio oncológico hasta el cambio de modelo de negocio, exigen descifrar el «porqué» que se esconde detrás de cada dato. Aquí es donde surgen los grupos focales, no como un trámite académico árido, sino como una ventana táctica a la subjetividad. Esta técnica capta cómo piensan, sienten y viven las personas a través de la interacción grupal y revela verdades incómodas o sutiles que una encuesta estandarizada no puede detectar. No se trata solo de recopilar información, sino de ponerse en la piel del otro para transformar la gestión organizativa.

Un origen inesperado: de la propaganda de guerra a la empatía moderna.

Aunque hoy los asociamos con el marketing o la salud, los grupos focales surgieron de una necesidad estratégica de supervivencia. La técnica, originalmente bautizada como «entrevista focal» (Merton, 1987), fue desarrollada en la década de los cuarenta en la Universidad de Columbia por Paul Lazarsfeld y Robert Merton. Su objetivo inicial era analizar las respuestas de la audiencia ante la propaganda y las transmisiones de radio durante la Segunda Guerra Mundial.

Resulta fascinante observar que, a pesar de su potencial, la técnica fue prácticamente ignorada en la investigación académica formal hasta finales de la década de 1970, un período de «renacimiento» en el que se comprendió que lo que servía para el control de masas podía ser la herramienta definitiva para la empatía. Lo que comenzó como un instrumento para analizar la propaganda evolucionó hacia una metodología para «dar voz» al ciudadano, lo que permitió humanizar sistemas que, de otro modo, habrían permanecido ciegos al factor humano.

La «sinergia»: cuando 1 + 1 es mucho más que 2.

A diferencia de la entrevista individual, el grupo focal es un método colectivista. Su valor estratégico no radica en la suma de opiniones, sino en la energía que el grupo genera. La interacción actúa como un catalizador: un comentario ajeno activa recuerdos, las inhibiciones se disuelven y surgen temas tabú que nadie se atrevería a mencionar en soledad.

«El grupo focal es un método de investigación colectivista, más que individualista, que se centra en la pluralidad y la variedad de las actitudes, experiencias y creencias de los participantes en un tiempo relativamente corto». — Martínez-Miguélez.

Nota de rigor técnico: es vital distinguir entre método y técnica. El método es el proceso macro para alcanzar una meta, mientras que el grupo focal es, técnicamente, una técnica: un conjunto específico de directrices y recursos diseñados para llevar a cabo una estrategia de escucha profunda.

El moderador: un director de orquesta invisible.

El éxito de esta técnica no depende de los participantes, sino de la habilidad del moderador. No es una autoridad, sino un facilitador que convierte la amabilidad en una herramienta técnica de precisión.

Habilidades tácticas de moderación:

  • Manejo del silencio: entender el vacío no como un error, sino como una invitación para que el participante profundice en sus ideas.
  • Cuidado de las relaciones interpersonales: exigencia técnica orientada a generar seguridad psicológica y a obtener datos auténticos.
  • Ausencia de posturas autoritarias: el moderador debe «focalizar» la conversación sin sesgarla con sus propios prejuicios, manteniendo una escucha activa y sensible.
  • Sencillez lingüística: adaptar el registro al «mundo de vida» del entrevistado para eliminar barreras jerárquicas.

El «número mágico» y el límite del cansancio.

Para que la sinergia no se convierta en caos, la logística debe ser milimétrica. La eficiencia operativa de un grupo focal se rige por estas reglas de oro:

  • Participantes: el rango ideal es de 6 a 10 colaboradores. Con menos de seis, se limita el pensamiento colectivo; con más de diez, se diluye la profundidad y se complica la labor del moderador.
  • Duración óptima: entre 60 y 90 minutos. Este es el tiempo necesario para crear un clima de confianza y agotar la hoja de ruta (questioning route).
  • El límite crítico: las dos horas, que marcan el «límite físico y psicológico». Superar este umbral genera fatiga cognitiva y reduce la calidad y la veracidad de los testimonios.

Del caos al orden: el desafío de analizar la subjetividad.

Convertir las horas de conversación en hallazgos aplicables requiere un rigor metodológico casi artesanal. El análisis no es una cuestión de intuición, sino un proceso de triangulación en el que se «tejen» los testimonios con teorías previas y marcos bibliográficos para otorgar validez científica a la subjetividad.

El proceso se divide en dos niveles críticos de codificación:

  • Codificación abierta: exploración inicial de los datos para crear conceptos y categorías desde cero (descubrimiento).
  • Codificación axial: identificación de conexiones y relaciones lógicas entre los códigos creados (la estructura).

Fases del análisis temático:

  1. Familiarización: Inmersión total en las transcripciones literales.
  2. Generación de códigos: Etiquetado de conceptos clave.
  3. Búsqueda de temas: Agrupación de códigos en patrones de significado.
  4. Revisión: Asegurar que los temas representen fielmente el diálogo original.
  5. Definición: Refinar la esencia de cada categoría.
  6. Redacción: Construcción de una narrativa coherente que responda a los objetivos estratégicos.

Conclusión: un futuro basado en la escucha.

En un mundo saturado de algoritmos e inteligencia artificial, la herramienta más disruptiva sigue siendo la conversación humana dirigida. Implementar una cultura de escucha activa mediante grupos focales no es un lujo académico, sino una ventaja competitiva que humaniza las organizaciones y valida la experiencia individual.

¿Cómo cambiaría su entorno laboral si, por un momento, silenciara los cuadros de mando de datos para crear un espacio diseñado solo para escuchar? En última instancia, el valor de la subjetividad es que nos permite ver aquello que los números, por sí solos, prefieren callar.

En esta conversación podéis escuchar las ideas más interesantes sobre esta técnica de investigación cualitativa.

Este vídeo resume bien los principales conceptos de los grupos focales.

El_Lente_y_la_Sinergia

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Secretos de los camiones hormigonera que cambiarán tu forma de ver las obras

https://baryserv.es/camiones-hormigonera-producto

Es una estampa habitual en nuestras ciudades: un camión con un enorme tambor giratorio que avanza con parsimonia hacia una obra. Para la mayoría, no es más que un vehículo pesado de transporte. Sin embargo, bajo esa apariencia ruda se esconde un laboratorio rodante. Desde el punto de vista de la ingeniería civil, estos vehículos no son solo camiones, sino fábricas químicas en movimiento diseñadas para que el material más utilizado del mundo, el hormigón, llegue con las propiedades exactas necesarias para sostener nuestros puentes y edificios.

A continuación, te revelo los secretos técnicos que convierten a estos gigantes en piezas maestras de la logística constructiva.

El secreto de la capacidad variable: ¿agitador o mezclador?

Muchos ignoran que la capacidad de carga de un camión hormigonera no es fija, sino que depende de su función. El camión puede funcionar como agitador o como mezclador, y en cada caso la carga útil permitida varía.

  • Como mezcladora, recibe los componentes secos y el agua de amasado directamente en la central de dosificación. Durante el trayecto, el camión debe realizar el amasado completo. En este caso, su capacidad es menor (por ejemplo, 6,6 m³), ya que se requiere espacio libre en la cuba para que los materiales choquen, caigan y se integren perfectamente.
  • Como agitador, recibe el hormigón ya amasado en planta. Su única función es mantenerlo fluido y evitar la segregación. En este caso, puede aprovechar mucho mejor su volumen y alcanzar capacidades de hasta 8 m³.

No obstante, cuando hablamos de hormigón estructural, hay que tener en cuenta algo fundamental: el Código Estructural prohíbe expresamente la adición de agua (o cualquier otra sustancia) a la masa de hormigón una vez que sale de la planta, con las cantidades exactas de cada componente, que quedan registradas en el albarán de suministro (contenido de cemento, relación agua/cemento, etc.).

El ingenio de Arquímedes y la anatomía del tambor.

El movimiento del hormigón en la cuba no es aleatorio. La «magia» ocurre gracias a dos hileras de espirales helicoidales soldadas entre sí, que operan según el principio del tornillo de Arquímedes.

Físicamente, la cuba es una estructura cilíndrica cónica fabricada en chapa de alta resistencia al desgaste y montada con una inclinación de 15°. Para soportar las enormes fuerzas de torsión y el peso del material, el tambor descansa sobre un preciso sistema de ingeniería: una banda zunchada en la parte superior que se apoya en dos robustos rodillos y un eje inferior que gira sobre cojinetes de alta capacidad de carga. Gracias a este diseño, basta con cambiar el sentido de rotación para que el camión pase de amasar el material en el fondo a elevarlo mecánicamente hacia la tolva de descarga.

Detalle de las espiras de un camión hormigonera

La danza de las revoluciones: el ritmo exacto del hormigón.

El control de la mezcla se realiza mediante el embrague de la cabina. El conductor debe gestionar tres ritmos críticos de rotación, cada uno con un propósito específico para garantizar la integridad del material:

  • Carga y amasado (aproximadamente de 16 a 22 rpm): se utiliza la velocidad más alta (segunda velocidad) para integrar los componentes con rapidez tras la carga o para realizar el amasado final en la obra.
  • Transporte y agitación (aproximadamente de 1 a 6 rpm): según el modelo y el manual de operación, se utiliza una velocidad lenta para mantener el hormigón en movimiento constante y evitar que se segregue o que comience el fraguado prematuramente.
  • Descarga (7-10 rpm): velocidad intermedia que, al invertir el sentido de giro, garantiza un flujo constante y controlado del material hacia la canaleta de distribución.

Conviene recordar que estos valores son orientativos y pueden variar según el fabricante y el modelo del camión.

La carrera contrarreloj: la regla de los 90 minutos.

El transporte de hormigón es una lucha térmica y química.

El fraguado, entendido como el inicio del endurecimiento, no espera a nadie: en climas cálidos puede comenzar antes que en invierno, por lo que el tiempo de transporte y colocación debe controlarse con rigor.

No debe afirmarse que, cuando las distancias son largas, se añade agua al final del trayecto. El Código Estructural prohíbe expresamente añadir agua al hormigón una vez que ha salido de la planta. El depósito de agua del camión se destina principalmente a la limpieza y al lavado de los restos de hormigón al finalizar la descarga.

. La normativa es tajante al respecto:

«El Código Estructural  recomienda que, en condiciones normales, el intervalo de tiempo entre la adición de agua de amasado al cemento y a los áridos y la colocación del hormigón no exceda de una hora y media (90 minutos).»

El corazón independiente: un seguro de vida contra el fraguado.

El mayor temor de un operario es que el hormigón se fragüe en la cuba por una avería del vehículo. En ese caso, la cuba se convertiría en una roca inservible de varias toneladas. Para evitar este desastre económico, la ingeniería ofrece dos sistemas de motorización con ventajas diferentes:

  • Motor auxiliar independiente: un motor diésel dedicado exclusivamente a hacer girar la cuba.
    • Ventaja: permite que la hormigonera siga operando aunque el camión sufra una avería, lo que ayuda a evitar que el hormigón pierda su trabajabilidad.
    • Ventaja: aumenta la vida útil del motor principal del vehículo.
  • Toma de fuerza: utiliza el motor del camión para accionar el tambor.
    • Ventaja: reduce el consumo de combustible al emplear un único motor.
    • Desventaja: requiere camiones con mayor potencia y una transmisión adecuada para el funcionamiento de la cuba.

Conclusión: la ingeniería que sostiene nuestras ciudades.

La próxima vez que veas un camión hormigonera, ya no lo verás como un simple vehículo pesado. Estarás ante una fábrica de alta precisión que combina la geometría milenaria de Arquímedes con las normativas vigentes en materia de seguridad química. Desde la chapa resistente al desgaste de su cuba hasta el control preciso de sus revoluciones, cada detalle está diseñado para garantizar que el hormigón de nuestros cimientos sea perfecto.

¿Volverás a mirar estos gigantes de acero de la misma forma ahora que conoces la física y la química que tienen lugar en su interior?

Os he grabado un vídeo del camión hormigonera. Espero que os guste.

En este audio podrás escuchar una conversación sobre el funcionamiento de esta máquina.

En este vídeo se recogen las ideas básicas sobre los camiones hormigonera.

Concrete_Mixer_Engineering

Referencias:

YEPES, V. (2026). Fabricación y puesta en obra del hormigón. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 434 pp. Ref. 441. ISBN: 978-84-1396-418-8

Cursos:

Curso de fabricación y puesta en obra del hormigón.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Más que solo girar: el ingenioso secreto de las hormigoneras de tambor reversible

https://www.omaer.com/es/hormigoneras/betonniere-a-inversion-de-marche-350-lt-c-500-i/

En el corazón de cualquier obra de infraestructura existe un componente cuya coreografía mecánica suele pasar desapercibida: la hormigonera. Mientras que los modelos basculantes convencionales dependen de una aparatosa inclinación para vaciar su contenido, las hormigoneras de eje horizontal ejecutan un sofisticado «baile de acero» en el que el tambor nunca cambia de ángulo. El espectáculo comienza con el skip, un cucharón de carga que trepa por guías inclinadas, impulsado por un torno eléctrico que acciona una máquina que, mediante un ingenioso diseño electromecánico, puede mezclar y descargar simplemente cambiando el sentido de su rotación. Esta capacidad no solo es una curiosidad técnica, sino también la clave para producir hormigón de alta calidad en grandes cantidades.

El giro inesperado: un tambor, dos destinos.

El secreto de estas máquinas reside en la «inversión de marcha». En lugar de inclinar una cuba que puede pesar varias toneladas, el sistema simplemente invierte el sentido de giro del motor. Esta solución es mucho más eficiente y económica desde el punto de vista mecánico para grandes volúmenes: mover 9 m³ de hormigón mediante un sistema basculante requeriría una fuerza hidráulica y un refuerzo estructural considerables, mientras que invertir la rotación es una tarea puramente eléctrica o de transmisión.

Este proceso es posible gracias a una arquitectura interna de palas helicoidales fijas. Según la documentación técnica de Rebut:

«Un conjunto eleva el hormigón hacia el centro durante la mezcla y el otro lo empuja hacia la abertura durante la descarga. Las palas están dispuestas en espiral para garantizar una mezcla uniforme y una descarga eficiente».

Las mezcladoras reversibles de sitio suelen manejar lotes de hasta 1 m³, mientras que las unidades industriales de tambor «no inclinable» alcanzan dimensiones cilíndrico-cónicas capaces de gestionar hasta 9 m³ y cuentan con tiempos de mezcla de apenas 40 segundos.

¿Por qué el primer amasado es «el sacrificio» necesario?

Como ingeniero, siempre tengo presente que la precisión del equipo no anula las leyes de la física. Un fenómeno inevitable es la adherencia: parte del mortero de la mezcla se queda pegada a las paredes metálicas de la cuba limpia. Por este motivo, la primera mezcla de la jornada suele ser menos homogénea y de peor calidad.

La recomendación técnica es realizar una «ligera amasada de mortero» antes de comenzar la producción. Este procedimiento no supone un desperdicio, sino una preparación necesaria: el mortero recubre las paredes, «enciende» la máquina y garantiza que, desde el primer lote de hormigón estructural, la dosificación de cemento y finos sea exactamente la que dicta el diseño de la mezcla.

La formulación matemática para un buen hormigón

El éxito de estas máquinas no es azaroso, sino que responde a fórmulas que relacionan la geometría del tambor con la física del amasado. Para obtener un hormigón homogéneo, el tiempo y la velocidad deben ajustarse al diámetro D de la cuba (medido en metros).

Dentro del tambor, operamos bajo dos reglas de oro:

  • El tiempo mínimo de amasado (en segundos) se calcula como t = 90 √D.
  • La velocidad de giro ideal (en revoluciones por minuto) se determina mediante la fórmula: N = 20 / √D.

Estas fórmulas garantizan que el material sea impulsado hacia el centro de la cuba con la energía necesaria para mezclarse sin que la fuerza centrífuga separe los componentes.

Silencio y durabilidad: el fin del contacto metal-metal.

Uno de los avances más significativos en la durabilidad de estas máquinas ha sido el rediseño de sus sistemas de arrastre y de soporte. Tradicionalmente, el contacto entre piñones y coronas provocaba un ruido ensordecedor y un desgaste acelerado. El diseño moderno ofrece dos soluciones:

  • Sistema de corona y piñón: un grupo motorreductor actúa sobre una corona dentada que rodea la cuba.
  • Sistema de fricción: aquí reside la verdadera innovación. El tambor se arrastra mediante rodillos con bandaje de goma o de poliuretano.

El uso de estos rodillos elásticos no solo reduce drásticamente el ruido operativo en la obra, sino que también actúa como un amortiguador que protege la estructura y minimiza el mantenimiento, incluso en máquinas con producciones masivas.

El desafío de la lentitud: el riesgo de la segregación.

A pesar de su sofisticación, el eje horizontal tiene un punto débil físico: la descarga tiende a ser lenta. Esto ocurre porque el material debe ser «empujado» hacia fuera por las palas en lugar de caer por la fuerza de la gravedad. Si la velocidad de giro (N) disminuye o si la mezcla contiene áridos de gran tamaño, puede producirse segregación: el mortero sale primero y los áridos gruesos quedan al final.

Consejo a pie de obra: el operador debe mantener una vigilancia constante durante la fase final del vaciado. Si se observa que el hormigón empieza a salir «descarnado» (solo piedra), hay que detener la descarga y realizar un breve remezclado en sentido de amasado para reincorporar los finos antes de terminar el vertido.

Conclusión: hacia una construcción de alta resistencia.

Las hormigoneras de inversión de marcha son auténticas bestias de carga, capaces de alcanzar producciones de 250 m³/h y capacidades de entre 5 y 9 m³. Su superioridad frente a los modelos basculantes en proyectos de gran envergadura es indiscutible, ya que ofrecen una mayor eficiencia mecánica y una mejor calidad de la mezcla.

No obstante, la ingeniería no se detiene. Para proyectos de hormigón masivo o de ultra alta resistencia, la industria ya empieza a decantarse por los sistemas de doble eje. ¿Será suficiente la optimización del tambor reversible para afrontar los retos del futuro o estamos llegando al límite físico de lo que un solo eje horizontal puede lograr?

Os he grabado un vídeo sobre esta máquina. Espero que os guste.

En esta conversación puedes escuchar las ideas más interesantes sobre el funcionamiento de esta máquina.

En este vídeo se resumen bien los principios fundamentales de esta hormigonera.

Horizontal_Mixer_Engineering

Referencias:

ACI COMMITTEE 304. Guide for Measuring, Mixing, Transporting, and Placing Concrete. ACI 304R-00.

FERNÁNDEZ CÁNOVAS, M. (2004). Hormigón. 7ª edición, Colegio de Ingenieros de Caminos, Canales y Puertos. Servicio de Publicaciones, Madrid, 663 pp.

CORMON, P. (1979). Fabricación del hormigón. Editores Técnicos Asociados, Barcelona, 232 pp.

GALABRU, P. (1964). Tratado de procedimientos generales de construcción. Obras de fábrica y metálicas. Editorial Reverté, Barcelona, 610 pp.

TIKTIN, J. (1994). Procesamiento de áridos: instalaciones y puesta en obra de hormigón. Universidad Politécnica de Madrid. Escuela Técnica Superior de Ingenieros de Caminos, Canales y Puertos. Madrid, 360 pp. ISBN: 84-7493-205-X.

YEPES, V. (2020). Procedimientos de construcción de cimentaciones y estructuras de contención. Colección Manual de Referencia, 2ª edición. Editorial Universitat Politècnica de València, 480 pp. Ref. 328. ISBN: 978-84-9048-903-1.

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

YEPES, V. (2026). Fabricación y puesta en obra del hormigón. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 434 pp. Ref. 441. ISBN: 978-84-1396-418-8

Cursos:

Curso de fabricación y puesta en obra del hormigón.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Innovación en la construcción: Evaluación del liderazgo transformacional y la gestión del conocimiento

Acaban de publicar un artículo en el Journal of Civil Engineering & Management, una de las revistas ubicadas en el primer decil del JCR. Este documento técnico sintetiza los resultados de una investigación exhaustiva sobre los factores que impulsan la innovación en los sectores de la construcción y la consultoría en España.

El estudio analiza la influencia del liderazgo transformacional (TL) en la innovación de producto (PDI) y la innovación de procesos (PCI), y evalúa el papel mediador de la gestión del conocimiento (KG) y el intercambio de conocimiento (KS), bajo el efecto moderador del clima de innovación (IC).

Los resultados, obtenidos mediante un análisis de ecuaciones estructurales (SEM-AMOS) con una muestra de 185 profesionales, revelan que:

  1. El liderazgo transformacional impacta directamente en la innovación de productos, pero su efecto en la innovación de procesos es indirecto y depende de las estructuras de gobernanza formal.
  2. La gestión del conocimiento es un factor crítico para la innovación de procesos en entornos jerárquicos.
  3. El clima de innovación actúa como un catalizador que potencia la capacidad del líder para fomentar el intercambio de conocimientos.
  4. En sectores conservadores como la construcción, la estructura organizativa y los sistemas de incentivos son tan importantes como el estilo de liderazgo para desbloquear el potencial innovador.

1. Contexto y desafíos del sector.

El sector de la construcción se caracteriza por ser tradicionalmente conservador, reactivo y resistente al cambio. Las empresas de este ámbito se enfrentan a desafíos multifacéticos derivados de:

  • Volatilidad global: cambios acelerados y necesidades de los clientes en constante evolución.
  • Disrupción tecnológica: necesidad estratégica de adoptar innovaciones para asegurar el éxito a largo plazo.
  • Estructuras jerárquicas: la naturaleza de los proyectos y las culturas organizativas rígidas obstaculizan la proactividad en la innovación.

2. Marco teórico y variables del estudio.

La investigación se basa en la interconexión de cinco constructos principales, que se definen a continuación:

Constructo Descripción
Liderazgo transformacional Estilo de gestión que motiva a los equipos hacia el cambio mediante la influencia idealizada, la motivación inspiracional, la estimulación intelectual y la consideración individualizada.
Gestión del conocimiento Conjunto de mecanismos formales (estructuras, recompensas) e informales (redes, cultura) para optimizar el intercambio y uso del conocimiento.
Intercambio de conocimiento Proceso mediante el cual individuos y equipos intercambian información, habilidades y experiencia.
Innovación de producto Introducción de productos o servicios nuevos o mejorados para satisfacer las necesidades del mercado.
Innovación de procesos Mejora de los procedimientos operativos internos y de la eficiencia organizativa.
Clima de innovación Entorno percibido que apoya y fomenta la generación y la aplicación de ideas creativas.

3. Análisis de resultados e impactos directos.

El estudio valida la mayoría de las hipótesis propuestas y destaca una divergencia significativa en la manera en que el liderazgo incide en los distintos tipos de innovación.

El impacto diferencial del liderazgo transformacional (TL)

  • Sobre la innovación de producto (PDI): el TL muestra un efecto fuerte y significativo (β = 0,548, p < 0,001). Los líderes transformadores fomentan la creatividad individual y la seguridad psicológica, lo que facilita el desarrollo de nuevos materiales o diseños.
  • Sobre la innovación de procesos (PCI): el efecto directo no es significativo (β = 0,102). Esto sugiere que, en el sector de la construcción, los cambios en los procesos dependen más de factores estructurales e inversión tecnológica que de la motivación inspiracional.

El papel de la gobernanza y el intercambio de conocimiento

  • KG como motor de PCI: la gobernanza del conocimiento influye de manera significativa en la innovación de procesos (β = 0,508, p < 0,001), lo que subraya la importancia de la estandarización y de los sistemas formales de gestión.
  • KS como motor de PDI: el intercambio de conocimiento impacta de manera moderada en el producto (β = 0,373, p < 0,001), lo que facilita la integración de conocimientos multidisciplinares.

4. Dinámicas de mediación y moderación.

La investigación profundiza en cómo las variables intermedias inciden en la eficacia del liderazgo.

Mediación de la gestión (KG) y del intercambio (KS).

  • Efecto en el PCI: la relación entre el liderazgo transformacional y la innovación de procesos está totalmente mediada por la gobernanza del conocimiento. En contextos estructurados, el líder solo puede innovar en los procesos si primero reforma los sistemas de incentivos y de gobernanza.
  • Efecto en PDI: el intercambio de conocimientos (KS) explica aproximadamente el 20 % de la relación entre el liderazgo y la innovación de producto. El 80 % restante se atribuye a mecanismos no medidos, como el empoderamiento o la visión estratégica.

El clima de innovación (IC) como catalizador.

El estudio demuestra que el clima de innovación no garantiza por sí solo el intercambio de conocimientos, sino que actúa como un moderador contingente.

  • Interacción TL x IC: existe un efecto positivo moderado (β = 0,141, p < 0,1). En las organizaciones con un alto IC, el impacto del liderazgo transformacional en el intercambio de conocimientos se intensifica.
  • Dato clave: un aumento de una desviación estándar en el liderazgo transformacional, en presencia de un clima innovador alto, genera un incremento del 14 % en el intercambio de conocimientos.

5. Metodología y perfil de la muestra

El estudio se basó en una metodología cuantitativa deductiva aplicada al sector de la construcción en España.

Datos de la muestra (N = 185):

  • Profesiones principales: ingenieros de caminos, canales y puertos (33,5 %), ingenieros civiles (29,7 %) y arquitectos (21,1 %).
  • Género: masculino (69,2 %), femenino (30,8 %).
  • Nivel educativo: el 45,4 % posee un máster universitario.
  • Antigüedad de las empresas: El 44,9 % de las empresas tiene más de 20 años de existencia.
  • Tamaño de las empresas: Distribución equilibrada entre micro (24,3 %), pequeñas (34,6 %), medianas (23,8 %) y grandes (17,3 %).

6. Implicaciones prácticas para la gestión

Para los directivos de los sectores de la construcción y la consultoría, los resultados sugieren una hoja de ruta estratégica:

  1. Formación en liderazgo: implementar programas de mentoría y entrenamiento en habilidades transformadoras, orientados a desarrollar la capacidad de inspirar una visión compartida.
  2. Institucionalizar la gestión: para mejorar los procesos (PCI) implica invertir en repositorios de «lecciones aprendidas» y en sistemas de gestión del conocimiento que trasciendan la jerarquía formal.
  3. Incentivos a la innovación: establecer sistemas de recompensas que reconozcan comportamientos innovadores, como el intercambio de conocimientos técnicos en proyectos con restricciones complejas.
  4. Uso de tecnologías: adoptar herramientas como el Building Information Modeling (BIM) para facilitar los flujos de conocimiento y la colaboración interdepartamental.

7. Conclusiones y limitaciones

La investigación concluye que la innovación en el sector de la construcción no es un resultado automático del liderazgo, sino un proceso mediado por la estructura de gobernanza y potenciado por el clima organizativo. La integración del liderazgo transformacional con una gobernanza sólida es la forma más eficaz de mantener la ventaja competitiva.

Limitaciones identificadas:

  • Datos autoinformados: el uso de escalas de Likert puede introducir sesgos de deseabilidad social.
  • Diseño transversal: los datos se recopilaron en un único momento (septiembre-diciembre de 2022), lo que limita las inferencias causales definitivas.
  • Contexto geográfico: los resultados están anclados en la realidad regulatoria y cultural de España.

Como el artículo está en acceso abierto, puedes descargarlo gratis pinchando directamente en el enlace de la referencia.

Referencia:

LOPEZ, S.; YEPES, V. (2026). Innovation in construction: Assessing the role of transformational leadership and knowledge governance. Journal of Civil Engineering and Management, 32(3), 433-455. DOI:10.3846/jcem.2026.24919

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Resultados intermedios del proyecto de investigación RESILIFE

En este momento, estamos elaborando la justificación técnica y económica del proyecto de investigación RESILIFE. Los investigadores principales son Víctor Yepes y Julián Alcalá. El proyecto comenzó el 1 de septiembre de 2024 y se prevé que finalice a finales de 2027. Hemos hablado mucho de este proyecto en el blog.

Se trata del proyecto PID2023-150003OB-I00, cuya denominación es: «Optimización resiliente del ciclo de vida de estructuras híbridas y modulares de alta eficiencia social y medioambiental bajo condiciones extremas».

En la fase intermedia del proyecto, se han publicado 25 artículos en revistas indexadas en el JCR, de los cuales 17 están en el primer cuartil y 8 en el segundo. Pero quizás sea importante destacar que de ellos, 13 se han publicado en revistas del primer decil. Entre ellos tenemos un Featured Paper Award de Engineering Structures. En las referencias, al final de esta entrada, tenéis los artículos y sus enlaces para su descarga.

Este esfuerzo ha sido fruto del trabajo de un buen número de investigadores de distintas nacionalidades. Han participado 22 autores: Yepes, Kripka, Sánchez-Garrido, Yepes-Bellver, Navarro, Negrín, Alcalá, Luque Castillo, Guaygua, Tres Junior, De Medeiros, Villalba, Fernández-Mora, Brun-Izquierdo, Martínez-Muñoz, Martí, Ruiz-Vélez, García, Partskhaladze, Vitorio Junior, Onetta y Chagoyén. Hay presencia internacional en países como Brasil, Chile, Ecuador, Perú, Georgia y Cuba.

La investigación reciente en ingeniería civil y construcción, sintetizada en el proyecto RESILIFE y en estudios asociados, marca un cambio de paradigma hacia un enfoque de diseño integral. Este enfoque trasciende la mera eficiencia económica para integrar la resiliencia ante eventos extremos (incendios, sismos y colapsos progresivos), la sostenibilidad multidimensional (ambiental, social y económica) y la eficiencia operativa mediante la digitalización.

Avances en optimización multiobjetivo, sostenibilidad y resiliencia en la ingeniería estructural

Los hallazgos clave incluyen:

  • Sistemas híbridos y modulares: las tipologías de acero y hormigón, así como los sistemas modulares prefabricados (PVMB), demuestran una superioridad técnica y medioambiental significativa. Por ejemplo, las vigas híbridas de sección transversal variable (THVS) pueden reducir los costes de fabricación hasta en un 70 % y las emisiones en un 32 %.
  • Resiliencia integrada: la incorporación de la seguridad contra incendios y de un diseño robusto frente al colapso progresivo en las fases conceptuales no solo mejora la seguridad, sino que también puede optimizar costes (reducción de hasta el 21 % en pasarelas con requisitos de confort dinámico).
  • Sostenibilidad social: el análisis del ciclo de vida social (S-LCA) emerge como un factor crítico, especialmente en viviendas sociales, donde los aspectos sociales representan casi el 40 % del peso en la toma de decisiones.
  • Digitalización y modelado: el uso de BIM (herramientas como Endurify 2.0) y modelos subrogados (redes neuronales y Kriging) permite gestionar con precisión la vida útil remanente y optimizar la huella de carbono con errores predictivos mínimos.

1. Optimización multiobjetivo y resiliencia ante eventos extremos

La integración de factores de riesgo extremo como criterio principal de diseño permite desarrollar infraestructuras más seguras sin comprometer la viabilidad económica.

1.1 Resiliencia al fuego en pasarelas híbridas

  • Enfoque integrado: se propone el rendimiento ante el fuego como motor de diseño, junto con el coste, el impacto ambiental y la comodidad del peatón.
  • Configuraciones óptimas: se recomienda utilizar acero de menor resistencia en el alma y de mayor en las alas (una relación de límite elástico de aproximadamente 1,6).
  • Compromisos de diseño: existe una dicotomía geométrica, ya que las vigas más compactas mejoran la seguridad frente a incendios, mientras que las geometrías esbeltas favorecen el rendimiento dinámico. Una inversión adicional del 23 % en el coste puede evitar el colapso durante 10 minutos de exposición al fuego.

1.2 Resistencia al colapso progresivo (PC) y sismos

  • Marco OBDRPC: este marco integra principios de diseño resistente al colapso progresivo y de optimización basada en simulaciones, en los que se considera la interacción suelo-estructura (SSI).
  • El impacto de la interacción suelo-estructura puede generar diferencias de hasta el 24,29 % en el uso de materiales de la superestructura si no se tiene en cuenta dicha interacción.
  • Sistemas modulares en zonas sísmicas: en regiones como Quito, los sistemas modulares de acero laminado en caliente ofrecen el mejor rendimiento global, ya que reducen los tiempos de construcción y el impacto social, aunque los costes iniciales son más altos.
  • Refuerzo sísmico: el uso de polímeros reforzados con fibra de carbono (CFRP) se identifica como la mejor alternativa para el refuerzo de las vigas de hormigón deficientes, debido a su menor impacto ambiental y social en comparación con el encamisado de acero o de hormigón.

2. Sostenibilidad y análisis del ciclo de vida (ACV)

La sostenibilidad se evalúa mediante un enfoque de «triple balance» que abarca las dimensiones económicas (LCC), ambientales (LCA) y sociales (S-LCA).

2.1. Descarbonización y eficiencia de materiales

  • Puentes y pasarelas: la optimización de los pasos superiores de las carreteras puede reducir la huella de carbono en un 12 %. En los puentes de losa pretensados, se recomienda una relación de esbeltez de 1/28 y hormigón C-40 para maximizar la eficiencia energética.
  • Economía circular: el uso de losas aligeradas con plástico reciclado reduce el consumo de hormigón y acero entre un 23 % y un 33 %, lo que se traduce en una disminución del 24 % del potencial de calentamiento global.
  • Relación coste-emisiones: Se ha identificado una relación lineal: cada dólar ahorrado en la optimización de pasarelas reduce las emisiones de CO2 en aproximadamente 0,7727 kg por metro.

2.2 Dimensión social de la construcción

  • Vivienda social: el sistema Light Steel Frame (LSF) destaca como la opción más favorable en contextos de desarrollo, ya que ofrece un buen equilibrio entre coste, durabilidad y menor mantenimiento.
  • Riesgos sociales: la implementación de sistemas de construcción circular y modelos de optimización reduce los riesgos sociales hasta en un 20 % en las categorías de trabajadores y de la comunidad local.

3. Tipologías estructurales innovadoras.

El desarrollo de nuevas geometrías y combinaciones de materiales es fundamental para la eficiencia industrial.

Tipología Beneficios clave identificados
Vigas THVS (híbridas transversales de sección variable) Reducción de costes de fabricación hasta el 70%; reducción de emisiones hasta el 32%; menor carga axial en columnas y cimientos debido a la reducción del peso propio.
Sistemas modulares (PVMB) Despliegue más rápido, mayor resiliencia social y reducción de los impactos ambientales en comparación con los métodos convencionales in situ.
Estructuras MMC en costa El uso de cemento sulforresistente, impregnación hidrofóbica y humo de sílice aumenta la calificación de sostenibilidad en un 86% frente a diseños base en ambientes marinos agresivos.
Almacenes de acero con cerramientos de acero Menor impacto ambiental que el de los cerramientos de ladrillo o de bloques de hormigón, especialmente en escenarios de reciclaje al final de la vida útil.

4. Digitalización y herramientas de decisión.

La complejidad de los criterios de competencia exige el uso de herramientas informáticas avanzadas.

4.1 BIM y gestión de la vida útil

  • Endurify 2.0: este complemento para entornos BIM automatiza la planificación de la rehabilitación estructural y estima la vida útil remanente (RUL). Su aplicación reduce los costes totales en un 15 % y el impacto por proximidad en un 10 % en comparación con la planificación basada en expertos.
  • Indicadores de daño: el sistema analiza cuatro indicadores críticos: carbonatación, fisuración transversal, fluencia y deflexión.

4.2. Modelos subrogados y algoritmos de optimización

  • Precisión predictiva: las redes neuronales artificiales (ANN) y el modelo Kriging han demostrado ser muy precisos para optimizar la huella de carbono y la energía embebida, aunque tienden a sobreestimar ligeramente los valores observados.
  • Algoritmos metaheurísticos: el uso de algoritmos como NSGA-III, CTAEA y SMS-EMOA permite equilibrar objetivos en conflicto (rendimiento estructural frente a la constructibilidad), siendo NSGA-III el que muestra la mayor convergencia hacia el frente de Pareto.
  • Múltiples criterios (MCDM): se emplean métodos híbridos (BWM, TOPSIS, VIKOR y DEMATEL) para reducir la subjetividad del juicio experto y modelar las interdependencias causales entre los criterios de sostenibilidad.

5. Conclusiones y directrices de diseño

La síntesis de las fuentes permite establecer directrices prácticas para la infraestructura moderna:

  1. Priorizar la hibridación: El uso de secciones híbridas (de acero con distintos límites elásticos) y de sistemas mixtos de acero y hormigón ofrece las mayores ventajas económicas y medioambientales.
  2. Mantenimiento preventivo: en entornos agresivos (como las costas), la inversión inicial en materiales especiales (como el humo de sílice o las impregnaciones) compensa con creces la reducción de las intervenciones de mantenimiento reactivo.
  3. Enfoque holístico en la vivienda: la evaluación de los proyectos de vivienda social debe integrar obligatoriamente las dimensiones técnica y social, no solo la económica, para garantizar la resiliencia de la comunidad.
  4. Optimización desde el proyecto: La resiliencia al fuego y al colapso debe integrarse en la fase de diseño conceptual para evitar sobrecostes innecesarios en etapas avanzadas del proyecto.

Referencias:

  1. TRES JUNIOR, F.L.; DE MEDEIROS, G.F.; KRIPKA, M.; YEPES, V. (2026). Integrated Optimization Framework for Fire-Resilient and Sustainable Hybrid Steel-Concrete Composite Footbridges. Engineering Structures, 360, 122779. DOI:10.1016/j.engstruct.2026.122779
  2. GUAYGUA, B.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2026). A multi-criteria life-cycle decision framework for sustainable modular hospitals in seismic regions. Results in Engineering, 30, 110371. DOI:10.1016/j.rineng.2026.110371
  3. FERNÁNDEZ-MORA, V.; NAVARRO, I.J.; YEPES, V. (2026). Extending Building Lifespan: Integrating BIM and MCDM for Strategic Rehabilitation. Journal of Information Technology in Construction, 31:398-419. DOI:10.36680/j.itcon.2026.018
  4. LUQUE CASTILLO, X.; YEPES-BELLVER, L.; YEPES, V. (2026). Towards Sustainable Social Housing: An Integrative Life Cycle and Multi-Criteria ApproachSustainable Cities and Society, 137, 107164. DOI:10.1016/j.scs.2026.107164
  5. SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2026). Multivariate Environmental and Social Life Cycle Assessment of Circular Recycled-Plastic Voided Slabs for Data-Driven Sustainable Construction. Environmental Impact Assessment Review, 118, 108297. DOI:10.1016/j.eiar.2025.108297
  6. SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2026). Optimizing reactive maintenance intervals for the sustainable rehabilitation of chloride-exposed coastal buildings with MMC-based concrete structure. Environmental Impact Assessment Review, 116, 108110. DOI:10.1016/j.eiar.2025.108110
  7. TRES JUNIOR, F.L.; DE MEDEIROS, G.F.; KRIPKA, M.; YEPES, V. (2025). Designing for Safety and Sustainability: Optimization of Fire-Exposed Steel-Concrete Composite Footbridges. Structural Engineering and Mechanics, 96 (4):337-350. DOI:10.12989/sem.2025.96.4.337
  8. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Life-cycle environmental impact optimization of an RC-THVS composite frame for sustainable construction. Engineering Structures, 345, 121461. DOI:10.1016/j.engstruct.2025.121461 Featured Paper Award
  9. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Manufacturing cost optimization of welded steel plate I-girders integrating hybrid construction and tapered geometry. International Journal of Advanced Manufacturing Technology, 140, 1601-1624DOI:10.1007/s00170-025-16365-2
  10. NEGRÍN, I.; CHAGOYÉN, E.; KRIPKA, M.; YEPES, V. (2025). An integrated framework for Optimization-based Robust Design to Progressive Collapse of RC skeleton buildings incorporating Soil-Structure Interaction effects. Innovative Infrastructure Solutions, 10:446. DOI:10.1007/s41062-025-02243-z
  11. YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Predictive modeling for carbon footprint optimization of prestressed road flyovers. Applied Sciences15(17), 9591. DOI:10.3390/app15179591
  12. VILLALBA, P.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2025). A Hybrid Fuzzy DEMATEL–DANP–TOPSIS Framework for Life Cycle-Based Sustainable Retrofit Decision-Making in Seismic RC Structures. Mathematics, 13(16), 2649. DOI:10.3390/math13162649
  13. LUQUE CASTILLO, X.; YEPES, V. (2025). Multi-criteria decision methods in the evaluation of social housing projects. Journal of Civil Engineering and Management, 31(6), 608–630. DOI:10.3846/jcem.2025.24425
  14. LUQUE CASTILLO, X.; YEPES, V. (2025). Life Cycle Assessment of Social Housing Construction: A Multicriteria Approach. Building and Environment, 282:113294. DOI:10.1016/j.buildenv.2025.113294
  15. VITORIO JUNIOR, P.C.; YEPES, V.; ONETTA, F.; KRIPKA, M. (2025). Comparative Life Cycle Assessment of Warehouse Construction Systems under Distinct End-of-Life Scenarios. Buildings, 15(9), 1445. DOI:10.3390/buildings15091445
  16. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Design optimization of a composite typology based on RC columns and THVS girders to reduce economic cost, emissions, and embodied energy of frame building construction. Energy and Buildings, 336:115607. DOI:10.1016/j.enbuild.2025.115607
  17. FERNÁNDEZ-MORA, V.; NAVARRO, I.J.; YEPES, V. (2025). Structural damage index evaluation in BIM environmentsStructures, 74:108544. DOI:10.1016/j.istruc.2025.108544
  18. VILLALBA, P.; GUAYGUA, B.; YEPES, V. (2025). Optimal seismic retrofit alternative for shear deficient RC beams: a multiple criteria decision-making approach. Applied Sciences, 15(5):2424. DOI:10.3390/app15052424
  19. YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.
  20. MARTÍNEZ-MUÑOZ, D.; MARTÍ, J.V.; YEPES, V. (2025). Game Theory-Based Multi-Objective Optimization for Enhancing Environmental and Social Life Cycle Assessment in Steel-Concrete Composite Bridges. Mathematics, 13(2):273. DOI:10.3390/math13020273
  21. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementationEngineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487
  22. GUAYGUA, B.; SÁNCHEZ-GARRIDO, A.; YEPES, V. (2024). Life cycle assessment of seismic resistant prefabricated modular buildingsHeliyon, 10(20), e39458. DOI:10.1016/j.heliyon.2024.e39458
  23. YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2024). Artificial neural network and Kriging surrogate model for embodied energy optimization of prestressed slab bridges. Sustainability, 16(19), 8450. DOI:10.3390/su16198450
  24. RUIZ-VÉLEZ, A.; GARCÍA, J.; PARTSKHALADZE, G.; ALCALÁ, J.; YEPES, V. (2024). Enhanced Structural Design of Prestressed Arched Trusses through Multi-Objective Optimization and MCDM. Mathematics, 12(16), 2567. DOI:10.3390/math12162567
  25. SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2024). Sustainable preventive maintenance of MMC-based concrete building structures in a harsh environment. Journal of Building Engineering, 95:110155. DOI:10.1016/j.jobe.2024.110155

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El asombroso puente que desafió a la lógica: lecciones increíbles sobre cómo se construyó el Golden Gate

En la San Francisco de los años treinta, la idea de cruzar el estrecho de Golden Gate no era solo una ambición urbanística; para la mayoría de los ingenieros de la época, era una «locura» manifiesta. El escenario no podía ser más hostil: una lengua de agua de 1,6 kilómetros en la que las gélidas nieblas del Pacífico ocultan remolinos mortales y corrientes traicioneras que fluyen simultáneamente en direcciones opuestas. Se decía que la propia naturaleza había prohibido el paso por aquel abismo.

Sin embargo, tras cuatro años de una épica batalla entre el ingenio humano y los elementos, el 27 de mayo de 1937 se inauguró una estructura que redefinió la escala de lo posible. Con un coste de 35 millones de dólares de la época —una cifra colosal en plena Gran Depresión—, el gigante de acero se erigió en un símbolo de resiliencia. Hoy, como cronista de estas grandes hazañas, les invito a descubrir los secretos técnicos y los dramas humanos que mantienen en pie a este icono casi nueve décadas después.

De este puente tuve la oportunidad de hablar en el programa Memoria de Delfín, de RNE.   https://rneaudio.rtve.es/a/17043130

La batalla contra una naturaleza «confabulada»

El estrecho de Golden Gate fue calificado como el «peor lugar de Estados Unidos» para construir. No solo por los vientos huracanados, sino también por una geología submarina que exigió medidas extremas. Para asentar la Torre Sur, a 335 metros de la costa, fue necesario que buzos, provistos de precarias escafandras, se sumergieran en aguas oscuras y con fuertes corrientes.

La cimentación se realizó sobre roca de serpentinita, conocida por su excepcional dureza, por lo que los obreros tuvieron que colocar tubos de acero gigantes en el lecho marino para detonar dinamita bajo el agua y abrirse paso mediante explosiones. La construcción del muelle de acceso de 400 metros fue una verdadera etapa maldita: en agosto de 1933, un carguero desorientado por la niebla lo redujo a escombros y, tras ser reconstruido, un vendaval lo volvió a fracturar meses después.

«Como si la naturaleza quisiera demostrar la locura del proyecto, durante el primer año se registraron nieblas, tormentas y corrientes que pusieron en riesgo la viabilidad de la obra».

El «Club a medio camino del infierno» y la revolución de la seguridad

Joseph Strauss, el promotor del proyecto, sentía una obsesión casi mística por la seguridad en una época en la que la norma aceptada era «una muerte por cada millón de dólares invertidos». Para el puente Golden Gate, eso habría significado entre 30 y 35 fallecimientos. Strauss se negó a aceptar esa estadística y convirtió la obra en un laboratorio de prevención.

  • La red de salvación: Invirtió 9.000 dólares en una red de seguridad gigantesca, similar a la de los circos, extendida bajo el tablero. Esta red salvó la vida de 19 hombres que, tras caer al vacío, fundaron el exclusivo «Club a medio camino del infierno».
  • Innovaciones singulares: Fue el primer proyecto en exigir cascos de seguridad y el uso de cables de vida. Pero Strauss fue más allá: suministró gafas de sol para evitar la ceguera por el reflejo del metal y, curiosamente, promovió una dieta estricta y una «cura para la resaca a base de repollo» para garantizar que sus operarios, los «hombres del puente», estuvieran en plenas facultades en las alturas.

Pese a todo, la tragedia no pudo evitarse por completo: 11 hombres fallecieron, 10 de ellos en un solo accidente final, cuando un andamio colapsó y desgarró la red de seguridad.

El color «accidental» y el genio del art déco

Pocos saben que la imagen icónica del puente estuvo a punto de convertirse en una pesadilla visual. La Armada de Estados Unidos presionó con fuerza para que el puente se pintara con rayas amarillas y negras, a fin de garantizar la máxima visibilidad de sus barcos en la niebla.

Fue el arquitecto Irving Morrow quien salvó la estética del monumento. Morrow no solo diseñó los detalles art déco, como las estrías verticales de las torres y las farolas, sino que también defendió el tono «naranja internacional». Originalmente, este color era solo una capa protectora temporal de minio que se aplicaba al acero en las fábricas de Pensilvania. Morrow se dio cuenta de que este tono armonizaba con el paisaje de las colinas de Marin y ofrecía un contraste perfecto con el azul del mar y el blanco de la niebla. Lo que nació como una protección contra la corrosión salina terminó por convertirse en el alma del puente.

Puente colgante Golden Gate, en San Francisco. La segunda imagen corresponde al color que la Armada estadounidense quería. Joan Campderrós-i-Canas/CC BY 2.0; Golden Gate Bridge

El cerebro matemático en la sombra: el caso de Charles Ellis.

La historia oficial suele ensalzar a Joseph Strauss. Su primer diseño fue un híbrido industrial pesado que recordaba a un «gigantesco andamio de acero». El puente elegante que vemos hoy es, en gran medida, el mérito de Charles Ellis.

Ellis, un profesor de ingeniería meticuloso, fue el encargado de resolver las complejas ecuaciones diferenciales necesarias para garantizar la estabilidad estructural. Pasó meses realizando cálculos a mano para garantizar que el puente resistiera la flexión y el viento. Sin embargo, tras una disputa personal, Strauss lo despidió y borró su nombre de los registros. Ellis murió sin recibir el reconocimiento que merecía, y no fue hasta 2012 cuando se instaló una placa oficial que lo acreditó como el verdadero artífice de los cálculos que permiten que las torres de 227 metros y los 1,2 millones de remaches sigan sosteniendo la estructura.

El futuro en 2025: BIM y la amenaza del «Grande»

Si Joseph Strauss y Charles Ellis hubieran contado con la tecnología actual, el proceso habría sido completamente distinto. En la actualidad, el Golden Gate no es solo acero, sino también un ente digital. En una carrera contrarreloj para resistir un terremoto de magnitud 8,3 en la escala de Richter, se está llevando a cabo una rehabilitación científica valorada en unos 300 millones de euros.

  • BIM y Gemelos Digitales: Mediante el Building Information Modeling, los ingenieros actuales operan en una maqueta virtual que les permite simular sismos antes de realizar cambios físicos.
  • Sensores IoT: El puente cuenta ahora con un sistema de acelerómetros y tensiómetros que controlan en tiempo real la salud de los cables principales. Cabe destacar que estos cables son verdaderos monstruos de ingeniería: cada uno pesa 11.000 toneladas y está formado por 27.572 hilos de alambre individuales que, debido a su peso, tuvieron que ser «hilados» in situ en un proceso récord que duró apenas 6 meses y 9 días.

Conclusión: ¿Diseñamos hoy para la eternidad?

El Golden Gate es más que una vía de seis carriles que une San Francisco con el condado de Marin: es un testimonio de la voluntad humana. Strauss afirmó en su poema «The Mighty Task is Done» que el puente duraría «para siempre». Aunque la corrosión salina obliga a un mantenimiento constante, su visión de permanencia desafía la cultura de la obsolescencia actual.

Mientras los sismólogos advierten de la inminencia del Big One, la gran pregunta que nos hacemos como sociedad técnica es: ¿estamos construyendo nuestras megaestructuras modernas con la misma visión de permanencia milenaria que defendió Strauss o hemos perdido el espíritu de la «Gran Tarea» en favor de la eficiencia inmediata?

En esta conversación puedes escuchar lo más interesante sobre este puente.

Este vídeo resume bien el contenido de este artículo sobre el Golden Gate.

Golden_Gate_Living_Blueprint

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El «sesgo hacia el error»: por qué el futuro de la ingeniería depende de auditar la IA (y no solo de usarla)

La educación técnica atraviesa una tensión paradójica que amenaza los cimientos del pensamiento crítico. En las asignaturas de modelización y diseño estructural de los grados y másteres en Ingeniería de Caminos y Civil, la inteligencia artificial generativa (IAG) ha pasado de ser una novedad a convertirse en un estándar operativo. Sin embargo, esta adopción generalizada esconde un riesgo sistémico: el «desempleo cognitivo».

Datos recientes de la Universitat Politècnica de València (UPV) y la Universidad Politécnica de Cartagena (UPCT) revelan que, si bien el 60 % del alumnado utiliza estas herramientas, solo el 25 % revisa críticamente los resultados. La solución no consiste en imponer restricciones, sino en diseñar una arquitectura pedagógica que integre la IA como un «socio intelectual» bajo el enfoque de mindtools (Jonassen et al., 1999) para potenciar y no sustituir el pensamiento de orden superior.

Ante este desafío nace el proyecto PROFUNDIA. Nuestra misión es clara: transformar la IA de un «atajo peligroso» en un motor de aprendizaje profundo que refuerce la autonomía del futuro ingeniero.

El éxito no radica en la tecnología, sino en la arquitectura de la auditoría humana.

El hallazgo central de la investigación realizada sobre una muestra de 100 estudiantes subraya que la utilidad percibida de la IA no es una propiedad intrínseca del software, sino del proceso de supervisión. La resolución de problemas de alta responsabilidad física, en los que el error tiene consecuencias estructurales, depende de la capacidad de reformularlos y de una supervisión crítica.

En este nuevo paradigma, el valor profesional se desplaza del «saber hacer» procedimental —que puede automatizarse— al «saber validar». El éxito pedagógico está hoy condicionado por la arquitectura del proceso cognitivo de auditoría, en el que el ingeniero actúa como filtro final de la veracidad técnica.

«Los resultados obtenidos mediante análisis estadísticos multivariantes demuestran que el éxito no reside en el mero uso de la tecnología, sino en el proceso cognitivo de auditoría humana».

Ingeniería de la pregunta: el arte de iterar.

Uno de los pilares de la interacción estratégica es la «ingeniería de la pregunta». No se trata de un simple comando de texto, sino de un ejercicio de abstracción en el que el estudiante debe traducir variables estructurales y conceptos físicos en instrucciones lógicas. El estudio destaca que la clave de esta habilidad transversal no radica en el primer intento, sino en la capacidad de iterar.

El ítem 2 del estudio («Las iteraciones de los mensajes de texto me ayudaron a mejorar progresivamente la calidad») obtuvo una media de 4,11, lo que confirma que la calidad técnica surge de un diálogo dialéctico con la máquina. Este proceso de refinamiento constante combate la «complacencia tecnológica» y garantiza que el usuario mantenga el control sobre el resultado final.

El valor disruptivo de buscar deliberadamente el error.

La innovación docente más potente consiste en utilizar la IA con un «sesgo deliberado hacia el error». En lugar de aceptar la respuesta de la IA como una verdad absoluta, el flujo de trabajo propuesto obliga al alumnado a realizar un «contraste crítico»: primero, deben resolver el problema manualmente y, después, interpelar a la IA para buscar activamente la «alucinación» o el fallo técnico.

Este enfoque es crucial desde el punto de vista estadístico. El ítem 4 (comparación entre la resolución manual y la IA) se identificó, mediante modelos de regresión múltiple, como uno de los tres predictores clave del éxito. Al buscar el fallo, el estudiante activa una reflexión metacognitiva, aprende a pensar sobre cómo piensa y fortalece su criterio técnico al corregir el algoritmo.

De las aulas al mercado laboral: la transferibilidad de la autorregulación.

La relevancia de esta formación trasciende las calificaciones. Los datos son contundentes: la pregunta 9 («Las habilidades se pueden aplicar en contextos profesionales») obtuvo la puntuación más alta del cuestionario, 4,24. Los futuros ingenieros son conscientes de que la supervisión experta de sistemas automatizados ya es una competencia esencial en la industria moderna.

La solidez de este modelo se demuestra por su capacidad explicativa, ya que la valoración global de la IA (punto 10) se explica en un 37,7 % (R² corregida) por la combinación de tres factores: la capacidad de reformular el problema (punto 1), la detección de errores por contraste (punto 4) y la percepción de la transferibilidad profesional (punto 9).

«Esta metodología favorece la adquisición de competencias esenciales en entornos profesionales donde se requiere la supervisión experta de sistemas automatizados, y prepara al ingeniero para entornos de alta complejidad».

Conclusión: ingenieros de decisiones, no usuarios de software.

La inteligencia artificial, lejos de mermar el rigor científico, puede ser el mayor catalizador del aprendizaje profundo si se gestiona desde la «autorregulación crítica» (componente 1 del análisis factorial). El futuro de la ingeniería no pertenece a quienes saben usar herramientas, sino a quienes son capaces de enseñar, corregir y auditar a la máquina según criterios científicos y normativos.

En última instancia, nos enfrentamos a una pregunta que definirá la resiliencia de la profesión ante la obsolescencia tecnológica: en un contexto de automatización creciente, ¿estamos formando usuarios de software o educando a los ingenieros de las decisiones del mañana? La responsabilidad ética del ingeniero sigue siendo la última instancia de decisión, y esa carga no puede ni debe asumirla ningún algoritmo.

En esta conversación puedes escuchar las ideas más interesantes sobre el tema.

En este vídeo se resumen bien los conceptos vistos.

The_Engineering_AI_Blueprint

Referencia:

YEPES-BELLVER, L.; MARTÍNEZ-PAGÁN, P.; YEPES, V. (2026). Impacto de la inteligencia artificial en la formación técnica: aprendizaje profundo, metacognición y transferibilidad profesional. En libro de actas: XII Congreso de Innovación Educativa y Docencia en Red. Valencia, 9-10 de julio de 2026.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Inteligencia artificial y turismo: cuando el software aprende de la naturaleza para diseñar la ruta perfecta.

Gestionar la logística de un operador turístico consiste, en esencia, en intentar imponer orden a un sistema inherentemente caótico. El desafío es monumental: coordinar rutas a 30 destinos distintos desde un centro de operaciones como el de Alicante, con una flota limitada de cuatro aviones y quince tripulaciones, en el que cada asiento cuenta.

En este entorno de baja demanda, los costes son fijos, pero la realidad es volátil: las cancelaciones de última hora y las reservas inesperadas convierten los planes iniciales en papel mojado. ¿Cómo se puede determinar la rentabilidad cuando el escenario cambia cada minuto? La solución más avanzada no proviene de la programación lineal clásica, sino de los principios de la biología evolutiva.

Inspirado en el estudio de Medina y Yepes sobre la aplicación de algoritmos genéticos (AG) al problema de rutas de vehículos con capacidad (CVRP), este análisis desglosa cómo la «supervivencia del más apto» se traduce en una estabilidad financiera sin precedentes para el sector aéreo. Podéis descargar el artículo completo aquí.

La «naturaleza» como el mejor ingeniero de rutas.

En logística avanzada, los métodos deterministas tradicionales se topan con un obstáculo insalvable cuando el número de destinos crece exponencialmente. Calcular la ruta óptima para una red que abarque de Casablanca a Venecia mediante fuerza bruta matemática resulta inmanejable en términos computacionales. Los algoritmos genéticos resuelven este problema emulando la evolución mediante los procesos de selección, cruce y mutación. En lugar de buscar una única respuesta perfecta, el sistema mantiene una «población» de soluciones que compiten entre sí.

Este enfoque permite gestionar restricciones ambiguas o contradictorias, como maximizar la ocupación frente a minimizar el tiempo de vuelo, de una forma que la matemática rígida no puede. El AG no solo busca, sino que también aprende a explorar.

«La característica específica de los AG es la exploración paralela y eficiente del espacio de soluciones, basada en la explotación de soluciones óptimas inducidas por los operadores de cruce y en la exploración de soluciones nuevas forzada por los operadores de mutación».

El poder de los «Tres Padres»: una recombinación genética única.

La gran innovación técnica que se destaca en el estudio es el uso de un operador de recombinación de tres progenitores (three-parent edge-mapped recombination operator). Mientras que en la genética biológica la herencia es dual, en la optimización de redes de distribución tres progenitores ofrecen una mayor riqueza de datos para generar una «descendencia» (una ruta) más robusta.

Este método extrae las mejores conexiones (arcos) de tres soluciones distintas. Si una conexión específica aparece en dos o tres de los «padres», se preserva en el «hijo» porque se considera una pieza de alta eficiencia. Para garantizar la viabilidad de la ruta, el algoritmo incluye una lógica de resolución de conflictos: si tres arcos convergen en un mismo nodo de la descendencia, el sistema elimina aleatoriamente uno de ellos para mantener la estructura de la red. Este enfoque de triple herencia permite alcanzar soluciones óptimas con una velocidad y precisión que superan con creces a los cruces tradicionales de dos progenitores.

De la incertidumbre del 43 % a la estabilidad del 2,7 %.

El impacto real de los AG se mide en la transformación de la volatilidad en previsibilidad. Al modelar la demanda de destinos como Ajaccio, Túnez o Malta mediante estructuras estocásticas, el estudio revela una capacidad asombrosa para absorber la incertidumbre. Con una flota de cuatro aviones de cincuenta asientos y quince tripulaciones, el sistema gestionó un volumen total de aproximadamente ochocientos pasajeros, con métricas de eficiencia envidiables.

Los datos son elocuentes: mientras que la demanda individual por destino presenta un coeficiente de variación del 43 % —una pesadilla operativa—, la optimización diaria reduce la variabilidad del coste por pasajero transportado a un asombroso 2,7 %. En la práctica, esto significa:

  • Coste medio por pasajero: 118 EUR.
  • Ocupación media de asientos: 65 %.
  • Velocidad de crucero optimizada: 240 nudos.

El sistema es tan eficiente a la hora de reorganizar escalas y rutas en función de la demanda real que el impacto financiero final permanece prácticamente inalterado a pesar de las fluctuaciones del mercado.

El «fantasma en la máquina»: el riesgo de la robustez excesiva.

Desde la perspectiva de la transformación digital, los AG presentan una paradoja fascinante: su robustez puede ser su mayor peligro. Diseñado para ofrecer siempre una solución viable, un código con errores profundos puede seguir funcionando y entregando resultados «aparentemente buenos» sin que el sistema se colapse.

El riesgo no es el fallo catastrófico, sino el equilibrio subóptimo. Un error oculto en el algoritmo podría estar dejando sobre la mesa un 5 % o un 10 % de beneficio potencial, camuflado por la capacidad del algoritmo para «sobrevivir» a sus propios defectos de programación. Esto subraya la importancia de la supervisión experta, ya que en los sistemas que evolucionan por sí mismos la validación humana es la única garantía de que no operamos con una ineficiencia invisible pero costosa.

El futuro es la interacción humano-máquina.

Los AGV no son herramientas de reemplazo, sino de colaboración. El estudio subraya la importancia de la interfaz gráfica, que permite al gestor logístico interactuar con el proceso en tiempo real. Un ser humano puede «inyectar» soluciones basadas en su experiencia o en su intuición clínica, y el algoritmo las asimilará y refinará a lo largo de miles de generaciones.

Esta sinergia es fundamental para integrar los «costes virtuales». Mientras la máquina optimiza distancias y consumo de combustible, el ser humano puede definir variables subjetivas pero críticas, como la inconveniencia política de un aeropuerto en tensión o la complejidad social de una escala concreta. Al traducir estas percepciones en valores en la función de coste, el sistema evoluciona hacia una estrategia proactiva capaz de simular escenarios futuros en lugar de simplemente reaccionar ante las cancelaciones diarias.

Conclusión: hacia una logística evolutiva.

El éxito de la red de Alicante, que conecta 30 destinos del Mediterráneo y de Europa occidental, confirma un cambio de paradigma: en la logística moderna, la flexibilidad es más valiosa que la precisión absoluta. Los modelos rígidos se quiebran ante la volatilidad de la demanda, pero los sistemas evolutivos se fortalecen con ella.

En un mercado que no perdona la ineficiencia, la pregunta para los líderes del sector es clara: ¿es mejor buscar una solución «perfecta» una sola vez o diseñar un sistema que evolucione constantemente ante cada nuevo desafío? La respuesta, como demuestran Medina y Yepes, radica en aprender de la naturaleza para conquistar los cielos.

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

Este vídeo resume los aspectos clave del artículo.

Evolutionary_Tourism_Logistics

Referencia:

MEDINA, J.R.; YEPES, V. (2003). Optimization of touristic distribution networks using genetic algorithms. SORT, 27(1): 95-112.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Por qué los números exactos están matando tus proyectos? El poder de la lógica difusa en la construcción

En el sector de la construcción, cada proyecto es, por definición, un prototipo único que se ejecuta bajo restricciones de tiempo, coste y alcance. Sin embargo, seguimos atrapados en la tiranía de la precisión determinista, intentando predecir resultados con una exactitud quirúrgica que la realidad, siempre cambiante, termina por desmentir. El método del Valor Ganado (EVM) es, sin duda, nuestra mejor herramienta de control, pero su dependencia de números «fríos» pasa por alto la vaguedad inherente a los datos de entrada.

Gestionar un entorno complejo basándose en la ilusión de la precisión no solo constituye un error técnico, sino también un riesgo estratégico. La aplicación de la lógica difusa no debe entenderse como un mero ejercicio matemático, sino como un enfoque más honesto y robusto para gestionar el caos y la imprecisión que definen nuestra industria.

No es azar, es imprecisión: la distinción vital.

Debemos evitar el sesgo de precisión, que confunde dos conceptos fundamentales: la incertidumbre y la imprecisión. El modelo propuesto por Ponz-Tienda et al. (2012) establece una distinción clara que es vital para la toma de decisiones:

  • Incertidumbre: de naturaleza aleatoria, estadística o probabilística.
  • Imprecisión: se refiere a una naturaleza vagamente definida o incompleta (por ejemplo, estimaciones de duración como «alrededor de 10 días»).

Mientras que la estadística tradicional intenta domar el azar, la teoría de los conjuntos difusos es la arquitectura diseñada para manejar lo impreciso. Esta metodología permite realizar operaciones aritméticas con valores que, aunque no se conocen con exactitud, pueden limitarse a fronteras de pertenencia.

Zadeh argumenta que «la probabilidad y la lógica difusa son complementarias, no competitivas. Ambas pueden y deben coexistir para proporcionar herramientas de análisis de la incertidumbre en modelos complejos del mundo real y para cubrir los vacíos que los métodos tradicionales no pueden llenar».

El «dial» de la confianza: ajustando el corte alfa (α-cut).

Una de las innovaciones más importantes del modelo difuso es el corte alfa (α-cut). Este parámetro actúa como un «dial» de control que permite al gestor ajustar la sensibilidad del modelo según su propia confianza o tolerancia al riesgo.

  • Un α-cut igual a 0 representa el soporte del número difuso; es el escenario de máxima vaguedad e incertidumbre, en el que los límites son más amplios.
  • Un α-cut de 1 representa el núcleo (kernel), elimina toda la ambigüedad y equivale al método determinista tradicional.

Esta capacidad de ajuste permite adaptar el modelo a las circunstancias específicas del proyecto. En las primeras fases o en entornos volátiles, un α-cut bajo permite visualizar todo el espectro de riesgos, mientras que en entornos estables, el gestor puede «cerrar» el dial hacia la precisión del núcleo.

El mito del cronograma único: la realidad del diagrama de Gantt difuso.

La metodología tradicional suele presentarnos un único cronograma factible como si fuera «la verdad absoluta». No obstante, las conclusiones basadas en un único escenario son inherentemente poco fiables. En la práctica, existe un número ilimitado de alternativas entre los tiempos de ejecución más tempranos y los más tardíos.

El modelo difuso rompe este mito al generar un diagrama de Gantt difuso. Este gráfico no traza una línea, sino que establece los límites superior e inferior de todos los cronogramas posibles. Al utilizar aritmética difusa en lugar de cálculos lineales, el resultado es significativamente más objetivo y proporciona una banda de cumplimiento que refleja la flexibilidad real —y los cuellos de botella potenciales— de la obra.

De métricas abstractas a la salud del proyecto: interpretación lingüística.

El EVM tradicional nos proporciona índices que a menudo no reflejan fielmente el desarrollo real del proyecto. El modelo de Ponz-Tienda innova al traducir variaciones numéricas complejas en categorías lingüísticas claras para los interesados. Esta interpretación se divide en tres dimensiones críticas:

  • Variación de cronograma (SV): evalúa la conformidad del progreso real con el cronograma programado en términos de producción.
  • Variación de coste (CV): mide la conformidad presupuestaria del trabajo efectivamente ejecutado.
  • Earned Schedule (ESch): traduce el rendimiento en unidades de tiempo reales, evitando los errores del SV tradicional cuando el proyecto excede la fecha de finalización prevista.

Según este modelo, cada dimensión se clasifica en cinco escenarios (del A al E) según el valor de α. Así, un proyecto puede clasificarse estratégicamente como «ligeramente retrasado en tiempo (ESch)», pero «bajo presupuesto (CV)», lo que permite una comunicación mucho más efectiva y humana que un simple decimal.

Innovación integral: el valor ganado difuso.

La propuesta de Ponz-Tienda et al. (2012) va más allá de la literatura existente al integrar no solo la duración de las tareas, sino también el coste y la producción en una formulación difusa no lineal. Esto se aplica directamente al BCWS (coste presupuestado del trabajo programado) y al BCWP (valor ganado) y permite capturar la complejidad de las relaciones entre estas variables de una forma que el EVM clásico no puede procesar.

A pesar de su profundidad académica, este modelo no es una utopía inalcanzable. Se ha demostrado su viabilidad técnica para su implementación en herramientas cotidianas, como Microsoft Excel. Esto es esencial, ya que permite superar la barrera académica y llevar la metodología a la práctica empresarial, sirviendo de puente para el desarrollo de software comercial especializado para directores de proyectos.

Conclusión: hacia una gestión de proyectos más humana y robusta.

El enfoque del Valor Ganado Difuso nos ofrece una «visión de conjunto» que acepta la imprecisión del mundo real en lugar de ignorarla. Al adoptar este modelo, pasamos de gestionar basándonos en puntos ficticios a tomar decisiones basadas en rangos realistas y sólidos.

Es importante entender que esta contribución no es una herramienta «llave en mano», sino un punto de partida para especialistas. El futuro de la gestión de riesgos en la construcción depende de nuestra capacidad para refinar estos modelos y establecer el valor de α-cut más cercano a la realidad de cada obra.

Como líderes, la pregunta final es inevitable: ¿Seguiremos gestionando nuestros proyectos bajo la falsa comodidad de un número exacto o daremos el paso hacia la honestidad estratégica de un rango difuso que realmente refleje la realidad?

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

Este vídeo resume bien los conceptos explicados.

Fuzzy_Earned_Value_Management

Referencia:

PONZ-TIENDA, J.L.; PELLICER, E.; YEPES, V. (2012). Complete fuzzy scheduling and fuzzy earned value management in construction projects. Journal of Zhejiang University-SCIENCE A (Applied Physics & Engineering), 13(1):56-68. DOI:10.1631/jzus.A1100160

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Su obra es un hervidero de actividad, pero no de productividad.

Durante una visita a una obra, el estrépito de la maquinaria y el flujo constante de operarios suelen interpretarse como señales inequívocas de progreso. Sin embargo, para un experto en operaciones, esta actividad suele ser un espejismo. Existe una distinción crítica entre la inercia operativa —«estar ocupado»— y la optimización técnica —«ser productivo»—.

En el sector de la construcción, caracterizado por su trashumancia y alta temporalidad, la productividad no es una opción, sino un imperativo de supervivencia. Las empresas que no logran mejorar sus procesos frente a la competencia están, por definición, abocadas a la desaparición. No se trata simplemente de trabajar más duro o de acumular horas extra, sino de entender la relación entre lo producido y los recursos empleados. En un entorno de márgenes estrechos, ignorar esta distinción supone asumir un riesgo existencial.

Verdad 1: la trampa del volumen y la diferencia entre rendimiento y productividad.

Un error común en la alta dirección es confundir el aumento de la producción con una mejora de la eficiencia. La producción es una métrica de volumen, mientras que la productividad es una métrica de relación. Si el volumen de su obra aumenta un 15 % y el consumo de recursos (mano de obra, materiales y maquinaria) aumenta un 20 %, su empresa es técnicamente menos productiva que antes.

En este punto, surge una distinción vital para el gestor: la diferencia entre productividad y rendimiento.

  • El rendimiento es el cociente entre lo realizado y lo previsto.
  • La productividad, por su parte, es la relación técnica entre los bienes producidos y los recursos consumidos.

Un equipo puede mostrar un alto rendimiento al cumplir un cronograma mal planificado, pero puede tener una productividad muy baja al malgastar recursos para lograrlo. La verdadera ventaja competitiva nace de la optimización técnica, no solo de alcanzar metas de volumen.

«La productividad es la relación entre los bienes y servicios producidos y los recursos empleados para ello».

Verdad 2: el respeto al mínimo irreductible y la responsabilidad de la gerencia.

Todo proceso de construcción conlleva una «deuda oculta» de ineficiencia. Para auditarla, debemos descomponer el tiempo total de trabajo en tres categorías fundamentales:

  • Contenido básico de trabajo: el tiempo mínimo no reducible. Es el tiempo que tardaría el proceso en condiciones de diseño y de método perfectos.
  • Trabajo innecesario: tiempo suplementario generado por defectos de diseño, especificaciones mediocres o métodos de ejecución ineficaces.
  • Tiempo improductivo: aquel que se pierde y no aporta valor alguno.

Es imperativo que el líder del proyecto reconozca una verdad incómoda: la mayor parte del tiempo improductivo es un fallo de dirección. La falta de materiales, las instrucciones confusas o la mala programación de los subcontratistas son responsabilidades directas de la gerencia, no del operario. Reducir este tiempo no requiere que los trabajadores se muevan más rápido, sino que la dirección gestione mejor.

Verdad 3: la filosofía del «siempre hay un método mejor».

Cuando aceptamos que el desperdicio es, en gran medida, sistémico, debemos adoptar una actitud crítica. El estudio de los métodos no es una intervención técnica aislada, sino una postura intelectual ante el coste. La optimización más rentable no suele provenir de inversiones masivas en maquinaria, sino de la eliminación de prejuicios operativos. Los cinco pilares de esta mentalidad son:

  • Abordar los problemas con un espíritu abierto.
  • Eliminar ideas preconcebidas.
  • Aceptar solo hechos, no opiniones.
  • Actuar sobre las causas raíz, no sobre los efectos.
  • Partir de la premisa de que siempre hay un método mejor.

Esta mentalidad es el puente necesario para identificar los «ladrones de valor» más comunes en la obra, empezando por la logística interna.

Verdad 4: la manipulación de materiales es un «ladrón» de valor.

En ingeniería de métodos, el movimiento no es trabajo, sino coste. Mover un palé de ladrillos tres veces antes de colocarlos incrementa el coste de producción sin aportar valor al producto final.

«La manipulación de los materiales incrementa el coste de producción sin aportar valor al producto».

Para mitigar este impacto, la gestión debe aplicar estrictas reglas industriales: depositar los materiales a la altura de trabajo, minimizar las distancias de transporte, aprovechar la gravedad y asegurar que cada movimiento se realice con la carga máxima permitida. Cada segundo dedicado a un transporte innecesario es rentabilidad que se escapa al balance.

Verdad 5: la lógica de la simultaneidad y el reto de la tostadora.

La esencia de la ingeniería de métodos se resume en una herramienta: el diagrama de actividades simultáneas. Este diagrama muestra las interdependencias entre personas y máquinas para evitar tiempos muertos.

El famoso «reto de la tostadora» ilustra este concepto. Si tenemos tres rebanadas de pan y una tostadora que solo tuesta dos a la vez y por un solo lado, la lógica dicta que son necesarias cuatro operaciones.

Sin embargo, mediante un análisis de simultaneidad, un ingeniero reduce el proceso a tres: mientras se calienta el lado B de la primera rebanada, se retira la segunda y se introduce la tercera.

Este cambio en la secuencia lógica —hacer en tres lo que otros hacen en cuatro— es la base de la sincronización en la obra. Al coordinar el trabajo interdependiente, no se busca que el operario se agote, sino que los recursos (hombre y máquina) nunca estén ociosos esperando al otro.

Conclusión: hacia una cultura de la medición técnica.

No se puede gestionar lo que no se mide con rigor técnico. Para evaluar si una empresa constructora está progresando, debemos recurrir al Índice de Productividad Global (IPG).

La clave del IPG, basada en la lógica de Laspeyres, consiste en medir la evolución a precios constantes. Al valorar productos y recursos con los precios de un año base, eliminamos el efecto de la inflación y las fluctuaciones del mercado. Así, la productividad se convierte en una métrica de ingeniería pura que nos indica si somos mejores constructores, independientemente de si los materiales son más caros o si el mercado ha subido los precios de venta.

Antes de exigir más horas extras en su próximo proyecto, tómese un tiempo para observar el flujo de trabajo: ¿está optimizando el trabajo real o simplemente gestionando el desperdicio con más energía?

En esta conversación puedes escuchar las ideas más interesantes sobre este asunto.

Este vídeo resume bien el tema del estudio del trabajo.

Construction_Productivity_Engineering

Referencias:

PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente n.º 97.439. Ed. Universitat Politècnica de València. 256 pág. Depósito Legal: V-4598-1997. ISBN: 84-7721-551-0.

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442.

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376.

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.