Innovación en la construcción: Evaluación del liderazgo transformacional y la gestión del conocimiento

Acaban de publicar un artículo en el Journal of Civil Engineering & Management, una de las revistas ubicadas en el primer decil del JCR. Este documento técnico sintetiza los resultados de una investigación exhaustiva sobre los factores que impulsan la innovación en los sectores de la construcción y la consultoría en España.

El estudio analiza la influencia del liderazgo transformacional (TL) en la innovación de producto (PDI) y la innovación de procesos (PCI), y evalúa el papel mediador de la gestión del conocimiento (KG) y el intercambio de conocimiento (KS), bajo el efecto moderador del clima de innovación (IC).

Los resultados, obtenidos mediante un análisis de ecuaciones estructurales (SEM-AMOS) con una muestra de 185 profesionales, revelan que:

  1. El liderazgo transformacional impacta directamente en la innovación de productos, pero su efecto en la innovación de procesos es indirecto y depende de las estructuras de gobernanza formal.
  2. La gestión del conocimiento es un factor crítico para la innovación de procesos en entornos jerárquicos.
  3. El clima de innovación actúa como un catalizador que potencia la capacidad del líder para fomentar el intercambio de conocimientos.
  4. En sectores conservadores como la construcción, la estructura organizativa y los sistemas de incentivos son tan importantes como el estilo de liderazgo para desbloquear el potencial innovador.

1. Contexto y desafíos del sector.

El sector de la construcción se caracteriza por ser tradicionalmente conservador, reactivo y resistente al cambio. Las empresas de este ámbito se enfrentan a desafíos multifacéticos derivados de:

  • Volatilidad global: cambios acelerados y necesidades de los clientes en constante evolución.
  • Disrupción tecnológica: necesidad estratégica de adoptar innovaciones para asegurar el éxito a largo plazo.
  • Estructuras jerárquicas: la naturaleza de los proyectos y las culturas organizativas rígidas obstaculizan la proactividad en la innovación.

2. Marco teórico y variables del estudio.

La investigación se basa en la interconexión de cinco constructos principales, que se definen a continuación:

Constructo Descripción
Liderazgo transformacional Estilo de gestión que motiva a los equipos hacia el cambio mediante la influencia idealizada, la motivación inspiracional, la estimulación intelectual y la consideración individualizada.
Gestión del conocimiento Conjunto de mecanismos formales (estructuras, recompensas) e informales (redes, cultura) para optimizar el intercambio y uso del conocimiento.
Intercambio de conocimiento Proceso mediante el cual individuos y equipos intercambian información, habilidades y experiencia.
Innovación de producto Introducción de productos o servicios nuevos o mejorados para satisfacer las necesidades del mercado.
Innovación de procesos Mejora de los procedimientos operativos internos y de la eficiencia organizativa.
Clima de innovación Entorno percibido que apoya y fomenta la generación y la aplicación de ideas creativas.

3. Análisis de resultados e impactos directos.

El estudio valida la mayoría de las hipótesis propuestas y destaca una divergencia significativa en la manera en que el liderazgo incide en los distintos tipos de innovación.

El impacto diferencial del liderazgo transformacional (TL)

  • Sobre la innovación de producto (PDI): el TL muestra un efecto fuerte y significativo (β = 0,548, p < 0,001). Los líderes transformadores fomentan la creatividad individual y la seguridad psicológica, lo que facilita el desarrollo de nuevos materiales o diseños.
  • Sobre la innovación de procesos (PCI): el efecto directo no es significativo (β = 0,102). Esto sugiere que, en el sector de la construcción, los cambios en los procesos dependen más de factores estructurales e inversión tecnológica que de la motivación inspiracional.

El papel de la gobernanza y el intercambio de conocimiento

  • KG como motor de PCI: la gobernanza del conocimiento influye de manera significativa en la innovación de procesos (β = 0,508, p < 0,001), lo que subraya la importancia de la estandarización y de los sistemas formales de gestión.
  • KS como motor de PDI: el intercambio de conocimiento impacta de manera moderada en el producto (β = 0,373, p < 0,001), lo que facilita la integración de conocimientos multidisciplinares.

4. Dinámicas de mediación y moderación.

La investigación profundiza en cómo las variables intermedias inciden en la eficacia del liderazgo.

Mediación de la gestión (KG) y del intercambio (KS).

  • Efecto en el PCI: la relación entre el liderazgo transformacional y la innovación de procesos está totalmente mediada por la gobernanza del conocimiento. En contextos estructurados, el líder solo puede innovar en los procesos si primero reforma los sistemas de incentivos y de gobernanza.
  • Efecto en PDI: el intercambio de conocimientos (KS) explica aproximadamente el 20 % de la relación entre el liderazgo y la innovación de producto. El 80 % restante se atribuye a mecanismos no medidos, como el empoderamiento o la visión estratégica.

El clima de innovación (IC) como catalizador.

El estudio demuestra que el clima de innovación no garantiza por sí solo el intercambio de conocimientos, sino que actúa como un moderador contingente.

  • Interacción TL x IC: existe un efecto positivo moderado (β = 0,141, p < 0,1). En las organizaciones con un alto IC, el impacto del liderazgo transformacional en el intercambio de conocimientos se intensifica.
  • Dato clave: un aumento de una desviación estándar en el liderazgo transformacional, en presencia de un clima innovador alto, genera un incremento del 14 % en el intercambio de conocimientos.

5. Metodología y perfil de la muestra

El estudio se basó en una metodología cuantitativa deductiva aplicada al sector de la construcción en España.

Datos de la muestra (N = 185):

  • Profesiones principales: ingenieros de caminos, canales y puertos (33,5 %), ingenieros civiles (29,7 %) y arquitectos (21,1 %).
  • Género: masculino (69,2 %), femenino (30,8 %).
  • Nivel educativo: el 45,4 % posee un máster universitario.
  • Antigüedad de las empresas: El 44,9 % de las empresas tiene más de 20 años de existencia.
  • Tamaño de las empresas: Distribución equilibrada entre micro (24,3 %), pequeñas (34,6 %), medianas (23,8 %) y grandes (17,3 %).

6. Implicaciones prácticas para la gestión

Para los directivos de los sectores de la construcción y la consultoría, los resultados sugieren una hoja de ruta estratégica:

  1. Formación en liderazgo: implementar programas de mentoría y entrenamiento en habilidades transformadoras, orientados a desarrollar la capacidad de inspirar una visión compartida.
  2. Institucionalizar la gestión: para mejorar los procesos (PCI) implica invertir en repositorios de «lecciones aprendidas» y en sistemas de gestión del conocimiento que trasciendan la jerarquía formal.
  3. Incentivos a la innovación: establecer sistemas de recompensas que reconozcan comportamientos innovadores, como el intercambio de conocimientos técnicos en proyectos con restricciones complejas.
  4. Uso de tecnologías: adoptar herramientas como el Building Information Modeling (BIM) para facilitar los flujos de conocimiento y la colaboración interdepartamental.

7. Conclusiones y limitaciones

La investigación concluye que la innovación en el sector de la construcción no es un resultado automático del liderazgo, sino un proceso mediado por la estructura de gobernanza y potenciado por el clima organizativo. La integración del liderazgo transformacional con una gobernanza sólida es la forma más eficaz de mantener la ventaja competitiva.

Limitaciones identificadas:

  • Datos autoinformados: el uso de escalas de Likert puede introducir sesgos de deseabilidad social.
  • Diseño transversal: los datos se recopilaron en un único momento (septiembre-diciembre de 2022), lo que limita las inferencias causales definitivas.
  • Contexto geográfico: los resultados están anclados en la realidad regulatoria y cultural de España.

Como el artículo está en acceso abierto, puedes descargarlo gratis pinchando directamente en el enlace de la referencia.

Referencia:

LOPEZ, S.; YEPES, V. (2026). Innovation in construction: Assessing the role of transformational leadership and knowledge governance. Journal of Civil Engineering and Management, 32(3), 433-455. DOI:10.3846/jcem.2026.24919

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Resultados intermedios del proyecto de investigación RESILIFE

En este momento, estamos elaborando la justificación técnica y económica del proyecto de investigación RESILIFE. Los investigadores principales son Víctor Yepes y Julián Alcalá. El proyecto comenzó el 1 de septiembre de 2024 y se prevé que finalice a finales de 2027. Hemos hablado mucho de este proyecto en el blog.

Se trata del proyecto PID2023-150003OB-I00, cuya denominación es: «Optimización resiliente del ciclo de vida de estructuras híbridas y modulares de alta eficiencia social y medioambiental bajo condiciones extremas».

En la fase intermedia del proyecto, se han publicado 25 artículos en revistas indexadas en el JCR, de los cuales 17 están en el primer cuartil y 8 en el segundo. Pero quizás sea importante destacar que de ellos, 13 se han publicado en revistas del primer decil. Entre ellos tenemos un Featured Paper Award de Engineering Structures. En las referencias, al final de esta entrada, tenéis los artículos y sus enlaces para su descarga.

Este esfuerzo ha sido fruto del trabajo de un buen número de investigadores de distintas nacionalidades. Han participado 22 autores: Yepes, Kripka, Sánchez-Garrido, Yepes-Bellver, Navarro, Negrín, Alcalá, Luque Castillo, Guaygua, Tres Junior, De Medeiros, Villalba, Fernández-Mora, Brun-Izquierdo, Martínez-Muñoz, Martí, Ruiz-Vélez, García, Partskhaladze, Vitorio Junior, Onetta y Chagoyén. Hay presencia internacional en países como Brasil, Chile, Ecuador, Perú, Georgia y Cuba.

La investigación reciente en ingeniería civil y construcción, sintetizada en el proyecto RESILIFE y en estudios asociados, marca un cambio de paradigma hacia un enfoque de diseño integral. Este enfoque trasciende la mera eficiencia económica para integrar la resiliencia ante eventos extremos (incendios, sismos y colapsos progresivos), la sostenibilidad multidimensional (ambiental, social y económica) y la eficiencia operativa mediante la digitalización.

Avances en optimización multiobjetivo, sostenibilidad y resiliencia en la ingeniería estructural

Los hallazgos clave incluyen:

  • Sistemas híbridos y modulares: las tipologías de acero y hormigón, así como los sistemas modulares prefabricados (PVMB), demuestran una superioridad técnica y medioambiental significativa. Por ejemplo, las vigas híbridas de sección transversal variable (THVS) pueden reducir los costes de fabricación hasta en un 70 % y las emisiones en un 32 %.
  • Resiliencia integrada: la incorporación de la seguridad contra incendios y de un diseño robusto frente al colapso progresivo en las fases conceptuales no solo mejora la seguridad, sino que también puede optimizar costes (reducción de hasta el 21 % en pasarelas con requisitos de confort dinámico).
  • Sostenibilidad social: el análisis del ciclo de vida social (S-LCA) emerge como un factor crítico, especialmente en viviendas sociales, donde los aspectos sociales representan casi el 40 % del peso en la toma de decisiones.
  • Digitalización y modelado: el uso de BIM (herramientas como Endurify 2.0) y modelos subrogados (redes neuronales y Kriging) permite gestionar con precisión la vida útil remanente y optimizar la huella de carbono con errores predictivos mínimos.

1. Optimización multiobjetivo y resiliencia ante eventos extremos

La integración de factores de riesgo extremo como criterio principal de diseño permite desarrollar infraestructuras más seguras sin comprometer la viabilidad económica.

1.1 Resiliencia al fuego en pasarelas híbridas

  • Enfoque integrado: se propone el rendimiento ante el fuego como motor de diseño, junto con el coste, el impacto ambiental y la comodidad del peatón.
  • Configuraciones óptimas: se recomienda utilizar acero de menor resistencia en el alma y de mayor en las alas (una relación de límite elástico de aproximadamente 1,6).
  • Compromisos de diseño: existe una dicotomía geométrica, ya que las vigas más compactas mejoran la seguridad frente a incendios, mientras que las geometrías esbeltas favorecen el rendimiento dinámico. Una inversión adicional del 23 % en el coste puede evitar el colapso durante 10 minutos de exposición al fuego.

1.2 Resistencia al colapso progresivo (PC) y sismos

  • Marco OBDRPC: este marco integra principios de diseño resistente al colapso progresivo y de optimización basada en simulaciones, en los que se considera la interacción suelo-estructura (SSI).
  • El impacto de la interacción suelo-estructura puede generar diferencias de hasta el 24,29 % en el uso de materiales de la superestructura si no se tiene en cuenta dicha interacción.
  • Sistemas modulares en zonas sísmicas: en regiones como Quito, los sistemas modulares de acero laminado en caliente ofrecen el mejor rendimiento global, ya que reducen los tiempos de construcción y el impacto social, aunque los costes iniciales son más altos.
  • Refuerzo sísmico: el uso de polímeros reforzados con fibra de carbono (CFRP) se identifica como la mejor alternativa para el refuerzo de las vigas de hormigón deficientes, debido a su menor impacto ambiental y social en comparación con el encamisado de acero o de hormigón.

2. Sostenibilidad y análisis del ciclo de vida (ACV)

La sostenibilidad se evalúa mediante un enfoque de «triple balance» que abarca las dimensiones económicas (LCC), ambientales (LCA) y sociales (S-LCA).

2.1. Descarbonización y eficiencia de materiales

  • Puentes y pasarelas: la optimización de los pasos superiores de las carreteras puede reducir la huella de carbono en un 12 %. En los puentes de losa pretensados, se recomienda una relación de esbeltez de 1/28 y hormigón C-40 para maximizar la eficiencia energética.
  • Economía circular: el uso de losas aligeradas con plástico reciclado reduce el consumo de hormigón y acero entre un 23 % y un 33 %, lo que se traduce en una disminución del 24 % del potencial de calentamiento global.
  • Relación coste-emisiones: Se ha identificado una relación lineal: cada dólar ahorrado en la optimización de pasarelas reduce las emisiones de CO2 en aproximadamente 0,7727 kg por metro.

2.2 Dimensión social de la construcción

  • Vivienda social: el sistema Light Steel Frame (LSF) destaca como la opción más favorable en contextos de desarrollo, ya que ofrece un buen equilibrio entre coste, durabilidad y menor mantenimiento.
  • Riesgos sociales: la implementación de sistemas de construcción circular y modelos de optimización reduce los riesgos sociales hasta en un 20 % en las categorías de trabajadores y de la comunidad local.

3. Tipologías estructurales innovadoras.

El desarrollo de nuevas geometrías y combinaciones de materiales es fundamental para la eficiencia industrial.

Tipología Beneficios clave identificados
Vigas THVS (híbridas transversales de sección variable) Reducción de costes de fabricación hasta el 70%; reducción de emisiones hasta el 32%; menor carga axial en columnas y cimientos debido a la reducción del peso propio.
Sistemas modulares (PVMB) Despliegue más rápido, mayor resiliencia social y reducción de los impactos ambientales en comparación con los métodos convencionales in situ.
Estructuras MMC en costa El uso de cemento sulforresistente, impregnación hidrofóbica y humo de sílice aumenta la calificación de sostenibilidad en un 86% frente a diseños base en ambientes marinos agresivos.
Almacenes de acero con cerramientos de acero Menor impacto ambiental que el de los cerramientos de ladrillo o de bloques de hormigón, especialmente en escenarios de reciclaje al final de la vida útil.

4. Digitalización y herramientas de decisión.

La complejidad de los criterios de competencia exige el uso de herramientas informáticas avanzadas.

4.1 BIM y gestión de la vida útil

  • Endurify 2.0: este complemento para entornos BIM automatiza la planificación de la rehabilitación estructural y estima la vida útil remanente (RUL). Su aplicación reduce los costes totales en un 15 % y el impacto por proximidad en un 10 % en comparación con la planificación basada en expertos.
  • Indicadores de daño: el sistema analiza cuatro indicadores críticos: carbonatación, fisuración transversal, fluencia y deflexión.

4.2. Modelos subrogados y algoritmos de optimización

  • Precisión predictiva: las redes neuronales artificiales (ANN) y el modelo Kriging han demostrado ser muy precisos para optimizar la huella de carbono y la energía embebida, aunque tienden a sobreestimar ligeramente los valores observados.
  • Algoritmos metaheurísticos: el uso de algoritmos como NSGA-III, CTAEA y SMS-EMOA permite equilibrar objetivos en conflicto (rendimiento estructural frente a la constructibilidad), siendo NSGA-III el que muestra la mayor convergencia hacia el frente de Pareto.
  • Múltiples criterios (MCDM): se emplean métodos híbridos (BWM, TOPSIS, VIKOR y DEMATEL) para reducir la subjetividad del juicio experto y modelar las interdependencias causales entre los criterios de sostenibilidad.

5. Conclusiones y directrices de diseño

La síntesis de las fuentes permite establecer directrices prácticas para la infraestructura moderna:

  1. Priorizar la hibridación: El uso de secciones híbridas (de acero con distintos límites elásticos) y de sistemas mixtos de acero y hormigón ofrece las mayores ventajas económicas y medioambientales.
  2. Mantenimiento preventivo: en entornos agresivos (como las costas), la inversión inicial en materiales especiales (como el humo de sílice o las impregnaciones) compensa con creces la reducción de las intervenciones de mantenimiento reactivo.
  3. Enfoque holístico en la vivienda: la evaluación de los proyectos de vivienda social debe integrar obligatoriamente las dimensiones técnica y social, no solo la económica, para garantizar la resiliencia de la comunidad.
  4. Optimización desde el proyecto: La resiliencia al fuego y al colapso debe integrarse en la fase de diseño conceptual para evitar sobrecostes innecesarios en etapas avanzadas del proyecto.

Referencias:

  1. TRES JUNIOR, F.L.; DE MEDEIROS, G.F.; KRIPKA, M.; YEPES, V. (2026). Integrated Optimization Framework for Fire-Resilient and Sustainable Hybrid Steel-Concrete Composite Footbridges. Engineering Structures, 360, 122779. DOI:10.1016/j.engstruct.2026.122779
  2. GUAYGUA, B.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2026). A multi-criteria life-cycle decision framework for sustainable modular hospitals in seismic regions. Results in Engineering, 30, 110371. DOI:10.1016/j.rineng.2026.110371
  3. FERNÁNDEZ-MORA, V.; NAVARRO, I.J.; YEPES, V. (2026). Extending Building Lifespan: Integrating BIM and MCDM for Strategic Rehabilitation. Journal of Information Technology in Construction, 31:398-419. DOI:10.36680/j.itcon.2026.018
  4. LUQUE CASTILLO, X.; YEPES-BELLVER, L.; YEPES, V. (2026). Towards Sustainable Social Housing: An Integrative Life Cycle and Multi-Criteria ApproachSustainable Cities and Society, 137, 107164. DOI:10.1016/j.scs.2026.107164
  5. SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2026). Multivariate Environmental and Social Life Cycle Assessment of Circular Recycled-Plastic Voided Slabs for Data-Driven Sustainable Construction. Environmental Impact Assessment Review, 118, 108297. DOI:10.1016/j.eiar.2025.108297
  6. SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2026). Optimizing reactive maintenance intervals for the sustainable rehabilitation of chloride-exposed coastal buildings with MMC-based concrete structure. Environmental Impact Assessment Review, 116, 108110. DOI:10.1016/j.eiar.2025.108110
  7. TRES JUNIOR, F.L.; DE MEDEIROS, G.F.; KRIPKA, M.; YEPES, V. (2025). Designing for Safety and Sustainability: Optimization of Fire-Exposed Steel-Concrete Composite Footbridges. Structural Engineering and Mechanics, 96 (4):337-350. DOI:10.12989/sem.2025.96.4.337
  8. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Life-cycle environmental impact optimization of an RC-THVS composite frame for sustainable construction. Engineering Structures, 345, 121461. DOI:10.1016/j.engstruct.2025.121461 Featured Paper Award
  9. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Manufacturing cost optimization of welded steel plate I-girders integrating hybrid construction and tapered geometry. International Journal of Advanced Manufacturing Technology, 140, 1601-1624DOI:10.1007/s00170-025-16365-2
  10. NEGRÍN, I.; CHAGOYÉN, E.; KRIPKA, M.; YEPES, V. (2025). An integrated framework for Optimization-based Robust Design to Progressive Collapse of RC skeleton buildings incorporating Soil-Structure Interaction effects. Innovative Infrastructure Solutions, 10:446. DOI:10.1007/s41062-025-02243-z
  11. YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Predictive modeling for carbon footprint optimization of prestressed road flyovers. Applied Sciences15(17), 9591. DOI:10.3390/app15179591
  12. VILLALBA, P.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2025). A Hybrid Fuzzy DEMATEL–DANP–TOPSIS Framework for Life Cycle-Based Sustainable Retrofit Decision-Making in Seismic RC Structures. Mathematics, 13(16), 2649. DOI:10.3390/math13162649
  13. LUQUE CASTILLO, X.; YEPES, V. (2025). Multi-criteria decision methods in the evaluation of social housing projects. Journal of Civil Engineering and Management, 31(6), 608–630. DOI:10.3846/jcem.2025.24425
  14. LUQUE CASTILLO, X.; YEPES, V. (2025). Life Cycle Assessment of Social Housing Construction: A Multicriteria Approach. Building and Environment, 282:113294. DOI:10.1016/j.buildenv.2025.113294
  15. VITORIO JUNIOR, P.C.; YEPES, V.; ONETTA, F.; KRIPKA, M. (2025). Comparative Life Cycle Assessment of Warehouse Construction Systems under Distinct End-of-Life Scenarios. Buildings, 15(9), 1445. DOI:10.3390/buildings15091445
  16. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Design optimization of a composite typology based on RC columns and THVS girders to reduce economic cost, emissions, and embodied energy of frame building construction. Energy and Buildings, 336:115607. DOI:10.1016/j.enbuild.2025.115607
  17. FERNÁNDEZ-MORA, V.; NAVARRO, I.J.; YEPES, V. (2025). Structural damage index evaluation in BIM environmentsStructures, 74:108544. DOI:10.1016/j.istruc.2025.108544
  18. VILLALBA, P.; GUAYGUA, B.; YEPES, V. (2025). Optimal seismic retrofit alternative for shear deficient RC beams: a multiple criteria decision-making approach. Applied Sciences, 15(5):2424. DOI:10.3390/app15052424
  19. YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.
  20. MARTÍNEZ-MUÑOZ, D.; MARTÍ, J.V.; YEPES, V. (2025). Game Theory-Based Multi-Objective Optimization for Enhancing Environmental and Social Life Cycle Assessment in Steel-Concrete Composite Bridges. Mathematics, 13(2):273. DOI:10.3390/math13020273
  21. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementationEngineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487
  22. GUAYGUA, B.; SÁNCHEZ-GARRIDO, A.; YEPES, V. (2024). Life cycle assessment of seismic resistant prefabricated modular buildingsHeliyon, 10(20), e39458. DOI:10.1016/j.heliyon.2024.e39458
  23. YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2024). Artificial neural network and Kriging surrogate model for embodied energy optimization of prestressed slab bridges. Sustainability, 16(19), 8450. DOI:10.3390/su16198450
  24. RUIZ-VÉLEZ, A.; GARCÍA, J.; PARTSKHALADZE, G.; ALCALÁ, J.; YEPES, V. (2024). Enhanced Structural Design of Prestressed Arched Trusses through Multi-Objective Optimization and MCDM. Mathematics, 12(16), 2567. DOI:10.3390/math12162567
  25. SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2024). Sustainable preventive maintenance of MMC-based concrete building structures in a harsh environment. Journal of Building Engineering, 95:110155. DOI:10.1016/j.jobe.2024.110155

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Por qué los números exactos están matando tus proyectos? El poder de la lógica difusa en la construcción

En el sector de la construcción, cada proyecto es, por definición, un prototipo único que se ejecuta bajo restricciones de tiempo, coste y alcance. Sin embargo, seguimos atrapados en la tiranía de la precisión determinista, intentando predecir resultados con una exactitud quirúrgica que la realidad, siempre cambiante, termina por desmentir. El método del Valor Ganado (EVM) es, sin duda, nuestra mejor herramienta de control, pero su dependencia de números «fríos» pasa por alto la vaguedad inherente a los datos de entrada.

Gestionar un entorno complejo basándose en la ilusión de la precisión no solo constituye un error técnico, sino también un riesgo estratégico. La aplicación de la lógica difusa no debe entenderse como un mero ejercicio matemático, sino como un enfoque más honesto y robusto para gestionar el caos y la imprecisión que definen nuestra industria.

No es azar, es imprecisión: la distinción vital.

Debemos evitar el sesgo de precisión, que confunde dos conceptos fundamentales: la incertidumbre y la imprecisión. El modelo propuesto por Ponz-Tienda et al. (2012) establece una distinción clara que es vital para la toma de decisiones:

  • Incertidumbre: de naturaleza aleatoria, estadística o probabilística.
  • Imprecisión: se refiere a una naturaleza vagamente definida o incompleta (por ejemplo, estimaciones de duración como «alrededor de 10 días»).

Mientras que la estadística tradicional intenta domar el azar, la teoría de los conjuntos difusos es la arquitectura diseñada para manejar lo impreciso. Esta metodología permite realizar operaciones aritméticas con valores que, aunque no se conocen con exactitud, pueden limitarse a fronteras de pertenencia.

Zadeh argumenta que «la probabilidad y la lógica difusa son complementarias, no competitivas. Ambas pueden y deben coexistir para proporcionar herramientas de análisis de la incertidumbre en modelos complejos del mundo real y para cubrir los vacíos que los métodos tradicionales no pueden llenar».

El «dial» de la confianza: ajustando el corte alfa (α-cut).

Una de las innovaciones más importantes del modelo difuso es el corte alfa (α-cut). Este parámetro actúa como un «dial» de control que permite al gestor ajustar la sensibilidad del modelo según su propia confianza o tolerancia al riesgo.

  • Un α-cut igual a 0 representa el soporte del número difuso; es el escenario de máxima vaguedad e incertidumbre, en el que los límites son más amplios.
  • Un α-cut de 1 representa el núcleo (kernel), elimina toda la ambigüedad y equivale al método determinista tradicional.

Esta capacidad de ajuste permite adaptar el modelo a las circunstancias específicas del proyecto. En las primeras fases o en entornos volátiles, un α-cut bajo permite visualizar todo el espectro de riesgos, mientras que en entornos estables, el gestor puede «cerrar» el dial hacia la precisión del núcleo.

El mito del cronograma único: la realidad del diagrama de Gantt difuso.

La metodología tradicional suele presentarnos un único cronograma factible como si fuera «la verdad absoluta». No obstante, las conclusiones basadas en un único escenario son inherentemente poco fiables. En la práctica, existe un número ilimitado de alternativas entre los tiempos de ejecución más tempranos y los más tardíos.

El modelo difuso rompe este mito al generar un diagrama de Gantt difuso. Este gráfico no traza una línea, sino que establece los límites superior e inferior de todos los cronogramas posibles. Al utilizar aritmética difusa en lugar de cálculos lineales, el resultado es significativamente más objetivo y proporciona una banda de cumplimiento que refleja la flexibilidad real —y los cuellos de botella potenciales— de la obra.

De métricas abstractas a la salud del proyecto: interpretación lingüística.

El EVM tradicional nos proporciona índices que a menudo no reflejan fielmente el desarrollo real del proyecto. El modelo de Ponz-Tienda innova al traducir variaciones numéricas complejas en categorías lingüísticas claras para los interesados. Esta interpretación se divide en tres dimensiones críticas:

  • Variación de cronograma (SV): evalúa la conformidad del progreso real con el cronograma programado en términos de producción.
  • Variación de coste (CV): mide la conformidad presupuestaria del trabajo efectivamente ejecutado.
  • Earned Schedule (ESch): traduce el rendimiento en unidades de tiempo reales, evitando los errores del SV tradicional cuando el proyecto excede la fecha de finalización prevista.

Según este modelo, cada dimensión se clasifica en cinco escenarios (del A al E) según el valor de α. Así, un proyecto puede clasificarse estratégicamente como «ligeramente retrasado en tiempo (ESch)», pero «bajo presupuesto (CV)», lo que permite una comunicación mucho más efectiva y humana que un simple decimal.

Innovación integral: el valor ganado difuso.

La propuesta de Ponz-Tienda et al. (2012) va más allá de la literatura existente al integrar no solo la duración de las tareas, sino también el coste y la producción en una formulación difusa no lineal. Esto se aplica directamente al BCWS (coste presupuestado del trabajo programado) y al BCWP (valor ganado) y permite capturar la complejidad de las relaciones entre estas variables de una forma que el EVM clásico no puede procesar.

A pesar de su profundidad académica, este modelo no es una utopía inalcanzable. Se ha demostrado su viabilidad técnica para su implementación en herramientas cotidianas, como Microsoft Excel. Esto es esencial, ya que permite superar la barrera académica y llevar la metodología a la práctica empresarial, sirviendo de puente para el desarrollo de software comercial especializado para directores de proyectos.

Conclusión: hacia una gestión de proyectos más humana y robusta.

El enfoque del Valor Ganado Difuso nos ofrece una «visión de conjunto» que acepta la imprecisión del mundo real en lugar de ignorarla. Al adoptar este modelo, pasamos de gestionar basándonos en puntos ficticios a tomar decisiones basadas en rangos realistas y sólidos.

Es importante entender que esta contribución no es una herramienta «llave en mano», sino un punto de partida para especialistas. El futuro de la gestión de riesgos en la construcción depende de nuestra capacidad para refinar estos modelos y establecer el valor de α-cut más cercano a la realidad de cada obra.

Como líderes, la pregunta final es inevitable: ¿Seguiremos gestionando nuestros proyectos bajo la falsa comodidad de un número exacto o daremos el paso hacia la honestidad estratégica de un rango difuso que realmente refleje la realidad?

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

Este vídeo resume bien los conceptos explicados.

Fuzzy_Earned_Value_Management

Referencia:

PONZ-TIENDA, J.L.; PELLICER, E.; YEPES, V. (2012). Complete fuzzy scheduling and fuzzy earned value management in construction projects. Journal of Zhejiang University-SCIENCE A (Applied Physics & Engineering), 13(1):56-68. DOI:10.1631/jzus.A1100160

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Optimización paramétrica de vigas alveolares mixtas para minimizar la huella de carbono

Nuestras ciudades crecen a un ritmo vertiginoso, pero este progreso esconde una crisis climática silenciosa en sus cimientos. Según el reciente informe Global Status Report for Buildings and Construction 2024/2025, el sector de la edificación es responsable del 32 % del consumo mundial de energía y del alarmante 34 % de las emisiones de CO₂. En este contexto, el acero y el cemento se perfilan como los principales responsables, ya que representan por sí solos el 18 % de la huella de carbono total del sector.

Ante la urgencia climática, la ingeniería estructural se enfrenta a un desafío técnico fascinante: ¿podemos diseñar edificios más ligeros y sostenibles sin comprometer la seguridad estructural? Y, más específicamente, ¿cómo podemos romper el «paradigma del catálogo» cuando las soluciones comerciales estándar alcanzan sus límites físicos y medioambientales?

Al final de este post, en la referencia, tienes un enlace directo para descargar gratuitamente el artículo científico completo, ya que está publicado en abierto.

El poder de la optimización: Rompiendo los límites del catálogo

Las vigas alveolares son perfiles de acero con aberturas circulares en su interior que permiten aumentar la altura de la viga y, por tanto, su eficiencia, sin añadir masa. Sin embargo, la práctica tradicional se ha limitado a replicar soluciones de los catálogos de los fabricantes, que suelen ser restrictivos.

Un hallazgo clave del estudio paramétrico actual revela que, para luces de 4 metros, los catálogos a menudo alcanzan su límite máximo permitido y dejan de ofrecer soluciones factibles bajo cargas elevadas. La verdadera innovación surge al dejar de considerar la losa colaborante como un elemento estático de catálogo. Al tratar variables como el espesor de la chapa y, sobre todo, la tasa de refuerzo de la losa como componentes activos del diseño, la ingeniería supera las barreras de los fabricantes tradicionales.

Algoritmos que imitan a la naturaleza: El «Particle Swarm Optimization» (PSO)

Para navegar por este complejo mar de posibilidades, se ha recurrido a la inteligencia colectiva del algoritmo de optimización por enjambre de partículas (PSO). No se trata de un simple ejercicio de búsqueda, sino de resolver un problema de objetivo único, restringido y con variables discretas.

El algoritmo funciona como un enjambre que explora un amplio espacio de búsqueda (identificado en la tabla 1 del estudio), evaluando simultáneamente 201 perfiles de acero diferentes, diversas resistencias de hormigón y geometrías de alvéolos, con el objetivo de encontrar la configuración que genere la menor huella de carbono posible.

«El algoritmo PSO ha demostrado ser eficaz para identificar soluciones óptimas, ya que permite que la introducción de refuerzo en la losa, combinada con un diseño optimizado, genere un impacto significativo en el diseño estructural».

El dato impactante: una reducción del 25% en emisiones de CO2

La precisión algorítmica no es solo un alarde tecnológico, sino que se traduce en un impacto medioambiental significativo. El análisis paramétrico demuestra que, especialmente en niveles de carga altos (6 kN/m²) y luces de gran tamaño, la optimización integrada del sistema viga-losa puede reducir las emisiones de CO₂ hasta un 25 %.

Este logro ecológico no se debe a un solo cambio, sino a una redistribución holística de los materiales. Al añadir refuerzo estratégico en la losa, el sistema permite reducir simultáneamente el espesor del steel deck y el volumen de hormigón superior, lo que disminuye directamente la masa de los materiales base que más contribuyen al calentamiento global.

 

Análisis de materiales: Por qué lo «más fuerte» no siempre es «más verde»

Es fundamental desmitificar la idea de que los materiales de alta resistencia siempre son la mejor opción sostenible. Al analizar las soluciones óptimas, los «ganadores» constantes fueron:

  • Acero: ASTM A572 Gr. 50 (con un factor de emisión de CO2 de 2.04 kgCO2/kg).
  • Hormigón: 25 MPa (con un factor de emisión de 374,00 kg de CO2/m³).

La clave del diseño inteligente radica en que estos materiales presentan factores de emisión inferiores a los de sus equivalentes de alta resistencia. Por ejemplo, el acero A913 Gr. 65 tiene una mayor huella de carbono (2,13 kg CO2/kg) que el A572 Gr. 50. Por tanto, la eficiencia no depende de la potencia bruta del material, sino de una combinación inteligente y precisa dictada por el algoritmo.

Desmitificando el proceso: el peso de la masa frente al fuego industrial

A menudo se cuestiona si el proceso de fabricación de una viga con agujeros (corte y soldadura) compensa el ahorro de material. Los datos del estudio son contundentes y desmienten este mito:

  • Corte y soldadura insignificantes: Estos procesos industriales representan habitualmente menos del 1% de las emisiones totales de la estructura.
  • El dominio de la masa: El factor crítico sigue siendo la masa del perfil de acero original, que puede representar hasta el 70% del CO2 en escenarios optimizados.
  • El papel de la losa: El steel deck tiene un impacto considerable, oscilando entre el 11% y el 39% de las emisiones totales según la luz de la estructura.

En definitiva, el «coste» ambiental de perforar la viga es un precio mínimo frente al gran ahorro de material que permite su nueva geometría.

Conclusión: Hacia una ingeniería de precisión ambiental

Estamos dejando atrás la era de la construcción basada en la sobreespecificación y en el uso de catálogos estáticos. El futuro es la Ingeniería de Precisión Ambiental, donde cada componente, desde el diámetro del alvéolo hasta el milímetro de refuerzo en la losa, se trata como una variable viva.

La inteligencia artificial y el diseño paramétrico nos proporcionan las herramientas necesarias para reducir en una cuarta parte la huella de carbono de nuestras estructuras. Ante la actual crisis climática, la pregunta para los diseñadores ya no es si estos métodos funcionan, sino: ¿podemos permitirnos seguir construyendo con los ojos cerrados y con los catálogos del siglo pasado? El diseño integrado es nuestra herramienta más poderosa para redefinir el impacto de nuestro entorno construido.

En esta conversación puedes escuchar un debate sobre estas ideas.

En este vídeo se resumen bien las ideas más interesantes.

Referencia:

Brandão, M.C.L.; Yepes-Bellver, L.; Kripka, M.; Alves, É.C. Parametric Analysis in the Optimization Design of Composite Cellular Beams. Infrastructures 2026, 11, 135. https://doi.org/10.3390/infrastructures11040135

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El centinela digital del hormigón: Hacia una «rehabilitación científica» de nuestras ciudades

Acaban de publicar un artículo en el Journal of Information Technology in Construction, una de las revistas ubicadas en el primer decil del JCR. Este documento sintetiza los hallazgos del desarrollo y la validación de Endurify 2.0, un sistema de programación automatizada basado en el Modelado de Información de Construcción (BIM) para el mantenimiento estructural.

Nuestro equipo ha centrado sus esfuerzos en el uso de modelos analíticos, el sistema evalúa la vida útil remanente de los elementos constructivos basándose en indicadores de degradación como la carbonatación y la fisuración. Los datos obtenidos se procesan mediante algoritmos de decisión multicriterio para generar planes de mantenimiento automatizados que equilibran la seguridad estructural con la eficiencia económica. Esta metodología busca reducir en un 15% los costes de intervención y mitigar el impacto social negativo sobre los residentes. La investigación se enmarca en el proyecto RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València. A continuación, se presenta un resumen del trabajo y de la información de contexto.

¿Puede un algoritmo predecir el «infarto» estructural de un edificio antes de que aparezca la primera fisura visible? Nuestro equipo ha desarrollado Endurify 2.0, una inteligencia clínica integrada en modelos 3D que convierte la experiencia de los expertos en una disciplina matemática exacta. Esta innovación no solo ahorra un 15 % en costes, sino que también utiliza el big data para decidir cuándo y cómo intervenir en un edificio para prolongar su vida útil en décadas, minimizando el trauma social que suponen las obras en las comunidades de vecinos.

Esta investigación ha sido dirigida por investigadores del Instituto de Ciencia y Tecnología del Hormigón (ICITECH) de la Universitat Politècnica de València (UPV). Su trabajo propone un cambio de paradigma: dejar de considerar los edificios como objetos estáticos y empezar a gestionarlos como organismos vivos cuyos «órganos» (vigas y pilares) envejecen a ritmos distintos debido a la acción constante de la química y la física.

La situación es urgente. La industria de la construcción consume el 50 % de los recursos extraídos en todo el mundo y es responsable del 35 % de las emisiones de gases de efecto invernadero. En España, el problema es estructural: más del 57 % de las viviendas se construyeron antes de 1980, en una época en la que las normativas sobre durabilidad casi no existían. Nos enfrentamos a millones de toneladas de hormigón que han superado su vida útil teórica de 50 años y requieren una intervención de rehabilitación, no de demolición, como exige la economía circular.

La pregunta de investigación: ¿Cómo optimizar el «corazón» del edificio?

El equipo de la UPV se planteó un reto ambicioso: ¿es posible automatizar la toma de decisiones en materia de rehabilitación para que sea más eficiente que la de un experto humano? El objetivo era crear una herramienta capaz de procesar la degradación invisible y generar planes de obra multietapa que equilibraran el ahorro económico con la comodidad de los residentes.

Metodología: Los cuatro «jinetes» de la degradación

Para crear Endurify 2.0, los investigadores integraron un motor de cálculo en Autodesk Revit® (el estándar de modelado BIM). La metodología analiza cada elemento estructural mediante cuatro indicadores críticos:

  1. Fisuración transversal: las primeras heridas que aceleran el daño.
  2. Carbonatación: un proceso químico que reduce la alcalinidad del hormigón, dejando las armaduras de acero indefensas frente a la corrosión (según el modelo de Tuitti).
  3. Fluencia: la deformación silenciosa que sufre el hormigón bajo una carga sostenida a lo largo de los años.
  4. Deflexión: pérdida de rigidez que compromete la seguridad y la percepción del usuario.

El sistema utiliza una «lógica del peor de los casos»: la vida útil remanente (RUL) de una viga se determina por el primer indicador que supera el umbral de seguridad. Una vez detectados los elementos de riesgo, el algoritmo TOPSIS (una técnica de decisión multicriterio) evalúa miles de combinaciones posibles para agrupar las reparaciones de manera lógica y eficiente desde el punto de vista espacial.

Resultados: Superando al ojo humano

La validación se realizó en un modelo de 191 vigas de hormigón armado. Los resultados son reveladores: en comparación con un plan de rehabilitación diseñado manualmente por un ingeniero experto, el sistema automatizado consiguió:

  • Reducir el coste total en un 15,16 %.
  • Disminuir el impacto social (proximidad de las obras a las viviendas) en un 10,46 %.
  • Optimizar la logística de obra, agrupando las intervenciones en fases que reducen la necesidad de montar y desmontar andamios o instalaciones de obra repetidamente.

Aplicabilidad: El semáforo de la salud estructural

La gran innovación de Endurify 2.0 es la persistencia de los datos. Al devolver los resultados al modelo BIM mediante «parámetros compartidos», cualquier gestor puede visualizar el edificio mediante un código de colores (como un semáforo) que indica qué piezas necesitan «cirugía» inmediata y cuáles pueden esperar. Esto permite a los propietarios de grandes carteras inmobiliarias planificar inversiones a 20 años con base científica, en lugar de recurrir a soluciones reactivas cuando el daño ya es crítico.

Conclusiones y el futuro: Hacia el «Gemelo Digital» total

El estudio concluye que la rehabilitación científica es la única forma de cumplir con el Pacto Verde Europeo y de transformar el mantenimiento en una estrategia proactiva.

Las futuras líneas de investigación se centran en la automatización total de la inspección mediante visión artificial y drones para alimentar el modelo BIM sin intervención humana, y en la integración de sensores en tiempo real para crear verdaderos gemelos digitales que avisen al móvil del gestor cuando una viga sufra un estrés inesperado. Con Endurify 2.0, el futuro de la arquitectura no consiste en construir más, sino en cuidar con inteligencia matemática lo que ya tenemos.

Como el artículo se ha publicado en abierto, os lo podéis descargar en el siguiente enlace:

2026_18-ITcon-Fernández-Mora

Referencia:

FERNÁNDEZ-MORA, V.; NAVARRO, I.J.; YEPES, V. (2026). Extending Building Lifespan: Integrating BIM and MCDM for Strategic Rehabilitation. Journal of Information Technology in Construction, 31:398-419. DOI:10.36680/j.itcon.2026.018

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

ASG, Alto Almanzora Consultoría Geológica e ICITECH-UPV galardonados con el Premio FTI 2025 por innovación en geotecnia sostenible

Acto de entrega de premios, el 27 de marzo de 2026. De izquierda a derecha: José Antonio Galdón Ruiz, Antonio Sánchez Garrido y José Manuel Prieto Barrio.

El hito de la innovación en cimentaciones sostenibles.

La transferencia tecnológica impulsada desde nuestro grupo de investigación sigue dando sus frutos. En el marco de la tesis doctoral de Antonio Sánchez Garrido —doctorando al que tengo el placer de codirigir junto con el profesor Ignacio Navarro—, la alianza estratégica entre las empresas ASG y Alto Almanzora Consultoría Geológica, y el grupo de investigación ICITECH de la Universitat Politècnica de València (UPV), ha sido reconocida con un accésit en el Premio FTI 2025, otorgado por la Fundación Técnica Industrial.

El galardón distingue el proyecto SM-KsDirect Method y el software SM-KsDirect® , una solución disruptiva que establece un método de cálculo directo y riguroso del coeficiente de balasto (Ks). Esta innovación supera la «incertidumbre conservadora» que ha condicionado la práctica geotécnica durante más de cien años y abre la puerta a una nueva forma de trabajar: en lugar de recurrir al sobredimensionamiento estructural —que históricamente ha supuesto un lastre económico y un consumo innecesario de recursos—, profesionales y organizaciones disponen ahora de una herramienta de precisión matemática que garantiza simultáneamente la seguridad estructural y la descarbonización real en la edificación.

El prestigio detrás del galardón: la Fundación Técnica Industrial.

La Fundación Técnica Industrial (FTI) es un actor clave en la investigación científica e industrial en España, cuya misión es fomentar la excelencia técnica como base del progreso económico. En la IV edición del Premio a la Innovación Tecnológica, Empresarial y de Sostenibilidad, se han reconocido específicamente aquellas iniciativas que aplican la innovación para mejorar los procesos industriales y alcanzar los objetivos de descarbonización. La rigurosidad del jurado al otorgar este galardón subraya que el proyecto liderado por ASG e ICITECH no solo supone una mejora incremental, sino que también responde a la necesidad de cerrar el vacío normativo internacional en el cálculo de cimentaciones superficiales.

Galardonados en la IV edición del Premio a la Innovación Tecnológica, Empresarial y de Sostenibilidad de la Fundación Técnica Industrial

Alianza científico-industrial: liderazgo y validación a nivel máximo.

El éxito de esta propuesta radica en un ecosistema de colaboración en el que la academia y la industria convergen para resolver problemas estructurales complejos.

  • Liderazgo científico: el proyecto cuenta con el respaldo del profesor Víctor Yepes, doctor ingeniero de caminos, catedrático de la UPV.
  • Socio tecnológico industrial: es fundamental destacar la participación de Alto Almanzora Consultoría Geológica, S. L., liderada por José F. Moreno Serrano, cuya experiencia en geotecnia aplicada ha sido clave para la conceptualización y el desarrollo del software junto con el autor principal, Antonio J. Sánchez Garrido (ASG Architecture).
  • Rigor académico global: el método se ha validado mediante su publicación en la revista Environmental Impact Assessment Review (2026), situada en el primer cuartil del ranking científico mundial. Esta revisión por pares garantiza que el software SM-KsDirect® es una herramienta de ingeniería calibrada y no una «caja negra» de cálculo.

De la incertidumbre a la objetividad: el factor de seguridad.

Durante décadas, el parámetro «Ks» (que regula la interacción suelo-estructura) se ha definido mediante fórmulas subjetivas o ensayos de placa a pequeña escala, que suelen dar lugar a errores. El método SM-KsDirect rompe con esta dinámica al introducir un procedimiento de puntuación para el factor de seguridad (FS). Este sistema permite al ingeniero asignar un rango de FS entre 1,2 y 2,5 basado en una evaluación objetiva de la incertidumbre de los datos geotécnicos frente a la ignorancia subjetiva del proyectista.

El impacto de pasar del empirismo a la cuantificación objetiva se refleja en los siguientes indicadores clave de rendimiento (KPI), derivados del estudio comparativo de la metodología:

KPI clave Métodos convencionales SM−KsDirect® Impacto / mejora
Capacidad portante utilizable Base 100 180 +80% de optimización
Consumo de hormigón Base 100 92 -8% de ahorro directo
Consumo de acero Base 100 82 -18% de ahorro directo
Huella ambiental (CO2, agua, áridos) Base 100 80-85 -15% a -20% de reducción
Resiliencia y seguridad de usuarios Base 100 130 +30% de control estructural

Validación en el mundo real: el caso del hotel DAIA y la proyección industrial.

La viabilidad del método se ha contrastado en escenarios de alta complejidad técnica, como en la ejecución del Hotel DAIA, en La Herradura (Granada). En este proyecto, el método SM-KsDirect permitió optimizar una losa de cimentación parcialmente compensada en un entorno de suelos granulares estratificados con intercalaciones débiles. Mediante el uso de una losa tipo «Unidome» (formador de huecos multiaxiales de PE), se consiguió un equilibrio físico-matemático que redujo los costes de construcción inicial en un 12 % y prevé una reducción del 24 % en los gastos de mantenimiento durante los próximos 50 años.

Esta eficiencia se puede escalar fácilmente al ámbito industrial:

  • En naves logísticas de 20 000 m², la aplicación del software SM-KsDirect® puede generar ahorros directos de entre 200 000 y 400 000 euros al ajustar los espesores de la losa y las cuantías de acero.
  • Resiliencia industrial: el control de los asientos diferenciales evita paradas productivas y reparaciones costosas en suelos industriales sometidos a cargas pesadas.

Compromiso con el futuro: democratización y sostenibilidad.

El proyecto trasciende la rentabilidad comercial y se alinea con los Objetivos de Desarrollo Sostenible (ODS 9, 11, 12 y 13). Un pilar fundamental de esta iniciativa es su dimensión educativa: el software se distribuirá mediante un modelo freemium para universidades, lo que permitirá democratizar el acceso a la geotecnia de alto nivel para las futuras generaciones de ingenieros.

Acto de entrega de premios: La ceremonia oficial de entrega tendrá lugar el 27 de marzo de 2026 a las 10:30 h en la sede del Colegio de Madrid (C/ Jordán, 14).

Este accésit en el Premio FTI 2025 confirma que el SM-KsDirect Method es el nuevo estándar para una ingeniería geotécnica digitalizada, transparente y, sobre todo, responsable con el entorno y la seguridad de la sociedad.

En esta conversación puedes escuchar las ideas más interesantes de este nuevo método.

El vídeo resume bien el contenido de este artículo.

Sustainable_Foundation_Innovation

Referencia:

SÁNCHEZ-GARRIDO, A.J.; MORENO-SERRANO, J.F.; NAVARRO, I.J.; YEPES, V. (2026). Innovative safety framework and direct load–settlement method to optimize vertical subgrade modulus in sustainable mat foundations. Environmental Impact Assessment Review, 118, 108191. DOI:10.1016/j.eiar.2025.108191

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El dilema de la hiperespecialización en el conocimiento moderno

La paradoja de saberlo todo y no entender nada: el espejismo de la pirámide académica.

Existe la creencia, casi romántica, de que el avance del conocimiento es un ascenso hacia una visión panorámica. Imaginamos que el experto, al alcanzar la cima de su disciplina, domina un horizonte total. Sin embargo, la realidad de la ciencia contemporánea nos muestra una imagen diferente: la pirámide académica no culmina en una meseta de sabiduría global, sino en un desfiladero de hiperespecialización.

A medida que un investigador se acerca a la excelencia, el aire se vuelve más fino y el aislamiento aumenta. En la cúspide, la especialización es tan extrema que los expertos a menudo se vuelven incapaces de comunicarse incluso con sus colegas más cercanos. Se crean «submundos» de lógica privada, catedrales del pensamiento construidas sobre cimientos que solo su arquitecto puede ver, donde el conocimiento deja de ser un puente para convertirse en una isla.

La muerte del «matemático total»: un mal necesario.

Hubo un tiempo en que mentes como la de Leonardo da Vinci podían abarcar la totalidad del saber humano. Incluso en el siglo XX, figuras como Henri Poincaré o David Hilbert fueron los últimos «matemáticos totales», capaces de comprender y fertilizar prácticamente todas las ramas de su disciplina. Hoy en día, este ideal es una imposibilidad física, ya que el volumen de información crece con tal voracidad que desborda cualquier cerebro biológico.

Esta fragmentación nos obliga a ser más humildes. Como se suele decir en los círculos académicos, existe el riesgo de convertirse en lo que Rafael Tesoro describió como un «koala que solo se alimenta de caña de bambú»: un especialista que sabe cada vez más sobre menos cosas, hasta el punto de que, en el límite, parece saberlo todo sobre nada. No obstante, esta deriva también es un mal necesario. La especialización nos permite ahorrar esfuerzos que, de otro modo, dedicaríamos a tareas imposibles y profundizar donde otros solo pueden patinar sobre la superficie. Como bien reflexionaba el físico teórico citado por Josejuan:

«Es importante adquirir la sensación de humildad que nos aporta reconocer que uno es el mayor experto del mundo en nada y no entiende casi nada de lo que cuentan los demás expertos en nada».

La conjetura ABC: el abismo entre sumar y multiplicar.

En este contexto de fragmentación, destaca la conjetura ABC, formulada en 1985. Su enunciado es de una sencillez engañosa, casi infantil: a + b = c. Sin embargo, tras esta sencilla ecuación se esconde un misterio fundamental sobre la interacción entre las estructuras aditiva y multiplicativa de los números.

Para visualizar el «abismo», consideremos la siguiente suma: 25·318+56·710·232=119·691+1433. Se puede observar que los números a y b están formados por potencias de factores primos muy pequeños (2, 3, 5, 7 y 23). La conjetura sugiere que, en tales casos, el resultado c debe contener necesariamente un factor primo sorprendentemente grande, como el 1433 en este ejemplo.

Si se lograra dominar esta relación, se podrían resolver ecuaciones diofánticas (problemas con soluciones enteras) de forma sistemática, convirtiendo hitos como el último teorema de Fermat en simples ejercicios de cálculo manual. Por ello, la comunidad consideraba que su demostración sería una tarea colosal, un Everest matemático que parecía ir más allá del alcance de las herramientas actuales.

Shinichi Mochizuki y la matemática del «espacio exterior».

En 2012, el matemático japonés anunció que había alcanzado esa cima. Mochizuki no era un desconocido: con un talento precoz, ingresó en la Universidad de Princeton a los dieciséis años, regresó a Japón a los veinticinco y, con tan solo veintisiete años, resolvió una conjetura fundamental de Alexander Grothendieck. Sin embargo, su propuesta para la conjetura ABC era completamente diferente de todo lo visto hasta la fecha.

Mochizuki presentó la teoría de Teichmüller inter-universal (IUT) en cuatro artículos que sumaban 500 páginas, respaldados por otras 1500 páginas de trabajo previo. No se trataba de matemáticas convencionales, sino de una arquitectura barroca, poblada de neologismos que funcionaban como etiquetas de realidades paralelas. Términos como «Frobenioides» o «Teatros de Hodge» sumieron a los expertos en desconcierto. Jordan S. Ellenberg captó esa sensación de extrañeza:

«Al mirarlo, te sientes un poco como si estuvieras leyendo un artículo del futuro o del espacio exterior».

El corolario 3.12: El choque de los titanes.

El aislamiento de Mochizuki fue tanto intelectual como metodológico. Calculó que un experto necesitaría 500 horas de estudio intensivo solo para empezar a comprender su lógica. Esta opacidad provocó un conflicto inevitable cuando Peter Scholze —que ganó la medalla Fields a los 30 años y es considerado un máximo experto en la materia— decidió intervenir.

Scholze y su colega Jakob Stix viajaron a Kioto en 2018 para un encuentro que la prensa científica calificó de «choque de titanes». Tras analizar el manuscrito, señalaron un punto de ruptura específico: el corolario 3.12. Según Scholze, la lógica se desmorona en ese paso crucial, lo que deja la demostración herida de muerte. Mochizuki, imperturbable, afirmó que el error no estaba en sus cálculos, sino en la incapacidad de sus críticos para comprender conceptos tan abstractos. Este desencuentro recordó la sentencia de Gerd Faltings, mentor de Mochizuki:

«En matemáticas no basta con tener una buena idea: también hay que poder explicársela a los demás».

La paradoja de Kioto: la verdad depende de la geografía.

La controversia alcanzó tintes surrealistas cuando la revista RIMS decidió publicar la demostración sin corregir el polémico corolario 3.12. El hecho de que el propio Mochizuki sea el editor jefe de dicha publicación y que el RIMS sea su propia institución ha suscitado serias sospechas en la comunidad internacional. Como señala el autor del blog Gaussianos, la situación «huele mal» por varios motivos:

  • Conflicto de intereses flagrante: el autor valida su propio trabajo desde la cúpula de la revista que lo publica.
  • Inmovilidad dogmática: no se han realizado cambios sustanciales para responder a las objeciones técnicas de Scholze y Stix.
  • Fragmentación de la verdad: la aceptación de la prueba se limita a un círculo estrecho de colaboradores en Japón.

Esto nos sitúa ante una anomalía histórica: hoy en día, la conjetura ABC es un teorema en Kioto, pero sigue siendo una conjetura en el resto del mundo. La verdad matemática ha dejado de ser universal para convertirse en geográfica.

Conclusión: El riesgo del feudalismo matemático

El caso de Mochizuki es una advertencia sobre el futuro del conocimiento. Nos recuerda que la ciencia no es solo el destello de un genio solitario, sino también un esfuerzo colectivo de comunicación. Cuando el lenguaje se vuelve tan privado que ni siquiera los mayores expertos del mundo pueden descifrarlo, el progreso se estanca.

Podríamos estar entrando en una era de feudalismo matemático, donde diferentes escuelas de pensamiento habitan submundos incomprensibles entre sí, protegidas por murallas de terminología esotérica. El desafío de nuestra era no es solo descubrir lo desconocido, sino también construir puentes. Al final, el destino de la ciencia no dependerá de genios que hablen idiomas espaciales, sino de nuestra voluntad de volver a explicarnos el mundo con humildad y claridad.

En esta conversación puedes escuchar algunas de las ideas más interesantes sobre este tema.

Este vídeo resume bien las ideas más importantes.

The_ABC_Schism

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El arte de medir lo subjetivo: las escalas Likert

Medir la temperatura de un fluido o la resistencia de un material es una tarea técnica que emplea parámetros físicos tangibles. Sin embargo, cuando el objeto de estudio es la mente humana (opiniones, actitudes o rasgos de personalidad), entramos en el terreno de las variables no observables, también conocidas como constructos latentes.

Aunque las encuestas son la herramienta universal para capturar esta subjetividad, la mayoría falla no por la tecnología empleada, sino por errores de diseño psicométrico que invalidan el dato desde su origen.

Desde que Rensis Likert introdujo su escala en 1932, esta se ha convertido en el estándar para convertir percepciones en métricas. No obstante, su uso profesional exige una rigurosidad que trasciende la mera formulación de preguntas al azar. Debemos comprender que una escala es un instrumento de precisión diseñado para capturar la esencia de lo inobservable. A continuación, presentamos cinco aspectos fundamentales para garantizar que sus mediciones sean científicamente válidas.

1. Lo subjetivo es el reino, no el dato objetivo.

La base de una escala Likert es la medición de una valoración personal, no de una competencia. Un error metodológico frecuente consiste en incluir preguntas que miden conocimientos factuales en lugar de preguntas que miden actitudes. Si un ítem tiene una respuesta técnicamente «correcta», deja de ser una escala de opinión para convertirse en un examen.

Para garantizar la pureza del constructo, la formulación debe seguir tres reglas de oro:

  • Enfoque: centrarse exclusivamente en opiniones o conductas.
  • Unidimensionalidad: incluir una sola idea por ítem para evitar el ruido en la medición.
  • Claridad gramatical: evitar expresiones negativas que puedan confundir al sujeto.

Como bien señala la norma psicométrica:

«Nunca en forma de datos objetivos que impliquen una valoración personal (conocimientos)».

2. La regla del 40-20: supervivencia de ítems y validez de las subescalas.

En el diseño de cuestionarios, la cantidad es el filtro de la calidad. No existe un número óptimo de ítems a priori, pero sí una metodología de «supervivencia»: para obtener un instrumento robusto, se recomienda partir de unos 40 ítems iniciales y retener finalmente entre 20 y 30.

¿Por qué este excedente? El uso de ítems repetitivos (expresar la misma idea de diversas formas) permite aumentar la discriminación y aislar la señal real del error de medida. Durante la fase de pretest, debemos descartar los ítems que no discriminan, es decir, aquellos que son aceptados o rechazados por casi todos los sujetos, para fortalecer la consistencia interna.

Además, hay pruebas que sugieren que el orden y la estructura son importantes: agrupar los ítems por temas o subescalas, en lugar de mezclarlos aleatoriamente, aumenta la validez convergente y divergente y facilita una interpretación más precisa de los factores medidos.

3. El dilema del número impar y la capacidad de discriminación.

La controversia sobre si se debe ofrecer una «salida neutral» (como la clásica opción «Indiferente») sigue vigente. El estándar oscila entre tres y siete opciones de respuesta, siendo cinco el número más habitual. Un número impar permite la ambivalencia, mientras que uno par obliga a decantarse por una opción.

Desde el punto de vista psicométrico, no existe un consenso definitivo sobre cuál es la mejor opción, lo que otorga libertad al investigador. Sin embargo, existe un límite técnico infranqueable: la capacidad de discriminación del sujeto. Aumentar el número de respuestas puede mejorar la fiabilidad de la escala, pero solo hasta el punto en que el encuestado sea capaz de distinguir entre los matices. Superar ese umbral solo introduce fatiga y errores aleatorios en la matriz de datos.

4. El mito del tamaño: por qué una muestra gigantesca no elimina el sesgo.

Es un error común pensar que una muestra muy grande garantiza precisión. En psicometría, el nivel de confianza o riesgo de primera especie (z) gestiona el riesgo de equivocarnos al generalizar, pero no elimina el sesgo de selección. Una muestra de 10 000 personas puede ser menos precisa que una de 500 si la primera está sesgada.

Para poblaciones extensas, la estrategia más adecuada es la estratificación. Al segmentar la población en estratos, garantizamos la representatividad de los grupos críticos y obtenemos una interpretación más precisa de los resultados. Debemos recordar siempre que:

«Una muestra de gran tamaño no garantiza que el margen de error sea pequeño, pues puede estar sesgada hacia segmentos de la población que están representados en exceso o poco representados».

5. La barrera de 5 puntos: ¿es un dato cuantitativo o una etiqueta ordinal?

Esta es, quizá, la distinción técnica más trascendental en el análisis de datos. La naturaleza de su escala determina qué operaciones matemáticas pueden realizarse legalmente.

  • Variable de escala (cuantitativa): solo si la escala tiene 5 o más puntos de respuesta. En este caso, es estadísticamente lícito calcular la media y la desviación típica, considerando la opinión como un continuo numérico.
  • Variable ordinal: si la escala tiene menos de cinco puntos. En este caso, no tiene sentido calcular diferencias entre categorías; el análisis se limita estrictamente a tablas de frecuencias (absolutas y relativas).

Ignorar esta distinción es un error grave en la comunicación de resultados: intentar presentar como promedio el resultado de una escala de tres puntos es una aberración estadística que distorsiona la realidad del constructo.

Reflexión final.

El cuestionario no es una simple lista de preguntas, sino un conjunto articulado y coherente de ítems diseñado para traducir la complejidad humana en datos operables. El éxito de su investigación depende de la arquitectura psicométrica subyacente, no del software que procese las respuestas.

Cuando finalice su próximo diseño, tómese un momento para evaluar si sus resultados serán estadísticamente operativos o meramente decorativos. La diferencia radica en el respeto a las leyes fundamentales de la medición.

En esta conversación puedes escuchar algunas de las ideas más interesantes sobre este tipo de encuestas.

El vídeo resume bien las ideas más importantes.

Likert_Analysis_Playbook

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Diseño de experimentos: La brújula que guía el método científico

¿Te has detenido alguna vez a considerar por qué dos estudios sobre el mismo fenómeno pueden llegar a conclusiones diametralmente opuestas?

A menudo, la respuesta no se encuentra en un error de cálculo ni en la mala fe del investigador, sino en la estructura invisible que sustenta los datos. La estadística, lejos de ser un frío ejercicio de «contar» o promediar, es en realidad la aplicación de una lógica rigurosa y elegante conocida como diseño de experimentos.

Como guía, mi objetivo es mostrarte que un experimento no es solo una observación, sino una prueba controlada en la que introducimos cambios deliberados para revelar verdades ocultas. Sin un diseño robusto, los números son solo ruido; con uno, se convierten en una herramienta de predicción capaz de silenciar la incertidumbre. Permíteme compartir contigo cinco pilares fundamentales que transformarán tu manera de interpretar la ciencia.

El conocimiento no es una línea recta, sino un círculo.

Tanto en la academia como en la industria, tendemos a ver el conocimiento como un monolito estático. Sin embargo, el método científico es circular e iterativo. Según Kempthorne (1952), la investigación es un ciclo perpetuo que se retroalimenta para aumentar la precisión.

Este proceso consta de cuatro etapas: la observación del fenómeno, la formulación de una teoría lógica, la predicción de eventos futuros y, por último, la toma de decisiones basada en pruebas. Pero aquí reside el secreto: el ciclo no termina ahí. Los resultados de la decisión modifican nuestras conjeturas originales y nos obligan a reiniciar el proceso. El objetivo no es solo repetir el experimento, sino aumentar nuestra capacidad de discriminación para distinguir con mayor claridad qué teorías son válidas y cuáles deben ser desechadas.

«El método científico no es estático; es de naturaleza circulante».

¿Por qué tu género no es un «tratamiento» (y por qué importa)?

Uno de los conceptos más sutiles y cruciales que enseño a mis estudiantes es la distinción entre factores de tratamiento y de clasificación. Para que algo sea un «tratamiento», el investigador debe tener soberanía absoluta para asignar aleatoriamente dicho factor a las unidades de estudio.

Por ejemplo, un fármaco es un tratamiento porque el investigador decide quién lo recibe. En cambio, el género, el tipo de suelo o la especie de una madera son propiedades intrínsecas, denominadas factores de clasificación. No se puede «asignar» el género a un sujeto. Esta distinción es vital, ya que los factores de clasificación suelen actuar como fuentes extrañas de variación que, si no se identifican, pueden sesgar los resultados. Comprender que el género no es algo que «probamos», sino el contexto en el que lo probamos, es el primer paso hacia una inferencia honesta.

 

La unidad experimental: el arte de no medir lo que no debes.

Existe un «espejismo estadístico» muy común: creer que medir muchas veces lo mismo aumenta la validez de un experimento. Para evitar este error, debemos distinguir entre la unidad experimental (UE) y la unidad muestral (UO).

  • En el ámbito clínico, el paciente es la unidad experimental a la que se le asigna el tratamiento de forma independiente.
  • En agricultura, una parcela completa es la UE, mientras que las plantas individuales dentro de ella son simples UO.
  • En entomología, la UE puede referirse a un insecto, pero a menudo se refiere a la colonia entera como objeto de estudio.
  • En estructuras, una viga de hormigón es la UE a la que se le aplica un método de curado específico, mientras que los diferentes sensores de deformación colocados en distintos puntos de esa misma viga actúan como unidades observacionales

El riesgo técnico consiste en confundir el error experimental (la variación entre distintas unidades experimentales) con el error de muestreo (la variación dentro de una misma unidad experimental). Si mide 50 plantas en una sola parcela, solo está reduciendo el error de muestreo. Para validar realmente un tratamiento y reducir el error experimental, se necesitan más parcelas independientes, no más plantas en la misma parcela. Medir lo que no debe solo aumenta artificialmente su confianza en un resultado que podría ser puramente aleatorio.

¿Busca conocimiento absoluto o quiere tomar una decisión?

No toda la ciencia busca lo mismo, por lo que saber qué tipo de experimento tiene delante cambiará su criterio. Anscombe (1947) nos legó una distinción fundamental:

  • Experimentos absolutos: buscan determinar propiedades físicas constantes, como la velocidad de la luz. Se asocian a la ciencia pura y se rigen por el modelo II (efectos aleatorios), en el que los tratamientos se consideran una muestra de un universo infinito.
  • Experimentos comparativos: son el corazón de las ciencias aplicadas y de la ingeniería. En estos casos, los valores absolutos pueden variar según el entorno, pero la relación entre los tratamientos permanece estable. Se rigen por el modelo I (efectos fijos), ya que el interés radica en determinar cuál de los tratamientos específicos es «mejor».

En el mundo de la gestión, casi siempre estamos ante experimentos comparativos. No buscamos una verdad universal e inmutable, sino la información necesaria para tomar una decisión administrativa acertada.

El «testigo»: el héroe invisible del control de variación.

A menudo se piensa que el tratamiento de control o de testigo es solo un requisito burocrático. Sin embargo, su función es lógica y profunda: es la única herramienta capaz de revelar si el entorno está «enmascarando» la realidad.

Imagine que intenta escuchar un susurro (el efecto de un nuevo fertilizante) en una habitación donde alguien está gritando (la alta fertilidad natural del suelo). Sin un testigo —una zona sin fertilizante—, se atribuiría el crecimiento de las plantas al producto, cuando en realidad sería el suelo quien haría todo el trabajo. El testigo es esencial cuando se desconoce la eficacia de lo que se prueba; es el punto de referencia que permite eliminar las interferencias del entorno y detectar la señal del tratamiento.

Conclusión: el diseño antes que el dato.

El diseño experimental es, en última instancia, el cálculo del grado de incertidumbre. Esto permite que la estadística trascienda la mera descripción de lo ocurrido y se convierta en una brújula predictiva. Un diseño robusto garantiza que las conclusiones tengan un rango de validez real y que los recursos, siempre limitados, no se malgasten en espejismos.

La próxima vez que te encuentres ante un informe con gráficos deslumbrantes, detente y reflexiona: ¿estos datos provienen de un diseño válido que controla la incertidumbre o son solo una colección de números que intentan ocultar la ausencia de una estructura lógica? Recuerda que, en ciencia, la calidad de tu respuesta nunca superará la del diseño de tu pregunta.

En esta conversación puedes escuchar una buena explicación sobre este tema.

El vídeo resume bien las ideas más importantes sobre el diseño de experimentos.

Experimental_Design_Foundations

Referencias:

Anscombe, F. J. (1947). The validity of comparative experiments. Journal of the Royal Statistical Society, 61, 181–211.

Box, G. E. P. (1952). Multi-factor designs of first order. Biometrika, 39(1), 49–57.

Fisher, R. A. (1935). The design of experiments. Oliver & Boyd.

Kempthorne, O. (1952). The design and analysis of experiments. John Wiley & Sons.

Melo, O. O., López, L. A., & Melo, S. E. (2007). Diseño de experimentos: métodos y aplicaciones. Universidad Nacional de Colombia, Facultad de Ciencias.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El código secreto de la naturaleza: algoritmos metaheurísticos para resolver lo imposible.

Introducción: El genio oculto en el caos natural.

En el vasto universo de la gestión de situaciones complejas, nos enfrentamos a desafíos que cuestionan la lógica convencional: los problemas NP-difíciles.

Estos enigmas se caracterizan por que, a medida que el tamaño del problema aumenta, el tiempo necesario para resolverlo mediante fuerza bruta crece de manera exponencial. Esto hace que una búsqueda exhaustiva sea prácticamente imposible, incluso para las supercomputadoras más potentes. De este modo, cuando los métodos deterministas fallan y no hay garantía de hallar la solución perfecta, los expertos recurren a las metaheurísticas.

Al observar cómo la naturaleza optimiza los recursos para la supervivencia, hemos descubierto que el ensayo y el error no son fruto del azar, sino de un diseño refinado a lo largo de milenios de evolución. Los investigadores han dejado de mirar exclusivamente las pizarras para descifrar el genio oculto en los sistemas biológicos, físicos y químicos y han traducido procesos naturales en ecuaciones de optimización asombrosamente eficientes.

La inteligencia de enjambre: el poder de la multitud «sin inteligencia».

Uno de los pilares más fascinantes de esta disciplina es la inteligencia de enjambre (SI, por sus siglas en inglés). Este concepto se basa en el comportamiento colectivo emergente de múltiples agentes que interactúan según reglas muy sencillas. Ya sea en colonias de hormigas, enjambres de abejas o destellos de luciérnagas, el sistema logra una autorganización compleja sin necesidad de un mando central.

Lo más sorprendente es cómo la capacidad del colectivo trasciende las limitaciones del individuo. Un solo agente puede ser limitado, pero el enjambre, como unidad, exhibe una gran capacidad para resolver problemas. Como señala la literatura académica sobre este fenómeno:

«Aunque cada agente puede ser considerado como ininteligente, el sistema completo de múltiples agentes puede mostrar un comportamiento de autoorganización y, por lo tanto, puede comportarse como una suerte de inteligencia colectiva».

Más allá de la biología: la optimización se encuentra con la física y la música.

Aunque la biología es una fuente muy rica, la informática inspirada en la naturaleza trasciende mucho más. Para un especialista, la clasificación de estos algoritmos no se limita a su «musa», sino a su comportamiento matemático. Podemos categorizarlos según su trayectoria de búsqueda (como el Simulated Annealing) o según si se basan en poblaciones (como el Particle Swarm Optimization o el Firefly Algorithm).

Existen sistemas basados en leyes físicas y químicas, como los algoritmos que imitan la fuerza de la gravedad, las cargas eléctricas o la dinámica de formación de ríos. Incluso el arte tiene su lugar en el algoritmo Harmony Search (Búsqueda Armónica), que imita el proceso estético de un músico que persigue el «estado de armonía» o el acorde perfecto. Esta universalidad demuestra que los conceptos de disciplinas tan dispares pueden traducirse en reglas de actualización precisas para hallar soluciones casi óptimas en ingeniería y logística.

La trampa de las 28 000 especies: el desafío de la verdadera novedad.

A pesar del auge de estas técnicas, la comunidad científica se enfrenta a una realidad crítica: la proliferación de algoritmos que carecen de innovación real. Aunque en el mundo existen aproximadamente 28 000 especies de peces, esto no justifica la creación de 28 000 variantes algorítmicas (por ejemplo, el algoritmo del tiburón, de la trucha, etc.) que solo cambian los nombres de las variables sin aportar una mejora sustancial al motor de búsqueda.

En los últimos años, el mundo de la optimización ha experimentado una auténtica explosión de metaheurísticas. Nuevos algoritmos “inspirados en la naturaleza” están apareciendo como setas tras la lluvia. Solo en el último lustro, la comunidad científica se ha encontrado con miles de propuestas que se presentan como completamente originales.

El problema es que, en muchos casos, esas supuestas “novedades” no aportan ideas realmente nuevas. Son simplemente variantes, más o menos ingeniosas, de algoritmos ya conocidos y consolidados. Cambia el nombre, cambia la metáfora biológica o social, pero el mecanismo interno apenas difiere del de otros modelos existentes.

La situación ha llegado a tal punto que varias revistas científicas de alto impacto han decidido poner freno a esta tendencia. Muchas de ellas ya no aceptan trabajos que presenten una “nueva metaheurística” si no demuestran aportaciones metodológicas auténticas y verificables.

Esto supone una llamada a la acción para priorizar el rigor por encima de la «marca» comercial del algoritmo. Los expertos advierten sobre el peligro de la «pseudoinnovación» con fines de publicación:

No basta con bautizar un algoritmo con un nombre llamativo; tiene que resolver mejor los problemas reales.

La receta del éxito: mezcla, diversidad y paralelismo.

¿Por qué algoritmos como Cuckoo Search o el Firefly Algorithm triunfan, mientras que otros caen en el olvido? El éxito de un metaheurístico radica en su capacidad para equilibrar dos fuerzas opuestas:

  • Diversidad (búsqueda global/exploración): es la capacidad del algoritmo para explorar exhaustivamente el amplio espacio de búsqueda y evitar quedar atrapado en soluciones locales que parecen buenas, pero no lo son.
  • Mezcla (búsqueda local/explotación): es el proceso de recombinación e interacción entre soluciones que permite al algoritmo converger rápidamente hacia el punto óptimo una vez identificada una región prometedora.

Además, una ventaja competitiva de los algoritmos de inteligencia de enjambre es su facilidad de paralelización. Al basarse en múltiples agentes independientes, estos procesos pueden ejecutarse simultáneamente en hardware moderno, lo que permite optimizar problemas a gran escala en el mundo real por primera vez de forma práctica y eficiente.

Conclusión: hacia una nueva era de resolución de problemas.

Los algoritmos inspirados en la naturaleza han dejado de ser una mera curiosidad para convertirse en el estándar de oro para los problemas de alta complejidad. Es por ello que el futuro de esta disciplina no radica en buscar «más especies» que imitar, sino en profundizar en el marco matemático que permite que la diversidad y la mezcla funcionen en armonía. Solo a través de la comprensión real de estos mecanismos podremos hacer frente a los enormes desafíos de la tecnología moderna.

Al observar la elegancia con la que un enjambre encuentra su camino o un sistema físico alcanza el equilibrio, surge una pregunta inevitable: ¿existe algún límite a lo que podemos aprender sobre la eficiencia de la naturaleza o apenas estamos empezando a descifrar su código más fundamental?

En esta conversación puedes escuchar algunas de las ideas más interesantes sobre este tema.

En este vídeo se resumen algunos de los conceptos más importantes abordados.

Fister

Nature_Inspired_Optimization

Referencias:

FISTER JR, I.; YANG, X. S.; FISTER, I.; BREST, J.; FISTER, D. (2013). A brief review of nature‑inspired algorithms for optimization. arXiv preprint arXiv:1307.4186.

GARCÍA, J.; YEPES, V.; MARTÍ, J.V. (2020). A hybrid k-means cuckoo search algorithm applied to the counterfort retaining walls problem. Mathematics,  8(4), 555. DOI:10.3390/math8040555

GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2020). The buttressed  walls problem: An application of a hybrid clustering particle swarm optimization algorithm. Mathematics,  8(6):862. DOI:10.3390/math8060862

GARCÍA-SEGURA, T.; YEPES, V.; ALCALÁ, J.; PÉREZ-LÓPEZ, E. (2015). Hybrid harmony search for sustainable design of post-tensioned concrete box-girder pedestrian bridgesEngineering Structures, 92:112-122. DOI:10.1016/j.engstruct.2015.03.015

GARCÍA-SEGURA, T.; YEPES, V.; MARTÍ, J.V.; ALCALÁ, J. (2014). Optimization of concrete I-beams using a new hybrid glow-worm swarm algorithm. Latin American Journal of Solids and Structures, 11(7):1190 – 1205. DOI:10.1590/S1679-78252014000700007

YEPES, V.; ALCALÁ, J.; PEREA, C.; GONZÁLEZ-VIDOSA, F. (2008). A Parametric Study of Optimum Earth Retaining Walls by Simulated Annealing. Engineering Structures, 30(3): 821-830. DOI:10.1016/j.engstruct.2007.05.023

YEPES, V. (2026). Heuristic Optimization Using Simulated Annealing. In: Kulkarni, A.J., Mezura-Montes, E., Bonakdari, H. (eds) Encyclopedia of Engineering Optimization and Heuristics. Springer, Singapore. https://doi.org/10.1007/978-981-96-8165-5_48-1

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.