Fundamentos y procesos de la estimación de costes

Cada mañana, millones de personas realizan un ejercicio intuitivo de predicción: consultan el tiempo y deciden si llevarse un paraguas. Se trata de un acto de mitigación de riesgos basado en datos actuales. Sin embargo, cuando trasladamos esta lógica a la adquisición de sistemas de defensa o de infraestructuras críticas, la intuición no resulta de gran utilidad.

La estimación de costes no es un simple cálculo contable, sino una compleja combinación de arte y ciencia. Técnicamente, la definimos como una «instantánea de probabilidad» basada exclusivamente en la información disponible en un momento determinado.

Si cambian las suposiciones iniciales, la estimación variará inevitablemente. No es que el modelo sea erróneo, sino que ha mutado la realidad.

Como señaló el físico y premio Nobel Niels Bohr:

«Predecir es muy difícil, especialmente cuando se trata del futuro».

Lección 1: tus predecesores no eran incompetentes (y por qué eso importa).

Existe un mito persistente entre la alta dirección: que utilizar datos históricos para proyectar costes equivale a heredar las ineficiencias y los errores de los gestores anteriores. Se teme que, si el pasado fue accidentado, el futuro será un reflejo de esos fallos.

Nada más lejos de la realidad técnica. La búsqueda y la normalización de datos históricos son pilares de cualquier estimación científicamente fundamentada. Las desviaciones en proyectos pasados rara vez se deben a la incompetencia; suelen ser respuestas adaptativas a eventos externos e imprevisibles que escapan al control del director del programa. Al analizar el pasado, no buscamos replicar el error, sino comprender la volatilidad. En este sentido, la honestidad intelectual nos obliga a aceptar una máxima del sector:

«No cometerás los mismos errores que tus predecesores, ¡cometerás los tuyos propios!».

Esta perspectiva permite a los directivos sénior comprender que la gestión de proyectos complejos no consiste en eliminar la incertidumbre, sino en gestionarla mediante modelos cuantitativos transparentes y defendibles.

Lección 2: El «iceberg» de los costes del ciclo de vida.

Uno de los errores estratégicos más comunes en proyectos de infraestructura es centrarse exclusivamente en el “precio de etiqueta”, es decir, en el coste de construcción. En la consultoría de proyectos complejos se utiliza el análisis del coste del ciclo de vida (Life Cycle Cost Estimate, LCCE) para comprender el verdadero esfuerzo económico que conlleva una infraestructura desde su concepción hasta su retirada o renovación.

Un LCCE permite visualizar todos los recursos necesarios a lo largo del tiempo y suele estructurarse en cuatro grandes fases:

  1. Diseño y desarrollo (estudios previos, ingeniería, proyectos y ensayos).
  2. Inversión inicial (construcción y puesta en servicio).
  3. Operación y mantenimiento (explotación, conservación, energía, personal, reparaciones).
  4. Fin de vida o disposición (desmantelamiento, renovación o sustitución).

La metáfora del iceberg de los costes resulta especialmente útil para comprender este enfoque. La construcción visible —la parte que suele atraer toda la atención— es solo la punta del iceberg. Bajo la superficie se encuentran los costes acumulados durante décadas de operación y mantenimiento, que en muchos casos pueden representar la mayor parte del gasto total.

Sin embargo, un análisis riguroso exige reconocer que no existe una estructura de costes universal. La distribución del gasto depende en gran medida del tipo de activo y de su modelo de explotación.

Por ejemplo:

  • En infraestructuras digitales vinculadas a la ingeniería civil, como plataformas de gestión del tráfico o sistemas de control ferroviario, una parte muy significativa del coste puede concentrarse en el desarrollo tecnológico inicial, en el que la ingeniería y el software son determinantes.
  • En infraestructuras estandarizadas y repetitivas, como determinados tramos de carreteras o estructuras prefabricadas, el peso principal suele recaer en la fase de inversión inicial, donde materiales, maquinaria y ejecución concentran la mayor parte del presupuesto.
  • En infraestructuras intensivas en operación, como redes ferroviarias, aeropuertos, presas o grandes instalaciones hidráulicas, los costes dominantes suelen concentrarse en la fase de operación y mantenimiento: conservación, inspecciones, energía, personal especializado y renovación periódica de equipos.

La lección estratégica es clara: evaluar una infraestructura únicamente por su coste de construcción puede conducir a decisiones subóptimas. Incorporar una visión de ciclo de vida permite diseñar activos más eficientes, reducir costes futuros y tomar decisiones de inversión con una perspectiva verdaderamente estratégica.

Lección 3: La inercia estratégica de los «costes hundidos».

El cerebro humano tiene una vulnerabilidad bien conocida: la tendencia a intentar “salvar” un proyecto problemático solo porque ya se ha invertido mucho en él. En economía y gestión de proyectos, este fenómeno se conoce como la falacia del coste hundido.

En términos estrictamente financieros, el dinero gastado en el pasado ya no debería influir en las decisiones futuras, porque no puede recuperarse. Lo relevante para quien toma decisiones no es cuánto se ha gastado, sino cuánto costará terminar el proyecto a partir de ahora. Por eso, una de las métricas clave es el coste por completar (cost to go), es decir, el dinero adicional necesario para completar una infraestructura.

Veamos un ejemplo sencillo aplicado a la ingeniería civil. Imaginemos la construcción de una autovía o un gran puente cuyo presupuesto inicial se ha visto superado:

  • Estado actual del proyecto: ya se han invertido 200 millones de euros (coste hundido).
  • Coste estimado para terminar la obra: 100 millones adicionales.
  • Coste total final: 300 millones.

Ahora aparece una alternativa técnica: rediseñar el proyecto desde cero con otra solución constructiva, cuyo coste total sería de 250 millones.

Si miramos únicamente el coste total, la nueva solución (250 M€) parece más eficiente que el proyecto actual (300 M€). Sin embargo, desde el punto de vista financiero, el análisis correcto es otro.

El dinero ya invertido —los 200 millones— es un coste hundido y no puede recuperarse. La decisión debe basarse únicamente en el capital adicional necesario:

  • Terminar el proyecto actual requiere 100 millones adicionales.
  • Empezar una nueva solución requiere una nueva inversión de 250 millones.

Si ambas infraestructuras ofrecen un resultado equivalente en servicio, seguridad y prestaciones, la opción racional sería terminar el proyecto existente, ya que requiere mucho menos capital adicional.

Superar la inercia estratégica de los costes hundidos exige disciplina analítica: centrarse exclusivamente en los costes y beneficios futuros y no en el peso psicológico de lo ya gastado. En proyectos de infraestructura —donde las inversiones son muy elevadas y los plazos son largos— esta distinción es crucial para evitar decisiones económicamente ineficientes.

Lección 4: ¿Coste o precio? La distinción que lo cambia todo.

En el lenguaje coloquial, son sinónimos, pero en la estrategia de adquisiciones son conceptos totalmente distintos. El coste es la medición de los recursos consumidos para producir un bien. El precio es lo que el mercado está dispuesto a pagar y se ve afectado por el margen de beneficio, la competencia y el valor percibido. Nuestra máxima es que la profesión de la estimación se centra en los costes, no en el precio.

Para ilustrar esta complejidad, analicemos algo tan simple como una cabeza de lechuga. Para un consumidor, el precio es una cifra que ve en el estante. Para un estimador, el «coste» es un desglose multicapa que incluye el cultivo y la siembra, la irrigación y el mantenimiento, el proceso de cosecha, el embalaje en planta y, por último, la logística de transporte. Solo comprendiendo estas capas podemos evaluar si el precio de un sistema complejo es razonable o si estamos asumiendo riesgos financieros ocultos.

Lección 5: la «segunda opinión» como salvaguarda estratégica.

En muchos proyectos de ingeniería civil, la estimación independiente de costes (ICE, Independent Cost Estimate) suele percibirse por los directores de proyecto como una revisión incómoda o incluso como una señal de desconfianza hacia el trabajo del equipo interno. Sin embargo, en proyectos complejos —infraestructuras ferroviarias, grandes presas, túneles o corredores logísticos— contar con una segunda opinión técnica sobre los costes se ha consolidado como una práctica clave de gestión del riesgo.

Una estimación independiente no busca cuestionar al equipo del proyecto, sino aportar una visión externa y metodológicamente rigurosa que reduzca los sesgos inevitables de los equipos profundamente implicados en el diseño y la planificación. En proyectos de obra civil, donde intervienen múltiples disciplinas, contratistas y condicionantes regulatorios, es frecuente que el entusiasmo técnico o la presión por aprobar un proyecto conduzca a estimaciones demasiado optimistas.

Por ejemplo, en la planificación de una línea ferroviaria de alta velocidad, un equipo promotor puede basar su estimación en rendimientos teóricos de obra o en condiciones geotécnicas favorables. Una evaluación independiente puede introducir escenarios alternativos: variaciones en los costes de materiales, incertidumbres geológicas en los túneles o desviaciones en la productividad de los equipos. Del mismo modo, en la construcción de grandes infraestructuras hidráulicas o viarias, una revisión externa puede detectar partidas infravaloradas relacionadas con desvíos de servicios, con la gestión ambiental o con riesgos constructivos.

Las instituciones públicas que financian grandes infraestructuras han aprendido que la calidad de las estimaciones de costes es decisiva para la viabilidad de los proyectos. Como advierte la Government Accountability Office (GAO):

«La capacidad de generar estimaciones de costes fiables es necesaria para apoyar los procesos presupuestarios. Sin ella, existe el riesgo de sufrir sobrecostes, incumplimientos de plazos y deficiencias en el rendimiento, lo que implica que el Gobierno no pueda financiar tantos programas como pretendía».

En este contexto, la estimación independiente de costes funciona como una salvaguarda estratégica: no solo mejora la calidad de las previsiones económicas, sino que también fortalece la credibilidad de los proyectos ante financiadores, administraciones y la ciudadanía. En un sector donde las decisiones de inversión comprometen recursos durante décadas, disponer de una segunda opinión rigurosa no es una señal de debilidad, sino de buena gobernanza.

Conclusión: el «Estándar del Estudiante de Secundaria».

Una estimación de alta calidad no se mide por su capacidad de «acertar» el número final, sino por su trazabilidad y auditabilidad. En nuestro sector, aplicamos lo que se conoce como «Estándar del Estudiante de Secundaria»: el análisis debe ser lo suficientemente transparente y lógico como para que un estudiante con conocimientos básicos de aritmética pueda seguir los argumentos, formular suposiciones y obtener el mismo resultado.

Al final del día, quien controla las suposiciones controla el análisis. Al evaluar sus proyectos actuales, pregúntese: ¿sus estimaciones son cajas negras de complejidad innecesaria o documentos trazables que reflejan el coste real del ciclo de vida? La transparencia no es solo una buena práctica, sino la brújula que separa el éxito estratégico del desastre presupuestario.

Aquí puedes escuchar una conversación sobre los aspectos de mayor interés de este tema.

El vídeo resume bien los conceptos más importantes.

Strategic_Cost_Prediction

Referencias:

Mislick, G. K., & Nussbaum, D. A. (2015). Cost estimation: Methods and tools. John Wiley & Sons.

Yepes, V. (2022). Gestión de costes y producción de maquinaria de construcción. Universidad Politécnica de Valencia.

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Más allá del casco: verdades esenciales (y sorprendentes) sobre la gestión de riesgos laborales

En el imaginario colectivo, la seguridad laboral se reduce a una lista de normas restrictivas o al uso obligatorio del casco. Para muchos líderes empresariales, la seguridad y la salud en el trabajo se perciben como un trámite burocrático que ralentiza la producción. Sin embargo, ¿qué pasaría si viéramos la seguridad y salud en el trabajo (SST) no como un obstáculo, sino como el motor de una empresa eficiente?

La gestión de la SST no es un accesorio ni un «extra» para cumplir la ley, sino una parte intrínseca de la gestión empresarial moderna. Una organización que no controla sus riesgos es, por definición, ineficiente. A continuación, desglosamos cinco realidades fundamentales, basadas en los estándares internacionales, que transformarán su visión sobre la prevención.

La seguridad no es un accesorio, sino un sistema

A menudo, tendemos a ver la seguridad como una serie de elementos aislados. La realidad es que la SST funciona como un sistema de gestión. Imagine un coche: para que se mueva de forma eficiente, es necesario que el sistema de frenos, la dirección y el motor interactúen entre sí de manera perfecta. Si uno falla, se compromete el objetivo de llegar al destino.

Un sistema requiere entradas (recursos, información y energía), procesos interconectados y salidas para alcanzar su objetivo. En la SST, los objetivos son la integridad del trabajador y la continuidad operativa.

«Un sistema puede definirse como un conjunto de elementos (medios o recursos) que interactúan entre sí para alcanzar un objetivo».

Ver la seguridad como un sistema cambia la narrativa: deja de ser un «gasto» para convertirse en un engranaje operativo que garantiza que los recursos se transformen en resultados sin las interrupciones costosas que provocan los accidentes.

La paradoja de la jerarquía: cuanto mayor es el rango, mayor es la vigilancia

La gestión moderna exige integrar la prevención en todos los niveles, desde el director ejecutivo hasta el personal operativo. Lo sorprendente es que, a medida que se asciende en el organigrama, la función de seguridad no desaparece, sino que se transforma en la obligación de «velar» por los demás.

Es fundamental distinguir las funciones de control para evitar vacíos de responsabilidad.

  • El mando o supervisor de una actividad peligrosa debe asegurarse de que el trabajador sabe realizarla de manera segura y de que se realice correctamente.
  • El inmediato superior debe establecer el procedimiento de ejecución y controlar que la supervisión se realice adecuadamente.
  • La alta dirección (CEO/directores) debe asegurar que la prevención esté integrada en el sistema global y dotar a la organización de los recursos necesarios.

El estándar de oro: el ciclo ILO-OSH 2001

Para que la seguridad no se quede estancada, la guía ILO-OSH 2001 de la Organización Internacional del Trabajo (OIT) propone un modelo de mejora continua estructurado en cinco elementos clave que toda empresa debe implementar.

  • Política: Establecer por escrito el compromiso de la empresa.
  • Organización: Definir responsabilidades, competencias y comunicación.
  • Planificación y aplicación: Evaluar los peligros y diseñar la estrategia de control.
  • Evaluación: Controlar los resultados mediante auditorías e investigaciones.
  • Acción en pro de las mejoras: Adoptar medidas preventivas y correctivas permanentes.

Un factor crítico de éxito es que la política de SST no sea un documento genérico, sino que esté adaptada a la organización, consensuada con los trabajadores y sus representantes, y difundida de manera que sea accesible para todos los miembros.

Formación: gratuita, en horario laboral y evaluable

La formación es un pilar fundamental de la organización, pero para que sea efectiva y cumpla con los estándares internacionales, debe extenderse a todos los miembros de la organización y cumplir condiciones estrictas:

  • Gratuidad y horario: Debe ofrecerse sin coste para el participante y, preferiblemente, durante la jornada laboral.
  • Competencia: Debe ser impartida por personas capacitadas y revisada periódicamente.
  • Evaluación de retención: Este es el punto más disruptivo. No basta con asistir a una charla; el sistema exige una evaluación en la que los participantes demuestren su grado de comprensión y retención. Si no hay evidencia de aprendizaje, la formación no ha cumplido su objetivo preventivo.

La jerarquía del control: el EPI es el último recurso

Este es el concepto que más cuesta entender para la dirección. Solemos pensar que proporcionar un equipo de protección individual (EPI), como guantes, es la primera medida. En una gestión profesional, el EPI es la última línea de defensa.

Las medidas deben aplicarse estrictamente en este orden de prioridad:

  • Supresión del peligro/riesgo: eliminar la fuente del riesgo por completo.
  • Control del peligro en su origen: adoptar medidas técnicas o organizativas para que el riesgo no se propague.
  • Reducción al mínimo (minimización): diseñar sistemas de trabajo seguros que incluyan disposiciones administrativas de control.
  • Equipo de protección individual (EPI): solo se suministra cuando los peligros no pueden controlarse mediante medidas colectivas y el empleador se asegura de que se mantenga y se utilice correctamente sin coste para el trabajador.

Por ejemplo, ponerle un casco a un trabajador antes de intentar eliminar el riesgo de caída de objetos es un error de diseño. La protección personal solo entra en juego cuando las medidas de ingeniería y organización han llegado a su límite.

Conclusión: Hacia una cultura de la prevención

La seguridad y la salud en el trabajo son responsabilidad del empleador, pero su éxito real depende de la participación activa de todos. Entender que la prevención es un sistema interconectado, con jerarquías de control claras y formación evaluable, es lo que separa a las empresas que simplemente cumplen la normativa de aquellas que operan con excelencia.

Al final del día, la pregunta para cualquier líder es: En su organización, ¿la seguridad es la primera prioridad en el diseño de los procesos o simplemente la última capa de ropa que se pone el trabajador?

En esta conversación puedes escuchar algunas de las ideas más interesantes del tema.

Este vídeo resume bien los conceptos más importantes de la gestión de riesgos.

Gestión_de_Riesgos_SST

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Por qué «no existe la comida gratis» en el mundo de los algoritmos

El mito del algoritmo universal: una humillación necesaria.

Durante décadas, la comunidad científica persiguió con arrogancia el «santo grial»: el algoritmo de optimización universal. Se soñaba con una «caja negra», ya fuera basada en elegantes procesos evolutivos o en redes neuronales profundas, capaz de resolver cualquier problema, desde el diseño de un puente atirantado hasta la logística del viajante, con una eficiencia superior.

Sin embargo, esta búsqueda no solo era ambiciosa, sino que también era fundamentalmente errónea. La revelación de que no existe una inteligencia algorítmica absoluta supuso un golpe de humildad para quienes creían haber capturado la esencia del aprendizaje, cuando en realidad solo habían logrado un ajuste estadístico fortuito.

La revelación matemática: todos los algoritmos son, en promedio, iguales.

Este mito fue desmentido en 1997 por David Wolpert y William Macready. Sus teoremas «No Free Lunch» (NFL) establecieron una igualdad matemática absoluta que rompe el ego de cualquier programador: si promediamos el rendimiento sobre el conjunto de todos los problemas posibles, cualquier algoritmo sofisticado es idéntico a una búsqueda aleatoria.

Lo que un algoritmo gana en un tipo de problemas, lo paga inevitablemente con un fracaso estrepitoso en otro. No hay «comida gratis»: la superioridad de un algoritmo genético de última generación frente a un proceso de búsqueda ciega es una ilusión que solo se sostiene cuando ignoramos la inmensidad del espacio de funciones posibles.

El teorema uno nos muestra que el uso del conocimiento del dominio puede mejorar el rendimiento, a costa de la generalidad.

La geometría del éxito: el problema de la «alineación».

Para comprender la optimización del éxito, debemos abandonar la idea de la «fuerza bruta» y abrazar la geometría. Imagine el espacio de todas las funciones posibles como una esfera gigantesca. En este espacio, cada algoritmo es un vector v y la distribución de los problemas que deseamos resolver es otro vector p.

Estar «bien adaptado» a un problema significa que el vector del algoritmo apunta en la misma dirección que el del problema.

  • Alineación geométrica: que el vector del algoritmo apunte en la misma dirección que el del problema. El rendimiento es, en esencia, el producto interno de ambos vectores.
  • Sacrificio de la generalidad: un algoritmo «generalista» apunta hacia todas partes y, por tanto, su proyección (su éxito) en un punto concreto es nula.
  • Curvatura del conocimiento: el éxito no reside en el código, sino en cómo este «se dobla» para encajar con la estructura lógica y física del problema.

Los investigadores del problema del viajante no han creado algoritmos «mejores» en términos absolutos, sino que han esculpido herramientas íntimamente alineadas con la geometría específica de las rutas y las distancias.

El golpe al ego: el algoritmo aleatorio como juez de paz.

Los teoremas 5 y 6 de Wolpert y Macready introducen un estándar de rigor que actúa como un «mínimo ético» para la ciencia. Si un algoritmo no consigue que el coste disminuya más rápido que con una búsqueda aleatoria, el investigador habrá fracasado.

Esta métrica es el antídoto contra el fraude intelectual del ajuste fino o manual. Muchos de los éxitos que se describen en la literatura no son más que el resultado de forzar un algoritmo a un puñado de problemas específicos sin superar el umbral de una búsqueda ciega. Superar al «juez de paz» aleatorio es la única prueba de que el algoritmo ha logrado capturar alguna estructura real del problema.

Consecuencias prácticas: el fin del experto generalista.

En ingeniería civil, las implicaciones del NFL son tajantes. No existen programas comerciales que puedan optimizar cualquier estructura de forma indiscriminada. Las herramientas generales (como las toolboxes estándar de Matlab) suelen ser ineficaces porque carecen del «conocimiento del hormigón».

Esta realidad ha provocado una «carrera armamentística» hacia la especialización.

  • Hibridación: La respuesta de la ingeniería moderna consiste en combinar metaheurísticas con técnicas de deep learning y redes neuronales para «aprender» la estructura del dominio.
  • Alineación estructural: un matemático brillante fracasará al optimizar un puente atirantado si no comprende la resistencia de los materiales. No se trata de falta de cálculo, sino de que su algoritmo no está alineado con la «curvatura» física del problema. El conocimiento experto es lo que permite al algoritmo encontrar el camino en un espacio de búsqueda que, de otro modo, sería un desierto uniforme.

El dilema del observador: la ceguera del éxito pasado.

Incluso cuando un algoritmo ha funcionado bien hasta ahora, el teorema 10 (sección VII) nos da un jarro de agua fría: observar el rendimiento pasado no garantiza el éxito futuro sin un conocimiento adicional sobre la función de coste. Sin conocer la estructura, no vemos el siguiente paso.

En este estado de «oscuridad estructural», un procedimiento de elección «irracional» (cambiar un algoritmo que ha funcionado bien por otro que ha funcionado mal) es tan válido como uno «racional». Sin suposiciones sobre la relación entre el algoritmo y la función, el comportamiento pasado es un predictor pobre. La lógica solo surge cuando el observador aporta información que no está presente en los datos.

Conclusión: hacia una optimización consciente.

Debemos aceptar una verdad incómoda: nuestra inteligencia artificial es un reflejo limitado del conocimiento que somos capaces de codificar en ella. La ciencia de la optimización ya no debe buscar el «algoritmo perfecto», sino métodos más profundos para transferir el conocimiento del dominio al proceso de búsqueda.

Si el rendimiento de nuestras máquinas depende por completo de lo que ya sabemos sobre el mundo, ¿no será que la «inteligencia artificial general» es un mito termodinámico, similar a la máquina de movimiento perpetuo? Quizás el mayor descubrimiento de Wolpert y Macready no fue matemático, sino filosófico: la inteligencia no es más que el conocimiento del problema disfrazado de código.

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

Este vídeo resume bien los conceptos más importantes tratados.

The_Universal_Algorithm_Myth

Referencias:

GARCÍA, J.; YEPES, V.; MARTÍ, J.V. (2020a). A hybrid k-means cuckoo search algorithm applied to the counterfort retaining walls problem. Mathematics,  8(4), 555.

MARTÍNEZ-MUÑOZ, D.; GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2022). Optimal design of steel-concrete composite bridge based on a transfer function discrete swarm intelligence algorithm. Structural and Multidisciplinary Optimization, 65:312. DOI:10.1007/s00158-022-03393-9

NEGRÍN, I.; CHAGOYÉN, E.; KRIPKA, M.; YEPES, V. (2025). An integrated framework for Optimization-based Robust Design to Progressive Collapse of RC skeleton buildings incorporating Soil-Structure Interaction effects. Innovative Infrastructure Solutions, 10:446. DOI:10.1007/s41062-025-02243-z

WOLPERT, D.H.; MACREADY, W.G. (1997). No Free Lunch Theorems for Optimization. IEEE Transactions on Evolutionary Computation, 1(1):67-82.

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

A continuación os dejo el artículo original «No Free Lunch Theorems for Optimization». Se ha convertido en un clásico de optimización heurística.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

La inteligencia de la naturaleza: cinco lecciones de los algoritmos genéticos.

Optimizar una estructura de hormigón no es solo una cuestión de cálculo, sino una batalla contra la entropía. Además, en la búsqueda de la combinación precisa entre la cantidad de acero y la resistencia del hormigón, el ingeniero se enfrenta a un océano de variables en el que la solución «perfecta» suele estar oculta bajo capas de complejidad técnica. Por tanto, el proceso exige no solo rigor analítico, sino también una comprensión profunda de cómo interactúan todos los factores que condicionan el diseño estructural.

Ante este desafío, la ingeniería moderna ha dejado de lado las calculadoras para observar el mecanismo de diseño más refinado de la historia: la selección natural.

Hace más de un siglo, Charles Darwin descubrió que la supervivencia es el resultado de un proceso en el que sobreviven los más aptos y transmiten sus rasgos. Hoy en día, aplicamos este rigor biológico a los algoritmos genéticos. Estos sistemas no solo resuelven problemas, sino que también imitan la vida misma para encontrar respuestas con una elegancia estructural que antes considerábamos inalcanzable.

Lección 1: La evolución no ocurre en el individuo, sino en su código.

Una de las distinciones más profundas de la computación evolutiva es que la mejora de un sistema no se logra manipulando el objeto final (el puente o la viga), sino su receta original. Para que un algoritmo sea verdaderamente evolutivo, debe comprender que el éxito se forja en las estructuras subyacentes, tal y como lo definió Davis en 1991:

«La evolución opera en los cromosomas, en lugar de en los individuos a los que representan».

Este enfoque resulta fascinante por lo contraintuitivo que es: para optimizar una estructura física (el fenotipo), manipulamos un vector binario o un string (el genotipo). Al trabajar con la representación abstracta, permitimos que el código explore cambios profundos sin las limitaciones del diseño inmediato, entendiendo que el cromosoma es el verdadero custodio de la adaptación global.

Lección 2: El diccionario biológico del programador.

Para resolver problemas de ingeniería como si fueran organismos vivos, debemos traducir la realidad física a un lenguaje genético preciso. Ver una solución técnica como un «ser» con ADN transforma radicalmente nuestra metodología de resolución.

  • Fenotipo: la solución final y detectable; la expresión física de la interacción genética.
  • Genotipo: la estructura o plan maestro a partir del cual se construye el organismo.
  • Cromosoma: vector o cadena de datos que almacena información.
  • Gen: Cada elemento del vector (un «vagón de tren» en la cadena de datos).
  • Alelo: el valor específico que adopta ese elemento (el bit o dato concreto).
  • Locus: posición exacta del gen, fundamental porque controla un carácter específico de la solución.
  • Aptitud (fitness): función objetivo que mide la capacidad de la solución para sobrevivir en su entorno técnico.

Lección 3: La «ruleta» de la supervivencia y la selección natural.

La selección natural no funciona como un sorteo, aunque tampoco actúa como una sentencia absoluta. Este principio se traslada al código mediante el método de la ruleta. En dicho procedimiento, cada solución se representa por un segmento circular cuya superficie es proporcional a su nivel de aptitud.

Esta «justicia algorítmica» garantiza que los mejores tengan mayores probabilidades de dejar descendencia. Sin embargo, no garantiza el monopolio de la reproducción, ya que los individuos menos aptos mantienen una pequeña probabilidad de transmitir sus genes. Este «caos controlado» es vital, ya que garantiza la diversidad estructural y evita que el algoritmo se estanque en óptimos locales, es decir, soluciones que parecen buenas solo porque el sistema ha perdido la capacidad de mirar más allá de lo inmediato.

Lección 4: Cruzamiento y mutación. El «sexo» de los datos.

La evolución exige novedad. Si nos limitáramos a clonar a los mejores, el progreso se detendría. Por ello, los algoritmos utilizan la recombinación o cruzamiento, mediante el cual dos progenitores intercambian información para crear descendientes con rasgos mixtos. Se destacan operadores sofisticados como el PMX (Partially-Matched Crossover), que copia un fragmento del código manteniendo las posiciones y rellena el resto con valores no utilizados, y el SEX (Strategic Edge Crossover), que busca identificar y preservar secuencias presentes en ambos progenitores.

Pero la mezcla no es suficiente. Es necesaria la mutación para introducir variaciones que no existían en la población original.

«Mutación: modificación espontánea de la información genética».

La mutación actúa como un factor de diversificación radical. Ya sea reemplazando un bit o recombinando elementos al azar sin considerar su aptitud inicial, este mecanismo introduce el «ruido» necesario para sacudir el sistema y permitirle dar el salto a fronteras de eficiencia completamente nuevas.

Lección 5: La memoria es un lastre para la evolución.

Siguiendo la lógica de Holland, uno de los conceptos más disruptivos de la evolución es su capacidad para vivir en el presente absoluto. A diferencia de otros sistemas de optimización que arrastran sesgos históricos, la evolución es un proceso sin memoria en el sentido estricto, ya que es una eficiencia de estado.

Durante la formación de nuevos cromosomas, el algoritmo solo tiene en cuenta la información del periodo inmediatamente anterior. Este enfoque «radical» permite que el sistema converja hacia la excelencia técnica basándose exclusivamente en la eficacia actual de los rasgos, sin verse frenado por configuraciones que fueron útiles en el pasado, pero ya no sirven para afrontar los desafíos del presente. Se podría decir que es una búsqueda de la perfección despojada de prejuicios históricos.

Los algoritmos genéticos demuestran que la naturaleza ya había resuelto los problemas de optimización más difíciles hace millones de años. Al adoptar estas leyes biológicas, la ingeniería no solo encuentra mejores soluciones para sus puentes y edificios, sino que lo hace con una elegancia que solo la evolución puede dictar.

Si principios tan elementales como la herencia y la mutación pueden dar lugar a estructuras de hormigón de una eficiencia asombrosa, ¿qué otros procesos naturales esconden hoy la clave para el próximo gran avance en la inteligencia de nuestro software?

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

Este vídeo resume bien los conceptos básicos de los algoritmos genéticos.

Aquí tenéis un vídeo en el que explico este algoritmo. Espero que os interese.

Genetic_Algorithms

Referencias:

DENNETT, D.C. (1999). La peligrosa idea de Darwin. Galaxia Gutenberg. Círculo de Lectores, Barcelona.

HOLLAND, J.H. (1975). Adaptation in natural and artificial systems. University of Michigan Press, Ann Arbor.

MARTÍNEZ, F.J.; GONZÁLEZ-VIDOSA, F.; HOSPITALER, A.; YEPES, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88: 375-386. ISSN: 0045-7949.  (link)

MEDINA, J.R.; YEPES, V. (2003). Optimization of touristic distribution networks using genetic algorithms. Statistics and Operations Research Transactions, 27(1): 95-112.  ISSN: 1696-2281.  (pdf)

PONZ-TIENDA, J.L.; YEPES, V.; PELLICER, E.; MORENO-FLORES, J. (2013). The resource leveling problem with multiple resources using an adaptive genetic algorithm. Automation in Construction, 29(1):161-172. DOI:http://dx.doi.org/10.1016/j.autcon.2012.10.003. (link)

YEPES, V. (2003). Apuntes de optimización heurística en ingeniería. Editorial de la Universidad Politécnica de Valencia. Ref. 2003.249. Valencia, 266 pp. Depósito legal: V-2720-2003.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Es real o es solo azar? 5 revelaciones del ANOVA para dominar tus datos

Introducción: El dilema de las medias engañosas.

Imagine que supervisa a tres profesores con métodos pedagógicos diferentes o que analiza la viscosidad de cinco lotes de producción. Al revisar los resultados, observa que las medias no son iguales. Entonces surge la pregunta crítica que separa a un gestor de un estratega: ¿esta diferencia indica una verdadera oportunidad operativa o es simplemente ruido estadístico?

Actuar basándose en el «ruido» genera una ineficiencia operativa masiva: se podría detener una línea de producción sin necesidad o ignorar un fallo sistémico costoso simplemente por falta de rigor. Para resolver este dilema, la estadística nos ofrece la herramienta «detective» definitiva: el ANOVA (Análisis de Varianza), diseñado para determinar si las diferencias entre tres o más grupos son lo suficientemente significativas como para justificar una decisión empresarial.

¿Por qué la prueba t no es suficiente?

Para comparar dos niveles (por ejemplo, hombres frente a mujeres), la prueba t de Student es adecuada. Sin embargo, cuando enfrentamos tres o más grupos, el ANOVA es obligatorio por una razón técnica crucial: la inflación del error alfa.

Si intentáramos comparar múltiples pares usando pruebas t individuales (lote 1 frente a lote 2, lote 2 frente a lote 3 y lote 1 frente a lote 3), el riesgo de error se acumularía. Cada prueba individual tiene una probabilidad del 5 % de detectar una «falsa diferencia» (falso positivo). Al encadenar pruebas, ese riesgo del 5 % crece exponencialmente, lo que nos lleva a conclusiones erróneas. El ANOVA neutraliza este riesgo al analizar todos los grupos simultáneamente bajo una premisa fundamental:

Hipótesis nula (H₀): todas las medias poblacionales son iguales (H₀: μ₁ = μ₂ = ⋯ = μk). El punto de partida estratégico consiste en asumir que el factor estudiado no tiene influencia real hasta que la varianza demuestre lo contrario.

La paradoja central: comparar medias al analizar la variabilidad.

El concepto más contraintuitivo del ANOVA es que, para saber si las medias son distintas, no estudiamos las medias, sino la varianza. El análisis descompone la variabilidad total en dos fuentes:

  • Variación entre grupos (factor): el efecto real del tratamiento o de la variable (por ejemplo, el impacto de un nuevo fertilizante).
  • Variación dentro de los grupos (error): el ruido aleatorio o las diferencias que no pueden explicarse por el azar.

Un estratega sénior no solo busca diferencias, sino que también cuantifica la variabilidad explicada. Usando la relación (SCE/SCT) × 100, podemos determinar qué porcentaje del «caos» de los datos corresponde a la responsabilidad directa del factor analizado. Si el lote explica, por ejemplo, el 44,95 % de la variación de la viscosidad, se trata de un hallazgo de alto impacto administrativo.

El valor p y la razón F: tu seguro contra la casualidad.

Si el ANOVA es un detective, la razón F es su lupa. Matemáticamente, es la relación entre la media de los cuadrados del factor y la media de los cuadrados del error (MCFactor/MCError). Si la razón F es significativamente mayor que 1, la «señal» del factor es más fuerte que el «ruido» del azar.

Esta potencia se traduce en el valor p, que es nuestra medida de riesgo. Consideremos el caso del gel adhesivo: tras las quejas de los clientes, se analizaron cinco lotes. El lote 3 mostró una media de 26,77, notablemente inferior al estándar de 30. El ANOVA arrojó un valor p de 0,0012, lo que constituye una prueba contundente para que la gerencia intervenga específicamente en ese lote.

Definición del valor p: probabilidad de observar una varianza en las medias muestrales por mero azar. Un valor p inferior a 0,05 indica que el riesgo de que se trate de un espejismo es lo suficientemente bajo como para actuar.

El ANOVA no es una brújula, sino una alarma.

Es un error común creer que el ANOVA señala al «culpable». En realidad, el ANOVA funciona como una alarma: confirma que «no todas las medias son iguales», pero no especifica cuál es la diferente.

Una vez que suena la alarma (p < 0,05), el estratega debe utilizar una «brújula»: las pruebas de comparación múltiple. Herramientas como la prueba de Tukey-Kramer o la HSD de Tukey permiten comparar pares de grupos para identificar exactamente dónde se encuentra la anomalía y realizar una inversión de recursos quirúrgicos de manera eficiente.

Resiliencia estadística: qué hacer cuando las reglas se rompen.

Para que un ANOVA tradicional sea fiable, los datos deben ser normales y presentar homocedasticidad, es decir, igualdad de varianzas. La prueba de Levene es el filtro crítico aquí.

  • Si el valor p de Levene es mayor que 0,05, las varianzas son iguales y el ANOVA es el camino seguro.
  • Si Levene es significativo (p < 0,05), las reglas se han roto y el ANOVA estándar pierde validez.

En este escenario de crisis de datos, el investigador recurre a la prueba de Welch. Se trata de una alternativa robusta que permite comparar medias con precisión, incluso cuando las varianzas son desiguales, y que preserva la investigación sin sacrificar el rigor científico.

Conclusión: del dato a la decisión inteligente.

El ANOVA transforma los datos brutos en pruebas de la influencia. Ya sea para validar si un medicamento reduce el tiempo de curación o si un cambio en la composición del hormigón aumenta su resistencia, esta técnica nos permite distinguir entre casualidad y causalidad.

En última instancia, la excelencia en la gestión no consiste en promedios simples, sino en comprender qué parte de los resultados se debe a la variabilidad explicada por las decisiones adoptadas y qué parte es ruido.

Reflexione sobre su operación de hoy: ¿qué variaciones observa en sus procesos que podrían validarse —o descartarse— mediante el rigor del ANOVA?

En esta conversación puedes escuchar algunas de las ideas más importantes sobre ANOVA.

Este vídeo resume bien el tema.

One_Way_ANOVA_Mastery

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Optimización del impacto ambiental en el ciclo de vida de estructuras híbridas

Este documento sintetiza los resultados de un estudio sobre la optimización del impacto ambiental del ciclo de vida (LCEIO) en ingeniería estructural, centrado en una tipología de estructura compuesta innovadora de hormigón armado y acero (RC-THVS) como alternativa sostenible para la construcción de edificios porticados. El sistema RC-THVS integra columnas de hormigón armado con vigas de acero híbridas de sección transversal variable (THVS).

Los resultados clave demuestran que la aplicación de la LCEIO reduce significativamente el impacto ambiental, ya que se logra una disminución de hasta un 32 % en las emisiones de potencial de calentamiento global (GWP) en comparación con los edificios diseñados tradicionalmente. La mejora más sustancial se observa en la fase de fabricación, puesto que las vigas THVS reducen las emisiones hasta en un 70 % en comparación con los perfiles I convencionales. Además, los impactos del mantenimiento se reducen en un 45 % gracias a la geometría optimizada de las vigas.

Al comparar las soluciones optimizadas, la tipología compuesta con uniones rígidas (Comp F) supera sistemáticamente a los sistemas de hormigón armado (RC) en entornos de baja agresividad, con una reducción de aproximadamente el 30 % en las emisiones del ciclo de vida. En entornos altamente agresivos, la ventaja se mantiene, aunque disminuye al 21 % debido al mayor impacto del mantenimiento del acero. Otra ventaja del sistema RC-THVS es que reduce el peso estructural, lo que disminuye las cargas axiales en las columnas y en las cimentaciones. Cuando se integran elementos rigidizadores, como losas y muros, en la superestructura, la eficiencia del sistema aumenta y se pueden reducir las emisiones hasta en un 42 %, lo que posiciona la configuración con uniones articuladas (Comp P) como la opción óptima para grandes luces. El estudio concluye que la combinación de LCEIO y las configuraciones compuestas RC-THVS ofrece una estrategia escalable y eficiente para diseñar soluciones edificatorias más sostenibles y respetuosas con el medio ambiente.

Introducción y contexto

La industria de la construcción es una de las principales causantes de la degradación medioambiental, por lo que es necesario transformarla para que adopte prácticas más sostenibles. La optimización estructural surge como una herramienta esencial para este propósito, ya que automatiza el diseño, controla el tipo y la cantidad de material utilizado y fomenta tipologías innovadoras. Aunque la investigación se ha centrado tradicionalmente en la optimización de estructuras convencionales de hormigón armado, existe una necesidad creciente de integrar tipologías compuestas e híbridas en marcos de evaluación del ciclo de vida completo.

Las estructuras compuestas, que combinan materiales como el acero y el hormigón, ofrecen un mejor rendimiento estructural y una mayor sostenibilidad. Sin embargo, su integración con técnicas de optimización ha sido limitada, centrándose a menudo en componentes aislados y obviando el rendimiento a largo plazo. Este estudio aborda estas limitaciones aplicando un marco LCEIO a la nueva tipología RC-THVS y comparándola directamente con un sistema de hormigón armado convencional. La investigación tiene en cuenta factores críticos como la interacción suelo-estructura (SSI), el envejecimiento de los materiales y los escenarios de mantenimiento en diversas condiciones ambientales, y utiliza un algoritmo de optimización eficiente (LHS-CINS) para superar los altos costes computacionales asociados a las simulaciones de alta fidelidad.

Metodología de optimización

Sistemas estructurales y casos de estudio

El estudio evalúa una tipología compuesta (RC-THVS) y otra tradicional de hormigón armado (RC).

  • Tipología RC tradicional: compuesta por vigas, columnas y cimentaciones de hormigón armado con uniones rígidas.
  • Tipología Compuesta RC-THVS: Integra columnas y cimentaciones de RC con vigas de acero THVS. Se analizan dos variantes de conexión viga-columna:
    • Comp F: Conexiones rígidas.
    • Comp P: Conexiones articuladas.

El rendimiento de estas tipologías se evalúa en tres casos de estudio de edificios porticados que varían en altura y en dimensiones del vano, como se muestra en la Figura 1 del documento fuente. El modelado, el análisis y el diseño se han realizado con el programa informático SAP2000 y las verificaciones de las vigas THVS se han procesado mediante una rutina personalizada en MATLAB.

Cargas consideradas Valor
Carga muerta en plantas inferiores 4,80 kN/m²
Carga muerta en cubierta 5,40 kN/m²
Carga viva en plantas inferiores (oficinas) 3,00 kN/m²
Carga viva en cubierta 0,80 kN/m²
Carga de viento extrema Presión positiva variable de 0,92 a 1,50 kN/m², presión negativa variable de 0,50 a 0,83 kN/m².

Formulación del problema de optimización

Función objetivo: impacto ambiental del ciclo de vida

La función objetivo a minimizar es el potencial de calentamiento global (GWP), medido en kg de CO₂ equivalente (kg CO₂ eq), evaluado a lo largo de un ciclo de vida de 100 años. Se consideran dos escenarios de exposición ambiental: baja agresividad y alta agresividad (marina).

GWP = Σ (elcaj × mj)

Donde elcaj es el impacto ambiental unitario de cada proceso j en cada etapa del ciclo de vida i, y mj es la medida que cuantifica dicho proceso.

Análisis del ciclo de vida (ACV)

El ACV incluye cuatro etapas principales, modeladas con el software OpenLCA y datos de Ecoinvent v3.7.1 y BEDEC (2016):

  1. Fabricación: Incluye la producción de hormigón, acero de refuerzo y vigas THVS. Para estas últimas, se consideran los procesos de corte, soldadura y pintura (pintura alquídica).
  2. Construcción: Abarca el transporte de materiales (100 km) y el consumo de energía de la maquinaria para la manipulación, el montaje y los trabajos de cimentación (excavación y relleno).
  3. Uso y mantenimiento:
    • Elementos RC: La vida útil se calcula con el modelo de Tuutti (1982), considerando la carbonatación y la penetración de cloruros. Las reparaciones (46,58 kg CO₂ eq/m²) se realizan si la vida útil es inferior a 100 años. Se contabiliza la absorción de CO₂ mediante la carbonatación.
    • Vigas THVS: El mantenimiento se realiza conforme a la norma ISO 12944:2018. El ciclo de mantenimiento del sistema de recubrimiento protector se extiende por 18 años en entornos de baja agresividad y por 9 años en entornos de alta agresividad e incluye retoques, repintado completo y reemplazo total del recubrimiento.
  4. Fin de vida: Incluye la demolición, el desmontaje, la trituración del hormigón y el reciclaje. Se asume una tasa de reutilización/reciclaje del 93 %/7 % para el acero estructural y del 42 %/58 % para los elementos de RC.

Variables de diseño

El problema de optimización utiliza variables discretas.

  • Tipología RC (19 variables): dimensiones de vigas (4), dimensiones de columnas (8), rectangularidad de las cimentaciones (4) y tipo de hormigón (3).
  • Tipología Compuesta (30 variables): se reemplazan las 5 variables de las vigas RC por 16 variables para las vigas THVS, que definen:
    • Alturas de la sección central y de los extremos (hw1, hw2).
    • Espesor del alma (tw) y de las alas (tf).
    • Ancho del ala (bf).
    • Posición del punto de transición (TP).
    • Calidad del acero para el alma (fyw) y las alas (fyf), con 8 grados de calidad disponibles (S235 a S600).

Algoritmo de solución: LHS-CINS

Para abordar el alto coste computacional de las Simulaciones de Alta Fidelidad (HFS), se utiliza un método híbrido:

  1. Muestreo de Hipercubo Latino (LHS): Genera un conjunto inicial de 100 soluciones bien distribuidas en el espacio de diseño.
  2. Muestreo Iterativo de Vecindad Restringido (CINS): Un algoritmo de búsqueda local mejorado basado en la mejor solución encontrada mediante LHS. CINS explora el vecindario de la solución actual y combina inteligentemente las mejoras para acelerar la convergencia y escapar de óptimos locales.

Esta estrategia LHS-CINS demostró ser significativamente más rápida, requiriendo un 53 % menos de HFS que los algoritmos heurísticos tradicionales, como el Biogeography-Based Optimization (BBO), para alcanzar una solución de alta calidad.

Resultados clave y análisis

Impacto de la LCEIO en el diseño

La optimización estructural reduce drásticamente el impacto ambiental en comparación con un enfoque de diseño tradicional.

  • Diseños RC: La LCEIO reduce el impacto en un ~15 %.
  • Sistemas compuestos: La LCEIO reduce el impacto en más del 30 % (hasta un 32 % en la configuración con uniones rígidas, Comp F).
  • A nivel de elementos: Las vigas THVS optimizadas muestran una reducción del impacto entre el 47 % y el 55 % en comparación con los perfiles W de acero utilizados en el diseño tradicional.

La mayor ventaja de las vigas THVS se observa en las fases de fabricación (reducciones de hasta el 74 %) y de mantenimiento (~45 %), gracias a su eficiencia en materiales y a su geometría cónica.

Ventajas de la tipología compuesta optimizada

Entornos de baja agresividad

  • Rendimiento global: La tipología Comp F es la más eficiente, reduciendo el GWP total en un 30,50 % (CS-1), un 27,17 % (CS-2) y un 27,49 % (CS-3) en comparación con la tipología RC optimizada.
  • Rendimiento de las vigas: Las vigas THVS superan a las de RC, con reducciones de emisiones de ~56 % en vanos de 4 m y de ~44 % en vanos de 8 m.
  • Beneficios sistémicos: La reducción del peso de las vigas THVS disminuye las emisiones de columnas (hasta un 16,31 %) y de cimentaciones (hasta un 12,12 %).

La tipología Comp P, a pesar del buen rendimiento individual de sus vigas, presenta un impacto global mayor debido a su menor rigidez, lo que se traduce en mayores solicitaciones en las columnas.

Entornos de alta agresividad

  • Rendimiento global: La tipología Comp F sigue siendo superior a la RC, pero su ventaja se reduce a un promedio del 21 % (por ejemplo, un 19,65 % en CS-1 y un 14,55 % en CS-3).
  • Impacto del mantenimiento: El principal factor de esta reducción es el fuerte aumento de las emisiones de mantenimiento de los elementos de acero. Para la tipología compuesta, el impacto de la fase de uso y mantenimiento pasa del 7 % al 28 % del de la fase de fabricación.

A pesar de ello, los beneficios fundamentales, como la reducción de la carga axial en las columnas (hasta un 17 %), se mantienen.

Estudio paramétrico de diseños óptimos

  • Vigas THVS:
    • Geometría: Las soluciones optimizadas presentan geometrías cónicas eficientes. En entornos de alta agresividad, las secciones tienden a ser más robustas para reducir la superficie expuesta y, por tanto, el impacto del mantenimiento.
    • Material: Predominan las configuraciones híbridas (Rh > 1,0). Se observa una tendencia al uso de acero de menor grado (S235) para las almas de las vigas exteriores, combinado con aceros de mayor resistencia para las alas.
  • Columnas y Cimentaciones:
    • Columnas: Se observa una rectangularidad estratégica para mejorar la rigidez frente a las cargas de gravedad. Las columnas exteriores se diseñan con mayores dimensiones en el eje principal de flexión. Se favorece el uso de hormigón de alta resistencia (35-40 MPa) para mejorar la capacidad portante y la durabilidad.
    • Cimentaciones: La mayoría de las zapatas tienden a ser cuadradas o de baja rectangularidad. Se prefiere el uso de hormigón de menor impacto ambiental (25 MPa), ya que no está expuesto a la carbonatación y sus solicitaciones son principalmente de flexión.

Influencia de elementos rigidizadores adicionales

La inclusión de losas de 12 cm y muros de mampostería en el modelo estructural mejora significativamente el rendimiento de las tipologías compuestas, mitigando la desventaja de la menor rigidez del pórtico.

  • Tipología Comp P: Se beneficia enormemente, con una reducción del impacto total de casi el 42 % en CS-2. Para edificios de grandes vanos (CS-3), la tipología Comp P resulta la solución óptima, con una reducción del GWP superior al 30 %.
  • Tipología Comp F: Mantiene su ventaja en edificios de vanos pequeños, aunque con mejoras más modestas.

Estos resultados indican que, para pórticos desnudos, las tipologías compuestas pueden ser un 25-30 % menos contaminantes, y esta cifra puede aumentar al 40-50 % en edificios donde todos los componentes contribuyen a la rigidez global.

Discusión y perspectivas futuras

El estudio confirma que el uso de algoritmos de inteligencia artificial como herramientas de diseño supera a los enfoques tradicionales, logrando reducciones globales de impacto de más del 30 %. La tipología compuesta RC-THVS con uniones rígidas se establece como una solución superior en la mayoría de los escenarios, no solo por la eficiencia de las vigas, sino también por los beneficios en cascada en las columnas y las cimentaciones.

El análisis paramétrico revela cómo el algoritmo de optimización equilibra el rendimiento inicial con la durabilidad a largo plazo, por ejemplo, seleccionando aceros de mayor calidad en el alma para reducir el área de superficie expuesta y las futuras demandas de mantenimiento.

Líneas de investigación futuras:

  • Robustez estructural: Aplicar la optimización para mejorar la resistencia al colapso progresivo o al fuego.
  • Configuraciones complejas: Extender el marco a edificios de gran altura o con plantas irregulares y evaluar el comportamiento bajo escenarios multi-riesgo (sismos, fuego).
  • Soluciones alternativas: Utilizar la plataforma de optimización para explorar otros sistemas, como vigas híbridas con aberturas en el alma o sistemas de madera de ingeniería.
  • Precisión del modelo ACV: Incorporar enfoques basados en la incertidumbre (p. ej., optimización basada en la fiabilidad) para modelar la variabilidad de las tasas de degradación, las propiedades de los materiales y los intervalos de mantenimiento.
  • Optimización multiobjetivo: Formular problemas que aborden simultáneamente la constructibilidad, la seguridad y el impacto ambiental.

Conclusiones finales

La aplicación de la Optimización del Impacto Ambiental del Ciclo de Vida (LCEIO) a la tipología compuesta RC-THVS aporta beneficios sustanciales para la construcción sostenible de edificios porticados.

  1. Reducción significativa del impacto: Los sistemas compuestos optimizados reducen el impacto del ciclo de vida hasta en un 32 % en comparación con diseños convencionales, con reducciones de hasta el 70 % en la fase de fabricación y del 45 % en la de mantenimiento.
  2. Superioridad sobre el hormigón armado: En comparación con los sistemas de RC optimizados, la configuración compuesta con uniones rígidas logra una reducción de emisiones del 30 % en entornos de baja agresividad y mantiene una ventaja del 21 % en entornos de alta agresividad.
  3. Eficiencia sistémica: Las vigas THVS, al reducir el peso estructural, disminuyen las solicitaciones y el impacto ambiental de las columnas y las cimentaciones.
  4. Flexibilidad de diseño: La inclusión de elementos rigidizadores, como losas y muros, puede hacer que la configuración con uniones articuladas sea la más sostenible para edificios de grandes vanos, lo que demuestra la adaptabilidad del sistema.

En conjunto, los hallazgos confirman que la combinación de LCEIO con la tipología RC-THVS representa una alternativa altamente sostenible y eficiente frente a los pórticos tradicionales de hormigón armado.

Referencia:

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Life-cycle environmental impact optimization of an RC-THVS composite frame for sustainable construction. Engineering Structures, 345, 121461. DOI:10.1016/j.engstruct.2025.121461 Featured Paper Award

Como se trata de un artículo publicado en abierto, os dejo un enlace para su descarga.

1-s2.0-S0141029625018528-main (3)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Indicadores de gestión logística (KPI)

Los indicadores de gestión logística, conocidos como KPI (del inglés, Key Performance Indicators), son herramientas de medición cuantitativa esenciales para evaluar el rendimiento de las operaciones dentro de una organización. Su función principal es transformar datos brutos en información estratégica para supervisar la eficiencia, detectar cuellos de botella y apoyar la toma de decisiones basada en datos. La implementación de un sistema robusto de indicadores no solo optimiza el uso de los recursos y la calidad del servicio, sino que también garantiza la adaptabilidad de la cadena de suministro ante condiciones cambiantes, lo que asegura la competitividad y la reputación de la marca.

Los datos no son el fin, sino el medio para tomar decisiones.

La excelencia logística exige abandonar la «intuición» y adoptar una gestión basada en datos. Los indicadores actúan como el combustible que alimenta la dirección estratégica y la mitigación de riesgos.

Al controlar la eficiencia, el directivo puede llevar a cabo acciones correctivas con precisión quirúrgica. Como establece el marco de excelencia en las operaciones:

«El objetivo fundamental es tomar decisiones basadas en los datos obtenidos».

El índice de rotación (IRO) como termómetro de vitalidad.

El índice de rotación de inventarios mide la frecuencia de venta y de reposición de las existencias. Un IRO alto indica una gestión ágil de los recursos.

Desde una perspectiva financiera, el inventario estancado es capital congelado que erosiona la liquidez. Mantener el flujo constante es vital para garantizar la disponibilidad de activos y la salud económica de la empresa.

La calidad logística se mide por lo que «no» sucede: las devoluciones.

La calidad operativa se refleja en el índice de devoluciones. Este KPI evidencia fallos críticos en la calidad del producto y en la precisión de los pedidos, lo que afecta directamente la rentabilidad.

Un alto volumen de devoluciones degrada el nivel de servicio al cliente y la reputación de la marca. Una medición objetiva permite identificar las causas raíz antes de que se pierda la confianza del mercado.

El tiempo de ciclo de pedido: la métrica de la promesa cumplida.

El tiempo de ciclo de pedido es el tiempo total transcurrido desde la recepción hasta la entrega final. Es el indicador más sensible de la experiencia y la satisfacción del cliente.

Su optimización depende de la eficiencia del transporte, que exige una utilización efectiva de los vehículos y rutas optimizadas. Sin una coordinación eficaz del transporte, la promesa de entrega se convierte en una responsabilidad financiera.

La paradoja del almacenamiento: espacio frente a coste.

Un almacén extenso no es un activo, sino una carga si no se utiliza de manera inteligente. El almacenamiento conlleva costes críticos de alquiler, seguros y depreciación que pueden reducir los márgenes de beneficio.

La clave del éxito es alcanzar un nivel óptimo de organización mediante la metodología 5S y cumplir estrictamente con el sistema FEFO (First Expired, First Out). Estas métricas garantizan la precisión operativa y evitan el riesgo de obsolescencia.

El marco del rendimiento: los cinco pilares de la evaluación.

Para optimizar los recursos, es fundamental comprender que el rendimiento no es un concepto monolítico. La evaluación integral de la cadena de suministro se basa en cinco dimensiones:

  • Cumplimiento: mide el grado de consecución de los objetivos y la finalización de las tareas programadas.
  • Evaluación: analiza el rendimiento para identificar fortalezas, debilidades y oportunidades de mejora.
  • Eficiencia: capacidad de ejecutar los procesos con el mínimo de recursos.
  • Eficacia: se centra en la capacidad de alcanzar los propósitos o metas establecidos por la organización.
  • Gestión: relacionada con la administración y las acciones concretas necesarias para ejecutar lo planeado.

Conclusión: hacia una logística consciente.

La integración de estos KPI permite establecer una cultura de mejora continua y adaptar la empresa a las condiciones cambiantes. Solo midiendo el rendimiento se logra una verdadera identificación de las mejoras y del éxito estratégico.

Como líder, la pregunta final es ineludible: ¿su organización mide lo que realmente importa para tener éxito o simplemente acumula datos sin propósito?

En esta conversación puedes escuchar las ideas más interesantes sobre los indicadores de gestión logística.

Este vídeo resume bien los conceptos más importantes abordados en este artículo.

Indicadores KPI

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Cómo la realidad aumentada está transformando la formación en ingeniería

La ingeniería civil y la minería han sido históricamente industrias definidas por su naturaleza física y ruda, así como por entornos de difícil acceso. Sin embargo, esta realidad está cambiando gracias a la sofisticación de la realidad aumentada, que permite a los ingenieros en formación visualizar lo invisible, desde los desplazamientos tectónicos más profundos hasta los engranajes internos de un camión de extracción. El desafío es evidente: la formación en entornos de alto riesgo y con maquinaria de coste prohibitivo supone una barrera crítica para la educación técnica tradicional.

Frente a este obstáculo, el estudio de Donaire et al. (2026) supone un hito en la Educación 4.0. Su investigación demuestra que la RA no es solo un accesorio visual, sino un motor que impulsa el rendimiento académico. Al trascender el modelo de sustitución tecnológica y alcanzar una auténtica redefinición pedagógica, esta herramienta permite una inmersión segura que mejora sustancialmente la comprensión de procesos geológicos y mecánicos complejos.

El «punto ciego» de la ingeniería en el mapa tecnológico

Al analizar el panorama de las tecnologías inmersivas mediante estudios bibliométricos (figuras 1 y 2), se descubre algo sorprendente. A pesar de la alta complejidad técnica de la industria, la minería se encuentra en una fase inicial de madurez técnica, con un volumen de publicaciones sobre realidad aumentada (RA) significativamente menor que el de la medicina o de la arquitectura.

Este vacío no se debe a una falta de tecnología, sino a la ausencia de una estructura pedagógica sistemática en las aplicaciones existentes. Mientras otras disciplinas han estandarizado el uso de herramientas inmersivas, la minería presentaba un «punto ciego» metodológico. Esta oportunidad permitió el desarrollo del marco SEBAS, diseñado para dotar de rigor académico a la visualización de equipos y la seguridad operativa.

No se trata de la tecnología, sino del método: el auge del marco SEBAS.

La eficacia de la RA en ingeniería no depende de la novedad del software, sino de su alineación con objetivos pedagógicos claros. El estudio de Donaire et al. propone el marco SEBAS, una metodología procedimental que garantiza que cada actividad inmersiva cumpla una función estratégica en el aprendizaje.

  • Selección: definición de competencias y objetivos de aprendizaje específicos.
  • Establecimiento: configuración de parámetros técnicos y de estándares de contenido 3D.
  • Boceto: diseño de prototipos interactivos y validación de la interfaz de usuario.
  • Aplicación: implementación de actividades en entornos de aprendizaje auténticos.
  • Síntesis y supervisión: evaluación de resultados y ciclos de retroalimentación para la mejora continua.

«Este marco facilita el desarrollo de actividades de RA estratégicamente diseñadas que mejoran el rendimiento académico y promueven el compromiso cognitivo».

La democratización del éxito académico.

Los resultados cuantitativos del marco SEBAS constituyen una prueba de su impacto. El uso de esta metodología ha permitido elevar la nota media global de 4,31 a 4,70. Un análisis mediante la prueba t de Welch confirmó que estos resultados son estadísticamente significativos (p < 0,01), especialmente en los cursos con mayor integración tecnológica. Además, la dispersión del rendimiento disminuyó, ya que la desviación estándar bajó de 2,16 a 1,75.

El hallazgo más trascendental es la capacidad de la RA para actuar como un «estabilizador» del aprendizaje, lo que favorece una experiencia educativa más equitativa. Al analizar el percentil 25, se observa que los estudiantes con menor rendimiento en el grupo tradicional obtuvieron una media de 2,70, mientras que en el grupo con RA este percentil subió a 4,50. Esto demuestra que la tecnología inmersiva nivela el terreno de juego, ya que permite que incluso los alumnos con mayores dificultades alcancen el éxito académico.

Del escepticismo a la satisfacción total.

Superar la barrera del «miedo a lo complejo» resultó fundamental para el éxito del proyecto. Inicialmente, solo el 37,2 % de los estudiantes confiaba en la utilidad de la RA para comprender los métodos de explotación. Tras el taller, esta percepción dio un giro radical: el 84,1 % mostró plena confianza y el 92,9 % reconoció su aplicabilidad práctica en la industria real.

La clave de esta adopción fue la rentabilidad de la estrategia. Al utilizar herramientas como Blender y CoSpaces, se demostró que es posible generar contenidos de alta fidelidad sin necesidad de realizar inversiones excesivas. El resultado final habla por sí solo: el 60,5 % de los participantes terminó «muy satisfecho», lo que valida que la facilidad de uso y la relevancia del contenido son los pilares de la transformación digital en el aula.

Hacia la Educación 4.0.

El estudio de Donaire et al. (2026) propone un modelo replicable para todas las disciplinas STEM. La realidad aumentada ha demostrado ser el puente definitivo entre la teoría académica y la práctica profesional, ya que permite a los futuros ingenieros desarrollar una comprensión espacial y procedimental sin precedentes.

Estamos ante una visión de futuro en la que las experiencias inmersivas forman parte integral de la formación profesional y preparan a los estudiantes para afrontar los desafíos de la industria moderna con una base científica y metodológica sólida.

Si la tecnología ya ha demostrado que puede igualar las condiciones académicas, ¿qué nos impide implementarla hoy mismo en todas las facultades de ingeniería?

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

Este vídeo resume bien lo tratado en este artículo.

AR_SEBAS_Evidence_Based_Engineering

Por cierto, podéis descargar el artículo en el enlace de la referencia. Está publicado en abierto.

Referencia:

DONAIRE, S.; BARRAZA, R.; MARTÍNEZ-PAGÁN, P.; MARTÍNEZ-SEGURA, M.A.; ÁLVAREZ, L.; YEPES-BELLVER, L.; YEPES, V. (2026). Augmented Reality in Engineering Education: Strategic Design and Evidence-Based Results. Plos One, 21(2), e0341815. DOI:10.1371/journal.pone.0341815

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.