Inteligencia artificial y turismo: cuando el software aprende de la naturaleza para diseñar la ruta perfecta.

Gestionar la logística de un operador turístico consiste, en esencia, en intentar imponer orden a un sistema inherentemente caótico. El desafío es monumental: coordinar rutas a 30 destinos distintos desde un centro de operaciones como el de Alicante, con una flota limitada de cuatro aviones y quince tripulaciones, en el que cada asiento cuenta.

En este entorno de baja demanda, los costes son fijos, pero la realidad es volátil: las cancelaciones de última hora y las reservas inesperadas convierten los planes iniciales en papel mojado. ¿Cómo se puede determinar la rentabilidad cuando el escenario cambia cada minuto? La solución más avanzada no proviene de la programación lineal clásica, sino de los principios de la biología evolutiva.

Inspirado en el estudio de Medina y Yepes sobre la aplicación de algoritmos genéticos (AG) al problema de rutas de vehículos con capacidad (CVRP), este análisis desglosa cómo la «supervivencia del más apto» se traduce en una estabilidad financiera sin precedentes para el sector aéreo. Podéis descargar el artículo completo aquí.

La «naturaleza» como el mejor ingeniero de rutas.

En logística avanzada, los métodos deterministas tradicionales se topan con un obstáculo insalvable cuando el número de destinos crece exponencialmente. Calcular la ruta óptima para una red que abarque de Casablanca a Venecia mediante fuerza bruta matemática resulta inmanejable en términos computacionales. Los algoritmos genéticos resuelven este problema emulando la evolución mediante los procesos de selección, cruce y mutación. En lugar de buscar una única respuesta perfecta, el sistema mantiene una «población» de soluciones que compiten entre sí.

Este enfoque permite gestionar restricciones ambiguas o contradictorias, como maximizar la ocupación frente a minimizar el tiempo de vuelo, de una forma que la matemática rígida no puede. El AG no solo busca, sino que también aprende a explorar.

«La característica específica de los AG es la exploración paralela y eficiente del espacio de soluciones, basada en la explotación de soluciones óptimas inducidas por los operadores de cruce y en la exploración de soluciones nuevas forzada por los operadores de mutación».

El poder de los «Tres Padres»: una recombinación genética única.

La gran innovación técnica que se destaca en el estudio es el uso de un operador de recombinación de tres progenitores (three-parent edge-mapped recombination operator). Mientras que en la genética biológica la herencia es dual, en la optimización de redes de distribución tres progenitores ofrecen una mayor riqueza de datos para generar una «descendencia» (una ruta) más robusta.

Este método extrae las mejores conexiones (arcos) de tres soluciones distintas. Si una conexión específica aparece en dos o tres de los «padres», se preserva en el «hijo» porque se considera una pieza de alta eficiencia. Para garantizar la viabilidad de la ruta, el algoritmo incluye una lógica de resolución de conflictos: si tres arcos convergen en un mismo nodo de la descendencia, el sistema elimina aleatoriamente uno de ellos para mantener la estructura de la red. Este enfoque de triple herencia permite alcanzar soluciones óptimas con una velocidad y precisión que superan con creces a los cruces tradicionales de dos progenitores.

De la incertidumbre del 43 % a la estabilidad del 2,7 %.

El impacto real de los AG se mide en la transformación de la volatilidad en previsibilidad. Al modelar la demanda de destinos como Ajaccio, Túnez o Malta mediante estructuras estocásticas, el estudio revela una capacidad asombrosa para absorber la incertidumbre. Con una flota de cuatro aviones de cincuenta asientos y quince tripulaciones, el sistema gestionó un volumen total de aproximadamente ochocientos pasajeros, con métricas de eficiencia envidiables.

Los datos son elocuentes: mientras que la demanda individual por destino presenta un coeficiente de variación del 43 % —una pesadilla operativa—, la optimización diaria reduce la variabilidad del coste por pasajero transportado a un asombroso 2,7 %. En la práctica, esto significa:

  • Coste medio por pasajero: 118 EUR.
  • Ocupación media de asientos: 65 %.
  • Velocidad de crucero optimizada: 240 nudos.

El sistema es tan eficiente a la hora de reorganizar escalas y rutas en función de la demanda real que el impacto financiero final permanece prácticamente inalterado a pesar de las fluctuaciones del mercado.

El «fantasma en la máquina»: el riesgo de la robustez excesiva.

Desde la perspectiva de la transformación digital, los AG presentan una paradoja fascinante: su robustez puede ser su mayor peligro. Diseñado para ofrecer siempre una solución viable, un código con errores profundos puede seguir funcionando y entregando resultados «aparentemente buenos» sin que el sistema se colapse.

El riesgo no es el fallo catastrófico, sino el equilibrio subóptimo. Un error oculto en el algoritmo podría estar dejando sobre la mesa un 5 % o un 10 % de beneficio potencial, camuflado por la capacidad del algoritmo para «sobrevivir» a sus propios defectos de programación. Esto subraya la importancia de la supervisión experta, ya que en los sistemas que evolucionan por sí mismos la validación humana es la única garantía de que no operamos con una ineficiencia invisible pero costosa.

El futuro es la interacción humano-máquina.

Los AGV no son herramientas de reemplazo, sino de colaboración. El estudio subraya la importancia de la interfaz gráfica, que permite al gestor logístico interactuar con el proceso en tiempo real. Un ser humano puede «inyectar» soluciones basadas en su experiencia o en su intuición clínica, y el algoritmo las asimilará y refinará a lo largo de miles de generaciones.

Esta sinergia es fundamental para integrar los «costes virtuales». Mientras la máquina optimiza distancias y consumo de combustible, el ser humano puede definir variables subjetivas pero críticas, como la inconveniencia política de un aeropuerto en tensión o la complejidad social de una escala concreta. Al traducir estas percepciones en valores en la función de coste, el sistema evoluciona hacia una estrategia proactiva capaz de simular escenarios futuros en lugar de simplemente reaccionar ante las cancelaciones diarias.

Conclusión: hacia una logística evolutiva.

El éxito de la red de Alicante, que conecta 30 destinos del Mediterráneo y de Europa occidental, confirma un cambio de paradigma: en la logística moderna, la flexibilidad es más valiosa que la precisión absoluta. Los modelos rígidos se quiebran ante la volatilidad de la demanda, pero los sistemas evolutivos se fortalecen con ella.

En un mercado que no perdona la ineficiencia, la pregunta para los líderes del sector es clara: ¿es mejor buscar una solución «perfecta» una sola vez o diseñar un sistema que evolucione constantemente ante cada nuevo desafío? La respuesta, como demuestran Medina y Yepes, radica en aprender de la naturaleza para conquistar los cielos.

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

Este vídeo resume los aspectos clave del artículo.

Evolutionary_Tourism_Logistics

Referencia:

MEDINA, J.R.; YEPES, V. (2003). Optimization of touristic distribution networks using genetic algorithms. SORT, 27(1): 95-112.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Por qué los números exactos están matando tus proyectos? El poder de la lógica difusa en la construcción

En el sector de la construcción, cada proyecto es, por definición, un prototipo único que se ejecuta bajo restricciones de tiempo, coste y alcance. Sin embargo, seguimos atrapados en la tiranía de la precisión determinista, intentando predecir resultados con una exactitud quirúrgica que la realidad, siempre cambiante, termina por desmentir. El método del Valor Ganado (EVM) es, sin duda, nuestra mejor herramienta de control, pero su dependencia de números «fríos» pasa por alto la vaguedad inherente a los datos de entrada.

Gestionar un entorno complejo basándose en la ilusión de la precisión no solo constituye un error técnico, sino también un riesgo estratégico. La aplicación de la lógica difusa no debe entenderse como un mero ejercicio matemático, sino como un enfoque más honesto y robusto para gestionar el caos y la imprecisión que definen nuestra industria.

No es azar, es imprecisión: la distinción vital.

Debemos evitar el sesgo de precisión, que confunde dos conceptos fundamentales: la incertidumbre y la imprecisión. El modelo propuesto por Ponz-Tienda et al. (2012) establece una distinción clara que es vital para la toma de decisiones:

  • Incertidumbre: de naturaleza aleatoria, estadística o probabilística.
  • Imprecisión: se refiere a una naturaleza vagamente definida o incompleta (por ejemplo, estimaciones de duración como «alrededor de 10 días»).

Mientras que la estadística tradicional intenta domar el azar, la teoría de los conjuntos difusos es la arquitectura diseñada para manejar lo impreciso. Esta metodología permite realizar operaciones aritméticas con valores que, aunque no se conocen con exactitud, pueden limitarse a fronteras de pertenencia.

Zadeh argumenta que «la probabilidad y la lógica difusa son complementarias, no competitivas. Ambas pueden y deben coexistir para proporcionar herramientas de análisis de la incertidumbre en modelos complejos del mundo real y para cubrir los vacíos que los métodos tradicionales no pueden llenar».

El «dial» de la confianza: ajustando el corte alfa (α-cut).

Una de las innovaciones más importantes del modelo difuso es el corte alfa (α-cut). Este parámetro actúa como un «dial» de control que permite al gestor ajustar la sensibilidad del modelo según su propia confianza o tolerancia al riesgo.

  • Un α-cut igual a 0 representa el soporte del número difuso; es el escenario de máxima vaguedad e incertidumbre, en el que los límites son más amplios.
  • Un α-cut de 1 representa el núcleo (kernel), elimina toda la ambigüedad y equivale al método determinista tradicional.

Esta capacidad de ajuste permite adaptar el modelo a las circunstancias específicas del proyecto. En las primeras fases o en entornos volátiles, un α-cut bajo permite visualizar todo el espectro de riesgos, mientras que en entornos estables, el gestor puede «cerrar» el dial hacia la precisión del núcleo.

El mito del cronograma único: la realidad del diagrama de Gantt difuso.

La metodología tradicional suele presentarnos un único cronograma factible como si fuera «la verdad absoluta». No obstante, las conclusiones basadas en un único escenario son inherentemente poco fiables. En la práctica, existe un número ilimitado de alternativas entre los tiempos de ejecución más tempranos y los más tardíos.

El modelo difuso rompe este mito al generar un diagrama de Gantt difuso. Este gráfico no traza una línea, sino que establece los límites superior e inferior de todos los cronogramas posibles. Al utilizar aritmética difusa en lugar de cálculos lineales, el resultado es significativamente más objetivo y proporciona una banda de cumplimiento que refleja la flexibilidad real —y los cuellos de botella potenciales— de la obra.

De métricas abstractas a la salud del proyecto: interpretación lingüística.

El EVM tradicional nos proporciona índices que a menudo no reflejan fielmente el desarrollo real del proyecto. El modelo de Ponz-Tienda innova al traducir variaciones numéricas complejas en categorías lingüísticas claras para los interesados. Esta interpretación se divide en tres dimensiones críticas:

  • Variación de cronograma (SV): evalúa la conformidad del progreso real con el cronograma programado en términos de producción.
  • Variación de coste (CV): mide la conformidad presupuestaria del trabajo efectivamente ejecutado.
  • Earned Schedule (ESch): traduce el rendimiento en unidades de tiempo reales, evitando los errores del SV tradicional cuando el proyecto excede la fecha de finalización prevista.

Según este modelo, cada dimensión se clasifica en cinco escenarios (del A al E) según el valor de α. Así, un proyecto puede clasificarse estratégicamente como «ligeramente retrasado en tiempo (ESch)», pero «bajo presupuesto (CV)», lo que permite una comunicación mucho más efectiva y humana que un simple decimal.

Innovación integral: el valor ganado difuso.

La propuesta de Ponz-Tienda et al. (2012) va más allá de la literatura existente al integrar no solo la duración de las tareas, sino también el coste y la producción en una formulación difusa no lineal. Esto se aplica directamente al BCWS (coste presupuestado del trabajo programado) y al BCWP (valor ganado) y permite capturar la complejidad de las relaciones entre estas variables de una forma que el EVM clásico no puede procesar.

A pesar de su profundidad académica, este modelo no es una utopía inalcanzable. Se ha demostrado su viabilidad técnica para su implementación en herramientas cotidianas, como Microsoft Excel. Esto es esencial, ya que permite superar la barrera académica y llevar la metodología a la práctica empresarial, sirviendo de puente para el desarrollo de software comercial especializado para directores de proyectos.

Conclusión: hacia una gestión de proyectos más humana y robusta.

El enfoque del Valor Ganado Difuso nos ofrece una «visión de conjunto» que acepta la imprecisión del mundo real en lugar de ignorarla. Al adoptar este modelo, pasamos de gestionar basándonos en puntos ficticios a tomar decisiones basadas en rangos realistas y sólidos.

Es importante entender que esta contribución no es una herramienta «llave en mano», sino un punto de partida para especialistas. El futuro de la gestión de riesgos en la construcción depende de nuestra capacidad para refinar estos modelos y establecer el valor de α-cut más cercano a la realidad de cada obra.

Como líderes, la pregunta final es inevitable: ¿Seguiremos gestionando nuestros proyectos bajo la falsa comodidad de un número exacto o daremos el paso hacia la honestidad estratégica de un rango difuso que realmente refleje la realidad?

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

Este vídeo resume bien los conceptos explicados.

Fuzzy_Earned_Value_Management

Referencia:

PONZ-TIENDA, J.L.; PELLICER, E.; YEPES, V. (2012). Complete fuzzy scheduling and fuzzy earned value management in construction projects. Journal of Zhejiang University-SCIENCE A (Applied Physics & Engineering), 13(1):56-68. DOI:10.1631/jzus.A1100160

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Su obra es un hervidero de actividad, pero no de productividad.

Durante una visita a una obra, el estrépito de la maquinaria y el flujo constante de operarios suelen interpretarse como señales inequívocas de progreso. Sin embargo, para un experto en operaciones, esta actividad suele ser un espejismo. Existe una distinción crítica entre la inercia operativa —«estar ocupado»— y la optimización técnica —«ser productivo»—.

En el sector de la construcción, caracterizado por su trashumancia y alta temporalidad, la productividad no es una opción, sino un imperativo de supervivencia. Las empresas que no logran mejorar sus procesos frente a la competencia están, por definición, abocadas a la desaparición. No se trata simplemente de trabajar más duro o de acumular horas extra, sino de entender la relación entre lo producido y los recursos empleados. En un entorno de márgenes estrechos, ignorar esta distinción supone asumir un riesgo existencial.

Verdad 1: la trampa del volumen y la diferencia entre rendimiento y productividad.

Un error común en la alta dirección es confundir el aumento de la producción con una mejora de la eficiencia. La producción es una métrica de volumen, mientras que la productividad es una métrica de relación. Si el volumen de su obra aumenta un 15 % y el consumo de recursos (mano de obra, materiales y maquinaria) aumenta un 20 %, su empresa es técnicamente menos productiva que antes.

En este punto, surge una distinción vital para el gestor: la diferencia entre productividad y rendimiento.

  • El rendimiento es el cociente entre lo realizado y lo previsto.
  • La productividad, por su parte, es la relación técnica entre los bienes producidos y los recursos consumidos.

Un equipo puede mostrar un alto rendimiento al cumplir un cronograma mal planificado, pero puede tener una productividad muy baja al malgastar recursos para lograrlo. La verdadera ventaja competitiva nace de la optimización técnica, no solo de alcanzar metas de volumen.

«La productividad es la relación entre los bienes y servicios producidos y los recursos empleados para ello».

Verdad 2: el respeto al mínimo irreductible y la responsabilidad de la gerencia.

Todo proceso de construcción conlleva una «deuda oculta» de ineficiencia. Para auditarla, debemos descomponer el tiempo total de trabajo en tres categorías fundamentales:

  • Contenido básico de trabajo: el tiempo mínimo no reducible. Es el tiempo que tardaría el proceso en condiciones de diseño y de método perfectos.
  • Trabajo innecesario: tiempo suplementario generado por defectos de diseño, especificaciones mediocres o métodos de ejecución ineficaces.
  • Tiempo improductivo: aquel que se pierde y no aporta valor alguno.

Es imperativo que el líder del proyecto reconozca una verdad incómoda: la mayor parte del tiempo improductivo es un fallo de dirección. La falta de materiales, las instrucciones confusas o la mala programación de los subcontratistas son responsabilidades directas de la gerencia, no del operario. Reducir este tiempo no requiere que los trabajadores se muevan más rápido, sino que la dirección gestione mejor.

Verdad 3: la filosofía del «siempre hay un método mejor».

Cuando aceptamos que el desperdicio es, en gran medida, sistémico, debemos adoptar una actitud crítica. El estudio de los métodos no es una intervención técnica aislada, sino una postura intelectual ante el coste. La optimización más rentable no suele provenir de inversiones masivas en maquinaria, sino de la eliminación de prejuicios operativos. Los cinco pilares de esta mentalidad son:

  • Abordar los problemas con un espíritu abierto.
  • Eliminar ideas preconcebidas.
  • Aceptar solo hechos, no opiniones.
  • Actuar sobre las causas raíz, no sobre los efectos.
  • Partir de la premisa de que siempre hay un método mejor.

Esta mentalidad es el puente necesario para identificar los «ladrones de valor» más comunes en la obra, empezando por la logística interna.

Verdad 4: la manipulación de materiales es un «ladrón» de valor.

En ingeniería de métodos, el movimiento no es trabajo, sino coste. Mover un palé de ladrillos tres veces antes de colocarlos incrementa el coste de producción sin aportar valor al producto final.

«La manipulación de los materiales incrementa el coste de producción sin aportar valor al producto».

Para mitigar este impacto, la gestión debe aplicar estrictas reglas industriales: depositar los materiales a la altura de trabajo, minimizar las distancias de transporte, aprovechar la gravedad y asegurar que cada movimiento se realice con la carga máxima permitida. Cada segundo dedicado a un transporte innecesario es rentabilidad que se escapa al balance.

Verdad 5: la lógica de la simultaneidad y el reto de la tostadora.

La esencia de la ingeniería de métodos se resume en una herramienta: el diagrama de actividades simultáneas. Este diagrama muestra las interdependencias entre personas y máquinas para evitar tiempos muertos.

El famoso «reto de la tostadora» ilustra este concepto. Si tenemos tres rebanadas de pan y una tostadora que solo tuesta dos a la vez y por un solo lado, la lógica dicta que son necesarias cuatro operaciones.

Sin embargo, mediante un análisis de simultaneidad, un ingeniero reduce el proceso a tres: mientras se calienta el lado B de la primera rebanada, se retira la segunda y se introduce la tercera.

Este cambio en la secuencia lógica —hacer en tres lo que otros hacen en cuatro— es la base de la sincronización en la obra. Al coordinar el trabajo interdependiente, no se busca que el operario se agote, sino que los recursos (hombre y máquina) nunca estén ociosos esperando al otro.

Conclusión: hacia una cultura de la medición técnica.

No se puede gestionar lo que no se mide con rigor técnico. Para evaluar si una empresa constructora está progresando, debemos recurrir al Índice de Productividad Global (IPG).

La clave del IPG, basada en la lógica de Laspeyres, consiste en medir la evolución a precios constantes. Al valorar productos y recursos con los precios de un año base, eliminamos el efecto de la inflación y las fluctuaciones del mercado. Así, la productividad se convierte en una métrica de ingeniería pura que nos indica si somos mejores constructores, independientemente de si los materiales son más caros o si el mercado ha subido los precios de venta.

Antes de exigir más horas extras en su próximo proyecto, tómese un tiempo para observar el flujo de trabajo: ¿está optimizando el trabajo real o simplemente gestionando el desperdicio con más energía?

En esta conversación puedes escuchar las ideas más interesantes sobre este asunto.

Este vídeo resume bien el tema del estudio del trabajo.

Construction_Productivity_Engineering

Referencias:

PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente n.º 97.439. Ed. Universitat Politècnica de València. 256 pág. Depósito Legal: V-4598-1997. ISBN: 84-7721-551-0.

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442.

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376.

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Logística en tiempos de cambio: Cómo la optimización heurística se adapta a los vaivenes de la economía real

Más allá del GPS: por qué la ruta más corta no siempre es la más rentable.

Para cualquier responsable de operaciones, la intuición dicta una regla aparentemente infalible: cuanto menos kilómetros se recorren, mayores son los márgenes. Sin embargo, ante la complejidad de la última milla contemporánea, esta lógica resulta peligrosamente incompleta. El ahorro en combustible suele verse compensado por penalizaciones por entregas tardías, ineficiencias en el uso de la capacidad de carga o por el coste oculto de ignorar las regulaciones laborales.

El éxito no consiste en reducir la distancia de forma simplista, sino en maximizar la rentabilidad operativa. Es aquí donde el problema de las rutas de vehículos con flotas heterogéneas y ventanas de tiempo flexibles (VRPHESTW, Vehicle Routing Problem with Heterogeneous Fleet and Soft Time Windows) surge como la respuesta científica al caos logístico. Este modelo trasciende el mapa al integrar variables económicas, humanas y temporales en una única ecuación estratégica. Este artículo se basa en uno de los resultados más importantes de mi tesis doctoral, publicada en un trabajo que podéis encontrar al final de las referencias (Yepes y Medina, 2006).

La rentabilidad total sobre la distancia total recorrida: la nueva métrica de éxito.

El enfoque tradicional se limita a minimizar el consumo de kilómetros. No obstante, la logística de alto nivel exige una función con un objetivo económico que considere la operación como un centro de beneficios y no solo de costes. La fórmula es clara:

Beneficio = Ingresos Totales – Costes Operativos – Costes de Penalización por Ventanas de Tiempo.

En este modelo, los ingresos no son una cifra estática, sino que se consideran dos tasas: una fija por servicio y otra variable en función de la distancia y del volumen de la mercancía. La gran innovación es que la satisfacción del cliente se convierte en un activo negociable. Al monetizar los retrasos mediante penalizaciones, el algoritmo decide de forma autónoma si resulta más rentable aceptar una pequeña desviación en el horario de entrega o invertir en un vehículo adicional. La logística moderna, por tanto, no busca el «cumplimiento a cualquier precio», sino el equilibrio óptimo entre el servicio y el margen.

El poder estratégico de una flota «mixta».

Una de las mayores ventajas competitivas del transporte radica en la heterogeneidad. El modelo demuestra que una flota uniforme tiende a ser ineficiente. El algoritmo realiza un arbitraje constante entre distintos tipos de vehículos para encontrar la combinación que minimiza el coste total de propiedad y operación.

En este análisis, la selección de vehículos (categorizados como k = 1, 2 o 3) no solo se basa en el volumen de carga, sino también en un equilibrio sofisticado entre:

  • Capacidad y velocidad: desde el vehículo pequeño y ágil (k = 1), ideal para zonas urbanas densas, hasta el «pesado» (k = 3), con gran capacidad, pero mayor coste fijo y menor velocidad de maniobra.
  • Estructura de costes laborales: el sistema evalúa el impacto financiero de pasar de la remuneración por hora legal a las horas extraordinarias y, finalmente, a las severas penalizaciones económicas derivadas del exceso de jornada laboral, protegiendo así la rentabilidad y la seguridad jurídica de la empresa.

Como señala el estudio:

«Los problemas de rutas de vehículos en el mundo real requieren una función objetivo económica para medir la calidad de las soluciones».

Ventanas de tiempo flexibles: el tiempo como variable económica elástica.

En la logística convencional, una ventana de tiempo es un muro infranqueable: llegar un minuto tarde se considera un fallo del sistema. El concepto de «soft time windows» (ventanas de tiempo flexibles) revoluciona esta noción al considerar el tiempo como una variable económica elástica.

En lugar de prohibir las entregas fuera de horario, el modelo establece una penalización económica escalonada en función de la antelación o el retraso. Esta flexibilidad calculada permite que el sistema de optimización identifique rutas que, aunque «incumplen» ligeramente el horario, logran una consolidación de carga tan eficiente que el beneficio neto final es muy superior al de una ruta de cumplimiento rígido. Se pasa así de una logística de obediencia a una logística de resultados.

El hallazgo sorprendente: el valor estratégico del sesgo.

El descubrimiento más disruptivo de la investigación consiste en distinguir entre la función «objetivo» (el beneficio real que queremos obtener) y la función «guía» (las instrucciones que le damos al algoritmo para explorar el mapa).

En un experimento revelador, los investigadores «engañaron» al algoritmo aumentando artificialmente en un 10 % los costes de distancia en la función guía (escenario HES-B). Al evaluar la ruta resultante con los costes reales (escenario HES-A), el beneficio neto aumentó un 6,4 %.

¿Por qué funciona este sesgo estratégico? Al sobreponderar el coste de la distancia durante la fase de búsqueda, se obliga al algoritmo a encontrar clústeres de clientes extremadamente compactos y rutas más robustas que el peso económico estándar pasaría por alto. Este fenómeno demuestra que, para escapar de los «óptimos locales» (soluciones que parecen buenas, pero no lo son), a veces es necesario alterar la topología del problema para forzar al sistema a encontrar la excelencia global.

Un marco de tres pilares para la implementación.

Para ejecutar esta estrategia, se propone un marco de optimización híbrido que integra la exploración creativa y el rigor matemático.

  1. Fase de construcción inteligente (GRASP): no se generan rutas al azar, sino que se inicia el proceso seleccionando clientes «semilla» según criterios de alta rentabilidad y dificultad logística, lo que asegura un punto de partida sólido.
  2. Fase de diversificación global (VNS): el sistema utiliza una «búsqueda de vecindario variable» para desafiar las rutas establecidas. En esta fase se introduce variedad para evitar que la operación se estanque en las soluciones obvias.
  3. Fase de intensificación de precisión (algoritmo de umbral): un pulido final que somete cada ruta a un escrutinio de costes extremo, aceptando incluso soluciones ligeramente peores temporalmente para alcanzar el máximo céntimo de beneficio potencial.

Conclusión: hacia una logística con visión de negocio.

La optimización de rutas ha dejado de ser un problema geográfico para convertirse en una disciplina puramente estratégica de economía. El uso de algoritmos avanzados que integran flotas heterogéneas y ventanas de tiempo flexibles permite a las empresas navegar por la volatilidad de los costes y las exigencias del mercado con una precisión quirúrgica.

Optimizar no consiste solo en llegar antes, sino en comprender el coste exacto de cada minuto y cada kilómetro para decidir, basándose en datos, qué configuración de flota garantiza el crecimiento sostenible del negocio.

Pregunta para reflexionar: En su operación actual, ¿está optimizando para que sus vehículos recorran menos distancia o para que su balance de situación sea más robusto?

Puedes escuchar en esta conversación algunas de las ideas más interesantes sobre este tema.

Este vídeo resume bien los conceptos básicos tratados.

Maximizing_Logistics_Profitability

Referencia:

YEPES, V.; MEDINA, J.R. (2006). Economic Heuristic Optimization for Heterogeneous Fleet VRPHESTW. Journal of Transportation Engineering, 132(4): 303-311. DOI: 10.1061/(ASCE)0733-947X(2006)132:4(303)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Verdades incómodas sobre nuestra seguridad y el futuro de las infraestructuras

A pesar de contar con un despliegue tecnológico sin precedentes, modelos de cálculo avanzados e inteligencia artificial, nuestra vulnerabilidad ante los eventos extremos no parece disminuir.

Solemos refugiarnos en la narrativa de la «furia de la naturaleza» cuando un puente colapsa o una ciudad queda sumergida, pero como ingenieros y ciudadanos, debemos aceptar una realidad incómoda: el problema no reside en la geología ni en el clima, sino en nuestras decisiones.

La seguridad no se garantiza solo con más hormigón, sino cuestionando los cimientos éticos y técnicos de nuestra planificación.

Este asunto lo hemos tratado anteriormente en este blog, y os animo a leer más en este enlace: https://victoryepes.blogs.upv.es/?s=resiliencia

El mito del «desastre natural»: la responsabilidad es humana.

La Oficina de las Naciones Unidas para la Reducción del Riesgo de Desastres es tajante: los desastres no son naturales. Un terremoto o una inundación son fenómenos físicos, pero el desastre es el resultado de una construcción social vulnerable o de una planificación negligente. El uso del término «natural» actúa como una neolengua que nos exime de responsabilidad, pues desplaza la culpa al destino o a la divinidad.

Esta reflexión ya la planteó Jean-Jacques Rousseau a Voltaire tras el terremoto de Lisboa de 1755:

«Convenga usted que la naturaleza no construyó las veinte mil casas de seis y siete pisos, y que, de haber vivido los habitantes de esta gran ciudad menos hacinados, con mayor igualdad y modestia, los estragos del terremoto hubieran sido menores o quizá inexistentes».

La asimetría cognitiva: el abismo entre el dato y la gestión.

Existe una fractura profunda entre los estratos que gestionan el riesgo, a lo que denomino «asimetría cognitiva». El entendimiento se bloquea debido a una jerarquía de intereses y tiempos contrapuestos.

  • Ciencia y filosofía (cúspide): trabajan a largo plazo, son independientes y su motor es la duda crítica.
  • Técnica (ingeniería): se mueve en el cumplimiento de normativas y en la aplicación de soluciones concretas.
  • Política y la gestión (la base): están dominadas por el corto plazo (ciclos de cuatro años), la dependencia jerárquica y la opinión pública.

El gran obstáculo es la disonancia cognitiva: cuando la evidencia científica choca con los prejuicios o intereses de un gestor, este simplemente la ignora. Para que la seguridad sea real, la gestión debe basarse en la evidencia y no en enfoques reactivos que solo buscan culpables para calmar a la opinión pública.

El fin de la «estacionariedad» y la trampa del cisne negro.

Históricamente, la ingeniería se ha basado en el dogma de la «estacionariedad», es decir, la creencia de que el futuro se comportará estadísticamente como el pasado. Hemos diseñado con métodos semiprobabilísticos y coeficientes de seguridad, basados en series históricas que ya no reflejan la realidad climática actual.

Debemos prepararnos para los cisnes negros de Nassim Taleb: eventos poco frecuentes, de gran impacto y que solo podemos explicar a posteriori. Confiar ciegamente en los modelos predictivos nos genera una falsa sensación de seguridad. En un mundo de variabilidad climática, la incertidumbre no es un error del modelo, sino una variable de diseño. No podemos seguir ignorando los eventos de «baja probabilidad, pero alto impacto» solo porque no encajan en nuestras hojas de cálculo de Excel.

El «queso suizo» y la filosofía de los cero defectos.

Las catástrofes ocurren cuando los fallos latentes de diversas capas de seguridad se alinean, como los agujeros de un queso suizo. Un ejemplo clásico es el error médico: operaron la rodilla equivocada a un paciente llamado «García» porque había dos pacientes con ese nombre y nadie verificó cuál era cuál. Para evitar que esto ocurra en las infraestructuras críticas, debemos cambiar de paradigma.

  • Debemos pasar de la AQL al 6 Sigma: mientras que la industria occidental a menudo acepta un nivel de calidad «aceptable» (AQL), la filosofía japonesa busca el 6 Sigma (cero defectos). En las infraestructuras críticas, asumir riesgos por motivos económicos es un dogma que debe romperse.
  • Poka-yoke (a prueba de errores): la seguridad no puede depender del criterio ni del estado de ánimo de una persona en medio de una crisis. Necesitamos sistemas automáticos y redundantes que detengan la cadena de errores antes de que el «agujero» se alinee. Si una decisión de emergencia puede automatizarse, debe automatizarse.

Resiliencia: la integral de la funcionalidad.

La resiliencia no es una palabra de moda, sino una propiedad técnica que se mide como la integral de la funcionalidad del sistema a lo largo del tiempo, desde el impacto hasta la recuperación total. Se compone de dos factores:

  • Robustez: funcionalidad residual inmediatamente después del impacto. Una estructura robusta es aquella que, tras un evento extremo, mantiene un mínimo de servicio.
  • Rapidez: el tiempo necesario para volver al estado inicial o a un estado mejor.

Un error estratégico fatal es reconstruir tras un desastre exactamente igual que antes. Esto garantiza que el próximo evento de igual magnitud provocará el mismo daño. Debemos abandonar la idea de que la infraestructura es segura a largo plazo sin adaptarla. La verdadera resiliencia implica que el sistema final sea mejor que el original tras aprender del fallo.

Ingeniería humanitaria: las personas en el centro de la ecuación.

La ingeniería debe humanizarse y recuperar el sentido común por encima del cumplimiento rígido de la normativa. Tras los sucesos recientes en Valencia, hemos visto cómo puentes se han venido abajo debido a la fuerza de las cañas y a los vehículos acumulados. La ingeniería de reconstrucción debe aplicar medidas urgentes:

  • Rediseño técnico: reducir el número de apoyos en los cauces, asegurar que los apoyos estén pilotados y situar los estribos fuera de las zonas inundables.
  • Física inversa: considerar fallos no previstos, como los forjados de edificios que funcionan al revés debido al empuje hidráulico ascendente del agua.
  • Ingeniería humanitaria y presupuesto: España debería liderar la especialización en rescate y reconstrucción. ¿Por qué no destinar parte del 2 % del presupuesto de defensa a helicópteros de rescate, bombas de gran capacidad para extraer agua, desaladoras portátiles y hospitales de campaña? Eso también es seguridad nacional.
  • La creación de un consorcio administrativo es una herramienta legal esencial. Permite que múltiples administraciones deleguen competencias en un ente único, blindando las decisiones técnicas y los presupuestos frente a la miopía de los ciclos electorales de cuatro años.

Conclusión: un cambio de paradigma urgente.

La gestión de riesgos no termina con la inauguración de una obra. Se trata de una responsabilidad colectiva que requiere una visión integral que combine gemelos digitales y la colaboración interdisciplinaria. Sin embargo, como señalaba Miguel de Unamuno, la ciencia por sí sola no basta para convencer a quien está cegado por el dogma o por el interés.

La seguridad absoluta es un mito, pero la vulnerabilidad extrema casi siempre es una elección. El futuro de nuestras ciudades depende de que dejemos de buscar culpables en el cielo y empecemos a buscar soluciones en nuestra capacidad de prever, adaptarnos y, sobre todo, pensar de forma crítica. ¿Estamos dispuestos a reconstruir no solo nuestros puentes, sino también nuestra forma de entender el mundo?

En esta conversación puedes escuchar las ideas más interesantes sobre este asunto.

Este vídeo resume bien las ideas del tema.

Aquí tenéis una conferencia que impartí sobre este tema, que espero os resulte de interés.

Referencias:

ANWAR, G.A.; DONG, Y.; ZHAI, C. (2020). Performance-based probabilistic framework for seismic risk, resilience, and sustainability assessment of reinforced concrete structures. Advances in Structural Engineering, 23(7):1454-1457.

BRUNEAU, M.; CHANG, S.E.; EGUCHI, R.T. et al. (2003). A framework to quantitatively assess and enhance the seismic resilience of communities. Earthquake Spectra 19(4): 733–752.

GAY, L. F.; SINHA, S. K. (2013). Resilience of civil infrastructure systems: literature review for improved asset management. International Journal of Critical Infrastructures9(4), 330-350.

SALAS, J.; YEPES, V. (2020). Enhancing sustainability and resilience through multi-level infrastructure planning. International Journal of Environmental Research and Public Health, 17(3): 962.

YEPES, V. (2025). La ingeniería ante la DANA: la reconstrucción no basta si se repiten los errores del pasado. The Conversation. https://theconversation.com/la-ingenieria-ante-la-dana-la-reconstruccion-no-basta-si-se-repiten-los-errores-del-pasado-250852

ZHOU, Z. W.; ALCALÁ, J.; YEPES, V. (2023). Carbon impact assessment of bridge construction based on resilience theory. Journal of Civil Engineering and Management29(6), 561-576.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Participación en el II Congreso Internacional de Patrimonio de la Obra Pública y la Ingeniería Civil

Una vez terminado el II Congreso Internacional de Patrimonio de la Obra Pública y de la Ingeniería Civil, quería dejar en mi blog un recuerdo de mi participación, tanto como ponente en dos comunicaciones como moderador de tres mesas redondas. Ha sido un verdadero placer colaborar en el desarrollo extraordinario del evento. Un agradecimiento especial a todos los que lo han hecho posible.

Empecemos por las dos comunicaciones presentadas. Os paso un breve resumen y, cuando estén publicadas las actas, os enviaré el contenido completo de ambas comunicaciones.

YEPES, V. (2026). Lenguaje visual y patrimonio de la obra pública: reflexiones sobre la estética del color. II Congreso Internacional de Patrimonio de la Obra Pública y de la Ingeniería Civil, 7-10 abril, Castellón, Valencia y Alicante (Spain).

Este trabajo examina la relevancia del lenguaje visual y de la estética en la ingeniería civil, con énfasis en el color y la luz como herramientas de diseño integrador. Sus objetivos son analizar teorías de la percepción aplicadas a infraestructuras, evaluar el impacto cromático en el entorno y reflexionar sobre la preservación de la integridad de la obra pública. La metodología combina un enfoque cualitativo y deductivo, integrando la estética estructural —basada en las «Tres E» de Billington— con principios de la psicología de la Gestalt para el análisis visual. Los resultados destacan las armonías cromáticas (monocromáticas, análogas o complementarias) y su capacidad de mimetizar o resaltar estructuras, así como el papel de la luz en la definición del volumen y en la percepción estética. Se concluye que la ingeniería debe lograr una síntesis entre técnica y arte, donde la estética sea intrínseca, y se advierte que las intervenciones descontextualizadas, como la del puente Fernando Reig, pueden comprometer su valor patrimonial.

MARTÍN, R.; YEPES, V. (2026). Los elementos intangibles del paisaje de los puertos deportivos: vínculo entre patrimonio, identidad y turismo. II Congreso Internacional de Patrimonio de la Obra Pública y de la Ingeniería Civil, 7-10 abril, Castellón, Valencia y Alicante (Spain).

La consideración de los elementos intangibles del paisaje representa una oportunidad para mejorar la gestión de los puertos deportivos. La creación de un entorno atractivo, donde compartir experiencias y en el que es posible percibir un valor patrimonial náutico o portuario, puede suponer un foco de atracción en el entorno litoral, fortaleciendo la identidad del puerto deportivo y reforzando su imagen turística. Para la cuantificación, tanto económica como social, de estos elementos intangibles, se utilizan métodos de decisión multicriterio. Tomando como caso de estudio el puerto deportivo de Marina del Este (Granada), se observa que, si bien la contribución de estos intangibles no es la más importante, sí representa un valor añadido significativo. Su apreciación es mucho mayor para la sociedad que su valor económico estimado (54% frente al 8% del valor del puerto deportivo).

También tuve la ocasión de moderar tres sesiones, con ponentes de altísimo nivel. Os paso un breve resumen de las tres.

Os dejo algunas fotografías del evento.

Aquí os dejo un vídeo en el que me grabaron comentando brevemente el contenido de la sesión del primer día.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Cómo el hormigón se convierte en sumidero de carbono para salvar el planeta en 2050.

El sector del cemento y el hormigón pretende alcanzar la neutralidad en emisiones de carbono para el año 2050 integrando principios de economía circular en todas sus etapas productivas. Este cambio de paradigma, impulsado por la Global Cement and Concrete Association, propone sustituir el modelo lineal tradicional por estrategias que priorizan la reducción, la reutilización y el reciclaje de materiales.

Entre las acciones clave se encuentran el uso de combustibles alternativos en hornos de clínker, la incorporación de residuos industriales en las mezclas y el diseño de estructuras desmontables. Además, el sector apuesta por la innovación tecnológica para optimizar la capacidad natural del hormigón para absorber CO2 y prolongar la vida útil de las construcciones. El éxito de esta transición requiere una estrecha colaboración entre los sectores público y privado para establecer normativas que fomenten la sostenibilidad y la gestión eficiente de los recursos.

El desafío de los 100 mil millones de toneladas.

Según el Foro Económico Mundial, cada año la economía mundial consume la abrumadora cantidad de 100 mil millones de toneladas de materiales. Lo más alarmante es que cerca de la mitad de estos recursos se destinan exclusivamente a la ingeniería y la construcción.

Con una proyección de 2000 millones de nuevos hogares para el año 2100, el modelo lineal de «tomar-hacer-desechar» resulta físicamente inviable. La economía circular ya no es una opción romántica, sino el pilar técnico indispensable para alcanzar la neutralidad de emisiones de carbono en 2050.

Más allá del reciclaje: las «9R» en el mundo del cemento.

Para transformar este sector, debemos comprender tres estrategias fundamentales: cerrar ciclos (utilizar residuos como la escoria de alto horno), estrechar ciclos (optimizar el uso de áridos reciclados) y ralentizar ciclos (extender la vida útil).

El Programa de Naciones Unidas para el Medio Ambiente (PNUMA) propone las «9R», que en la industria del hormigón se adaptan a estas seis categorías críticas:

  • Reducir por diseño: disminuir el uso de material virgen en la ingeniería.
  • Reciclar: procesar el hormigón al final de su vida útil para producir áridos reciclados de calidad controlada.
  • Readaptar: colocar en el mercado elementos que cumplan una función igual o mejor que la de uno nuevo.
  • Reutilizar: mantener los componentes en uso siempre que sea posible.
  • Rechazar y reducir: usar menos artículos y prolongar su vida útil.
  • Reparar, renovar y remanufacturar: mantener lo existente en lugar de demoler y reemplazar.

La durabilidad extrema del hormigón es su mayor activo circular. Su resistencia innata a incendios, inundaciones y condiciones meteorológicas adversas hace que las estructuras permanezcan útiles durante décadas con un mantenimiento mínimo.

El hormigón como «esponja» de CO2: el fenómeno de la recarbonatación.

La recarbonatación es un proceso natural disruptivo en el que el hormigón absorbe CO₂ de la atmósfera. Este fenómeno convierte el material en un sumidero de carbono vivo. Un detalle técnico vital es que este proceso se maximiza tras la demolición, ya que aumenta la superficie expuesta del material.

Este cambio de paradigma permite reducir las emisiones de carbono en el entorno construido. Como señala la Global Cement and Concrete Association (GCCA) en su posicionamiento oficial:

«La adopción de la economía circular es uno de los elementos clave para alcanzar la neutralidad de emisiones de carbono en 2050, como se menciona en la hoja de ruta del organismo internacional».

Coprocesamiento: transformando residuos en energía y materia.

La industria emplea el coprocesamiento, una forma de simbiosis industrial que utiliza residuos como combustibles y materias primas alternativas (ARMs). El uso de neumáticos viejos en hornos de clínker es un caso de éxito emblemático.

Esta práctica soluciona el problema crítico que supone la gestión de residuos de combustión lenta y perjudicial y reduce la dependencia de los combustibles fósiles. Es una eficiencia pura: transformar los desechos de la sociedad en un recurso industrial de alto valor.

Diseño modular y desmontable: construir para el futuro.

La circularidad se define en la fase de proyecto. Actualmente, la innovación se divide en dos frentes:

  • Diseño de productos: Uso de materiales cementosos suplementarios, como las cenizas volantes, que optimizan la composición del hormigón y mejoran su resistencia.
  • Diseño de proyectos: Implementación de sistemas prefabricados y modulares.

El concepto de «diseñar para el desensamblaje» permite tratar los edificios completos como bancos de materiales. Las losas y los paneles prefabricados pueden desmontarse y reutilizarse en nuevas estructuras, lo que elimina de raíz la generación de escombros.

Un pacto por la transparencia y la innovación.

La GCCA y sus miembros se han comprometido a acelerar las métricas circulares y a fomentar la colaboración público-privada. No obstante, para ampliar estos resultados se necesitan marcos regulatorios valientes.

Una de las propuestas más urgentes es la eliminación gradual de los vertederos destinados a los residuos de construcción. Al prohibir el envío de escombros de hormigón a vertederos, se garantiza su reincorporación al ciclo productivo, de modo que cada tonelada de material mantenga su valor máximo.

Conclusión: ¿Estamos preparados para dejar atrás la era del desperdicio?

La transición hacia la economía circular supone un cambio de paradigma que genera valor, resiliencia y eficiencia operativa. Al integrar la recarbonatación, el coprocesamiento con ARMs y el diseño desmontable, la industria está redefiniendo el concepto de construcción.

El fin de la era del desperdicio no es solo una meta medioambiental, sino también una realidad técnica en curso. Ante este avance, la pregunta es inevitable: ¿Seguiremos viendo al hormigón como un material inerte o lo reconoceremos finalmente como la infraestructura que nos protegerá en 2050?

En esta conversación puedes escuchar los aspectos más importantes de la revolución circular del hormigón.

En este vídeo se resumen bien las ideas más interesantes sobre este tema.

Hormigón_Circular_2050

Curso:

Curso de fabricación y puesta en obra del hormigón.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

De la prohibición al aprendizaje profundo: cómo la IA está transformando la formación de los futuros ingenieros.

Introducción: El dilema del aula moderna.

En ingeniería civil, un error de cálculo no es solo una errata en un examen, sino una cuestión de seguridad pública y de responsabilidad ética. Por ello, el panorama actual resulta alarmante: mientras que más del 60 % de los estudiantes reconoce utilizar inteligencia artificial generativa (IAG) en sus tareas, apenas un 25 % realiza una revisión crítica de los resultados.

Esta dependencia acrítica amenaza con diluir el rigor técnico necesario para diseñar infraestructuras seguras. Ante este desafío nace el proyecto PROFUNDIA, liderado por el catedrático Víctor Yepes en la Universitat Politècnica de València (UPV), en colaboración con la Universidad Politécnica de Cartagena (UPCT). Nuestra misión es clara: transformar la IA de un «atajo peligroso» en un motor de aprendizaje profundo que refuerce la autonomía del futuro ingeniero.

El fin de la era de la prohibición: de «No usar» a «Usar para pensar».

Durante los últimos años, la respuesta académica dominante ha sido la restricción. Sin embargo, en un entorno profesional de alta exigencia, prohibir la tecnología es una batalla perdida que solo agrava la brecha entre el aula y la realidad. PROFUNDIA propone un cambio de paradigma radical: integrar la IA como una «herramienta cognitiva» o «mindtool», bajo la filosofía constructivista de Jonassen.

No buscamos que el estudiante aprenda «de» la tecnología como si esta fuera un oráculo, sino «con» la tecnología. Al utilizar la IA como mediadora, el alumno no se limita a recibir datos, sino que debe «luchar» con la herramienta para construir un modelo mental sólido de los fenómenos físicos. En ingeniería, el objetivo no es obtener el número final, sino comprender el comportamiento estructural que ese número representa.

«Enseñar» a la IA para aprender ingeniería.

El corazón de nuestra metodología se basa en un concepto disruptivo: el «sesgo deliberado hacia el error». En asignaturas críticas como «Modelos predictivos de estructuras de hormigón» o «Resistencia de materiales», hemos observado que la IA tiende a «alucinar» al proponer hipótesis de partida o al aplicar normativas específicas. En lugar de considerar esto como una limitación, lo convertimos en nuestra principal ventaja pedagógica.

Obligamos al estudiante a enfrentarse a las respuestas de la IA no como verdades absolutas, sino como borradores que deben ser auditados. Para corregir los cálculos de la máquina en una viga o en un pórtico, el alumno primero debe dominar la teoría de forma exhaustiva.

«En PROFUNDIA, el estudiante invierte los roles tradicionales: deja de ser un receptor pasivo para convertirse en el «maestro» de la IA, validando, cuestionando y corrigiendo la tecnología con su propio juicio técnico y rigor científico».

El ciclo del «prompt crítico»: reflexión metacognitiva.

Para estructurar este proceso, hemos diseñado una secuencia metodológica (basada en la Figura 2 del proyecto) que obliga al estudiante a reflexionar metacognitivamente de manera constante.

  • Formulación del prompt: el alumno debe traducir un problema de estructuras metálicas o de hormigón a un lenguaje técnico preciso, definiendo cargas, luces y condiciones de contorno.
  • Comparación crítica: se contrasta el resultado de la IA con modelos analíticos propios y con programas informáticos profesionales de cálculo.
  • Detección de errores y reformulación: aquí es donde ocurre el aprendizaje real. El estudiante debe identificar si el error de la IA se debe a un cálculo matemático incorrecto, a una hipótesis física errónea o a un desconocimiento del Código Estructural. Tras el análisis, debe guiar a la IA, mediante nuevos mensajes, hacia la solución correcta.
  • Justificación técnica: el paso final consiste en validar la solución según los criterios científicos y normativos vigentes, a fin de garantizar que la respuesta no solo «parezca» correcta, sino que también sea técnicamente viable y segura.

Más allá del aula: preparación para el mundo real.

La colaboración entre la UPV y la UPCT (con los profesores Antonio Tomás y Pedro Martínez-Pagán) permite validar este modelo en diversos contextos, desde los grados hasta los másteres. El objetivo no es simplemente aprobar la asignatura de Estructuras Metálicas, sino desarrollar el criterio técnico experto que hoy demandan las empresas de ingeniería.

En el ejercicio profesional, el ingeniero es el último responsable de la empresa que avala un proyecto. PROFUNDIA prepara a los egresados para que puedan actuar como auditores tecnológicos, capaces de aprovechar la eficiencia de la IA sin comprometer nunca la integridad estructural ni la seguridad de las personas.

Un entorno de aprendizaje enriquecido.

La innovación de este proyecto no radica en el software (ChatGPT es solo una herramienta), sino en la redefinición metodológica del entorno de aprendizaje. Hemos transformado el aula en un laboratorio de interacción social y psicológica en el que la IA actúa como un «agente activo» dentro del equipo de trabajo. Esta dinámica fomenta una mayor implicación del alumnado, que percibe el aprendizaje no como una carga, sino como el desarrollo de la maestría en las herramientas que definirán su futuro.

Conclusión: Hacia una ingeniería de pensamiento profundo.

La visión de PROFUNDIA consiste en formar ingenieros que lideren la tecnología en lugar de depender de ella. La eficiencia de un algoritmo es una herramienta poderosa, pero carece de la comprensión profunda y de la responsabilidad ética que definen nuestra profesión.

Al final, cuando nos enfrentamos al diseño de un puente o una infraestructura de gran envergadura, debemos plantearnos una pregunta provocadora: en un futuro en el que las máquinas pueden realizar cálculos en milisegundos, ¿seremos capaces de formar a ingenieros con la suficiente intuición y criterio técnico como para negarnos a firmar un proyecto que la IA considera «eficiente», pero que el juicio humano reconoce como un riesgo de colapso? El futuro de nuestra seguridad depende de esa capacidad crítica.

En esta conversación puedes escuchar las ideas más interesantes de este proyecto.

Este vídeo resume bien el proyecto PROFUNDIA.

PROFUNDIA_Structural_Engineering_AI

Referencias:

Blight, T., Martínez-Pagán, P., Roschier, L., Boulet, D., Yepes-Bellver, L., & Yepes, V. (2025). Innovative approach of nomography application into an engineering educational context. PloS one20(2), e0315426.

Castro-Aristizabal, G., Acosta-Ortega, F., & Moreno-Charris, A. V. (2024). Los entornos de aprendizaje y el éxito escolar en Latinoamérica. Lecturas de Economía, (101), 7-46.

Hadgraft, R. G., & Kolmos, A. (2020). Emerging learning environments in engineering education. Australasian Journal of Engineering Education25(1), 3-16.

Jiang, N., Zhou, W., Hasanzadeh, S., & Duffy Ph D, V. G. (2025). Application of Generative AI in Civil Engineering Education: A Systematic Review of Current Research and Future Directions. In CIB Conferences (Vol. 1, No. 1, p. 306).

Jonassen, D. H., Peck, K. L., & Wilson, B. G. (1999). Learning with technology: A constructivist perspective. Columbus, OH: Merrill/Prentice-Hall.

Liao, W., Lu, X., Fei, Y., Gu, Y., & Huang, Y. (2024). Generative AI design for building structures. Automation in Construction157, 105187.

Navarro, I. J., Marti, J. V., & Yepes, V. (2023). Evaluation of Higher Education Students’ Critical Thinking Skills on Sustainability. International Journal of Engineering Education39(3), 592-603.

Onatayo, D., Onososen, A., Oyediran, A. O., Oyediran, H., Arowoiya, V., & Onatayo, E. (2024). Generative AI applications in architecture, engineering, and construction: Trends, implications for practice, education & imperatives for upskilling—a review. Architecture4(4), 877-902.

Pellicer, E., Yepes, V., Ortega, A. J., & Carrión, A. (2017). Market demands on construction management: View from graduate students. Journal of Professional Issues in Engineering Education and Practice143(4), 04017005.

Perkins, D., & Unger, C. (1999). La enseñanza para la comprensión. Argentina: Paidós.

Torres-Machí, C., Carrión, A., Yepes, V., & Pellicer, E. (2013). Employability of graduate students in construction management. Journal of Professional Issues in Engineering Education and Practice139(2), 163-170.

Xu, G., & Guo, T. (2025). Advances in AI-powered civil engineering throughout the entire lifecycle. Advances in Structural Engineering, 13694332241307721.

Zhou, Z., Tian, Q., Alcalá, J., & Yepes, V. (2025). Research on the coupling of talent cultivation and reform practice of higher education in architecture. Computers and Education Open, 100268.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Lecciones estratégicas sobre el mantenimiento que definen el éxito de una obra

En la ingeniería civil, la espectacularidad de una excavadora desplazando toneladas de tierra o de una grúa de doble vano posicionando estructuras suele acaparar la atención de los directores de proyecto. Sin embargo, el verdadero éxito financiero no se decide en la acción, sino en la quietud de los talleres. Una máquina parada no solo es un equipo inactivo, sino también una pérdida de liquidez y un coste de oportunidad que puede reducir drásticamente el margen de beneficio de cualquier contrato.

La disponibilidad de la flota no es una cuestión de azar, sino una ciencia de precisión basada en la gestión del fondo horario. El ingeniero sabe que el tiempo de permanencia en obra es un recurso finito que debe desglosarse con precisión matemática: desde el tiempo laborable real (Hl), que depende del clima, hasta el tiempo de máquina en disposición (Hd), que depende de la eficacia del equipo de mantenimiento.

La paradoja de la liquidez: el mantenimiento preventivo no es un gasto.

Para una gerencia con visión a corto plazo, el mantenimiento preventivo (sustituir piezas que aún funcionan) parece un lujo innecesario. Sin embargo, el mantenimiento correctivo (reparar después de la avería) es, en realidad, la política más costosa. Las averías inesperadas destruyen la capacidad de programación, provocan paradas en cadena en los equipos dependientes y elevan los costes de mano de obra de emergencia.

Desde la perspectiva de la gestión de activos, el mantenimiento preventivo planificado es una garantía de la operatividad. Permite transformar la incertidumbre en una variable controlada.

«Reparar antes de que se produzca la avería es estratégicamente superior, ya que se evitan daños colaterales, se puede programar la intervención fuera del horario laboral y se reduce el número de piezas que hay que sustituir».

Gestión de riesgos en la compra: el mito de la máquina nueva.

La ingeniería de fiabilidad nos enseña que una máquina recién salida de fábrica no es sinónimo de infalibilidad. La curva de la bañera describe tres fases críticas que todo gerente de flota debe conocer para proteger su inversión:

  • Mortalidad infantil: una tasa elevada de fallos en el inicio de la vida útil, debida a errores de diseño, fabricación o montaje.
    • Estrategia empresarial: el estratega debe exigir periodos de «purga» o de rodaje preliminar y negociar los SLA (acuerdos de nivel de servicio) de modo que esta fase de fallos precoces se produzca bajo la responsabilidad del proveedor y no en la ruta crítica del proyecto.
  • Vida útil (tasa de fallos constante): periodo de estabilidad operativa durante el cual la fiabilidad depende de un mantenimiento rutinario y riguroso. Es aquí donde se maximiza el retorno de la inversión.
  • Periodo de desgaste: el envejecimiento incrementa los costes. Un tractor que alcanza su vida económica (por ejemplo, 20 000 horas) requiere una decisión estratégica: una gran reparación o una renovación total para evitar el colapso de la productividad.

El factor humano: el sentido de propiedad frente a la optimización de turnos.

La fiabilidad de una máquina es inversamente proporcional a la dilución de la responsabilidad sobre ella. Cuando se añaden turnos adicionales o se comparten conductores para maximizar el uso del fondo horario, el «sentido de propiedad» del operario se desvanece. Sin un responsable único, el cuidado diario (limpieza, engrase e inspección visual) disminuye y aumentan las averías.

Sin embargo, el directivo sénior debe evaluar el dilema:

  • En el caso de la maquinaria pesada, donde el coste del operario es mínimo en comparación con el valor del activo y sus costes fijos, la decisión estratégica suele ser operar en varios turnos. El riesgo de avería se asume como una variable controlada con el fin de acortar plazos y diluir los gastos fijos.
  • En equipos más pequeños, la asignación de un único conductor-propietario sigue siendo la mejor garantía de longevidad.

El clima como jefe de obra: de Hl a Hd.

El éxito de una obra depende de la comprensión de la transición entre lo que el clima permite (Hl, tiempo laborable real) y lo que la gestión de flotas asegura (Hd, tiempo en disposición). La climatología no es una excusa, sino un coeficiente de reducción predecible. Estadísticamente, meses como diciembre o enero pueden ofrecer apenas el 60 % de las horas laborables disponibles que julio.

El impacto de la lluvia es un ejemplo de «geología aplicada al negocio». Una precipitación de 30 mm/día puede suponer la pérdida de un día de trabajo en suelos granulares (gravas), pero detendrá la producción por hasta cuatro días en suelos arcillosos debido a la saturación.

Directrices operacionales de operatividad límite:

Condición Límite técnico Impacto operativo
Mezclas bituminosas < 5 ºC Parada total de pavimentación
Tratamientos superficiales < 10 ºC Riesgo crítico de ejecución
Materiales húmedos < 0 ºC Imposibilidad de manipulación
Precipitación Ligera 1 mm/día Limita unidades sensibles
Precipitación Intensa 10 mm/día Exige protección especial o parada

El lenguaje de la combustión: diagnóstico preventivo por colores.

Un motor diésel no falla en silencio, sino que emite señales visuales que el estratega debe interpretar para tomar decisiones inmediatas sobre el mantenimiento del motor. Ignorar el color del humo del escape equivale a quemar el margen de beneficio en la cámara de combustión.

  • Humo oscuro: indica una combustión incompleta por falta de aire. Es una alerta para revisar los sistemas de admisión, los filtros obstruidos o el reglaje de las válvulas. Supone una pérdida directa de potencia y de eficiencia.
  • Humo azulado: alerta de consumo de lubricante. Los segmentos o las camisas están desgastados, lo que permite que el aceite pase a los cilindros. Anticipa una reparación mayor inminente.
  • Humo blanco: presencia de aceite directamente en el sistema de escape o fallos graves en la inyección. Se requiere una intervención técnica urgente para evitar un fallo catastrófico del bloque del motor.

La dictadura de la «pieza crítica»: sincronización de la disponibilidad.

El objetivo del mantenimiento no es que cada componente alcance su vida útil máxima individual, sino minimizar el número de veces que la máquina deja de estar disponible (Hd). El método de la pieza crítica establece que el componente con la menor esperanza de vida determina el ritmo de todo el sistema.

Si el componente C2 requiere intervención cada 250 horas, el plan de mantenimiento debe sincronizarse en múltiplos de dicho intervalo (500, 750, 1000 horas). Desde el punto de vista financiero, es más inteligente sustituir un componente que aún tiene un 15 % de vida útil si eso permite realizar la intervención simultáneamente con la pieza crítica y así evitar una segunda parada innecesaria apenas unas semanas después. La eficiencia operativa reside en la sincronización, no en el aprovechamiento extremo de cada rodamiento.

Conclusión: hacia el mantenimiento productivo total (TPM).

La excelencia en la gestión de activos culmina en el mantenimiento productivo total (TPM). Esta filosofía exige que la fiabilidad deje de ser una responsabilidad exclusiva del departamento de taller y se convierta en una tarea compartida por todos los miembros de la organización. Desde la alta dirección, que debe basar sus planes de obra en bases de datos históricas de mantenimiento, hasta el operario, que actúa como primer sensor de anomalías.

Al fin y al cabo, la maquinaria de construcción es el motor que impulsa su capital. La pregunta para el líder es clara: ¿Prefiere gobernar sus activos con la ciencia de la fiabilidad o permitir que la incertidumbre de las averías gobierne el destino de sus beneficios?

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

En este vídeo se resume bien el tema.

Machinery_Reliability_Engineering

Referencias:

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442. ISBN: 978-84-1396-046-3

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Redes Neuronales Artificiales: El cerebro digital que imita la inteligencia humana

El cerebro biológico representa la cúspide de la eficiencia evolutiva. Es un sistema capaz de procesar información con ruido, manejar datos inconsistentes y, lo más sorprendente, mantener su integridad operativa a pesar de la pérdida constante de unidades individuales.

En el auge de la inteligencia artificial moderna, las Redes Neuronales Artificiales (ANN) no surgen como meras calculadoras, sino como un espejo de silicio que busca replicar esa genialidad orgánica.

Estas redes no se basan en una programación rígida de causa-efecto, sino que «aprenden» a través de la experiencia y la reconfiguración de sus estados, transformando problemas abstractos en soluciones tangibles.

En otros artículos de este blog ya hemos hablado de este tema:

¿Qué es y para qué sirve una red neuronal artificial?

Redes neuronales aplicadas al diseño multiobjetivo de puentes postesados

Redes neuronales y metamodelos Kriging para la optimización de la energía en puentes losa pretensados

La Paradoja de la velocidad: neuronas biológicas frente a circuitos de silicio

Existe una disparidad fascinante entre el hardware biológico y el artificial. Una neurona biológica es intrínsecamente lenta, operando en una escala de milisegundos (10-3 s). En contraste, los circuitos eléctricos de silicio son un millón de veces más veloces, alcanzando los nanosegundos (10-9 s). Sin embargo, el cerebro humano aventaja a la máquina mediante un procesamiento masivamente paralelo, orquestado por aproximadamente 1011 neuronas y una red de 10.000 conexiones por cada una de ellas.

Para que las redes artificiales alcancen una efectividad real en la aproximación de funciones complejas, deben adoptar esta arquitectura paralela. Como especialistas, valoramos una lección fundamental de la biología: la robustez ante el fallo. En la naturaleza, «el cerebro es robusto; pueden morir neuronas sin que el rendimiento global se vea afectado«. Las redes artificiales aspiran a esta misma resiliencia, en la que la inteligencia no depende de un solo nodo, sino de la colectividad.

El conocimiento es un estado, no un lugar

En la computación tradicional, la información se almacena en una dirección de memoria específica, como un libro en un estante. En una red neuronal, el conocimiento es un concepto etéreo que reside en la interacción concertada entre sus componentes. No existe un lugar físico para un «dato»; el aprendizaje está codificado en la arquitectura y en la fuerza de las conexiones.

Este sistema se inspira en tres componentes fundamentales que definen el flujo de información:

  • Dendritas (receptores): Fibras nerviosas que actúan como canales de entrada, captando señales de neuronas adyacentes para cargar el soma con un potencial eléctrico.
  • Soma (procesador): El núcleo celular que integra y suma todas las señales recibidas. En IA, esto se traduce en multiplicadores (pesos) y en sumadores.
  • Axón (transmisor): Una fibra cuya longitud varía de milímetros a varios metros, encargada de conducir el impulso si se supera un umbral de activación.

Un detalle técnico que suele pasar desapercibido es que la longitud de la sinapsis —el punto de contacto entre neuronas— está determinada por la complejidad del proceso químico que asegura la función de la red. En la IA, emulamos esto ajustando los «pesos» para fortalecer o inhibir señales, lo que permite que el sistema se autoorganice.

La paradoja del aprendizaje: cuando la memorización asfixia la inteligencia

Aprender en exceso es, a menudo, el camino más rápido hacia el fracaso. Este fenómeno, conocido como overfitting o sobreaprendizaje, ocurre cuando la red memoriza los datos de entrenamiento —incluyendo su ruido y errores— en lugar de comprender el patrón subyacente. Una red «sobreentrenada» es incapaz de generalizar ante datos nuevos, lo que la convierte en una herramienta inútil para la predicción real.

La solución de arquitectura más elegante es el early-stopping (parada temprana). Este proceso monitorea el error en un conjunto de validación y detiene el entrenamiento en el momento exacto en que el error comienza a aumentar, antes de que la red se vuelva demasiado rígida. Para garantizar el éxito, aplicamos la regla del 80/10/10:

  • 80 % de entrenamiento: para ajustar pesos y sesgos.
  • 10 % de validación: para detectar el punto óptimo de detención.
  • 10 % de test: una evaluación final totalmente «ciega» para verificar la capacidad real del modelo.

La Navaja de Ockham en la IA: El poder de «podar» la red

El principio de parsimonia sugiere que la explicación más simple suele ser la más acertada. En el diseño de redes, esto se traduce en redes podadas (pruned networks). Mediante la desconexión de neuronas redundantes o la eliminación de variables de entrada irrelevantes, logramos modelos más compactos y robustos.

Para guiar este proceso, utilizamos dos métricas críticas en la función de coste:

  1. MSE (Mean Squared Error): Su propósito conceptual es penalizar las diferencias entre el valor real y el calculado, elevándolas al cuadrado para dar prioridad matemática a la eliminación de los errores más grandes.
  2. PSE (Predicted Squared Error): Mientras que el MSE mide el error presente, el PSE penaliza activamente el número de parámetros de la red. Su fórmula, PSE = MSE \cdot (1 + 2p/(N-p)), asegura que no estemos añadiendo complejidad innecesaria, castigando los modelos con demasiados grados de libertad en relación con el número de datos disponibles.

El secreto está en la escala: por qué la estandarización es crucial

Aunque las redes neuronales son aproximadores universales, su entrenamiento puede resultar exasperantemente lento o fallar si no se cuida la escala de los datos. Los pesos de una red se inicializan con valores aleatorios pequeños; por ello, si las entradas son masivas, se producen errores iniciales gigantescos que saturan el sistema. Estandarizar los datos en rangos similares —como [-1, 1]— permite que el algoritmo de optimización converja con rapidez.

Además, si una variable presenta una distribución no lineal (como la exponencial), es imperativo linearizarla mediante logaritmos para facilitar el aprendizaje. No obstante, el mayor reto del arquitecto de IA es evitar los mínimos locales: soluciones subóptimas que parecen el fin del camino, pero no son el mejor resultado posible. La inicialización aleatoria y la estandarización son, en última instancia, estrategias para que la red «explore» el paisaje de soluciones sin quedar atrapada en los baches del error.

Conclusión: El laboratorio virtual y el futuro del diseño

Una red neuronal bien entrenada se convierte en un laboratorio virtual. En ingeniería, esto permite generar curvas de diseño de alta precisión; por ejemplo, podemos predecir el comportamiento del «rebase» de una estructura hidráulica al variar la «cota de coronación» mientras mantenemos constantes el resto de las variables. Esto nos ofrece una visión profunda de problemas complejos sin los costes de la experimentación física.

Sin embargo, nos enfrentamos a la naturaleza de «caja negra» de estos sistemas. Obtenemos soluciones perfectas, pero la lógica exacta tras miles de conexiones numéricas permanece oculta. Como sociedad tecnológica, nos acercamos a un umbral decisivo: ¿Estamos dispuestos a confiar plenamente en soluciones óptimas aunque no comprendamos exactamente el proceso intelectual que la red siguió para alcanzarlas? El futuro del diseño no solo depende de la potencia de cálculo, sino también de nuestra capacidad para convivir con esta nueva forma de inteligencia opaca pero infalible.

En esta conversación podéis escuchar las ideas más interesantes sobre estas redes neuronales.

Este vídeo resume bien los conceptos más importantes.

The_Neural_Blueprint

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.