Resultados intermedios del proyecto de investigación RESILIFE

En este momento, estamos elaborando la justificación técnica y económica del proyecto de investigación RESILIFE. Los investigadores principales son Víctor Yepes y Julián Alcalá. El proyecto comenzó el 1 de septiembre de 2024 y se prevé que finalice a finales de 2027. Hemos hablado mucho de este proyecto en el blog.

Se trata del proyecto PID2023-150003OB-I00, cuya denominación es: «Optimización resiliente del ciclo de vida de estructuras híbridas y modulares de alta eficiencia social y medioambiental bajo condiciones extremas».

En la fase intermedia del proyecto, se han publicado 25 artículos en revistas indexadas en el JCR, de los cuales 17 están en el primer cuartil y 8 en el segundo. Pero quizás sea importante destacar que de ellos, 13 se han publicado en revistas del primer decil. Entre ellos tenemos un Featured Paper Award de Engineering Structures. En las referencias, al final de esta entrada, tenéis los artículos y sus enlaces para su descarga.

Este esfuerzo ha sido fruto del trabajo de un buen número de investigadores de distintas nacionalidades. Han participado 22 autores: Yepes, Kripka, Sánchez-Garrido, Yepes-Bellver, Navarro, Negrín, Alcalá, Luque Castillo, Guaygua, Tres Junior, De Medeiros, Villalba, Fernández-Mora, Brun-Izquierdo, Martínez-Muñoz, Martí, Ruiz-Vélez, García, Partskhaladze, Vitorio Junior, Onetta y Chagoyén. Hay presencia internacional en países como Brasil, Chile, Ecuador, Perú, Georgia y Cuba.

La investigación reciente en ingeniería civil y construcción, sintetizada en el proyecto RESILIFE y en estudios asociados, marca un cambio de paradigma hacia un enfoque de diseño integral. Este enfoque trasciende la mera eficiencia económica para integrar la resiliencia ante eventos extremos (incendios, sismos y colapsos progresivos), la sostenibilidad multidimensional (ambiental, social y económica) y la eficiencia operativa mediante la digitalización.

Avances en optimización multiobjetivo, sostenibilidad y resiliencia en la ingeniería estructural

Los hallazgos clave incluyen:

  • Sistemas híbridos y modulares: las tipologías de acero y hormigón, así como los sistemas modulares prefabricados (PVMB), demuestran una superioridad técnica y medioambiental significativa. Por ejemplo, las vigas híbridas de sección transversal variable (THVS) pueden reducir los costes de fabricación hasta en un 70 % y las emisiones en un 32 %.
  • Resiliencia integrada: la incorporación de la seguridad contra incendios y de un diseño robusto frente al colapso progresivo en las fases conceptuales no solo mejora la seguridad, sino que también puede optimizar costes (reducción de hasta el 21 % en pasarelas con requisitos de confort dinámico).
  • Sostenibilidad social: el análisis del ciclo de vida social (S-LCA) emerge como un factor crítico, especialmente en viviendas sociales, donde los aspectos sociales representan casi el 40 % del peso en la toma de decisiones.
  • Digitalización y modelado: el uso de BIM (herramientas como Endurify 2.0) y modelos subrogados (redes neuronales y Kriging) permite gestionar con precisión la vida útil remanente y optimizar la huella de carbono con errores predictivos mínimos.

1. Optimización multiobjetivo y resiliencia ante eventos extremos

La integración de factores de riesgo extremo como criterio principal de diseño permite desarrollar infraestructuras más seguras sin comprometer la viabilidad económica.

1.1 Resiliencia al fuego en pasarelas híbridas

  • Enfoque integrado: se propone el rendimiento ante el fuego como motor de diseño, junto con el coste, el impacto ambiental y la comodidad del peatón.
  • Configuraciones óptimas: se recomienda utilizar acero de menor resistencia en el alma y de mayor en las alas (una relación de límite elástico de aproximadamente 1,6).
  • Compromisos de diseño: existe una dicotomía geométrica, ya que las vigas más compactas mejoran la seguridad frente a incendios, mientras que las geometrías esbeltas favorecen el rendimiento dinámico. Una inversión adicional del 23 % en el coste puede evitar el colapso durante 10 minutos de exposición al fuego.

1.2 Resistencia al colapso progresivo (PC) y sismos

  • Marco OBDRPC: este marco integra principios de diseño resistente al colapso progresivo y de optimización basada en simulaciones, en los que se considera la interacción suelo-estructura (SSI).
  • El impacto de la interacción suelo-estructura puede generar diferencias de hasta el 24,29 % en el uso de materiales de la superestructura si no se tiene en cuenta dicha interacción.
  • Sistemas modulares en zonas sísmicas: en regiones como Quito, los sistemas modulares de acero laminado en caliente ofrecen el mejor rendimiento global, ya que reducen los tiempos de construcción y el impacto social, aunque los costes iniciales son más altos.
  • Refuerzo sísmico: el uso de polímeros reforzados con fibra de carbono (CFRP) se identifica como la mejor alternativa para el refuerzo de las vigas de hormigón deficientes, debido a su menor impacto ambiental y social en comparación con el encamisado de acero o de hormigón.

2. Sostenibilidad y análisis del ciclo de vida (ACV)

La sostenibilidad se evalúa mediante un enfoque de «triple balance» que abarca las dimensiones económicas (LCC), ambientales (LCA) y sociales (S-LCA).

2.1. Descarbonización y eficiencia de materiales

  • Puentes y pasarelas: la optimización de los pasos superiores de las carreteras puede reducir la huella de carbono en un 12 %. En los puentes de losa pretensados, se recomienda una relación de esbeltez de 1/28 y hormigón C-40 para maximizar la eficiencia energética.
  • Economía circular: el uso de losas aligeradas con plástico reciclado reduce el consumo de hormigón y acero entre un 23 % y un 33 %, lo que se traduce en una disminución del 24 % del potencial de calentamiento global.
  • Relación coste-emisiones: Se ha identificado una relación lineal: cada dólar ahorrado en la optimización de pasarelas reduce las emisiones de CO2 en aproximadamente 0,7727 kg por metro.

2.2 Dimensión social de la construcción

  • Vivienda social: el sistema Light Steel Frame (LSF) destaca como la opción más favorable en contextos de desarrollo, ya que ofrece un buen equilibrio entre coste, durabilidad y menor mantenimiento.
  • Riesgos sociales: la implementación de sistemas de construcción circular y modelos de optimización reduce los riesgos sociales hasta en un 20 % en las categorías de trabajadores y de la comunidad local.

3. Tipologías estructurales innovadoras.

El desarrollo de nuevas geometrías y combinaciones de materiales es fundamental para la eficiencia industrial.

Tipología Beneficios clave identificados
Vigas THVS (híbridas transversales de sección variable) Reducción de costes de fabricación hasta el 70%; reducción de emisiones hasta el 32%; menor carga axial en columnas y cimientos debido a la reducción del peso propio.
Sistemas modulares (PVMB) Despliegue más rápido, mayor resiliencia social y reducción de los impactos ambientales en comparación con los métodos convencionales in situ.
Estructuras MMC en costa El uso de cemento sulforresistente, impregnación hidrofóbica y humo de sílice aumenta la calificación de sostenibilidad en un 86% frente a diseños base en ambientes marinos agresivos.
Almacenes de acero con cerramientos de acero Menor impacto ambiental que el de los cerramientos de ladrillo o de bloques de hormigón, especialmente en escenarios de reciclaje al final de la vida útil.

4. Digitalización y herramientas de decisión.

La complejidad de los criterios de competencia exige el uso de herramientas informáticas avanzadas.

4.1 BIM y gestión de la vida útil

  • Endurify 2.0: este complemento para entornos BIM automatiza la planificación de la rehabilitación estructural y estima la vida útil remanente (RUL). Su aplicación reduce los costes totales en un 15 % y el impacto por proximidad en un 10 % en comparación con la planificación basada en expertos.
  • Indicadores de daño: el sistema analiza cuatro indicadores críticos: carbonatación, fisuración transversal, fluencia y deflexión.

4.2. Modelos subrogados y algoritmos de optimización

  • Precisión predictiva: las redes neuronales artificiales (ANN) y el modelo Kriging han demostrado ser muy precisos para optimizar la huella de carbono y la energía embebida, aunque tienden a sobreestimar ligeramente los valores observados.
  • Algoritmos metaheurísticos: el uso de algoritmos como NSGA-III, CTAEA y SMS-EMOA permite equilibrar objetivos en conflicto (rendimiento estructural frente a la constructibilidad), siendo NSGA-III el que muestra la mayor convergencia hacia el frente de Pareto.
  • Múltiples criterios (MCDM): se emplean métodos híbridos (BWM, TOPSIS, VIKOR y DEMATEL) para reducir la subjetividad del juicio experto y modelar las interdependencias causales entre los criterios de sostenibilidad.

5. Conclusiones y directrices de diseño

La síntesis de las fuentes permite establecer directrices prácticas para la infraestructura moderna:

  1. Priorizar la hibridación: El uso de secciones híbridas (de acero con distintos límites elásticos) y de sistemas mixtos de acero y hormigón ofrece las mayores ventajas económicas y medioambientales.
  2. Mantenimiento preventivo: en entornos agresivos (como las costas), la inversión inicial en materiales especiales (como el humo de sílice o las impregnaciones) compensa con creces la reducción de las intervenciones de mantenimiento reactivo.
  3. Enfoque holístico en la vivienda: la evaluación de los proyectos de vivienda social debe integrar obligatoriamente las dimensiones técnica y social, no solo la económica, para garantizar la resiliencia de la comunidad.
  4. Optimización desde el proyecto: La resiliencia al fuego y al colapso debe integrarse en la fase de diseño conceptual para evitar sobrecostes innecesarios en etapas avanzadas del proyecto.

Referencias:

  1. TRES JUNIOR, F.L.; DE MEDEIROS, G.F.; KRIPKA, M.; YEPES, V. (2026). Integrated Optimization Framework for Fire-Resilient and Sustainable Hybrid Steel-Concrete Composite Footbridges. Engineering Structures, 360, 122779. DOI:10.1016/j.engstruct.2026.122779
  2. GUAYGUA, B.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2026). A multi-criteria life-cycle decision framework for sustainable modular hospitals in seismic regions. Results in Engineering, 30, 110371. DOI:10.1016/j.rineng.2026.110371
  3. FERNÁNDEZ-MORA, V.; NAVARRO, I.J.; YEPES, V. (2026). Extending Building Lifespan: Integrating BIM and MCDM for Strategic Rehabilitation. Journal of Information Technology in Construction, 31:398-419. DOI:10.36680/j.itcon.2026.018
  4. LUQUE CASTILLO, X.; YEPES-BELLVER, L.; YEPES, V. (2026). Towards Sustainable Social Housing: An Integrative Life Cycle and Multi-Criteria ApproachSustainable Cities and Society, 137, 107164. DOI:10.1016/j.scs.2026.107164
  5. SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2026). Multivariate Environmental and Social Life Cycle Assessment of Circular Recycled-Plastic Voided Slabs for Data-Driven Sustainable Construction. Environmental Impact Assessment Review, 118, 108297. DOI:10.1016/j.eiar.2025.108297
  6. SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2026). Optimizing reactive maintenance intervals for the sustainable rehabilitation of chloride-exposed coastal buildings with MMC-based concrete structure. Environmental Impact Assessment Review, 116, 108110. DOI:10.1016/j.eiar.2025.108110
  7. TRES JUNIOR, F.L.; DE MEDEIROS, G.F.; KRIPKA, M.; YEPES, V. (2025). Designing for Safety and Sustainability: Optimization of Fire-Exposed Steel-Concrete Composite Footbridges. Structural Engineering and Mechanics, 96 (4):337-350. DOI:10.12989/sem.2025.96.4.337
  8. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Life-cycle environmental impact optimization of an RC-THVS composite frame for sustainable construction. Engineering Structures, 345, 121461. DOI:10.1016/j.engstruct.2025.121461 Featured Paper Award
  9. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Manufacturing cost optimization of welded steel plate I-girders integrating hybrid construction and tapered geometry. International Journal of Advanced Manufacturing Technology, 140, 1601-1624DOI:10.1007/s00170-025-16365-2
  10. NEGRÍN, I.; CHAGOYÉN, E.; KRIPKA, M.; YEPES, V. (2025). An integrated framework for Optimization-based Robust Design to Progressive Collapse of RC skeleton buildings incorporating Soil-Structure Interaction effects. Innovative Infrastructure Solutions, 10:446. DOI:10.1007/s41062-025-02243-z
  11. YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Predictive modeling for carbon footprint optimization of prestressed road flyovers. Applied Sciences15(17), 9591. DOI:10.3390/app15179591
  12. VILLALBA, P.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2025). A Hybrid Fuzzy DEMATEL–DANP–TOPSIS Framework for Life Cycle-Based Sustainable Retrofit Decision-Making in Seismic RC Structures. Mathematics, 13(16), 2649. DOI:10.3390/math13162649
  13. LUQUE CASTILLO, X.; YEPES, V. (2025). Multi-criteria decision methods in the evaluation of social housing projects. Journal of Civil Engineering and Management, 31(6), 608–630. DOI:10.3846/jcem.2025.24425
  14. LUQUE CASTILLO, X.; YEPES, V. (2025). Life Cycle Assessment of Social Housing Construction: A Multicriteria Approach. Building and Environment, 282:113294. DOI:10.1016/j.buildenv.2025.113294
  15. VITORIO JUNIOR, P.C.; YEPES, V.; ONETTA, F.; KRIPKA, M. (2025). Comparative Life Cycle Assessment of Warehouse Construction Systems under Distinct End-of-Life Scenarios. Buildings, 15(9), 1445. DOI:10.3390/buildings15091445
  16. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Design optimization of a composite typology based on RC columns and THVS girders to reduce economic cost, emissions, and embodied energy of frame building construction. Energy and Buildings, 336:115607. DOI:10.1016/j.enbuild.2025.115607
  17. FERNÁNDEZ-MORA, V.; NAVARRO, I.J.; YEPES, V. (2025). Structural damage index evaluation in BIM environmentsStructures, 74:108544. DOI:10.1016/j.istruc.2025.108544
  18. VILLALBA, P.; GUAYGUA, B.; YEPES, V. (2025). Optimal seismic retrofit alternative for shear deficient RC beams: a multiple criteria decision-making approach. Applied Sciences, 15(5):2424. DOI:10.3390/app15052424
  19. YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.
  20. MARTÍNEZ-MUÑOZ, D.; MARTÍ, J.V.; YEPES, V. (2025). Game Theory-Based Multi-Objective Optimization for Enhancing Environmental and Social Life Cycle Assessment in Steel-Concrete Composite Bridges. Mathematics, 13(2):273. DOI:10.3390/math13020273
  21. NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementationEngineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487
  22. GUAYGUA, B.; SÁNCHEZ-GARRIDO, A.; YEPES, V. (2024). Life cycle assessment of seismic resistant prefabricated modular buildingsHeliyon, 10(20), e39458. DOI:10.1016/j.heliyon.2024.e39458
  23. YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2024). Artificial neural network and Kriging surrogate model for embodied energy optimization of prestressed slab bridges. Sustainability, 16(19), 8450. DOI:10.3390/su16198450
  24. RUIZ-VÉLEZ, A.; GARCÍA, J.; PARTSKHALADZE, G.; ALCALÁ, J.; YEPES, V. (2024). Enhanced Structural Design of Prestressed Arched Trusses through Multi-Objective Optimization and MCDM. Mathematics, 12(16), 2567. DOI:10.3390/math12162567
  25. SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2024). Sustainable preventive maintenance of MMC-based concrete building structures in a harsh environment. Journal of Building Engineering, 95:110155. DOI:10.1016/j.jobe.2024.110155

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El «sesgo hacia el error»: por qué el futuro de la ingeniería depende de auditar la IA (y no solo de usarla)

La educación técnica atraviesa una tensión paradójica que amenaza los cimientos del pensamiento crítico. En las asignaturas de modelización y diseño estructural de los grados y másteres en Ingeniería de Caminos y Civil, la inteligencia artificial generativa (IAG) ha pasado de ser una novedad a convertirse en un estándar operativo. Sin embargo, esta adopción generalizada esconde un riesgo sistémico: el «desempleo cognitivo».

Datos recientes de la Universitat Politècnica de València (UPV) y la Universidad Politécnica de Cartagena (UPCT) revelan que, si bien el 60 % del alumnado utiliza estas herramientas, solo el 25 % revisa críticamente los resultados. La solución no consiste en imponer restricciones, sino en diseñar una arquitectura pedagógica que integre la IA como un «socio intelectual» bajo el enfoque de mindtools (Jonassen et al., 1999) para potenciar y no sustituir el pensamiento de orden superior.

Ante este desafío nace el proyecto PROFUNDIA. Nuestra misión es clara: transformar la IA de un «atajo peligroso» en un motor de aprendizaje profundo que refuerce la autonomía del futuro ingeniero.

El éxito no radica en la tecnología, sino en la arquitectura de la auditoría humana.

El hallazgo central de la investigación realizada sobre una muestra de 100 estudiantes subraya que la utilidad percibida de la IA no es una propiedad intrínseca del software, sino del proceso de supervisión. La resolución de problemas de alta responsabilidad física, en los que el error tiene consecuencias estructurales, depende de la capacidad de reformularlos y de una supervisión crítica.

En este nuevo paradigma, el valor profesional se desplaza del «saber hacer» procedimental —que puede automatizarse— al «saber validar». El éxito pedagógico está hoy condicionado por la arquitectura del proceso cognitivo de auditoría, en el que el ingeniero actúa como filtro final de la veracidad técnica.

«Los resultados obtenidos mediante análisis estadísticos multivariantes demuestran que el éxito no reside en el mero uso de la tecnología, sino en el proceso cognitivo de auditoría humana».

Ingeniería de la pregunta: el arte de iterar.

Uno de los pilares de la interacción estratégica es la «ingeniería de la pregunta». No se trata de un simple comando de texto, sino de un ejercicio de abstracción en el que el estudiante debe traducir variables estructurales y conceptos físicos en instrucciones lógicas. El estudio destaca que la clave de esta habilidad transversal no radica en el primer intento, sino en la capacidad de iterar.

El ítem 2 del estudio («Las iteraciones de los mensajes de texto me ayudaron a mejorar progresivamente la calidad») obtuvo una media de 4,11, lo que confirma que la calidad técnica surge de un diálogo dialéctico con la máquina. Este proceso de refinamiento constante combate la «complacencia tecnológica» y garantiza que el usuario mantenga el control sobre el resultado final.

El valor disruptivo de buscar deliberadamente el error.

La innovación docente más potente consiste en utilizar la IA con un «sesgo deliberado hacia el error». En lugar de aceptar la respuesta de la IA como una verdad absoluta, el flujo de trabajo propuesto obliga al alumnado a realizar un «contraste crítico»: primero, deben resolver el problema manualmente y, después, interpelar a la IA para buscar activamente la «alucinación» o el fallo técnico.

Este enfoque es crucial desde el punto de vista estadístico. El ítem 4 (comparación entre la resolución manual y la IA) se identificó, mediante modelos de regresión múltiple, como uno de los tres predictores clave del éxito. Al buscar el fallo, el estudiante activa una reflexión metacognitiva, aprende a pensar sobre cómo piensa y fortalece su criterio técnico al corregir el algoritmo.

De las aulas al mercado laboral: la transferibilidad de la autorregulación.

La relevancia de esta formación trasciende las calificaciones. Los datos son contundentes: la pregunta 9 («Las habilidades se pueden aplicar en contextos profesionales») obtuvo la puntuación más alta del cuestionario, 4,24. Los futuros ingenieros son conscientes de que la supervisión experta de sistemas automatizados ya es una competencia esencial en la industria moderna.

La solidez de este modelo se demuestra por su capacidad explicativa, ya que la valoración global de la IA (punto 10) se explica en un 37,7 % (R² corregida) por la combinación de tres factores: la capacidad de reformular el problema (punto 1), la detección de errores por contraste (punto 4) y la percepción de la transferibilidad profesional (punto 9).

«Esta metodología favorece la adquisición de competencias esenciales en entornos profesionales donde se requiere la supervisión experta de sistemas automatizados, y prepara al ingeniero para entornos de alta complejidad».

Conclusión: ingenieros de decisiones, no usuarios de software.

La inteligencia artificial, lejos de mermar el rigor científico, puede ser el mayor catalizador del aprendizaje profundo si se gestiona desde la «autorregulación crítica» (componente 1 del análisis factorial). El futuro de la ingeniería no pertenece a quienes saben usar herramientas, sino a quienes son capaces de enseñar, corregir y auditar a la máquina según criterios científicos y normativos.

En última instancia, nos enfrentamos a una pregunta que definirá la resiliencia de la profesión ante la obsolescencia tecnológica: en un contexto de automatización creciente, ¿estamos formando usuarios de software o educando a los ingenieros de las decisiones del mañana? La responsabilidad ética del ingeniero sigue siendo la última instancia de decisión, y esa carga no puede ni debe asumirla ningún algoritmo.

En esta conversación puedes escuchar las ideas más interesantes sobre el tema.

En este vídeo se resumen bien los conceptos vistos.

The_Engineering_AI_Blueprint

Referencia:

YEPES-BELLVER, L.; MARTÍNEZ-PAGÁN, P.; YEPES, V. (2026). Impacto de la inteligencia artificial en la formación técnica: aprendizaje profundo, metacognición y transferibilidad profesional. En libro de actas: XII Congreso de Innovación Educativa y Docencia en Red. Valencia, 9-10 de julio de 2026.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Inteligencia artificial y turismo: cuando el software aprende de la naturaleza para diseñar la ruta perfecta.

Gestionar la logística de un operador turístico consiste, en esencia, en intentar imponer orden a un sistema inherentemente caótico. El desafío es monumental: coordinar rutas a 30 destinos distintos desde un centro de operaciones como el de Alicante, con una flota limitada de cuatro aviones y quince tripulaciones, en el que cada asiento cuenta.

En este entorno de baja demanda, los costes son fijos, pero la realidad es volátil: las cancelaciones de última hora y las reservas inesperadas convierten los planes iniciales en papel mojado. ¿Cómo se puede determinar la rentabilidad cuando el escenario cambia cada minuto? La solución más avanzada no proviene de la programación lineal clásica, sino de los principios de la biología evolutiva.

Inspirado en el estudio de Medina y Yepes sobre la aplicación de algoritmos genéticos (AG) al problema de rutas de vehículos con capacidad (CVRP), este análisis desglosa cómo la «supervivencia del más apto» se traduce en una estabilidad financiera sin precedentes para el sector aéreo. Podéis descargar el artículo completo aquí.

La «naturaleza» como el mejor ingeniero de rutas.

En logística avanzada, los métodos deterministas tradicionales se topan con un obstáculo insalvable cuando el número de destinos crece exponencialmente. Calcular la ruta óptima para una red que abarque de Casablanca a Venecia mediante fuerza bruta matemática resulta inmanejable en términos computacionales. Los algoritmos genéticos resuelven este problema emulando la evolución mediante los procesos de selección, cruce y mutación. En lugar de buscar una única respuesta perfecta, el sistema mantiene una «población» de soluciones que compiten entre sí.

Este enfoque permite gestionar restricciones ambiguas o contradictorias, como maximizar la ocupación frente a minimizar el tiempo de vuelo, de una forma que la matemática rígida no puede. El AG no solo busca, sino que también aprende a explorar.

«La característica específica de los AG es la exploración paralela y eficiente del espacio de soluciones, basada en la explotación de soluciones óptimas inducidas por los operadores de cruce y en la exploración de soluciones nuevas forzada por los operadores de mutación».

El poder de los «Tres Padres»: una recombinación genética única.

La gran innovación técnica que se destaca en el estudio es el uso de un operador de recombinación de tres progenitores (three-parent edge-mapped recombination operator). Mientras que en la genética biológica la herencia es dual, en la optimización de redes de distribución tres progenitores ofrecen una mayor riqueza de datos para generar una «descendencia» (una ruta) más robusta.

Este método extrae las mejores conexiones (arcos) de tres soluciones distintas. Si una conexión específica aparece en dos o tres de los «padres», se preserva en el «hijo» porque se considera una pieza de alta eficiencia. Para garantizar la viabilidad de la ruta, el algoritmo incluye una lógica de resolución de conflictos: si tres arcos convergen en un mismo nodo de la descendencia, el sistema elimina aleatoriamente uno de ellos para mantener la estructura de la red. Este enfoque de triple herencia permite alcanzar soluciones óptimas con una velocidad y precisión que superan con creces a los cruces tradicionales de dos progenitores.

De la incertidumbre del 43 % a la estabilidad del 2,7 %.

El impacto real de los AG se mide en la transformación de la volatilidad en previsibilidad. Al modelar la demanda de destinos como Ajaccio, Túnez o Malta mediante estructuras estocásticas, el estudio revela una capacidad asombrosa para absorber la incertidumbre. Con una flota de cuatro aviones de cincuenta asientos y quince tripulaciones, el sistema gestionó un volumen total de aproximadamente ochocientos pasajeros, con métricas de eficiencia envidiables.

Los datos son elocuentes: mientras que la demanda individual por destino presenta un coeficiente de variación del 43 % —una pesadilla operativa—, la optimización diaria reduce la variabilidad del coste por pasajero transportado a un asombroso 2,7 %. En la práctica, esto significa:

  • Coste medio por pasajero: 118 EUR.
  • Ocupación media de asientos: 65 %.
  • Velocidad de crucero optimizada: 240 nudos.

El sistema es tan eficiente a la hora de reorganizar escalas y rutas en función de la demanda real que el impacto financiero final permanece prácticamente inalterado a pesar de las fluctuaciones del mercado.

El «fantasma en la máquina»: el riesgo de la robustez excesiva.

Desde la perspectiva de la transformación digital, los AG presentan una paradoja fascinante: su robustez puede ser su mayor peligro. Diseñado para ofrecer siempre una solución viable, un código con errores profundos puede seguir funcionando y entregando resultados «aparentemente buenos» sin que el sistema se colapse.

El riesgo no es el fallo catastrófico, sino el equilibrio subóptimo. Un error oculto en el algoritmo podría estar dejando sobre la mesa un 5 % o un 10 % de beneficio potencial, camuflado por la capacidad del algoritmo para «sobrevivir» a sus propios defectos de programación. Esto subraya la importancia de la supervisión experta, ya que en los sistemas que evolucionan por sí mismos la validación humana es la única garantía de que no operamos con una ineficiencia invisible pero costosa.

El futuro es la interacción humano-máquina.

Los AGV no son herramientas de reemplazo, sino de colaboración. El estudio subraya la importancia de la interfaz gráfica, que permite al gestor logístico interactuar con el proceso en tiempo real. Un ser humano puede «inyectar» soluciones basadas en su experiencia o en su intuición clínica, y el algoritmo las asimilará y refinará a lo largo de miles de generaciones.

Esta sinergia es fundamental para integrar los «costes virtuales». Mientras la máquina optimiza distancias y consumo de combustible, el ser humano puede definir variables subjetivas pero críticas, como la inconveniencia política de un aeropuerto en tensión o la complejidad social de una escala concreta. Al traducir estas percepciones en valores en la función de coste, el sistema evoluciona hacia una estrategia proactiva capaz de simular escenarios futuros en lugar de simplemente reaccionar ante las cancelaciones diarias.

Conclusión: hacia una logística evolutiva.

El éxito de la red de Alicante, que conecta 30 destinos del Mediterráneo y de Europa occidental, confirma un cambio de paradigma: en la logística moderna, la flexibilidad es más valiosa que la precisión absoluta. Los modelos rígidos se quiebran ante la volatilidad de la demanda, pero los sistemas evolutivos se fortalecen con ella.

En un mercado que no perdona la ineficiencia, la pregunta para los líderes del sector es clara: ¿es mejor buscar una solución «perfecta» una sola vez o diseñar un sistema que evolucione constantemente ante cada nuevo desafío? La respuesta, como demuestran Medina y Yepes, radica en aprender de la naturaleza para conquistar los cielos.

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

Este vídeo resume los aspectos clave del artículo.

Evolutionary_Tourism_Logistics

Referencia:

MEDINA, J.R.; YEPES, V. (2003). Optimization of touristic distribution networks using genetic algorithms. SORT, 27(1): 95-112.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

De la prohibición al aprendizaje profundo: cómo la IA está transformando la formación de los futuros ingenieros.

Introducción: El dilema del aula moderna.

En ingeniería civil, un error de cálculo no es solo una errata en un examen, sino una cuestión de seguridad pública y de responsabilidad ética. Por ello, el panorama actual resulta alarmante: mientras que más del 60 % de los estudiantes reconoce utilizar inteligencia artificial generativa (IAG) en sus tareas, apenas un 25 % realiza una revisión crítica de los resultados.

Esta dependencia acrítica amenaza con diluir el rigor técnico necesario para diseñar infraestructuras seguras. Ante este desafío nace el proyecto PROFUNDIA, liderado por el catedrático Víctor Yepes en la Universitat Politècnica de València (UPV), en colaboración con la Universidad Politécnica de Cartagena (UPCT). Nuestra misión es clara: transformar la IA de un «atajo peligroso» en un motor de aprendizaje profundo que refuerce la autonomía del futuro ingeniero.

El fin de la era de la prohibición: de «No usar» a «Usar para pensar».

Durante los últimos años, la respuesta académica dominante ha sido la restricción. Sin embargo, en un entorno profesional de alta exigencia, prohibir la tecnología es una batalla perdida que solo agrava la brecha entre el aula y la realidad. PROFUNDIA propone un cambio de paradigma radical: integrar la IA como una «herramienta cognitiva» o «mindtool», bajo la filosofía constructivista de Jonassen.

No buscamos que el estudiante aprenda «de» la tecnología como si esta fuera un oráculo, sino «con» la tecnología. Al utilizar la IA como mediadora, el alumno no se limita a recibir datos, sino que debe «luchar» con la herramienta para construir un modelo mental sólido de los fenómenos físicos. En ingeniería, el objetivo no es obtener el número final, sino comprender el comportamiento estructural que ese número representa.

«Enseñar» a la IA para aprender ingeniería.

El corazón de nuestra metodología se basa en un concepto disruptivo: el «sesgo deliberado hacia el error». En asignaturas críticas como «Modelos predictivos de estructuras de hormigón» o «Resistencia de materiales», hemos observado que la IA tiende a «alucinar» al proponer hipótesis de partida o al aplicar normativas específicas. En lugar de considerar esto como una limitación, lo convertimos en nuestra principal ventaja pedagógica.

Obligamos al estudiante a enfrentarse a las respuestas de la IA no como verdades absolutas, sino como borradores que deben ser auditados. Para corregir los cálculos de la máquina en una viga o en un pórtico, el alumno primero debe dominar la teoría de forma exhaustiva.

«En PROFUNDIA, el estudiante invierte los roles tradicionales: deja de ser un receptor pasivo para convertirse en el «maestro» de la IA, validando, cuestionando y corrigiendo la tecnología con su propio juicio técnico y rigor científico».

El ciclo del «prompt crítico»: reflexión metacognitiva.

Para estructurar este proceso, hemos diseñado una secuencia metodológica (basada en la Figura 2 del proyecto) que obliga al estudiante a reflexionar metacognitivamente de manera constante.

  • Formulación del prompt: el alumno debe traducir un problema de estructuras metálicas o de hormigón a un lenguaje técnico preciso, definiendo cargas, luces y condiciones de contorno.
  • Comparación crítica: se contrasta el resultado de la IA con modelos analíticos propios y con programas informáticos profesionales de cálculo.
  • Detección de errores y reformulación: aquí es donde ocurre el aprendizaje real. El estudiante debe identificar si el error de la IA se debe a un cálculo matemático incorrecto, a una hipótesis física errónea o a un desconocimiento del Código Estructural. Tras el análisis, debe guiar a la IA, mediante nuevos mensajes, hacia la solución correcta.
  • Justificación técnica: el paso final consiste en validar la solución según los criterios científicos y normativos vigentes, a fin de garantizar que la respuesta no solo «parezca» correcta, sino que también sea técnicamente viable y segura.

Más allá del aula: preparación para el mundo real.

La colaboración entre la UPV y la UPCT (con los profesores Antonio Tomás y Pedro Martínez-Pagán) permite validar este modelo en diversos contextos, desde los grados hasta los másteres. El objetivo no es simplemente aprobar la asignatura de Estructuras Metálicas, sino desarrollar el criterio técnico experto que hoy demandan las empresas de ingeniería.

En el ejercicio profesional, el ingeniero es el último responsable de la empresa que avala un proyecto. PROFUNDIA prepara a los egresados para que puedan actuar como auditores tecnológicos, capaces de aprovechar la eficiencia de la IA sin comprometer nunca la integridad estructural ni la seguridad de las personas.

Un entorno de aprendizaje enriquecido.

La innovación de este proyecto no radica en el software (ChatGPT es solo una herramienta), sino en la redefinición metodológica del entorno de aprendizaje. Hemos transformado el aula en un laboratorio de interacción social y psicológica en el que la IA actúa como un «agente activo» dentro del equipo de trabajo. Esta dinámica fomenta una mayor implicación del alumnado, que percibe el aprendizaje no como una carga, sino como el desarrollo de la maestría en las herramientas que definirán su futuro.

Conclusión: Hacia una ingeniería de pensamiento profundo.

La visión de PROFUNDIA consiste en formar ingenieros que lideren la tecnología en lugar de depender de ella. La eficiencia de un algoritmo es una herramienta poderosa, pero carece de la comprensión profunda y de la responsabilidad ética que definen nuestra profesión.

Al final, cuando nos enfrentamos al diseño de un puente o una infraestructura de gran envergadura, debemos plantearnos una pregunta provocadora: en un futuro en el que las máquinas pueden realizar cálculos en milisegundos, ¿seremos capaces de formar a ingenieros con la suficiente intuición y criterio técnico como para negarnos a firmar un proyecto que la IA considera «eficiente», pero que el juicio humano reconoce como un riesgo de colapso? El futuro de nuestra seguridad depende de esa capacidad crítica.

En esta conversación puedes escuchar las ideas más interesantes de este proyecto.

Este vídeo resume bien el proyecto PROFUNDIA.

PROFUNDIA_Structural_Engineering_AI

Referencias:

Blight, T., Martínez-Pagán, P., Roschier, L., Boulet, D., Yepes-Bellver, L., & Yepes, V. (2025). Innovative approach of nomography application into an engineering educational context. PloS one20(2), e0315426.

Castro-Aristizabal, G., Acosta-Ortega, F., & Moreno-Charris, A. V. (2024). Los entornos de aprendizaje y el éxito escolar en Latinoamérica. Lecturas de Economía, (101), 7-46.

Hadgraft, R. G., & Kolmos, A. (2020). Emerging learning environments in engineering education. Australasian Journal of Engineering Education25(1), 3-16.

Jiang, N., Zhou, W., Hasanzadeh, S., & Duffy Ph D, V. G. (2025). Application of Generative AI in Civil Engineering Education: A Systematic Review of Current Research and Future Directions. In CIB Conferences (Vol. 1, No. 1, p. 306).

Jonassen, D. H., Peck, K. L., & Wilson, B. G. (1999). Learning with technology: A constructivist perspective. Columbus, OH: Merrill/Prentice-Hall.

Liao, W., Lu, X., Fei, Y., Gu, Y., & Huang, Y. (2024). Generative AI design for building structures. Automation in Construction157, 105187.

Navarro, I. J., Marti, J. V., & Yepes, V. (2023). Evaluation of Higher Education Students’ Critical Thinking Skills on Sustainability. International Journal of Engineering Education39(3), 592-603.

Onatayo, D., Onososen, A., Oyediran, A. O., Oyediran, H., Arowoiya, V., & Onatayo, E. (2024). Generative AI applications in architecture, engineering, and construction: Trends, implications for practice, education & imperatives for upskilling—a review. Architecture4(4), 877-902.

Pellicer, E., Yepes, V., Ortega, A. J., & Carrión, A. (2017). Market demands on construction management: View from graduate students. Journal of Professional Issues in Engineering Education and Practice143(4), 04017005.

Perkins, D., & Unger, C. (1999). La enseñanza para la comprensión. Argentina: Paidós.

Torres-Machí, C., Carrión, A., Yepes, V., & Pellicer, E. (2013). Employability of graduate students in construction management. Journal of Professional Issues in Engineering Education and Practice139(2), 163-170.

Xu, G., & Guo, T. (2025). Advances in AI-powered civil engineering throughout the entire lifecycle. Advances in Structural Engineering, 13694332241307721.

Zhou, Z., Tian, Q., Alcalá, J., & Yepes, V. (2025). Research on the coupling of talent cultivation and reform practice of higher education in architecture. Computers and Education Open, 100268.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Redes Neuronales Artificiales: El cerebro digital que imita la inteligencia humana

El cerebro biológico representa la cúspide de la eficiencia evolutiva. Es un sistema capaz de procesar información con ruido, manejar datos inconsistentes y, lo más sorprendente, mantener su integridad operativa a pesar de la pérdida constante de unidades individuales.

En el auge de la inteligencia artificial moderna, las Redes Neuronales Artificiales (ANN) no surgen como meras calculadoras, sino como un espejo de silicio que busca replicar esa genialidad orgánica.

Estas redes no se basan en una programación rígida de causa-efecto, sino que «aprenden» a través de la experiencia y la reconfiguración de sus estados, transformando problemas abstractos en soluciones tangibles.

En otros artículos de este blog ya hemos hablado de este tema:

¿Qué es y para qué sirve una red neuronal artificial?

Redes neuronales aplicadas al diseño multiobjetivo de puentes postesados

Redes neuronales y metamodelos Kriging para la optimización de la energía en puentes losa pretensados

La Paradoja de la velocidad: neuronas biológicas frente a circuitos de silicio

Existe una disparidad fascinante entre el hardware biológico y el artificial. Una neurona biológica es intrínsecamente lenta, operando en una escala de milisegundos (10-3 s). En contraste, los circuitos eléctricos de silicio son un millón de veces más veloces, alcanzando los nanosegundos (10-9 s). Sin embargo, el cerebro humano aventaja a la máquina mediante un procesamiento masivamente paralelo, orquestado por aproximadamente 1011 neuronas y una red de 10.000 conexiones por cada una de ellas.

Para que las redes artificiales alcancen una efectividad real en la aproximación de funciones complejas, deben adoptar esta arquitectura paralela. Como especialistas, valoramos una lección fundamental de la biología: la robustez ante el fallo. En la naturaleza, «el cerebro es robusto; pueden morir neuronas sin que el rendimiento global se vea afectado«. Las redes artificiales aspiran a esta misma resiliencia, en la que la inteligencia no depende de un solo nodo, sino de la colectividad.

El conocimiento es un estado, no un lugar

En la computación tradicional, la información se almacena en una dirección de memoria específica, como un libro en un estante. En una red neuronal, el conocimiento es un concepto etéreo que reside en la interacción concertada entre sus componentes. No existe un lugar físico para un «dato»; el aprendizaje está codificado en la arquitectura y en la fuerza de las conexiones.

Este sistema se inspira en tres componentes fundamentales que definen el flujo de información:

  • Dendritas (receptores): Fibras nerviosas que actúan como canales de entrada, captando señales de neuronas adyacentes para cargar el soma con un potencial eléctrico.
  • Soma (procesador): El núcleo celular que integra y suma todas las señales recibidas. En IA, esto se traduce en multiplicadores (pesos) y en sumadores.
  • Axón (transmisor): Una fibra cuya longitud varía de milímetros a varios metros, encargada de conducir el impulso si se supera un umbral de activación.

Un detalle técnico que suele pasar desapercibido es que la longitud de la sinapsis —el punto de contacto entre neuronas— está determinada por la complejidad del proceso químico que asegura la función de la red. En la IA, emulamos esto ajustando los «pesos» para fortalecer o inhibir señales, lo que permite que el sistema se autoorganice.

La paradoja del aprendizaje: cuando la memorización asfixia la inteligencia

Aprender en exceso es, a menudo, el camino más rápido hacia el fracaso. Este fenómeno, conocido como overfitting o sobreaprendizaje, ocurre cuando la red memoriza los datos de entrenamiento —incluyendo su ruido y errores— en lugar de comprender el patrón subyacente. Una red «sobreentrenada» es incapaz de generalizar ante datos nuevos, lo que la convierte en una herramienta inútil para la predicción real.

La solución de arquitectura más elegante es el early-stopping (parada temprana). Este proceso monitorea el error en un conjunto de validación y detiene el entrenamiento en el momento exacto en que el error comienza a aumentar, antes de que la red se vuelva demasiado rígida. Para garantizar el éxito, aplicamos la regla del 80/10/10:

  • 80 % de entrenamiento: para ajustar pesos y sesgos.
  • 10 % de validación: para detectar el punto óptimo de detención.
  • 10 % de test: una evaluación final totalmente «ciega» para verificar la capacidad real del modelo.

La Navaja de Ockham en la IA: El poder de «podar» la red

El principio de parsimonia sugiere que la explicación más simple suele ser la más acertada. En el diseño de redes, esto se traduce en redes podadas (pruned networks). Mediante la desconexión de neuronas redundantes o la eliminación de variables de entrada irrelevantes, logramos modelos más compactos y robustos.

Para guiar este proceso, utilizamos dos métricas críticas en la función de coste:

  1. MSE (Mean Squared Error): Su propósito conceptual es penalizar las diferencias entre el valor real y el calculado, elevándolas al cuadrado para dar prioridad matemática a la eliminación de los errores más grandes.
  2. PSE (Predicted Squared Error): Mientras que el MSE mide el error presente, el PSE penaliza activamente el número de parámetros de la red. Su fórmula, PSE = MSE \cdot (1 + 2p/(N-p)), asegura que no estemos añadiendo complejidad innecesaria, castigando los modelos con demasiados grados de libertad en relación con el número de datos disponibles.

El secreto está en la escala: por qué la estandarización es crucial

Aunque las redes neuronales son aproximadores universales, su entrenamiento puede resultar exasperantemente lento o fallar si no se cuida la escala de los datos. Los pesos de una red se inicializan con valores aleatorios pequeños; por ello, si las entradas son masivas, se producen errores iniciales gigantescos que saturan el sistema. Estandarizar los datos en rangos similares —como [-1, 1]— permite que el algoritmo de optimización converja con rapidez.

Además, si una variable presenta una distribución no lineal (como la exponencial), es imperativo linearizarla mediante logaritmos para facilitar el aprendizaje. No obstante, el mayor reto del arquitecto de IA es evitar los mínimos locales: soluciones subóptimas que parecen el fin del camino, pero no son el mejor resultado posible. La inicialización aleatoria y la estandarización son, en última instancia, estrategias para que la red «explore» el paisaje de soluciones sin quedar atrapada en los baches del error.

Conclusión: El laboratorio virtual y el futuro del diseño

Una red neuronal bien entrenada se convierte en un laboratorio virtual. En ingeniería, esto permite generar curvas de diseño de alta precisión; por ejemplo, podemos predecir el comportamiento del «rebase» de una estructura hidráulica al variar la «cota de coronación» mientras mantenemos constantes el resto de las variables. Esto nos ofrece una visión profunda de problemas complejos sin los costes de la experimentación física.

Sin embargo, nos enfrentamos a la naturaleza de «caja negra» de estos sistemas. Obtenemos soluciones perfectas, pero la lógica exacta tras miles de conexiones numéricas permanece oculta. Como sociedad tecnológica, nos acercamos a un umbral decisivo: ¿Estamos dispuestos a confiar plenamente en soluciones óptimas aunque no comprendamos exactamente el proceso intelectual que la red siguió para alcanzarlas? El futuro del diseño no solo depende de la potencia de cálculo, sino también de nuestra capacidad para convivir con esta nueva forma de inteligencia opaca pero infalible.

En esta conversación podéis escuchar las ideas más interesantes sobre estas redes neuronales.

Este vídeo resume bien los conceptos más importantes.

The_Neural_Blueprint

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El código secreto de la naturaleza: algoritmos metaheurísticos para resolver lo imposible.

Introducción: El genio oculto en el caos natural.

En el vasto universo de la gestión de situaciones complejas, nos enfrentamos a desafíos que cuestionan la lógica convencional: los problemas NP-difíciles.

Estos enigmas se caracterizan por que, a medida que el tamaño del problema aumenta, el tiempo necesario para resolverlo mediante fuerza bruta crece de manera exponencial. Esto hace que una búsqueda exhaustiva sea prácticamente imposible, incluso para las supercomputadoras más potentes. De este modo, cuando los métodos deterministas fallan y no hay garantía de hallar la solución perfecta, los expertos recurren a las metaheurísticas.

Al observar cómo la naturaleza optimiza los recursos para la supervivencia, hemos descubierto que el ensayo y el error no son fruto del azar, sino de un diseño refinado a lo largo de milenios de evolución. Los investigadores han dejado de mirar exclusivamente las pizarras para descifrar el genio oculto en los sistemas biológicos, físicos y químicos y han traducido procesos naturales en ecuaciones de optimización asombrosamente eficientes.

La inteligencia de enjambre: el poder de la multitud «sin inteligencia».

Uno de los pilares más fascinantes de esta disciplina es la inteligencia de enjambre (SI, por sus siglas en inglés). Este concepto se basa en el comportamiento colectivo emergente de múltiples agentes que interactúan según reglas muy sencillas. Ya sea en colonias de hormigas, enjambres de abejas o destellos de luciérnagas, el sistema logra una autorganización compleja sin necesidad de un mando central.

Lo más sorprendente es cómo la capacidad del colectivo trasciende las limitaciones del individuo. Un solo agente puede ser limitado, pero el enjambre, como unidad, exhibe una gran capacidad para resolver problemas. Como señala la literatura académica sobre este fenómeno:

«Aunque cada agente puede ser considerado como ininteligente, el sistema completo de múltiples agentes puede mostrar un comportamiento de autoorganización y, por lo tanto, puede comportarse como una suerte de inteligencia colectiva».

Más allá de la biología: la optimización se encuentra con la física y la música.

Aunque la biología es una fuente muy rica, la informática inspirada en la naturaleza trasciende mucho más. Para un especialista, la clasificación de estos algoritmos no se limita a su «musa», sino a su comportamiento matemático. Podemos categorizarlos según su trayectoria de búsqueda (como el Simulated Annealing) o según si se basan en poblaciones (como el Particle Swarm Optimization o el Firefly Algorithm).

Existen sistemas basados en leyes físicas y químicas, como los algoritmos que imitan la fuerza de la gravedad, las cargas eléctricas o la dinámica de formación de ríos. Incluso el arte tiene su lugar en el algoritmo Harmony Search (Búsqueda Armónica), que imita el proceso estético de un músico que persigue el «estado de armonía» o el acorde perfecto. Esta universalidad demuestra que los conceptos de disciplinas tan dispares pueden traducirse en reglas de actualización precisas para hallar soluciones casi óptimas en ingeniería y logística.

La trampa de las 28 000 especies: el desafío de la verdadera novedad.

A pesar del auge de estas técnicas, la comunidad científica se enfrenta a una realidad crítica: la proliferación de algoritmos que carecen de innovación real. Aunque en el mundo existen aproximadamente 28 000 especies de peces, esto no justifica la creación de 28 000 variantes algorítmicas (por ejemplo, el algoritmo del tiburón, de la trucha, etc.) que solo cambian los nombres de las variables sin aportar una mejora sustancial al motor de búsqueda.

En los últimos años, el mundo de la optimización ha experimentado una auténtica explosión de metaheurísticas. Nuevos algoritmos “inspirados en la naturaleza” están apareciendo como setas tras la lluvia. Solo en el último lustro, la comunidad científica se ha encontrado con miles de propuestas que se presentan como completamente originales.

El problema es que, en muchos casos, esas supuestas “novedades” no aportan ideas realmente nuevas. Son simplemente variantes, más o menos ingeniosas, de algoritmos ya conocidos y consolidados. Cambia el nombre, cambia la metáfora biológica o social, pero el mecanismo interno apenas difiere del de otros modelos existentes.

La situación ha llegado a tal punto que varias revistas científicas de alto impacto han decidido poner freno a esta tendencia. Muchas de ellas ya no aceptan trabajos que presenten una “nueva metaheurística” si no demuestran aportaciones metodológicas auténticas y verificables.

Esto supone una llamada a la acción para priorizar el rigor por encima de la «marca» comercial del algoritmo. Los expertos advierten sobre el peligro de la «pseudoinnovación» con fines de publicación:

No basta con bautizar un algoritmo con un nombre llamativo; tiene que resolver mejor los problemas reales.

La receta del éxito: mezcla, diversidad y paralelismo.

¿Por qué algoritmos como Cuckoo Search o el Firefly Algorithm triunfan, mientras que otros caen en el olvido? El éxito de un metaheurístico radica en su capacidad para equilibrar dos fuerzas opuestas:

  • Diversidad (búsqueda global/exploración): es la capacidad del algoritmo para explorar exhaustivamente el amplio espacio de búsqueda y evitar quedar atrapado en soluciones locales que parecen buenas, pero no lo son.
  • Mezcla (búsqueda local/explotación): es el proceso de recombinación e interacción entre soluciones que permite al algoritmo converger rápidamente hacia el punto óptimo una vez identificada una región prometedora.

Además, una ventaja competitiva de los algoritmos de inteligencia de enjambre es su facilidad de paralelización. Al basarse en múltiples agentes independientes, estos procesos pueden ejecutarse simultáneamente en hardware moderno, lo que permite optimizar problemas a gran escala en el mundo real por primera vez de forma práctica y eficiente.

Conclusión: hacia una nueva era de resolución de problemas.

Los algoritmos inspirados en la naturaleza han dejado de ser una mera curiosidad para convertirse en el estándar de oro para los problemas de alta complejidad. Es por ello que el futuro de esta disciplina no radica en buscar «más especies» que imitar, sino en profundizar en el marco matemático que permite que la diversidad y la mezcla funcionen en armonía. Solo a través de la comprensión real de estos mecanismos podremos hacer frente a los enormes desafíos de la tecnología moderna.

Al observar la elegancia con la que un enjambre encuentra su camino o un sistema físico alcanza el equilibrio, surge una pregunta inevitable: ¿existe algún límite a lo que podemos aprender sobre la eficiencia de la naturaleza o apenas estamos empezando a descifrar su código más fundamental?

En esta conversación puedes escuchar algunas de las ideas más interesantes sobre este tema.

En este vídeo se resumen algunos de los conceptos más importantes abordados.

Fister

Nature_Inspired_Optimization

Referencias:

FISTER JR, I.; YANG, X. S.; FISTER, I.; BREST, J.; FISTER, D. (2013). A brief review of nature‑inspired algorithms for optimization. arXiv preprint arXiv:1307.4186.

GARCÍA, J.; YEPES, V.; MARTÍ, J.V. (2020). A hybrid k-means cuckoo search algorithm applied to the counterfort retaining walls problem. Mathematics,  8(4), 555. DOI:10.3390/math8040555

GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2020). The buttressed  walls problem: An application of a hybrid clustering particle swarm optimization algorithm. Mathematics,  8(6):862. DOI:10.3390/math8060862

GARCÍA-SEGURA, T.; YEPES, V.; ALCALÁ, J.; PÉREZ-LÓPEZ, E. (2015). Hybrid harmony search for sustainable design of post-tensioned concrete box-girder pedestrian bridgesEngineering Structures, 92:112-122. DOI:10.1016/j.engstruct.2015.03.015

GARCÍA-SEGURA, T.; YEPES, V.; MARTÍ, J.V.; ALCALÁ, J. (2014). Optimization of concrete I-beams using a new hybrid glow-worm swarm algorithm. Latin American Journal of Solids and Structures, 11(7):1190 – 1205. DOI:10.1590/S1679-78252014000700007

YEPES, V.; ALCALÁ, J.; PEREA, C.; GONZÁLEZ-VIDOSA, F. (2008). A Parametric Study of Optimum Earth Retaining Walls by Simulated Annealing. Engineering Structures, 30(3): 821-830. DOI:10.1016/j.engstruct.2007.05.023

YEPES, V. (2026). Heuristic Optimization Using Simulated Annealing. In: Kulkarni, A.J., Mezura-Montes, E., Bonakdari, H. (eds) Encyclopedia of Engineering Optimization and Heuristics. Springer, Singapore. https://doi.org/10.1007/978-981-96-8165-5_48-1

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Es el fin de la «obra original»? Críticas sobre el uso de la inteligencia artificial en la universidad

La irrupción de la inteligencia artificial generativa (GenAI) ha hecho saltar por los aires el «contrato de confianza» que sustentaba la evaluación académica. Lo que antes era un acuerdo implícito —que el estudiante era el único autor de cada palabra— hoy se ha transformado en una arquitectura de la sospecha. Pero ¿qué sucede cuando examinamos en profundidad esta crisis?

Un estudio en profundidad de las políticas de las veinte mejores universidades del mundo revela que no se trata solo de ajustar las normas, sino de una lucha desesperada por rescatar una noción de autoría que quizá ya no existe (Luo, 2024).

Como profesor universitario, observo con preocupación cómo la academia no reacciona con pedagogía, sino con una vigilancia que fosiliza el aprendizaje. A continuación, presento cinco revelaciones críticas sobre cómo la universidad está gestionando —o malinterpretando— este cambio de era.

1. La «originalidad» como mecanismo de vigilancia (Marco WPR).

En el marco analítico de Carol Bacchi, What’s the problem represented to be (WPR), descubrimos que las universidades no solo responden a un problema, sino que también lo están creando. Al analizar las políticas de las instituciones de élite, el estudio de Jiahui Luo revela que el «problema» se ha representado casi exclusivamente como la pérdida de la autoría original.

Esta visión se aferra al mito del «genio solitario en el ático» (Johnson-Eilola y Selber), esa idea romántica y obsoleta que sostiene que el trabajo intelectual solo es valioso si se realiza en un vacío social y tecnológico. Al definir la IA como una «ayuda externa» prohibida, las universidades reducen la educación a un ejercicio de detección de fraude. Como señala una de las políticas analizadas:

«Los estudiantes deben ser autores de su propio trabajo. El contenido producido por plataformas de IA, como ChatGPT, no representa el trabajo original del estudiante, por lo que se consideraría una forma de mala conducta académica».

2. El error de la analogía del «escritor fantasma».

Algunas de las universidades analizadas por Luo (2024) han cometido un error fundamental de categoría: equiparan el uso de la IA generativa con el ghostwriting o con la ayuda de un tercero. Esta es una falla de imaginación tecnológica. La IA no es un agente externo, sino una prótesis cognitiva integrada en el flujo de pensamiento contemporáneo.

Tratar a una herramienta como si fuera una persona es ignorar la realidad digital del siglo XXI. El análisis de Luo muestra que las políticas universitarias suelen agrupar los problemas en seis categorías que revelan una mentalidad de «vigilancia primero».

  • Mala conducta académica: el pánico ante la entrega de trabajos ajenos.
  • Diseño de evaluación: la urgencia de crear tareas que la IA no pueda «resolver».
  • Limitaciones tecnológicas: desconfianza en la veracidad de los datos.
  • Equidad: el riesgo de que se creen brechas entre quienes pueden permitirse una IA avanzada y quienes no.
  • Políticas y directrices: la falta de claridad por parte de los docentes.
  • Capacitación y apoyo: la necesidad de una alfabetización urgente.

3. El silencio crítico y la «era del posplagio».

Lo más inquietante de estas políticas es lo que callan. Existe un «silencio crítico» sobre el significado de la originalidad en la actualidad. Estamos entrando de lleno en lo que la investigadora Sarah Eaton denomina la era del posplagio. En este nuevo paradigma, la frontera entre lo humano y lo artificial no solo es difusa, sino también irrelevante.

El conocimiento actual es, por naturaleza, distribuido y colaborativo. Al ignorar la evolución del concepto de originalidad, las universidades se desconectan de la realidad. Si el contenido de la IA es «remezclado y reelaborado» por un ser humano, ¿dónde termina la máquina y dónde empieza el autor? Mantener la exigencia de una autoría analógica en un mundo de inteligencia híbrida es una receta para la irrelevancia académica.

4. El efecto secundario: de docentes a policías.

Siguiendo el análisis de los efectos de las políticas (pregunta 5 del marco WPR), se observa una erosión pedagógica alarmante. Los profesores están siendo desplazados de su papel de mentores para convertirse en «guardianes» o vigilantes de la frontera.

Este enfoque de patrullaje tiene consecuencias reales: los estudiantes son tratados como sospechosos desde el principio. Esto genera una cultura de desconfianza en la que el alumno se vuelve reacio al uso legítimo de las herramientas tecnológicas por miedo a la estigmatización. Si el sistema está diseñado para «atrapar» al infractor en lugar de implicar al alumno, la relación pedagógica muere.

5. Hacia la originalidad como espectro y juicio evaluativo.

Debemos desmantelar la dicotomía «humano vs. IA». La propuesta de vanguardia, respaldada por autores como Luo y Chan (2023), consiste en entender la originalidad como un espectro de colaboración. La clave ya no es la producción solitaria de textos, sino el juicio evaluativo: la capacidad del estudiante para criticar, refinar y dar sentido a la información, ya sea de cualquier origen.

Es hora de aceptar una verdad incómoda que las políticas evitan mencionar:

«Podría decirse que los humanos hacemos lo mismo que la IA cuando generamos un texto original: escribimos basándonos en asociaciones que provienen de lo que hemos oído o leído antes de otros humanos».

Para avanzar, necesitamos evaluaciones auténticas, como defensas orales y la transparencia en los procesos, que valoren el pensamiento crítico por encima del producto final.

Conclusión: una pregunta para el futuro.

La universidad se encuentra en una encrucijada: puede evolucionar y liderar la alfabetización en IA o quedarse anclada en el pasado como un tribunal de autoría obsoleto. No podemos seguir exigiendo una originalidad de «genio solitario» en un mundo donde la inteligencia se comparte con las máquinas.

¿Estamos dispuestos a rediseñar la confianza o seguiremos educando a los estudiantes para que finjan una autoría analógica que ya no existe?

En esta conversación puedes escuchar las ideas más interesantes sobre el tema.

Este vídeo resume bien los contenidos de este artículo.

Redefining_Academic_Originality

Referencias:

Bacchi C. Introducing the ‘What’s the Problem Represented to be?’ approach. In: Bletsas A, Beasley C, eds. Engaging with Carol Bacchi: Strategic Interventions and Exchanges. The University of Adelaide Press; 2012:21-24.

Johnson-Eilola, J., & Selber, S. A. (2007). Plagiarism, originality, assemblage. Computers and composition24(4), 375-403.

Luo (Jess), J. (2024). A critical review of GenAI policies in higher education assessment: a call to reconsider the “originality” of students’ work. Assessment & Evaluation in Higher Education49(5), 651–664. https://doi.org/10.1080/02602938.2024.2309963

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El algoritmo de la naturaleza: El secreto de las hormigas para resolver problemas imposibles

¿Cómo es posible que insectos con capacidades individuales sumamente limitadas resuelvan problemas geométricos y logísticos que a la humanidad le han llevado décadas de estudio formal para dominar?

En el rincón más sencillo de un jardín tiene lugar un fenómeno asombroso: una comunidad de diminutos seres encuentra, sin mapas, líderes jerárquicos ni tecnología GPS, el camino más corto entre un hormiguero y una fuente de alimento.

Este prodigio de la naturaleza no es solo una curiosidad biológica, sino la piedra angular de la optimización mediante colonias de hormigas (ACO), una potente metaheurística computacional que actúa como puente entre la eficiencia orgánica y los algoritmos más avanzados de la actualidad.

A continuación, exploramos cinco lecciones fundamentales que estos optimizadores naturales nos enseñan sobre la resolución de problemas complejos.

La inteligencia no reside en el individuo, sino en el colectivo.

En el mundo de las hormigas, la genialidad no es una cualidad de un «líder» con una visión superior, sino que surge del grupo. Así, el comportamiento inteligente surge de la masa, lo que desafía nuestras nociones tradicionales de gestión jerárquica. La ciencia ha comprobado que la brillantez del sistema no radica en sus componentes aislados, sino en la red de interacciones entre ellos.

Como se describe en los fundamentos de la inteligencia colectiva:

«En la naturaleza existen ejemplos de colectivos de individuos cuyo comportamiento es aparentemente inteligente, sin que esta característica se manifieste en sus componentes individuales».

Esta realidad nos invita a reflexionar sobre un cambio de paradigma: frente al liderazgo humano centralizado, la naturaleza propone una lógica bottom-up, en la que la suma de acciones simples y coordinadas supera la capacidad de cualquier genio individual.

El «Universo» como herramienta de comunicación dinámica.

Para que una colonia resuelva un problema, no es necesario que todas las hormigas conozcan el mapa completo del entorno. De hecho, ningún agente posee un conocimiento global. El éxito depende de la interacción con su «universo», que actúa como depositario físico de la información.

Según el contexto científico, deben cumplirse tres condiciones esenciales para que se produzca este comportamiento:

  • Existencia de un objetivo prioritario: una meta clara (como la locomoción o la alimentación) que proporciona un norte y, crucialmente, dicta el comportamiento de los agentes incluso en ausencia de información local.
  • Reglas de interacción local: si existe información local, el agente la utiliza para tomar decisiones que le permitan alcanzar el objetivo más rápidamente. Los agentes independientes depositan y modifican datos en el entorno, comunicando indirectamente los resultados de sus esfuerzos.
  • Un universo donde actuar: el entorno es la «geografía» por la que transitan. Es el medio que proporciona los datos necesarios y en el que se encuentra la memoria colectiva del sistema.

Feromonas: el rastro que se convierte en memoria adaptativa.

El proceso mediante el cual las hormigas optimizan sus rutas es un fascinante ciclo químico-digital. Todo comienza con una exploración aleatoria del entorno. Tan pronto como un individuo encuentra una fuente de alimento, evalúa su cantidad y calidad. Al regresar al hormiguero, deposita una sustancia química llamada feromona.

Este rastro oloroso sirve de señal para las demás hormigas. El camino más corto acaba ganando por una cuestión de frecuencia: las hormigas que viajan por la ruta más breve regresan antes y con mayor frecuencia, por lo que refuerzan ese rastro más rápido que en las rutas largas.

Sin embargo, la clave del éxito radica en la fragilidad del rastro: la feromona es dinámica y se evapora con el tiempo. Si un camino deja de usarse, la señal desaparece. Esta capacidad de «olvido» o plasticidad es vital, ya que permite que el sistema sea flexible y evita la «estagnación», impidiendo que la colonia se quede atrapada en soluciones locales, ya sean mediocres u óptimas, que ya no resultan eficientes ante un entorno cambiante.

De la biología al código: el espejo de la optimización.

La informática ha logrado traducir estos comportamientos biológicos en algoritmos de búsqueda altamente sofisticados. Para comprender esta transición del mundo natural al ámbito del procesador, es necesario observar cómo cada elemento biológico encuentra su contraparte matemática.

Esta estructura permite a los programadores utilizar la lógica de la colonia para explorar enormes espacios de soluciones, donde encontrar la respuesta perfecta sería inviable con métodos tradicionales.

No estamos solos: el club de los optimizadores naturales.

Las hormigas no son las únicas maestras del arte de la economía de recursos. La naturaleza es un club exclusivo de optimizadores en el que la eficiencia es una ley universal de supervivencia, no una invención humana. Otros ejemplos destacados son:

  • Los cisnes: al volar en formación de V, calculan una distribución espacial precisa para minimizar el esfuerzo total que debe realizar la bandada para desplazarse de un punto A a otro B.
  • Los depredadores y los peces: los patrones de ataque de los primeros y las formaciones de los segundos buscan la máxima efectividad con el mínimo riesgo energético.
  • Los ciclistas: apelotonándose instintivamente en una carrera para reducir la resistencia al viento, emulan estos patrones de optimización colectiva.

Conclusión: un futuro inspirado en lo pequeño.

En 1991, los investigadores Corloni, Dorigo y Maniezzo abrieron una puerta trascendental al sugerir que podíamos imitar el comportamiento de los insectos para resolver problemas de optimización combinatoria. Esa semilla científica nos permite hoy en día gestionar redes de tráfico complejas, diseñar ciudades más habitables y optimizar las cadenas logísticas globales que sustentan nuestra economía.

Si aprendiéramos a «escuchar» y a observar con mayor detenimiento los rastros y la información que fluyen en nuestro propio universo, quizá descubriríamos soluciones a problemas que hoy consideramos irresolubles.

En definitiva, nos queda una reflexión provocadora: si una hormiga no sabe que está resolviendo un algoritmo, ¿qué problemas estamos resolviendo colectivamente sin darnos cuenta?

En esta conversación puedes escuchar algunas de las ideas más interesantes sobre el tema.

Este vídeo resume bien los conceptos básicos de la optimización mediante la colonia de hormigas.

Ant_Colony_Optimization Ant_Colony_Optimization

Referencias:

COLORNI, A.; DORIGO, M.; MANIEZZO, V. (1991). Distributed optimization by ant colonies, in VARELA, F.J.; BOURGINE, P. (eds.) Proceedings of the First European Conference on Artificial Life (ECAL-91). The MIT Press: Cambrige, MA, 134-142.

MARTÍNEZ, F.; PEREA, C.; YEPES, V.; HOSPITALER, A.; GONZÁLEZ-VIDOSA, F. (2007). Optimización heurística de pilas rectangulares huecas de hormigón armado. Hormigón y Acero, 244: 67-80. ISBN: 0439-5689. (link)

MARTÍNEZ, F.J.; GONZÁLEZ-VIDOSA, F.; HOSPITALER, A.; YEPES, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88: 375-386. ISSN: 0045-7949.  (link)

YEPES, V. (2003). Apuntes de optimización heurística en ingeniería. Editorial de la Universidad Politécnica de Valencia. Ref. 2003.249. Valencia, 266 pp. Depósito legal: V-2720-2003.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Por qué «no existe la comida gratis» en el mundo de los algoritmos

El mito del algoritmo universal: una humillación necesaria.

Durante décadas, la comunidad científica persiguió con arrogancia el «santo grial»: el algoritmo de optimización universal. Se soñaba con una «caja negra», ya fuera basada en elegantes procesos evolutivos o en redes neuronales profundas, capaz de resolver cualquier problema, desde el diseño de un puente atirantado hasta la logística del viajante, con una eficiencia superior.

Sin embargo, esta búsqueda no solo era ambiciosa, sino que también era fundamentalmente errónea. La revelación de que no existe una inteligencia algorítmica absoluta supuso un golpe de humildad para quienes creían haber capturado la esencia del aprendizaje, cuando en realidad solo habían logrado un ajuste estadístico fortuito.

La revelación matemática: todos los algoritmos son, en promedio, iguales.

Este mito fue desmentido en 1997 por David Wolpert y William Macready. Sus teoremas «No Free Lunch» (NFL) establecieron una igualdad matemática absoluta que rompe el ego de cualquier programador: si promediamos el rendimiento sobre el conjunto de todos los problemas posibles, cualquier algoritmo sofisticado es idéntico a una búsqueda aleatoria.

Lo que un algoritmo gana en un tipo de problemas, lo paga inevitablemente con un fracaso estrepitoso en otro. No hay «comida gratis»: la superioridad de un algoritmo genético de última generación frente a un proceso de búsqueda ciega es una ilusión que solo se sostiene cuando ignoramos la inmensidad del espacio de funciones posibles.

El teorema uno nos muestra que el uso del conocimiento del dominio puede mejorar el rendimiento, a costa de la generalidad.

La geometría del éxito: el problema de la «alineación».

Para comprender la optimización del éxito, debemos abandonar la idea de la «fuerza bruta» y abrazar la geometría. Imagine el espacio de todas las funciones posibles como una esfera gigantesca. En este espacio, cada algoritmo es un vector v y la distribución de los problemas que deseamos resolver es otro vector p.

Estar «bien adaptado» a un problema significa que el vector del algoritmo apunta en la misma dirección que el del problema.

  • Alineación geométrica: que el vector del algoritmo apunte en la misma dirección que el del problema. El rendimiento es, en esencia, el producto interno de ambos vectores.
  • Sacrificio de la generalidad: un algoritmo «generalista» apunta hacia todas partes y, por tanto, su proyección (su éxito) en un punto concreto es nula.
  • Curvatura del conocimiento: el éxito no reside en el código, sino en cómo este «se dobla» para encajar con la estructura lógica y física del problema.

Los investigadores del problema del viajante no han creado algoritmos «mejores» en términos absolutos, sino que han esculpido herramientas íntimamente alineadas con la geometría específica de las rutas y las distancias.

El golpe al ego: el algoritmo aleatorio como juez de paz.

Los teoremas 5 y 6 de Wolpert y Macready introducen un estándar de rigor que actúa como un «mínimo ético» para la ciencia. Si un algoritmo no consigue que el coste disminuya más rápido que con una búsqueda aleatoria, el investigador habrá fracasado.

Esta métrica es el antídoto contra el fraude intelectual del ajuste fino o manual. Muchos de los éxitos que se describen en la literatura no son más que el resultado de forzar un algoritmo a un puñado de problemas específicos sin superar el umbral de una búsqueda ciega. Superar al «juez de paz» aleatorio es la única prueba de que el algoritmo ha logrado capturar alguna estructura real del problema.

Consecuencias prácticas: el fin del experto generalista.

En ingeniería civil, las implicaciones del NFL son tajantes. No existen programas comerciales que puedan optimizar cualquier estructura de forma indiscriminada. Las herramientas generales (como las toolboxes estándar de Matlab) suelen ser ineficaces porque carecen del «conocimiento del hormigón».

Esta realidad ha provocado una «carrera armamentística» hacia la especialización.

  • Hibridación: La respuesta de la ingeniería moderna consiste en combinar metaheurísticas con técnicas de deep learning y redes neuronales para «aprender» la estructura del dominio.
  • Alineación estructural: un matemático brillante fracasará al optimizar un puente atirantado si no comprende la resistencia de los materiales. No se trata de falta de cálculo, sino de que su algoritmo no está alineado con la «curvatura» física del problema. El conocimiento experto es lo que permite al algoritmo encontrar el camino en un espacio de búsqueda que, de otro modo, sería un desierto uniforme.

El dilema del observador: la ceguera del éxito pasado.

Incluso cuando un algoritmo ha funcionado bien hasta ahora, el teorema 10 (sección VII) nos da un jarro de agua fría: observar el rendimiento pasado no garantiza el éxito futuro sin un conocimiento adicional sobre la función de coste. Sin conocer la estructura, no vemos el siguiente paso.

En este estado de «oscuridad estructural», un procedimiento de elección «irracional» (cambiar un algoritmo que ha funcionado bien por otro que ha funcionado mal) es tan válido como uno «racional». Sin suposiciones sobre la relación entre el algoritmo y la función, el comportamiento pasado es un predictor pobre. La lógica solo surge cuando el observador aporta información que no está presente en los datos.

Conclusión: hacia una optimización consciente.

Debemos aceptar una verdad incómoda: nuestra inteligencia artificial es un reflejo limitado del conocimiento que somos capaces de codificar en ella. La ciencia de la optimización ya no debe buscar el «algoritmo perfecto», sino métodos más profundos para transferir el conocimiento del dominio al proceso de búsqueda.

Si el rendimiento de nuestras máquinas depende por completo de lo que ya sabemos sobre el mundo, ¿no será que la «inteligencia artificial general» es un mito termodinámico, similar a la máquina de movimiento perpetuo? Quizás el mayor descubrimiento de Wolpert y Macready no fue matemático, sino filosófico: la inteligencia no es más que el conocimiento del problema disfrazado de código.

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

Este vídeo resume bien los conceptos más importantes tratados.

The_Universal_Algorithm_Myth

Referencias:

GARCÍA, J.; YEPES, V.; MARTÍ, J.V. (2020a). A hybrid k-means cuckoo search algorithm applied to the counterfort retaining walls problem. Mathematics,  8(4), 555.

MARTÍNEZ-MUÑOZ, D.; GARCÍA, J.; MARTÍ, J.V.; YEPES, V. (2022). Optimal design of steel-concrete composite bridge based on a transfer function discrete swarm intelligence algorithm. Structural and Multidisciplinary Optimization, 65:312. DOI:10.1007/s00158-022-03393-9

NEGRÍN, I.; CHAGOYÉN, E.; KRIPKA, M.; YEPES, V. (2025). An integrated framework for Optimization-based Robust Design to Progressive Collapse of RC skeleton buildings incorporating Soil-Structure Interaction effects. Innovative Infrastructure Solutions, 10:446. DOI:10.1007/s41062-025-02243-z

WOLPERT, D.H.; MACREADY, W.G. (1997). No Free Lunch Theorems for Optimization. IEEE Transactions on Evolutionary Computation, 1(1):67-82.

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

A continuación os dejo el artículo original «No Free Lunch Theorems for Optimization». Se ha convertido en un clásico de optimización heurística.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

La inteligencia de la naturaleza: cinco lecciones de los algoritmos genéticos.

Optimizar una estructura de hormigón no es solo una cuestión de cálculo, sino una batalla contra la entropía. Además, en la búsqueda de la combinación precisa entre la cantidad de acero y la resistencia del hormigón, el ingeniero se enfrenta a un océano de variables en el que la solución «perfecta» suele estar oculta bajo capas de complejidad técnica. Por tanto, el proceso exige no solo rigor analítico, sino también una comprensión profunda de cómo interactúan todos los factores que condicionan el diseño estructural.

Ante este desafío, la ingeniería moderna ha dejado de lado las calculadoras para observar el mecanismo de diseño más refinado de la historia: la selección natural.

Hace más de un siglo, Charles Darwin descubrió que la supervivencia es el resultado de un proceso en el que sobreviven los más aptos y transmiten sus rasgos. Hoy en día, aplicamos este rigor biológico a los algoritmos genéticos. Estos sistemas no solo resuelven problemas, sino que también imitan la vida misma para encontrar respuestas con una elegancia estructural que antes considerábamos inalcanzable.

Lección 1: La evolución no ocurre en el individuo, sino en su código.

Una de las distinciones más profundas de la computación evolutiva es que la mejora de un sistema no se logra manipulando el objeto final (el puente o la viga), sino su receta original. Para que un algoritmo sea verdaderamente evolutivo, debe comprender que el éxito se forja en las estructuras subyacentes, tal y como lo definió Davis en 1991:

«La evolución opera en los cromosomas, en lugar de en los individuos a los que representan».

Este enfoque resulta fascinante por lo contraintuitivo que es: para optimizar una estructura física (el fenotipo), manipulamos un vector binario o un string (el genotipo). Al trabajar con la representación abstracta, permitimos que el código explore cambios profundos sin las limitaciones del diseño inmediato, entendiendo que el cromosoma es el verdadero custodio de la adaptación global.

Lección 2: El diccionario biológico del programador.

Para resolver problemas de ingeniería como si fueran organismos vivos, debemos traducir la realidad física a un lenguaje genético preciso. Ver una solución técnica como un «ser» con ADN transforma radicalmente nuestra metodología de resolución.

  • Fenotipo: la solución final y detectable; la expresión física de la interacción genética.
  • Genotipo: la estructura o plan maestro a partir del cual se construye el organismo.
  • Cromosoma: vector o cadena de datos que almacena información.
  • Gen: Cada elemento del vector (un «vagón de tren» en la cadena de datos).
  • Alelo: el valor específico que adopta ese elemento (el bit o dato concreto).
  • Locus: posición exacta del gen, fundamental porque controla un carácter específico de la solución.
  • Aptitud (fitness): función objetivo que mide la capacidad de la solución para sobrevivir en su entorno técnico.

Lección 3: La «ruleta» de la supervivencia y la selección natural.

La selección natural no funciona como un sorteo, aunque tampoco actúa como una sentencia absoluta. Este principio se traslada al código mediante el método de la ruleta. En dicho procedimiento, cada solución se representa por un segmento circular cuya superficie es proporcional a su nivel de aptitud.

Esta «justicia algorítmica» garantiza que los mejores tengan mayores probabilidades de dejar descendencia. Sin embargo, no garantiza el monopolio de la reproducción, ya que los individuos menos aptos mantienen una pequeña probabilidad de transmitir sus genes. Este «caos controlado» es vital, ya que garantiza la diversidad estructural y evita que el algoritmo se estanque en óptimos locales, es decir, soluciones que parecen buenas solo porque el sistema ha perdido la capacidad de mirar más allá de lo inmediato.

Lección 4: Cruzamiento y mutación. El «sexo» de los datos.

La evolución exige novedad. Si nos limitáramos a clonar a los mejores, el progreso se detendría. Por ello, los algoritmos utilizan la recombinación o cruzamiento, mediante el cual dos progenitores intercambian información para crear descendientes con rasgos mixtos. Se destacan operadores sofisticados como el PMX (Partially-Matched Crossover), que copia un fragmento del código manteniendo las posiciones y rellena el resto con valores no utilizados, y el SEX (Strategic Edge Crossover), que busca identificar y preservar secuencias presentes en ambos progenitores.

Pero la mezcla no es suficiente. Es necesaria la mutación para introducir variaciones que no existían en la población original.

«Mutación: modificación espontánea de la información genética».

La mutación actúa como un factor de diversificación radical. Ya sea reemplazando un bit o recombinando elementos al azar sin considerar su aptitud inicial, este mecanismo introduce el «ruido» necesario para sacudir el sistema y permitirle dar el salto a fronteras de eficiencia completamente nuevas.

Lección 5: La memoria es un lastre para la evolución.

Siguiendo la lógica de Holland, uno de los conceptos más disruptivos de la evolución es su capacidad para vivir en el presente absoluto. A diferencia de otros sistemas de optimización que arrastran sesgos históricos, la evolución es un proceso sin memoria en el sentido estricto, ya que es una eficiencia de estado.

Durante la formación de nuevos cromosomas, el algoritmo solo tiene en cuenta la información del periodo inmediatamente anterior. Este enfoque «radical» permite que el sistema converja hacia la excelencia técnica basándose exclusivamente en la eficacia actual de los rasgos, sin verse frenado por configuraciones que fueron útiles en el pasado, pero ya no sirven para afrontar los desafíos del presente. Se podría decir que es una búsqueda de la perfección despojada de prejuicios históricos.

Los algoritmos genéticos demuestran que la naturaleza ya había resuelto los problemas de optimización más difíciles hace millones de años. Al adoptar estas leyes biológicas, la ingeniería no solo encuentra mejores soluciones para sus puentes y edificios, sino que lo hace con una elegancia que solo la evolución puede dictar.

Si principios tan elementales como la herencia y la mutación pueden dar lugar a estructuras de hormigón de una eficiencia asombrosa, ¿qué otros procesos naturales esconden hoy la clave para el próximo gran avance en la inteligencia de nuestro software?

En esta conversación puedes escuchar las ideas más interesantes sobre este tema.

Este vídeo resume bien los conceptos básicos de los algoritmos genéticos.

Aquí tenéis un vídeo en el que explico este algoritmo. Espero que os interese.

Genetic_Algorithms

Referencias:

DENNETT, D.C. (1999). La peligrosa idea de Darwin. Galaxia Gutenberg. Círculo de Lectores, Barcelona.

HOLLAND, J.H. (1975). Adaptation in natural and artificial systems. University of Michigan Press, Ann Arbor.

MARTÍNEZ, F.J.; GONZÁLEZ-VIDOSA, F.; HOSPITALER, A.; YEPES, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88: 375-386. ISSN: 0045-7949.  (link)

MEDINA, J.R.; YEPES, V. (2003). Optimization of touristic distribution networks using genetic algorithms. Statistics and Operations Research Transactions, 27(1): 95-112.  ISSN: 1696-2281.  (pdf)

PONZ-TIENDA, J.L.; YEPES, V.; PELLICER, E.; MORENO-FLORES, J. (2013). The resource leveling problem with multiple resources using an adaptive genetic algorithm. Automation in Construction, 29(1):161-172. DOI:http://dx.doi.org/10.1016/j.autcon.2012.10.003. (link)

YEPES, V. (2003). Apuntes de optimización heurística en ingeniería. Editorial de la Universidad Politécnica de Valencia. Ref. 2003.249. Valencia, 266 pp. Depósito legal: V-2720-2003.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.