Introducción a los Modelos de Ecuaciones Estructurales (SEM)

Simbología y nomenclatura de los modelos PLS (Aldas, 2018)

Los modelos de ecuaciones estructurales (SEM, por sus siglas en inglés) son una técnica estadística multivariante utilizada para analizar y estimar relaciones causales, combinando datos estadísticos con suposiciones cualitativas sobre la causalidad. Esta metodología es especialmente valiosa en las ciencias sociales, la psicología, el marketing y otras disciplinas en las que las relaciones entre variables no son lineales y pueden involucrar tanto variables observables como latentes. Gracias a los SEM, los investigadores no solo pueden comprobar teorías existentes, sino también desarrollar nuevas hipótesis y modelos que reflejen la realidad de los fenómenos estudiados.

Los modelos de ecuaciones estructurales (MES) combinan el análisis factorial y la regresión lineal para evaluar la correspondencia entre los datos observados y el modelo hipotetizado, que se representa mediante un diagrama de senderos. Los MES proporcionan los valores asociados a cada relación del modelo y un estadístico que mide el ajuste de los datos y valida el modelo.

Una de sus principales fortalezas es la capacidad de construir variables latentes, es decir, variables no observables directamente, sino estimadas a partir de otras que covarían entre sí. Esto permite tener en cuenta explícitamente la fiabilidad del modelo. Además, el análisis factorial, el análisis de caminos y la regresión lineal son casos particulares dentro del enfoque de los MES.

Fundamentos teóricos

Variables latentes y observables:

  • Variables latentes: son constructos teóricos que no pueden medirse directamente. Por ejemplo, la «satisfacción del cliente» o «lealtad a la marca» son variables latentes que se infieren a partir de las respuestas a encuestas o del comportamiento observable.
  • Variables observables: son los indicadores que se utilizan para medir las variables latentes. Por ejemplo, en el caso de la satisfacción del cliente, las respuestas a preguntas específicas en una encuesta (como «¿Qué tan satisfecho está con nuestro servicio?»), son variables observables.

Modelo estructural vs. modelo de medida:

  • Modelo estructural: describe las relaciones causales entre las variables latentes. Este modelo permite a los investigadores establecer hipótesis sobre cómo una variable puede influir en otra.
  • Modelo de medida: establece cómo se relacionan las variables observables con las variables latentes. Es fundamental validar este modelo para garantizar que los indicadores reflejan realmente el constructo que se pretende medir.
Ejemplo de un modelo de medida y un modelo estructural

Tipos de modelos

Existen dos enfoques principales en SEM:

Análisis de estructuras de covarianza (CB-SEM):

  • Este enfoque se basa en la matriz de varianza-covarianza y es adecuado para contrastar teorías y probar hipótesis. CB-SEM es una técnica paramétrica que requiere que se cumplan ciertos supuestos estadísticos, como la normalidad multivariada y la independencia de las observaciones.
  • Aplicaciones: Ideal para estudios confirmatorios donde se busca validar teorías existentes. Se utiliza comúnmente en investigaciones que requieren un alto nivel de rigor estadístico.

Mínimos cuadrados parciales (PLS-SEM):

  • Este enfoque es más flexible y no requiere los mismos supuestos rigurosos que CB-SEM. PLS-SEM se centra en maximizar la varianza explicada de las variables latentes dependientes a partir de las variables latentes independientes.
  • Ventajas: Funciona bien con muestras pequeñas y permite la inclusión de constructos formativos, lo que amplía su aplicabilidad en contextos donde los constructos son complejos y multidimensionales.
  • Aplicaciones: Es especialmente útil en estudios exploratorios y en situaciones donde se busca hacer predicciones, como en el análisis de comportamiento del consumidor.

Metodología de PLS-SEM

La metodología de PLS-SEM se puede resumir en varias etapas clave:

  1. Inicialización: Se obtiene una primera aproximación a los valores de las variables latentes a partir de sus indicadores. Este paso es crucial para establecer un punto de partida en el proceso de estimación.
  2. Estimación de coeficientes de regresión: Se estiman los pesos o coeficientes de regresión de las variables latentes. Este proceso implica calcular las relaciones entre las variables latentes y sus indicadores, así como entre las variables latentes mismas.
  3. Optimización: Se busca maximizar el coeficiente de determinación (R²) de los factores latentes mediante un proceso iterativo. Este proceso de optimización es fundamental para mejorar la precisión de las estimaciones y asegurar que el modelo se ajuste adecuadamente a los datos.
  4. Evaluación de la validez y fiabilidad: Se analizan los constructos para asegurar que miden correctamente lo que se pretende medir. Esto incluye:
    —Fiabilidad individual: Evaluación de la consistencia interna de cada indicador utilizando el alfa de Cronbach.
    —Validez convergente: Medida a través de la varianza extraída (AVE), que debe ser superior a 0,5 para indicar que los indicadores reflejan el mismo constructo.
    —Validez discriminante: Comparación de las correlaciones entre constructos para asegurar que cada constructo es significativamente diferente de los demás. Esto se puede evaluar utilizando el criterio de Fornell-Larcker, que establece que la raíz cuadrada del AVE de cada constructo debe ser mayor que las correlaciones entre constructos.

Ventajas y desventajas de PLS-SEM

Ventajas:

  • Flexibilidad: PLS-SEM no requiere normalidad multivariada, lo que lo hace más accesible para investigadores en ciencias sociales que trabajan con datos no normales.
  • Muestras pequeñas: Funciona bien con muestras pequeñas, lo que es ventajoso en estudios exploratorios donde la recolección de datos puede ser limitada.
  • Constructos formativos: Permite la inclusión de constructos formativos, lo que amplía su aplicabilidad en contextos donde los constructos son complejos y multidimensionales.

Desventajas:

  • Falta de indicadores de ajuste global: PLS-SEM no proporciona indicadores de ajuste global del modelo, lo que puede limitar la comparación entre modelos y la evaluación de su calidad.
  • Restricciones en la estructura del modelo: Cada variable latente debe estar conectada a otra mediante una relación estructural, lo que puede ser restrictivo en algunos contextos.
  • Estimaciones no óptimas: La estimación de parámetros no es óptima en términos de sesgo y consistencia a menos que se utilice el algoritmo PLS consistente, lo que puede afectar la validez de los resultados.

Presentación de resultados

Al presentar los resultados de un análisis SEM, se recomienda estructurarlos en tablas que resuman la fiabilidad y validez del instrumento de medida, así como los análisis de validez discriminante y las hipótesis contrastadas. Así se facilita la comprensión y la interpretación de los resultados por parte de otros investigadores y lectores. La presentación clara y concisa de los resultados es esencial para garantizar la reproducibilidad y la transparencia de la investigación.

Tablas recomendadas:

  • Tabla de fiabilidad y validez: Resumen de los índices de fiabilidad (alfa de Cronbach, fiabilidad compuesta) y validez (AVE).
  • Tabla de validez discriminante: Comparación de las correlaciones entre constructos y sus AVE.
  • Tabla de resultados estructurales: Coeficientes de regresión, R² y significancia de las relaciones estructurales.

Conclusión

Los modelos de ecuaciones estructurales son una herramienta muy valiosa en la investigación social y del comportamiento, ya que permiten a los investigadores modelar y analizar relaciones complejas entre variables. La elección entre CB-SEM y PLS-SEM dependerá de los objetivos de la investigación, la naturaleza de los datos y las hipótesis planteadas. Con una correcta aplicación y validación, SEM puede proporcionar información significativa y fiable en diversas áreas de estudio, contribuyendo al avance del conocimiento en múltiples disciplinas. Para cualquier investigador que busque explorar las complejidades de las relaciones entre variables en su campo de estudio, es esencial comprender profundamente esta metodología y aplicarla correctamente.

Referencias:

Aldás, J. (2018). Modelización estructural mediante Partial Least Squares-PLSPM. Apuntes del seminario de modelización estructural.

Bagozzi, R. P., & Yi, Y. (1988). On the evaluation of structural equation models. Journal of the Academy of Marketing Science, 16(1), 74–94.

Fornell, C., & Bookstein, F. L. (1982). Two structural equation models: LISREL and PLS applied to consumer exit-voice theory. Journal of Marketing Research, 19(4), 440–452.

Hair, J. F., Hult, G. T. M., Ringle, C. M., & Sarstedt, M. (2014). A primer on partial least square structural equation modeling (PLS-SEM). California, United States: Sage.

López, S., & Yepes, V. (2024). Visualizing the future of knowledge sharing in SMEs in the construction industry: A VOS-viewer analysis of emerging trends and best practices. Advances in Civil Engineering, 2024, 6657677.

Yepes, V., & López, S. (2023). The knowledge sharing capability in innovative behavior: A SEM approach from graduate students’ insights. International Journal of Environmental Research and Public Health, 20(2), 1284.

Os dejo a continuación un artículo explicativo al respecto. Espero que os sea de interés.

Descargar (PDF, 273KB)

También os pueden ser útiles algunos vídeos al respecto.


Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Karl Culmann

https://es.wikipedia.org/wiki/Karl_Culmann

Karl Culmann (10 de julio de 1821 – 9 de diciembre de 1881) fue un destacado ingeniero civil alemán, conocido por sus contribuciones fundamentales al cálculo de estructuras y, en particular, por el desarrollo de la estática gráfica. Se especializó en la construcción de puentes. Fue profesor de la Escuela Politécnica de Zúrich y realizó importantes innovaciones en el análisis de los sistemas reticulados, donde introdujo el cálculo gráfico, por lo que se le considera el fundador de la grafostática. Expuso el resultado de sus trabajos en su obra Estática gráfica (1866).

Culmann presentó el cálculo gráfico como un sistema coherente que incorporaba métodos gráficos para analizar estructuras como vigas, puentes, armaduras, arcos y muros de contención. Introdujo los polígonos de fuerza y funiculares, el método de secciones y el diagrama de fuerzas internas basado en el equilibrio de las juntas.

Se le atribuye la teoría de la elipse de inercia (también conocida como elipse de Culmann), esencial para el cálculo gráfico de momentos de inercia de figuras planas, así como la teoría de la elipse de elasticidad, que Karl Wilhelm Ritter aplicó al estudio de deformaciones en vigas elásticas.

La estática gráfica permitió registrar fuerzas en construcciones y resolver cálculos mediante dibujos. Los métodos de Culmann, adoptados inicialmente por sus alumnos, fueron rápidamente apreciados por diseñadores de puentes y estructuras por su rapidez frente a los procedimientos analíticos tradicionales.

Culmann nació en Bad Bergzabern, Baviera, en el seno de una familia luterana. Durante su infancia, fue educado en casa por su padre, un pastor luterano, hasta que en 1835 ingresó al Collège de Wissembourg. Más tarde, entre 1836 y 1838, continuó su formación en Metz, donde su tío Friedrich Jakob Culmann, profesor en la Escuela de Artillería, despertó su interés por la ingeniería.

En 1838, Culmann comenzó sus estudios en el Politécnico de Karlsruhe, donde se graduó en 1841. Al finalizar sus estudios, inició su carrera profesional en la administración pública de Baviera como aprendiz de ingeniero, especializándose en el diseño de puentes ferroviarios para los Ferrocarriles Estatales de Baviera.

Entre 1849 y 1851, con el apoyo de su superior, Friedrich August von Pauli, Culmann viajó a Inglaterra, Irlanda y Estados Unidos. Durante este tiempo, comparó diseños de puentes de celosía y desarrolló nuevas técnicas analíticas, que plasmó en dos diarios de viaje que incluían elementos de la teoría de estructuras reticuladas. Prestó especial atención a puentes, canales, sistemas de abastecimiento de agua, maquinaria industrial, barcos de vapor y otras innovaciones estadounidenses. Su temprana exposición a los avances de Poncelet y otros geómetras franceses se refleja en sus informes sobre la práctica de los puentes en Estados Unidos, donde ya se aprecian sus extensiones independientes de los métodos gráficos. Mientras la costumbre era analizar un diseño mediante ecuaciones, Culmann optó por otro enfoque: construcciones geométricas fundamentales y ampliamente aplicables.

En 1855, gracias, entre otros, a la mediación de Max Eyth, fue nombrado profesor de ciencias de la ingeniería en la entonces recién fundada Escuela Politécnica Federal de Zúrich (ETH Zúrich), cargo que ocupó hasta 1881. A partir de 1860, impartió clases sobre estática gráfica, una disciplina que revolucionó al fundamentar métodos gráficos para la resolución de problemas estructurales. En 1864 elaboró un valioso informe sobre su investigación de los torrentes montañosos de Suiza, cuya regulación representaba un problema recurrente en ciertas temporadas. Inspirado por el trabajo de Jean-Victor Poncelet, publicó en 1865 su obra más influyente, Die graphische Statik, que sería traducida al francés en 1879. En esta obra, ofreció un panorama completo de los trabajos existentes sobre métodos gráficos para resolver problemas estáticos y sentó las bases para su uso como una ciencia exacta.

Como docente, recibió grandes elogios por su vasta experiencia, su excelente conocimiento teórico y su comprensión empática. Desde 1860, impartió conferencias sobre estática gráfica en Zúrich. Culmann asesoró al Gobierno Suizo en numerosos proyectos técnicos, como una línea de tranvía tirado por caballos para Zúrich y casi todos los proyectos de construcción de puentes de su época. También realizó un inventario de todos los torrentes de montaña del sur de Suiza. En 1868 obtuvo la nacionalidad suiza. Entre 1872 y 1875 fue director de la escuela, y en 1880, un año antes de su muerte, obtuvo su doctorado en el ETH de Zúrich.

La grúa de Culmann con las líneas de las principales trayectorias de tensión y el modelo de von Meyers de la estructura trabecular de la extremidad proximal del fémur, explicado por Wolff, 1872. https://www.elsevier.es/es-revista-revista-espanola-cirugia-ortopedica-traumatologia-129-articulo-respuesta-osea-las-solicitaciones-mecanicas-13015932

También resulta de interés cómo Culmann identificó, junto con von Meyer (1967) la similitud entre la arquitectura del extremo proximal del fémur y los patrones de las trayectorias de solicitaciones, utilizando su innovador método de “estática gráfica”. Posteriormente, se empleó la ley de Wolff (1892) que indica que el alineamiento óseo trabecular coincide con las trayectorias de las tensiones principales en un sólido ideal de geometría exacta al hueso y bajo las mismas cargas.

Karl Culmann falleció en Zúrich, Suiza, el 9 de diciembre de 1881, dejando un legado imborrable en la ingeniería estructural y en el desarrollo de herramientas matemáticas aplicadas al diseño técnico. A lo largo de su carrera, influyó profundamente en la siguiente generación de ingenieros, entre ellos Maurice Koechlin, Christian Otto Mohr y Luigi Cremona.

Aunque los fundamentos de la estática gráfica fueron finalmente superados por la geometría proyectiva, Culmann, junto con Mohr, fue uno de los ingenieros estructurales más destacados del siglo XIX en el mundo de habla alemana.

 

Principales contribuciones a la teoría de estructuras:

  • Der Bau der hölzernen Brücken in den Vereinigten Staaten von Nordamerika [1851] (La construcción de puentes de madera en los Estados Unidos de América del Norte).
  • Der Bau der eisernen Brücken in England und Amerika [1852] (La construcción de puentes de hierro en Inglaterra y América).
  • Ueber die Gleichgewichtsbedingungen von Erdmassen [1856] (Sobre las condiciones de equilibrio de las masas de tierra).
  • Die graphische Statik [1864, 1866] (La estática gráfica).
  • Vorlesungen über Ingenieurkunde. I. Abtheilung: Erdbau [1872] (Lecciones sobre ingeniería. Primera parte: construcción de tierra).
  • Die Graphische Statik [1875] (La estática gráfica).

Eugène Freyssinet

De Desconocido – https://efreyssinet-association.com/apropos/lhomme/, Dominio público, https://commons.wikimedia.org/w/index.php?curid=81910629

Eugène Freyssinet nació el 13 de julio de 1879 en Objat, Corrèze (Francia), y falleció el 8 de junio de 1962 en Saint-Martin-Vésubie, Alpes-Maritimes (Francia). Fue un ingeniero de gran renombre, proyectista, constructor, inventor, empresario y artista, reconocido como el inventor del pretensado.

Pasó sus primeros años en un ambiente rural, hasta que en 1885 se trasladó con su familia a París, donde asistió a una escuela local y descubrió el Museo de Artes y Oficios. Pronto se familiarizó con todos los modelos expuestos y, entre los 10 y los 12 años, participó en cursos de electricidad aplicada, química y física. Durante las vacaciones escolares, pasaba el tiempo en Objat, donde se interesó por las tareas realizadas por los agricultores locales. Este grupo de personas, orgulloso y trabajador, extraía todo lo posible de la tierra árida, apenas suficiente para sobrevivir. Por ello, los agricultores también desempeñaban otros oficios, como ebanistas, carpinteros, albañiles, herreros y tejedores. A lo largo de su vida, Freyssinet siempre se sintió parte de este grupo. De estas personas, que trabajaban mucho y hablaban poco, aprendió a utilizar habilidades manuales y astucia para crear los mejores artefactos con pocos recursos materiales. Fue aquí, siendo aún un niño, donde Freyssinet adquirió las habilidades que más tarde le permitirían llevar a cabo innovaciones fundamentales en la construcción con hormigón.

Con una admiración casi religiosa por las habilidades manuales y una beca, Freyssinet asistió a la escuela Chaptal y logró ingresar en la École Polytechnique en su segundo intento en 1899. Posteriormente, estudió en la École des Ponts et Chaussées, de la que se graduó en 1905. Allí recibió una fuerte influencia de los profesores Charles Rabut, Jean Résal y Paul Séjourné. En 1903, todavía estudiante (se licenció en 1905), obtuvo su primer cargo: ingeniero de servicios ordinarios y vecinales, con la función de asesorar técnicamente a varios alcaldes del distrito este, concretamente de Vichy y Lapalisse. Comenzó a trabajar como ingeniero júnior en la oficina local de Ponts et Chaussées en Moulins, donde asesoraba a alcaldes rurales sobre temas relacionados con la ingeniería. En este trabajo, tenía libertad para diseñar y construir estructuras, utilizando siempre el hormigón reforzado. Entre sus obras de este período destacan los tres puentes de arco de hormigón pretensado sobre el río Allier.

En 1904 se interesó por las propiedades elásticas y de deformación del hormigón armado, una combinación de acero y hormigón. La búsqueda de la perfección de este material se convirtió en su principal objetivo. Sirvió en el Ejército de Tierra francés entre 1904 y 1907, y nuevamente durante la Primera Guerra Mundial como ingeniero de carreteras. Entre 1914 y 1928 fue director técnico y socio de la empresa Mercier-Limousin, donde obtuvo su primera patente de hormigón pretensado en 1920. En 1928, patentó un sistema de pretensado y comenzó a industrializar elementos prefabricados de hormigón armado, aunque su negocio de fabricación de postes eléctricos fracasó entre 1928 y 1933.

Entre 1907 y 1911, supervisó la construcción del puente de Veurdre, donde se enfrentó a problemas relacionados con los desplazamientos verticales de los arcos de hormigón armado. Con la ayuda de trabajadores de confianza, utilizó gatos hidráulicos para elevar los arcos y salvar el puente, que funcionó bien hasta ser destruido en la Segunda Guerra Mundial.

Freyssinet descubrió que el comportamiento del hormigón no es lineal y que, con una tensión compresiva constante, la contracción aumentaba con el tiempo. Este fenómeno, que observó en el Pont du Veurdre, se conocería más tarde como fluencia. Su comprensión del comportamiento del hormigón contrastaba con la de las autoridades científicas de la teoría de estructuras, que defendían la predominancia de lo lineal. Sin embargo, se estaba gestando un cambio de paradigma.

Eugène Freyssinet (1879-1962)

El gran avance en la construcción con hormigón pretensado se produjo en 1928, cuando Freyssinet y Jean Seailles patentaron su sistema de pretensado. A pesar de algunos fracasos iniciales, Freyssinet revolucionó el sector de la construcción con hormigón, consolidando su nombre como un referente en el campo. Entre sus obras más destacadas se encuentran el hangar de dirigibles de Orly (1921-1923), el Pont de Plougastel (1926-1930) y los audaces puentes de Marne construidos en la década de 1940. A partir de 1943, la tecnología del pretensado se expandió por todo el mundo. Freyssinet fundó la empresa STUP, que en 1970 se transformó en Freyssinet International.

Entre 1929 y 1933, Freyssinet experimentó con nuevas formas de fabricación de vigas y presentó el concepto de hormigón pretensado en un artículo de 1933. Este tipo de hormigón, sometido a presiones antes de su uso, mejoraba la resistencia y permitía la construcción de estructuras más delgadas y esbeltas.

Ese mismo año se presentó a la cátedra de hormigón de la Academia de Ciencias, pero fue rechazado. Luego, se centró en probar la viabilidad del hormigón pretensado para mejorar el puerto de Le Havre en 1934. Gracias a este éxito, Edme Campenon, presidente de Enterprises Campenon-Bernard, le contrató para realizar varios proyectos en Argelia.

Sin embargo, con el inicio de la Segunda Guerra Mundial y la derrota francesa de 1940, Freyssinet tuvo que ocultar sus conocimientos para evitar que los alemanes se aprovecharan de ellos. Además, varias de sus obras fueron destruidas. A pesar de ello, no interrumpió por completo su actividad constructiva. En 1943, Edme Campenon fundó la STUP (Sociedad Técnica para la Utilización del Pretensado) para aplicar las investigaciones de Freyssinet sobre esta técnica. En la posguerra, Freyssinet perfeccionó el uso del hormigón pretensado, que implementó en nuevos puentes y en diversos edificios, como el faro de Berck y la basílica subterránea del santuario de Lourdes.

Su origen rural tuvo una gran influencia en su carrera como ingeniero, que comenzó a una edad temprana. Tendía a simplificar sus construcciones y a hacerlas económicas. A pesar de su sólida formación matemática, que utilizaba cuando era necesario, su espíritu artesano e intuitivo lo llevaba a confiar más en la experiencia. Apasionado y tenaz, Eugène Freyssinet fue muy apreciado por sus colegas.

Principales contribuciones a la teoría de estructuras: L’Amélioration des constructions en béton armé par l’introduction de déformations élastiques systématiques [1928]; Procédé de fabrication de pièces en béton armé [1928]; Note sur: Bétons plastiques et bétons fluides [1933]; Progrès pratiques des méthodes de traitement mécanique des bétons [1936/1]; Une révolution dans les techniques du béton [1936/2]; Une révolution dans l’art de bâtir: les constructions précontraintes [1941]; Ouvrages en béton précontraint destinés à contenir ou à retenir des liquides [1948/1]; Ponts en béton précontraint [1948/2]; Überblick über die Entwicklung des Gedankens der Vorspannung [1949]; Un amour sans limite [1993].

Os dejo algunos vídeos, que espero, os interesen.

Referencia:

FERNÁNDEZ-ORDÓÑEZ, J.A. (1978). Eugène Freyssinet. 2c Ediciones, Barcelona.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Aprendizaje supervisado en ingeniería civil

En un artículo anterior hablamos del aprendizaje no supervisado aplicado a la ingeniería civil. La otra rama del aprendizaje automático (machine learning) es el aprendizaje supervisado. Se trata de un enfoque que utiliza conjuntos de datos de entrada y sus correspondientes respuestas para entrenar modelos capaces de realizar predicciones sobre datos nuevos. Este método es particularmente útil en contextos donde se dispone de información previa sobre la variable que se desea predecir, lo que permite establecer relaciones y patrones en los datos.

El aprendizaje supervisado emerge como una herramienta muy poderosa en el campo de la ingeniería civil, ya que facilita la toma de decisiones y la optimización de procesos mediante el análisis de datos. Este enfoque se basa en el uso de algoritmos que aprenden a partir de un conjunto de datos etiquetados, lo que les permite realizar predicciones sobre nuevos datos. A continuación, se presentan algunas aplicaciones y beneficios del aprendizaje supervisado en este campo.

Técnicas de aprendizaje supervisado

Las técnicas de aprendizaje supervisado se dividen en dos categorías principales: clasificación y regresión. La clasificación se centra en predecir respuestas discretas, es decir, en asignar una etiqueta a un conjunto de datos. Por ejemplo, en el ámbito del correo electrónico, se puede clasificar un mensaje como genuino o spam. Este tipo de modelos se aplica en diversas áreas, como la imagenología médica, donde se pueden clasificar tumores en diferentes categorías de tamaño, o en el reconocimiento de voz, donde se identifican comandos específicos. La clasificación se basa en la capacidad de los modelos para categorizar datos en grupos definidos, lo que resulta esencial en aplicaciones como la evaluación crediticia, donde se determina la solvencia de una persona.

Por el contrario, la regresión se ocupa de predecir respuestas continuas, lo que implica estimar valores en un rango numérico. Por ejemplo, se puede utilizar la regresión para prever cambios en la temperatura o fluctuaciones en la demanda eléctrica. Este enfoque es aplicable en contextos como la previsión de precios de acciones, donde se busca anticipar el comportamiento del mercado, o en el reconocimiento de escritura a mano, donde se traduce la entrada manual en texto digital. La elección entre clasificación y regresión depende de la naturaleza de los datos y de la pregunta específica que se desea responder.

Selección del algoritmo adecuado.

La selección de un algoritmo de aprendizaje automático es un proceso que requiere un enfoque metódico, ya que hay que encontrar el equilibrio entre diversas características de los algoritmos. Entre estas características se encuentran la velocidad de entrenamiento, el uso de memoria, la precisión predictiva en nuevos datos y la transparencia o interpretabilidad del modelo. La velocidad de entrenamiento se refiere al tiempo que un algoritmo necesita para aprender de los datos, mientras que el uso de memoria se relaciona con la cantidad de recursos computacionales que requiere. La precisión predictiva es crucial, ya que determina la capacidad del modelo para generalizar a datos no vistos. Por último, la interpretabilidad se refiere a la facilidad con la que se pueden entender las decisiones del modelo, lo que es especialmente relevante en aplicaciones donde la confianza en el modelo es esencial.

El uso de conjuntos de datos de entrenamiento más grandes generalmente permite que los modelos generalicen mejor en datos nuevos, lo que se traduce en una mayor precisión en las predicciones. Sin embargo, la selección del algoritmo también puede depender del contexto específico y de las características de los datos disponibles.

Clasificación binaria y multicategoría

Al abordar un problema de clasificación, es fundamental determinar si se trata de un problema binario o multicategórico. En un problema de clasificación binaria, cada instancia se clasifica en una de las dos clases, como ocurre cuando se identifica la autenticidad de los correos electrónicos o su clasificación como spam. Este tipo de clasificación es más sencillo y, por lo general, se puede resolver con algoritmos diseñados específicamente para este propósito. En contraste, un problema de clasificación multicategórica implica más de dos clases, como clasificar imágenes de animales en perros, gatos u otros. Los problemas multicategóricos suelen ser más complejos, ya que requieren modelos más sofisticados que puedan manejar la diversidad de clases y sus interacciones.

Es importante señalar que algunos algoritmos, como la regresión logística, están diseñados específicamente para problemas de clasificación binaria y tienden a ser más eficientes durante el entrenamiento. Sin embargo, existen técnicas que permiten adaptar algoritmos de clasificación binaria para abordar problemas multicategóricos, lo que amplía su aplicabilidad.

Algoritmos de clasificación comunes

Existen diversos varios algoritmos de clasificación ampliamente utilizados en el campo del aprendizaje supervisado.

  • La regresión logística es uno de los métodos más comunes, ya que permite predecir la probabilidad de que una respuesta binaria pertenezca a una de las dos clases. Este algoritmo es valorado por su simplicidad y se emplea frecuentemente como punto de partida en problemas de clasificación binaria. Su capacidad para ofrecer una interpretación clara de los resultados lo convierte en una herramienta muy valiosa en diversas aplicaciones.
  • El algoritmo k-vecinos más cercanos (kNN) clasifica objetos basándose en las clases de sus vecinos más cercanos, utilizando métricas de distancia como la euclidiana o la de Manhattan. Este enfoque es intuitivo y fácil de implementar, aunque puede resultar costoso en términos de cálculo en conjuntos de datos grandes.
  • El soporte vectorial (SVM) es otro algoritmo destacado que clasifica datos al encontrar un límite de decisión lineal que separe las clases. En situaciones en las que los datos no son linealmente separables, se puede aplicar una transformación de kernel para facilitar la clasificación. Este método es especialmente útil en contextos de alta dimensionalidad, donde la complejidad de los datos puede dificultar la clasificación.
  • Las redes neuronales, inspiradas en la estructura del cerebro humano, son útiles para modelar sistemas altamente no lineales. Estas redes se entrenan ajustando las conexiones entre neuronas, lo que permite que el modelo aprenda patrones complejos en los datos. Aunque su interpretación puede ser más complicada, su capacidad para capturar relaciones no lineales las hace valiosas en diversas aplicaciones.
  • El clasificador Naïve Bayes se basa en la suposición de que la presencia de una característica en una clase no depende de la presencia de otras características. Este enfoque permite clasificar nuevos datos en función de la probabilidad máxima de pertenencia a una clase, lo que resulta útil en contextos en los que se requiere una clasificación rápida y eficiente.
  • El análisis discriminante clasifica los datos mediante combinaciones lineales de características, asumiendo que los diferentes conjuntos de datos tienen distribuciones gaussianas. Este método es apreciado por su simplicidad y facilidad de interpretación.
  • Los árboles de decisión permiten predecir respuestas basándose en decisiones tomadas en un árbol estructurado, donde cada rama representa una condición de decisión. Este enfoque es intuitivo y fácil de interpretar, por lo que es una opción popular en diversas aplicaciones.

Algoritmos de regresión comunes

Los algoritmos de regresión son esenciales para predecir valores continuos.

  • La regresión lineal es una técnica que describe una variable de respuesta continua como una función lineal de una o más variables predictoras. Este modelo es fácil de interpretar y se utiliza frecuentemente como referencia para modelos más complejos. Su simplicidad y eficacia en contextos lineales lo convierten en una opción inicial para el análisis de datos.
  • La regresión no lineal se utiliza cuando los datos presentan tendencias no lineales significativas. Este enfoque permite modelar relaciones más complejas que no pueden ser capturadas por modelos lineales, lo que resulta útil en contextos donde las variables interactúan de manera no lineal.
  • El modelo de regresión de procesos gaussianos es un enfoque no paramétrico que se utiliza para predecir valores continuos y es común en el análisis espacial. Este método es especialmente valioso en contextos donde se requiere interpolación y se trabaja con datos que presentan incertidumbre.
  • La regresión SVM, similar a su contraparte de clasificación, busca un modelo que se desvíe de los datos medidos en la menor cantidad posible. Este enfoque es útil en contextos de alta dimensionalidad, donde se espera que haya un gran número de variables predictoras.
  • El modelo lineal generalizado se utiliza cuando las variables de respuesta tienen distribuciones no normales, lo que permite abordar una variedad de situaciones en las que no se cumplen los supuestos de la regresión lineal.
  • Los árboles de regresión son una adaptación de los árboles de decisión que permiten predecir respuestas continuas, por lo que son útiles en contextos donde se requiere una interpretación clara y rápida.

Mejora de modelos

La mejora de un modelo implica aumentar su precisión y capacidad predictiva, así como prevenir el sobreajuste, que ocurre cuando un modelo se ajusta demasiado a los datos de entrenamiento y pierde capacidad de generalización. Este proceso incluye la ingeniería de características, que abarca la selección y transformación de variables, y la optimización de hiperparámetros, que busca identificar el conjunto de parámetros que mejor se ajustan al modelo.

  • La selección de características es un aspecto crítico en el aprendizaje supervisado, especialmente en conjuntos de datos de alta dimensión. Este proceso permite identificar las variables más relevantes para la predicción, lo que no solo mejora la precisión del modelo, sino que también reduce el tiempo de entrenamiento y la complejidad del mismo. Entre las técnicas de selección de características se encuentran la regresión por pasos, que implica agregar o eliminar características de manera secuencial, y la regularización, que utiliza estimadores de reducción para eliminar características redundantes.
  • La transformación de características es otra estrategia importante que busca mejorar la representación de los datos. Técnicas como el análisis de componentes principales (PCA) permiten realizar transformaciones lineales en los datos, que capturan la mayor parte de la varianza en un número reducido de componentes. Esto resulta útil en contextos donde se trabaja con datos de alta dimensionalidad, ya que facilita la visualización y el análisis.
  • La optimización de hiperparámetros es un proceso iterativo que busca encontrar los valores óptimos para los parámetros del modelo. Este proceso puede llevarse a cabo mediante métodos como la optimización bayesiana, la búsqueda en cuadrícula y la optimización basada en gradientes. Un modelo bien ajustado puede superar a un modelo complejo que no ha sido optimizado adecuadamente, lo que subraya la importancia de este proceso en el desarrollo de modelos efectivos.

Aplicaciones del aprendizaje supervisado en ingeniería civil

  • Predicción de fallos estructurales: los modelos de aprendizaje supervisado se utilizan para predecir fallos en estructuras como puentes y edificios. Al analizar datos históricos de inspecciones y condiciones ambientales, es posible identificar patrones que indiquen un posible fallo estructural. Esto permite a los ingenieros realizar mantenimientos preventivos y mejorar la seguridad de las infraestructuras.
  • Optimización de recursos en construcción: en la planificación de proyectos, el aprendizaje supervisado optimiza el uso de recursos como, por ejemplo, materiales y mano de obra. Al predecir la demanda de recursos en función de variables como el clima y la evolución del proyecto, es posible reducir costes y mejorar la eficiencia.
  • Análisis de riesgos: los modelos de aprendizaje supervisado son útiles para evaluar riesgos en proyectos de ingeniería civil. Al analizar datos sobre desastres naturales, como inundaciones y terremotos, se pueden identificar zonas vulnerables y desarrollar estrategias de mitigación eficaces.
  • Control de infraestructuras: la incorporación de sensores en infraestructuras permite la recolección de datos en tiempo real. Los algoritmos de aprendizaje supervisado pueden analizar estos datos para detectar anomalías y prever el mantenimiento necesario, lo que contribuye a la sostenibilidad y durabilidad de las estructuras.

Por tanto, el aprendizaje supervisado se está consolidando como una herramienta esencial en ingeniería civil, ya que ofrece soluciones innovadoras para predecir, optimizar y controlar infraestructuras. Su capacidad para analizar grandes volúmenes de datos y ofrecer información valiosa está transformando la forma en que se gestionan los proyectos en este ámbito.

Os dejo un mapa mental acerca del aprendizaje supervisado.

También os dejo unos vídeos al respecto. Espero que os sean de interés.

Referencias

  1. Garcia, J., Villavicencio, G., Altimiras, F., Crawford, B., Soto, R., Minatogawa, V., Franco, M., Martínez-Muñoz, D., & Yepes, V. (2022). Machine learning techniques applied to construction: A hybrid bibliometric analysis of advances and future directions. Automation in Construction142, 104532.
  2. Kaveh, A. (2024). Applications of artificial neural networks and machine learning in civil engineering. Studies in computational intelligence1168, 472.
  3. Khallaf, R., & Khallaf, M. (2021). Classification and analysis of deep learning applications in construction: A systematic literature review. Automation in construction129, 103760.
  4. Mostofi, F., & Toğan, V. (2023). A data-driven recommendation system for construction safety risk assessment. Journal of Construction Engineering and Management149(12), 04023139.
  5. Naderpour, H., Mirrashid, M., & Parsa, P. (2021). Failure mode prediction of reinforced concrete columns using machine learning methods. Engineering Structures248, 113263.
  6. Reich, Y. (1997). Machine learning techniques for civil engineering problems. Computer‐Aided Civil and Infrastructure Engineering12(4), 295-310.
  7. Thai, H. T. (2022). Machine learning for structural engineering: A state-of-the-art review. In Structures (Vol. 38, pp. 448-491). Elsevier.

Descargar (PDF, 1.52MB)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Introducción a la teoría de juegos

https://upload.wikimedia.org/wikipedia/

La teoría de juegos es un área de las matemáticas aplicadas que utiliza modelos para estudiar interacciones en estructuras formales de incentivos, es decir, los llamados «juegos».

Se ha convertido en una herramienta clave para la economía y la administración de empresas, ya que ayuda a entender mejor la conducta humana en la toma de decisiones.

Los investigadores analizan las estrategias óptimas, así como el comportamiento previsto y observado de los individuos en dichos juegos. Tipos de interacción aparentemente distintos pueden tener estructuras de incentivos similares, lo que permite representar el mismo juego una y otra vez.

La teoría de juegos estudia las estrategias óptimas de los jugadores, así como su comportamiento previsto y observado, y ha contribuido a una mejor comprensión de la toma de decisiones humana.

La teoría de juegos aborda situaciones de decisión en las que hay dos oponentes inteligentes con objetivos opuestos. Algunos ejemplos típicos son las campañas de publicidad para productos de la competencia y las estrategias bélicas entre ejércitos. Estas situaciones difieren de las estudiadas previamente, en las que no se tiene en cuenta a la naturaleza como oponente adverso.

El juego es un modelo matemático que se utiliza para entender la toma de decisiones y la interacción entre los participantes, siendo el «dilema del prisionero» uno de los más conocidos. En este escenario, dos personas son arrestadas y encarceladas, y se fija la fecha del juicio. El fiscal se entrevista con cada prisionero por separado y les ofrece la siguiente opción: si uno confiesa y el otro no, el que confiesa queda libre y el otro recibe 20 años de prisión; si ambos confiesan, ambos cumplen 5 años; y si ninguno confiesa, ambos reciben 1 año de prisión. En este dilema, el destino de cada uno depende de la decisión del otro. Aunque confesar parece ser lo mejor, si ambos lo hacen, el castigo es peor que si guardan silencio.

https://www.bbc.com/mundo/noticias/2015/02/150220_teoria_de_juegos_que_es_finde_dv

La teoría de juegos se ha desarrollado y formalizado a partir de los trabajos de John von Neumann y Oskar Morgenstern, especialmente durante la Guerra Fría, debido a su aplicación en la estrategia militar. Los principales conceptos de la teoría de juegos incluyen los juegos de suma cero, los juegos de suma no cero, los equilibrios de Nash, los juegos cooperativos y los juegos de información perfecta e imperfecta.

En la teoría de juegos existen conceptos fundamentales para entender las interacciones estratégicas entre los agentes. Algunos de ellos son:

  • Estrategia: conjunto de acciones posibles que un jugador puede llevar a cabo en un juego. Las estrategias pueden ser puras (una acción única) o mixtas (una distribución de probabilidad sobre varias acciones).
  • Equilibrio de Nash: situación en la que ningún jugador tiene incentivos para cambiar su estrategia, dado el conjunto de estrategias de los demás. Es un concepto clave que describe una situación estable en la que las decisiones de los jugadores están equilibradas.
  • Juego de suma cero: tipo de juego en el que la ganancia total es constante, es decir, lo que uno gana, otro lo pierde. En estos juegos, el objetivo es maximizar la ganancia propia a expensas de los demás jugadores.

La matriz de recompensas es una herramienta clave en la teoría de juegos que representa las combinaciones de decisiones de los jugadores. Muestra los resultados, generalmente en forma de recompensas, para cada jugador según las decisiones de todos los participantes. Es decir, describe cómo las elecciones de cada jugador afectan a sus pagos o beneficios según las decisiones de los demás.

En un conflicto de este tipo hay dos jugadores, cada uno con una cantidad (finita o infinita) de alternativas o estrategias. Cada par de estrategias tiene una recompensa que un jugador paga al otro. A estos juegos se les llama de suma cero, ya que la ganancia de un jugador es igual a la pérdida del otro. Si los jugadores se representan por A y B, con m y n estrategias respectivamente, el juego se suele ilustrar con la matriz de recompensas para el jugador A.

La representación indica que si A usa la estrategia i y B usa la estrategia j, la recompensa para A es aij, y entonces la recompensa para B es —aij.

Aquí os dejo un esquema conceptual sobre la teoría de juegos.

Os dejo unos vídeos explicativos, que espero, os sea de interés:

En este vídeo se presentan los conceptos fundamentales de la teoría de juegos, que estudia cómo las decisiones de varios jugadores están interconectadas en situaciones estratégicas. A través de ejemplos visuales como matrices y árboles de decisión, se explica cómo los jugadores eligen estrategias para maximizar su utilidad teniendo en cuenta las acciones de los demás. Se destaca la importancia de entender los pagos y resultados de cada estrategia, lo que permite analizar comportamientos competitivos y cooperativos en diversos contextos.

En este otro vídeo se explican distintos tipos de juegos en teoría de juegos, como el dilema del prisionero, el juego del gato y el ratón y la batalla de los sexos, y se destacan sus equilibrios de Nash y las estrategias cooperativas o no cooperativas.

Referencias:

  • Binmore, K. (1994). Teoría de juegos. McGraw-Hill.
  • Friedman, J. W. (1991). Teoría de juegos con aplicaciones a la economía. Alianza Universidad.
  • Kreps, D. M. (1994). Teoría de juegos y modelación económica. Fondo de Cultura Económica.
  • Martínez-Muñoz, D., Martí, J. V., & Yepes, V. (2025). Game theory-based multi-objective optimization for enhancing environmental and social life cycle assessment in steel-concrete composite bridges. Mathematics, 13(2), 273. https://doi.org/10.3390/math13020273
  • Meyerson, R. (1991). Game theory: Analysis of conflict. Harvard University Press.
  • Nash, J. (1950). Equilibrium points in n-person games. Proceedings of the National Academy of the USA, 36(1), 48-49.
  • Poundstone, W. (1992). Prisoner’s dilemma: John von Neumann, game theory, and the puzzle of the bomb. Doubleday.

Licencia de Creative Commons

Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Fases de un estudio de investigación operativa

La investigación operativa busca determinar la solución óptima para un problema de decisión con recursos limitados. Se trata de un procedimiento científico que analiza las actividades de un sistema de organización.

Las principales componentes de un modelo de investigación operativa son: alternativas, restricciones y un criterio objetivo para elegir la mejor opción. Las alternativas se representan como variables desconocidas que luego se utilizan para construir las restricciones y la función objetivo mediante métodos matemáticos. El modelo matemático establece la relación entre estas variables, restricciones y función objetivo. La solución consiste en asignar valores a las variables para optimizar (maximizar o minimizar) la función objetivo y cumplir con las restricciones. A esta solución se le denomina solución posible óptima.

El enfoque del estudio de la ingeniería de operaciones está relacionado con la toma de decisiones para aprovechar al máximo los recursos limitados. Para ello, utiliza herramientas y modelos adaptados a las necesidades para facilitar la toma de decisiones en la resolución de problemas. Implica un trabajo en equipo entre analistas y clientes, con una estrecha colaboración. Los analistas aportan conocimientos de modelado y el cliente, experiencia y cooperación.

Como herramienta para la toma de decisiones, la investigación de operaciones combina ciencia y arte. Es ciencia por sus técnicas matemáticas y arte, porque el éxito en todas las fases, antes y después de resolver el modelo matemático, depende de la creatividad y experiencia del equipo. La práctica efectiva de la investigación de operaciones requiere más que competencia analítica, e incluye la capacidad de juzgar cuándo y cómo utilizar una técnica, así como habilidades de comunicación y adaptación organizativa.

Es complicado recomendar acciones específicas, como las de la teoría precisa de los modelos matemáticos, para abordar factores intangibles. Solo pueden ofrecerse directrices generales para aplicar la investigación de operaciones en la práctica.

El estudio de investigación operativa consta de varias etapas principales, entre las que destacan las siguientes:

  1. Formulación y definición del problema.
  2. Construcción del modelo.
  3. Solución del modelo.
  4. Verificación del modelo y de la solución.
  5. Puesta en práctica y mantenimiento de la solución.

Aunque las fases del proyecto suelen iniciarse en el orden establecido, no suelen completarse en el mismo orden. La interacción entre las fases requiere revisarlas y actualizarlas continuamente hasta la finalización del proyecto. La tercera fase es la única de carácter puramente matemático, ya que en ella se aplican las técnicas y teorías matemáticas necesarias para resolver el problema. El éxito de las demás etapas depende más de la práctica que de la teoría, siendo la experiencia el factor clave para su correcta ejecución.

Definir el problema implica determinar su alcance, tarea que lleva a cabo todo el equipo de investigación de operaciones. El resultado final debe identificar tres elementos principales: 1) descripción de las alternativas de decisión, 2) determinación del objetivo del estudio y 3) especificación de las restricciones del sistema modelado. Además, se deben recolectar los datos necesarios.

La formulación del modelo es quizá la fase más delicada del proceso, ya que consiste en traducir el problema a relaciones matemáticas. Si el modelo se ajusta a un modelo matemático estándar, como la programación lineal, puede resolverse con los algoritmos correspondientes. Para ello, deben definirse las variables de decisión, la función objetivo y las restricciones. Si las relaciones son demasiado complejas para una solución analítica, se puede simplificar el modelo mediante un método heurístico o recurrir a una simulación aproximada. En algunos casos, puede ser necesaria una combinación de modelos matemáticos, simulaciones y heurísticas para resolver el problema de toma de decisiones.

La solución del modelo es la fase más sencilla de la investigación de operaciones, ya que utiliza algoritmos de optimización bien definidos para encontrar la solución óptima. Un aspecto clave es el análisis de sensibilidad, que proporciona información sobre la forma en que la solución óptima responde a cambios en los parámetros del modelo. Esto es crucial cuando los parámetros no se pueden estimar con precisión, puesto que permite estudiar cómo varía la solución cerca de los valores estimados.

La validación del modelo verifica si cumple su propósito, es decir, si predice adecuadamente el comportamiento del sistema estudiado. Para ello, se evalúa si la solución tiene sentido y si los resultados son aceptables, comparando la solución con datos históricos para verificar si habría sido la correcta. Sin embargo, esto no garantiza que el futuro imite al pasado. Si el modelo representa un sistema nuevo sin datos históricos, se puede usar una simulación como herramienta independiente para comprobar los resultados del modelo matemático.

La implantación de la solución de un modelo validado consiste en traducir los resultados en instrucciones claras para quienes gestionarán el sistema recomendado. Esta tarea recae principalmente en el equipo de investigación de operaciones. En esta fase, el equipo debe capacitar al personal encargado de aplicar el modelo, asegurándose de que puedan traducir sus resultados en instrucciones de operación y usarlo correctamente para tomar decisiones sobre los problemas que motivaron su creación.

Os dejo algún vídeo al respecto.

Referencias:

Altier, W. J. (1999). The thinking manager’s toolbox: Effective processes for problem solving and decision making. Oxford University Press.

Checkland, P. (1999). Systems thinking, system practice. Wiley.

Evans, J. (1991). Creative thinking in the decision and management sciences. South-Western Publishing.

Gass, S. (1990). Model world: Danger, beware the user as a modeler. Interfaces, 20(3), 60-64.

Morris, W. (1967). On the art of modeling. Management Science, 13, B707-B717.

Paulos, J. A. (1988). Innumeracy: Mathematical illiteracy and its consequences. Hill and Wang.

Taha, H. A., & Taha, H. A. (2003). Operations research: an introduction (Vol. 7). Upper Saddle River, NJ: Prentice hall.

Willemain, T. R. (1994). Insights on modeling from a dozen experts. Operations Research, 42(2), 213-222.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Hardy Cross

Hardy Cross (1885-1959). https://distributedmuseum.illinois.edu/exhibit/hardy_cross/

Hardy Cross fue un ingeniero de estructuras estadounidense que nació el 10 de febrero de 1885 en la plantación familiar ubicada en el condado de Nansemond, cerca del Gran Pantano Dismal, en Virginia. Falleció el 11 de febrero de 1959, en Virginia Beach (Virginia, EE. UU.).

Tanto él como su hermano, Tom Peete, se educaron en la Norfolk Academy de Norfolk, Virginia. Posteriormente, ambos ingresaron en el Hampden-Sydney College, donde Cross obtuvo sus títulos de Bachelor of Arts (B.A.) en 1902 y Bachelor of Science (B.S.) en 1903, antes de cumplir los 18 años.

Durante los tres años siguientes, enseñó inglés y matemáticas en la Academia Norfolk. A la edad de tan solo 23 años, consiguió un Bachelor of Science en ingeniería civil en el Instituto Tecnológico de Massachusetts (M.I.T.), donde se graduó en Ingeniería Civil en tan solo dos años. En 1911, la Universidad de Harvard le otorgó el título de máster en ingeniería civil.

Entonces comenzó su carrera como docente. Su primer nombramiento fue en la Universidad de Brown, donde enseñó durante siete años, entre 1911 y 1918. Fuera del aula, trabajó como ingeniero de puentes para el Missouri Pacific Railroad, colaborando con destacados consultores en ingeniería civil especializados en estructuras e ingeniería hidráulica. Además, en 1920 trabajó como ingeniero asistente para Charles T. Main. Tras un breve regreso a la práctica de la ingeniería en general, en 1921 aceptó un puesto como profesor de ingeniería estructural en la Universidad de Illinois en Urbana-Champaign. Desde 1937 hasta obtener el estatus de profesor emérito en 1951, enseñó e investigó en la Universidad de Yale, donde también fue jefe del Departamento de Ingeniería Civil.

Como docente, Hardy Cross fue un firme defensor de los exámenes orales para los candidatos a grados avanzados y participaba frecuentemente en debates sobre esta cuestión. Insistió en la gran responsabilidad individual de los profesores y en su desprecio por lo superficial en la enseñanza. Escribió el libro “Ingenieros y torres de marfil”, donde aborda magistralmente temas relacionados con la enseñanza y el ejercicio de la ingeniería civil.

Recibió numerosos reconocimientos. Entre ellos, destacan el grado honorífico de Maestro de Artes de la Universidad de Yale, la medalla Lamme de la Sociedad Americana para la Educación en Ingeniería (1944), la medalla Wason del Instituto Americano del Hormigón (1935) y la medalla de oro del Instituto de Ingenieros Estructurales de Gran Bretaña (1959).

En la edición de mayo de 1930 de los Proceedings of the American Society of Civil Engineers (ASCE), Hardy Cross resolvió un problema aparentemente irresoluble de la teoría de estructuras. Su genialidad radicó en calcular sistemas estáticamente indeterminados mediante un método iterativo que utilizaba la forma más sencilla de aritmética (Cross, 1930).

El método de Cross era ideal para analizar sistemas con un alto grado de indeterminación estática, como suele ocurrir en el diseño de edificios de gran altura. Con este aporte, Cross puso fin a la búsqueda que había caracterizado la fase de aplicación de la teoría de estructuras: encontrar métodos de cálculo adecuados para resolver sistemas con elevada indeterminación estática de forma racional.

El método de Cross no solo marcó el inicio de una algoritmización sin precedentes del análisis estructural en el siglo XX, sino que también llevó la racionalización de los cálculos estructurales a un nuevo nivel. Por tanto, no es de extrañar que tras su trabajo apareciera una avalancha de extensos artículos de discusión en las Transactions de la ASCE (Cross, 1932). Su ingenioso método iterativo provocó que innumerables ingenieros, incluso durante la fase de innovación de la teoría de estructuras, describieran y desarrollaran aún más el método de Cross. Nunca antes un artículo en el campo de la teoría de estructuras había generado un debate tan amplio. En su trabajo, Cross proponía abandonar las soluciones exactas de la teoría de estructuras y sustituirlas por un enfoque más cercano a la realidad. Favorecía los métodos de análisis estructural que combinaran una precisión aceptable con cálculos rápidos.

El progreso infinito (en el sentido del valor límite) inherente a los símbolos de la teoría formalizada del cálculo diferencial e integral fue reemplazado por el progreso finito del trabajo del calculista. Solo era cuestión de tiempo antes de que este trabajo se mecanizara. Pocos años después, Konrad Zuse (1910-1995) utilizaría una máquina similar: la «máquina de cálculo del ingeniero» (Zuse, 1936).

El método de Cross, también conocido como método de distribución de momentos, se concibió para el cálculo de grandes estructuras de hormigón armado. Este método se utilizó con frecuencia entre 1935 y 1960, momento en que fue sustituido por otros métodos. Gracias a él, fue posible diseñar de manera eficiente y segura un gran número de construcciones de hormigón armado durante una generación entera.

Cross representa un enfoque tipo Henry Ford en la producción de cálculos estructurales durante la transición al periodo de integración de dicha teoría. No es de extrañar que se publicaran innumerables trabajos sobre su método hasta bien entrada la década de 1960.

De hecho, se ha escrito tanto sobre este tema que fácilmente llenaría la biblioteca privada de tamaño medio de cualquier académico. Además, el método de Cross no se limitó a la teoría de estructuras, sino que fue rápidamente adoptado en disciplinas como la construcción naval y el diseño de aeronaves.

El propio Cross trasladó la idea básica de su método iterativo al cálculo de flujos estacionarios en sistemas de tuberías, dando origen al «método Hardy-Cross», lo que supuso un avance fenomenal en este ámbito. Los reconocimientos que recibió a lo largo de su carrera son innumerables.

Principales contribuciones a la teoría de estructuras:

  • Analysis of continuous frames by distributing fixed-end moments [1930].
  • Analysis of continuous frames by distributing fixed-end moments [1932/1].
  • Continuous Frames of Reinforced Concrete [1932/2].
  • Analysis of continuous frames by distributing fixed-end moments [1949].
  • Engineers and Ivory Towers [1952].
  • Arches, Continuous Frames, Columns and Conduits: Selected Papers of Hardy Cross [1963].

Teoría de juegos aplicada a la optimización multiobjetivo de puentes mixtos

Acaban de publicar nuestro artículo en la revista del primer decil del JCR Mathematics. El artículo presenta un método innovador para optimizar el diseño de puentes mixtos de acero y hormigón mediante un enfoque basado en la teoría de juegos. Este enfoque integra criterios de sostenibilidad económica, ambiental y social con la simplicidad constructiva, abordando de manera simultánea múltiples objetivos que suelen ser conflictivos en proyectos de infraestructura. La principal contribución radica en la aplicación de un método de optimización multiobjetivo (MOO) que permite equilibrar los tres pilares de la sostenibilidad, empleando el Análisis del Ciclo de Vida (LCA) para evaluar el impacto durante todo el ciclo de vida del puente, desde su fabricación hasta su desmantelamiento.

Destaca la implementación de una versión discreta del algoritmo Seno-Coseno (SCA), adaptada específicamente para resolver problemas de diseño estructural. Esta metodología no solo garantiza un diseño eficiente en términos de coste y sostenibilidad, sino que también proporciona una solución práctica que facilita la construcción al reducir los refuerzos en las losas superiores y realizar ajustes geométricos estratégicos. Este enfoque supone un avance en el campo de la ingeniería civil, ya que combina técnicas matemáticas avanzadas con consideraciones prácticas del sector. Este trabajo se enmarca dentro del proyecto de investigación RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València.

La metodología descrita combina la teoría de juegos con un enfoque cooperativo, en el que los diferentes objetivos (coste, impacto ambiental, impacto social y facilidad constructiva) se representan como «jugadores». Estos jugadores colaboran para encontrar soluciones óptimas dentro del conjunto de soluciones Pareto-óptimas, utilizando el concepto de equilibrio de Nash y reglas de negociación.

El algoritmo Seno-Coseno (SCA) modificado desempeña un papel fundamental en este proceso, ya que permite gestionar variables discretas y restricciones estructurales mediante funciones de transferencia en forma de tangente hiperbólica. Además, se emplea la teoría de la entropía para asignar pesos objetivos, lo que asegura un equilibrio justo entre los criterios y minimiza la subjetividad en la toma de decisiones.

Los resultados muestran que la metodología basada en la teoría de juegos permite reducir el refuerzo de las losas superiores del puente y optimizar el uso de materiales sin comprometer la resistencia estructural. En comparación con un enfoque de optimización monoobjetivo centrado exclusivamente en costes, el método propuesto aumenta los costes en un 8,2 %, pero mejora sustancialmente los impactos ambientales y sociales asociados al diseño.

El estudio revela que, mediante la redistribución del material estructural, es posible mantener la rigidez necesaria en las secciones transversales del puente. En concreto, se observa un aumento en el uso de acero estructural en lugar de acero de refuerzo, lo que simplifica la construcción al reducir la cantidad de barras necesarias y, por ende, el tiempo de instalación y vibrado del hormigón. Este cambio también contribuye a mejorar la calidad del producto final, ya que reduce los errores constructivos y optimiza el tiempo de ejecución.

El análisis demuestra que las soluciones obtenidas mediante métricas de distancia Minkowski (L1, L2 y L∞) proporcionan diseños equilibrados que logran compromisos efectivos entre coste, sostenibilidad y facilidad constructiva. Estas soluciones son comparables a estudios previos en términos de costes, pero ofrecen beneficios adicionales al incluir una evaluación más integral de los impactos sociales y ambientales.

El enfoque presentado abre la puerta a diversas áreas de investigación. Una línea de investigación prometedora es la aplicación de algoritmos híbridos que combinen la teoría de juegos con otras metaheurísticas, como redes neuronales o algoritmos genéticos, para mejorar la exploración y explotación del espacio de soluciones. Esto podría reducir el tiempo de computación y permitir su aplicación a problemas más complejos.

Otra posible dirección de investigación sería ampliar el modelo para incluir criterios como la resiliencia ante desastres naturales o la evaluación de riesgos a largo plazo. También se podría explorar la incorporación de nuevos indicadores sociales, como el impacto en las comunidades locales durante la construcción y operación del puente, lo que ampliaría la evaluación de sostenibilidad. Asimismo, sería interesante aplicar esta metodología a otros tipos de estructuras, como edificios o infraestructuras de transporte masivo, para evaluar su viabilidad y adaptar el enfoque a diferentes contextos.

En definitiva, el artículo proporciona una herramienta muy valiosa para abordar los desafíos de sostenibilidad y eficiencia en el diseño de infraestructuras civiles. La combinación de la teoría de juegos y la optimización multiobjetivo es efectiva para equilibrar criterios complejos y conflictivos, y ofrece soluciones prácticas, sostenibles y viables desde el punto de vista económico y constructivo. Aunque computacionalmente intensivo, este enfoque establece una base sólida para futuras investigaciones y aplicaciones en el campo de la ingeniería civil, lo que permite avanzar en la evaluación integral de la sostenibilidad y en la mejora de los procesos de diseño estructural.

Referencia:

MARTÍNEZ-MUÑOZ, D.; MARTÍ, J.V.; YEPES, V. (2025). Game Theory-Based Multi-Objective Optimization for Enhancing Environmental and Social Life Cycle Assessment in Steel-Concrete Composite Bridges. Mathematics, 13(2):273. DOI:10.3390/math13020273

Os dejo a continuación el artículo completo, pues se ha pbulicado en abierto.

Descargar (PDF, 1.44MB)

Estimación de la velocidad de barrido en la perforación rotativa con triconos

Tricono con insertos. https://www.talleresegovia.com

La perforación rotativa con triconos se ha tratado en artículos anteriores. Se trata de uno de los procedimientos más extendidos y consiste en equipos grandes capaces de ejercer empujes elevados sobre la boca. En este artículo se explicará un procedimiento para calcular la velocidad de barrido.

El aire comprimido enfría y lubrica los cojinetes del tricono, limpia el fondo del barreno y eleva el detrito a la velocidad adecuada para el ascenso.

El aire circula desde el compresor hasta el mástil mediante un tubo y una manguera flexible protegida, pasando por la cabeza de rotación. A continuación, entra en la barra de perforación y llega a la boca, donde sale entre los conos, arrastrando los detritos y llevándolos a la superficie.

Si los fragmentos son grandes y el caudal de aire es insuficiente, vuelven al fondo y se remueven hasta alcanzar el tamaño adecuado. Esto genera un consumo innecesario de energía, una menor velocidad de penetración y un mayor desgaste de la boca. Por otro lado, una velocidad ascensional excesiva incrementa el desgaste del centralizador y de las barras de perforación.

A continuación se ofrece un nomograma original elaborado por el profesor Pedro Martínez Pagán para estimar la velocidad de barrido de perforación de un equipo rotary (Instituto Tecnológico Geominero de España, 1994).

 

Esta expresión incorpora la corrección por altura geográfica que hay que hacerle al caudal que proporciona un compresor por la pérdida que sufre:

Referencias:

  • DIRECCIÓN GENERAL DE CARRETERAS (1998). Manual para el control y diseño de voladuras en obras de carreteras. Ministerio de Fomento, Madrid, 390 pp.
  • INSTITUTO TECNOLÓGICO GEOMINERO DE ESPAÑA (1994). Manual de perforación y voladura de rocas. Serie Tecnológica y Seguridad Minera, 2ª Edición, Madrid, 541 pp.
  • UNIÓN ESPAÑOLA DE EXPLOSIVOS (1990). Manual de perforación. Rio Blast, S.A., Madrid, 206 pp.
  • YEPES, V. (2014). Maquinaria para sondeos y perforaciones. Apuntes de la Universitat Politècnica de València, Ref. 209. Valencia, 89 pp.
  • YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Norma ISO 15686-5 sobre los costes del ciclo de vida de edificios y construcciones

https://blog.deltoroantunez.com/2024/02/calculo-ciclo-vida-construccion.html

La norma ISO 15686-5 proporciona un marco completo para planificar la vida útil de los edificios y construcciones, y para calcular su coste total a lo largo de su vida útil. Establece los principios rectores, las definiciones y las instrucciones necesarias para realizar predicciones coherentes del CCV y evaluaciones del rendimiento a lo largo de la vida útil del activo.

La versión actual de 2017 se centra en establecer directrices claras y detalladas para llevar a cabo análisis de costes del ciclo de vida (LCC, por sus siglas en inglés). Este enfoque permite evaluar de manera sistemática los costes asociados a un activo desde su adquisición hasta su disposición final. Además, la norma contempla la posibilidad de incluir ingresos generados y externalidades que puedan influir en la evaluación económica. Al promover la utilización de metodologías estandarizadas, se garantiza la coherencia de los resultados y se establece una base sólida para la toma de decisiones fundamentadas.

La norma también hace hincapié en la utilidad del LCC para comparar diferentes alternativas de diseño y construcción, y permite a los gestores identificar opciones que optimicen tanto los costes iniciales como los recurrentes a lo largo del tiempo. Las metodologías propuestas son aplicables a nivel de cartera, proyectos específicos o componentes individuales, dependiendo del alcance definido.

Alcance y objetivos de la norma

La norma establece los requisitos para identificar y evaluar todos los costes relevantes a lo largo del ciclo de vida de un activo construido. Esto incluye desde los costes iniciales de adquisición hasta los relacionados con la operación, el mantenimiento, la sustitución de componentes y la disposición final. Además, abarca los siguientes aspectos:

  • Consideración de variables económicas, como tasas de descuento, inflación y fluctuaciones en los precios.
  • Evaluación de la sostenibilidad económica y ambiental mediante la inclusión de externalidades.
  • Provisión de un marco que facilite la comparación de alternativas en términos de coste total y rendimiento a largo plazo.

La norma es particularmente útil en contextos donde los periodos de análisis pueden extenderse por décadas, como en edificios públicos o activos con vidas útiles prolongadas.

Principios fundamentales del LCC

El análisis del ciclo de vida tiene como objetivo proporcionar una evaluación detallada y cuantitativa de los costes asociados a un activo construido para apoyar la toma de decisiones estratégicas en cada etapa del proyecto. Algunos de los principios clave son los siguientes:

  1. Identificación integral de costes: El LCC tiene en cuenta todos los costes relevantes, tanto directos como indirectos y externalidades, para garantizar que no se pasen por alto factores críticos.
  2. Proyecciones realistas: Se incorporan tasas de descuento, inflación y cambios previstos en las tecnologías para obtener estimaciones precisas y adaptadas al contexto.
  3. Flexibilidad en el alcance: Permite adaptarse a diferentes niveles de análisis, desde el global hasta el nivel de componentes individuales.
  4. Apoyo en la toma de decisiones: Proporciona datos útiles para comparar alternativas y seleccionar opciones que maximicen el rendimiento económico y funcional.

Detalle de las variables de coste

La norma especifica que el análisis LCC debe abordar una amplia gama de costes, agrupados en las siguientes categorías:

  • Costes de adquisición: Incluyen los gastos iniciales asociados con la compra, el diseño, la adaptación, las aprobaciones regulatorias, la construcción y la puesta en marcha. Estos costes suelen representar la mayor parte de la inversión inicial.
  • Costes operativos: Gastos recurrentes relacionados con la administración, los seguros, la energía, los servicios públicos y las tasas. Representan un componente significativo a lo largo de la vida útil del activo.
  • Costes de mantenimiento: Comprenden actividades preventivas, correctivas y diferidas, así como inspecciones periódicas. Estos costes son esenciales para garantizar el funcionamiento del activo conforme a los requisitos establecidos.
  • Costes de reemplazo: Relacionados con la sustitución de componentes o sistemas importantes. Estos costes pueden variar significativamente según el tipo de activo y las condiciones de operación.
  • Costes de eliminación: Incluyen demoliciones, reciclaje, reutilización de materiales y eliminación de desechos. Este componente también puede generar ingresos por la venta de materiales recuperables.

Aplicación práctica del LCC

La norma describe cómo el LCC puede integrarse en diversas etapas del ciclo de vida del proyecto:

  1. Planificación inicial: en esta fase se llevan a cabo evaluaciones estratégicas para determinar la viabilidad de diferentes opciones de adquisición o desarrollo de activos. Se tienen en cuenta factores como la duración prevista de uso y los requisitos del cliente.
  2. Diseño y construcción: durante esta etapa, el LCC ayuda a seleccionar materiales, tecnologías y diseños que optimicen los costes futuros. Hasta el 80 % de los costes de operación y mantenimiento pueden definirse en esta fase.
  3. Operación y mantenimiento: el análisis LCC permite gestionar de manera eficiente los recursos y planificar el mantenimiento necesario para prolongar la vida útil del activo.
  4. Disposición final: se evalúan los costes e ingresos asociados al final de la vida útil del activo, incluyendo el reciclaje o la reutilización de componentes.

Metodologías recomendadas

La metodología descrita en la norma ISO 15686-5 hace hincapié en un enfoque sistemático para la asignación de recursos, centrándose en su uso eficiente para alcanzar los objetivos de la organización. Este marco ayuda a evaluar los distintos procesos de asignación empleados por diversas organizaciones y facilita debates estructurados sobre cuestiones relacionadas con los recursos. La naturaleza iterativa del proceso permite la mejora continua y permite a los responsables de la toma de decisiones reevaluar sus estrategias en función de los datos y resultados que vayan surgiendo.

Para abordar las incertidumbres inherentes al análisis a largo plazo, la norma recomienda técnicas como:

  • Análisis de sensibilidad: Permite evaluar cómo los cambios en variables clave afectan los resultados.
  • Método Monte Carlo: Simula diferentes escenarios para estimar rangos de coste probables.
  • Valor actual neto (VAN): Proporciona una base para comparar los costes futuros en términos de su valor actual.

Beneficios del LCC en la toma de decisiones

El cálculo del coste del ciclo de vida (CCV) proporciona una evaluación económica sistemática de los costes de un activo a lo largo de todo su ciclo de vida, que abarca las fases de adquisición, explotación y eliminación. Esta metodología facilita la toma de decisiones informadas, ya que permite a las partes interesadas comprender no solo los costes de transacción iniciales, sino también las implicaciones financieras más amplias asociadas al activo a lo largo del tiempo, incluidos los costes y beneficios externos derivados de su uso.

La aplicación del cálculo del coste del ciclo de vida puede reportar importantes beneficios económicos. Las investigaciones indican que las organizaciones que utilizan normas para el análisis del CCV han obtenido ganancias valoradas entre el 0,15 % y el 5 % de los ingresos anuales por ventas. Estos ahorros se deben a una mejor asignación de recursos y a una mayor eficiencia operativa que surgen de la adopción de decisiones de inversión informadas. Por ejemplo, la identificación de externalidades potenciales, tanto positivas como negativas, puede dar lugar a un enfoque más holístico de la planificación financiera y la gestión de activos, lo que mejora en última instancia los resultados de la organización.

El uso del LCC aporta claridad y respaldo cuantitativo en la selección de alternativas. Esto es particularmente relevante en decisiones de inversión, donde el equilibrio entre costes iniciales y operativos es fundamental. Además, este enfoque fomenta la adopción de estrategias sostenibles al permitir una evaluación integral de los impactos económicos y ambientales.

Conclusión

La norma ISO 15686-5:2017 es una herramienta esencial para optimizar la gestión económica de los activos construidos. Al abordar con detalle todos los costes asociados y proporcionar metodologías claras para su análisis, esta norma permite una gestión más eficiente, sostenible y alineada con los objetivos a largo plazo. Su aplicación garantiza que cada etapa del ciclo de vida de un activo se considere y gestione de manera óptima.

Referencias:

Cadenazzi, T., Rossini, M., Nolan, S., Dotelli, G., Arrigoni, A., & Nanni, A. (2018). Resilience and economical sustainability of a FRP reinforced concrete bridge in Florida: LCC analysis at the design stage. In Life Cycle Analysis and Assessment in Civil Engineering: Towards an Integrated Vision (pp. 2913-2920). CRC Press.

Guaygua, B., Sánchez-Garrido, A., & Yepes, V. (2024). Life cycle assessment of seismic resistant prefabricated modular buildings. Heliyon, 10(20), e39458.

Kuda, F., & Berankova, E. W. (2014). EU Approaches to Unification of Methodologies for Determination of Building Object Life Cycle Costing. Advanced Materials Research1044, 1863-1867.

Navarro, I. J., Martí, J. V., & Yepes, V. (2019). Reliability-based maintenance optimization of corrosion preventive designs under a life cycle perspective. Environmental Impact Assessment Review, 74, 23-34.

Pons, J. J., Villalba Sanchis, I., Insa Franco, R., & Yepes, V. (2020). Life cycle assessment of railway track substructures: Comparison of ballast and ballastless rail tracks. Environmental Impact Assessment Review, 85, 106444.

Teichmann, M., Szeligova, N., & Kuda, F. (2019). Evaluation of operating costs in the life cycle of buildings. In Advances and Trends in Engineering Sciences and Technologies III (pp. 629-635). CRC Press.

Villalba, P., Sánchez-Garrido, A., & Yepes, V. (2024). Life cycle evaluation of seismic retrofit alternatives for reinforced concrete columns. Journal of Cleaner Production, 455, 142290.

Xie, H., Cui, Q., & Li, Y. (2022). Net Present Value Method: A Method Recommended by ISO 15686-5 for Economic Evaluation of Building Life Cycle Costs. World Journal of Engineering and Technology10(2), 224-229.