Harold M. Westergaard: el ingeniero que cimentó la teoría moderna de estructuras

Harold Malcolm Westergaard (1888 – 1950). https://sv.wikipedia.org/wiki/Harald_Westergaard

Harold Malcolm Westergaard (Copenhague, Dinamarca, 9 de octubre de 1888 – Cambridge, Massachusetts, Estados Unidos, 22 de junio de 1950) fue un ingeniero estructural danés cuya influencia en la teoría de estructuras y en el análisis del hormigón armado ha perdurado durante todo el siglo XX. Fue profesor de Mecánica Teórica y Aplicada en la Universidad de Illinois en Urbana y, posteriormente, de Ingeniería Civil en la Universidad de Harvard, donde llegó a ocupar el decanato de la Escuela de Posgrado de Ingeniería.

Westergaard nació en el seno de una familia profundamente vinculada al mundo académico. Su abuelo fue profesor de lenguas orientales en la Universidad de Copenhague y su padre, catedrático de economía y estadística en la misma institución. Esta herencia intelectual marcó su vocación científica desde joven. Estudió ingeniería en el Instituto Técnico de Copenhague (Danmarks Tekniske Højskole), donde trabajó bajo la dirección del destacado ingeniero civil Asger Ostenfeld, graduándose en 1911. Mantuvo contacto con su maestro hasta la muerte de este en 1931, conservando siempre una profunda admiración por su figura.

Tras finalizar sus estudios, Westergaard adquirió experiencia práctica en la construcción de estructuras de hormigón armado en Copenhague, Hamburgo y Londres. Después se mudó a Alemania, donde se impregnó del ambiente científico de la escuela de Göttingen, en torno a figuras como Felix Klein. Allí estudió bajo la dirección de Ludwig Prandtl, uno de los padres de la mecánica de fluidos moderna. En 1915, con la ayuda de August Föppl, preparó la edición escrita de su disertación doctoral en la Königlich Bayerische Technische Hochschule München (actual Universidad Técnica de Múnich). Sin embargo, la Primera Guerra Mundial interrumpió su proceso académico y no pudo defender su tesis hasta septiembre de 1921, ante Sebastian Finsterwalder y Ludwig Föppl. El reconocimiento oficial de su título de doctor ingeniero no llegaría hasta 1925, cuando su tesis doctoral fue finalmente publicada.

Durante esos años, Westergaard se trasladó a Estados Unidos con una beca de la American Scandinavian Foundation. En 1916 obtuvo el doctorado en la Universidad de Illinois en Urbana y, por recomendación de su mentor, Ostenfeld, fue nombrado profesor de mecánica teórica y aplicada en esa misma universidad. Su carrera académica fue ascendente: en 1921 fue ascendido a assistant professor, en 1924 a associate professor y en 1927 alcanzó la categoría de full professor.

La producción científica de Westergaard fue tan precoz como influyente. En 1920, publicó un estudio sobre la resistencia de materiales dúctiles sometidos a esfuerzos combinados en dos o tres direcciones perpendiculares. Al año siguiente, presentó un artículo sobre momentos y tensiones en losas de hormigón armado junto con William. A. Slater. Este trabajo pionero en su campo le valió la prestigiosa Medalla Wason del American Concrete Institute (ACI) en 1922. Ese mismo año, también publicó un estudio sobre el pandeo de estructuras elásticas que ampliaría más tarde con nuevos resultados teóricos.

A partir de 1923, comenzó a investigar la interacción entre los pavimentos de hormigón y el terreno de apoyo para la construcción de carreteras, campo en el que sus aportaciones se convirtieron en una referencia obligada. Entre 1925 y 1926, publicó varios artículos fundamentales sobre el cálculo de tensiones en pavimentos de hormigón, como Stress in concrete pavements, computed by theoretical analysis y Computation of stresses in concrete roads, que sentaron las bases de la normativa moderna para el diseño de firmes rígidos. En sus modelos, Westergaard representaba los pavimentos como losas delgadas elásticas sobre un lecho tipo Winkler, siguiendo la teoría de placas de Kirchhoff. Aunque años más tarde otros autores, como Losberg (1960) o Ioannides (1985), señalaron inconsistencias teóricas en sus ecuaciones, su modelo se mantuvo como el estándar de referencia durante décadas, incluso más allá de la «fase de innovación» de la teoría de estructuras (1950-1975).

Westergaard también se interesó por la aplicación del análisis estructural a problemas reales de ingeniería civil. En 1930, publicó One Hundred Years Advance in Structural Analysis, una obra histórica que se considera el primer estudio sistemático sobre la evolución de la teoría de estructuras en Estados Unidos. Ese mismo año elaboró un trabajo sobre losas de puentes sometidas a cargas móviles (Computation of stresses in bridge slabs due to wheel loads). En 1933 publicó su influyente estudio Water Pressures on Dams During Earthquakes, fruto de su labor como asesor técnico del Bureau of Reclamation de los Estados Unidos durante el diseño de la presa Hoover, una de las obras más emblemáticas de la ingeniería moderna.

En 1935, presentó una contribución teórica de gran profundidad: la General Solution of the Problem of Elastostatics in an n-Dimensional Homogeneous Isotropic Solid in an n-Dimensional Space, en la que ofreció una formulación general del problema de la elastostática en espacios de dimensión arbitraria. Poco después, en 1939, publicó dos trabajos clave: Bearing Pressures and Cracks, sobre las presiones de apoyo y la aparición de fisuras, y Stresses in Concrete Runways of Airports, en el que extendió sus investigaciones sobre pavimentos al ámbito aeroportuario.

En 1936 fue nombrado profesor Gordon McKay de Ingeniería Estructural en la Universidad de Harvard y entre 1937 y 1946 ejerció como decano de la Escuela de Posgrado de Ingeniería. Durante este periodo, se centró en los fundamentos teóricos de la mecánica, abordando cuestiones relacionadas con la mecánica de fractura, campo en el que sus estudios supusieron un hito. En 1942 publicó Stresses Concentration in Plates Loaded Over Small Areas y, en 1948, New Formulas for Stresses in Concrete Pavements of Airfields, obras que consolidaron su autoridad en el análisis estructural del hormigón.

Durante la Segunda Guerra Mundial, Westergaard sirvió como comandante del Cuerpo de Ingenieros Civiles de la Marina de Estados Unidos. También participó en la comisión encargada de evaluar los efectos estructurales de las bombas atómicas de Hiroshima y Nagasaki y contribuyó con su experiencia a la comprensión del comportamiento de las estructuras sometidas a cargas extremas.

En la primavera de 1949, comenzó a recopilar su extensa producción científica, que constaba de casi cuarenta artículos. A pesar de su grave enfermedad, logró completar la primera parte de su manuscrito sobre teoría de la elasticidad, que se publicó póstumamente en 1952 con el título Theory of Elasticity and Plasticity. Falleció el 22 de junio de 1950 en Cambridge, Massachusetts.

La muerte de Harold M. Westergaard supuso la pérdida de una de las figuras más brillantes e influyentes de la ingeniería estructural estadounidense en su etapa de gestación (1925-1950). Su colega Nathan Newmark lo describió como «una figura impresionante, intelectualmente brillante y físicamente fuerte. Amaba el arte y la música, y aunque era algo tímido, era cálido y atento con los demás».

Su legado científico es extenso y trascendente. Entre sus principales contribuciones destacan:

  • On the Resistance of Ductile Materials to Combined Stresses in Two or Three Directions Perpendicular to One Another (1920)
  • Moments and Stresses in Slabs (1921)
  • Buckling of Elastic Structures (1922)
  • Anwendung der Statik auf die Ausgleichsrechnung (1925)
  • Stress in Concrete Pavements Computed by Theoretical Analysis (1926/1)
  • Computation of Stresses in Concrete Roads (1926/2)
  • One Hundred Years Advance in Structural Analysis (1930/1)
  • Computation of Stresses in Bridge Slabs Due to Wheel Loads (1930/2)
  • Water Pressures on Dams During Earthquakes (1933)
  • General Solution of the Problem of Elastostatics in an n-dimensional Homogeneous Isotropic Solid in an n-dimensional Space (1935)
  • Bearing Pressures and Cracks (1939)
  • Theory of Elasticity and Plasticity (1952)

Harold Malcolm Westergaard fue, sin duda, un ingeniero con una amplitud intelectual poco común: un científico riguroso, un profesor inspirador y un hombre comprometido con su tiempo. Sus teorías, obras y visión interdisciplinar siguen siendo una referencia fundamental en la historia de la ingeniería estructural moderna.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Prohibieron la IA en sus clases de ingeniería. Ahora es su mejor herramienta para enseñar a pensar.

Introducción: El dilema de la IA en las aulas.

En los pasillos de la educación superior, un debate resuena con fuerza: ¿qué hacemos con la inteligencia artificial generativa (IAG)? Para muchos, herramientas como ChatGPT suponen una amenaza directa para el pensamiento crítico, ya que facilitan el plagio y fomentan la superficialidad académica. El temor es comprensible y está muy extendido.

Sin embargo, ¿y si el problema no fuera la herramienta, sino nuestra forma de reaccionar ante ella? El proyecto PROFUNDIA (acrónimo de PROFUNDo y autonomÍA) surge de esta cuestión, pero con un enfoque inesperado. Esta iniciativa de innovación educativa en ingeniería estructural no surgió de una prohibición teórica, sino de un problema práctico y urgente: el uso no regulado de la IA por parte de los estudiantes estaba deteriorando la calidad de su aprendizaje.

En lugar de intensificar la prohibición, este proyecto propone una solución radicalmente diferente. Este artículo explora los cuatro descubrimientos clave de un enfoque que busca transformar la IA de una amenaza en una de las herramientas pedagógicas más potentes.

Los 4 descubrimientos clave del proyecto PROFUNDIA

1. La cruda realidad es que el uso no supervisado de la IA estaba deteriorando el aprendizaje.

El proyecto PROFUNDIA no se basó en una hipótesis abstracta, sino que surgió de una necesidad urgente detectada en las aulas a partir del curso 2023-2024. El profesorado comenzó a observar un patrón preocupante en los trabajos de los estudiantes.

Las estadísticas internas confirmaron la sospecha: las encuestas revelaron que más del 60 % del alumnado ya utilizaba la IA para hacer sus trabajos. Sin embargo, el dato más alarmante era otro: solo el 25 % de ellos revisaba críticamente los resultados que la herramienta generaba.

La consecuencia fue una «notable disminución de la calidad técnica y argumentativa» de los proyectos. El problema era específico y grave: aunque la herramienta ofrecía soluciones funcionales, no podía verificar las hipótesis iniciales ni razonar la adecuación del modelo al contexto técnico. Los estudiantes dependían de la IA de forma acrítica, entregando trabajos con «errores conceptuales importantes» y debilitando su capacidad de razonamiento. Esto demostró que mirar hacia otro lado no era una opción, sino que era necesaria una intervención educativa guiada.

2. El cambio de paradigma: de la prohibición a la integración crítica.

Hasta entonces, la política en las asignaturas implicadas era clara: el uso de la IA «estaba explícitamente prohibido». Sin embargo, la realidad demostró que esta medida era ineficaz y contraproducente.

En lugar de librar una batalla perdida contra una tecnología omnipresente, el proyecto PROFUNDIA optó por un cambio de 180 grados: integrarla de forma «explícita, guiada y crítica». La nueva filosofía consistía en enseñar a los estudiantes a utilizar la herramienta de manera inteligente en lugar de ignorarla.

La esencia de este nuevo paradigma se resume en su declaración de intenciones:

Frente a enfoques que restringen o penalizan el uso de la IA, PROFUNDIA propone su integración crítica y formativa como herramienta cognitiva para potenciar el aprendizaje profundo, la interpretación técnica, la argumentación fundamentada y el desarrollo de la autonomía del estudiante.

3. El método: aprender a pensar «enseñando» a la IA.

La propuesta metodológica supone un cambio estructural en el aprendizaje, ya que se pasa de un proceso lineal (profesor-estudiante) a otro triangular (profesor-estudiante-IA). En primer lugar, los estudiantes resuelven un problema por sus propios medios. Después, piden a la IA que resuelva el mismo problema. La fase clave llega a continuación: deben comparar críticamente su solución con la de la IA.

En este punto radica la innovación más profunda del método. La IA se incorpora «como un agente más en el proceso, con un papel activo y con un sesgo deliberado hacia el error». El papel del estudiante cambia radicalmente: deja de ser un usuario pasivo para convertirse en entrenador activo de la IA. Su tarea ya no consiste en obtener una respuesta, sino en identificar, cuestionar y corregir los errores de la herramienta, lo que les lleva a «enseñar» a la IA a resolver problemas complejos y, en el proceso, a dominar el tema a un nivel mucho más profundo.

El objetivo final de este proceso es la «reflexión metacognitiva». Se pretende que el estudiante «reflexione sobre cómo piensa y aprende» al contrastar su razonamiento con el de la IA, sus compañeros y el profesor.

4. La meta final: la IA como una «mindtool» para crear mejores ingenieros.

Este enfoque no es solo una técnica ingeniosa, sino que se fundamenta en un concepto pedagógico sólido: el de las mindtools o «herramientas para la mente». Esta idea defiende el uso de la tecnología no como un sustituto del esfuerzo intelectual, sino como un andamio para potenciar el pensamiento crítico y la construcción activa del conocimiento, es decir, tratar la tecnología no como una muleta, sino como un gimnasio para la mente.

Este planteamiento conecta directamente con las demandas del mercado laboral actual. Como señalan estudios previos (Pellicer et al., 2017), las empresas no solo buscan egresados con conocimientos técnicos, sino también con habilidades transversales como la resolución de problemas, la autonomía y el juicio crítico.

Por tanto, los resultados de aprendizaje que se persiguen son extremadamente precisos y potentes. El objetivo es formar ingenieros que puedan:

  1. Formular problemas técnicos complejos con la precisión necesaria para que la IAG pueda analizarlos.
  2. Evaluar y validar críticamente las soluciones generadas por la IAG, justificando sus decisiones.
  3. Gestionar de forma autónoma el uso de la IAG dentro de estrategias complejas de resolución de problemas.

En definitiva, se les prepara para un entorno profesional «complejo, colaborativo y en constante evolución».

Conclusión: ¿Y si dejamos de temer a la tecnología y empezamos a usarla para pensar mejor?

El proyecto PROFUNDIA demuestra que es posible cambiar la perspectiva sobre la IA en la educación. Transforma lo que muchos consideran una amenaza para el aprendizaje en una oportunidad única para fomentar un pensamiento más profundo, crítico y autónomo.

Su reflexión trasciende las aulas de ingeniería. ¿Qué otras tecnologías emergentes podríamos empezar a integrar en nuestras profesiones, no como un atajo, sino como un catalizador para desarrollar un pensamiento más crítico y sofisticado?

Os dejo un audio en el que dos personas hablan y discuten sobre este tema.

También os dejo un vídeo que resume muy bien el contenido del proyecto.

Referencias:

Blight, T., Martínez-Pagán, P., Roschier, L., Boulet, D., Yepes-Bellver, L., & Yepes, V. (2025). Innovative approach of nomography application into an engineering educational context. PloS one, 20(2), e0315426.

Castro-Aristizabal, G., Acosta-Ortega, F., & Moreno-Charris, A. V. (2024). Los entornos de aprendizaje y el éxito escolar en Latinoamérica. Lecturas de Economía, (101), 7-46.

Hadgraft, R. G., & Kolmos, A. (2020). Emerging learning environments in engineering education. Australasian Journal of Engineering Education, 25(1), 3-16.

Jiang, N., Zhou, W., Hasanzadeh, S., & Duffy Ph D, V. G. (2025). Application of Generative AI in Civil Engineering Education: A Systematic Review of Current Research and Future Directions. In CIB Conferences (Vol. 1, No. 1, p. 306).

Jonassen, D. H., Peck, K. L., & Wilson, B. G. (1999). Learning with technology: A constructivist perspective. Columbus, OH: Merrill/Prentice-Hall.

Liao, W., Lu, X., Fei, Y., Gu, Y., & Huang, Y. (2024). Generative AI design for building structures. Automation in Construction157, 105187.

Navarro, I. J., Marti, J. V., & Yepes, V. (2023). Evaluation of Higher Education Students’ Critical Thinking Skills on Sustainability. International Journal of Engineering Education, 39(3), 592-603.

Onatayo, D., Onososen, A., Oyediran, A. O., Oyediran, H., Arowoiya, V., & Onatayo, E. (2024). Generative AI applications in architecture, engineering, and construction: Trends, implications for practice, education & imperatives for upskilling—a review. Architecture4(4), 877-902.

Pellicer, E., Yepes, V., Ortega, A. J., & Carrión, A. (2017). Market demands on construction management: View from graduate students. Journal of Professional Issues in Engineering Education and Practice143(4), 04017005.

Perkins, D., & Unger, C. (1999). La enseñanza para la comprensión. Argentina: Paidós.

Torres-Machí, C., Carrión, A., Yepes, V., & Pellicer, E. (2013). Employability of graduate students in construction management. Journal of Professional Issues in Engineering Education and Practice139(2), 163-170.

Xu, G., & Guo, T. (2025). Advances in AI-powered civil engineering throughout the entire lifecycle. Advances in Structural Engineering, 13694332241307721.

Zhou, Z., Tian, Q., Alcalá, J., & Yepes, V. (2025). Research on the coupling of talent cultivation and reform practice of higher education in architecture. Computers and Education Open, 100268.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Entendiendo la protección sísmica: cómo hacemos nuestros edificios más seguros.

Figura 1. El gran terremoto de 1985 en Chile. https://novaciencia.es/el-gran-terremoto-de-1985-en-chile-un-seismo-que-se-podria-repetir-dentro-de-40-anos/

1. Introducción: viviendo en un país sísmico.

Vivir en un país como Chile significa comprender que el suelo que pisamos no es estático, sino que habitamos una tierra de geografía imponente, forjada por la misma energía que, de vez en cuando, nos recuerda su poder. Somos uno de los países con mayor actividad sísmica del planeta, una realidad que nos obliga a respetar la naturaleza y a liderar el desarrollo de una ingeniería resiliente. Para comprender la magnitud de nuestro desafío, basta con una cifra contundente proporcionada por el experto sismólogo Sergio Barrientos: el 46,5 % de toda la energía sísmica mundial del siglo XX se liberó en Chile.

Esta convivencia con los seísmos ha moldeado nuestra forma de construir. La normativa chilena (NCh433) establece una filosofía de diseño sismorresistente con objetivos claros y escalonados enfocados, ante todo, en la seguridad de las personas.

  • Sismos moderados: la estructura debe resistir sin sufrir ningún daño.
  • Sismos medianos: se aceptan daños, pero estos deben limitarse a elementos «no estructurales», como tabiques o techos falsos.
  • Sismos severos: el objetivo primordial es evitar el colapso de la estructura para salvaguardar la vida de sus ocupantes, aunque esto implique daños significativos e irreparables en el edificio.

El mensaje clave es que la meta mínima es sobrevivir. Un edificio puede quedar completamente inutilizable tras un gran terremoto, pero si no se derrumbó, cumplió su función principal. Sin embargo, tras la experiencia del terremoto de 2010, la población exige «algo más que evitar el colapso». En la actualidad, no solo se busca sobrevivir, sino también proteger la inversión, garantizar la funcionalidad de los edificios críticos y asegurar la tranquilidad.

Para responder a estas nuevas y más altas expectativas, la ingeniería ha desarrollado tecnologías avanzadas que van más allá de la normativa: los sistemas de protección sísmica.

2. ¿Qué son los sistemas de protección sísmica?

Para combatir la energía destructiva de un terremoto, la ingeniería ha diseñado el aislamiento sísmico y la disipación de energía. Ambos son sistemas pasivos, es decir, no requieren energía externa para funcionar, y su objetivo es reducir drásticamente el daño. Sin embargo, sus estrategias son fundamentalmente diferentes:

Sistema Principio fundamental (analogía) Objetivo principal
Aislamiento sísmico Actúa como un filtro o un campo de fuerza. Separa o «desacopla» el edificio del suelo, evitando que la mayor parte de la energía del sismo ingrese a la estructura. Limitar la energía que el sismo transfiere a la superestructura.
Disipación de energía Actúa como los amortiguadores. Absorbe la energía que ya entró al edificio, concentrándola en dispositivos especiales para proteger la estructura principal. Disipar la energía en dispositivos especializados, reduciendo el daño a componentes estructurales y no estructurales.

En resumen, usando una metáfora bélica, el aislamiento busca ganar la batalla impidiendo que el enemigo entre en la fortaleza, mientras que la disipación gana la batalla gestionando de forma inteligente al enemigo una vez que ha cruzado los muros. Ambas estrategias buscan un nivel de rendimiento muy superior al mínimo exigido, que es simplemente evitar el colapso.

3. Desacoplando el edificio del terremoto: cómo funcionan los aisladores sísmicos.

Pero, ¿cómo se logra «desconectar» un gigante de hormigón de la tierra? El aislamiento sísmico lo consigue instalando una serie de elementos flexibles entre la cimentación y la estructura principal. Estos dispositivos ralentizan el movimiento del edificio y transforman las sacudidas violentas y rápidas del seísmo en un vaivén lento y suave. En esencia, el edificio navega el terremoto en lugar de luchar contra él.

Existen dos categorías principales de aisladores:

  • Aislantes elastoméricos: Son extremadamente rígidos en sentido vertical para soportar el peso colosal del edificio, pero muy flexibles en sentido horizontal para permitir el movimiento. Una versión avanzada incluye un núcleo de plomo (LRB) que, además de aislar, disipa energía.
  • Aislantes deslizantes (de fricción): Durante un terremoto, un deslizador se mueve sobre una superficie curva de acero inoxidable. La fricción frena el movimiento y disipa energía, y la forma del plato guía suavemente el edificio de vuelta a su centro una vez que todo termina.
Figura 2. Aisladores de caucho y plomo. https://sites.ipleiria.pt/seismicknowledge/tag/aisladores-de-caucho-y-plomo/

El principal beneficio del aislamiento para los ocupantes y los bienes es que, al reducir drásticamente los movimientos, se protege no solo la estructura, sino también los muros, las ventanas y, fundamentalmente, todo lo que hay dentro: desde equipos médicos y ordenadores hasta objetos valiosos.

4. Absorbiendo el impacto: cómo funcionan los disipadores de energía.

Pero, ¿qué sucede si no podemos evitar que la energía entre? La respuesta es mantenerla bajo control. Esa es la misión de los disipadores de energía. Se trata de dispositivos especiales que se añaden a la estructura para que actúen como «fusibles» mecánicos, diseñados para absorber la mayor parte del impacto del seísmo.

Estos dispositivos se deforman o se mueven de manera controlada, convirtiendo la energía cinética en calor, que se disipa de forma inofensiva. De esta manera, «toman el golpe» del terremoto y protegen los elementos estructurales principales, como vigas, columnas y muros.

Dos ejemplos ilustran bien el concepto:

  • Los disipadores metálicos son piezas de metal con formas especiales diseñadas para doblarse de manera controlada. Al hacerlo, absorben una gran cantidad de energía de forma similar a como se calienta un clip de papel si lo doblas repetidamente, convirtiendo la energía cinética en calor inofensivo.
  • Los disipadores fluido-viscosos funcionan de manera muy similar a los amortiguadores de un automóvil, pero a gran escala. Consisten en un pistón que fuerza el paso de un fluido muy espeso a través de pequeños orificios. Este proceso frena el movimiento del edificio y convierte la energía cinética del seísmo en calor.
Figura 3. Disipadores sísmicos utilizados en la Torre Titanium (Chile). https://sites.ipleiria.pt/seismicknowledge/torre-titanium-la-portada/

 

Figura 4. Amortiguador viscoso. Puente Amolanas (Chile). https://www.cec.uchile.cl/~renadic/anexos/amolana2.html

El resultado es que la energía es absorbida por estos elementos de sacrificio. Esto no solo minimiza el daño general, sino que tiene una ventaja práctica fundamental: después de un terremoto intenso, es mucho más rápido y económico inspeccionar y reemplazar estos «fusibles» diseñados para fallar que reparar las vigas o columnas, que constituyen el esqueleto del edificio.

5. Más allá de sobrevivir: ¿por qué es importante invertir en protección sísmica?

La implantación de estos sistemas no solo supone una mejora técnica, sino que constituye una inversión estratégica que redefine el concepto de seguridad en un país sísmico. Sus beneficios más relevantes son profundamente humanos.

  • Manteniendo en pie lo esencial: continuidad operativa para infraestructuras críticas, como hospitales, aeropuertos o centros de datos, seguir funcionando durante y después de un seísmo es vital. Un caso emblemático es el del Teaching Hospital of USC en el terremoto de Northridge (1994). Gracias a su aislamiento sísmico, permaneció totalmente operativo, mientras que un hospital cercano de diseño convencional tuvo que ser evacuado y sufrió daños por valor de 400 millones de dólares.
  • Protegiendo más que ladrillos: estos sistemas reducen drásticamente los costes de reparación, pero su verdadero valor radica en proteger aquello que el dinero no siempre puede reemplazar. Salvaguardar equipos médicos de vanguardia, servidores con información crítica, maquinaria industrial o incluso los recuerdos y bienes de una familia es tan importante como proteger el edificio en sí.
  • La ingeniería de la tranquilidad: al ofrecer un rendimiento superior, estas tecnologías responden directamente a la demanda ciudadana de mayor seguridad. Un edificio que se mueve menos y sufre menos daños no solo protege físicamente a sus ocupantes, sino que también les proporciona una sensación de seguridad y tranquilidad invaluable en los momentos de mayor incertidumbre.

En resumen, los sistemas de protección sísmica suponen un cambio de paradigma en ingeniería, ya que responden a la demanda de una sociedad que no se conforma con sobrevivir, sino que exige activamente resiliencia, funcionalidad y la incalculable paz mental en una de las zonas más sísmicas del mundo.

En este audio, se puede escuchar una conversación sobre este tema.

Aquí tenéis un vídeo resumen, que se centra en este problema.

En este otro vídeo se puede ver un ejemplo.

Os dejo este documento que explica bien el tema del que se ha hablado en este artículo.

Descargar (PDF, 2.18MB)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Ingeniero, matemático y visionario: la historia de Saint-Venant

Adhémar Jean Claude Barré de Saint-Venant (1797 – 1886). https://en.wikipedia.org/wiki/

Adhémar Jean Claude Barré de Saint-Venant (Villiers-en-Bière, Seine-et-Marne, Francia, 23 de agosto de 1797 – Saint-Ouen, Loir-et-Cher, Francia, enero de 1886) fue un ingeniero, matemático y científico de la mecánica de medios continuos francés que contribuyó de manera decisiva al nacimiento de esta disciplina, tanto en la mecánica de sólidos deformables como en la mecánica de fluidos. Aunque su apellido completo era Barré de Saint-Venant, en la bibliografía no francesa suele aparecer simplemente como Saint-Venant.

Fue un pionero en el estudio de los esfuerzos en estructuras. Su nombre está vinculado al principio de Saint-Venant para sistemas de cargas equivalentes, al teorema de Saint-Venant, que establece que el círculo es la sección maciza más efectiva contra la torsión, y a la condición de compatibilidad de Saint-Venant, que garantiza la integrabilidad de los tensores de deformación. En mecánica de fluidos, desarrolló las ecuaciones que describen el flujo unidimensional no estacionario de un fluido en lámina libre para aguas poco profundas, conocidas como ecuaciones de Saint-Venant. También fue el primero en «identificar adecuadamente el coeficiente de viscosidad y su papel como factor multiplicador de los gradientes de velocidad en un flujo».

Además, desarrolló un cálculo vectorial similar al de Grassmann (hoy considerado una forma de cálculo exterior), que publicó en 1845. Esto dio lugar a una disputa sobre la prioridad con Grassmann, quien había publicado sus resultados un año antes, en 1844, aunque Saint-Venant afirmó haber ideado el cálculo en 1832.

Vida

Nació el 23 de agosto de 1797 en el Château de Fortoiseau, en Villiers-en-Bière (Seine-et-Marne). Su padre, Jean Barré de Saint-Venant (1737-1810), fue oficial colonial en la isla de Santo Domingo y su madre, Marie-Thérèse Josèphe Laborie, nació en Haití en 1769.

En 1813, con tan solo dieciséis años, ingresó en la École Polytechnique, donde estudió bajo la dirección de Gay-Lussac. Ese mismo año, París se preparaba para resistir la invasión tras la derrota de Napoleón en Leipzig. Todos los estudiantes fueron movilizados, pero Saint-Venant se negó a combatir diciendo: «Mi conciencia me prohíbe luchar por un usurpador». Por esta negativa, tuvo que abandonar la escuela. No obstante, en 1816 logró graduarse como ingeniero tras completar los estudios interrumpidos.

A partir de ese momento, trabajó como ingeniero durante 27 años. Inicialmente, su afición por la química le llevó a ser élève-commissaire del Service des Poudres et Salpêtres (Servicio de Pólvoras y Nitratos), donde trabajó durante los primeros siete años. Posteriormente, durante los veinte años siguientes, ejerció como ingeniero civil en el Corps des Ponts et Chaussées (Cuerpo de Puentes y Caminos). Al mismo tiempo, asistió a cursos en el Collège de France y todavía se conservan sus detalladas notas de las clases de Liouville de 1839-1840.

En 1823 obtuvo permiso para reincorporarse formalmente a la École des Ponts et Chaussées, donde se graduó en 1825 y llegó a ser ingeniero jefe de segunda clase. En 1837 se casó con Rohaut Fleury, de París. Tras un desacuerdo con la administración municipal, se retiró del servicio público el 1 de abril de 1848.

En 1850 ganó por concurso la cátedra de ingeniería agronómica en el Instituto Agronómico de Versalles, que ocupó durante dos años. En ese contexto, en 1851 publicó Principes de Mécanique fondés sur la Cinématique, donde defendía una concepción atomista de la materia y presentaba las fuerzas como entidades cinemáticas, desligadas de las nociones metafísicas o fisiológicas que, en su opinión, oscurecían el concepto físico de fuerza. Su uso del cálculo vectorial, introducido en estas lecciones, fue adoptado por el sistema escolar francés. Posteriormente, sucedió a Coriolis como profesor de matemáticas en la École des Ponts et Chaussées.

En 1868, con 71 años, fue elegido para ocupar la plaza de la sección de Mecánica de la Academia de Ciencias de Francia, en sustitución de Poncelet. En 1869, el papa Pío IX le concedió el título de conde. En 1883, a los 86 años, tradujo (junto con A. Flamant) al francés la Théorie de l’élasticité des corps solides de Clebsch, añadiendo él mismo notas originales al texto. Flamant también redactó su necrológica oficial con otros colegas.

Saint-Venant murió en enero de 1886 en Saint-Ouen (Loir-et-Cher). Las fuentes discrepan sobre la fecha exacta: algunas señalan el 6 de enero y otras el 22.

Obra científica

Saint-Venant trabajó principalmente en mecánica, elasticidad, hidrostática e hidrodinámica. Fue uno de los primeros en aplicar rigurosamente el concepto de esfuerzos internos en sólidos y en describir las condiciones para la integrabilidad de los campos de deformación. En la década de 1850, desarrolló soluciones para la torsión de cilindros no circulares y amplió el trabajo de Navier sobre la flexión de vigas, publicando en 1864 un tratado exhaustivo sobre el tema.

Su contribución más destacada fue probablemente su trabajo de 1843, en el que redescubrió correctamente las ecuaciones de Navier-Stokes para flujos viscosos. En palabras de Anderson:

Siete años después de la muerte de Navier, Saint-Venant rederivó sus ecuaciones para un flujo viscoso, considerando las tensiones internas viscosas y descartando por completo el enfoque molecular de Navier. Su artículo de 1843 fue el primero en identificar adecuadamente el coeficiente de viscosidad y su papel como factor que multiplica los gradientes de velocidad en el flujo, interpretando estos productos como tensiones viscosas debidas a la fricción interna. Saint-Venant lo hizo bien y lo documentó. Que su nombre no quedara asociado a estas ecuaciones es un misterio, sin duda una injusticia técnica.

Stokes también las derivó correctamente, pero su publicación se produjo dos años más tarde, en 1845.

En el ámbito de la hidrodinámica, desarrolló las ecuaciones para el flujo no estacionario en lámina libre, que hoy llevan su nombre (ecuaciones de Saint-Venant). En 1871, derivó las ecuaciones para el flujo no estacionario en canales abiertos.

En 1845, publicó una versión del cálculo vectorial similar a la de Grassmann, quien había publicado en 1844. Saint-Venant defendió que ya había desarrollado estas ideas en 1832 y utilizó este cálculo vectorial en sus clases en el Instituto Agronómico y en su obra de 1851. Aunque sus concepciones atomistas no prosperaron, su enfoque vectorial se adoptó en la enseñanza francesa.

Saint-Venant es recordado como un ingeniero, matemático y científico mecánico excepcional, pionero de la mecánica de medios continuos, del estudio del esfuerzo y la deformación en estructuras, de la hidrodinámica y del cálculo vectorial. Sus contribuciones fundamentales a la elasticidad, los flujos viscosos, la torsión de estructuras y el cálculo cinemático lo sitúan como uno de los grandes fundadores de la ingeniería y la mecánica moderna.

 

Comunicaciones presentadas al IX Congreso Internacional de Estructuras de ACHE

Durante los días 25-27 de junio de 2025 tendrá lugar el IX Congreso Internacional de Estructuras (ACHE), que servirá una vez más para fortalecer los lazos nacionales e internacionales de profesionales y especialistas en el campo de las estructuras. Como en ocasiones anteriores, los objetivos fundamentales de este congreso son, por un lado, dar a conocer los avances, estudios y realizaciones recientemente alcanzados en el ámbito estructural (en edificación y en ingeniería civil e industrial) y, por otro, exponer a sus miembros, amigos y a toda la sociedad las actividades de nuestra asociación, que realiza una labor de difusión técnica sin ánimo de lucro. La situación actual, marcada por la internacionalización y la competitividad, hace imprescindible la innovación tecnológica y el intercambio de experiencias y puntos de vista entre profesionales e investigadores de la edificación y la ingeniería civil, que el Congreso facilitará mediante coloquios y debates paralelos a las sesiones de ponencias.

La ciudad elegida en esta ocasión es Granada, que cuenta con una de las universidades más antiguas de Europa y una rica historia que ha dejado numerosos hitos en su paisaje urbano y cultural. Se trata de una ciudad cosmopolita, donde a lo largo de su historia se han dado cita varias culturas, y es un ejemplo de los valores e intereses compartidos de la Unión Europea. Cuenta, además, con lugares como la Alhambra, el Generalife o el Albaycín, declarados Patrimonio de la Humanidad por la Unesco. La ciudad ofrece, además, interesantes ofertas culturales. La ciudad ofrece, además, interesantes ofertas culturales en las fechas de celebración del Congreso, como el Festival Internacional de Música y Danza. El Congreso tendrá su sede en la Escuela de Ingeniería de Caminos, Canales y Puertos, que fue fundada como quinta escuela española en 1988. Una escuela situada en pleno centro de la ciudad, moderna, magníficamente comunicada a través de transporte público (metro y autobús) y con numerosos hoteles cercanos.

La Asociación Española de Ingeniería Estructural (ACHE), entidad de carácter no lucrativo y declarada de utilidad pública, tiene como fines fomentar el progreso en los ámbitos del hormigón estructural y de las estructuras de obra civil y edificación en general, y canalizar la participación española en asociaciones análogas de carácter internacional. Para ello, desarrolla líneas de investigación, docencia, divulgación, formación continua y prenormalización. Entre otras actividades, ACHE publica monografías técnicas, edita la revista cuatrimestral Hormigón y Acero y administra una página web con amplio contenido técnico. Entre los eventos que organiza, destacan el Congreso Trienal de Estructuras y numerosas jornadas técnicas. ACHE cuenta con centenares de miembros (ingenieros, arquitectos, químicos y otros profesionales vinculados al sector), muchos de los cuales participan generosamente en comisiones técnicas y en los más de 25 grupos de trabajo activos que elaboran documentos científicos sobre aspectos relevantes de las estructuras y que se difunden entre todos los asociados.

Nuestro grupo de investigación, dentro del proyecto de investigación RESILIFE, presenta varias comunicaciones. Además, tengo el honor de participar en Comité Científico del Congreso. A continuación os paso los resúmenes.

SÁNCHEZ-GARRIDO, A.; NAVARRO, I.J.; YEPES, V. (2025). Resiliencia para la sostenibilidad de las estructuras de edificación mediante forjados con losas aligeradas biaxiales. IX Congreso Internacional de Estructuras, 25-27 de junio, Granada (Spain).

Los Métodos Modernos de Construcción (MMC) están revolucionando la industria al ofrecer soluciones sostenibles que reducen el impacto ambiental en el ciclo de vida de los edificios. Un ejemplo son las losas aligeradas biaxiales de hormigón, que optimizan el uso de materiales. Sin embargo, la corrosión en entornos agresivos supone un desafío importante para la resiliencia de estas estructuras. Este estudio propone una metodología para evaluar estrategias de mantenimiento reactivo en MMC expuestas a cloruros, analizando seis alternativas de diseño y utilizando un modelo FUCOM-TOPSIS para integrar criterios de sostenibilidad económica y medioambiental.

YEPES, V.; ALCALÁ, J.; GARCÍA, J.A.; KRIPKA, J. (2025). Optimización resiliente del ciclo de vida de estructuras híbridas y modulares de alta eficiencia social y medioambiental bajo condiciones extremas. IX Congreso Internacional de Estructuras, 25-27 de junio, Granada (Spain).

Los desastres naturales y humanos causan grandes pérdidas humanas y económicas. RESILIFE optimiza el diseño y construcción de estructuras híbridas modulares, sostenibles y resilientes a eventos extremos, equiparables en seguridad a las tradicionales. Utiliza inteligencia artificial, metaheurísticas híbridas, aprendizaje profundo y teoría de juegos para evaluar y mejorar la resiliencia. Con técnicas multicriterio como lógica neutrosófica y redes bayesianas, optimiza diseño, mantenimiento y reparación, reduciendo costes y mejorando la recuperación social y ambiental.

YEPES-BELLVER, L.; NAVARRO, I.J.; ALCALÁ, J.; YEPES, V. (2025). Redes neuronales y Kriging para la optimización de la huella de carbono de puentes losa pretensados. IX Congreso Internacional de Estructuras, 25-27 de junio, Granada (Spain).

El artículo compara el rendimiento de los modelos Kriging y de redes neuronales para optimizar las emisiones de CO₂ en puentes de losa pretensada. Las redes neuronales presentan un menor error medio, pero ambos modelos destacan por conducir hacia áreas prometedoras en el espacio de soluciones. Las recomendaciones incluyen maximizar la esbeltez y reducir el uso de hormigón y armaduras, compensando con un incremento controlado de estas. Aunque los modelos proporcionan superficies de respuesta precisas, es esencial realizar una optimización heurística para obtener mínimos locales más exactos, lo que contribuye a diseños más sostenibles y eficientes.

 

El prisma mecánico: modelo teórico en Resistencia de Materiales

Figura 1. Prisma mecánico

En el campo de la Resistencia de Materiales, uno de los objetivos fundamentales es analizar el comportamiento de los sólidos elásticos sometidos a cargas. Para ello, se emplea un modelo teórico que idealiza el sólido real y le otorga ciertas propiedades físicas y geométricas que simplifican su estudio. Este modelo se conoce como prisma mecánico.

A continuación se examina en profundidad el prisma mecánico, un modelo teórico fundamental en la Resistencia de Materiales para simplificar el estudio de sólidos elásticos bajo carga. Se detallan sus propiedades físicas (isotropía, homogeneidad, continuidad) y geométricas (definidas por una sección transversal y una línea media), junto con el sistema de referencia utilizado para su análisis. Además, se explica cómo este modelo permite descomponer estructuras complejas y se clasifican los tipos principales de prismas mecánicos, incluyendo barras, placas y cáscaras, destacando su aplicación en diversos elementos estructurales. En definitiva, el prisma mecánico es una herramienta esencial en la ingeniería para el análisis estructural.

1. Propiedades físicas del modelo

Desde el punto de vista físico, el prisma mecánico se define como un sólido que cumple con tres propiedades esenciales:

  • Isotropía: el material responde de igual manera en todas las direcciones.
  • Homogeneidad: las propiedades del material son constantes en todos sus puntos.
  • Continuidad: el sólido no presenta huecos ni discontinuidades internas.

Estas condiciones permiten aplicar con validez los principios de la mecánica del continuo, base del análisis estructural en ingeniería.

2. Definición geométrica del prisma mecánico

El prisma mecánico (Figura 1) se construye a partir de una sección plana Σ de área Ω, cuyo centro de gravedad G describe una curva espacial c, denominada línea media o directriz. En cada punto, el plano de la sección es normal (perpendicular) a esta curva.

Según la forma de la línea media, el prisma puede ser:

  • Recto: si la línea media es una recta.
  • Plano: si la línea media está contenida en un plano.
  • Alabeado: si la línea media tiene una forma tridimensional más compleja.

Para que el modelo sea aplicable, la línea media no debe presentar curvaturas bruscas ni cambios abruptos de sección de un punto a otro. Si el área de la sección transversal es constante, se trata de un prisma de sección constante. Si no es así, se denomina prisma de sección variable.

3. Sistema de referencia

Para analizar las acciones internas y externas en el prisma, se utiliza un sistema de ejes con origen en el centro de gravedad de cada sección:

  • El eje Gx es tangente a la línea media en el punto considerado.
  • Los ejes Gy y Gz están contenidos en el plano de la sección y son los ejes principales de inercia de la misma.

Este conjunto de ejes conforma un sistema trirrectángulo (los tres ejes son mutuamente perpendiculares). El eje Gx es normal a la sección, mientras que Gy y Gz están en el plano de la sección y son perpendiculares entre sí.

La posición de un punto G sobre la curva c se describe mediante su abscisa curvilínea s, que representa la longitud de arco desde un punto de origen arbitrario (por ejemplo, el centro de gravedad de la sección extrema izquierda del prisma). El sentido positivo de Gx corresponde a valores crecientes de s, y los sentidos de Gy y Gz se eligen de forma que el sistema de referencia sea directo (siguiendo la regla de la mano derecha).

4. Aplicación del prisma mecánico al análisis estructural

Una de las ventajas del prisma mecánico es su capacidad para simplificar el estudio de estructuras complejas. Mediante el método de las secciones, es posible realizar cortes ideales en la estructura que permiten dividirla en un número finito de prismas mecánicos.

Cada una de estas piezas está sometida a:

  • Las cargas externas que actúan directamente sobre ella.
  • Las fuerzas y momentos transmitidos por las piezas contiguas a través de las secciones extremas.

En las secciones comunes entre dos prismas, estas acciones internas son iguales y opuestas, en cumplimiento del principio de acción y reacción.

5. Tipos fundamentales de prismas mecánicos

Según su geometría, los prismas mecánicos pueden clasificarse en tres grandes categorías:

a) Barra

Se trata del prisma cuya sección transversal tiene dimensiones mucho menores que la longitud de su línea media. Es el tipo más habitual en estructuras, tanto en edificación como en maquinaria.

Dentro de las barras, predominan los prismas planos, en los que la línea media se encuentra contenida en un plano, que normalmente coincide con un plano de simetría de la pieza.

La elección de la forma de la sección depende del material y del tipo de esfuerzo que soportará:

  • En estructuras de hormigón armado, son frecuentes las secciones rectangulares (vigas) o cuadradas (pilares).
  • En estructuras metálicas, se emplean perfiles laminados en doble T para vigas, o perfiles en U soldados para pilares (Figura 2).
Figura 2. Perfil laminado en doble T y dos secciones en U soldadas.

b) Placa

Es un cuerpo limitado por dos planos paralelos, cuya separación, es decir, el espesor, es pequeña en comparación con las otras dos dimensiones. Ejemplos de placas son las losas y los forjados que se utilizan en edificación o en cubiertas prefabricadas.

Figura 3. Placa circular y placa rectangular

c) Cáscara

A diferencia de la placa, está limitada por dos superficies curvas separadas por una pequeña distancia. Un ejemplo de cáscara es un tanque, un silo o una tubería de gran diámetro, y, en general, cualquier estructura laminar curva.

Figura 4. Cáscara

En el análisis de placas y cáscaras, en lugar de una línea media se emplea el concepto de superficie media, definida como el conjunto de puntos que dividen el espesor en dos partes iguales.

Figura 5. Estructura tipo cascarón: L’Oceanogràfic, Valencia. https://es.wikipedia.org/wiki/Cascarones_de_hormig%C3%B3n

Conclusión

El prisma mecánico es un modelo teórico fundamental para el estudio de sólidos en ingeniería. Al reunir condiciones ideales de isotropía, homogeneidad y continuidad, y al estar definido por una geometría clara basada en una sección y una línea media, permite analizar el comportamiento de elementos estructurales sometidos a carga.

Gracias a su versatilidad, este modelo permite descomponer estructuras complejas en elementos más simples, lo que facilita su análisis mecánico. La clasificación en barras, placas y cáscaras abarca prácticamente todas las formas estructurales comunes, lo que convierte al prisma mecánico en una herramienta imprescindible en la enseñanza y práctica de la ingeniería civil.

Referencia:

Berrocal, L. O. (2007). Resistencia de materiales. McGraw-Hill.

Glosario de términos clave

  • Abscisa curvilínea (s): Medida de la posición de un punto a lo largo de una curva, representando la longitud de arco desde un origen arbitrario.
  • Análisis estructural: Rama de la ingeniería que estudia el comportamiento de los sólidos elásticos sometidos a cargas para determinar sus esfuerzos internos, deformaciones y estabilidad.
  • Barra: Tipo de prisma mecánico cuya sección transversal tiene dimensiones mucho menores que la longitud de su línea media; es el elemento más común en estructuras.
  • Cáscara: Tipo de prisma mecánico limitado por dos superficies curvas separadas por una pequeña distancia (espesor); ejemplos incluyen tanques o tuberías de gran diámetro.
  • Continuidad: Propiedad física del prisma mecánico que establece que el sólido no presenta huecos ni discontinuidades internas, permitiendo la aplicación de la mecánica del continuo.
  • Centro de gravedad (G): Punto en una sección plana donde se considera concentrada toda su masa o peso; la línea media del prisma se define por la trayectoria de este punto.
  • Ejes principales de inercia: Ejes de un plano de una sección para los cuales los momentos de inercia de la sección son máximos o mínimos, y el producto de inercia es cero. Son fundamentales para el sistema de referencia del prisma.
  • Homogeneidad: Propiedad física del prisma mecánico que indica que las propiedades del material son constantes en todos sus puntos.
  • Isotropía: Propiedad física del prisma mecánico que describe que el material responde de igual manera en todas las direcciones.
  • Línea media (o directriz): Curva espacial que describe el centro de gravedad de las secciones transversales de un prisma mecánico. Es fundamental para su definición geométrica.
  • Mecánica del continuo: Rama de la mecánica que estudia el comportamiento de los materiales como una masa continua, sin considerar su estructura atómica o molecular, aplicable a sólidos y fluidos.
  • Método de las secciones: Técnica utilizada en el análisis estructural para dividir una estructura en partes ideales mediante “cortes”, permitiendo analizar las fuerzas y momentos internos en esas secciones.
  • Placa: Tipo de prisma mecánico limitado por dos planos paralulares cuya separación (espesor) es pequeña en comparación con sus otras dos dimensiones; ejemplos incluyen losas y forjados.
  • Prisma alabeado: Prisma mecánico cuya línea media tiene una forma tridimensional compleja, no contenida en un solo plano.
  • Prisma de sección constante: Prisma mecánico en el que el área de la sección transversal no varía a lo largo de su línea media.
  • Prisma de sección variable: Prisma mecánico en el que el área de la sección transversal cambia a lo largo de su línea media.
  • Prisma mecánico: Modelo teórico idealizado de un sólido elástico, utilizado en Resistencia de Materiales y análisis estructural, definido por propiedades físicas y una geometría específica (sección y línea media).
  • Prisma plano: Prisma mecánico cuya línea media está contenida en un plano.
  • Prisma recto: Prisma mecánico cuya línea media es una recta.
  • Resistencia de materiales: Campo de la ingeniería que estudia el comportamiento de los materiales sólidos bajo la aplicación de cargas, centrándose en conceptos como esfuerzo, deformación y resistencia.
  • Sección plana (Σ): Superficie transversal bidimensional que, al desplazarse a lo largo de la línea media, forma el volumen del prisma mecánico.
  • Sistema trirrectángulo: Sistema de tres ejes mutuamente perpendiculares (como Gx, Gy, Gz) que sirve como marco de referencia para el análisis de las acciones internas y externas en el prisma.
  • Superficie media: Concepto utilizado en el análisis de placas y cáscaras, definido como el conjunto de puntos que dividen el espesor en dos partes iguales, análogo a la línea media para barras.

Del sólido rígido al sólido verdadero: evolución del concepto de material en mecánica aplicada

Este artículo explora la evolución del concepto de material en mecánica aplicada, comenzando por el modelo idealizado de sólido rígido, que simplifica los cuerpos indeformables para análisis iniciales. Sin embargo, al abordar la mecánica aplicada, esta abstracción se rompe y es necesario introducir el sólido elástico, que permite la deformación reversible y el análisis de tensiones internas. Aunque este modelo asume isotropía, homogeneidad y continuidad, se reconoce que ningún material real cumple estas condiciones. Finalmente, se introduce el concepto de sólido verdadero, que reconoce la complejidad de los materiales reales y sus propiedades variables, aunque se puede simplificar para su estudio mediante la división en zonas homogéneas, cada una de las cuales se modela como un sólido elástico. Este tránsito conceptual es crucial para la ingeniería y la resistencia de materiales, ya que permite el diseño de estructuras seguras y funcionales que consideran la deformación y los límites de carga de los materiales reales.

En los primeros planteamientos de la mecánica teórica, los cuerpos materiales se consideran como sólidos indeformables, con independencia de si se encuentran en reposo o en movimiento. Esta hipótesis, evidentemente ideal, no se corresponde con ningún material real, pero resulta extraordinariamente útil por la simplificación conceptual y matemática que introduce en el análisis.

Pese a tratarse de una abstracción, sus resultados son, en muchos casos, aproximaciones aceptables del comportamiento físico real, especialmente cuando las cargas implicadas son pequeñas y las deformaciones son pequeñas. No obstante, cuando el estudio se adentra en el terreno de la mecánica aplicada, esta simplificación empieza a mostrar sus límites.

La ruptura del modelo ideal: la necesidad de una nueva definición de sólido

La observación experimental revela que no se pueden aplicar fuerzas indefinidamente a un cuerpo sin que se deforme o incluso se rompa. Esta evidencia obliga a revisar el concepto de sólido aceptado en la teoría mecánica.

Este proceso de revisión y refinamiento lleva a una evolución del modelo de sólido, especialmente a partir del estudio más profundo de los problemas de estática aplicada. En este contexto, es necesario distinguir entre tres concepciones del sólido:

  • Sólido rígido
  • Sólido elástico
  • Sólido verdadero

1. Sólido rígido: el modelo idealizado

Se denomina sólido rígido al que no altera su estructura interna por acción exterior, manteniendo constantes las distancias entre sus moléculas, independientemente de la magnitud o naturaleza del esfuerzo aplicado. Esta suposición permite abordar problemas mecánicos aplicando exclusivamente las condiciones de equilibrio:

donde las Ri son las componentes de la resultante de las fuerzas, y los M0i los momentos respecto de un punto cualquiera O, en un sistema cartesiano trirrectangular.

Sin embargo, este modelo resulta incompatible con la realidad física. Supongamos una viga AB, apoyada sobre dos pilares, que recibe una carga vertical P en un punto intermedio C. Si se asume que la viga es un sólido rígido, el problema se resuelve calculando las reacciones de los apoyos, sin que exista posibilidad de rotura, con independencia del valor de P. No obstante, la experiencia demuestra que, a partir de un cierto valor de P, la viga se rompe, incluso si las reacciones están equilibradas.

Esto pone de manifiesto una limitación estructural del modelo de sólido rígido, y evidencia la necesidad de estudiar no solo el equilibrio exterior, sino también la resistencia interna del material frente a esfuerzos aplicados.

2. Sólido elástico: deformabilidad reversible

La respuesta a esta necesidad se encuentra en el concepto de sólido elástico, entendido como aquel cuerpo que, al ser sometido a una fuerza exterior, se deforma, pero recupera su forma original cuando dicha acción cesa. Este modelo admite una deformación interna y, por tanto, un reparto espacial de los esfuerzos, lo que permite analizar no solo si el sistema está en equilibrio, sino también cómo se manifiestan las tensiones en su interior.

Para que el modelo elástico sea tratable matemáticamente, se hacen ciertas hipótesis simplificadoras que, si bien no se cumplen con exactitud en la práctica, ofrecen una base coherente para el cálculo:

  • Isotropía: el material presenta las mismas propiedades mecánicas en todas las direcciones.
  • Homogeneidad: cualquier porción del sólido tiene idéntica composición y comportamiento que otra cualquiera.
  • Continuidad: no existen huecos ni discontinuidades internas; la materia se distribuye de forma continua en el espacio.

Estas hipótesis están estrechamente relacionadas. Si se admite que un material es elástico en todas las direcciones, parece lógico suponer que su estructura es homogénea, y viceversa.

3. La realidad material: límites del modelo elástico

Ningún material real satisface de forma rigurosa estas condiciones.

  • La isotropía perfecta no existe, debido a que la estructura atómica o molecular del material presenta orientaciones privilegiadas.
  • La homogeneidad absoluta tampoco se cumple, pues siempre existen variaciones locales en la composición.
  • Finalmente, la materia no es continua: existen espacios vacíos entre moléculas, e incluso en el interior de los átomos, como muestran las teorías físicas actuales.

A pesar de ello, el hecho de considerar el sólido como continuo y elástico sigue siendo útil y válido a efectos prácticos. Permite suponer que las fuerzas aplicadas a una porción del material se transmiten de forma progresiva a sus regiones vecinas, generando un campo de tensiones continuo y calculable. Aunque la elasticidad no sea exacta a escala microscópica, funciona a escala macroscópica, como demuestra la experiencia acumulada en el diseño y comprobación de estructuras.

4. Sólido verdadero: el material tal como es

El último nivel de descripción lo proporciona el concepto de sólido verdadero, que reconoce explícitamente que los materiales reales no son ni rígidos ni elásticos ideales. Carecen de isotropía, homogeneidad y continuidad, por lo que requieren un tratamiento más refinado. En este caso, el material se considera un sólido deformable, con una estructura interna compleja y propiedades variables.

Aunque este enfoque representa la forma más fiel de representar un material real, su complejidad puede superarse dividiendo el material en zonas homogéneas. Entonces, cada una de estas zonas puede modelarse como un sólido elástico, lo que permite aplicar la teoría correspondiente de forma localizada.

Consideración final

En el estudio de la resistencia de materiales, nos ocupamos precisamente de determinar los límites de carga admisibles o las dimensiones necesarias de un elemento estructural para garantizar que, bajo los esfuerzos previsibles, no se produzca la rotura. Si existieran verdaderos sólidos rígidos, tales cálculos serían innecesarios, ya que bastaría con verificar el equilibrio de fuerzas y momentos. Sin embargo, dado que todos los materiales reales se deforman incluso antes del fallo, la teoría de la elasticidad y la resistencia de materiales resultan indispensables para la ingeniería civil.

Así, el tránsito desde el modelo de sólido rígido hasta el de sólido verdadero no solo es un refinamiento teórico, sino una adaptación necesaria a la realidad física de los materiales que permite a los ingenieros diseñar estructuras seguras, funcionales y duraderas.

Glosario de términos clave

  • Sólido rígido: Modelo idealizado de cuerpo material que se considera indeformable; mantiene constantes las distancias entre sus moléculas independientemente de las fuerzas aplicadas. Útil para análisis de equilibrio, pero no para predicción de resistencia o rotura.
  • Sólido elástico: Modelo de cuerpo que se deforma bajo la acción de una fuerza exterior, pero recupera su forma original cuando dicha acción cesa. Admite deformación interna y reparto de esfuerzos, permitiendo el análisis de tensiones.
  • Sólido verdadero: Concepto que reconoce la realidad física de los materiales, que no son ni rígidos ni elásticos ideales. Carecen de isotropía, homogeneidad y continuidad perfectas, y poseen una estructura interna compleja y propiedades variables.
  • Mecánica teórica: Campo de la mecánica que en sus primeros planteamientos consideraba los cuerpos materiales como sólidos indeformables, buscando simplificación conceptual y matemática.
  • Mecánica aplicada: Campo de la mecánica que se adentra en el estudio de problemas reales donde la simplificación del sólido rígido es insuficiente, requiriendo considerar la deformación y resistencia de los materiales.
  • Equilibrio (condiciones de): Principios que rigen la estática y dinámica de cuerpos, asegurando que la resultante de fuerzas y momentos sea cero. En el sólido rígido, son suficientes para la resolución de problemas.
  • Resistencia interna del material: Capacidad de un material para soportar esfuerzos aplicados sin romperse o deformarse permanentemente. Es un concepto clave en la mecánica aplicada y la teoría de la elasticidad.
  • Deformación: Cambio en la forma o dimensiones de un cuerpo bajo la acción de fuerzas externas.
  • Tensiones (campo de): Distribución interna de fuerzas por unidad de área dentro de un material deformado. El modelo elástico permite su cálculo.
  • Isotropía: Propiedad de un material que presenta las mismas propiedades mecánicas en todas las direcciones. Es una hipótesis simplificadora del modelo elástico.
  • Homogeneidad: Propiedad de un material que tiene idéntica composición y comportamiento en cualquier porción de su volumen. Es una hipótesis simplificadora del modelo elástico.
  • Continuidad: Hipótesis que asume que la materia se distribuye de forma continua en el espacio, sin huecos ni discontinuidades internas. Es una idealización del modelo elástico.
  • Resistencia de materiales: Rama de la ingeniería y la mecánica aplicada que estudia el comportamiento de los cuerpos sólidos deformables bajo diferentes tipos de carga, con el objetivo de determinar sus límites de carga admisibles y dimensiones necesarias para evitar la rotura.

Robustez estructural y colapso progresivo: claves para entender y proteger nuestras construcciones

Colapso de una torre de viviendas en Ronan Point (Reino Unido). By Derek Voller, CC BY-SA 2.0, https://commons.wikimedia.org/w/index.php?curid=59931718

La robustez estructural es la cualidad que permite a un edificio o puente soportar eventos inesperados —un fallo aislado, un impacto, una explosión—sin que ello provoque un colapso generalizado. Con el fin de aclarar el tema, se plantea la siguiente hipótesis: ¿qué ocurriría si un edificio perdiera de forma repentina uno de sus pilares portantes? En caso de que el diseño del edificio sea adecuado, las cargas que anteriormente transmitía dicho pilar se distribuirán de manera alternativa entre los elementos restantes, evitando así su colapso total. La capacidad de «resistir a contracorriente» ante situaciones inusuales se denomina robustez, constituyendo una línea de defensa fundamental para garantizar la seguridad de las personas y la continuidad del uso de la infraestructura.

El concepto puede resultar abstracto, pero es suficiente con considerar ejemplos dramáticos del pasado: en 1968, el colapso de una torre de viviendas en Ronan Point (Reino Unido) se originó por la explosión de una bombona de gas en un piso. Un fallo local aparentemente limitado desencadenó la caída de varias plantas, debido a la falta de mecanismos suficientes para redirigir las cargas. Por el contrario, un diseño sólido y bien fundamentado prevé esa posibilidad y mantiene la estructura del edificio en pie incluso tras el daño inicial, minimizando el número de víctimas y la magnitud del desastre.

Dentro de la robustez, se identifican diversas cualidades fundamentales. La redundancia implica la disposición de múltiples vías para garantizar la llegada de las cargas al terreno. En caso de una interrupción en una de las vías, las otras están preparadas para asumir la carga de manera inmediata. La ductilidad se define como la capacidad de los materiales —como el acero, el hormigón armado o la madera— para deformarse sin quebrarse de forma brusca. Esta «flexibilidad» les permite absorber la energía generada por impactos o terremotos, evitando así roturas instantáneas. La integridad estructural se define como la continuidad de todos los elementos conectados, de modo que las vigas, columnas y losas formen un conjunto que trabaje armónicamente y no se separe ante un esfuerzo puntual.

El colapso progresivo es un proceso en el que un fallo inicial genera otros a su alrededor, extendiéndose como una fiebre que consume toda la estructura. Analogía: el desplome de la primera ficha de dominó puede desencadenar la caída de todas las demás. En el ámbito de la ingeniería estructural, se busca evitar dicha reacción en cadena. Para ello, se implementan técnicas de «atado» o «conexión reforzada», mediante las cuales se une las vigas y columnas con armaduras continuas o refuerzos en puntos críticos. De esta manera, en caso de fallo de un elemento, el resto del sistema no se ve comprometido.

En el ámbito de la ingeniería, la incorporación de la robustez en los proyectos se aborda mediante la aplicación de diversas estrategias. Una de las metodologías más eficaces consiste en anticipar los posibles escenarios de daño, tales como impactos de vehículos, explosiones accidentales o errores de construcción. Posteriormente, se verifica mediante modelos simplificados que la estructura mantiene su estabilidad incluso cuando falta un pilar o una viga. Otra estrategia prescriptiva implica el refuerzo de elementos clave, tales como las columnas exteriores o los núcleos de las escaleras, mediante la incorporación de armaduras o perfiles metálicos de mayor sección, con el fin de actuar como «pilares de reserva» que soporten las cargas críticas.

La normativa europea, establecida en los Eurocódigos, ha establecido durante años la exigencia de que los edificios posean la capacidad de resistir sin colapsar de manera desproporcionada ante acciones accidentales. Es importante destacar que esta medida no implica la necesidad de afrontar situaciones de alto riesgo, como bombardeos o terremotos de gran intensidad. En cambio, se refiere a la capacidad del edificio para resistir eventos menos probables pero potencialmente significativos, tales como la explosión de una tubería de gas o el choque de un camión contra un pilar. Para ello, se establecen diversos niveles de severidad del daño y se implementan criterios de diseño más o menos rigurosos, en función del riesgo para las personas y el entorno.

En la práctica, estos requisitos se traducen en aspectos constructivos específicos, tales como la unión de las vigas de forjado a las vigas principales y a los muros de cerramiento, la instalación de estribos continuos en las columnas para mejorar su comportamiento ante daños localizados o la previsión de refuerzos metálicos en los puntos de unión más expuestos. Asimismo, se recomienda el empleo de materiales con suficiente ductilidad, como aceros estructurales de alta deformabilidad, y técnicas de construcción que garanticen conexiones firmes, tales como soldaduras completas, atornillados de alta resistencia o conectores especiales en estructuras de madera.

Estos principios, además de aplicarse en la obra nueva, también se emplean en el refuerzo de edificios existentes. En el proceso de rehabilitación de estructuras antiguas, con frecuencia se implementa la adición de pórticos metálicos interiores o el refuerzo de las conexiones de hormigón armado con fibras de carbono, con el propósito de incrementar su ductilidad. En el caso de los puentes, se procede a la instalación de amortiguadores o cables adicionales que permitan la redistribución de esfuerzos en caso de rotura de un tirante. El objetivo principal es la integración de elementos de seguridad en el sistema portante.

En resumen, la robustez estructural es un enfoque global que integra el diseño conceptual, el análisis de riesgos, la definición de escenarios y los detalles constructivos, con el objetivo de prevenir que un fallo puntual derive en un colapso mayor. Es imperativo comprender el colapso progresivo y aplicar medidas de redundancia, ductilidad e integridad —junto a estrategias prescriptivas y de análisis directo—. De esta manera, nuestros edificios y puentes se convierten en sistemas más seguros, preparados para afrontar lo imprevisto y reducir al máximo las consecuencias de cualquier incidente.

Tómese un momento para consultar el siguiente texto, el cual contiene información adicional relevante para su referencia. El presente informe, elaborado por la EU Science Hub, en consonancia con los Eurocódigos, aborda el tema de la resistencia estructural, con el propósito de prevenir colapsos progresivos y desproporcionados en estructuras tales como edificios y puentes. Por favor, proceda a analizar las directrices de diseño existentes en Europa y otros lugares, identificando fortalezas y debilidades en las normativas actuales. El documento propone nuevas estrategias de diseño, como métodos mejorados de fuerza de atado horizontal y consideraciones de rutas de carga alternativas, y aborda la importancia de tener en cuenta el envejecimiento, el deterioro y el diseño multi-riesgo. Se presentan ejemplos ilustrativos de aplicación para diversas estructuras.

Descargar (PDF, 3.34MB)

Glosario de términos clave

  • Robustez (estructural): Capacidad/propiedad de un sistema para evitar una variación del rendimiento estructural (rendimiento del sistema) desproporcionadamente mayor con respecto al daño correspondiente (perturbación del sistema).
  • Vulnerabilidad: Describe el grado de susceptibilidad de un sistema estructural a alcanzar un determinado nivel de consecuencias, para un evento peligroso dado.
  • Daño admisible (damage tolerance): Capacidad de un sistema estructural para soportar un determinado nivel de daño manteniendo el equilibrio con las cargas aplicadas.
  • Continuidad: Conexión continua de los miembros de un sistema estructural.
  • Ductilidad: Capacidad de un sistema estructural para soportar las cargas aplicadas disipando energía plástica.
  • Integridad: Condición de un sistema estructural para permitir la transferencia de fuerzas entre los miembros en caso de eventos accidentales.
  • Incertidumbres: Estado de información deficiente, por ejemplo, relacionada con la comprensión o el conocimiento de un evento, su consecuencia o probabilidad.
  • Probabilidad: Expresión matemática del grado de confianza en una predicción.
  • Fiabilidad (reliability): Medida probabilística de la capacidad de un sistema estructural para cumplir requisitos de diseño específicos. La fiabilidad se expresa comúnmente como el complemento de la probabilidad de falla.
  • Seguridad estructural: Calidad de un sistema estructural, referida a la resistencia, estabilidad e integridad de una estructura para soportar los peligros a los que es probable que esté expuesta durante su vida útil.
  • Riesgo: Una medida de la combinación (generalmente el producto) de la probabilidad o frecuencia de ocurrencia de un peligro definido y la magnitud de las consecuencias de la ocurrencia.
  • Redundancia: La capacidad del sistema para redistribuir entre sus miembros la carga que ya no puede ser soportada por algunos elementos dañados y/o deteriorados.
  • Peligro: Amenaza excepcionalmente inusual y severa, por ejemplo, una posible acción anormal o influencia ambiental, resistencia o rigidez insuficiente, o desviación perjudicial excesiva de las dimensiones previstas.
  • Escenario peligroso: Serie de situaciones, transitorias en el tiempo, que un sistema podría experimentar y que pueden poner en peligro el propio sistema, a las personas y al medio ambiente.
  • Consecuencias del fallo: Los resultados o impactos de un fallo estructural, que pueden ser directos (daño a elementos afectados directamente) o indirectos (fallo parcial o total del sistema subsiguiente).
  • Análisis por presión-impulso (pressure–impulse analysis): Método utilizado para evaluar el rendimiento y el daño de elementos estructurales individuales bajo carga dinámica, definido por curvas iso-daño que relacionan la presión y el impulso.
  • Capacidad de diseño (capacity design): Un principio de diseño sísmico que establece una jerarquía de resistencias de los miembros para garantizar que las rótulas plásticas se formen en ubicaciones deseadas, típicamente en las vigas en lugar de en las columnas (regla columna débil-viga fuerte – SCWB).
  • Factor de robustez R(𝜌, Δ): Un factor propuesto para cuantificar la robustez estructural relacionando el indicador de rendimiento residual (𝜌) con el índice de daño (Δ), a menudo con un parámetro de forma (𝛼).
  • Atados (ties): Elementos o disposiciones utilizados en el diseño estructural para proporcionar resistencia a la tracción y mejorar la robustez, especialmente en caso de pérdida de un elemento vertical de soporte de carga. Pueden ser horizontales o verticales.

Referencias:

MAKOOND, N.; SETIAWAN, A.; BUITRAGO, M., ADAM, J.M. (2024). Arresting failure propagation in buildings through collapse isolation. Nature 629, 592–596 (2024). DOI:10.1038/s41586-024-07268-5

NEGRÍN, I.; KRIPKA, M.; YEPES, V. (2025). Metamodel-assisted design optimization of robust-to-progressive-collapse RC frame buildings considering the impact of floor slabs, infill walls, and SSI implementationEngineering Structures, 325:119487. DOI:10.1016/j.engstruct.2024.119487

Luigi Cremona: el ingeniero que revolucionó la geometría y modernizó la educación técnica en Italia

Luigi Cremona (1830-1903). https://en.wikipedia.org/wiki/Luigi_Cremona

Antonio Luigi Gaudenzio Giuseppe Cremona (Pavía, 7 de diciembre de 1830-Roma, 10 de junio de 1903) fue un influyente matemático italiano, conocido por su decisiva contribución al desarrollo de la geometría algebraica y a la reforma de la enseñanza superior de las matemáticas en Italia. Fundador de la escuela italiana de geometría algebraica, dedicó su vida al estudio de las curvas y superficies algebraicas, y a la modernización de la enseñanza de las matemáticas en Italia. Junto a Francesco Brioschi y Eugenio Beltrami, fue una figura clave para que Italia se posicionara como una potencia en matemáticas hacia finales del siglo XIX.

Cremona nació en Pavía, que entonces formaba parte del Reino Lombardo-Véneto bajo dominio austríaco. Era el hijo mayor de Gaudenzio Cremona y su segunda esposa, Teresa Andereoli. Su hermano menor, Tranquillo Cremona, alcanzó la fama como pintor. Estudió en el ginnasio de Pavía y, tras la muerte de su padre cuando tenía once años, sus hermanastros lo ayudaron a continuar sus estudios. Se graduó cum laude en latín y griego, y luego ingresó en la Universidad de Pavía.

En 1848, con apenas 17 años, se unió como voluntario al Batallón «Italia Libre» para luchar por la independencia italiana contra el ejército austriaco. En este batallón alcanzó el rango de sargento y participó en la fallida defensa de Venecia, que capituló el 24 de agosto del mismo año. Tras regresar a Pavía y fallecer su madre, reanudó sus estudios con el respaldo familiar. El 27 de noviembre de 1849 obtuvo autorización para estudiar ingeniería civil con Bordoni y Gabba, y especialmente con Francesco Brioschi, a quien más tarde consideraría una de las figuras más influyentes de su vida académica. En 1853 se graduó como Dottore negli Studi di Ingegnere Civile e Architetto. Su pasado le impidió ejercer la docencia, pues los austriacos controlaban todavía la región lombarda.

Debido a su historial militar, no pudo obtener un cargo oficial al inicio de su carrera y trabajó como tutor privado de diversas familias notables. En 1854 se casó. Su primera publicación matemática, Sulle tangenti sfero-conjugate, apareció en marzo de 1855. En noviembre de ese mismo año, recibió autorización para enseñar física de manera provisional en el instituto de Pavía. Al año siguiente, fue nombrado profesor asociado y, en enero de 1857, profesor titular en el instituto de Cremona.

Durante su estancia en Cremona (1857-1859), escribió varios artículos originales, entre los que destacan sus contribuciones en geometría proyectiva y el análisis de curvas mediante métodos proyectivos. Entre sus trabajos más relevantes de esta etapa se encuentran:

  • Sulle linee del terz’ ordine a doppia curvatura (1858, dos partes)

  • Intorno alle superficie della seconda classe inscritte in una stessa superficie sviluppabile della quarta classe—nota (1858)

  • Intorno alle coniche inscritte in una stessa superficie del quart’ ordine e terza classe—nota (1859)

El 28 de noviembre de 1859 fue nombrado docente en el Liceo San Alejandro de Milán. En 1860 fue nombrado profesor de geometría superior en la Universidad de Bolonia y, en 1866, pasó al Colegio Técnico Superior de Milán para enseñar geometría superior y estática gráfica. Ese mismo año compitió por el Premio Steiner de la Academia de Berlín con su Mémoire sur les surfaces du troisieme ordre, que compartió con J. C. F. Sturm. En 1868 volvió a recibir este galardón, esta vez sin competencia.

Durante su etapa en Bolonia (1860-1867), desarrolló sus investigaciones más influyentes sobre transformaciones geométricas. Entre sus publicaciones destacan:

  • Introduzione ad una teoria geometrica delle curve piane (1861)

  • Sulle trasformazioni geometriche delle figure piane (1863)

  • Mémoire de géométrie pure sur les surfaces du troisième ordre (1866)

Estas obras fueron luego traducidas al alemán y publicadas como Grundzüge der allgemeinen Theorie der Oberflächen in synthetischer Behandlung (1870). Fue entonces cuando formuló la teoría de las transformaciones de Cremona, un avance clave en geometría birracional.

En octubre de 1867 fue trasladado por decreto real al Instituto Técnico de Milán, donde continuó su labor docente e investigadora hasta 1873. En ese año se le ofreció el cargo de secretario general del reciente gobierno italiano, que declinó por preferir sus actividades académicas. Sin embargo, al ser nombrado director de la Escuela Politécnica de Ingeniería de Roma ese mismo año, debió suspender temporalmente sus investigaciones a causa de la ingente labor burocrática que debía atender. Durante este periodo escribió sobre temas tan diversos como cúbicas torcidas, superficies desarrollables, teoría de las cónicas, curvas planas, superficies de tercer y cuarto grado, estática y geometría proyectiva. También publicó textos fundamentales:

  • Le figure reciproche nella statica grafica (1872)

  • Elementi di geometria proiettiva (1873)

  • Elementi di calcolo grafico (1874)

En 1873 rechazó un cargo político, pero fue nombrado director de la recién creada Escuela Real de Ingeniería de Roma y profesor de matemáticas superiores en la universidad. Su carga administrativa redujo su producción científica, aunque su influencia como pedagogo aumentó considerablemente.

Desde 1856 había comenzado a contribuir a revistas como Annali di scienze matematiche e fisiche y Annali di matematica, llegando a ser coeditor de esta última. Publicó artículos en importantes revistas de Italia, Francia, Alemania e Inglaterra. Varias de sus obras fueron traducidas al inglés y publicadas por la Clarendon Press, como Graphical Statics y Elements of Projective Geometry.

En noviembre de 1877 fue nombrado titular de la cátedra de matemáticas superiores en la Universidad de Roma. En 1879 fue elegido miembro correspondiente de la Royal Society y, ese mismo año, senador del Reino de Italia. En 1898 fue ministro de Educación durante un breve periodo de tiempo. En 1901, la Academia Real de Ciencias de Suecia lo nombró miembro suyo, y en 1902 recibió la distinción alemana Pour le Mérite for Sciences and Arts.

El 10 de junio de 1903, tras levantarse de su lecho de enfermo para intervenir en una sesión legislativa, sufrió un infarto que le causó la muerte.

Las contribuciones de Cremona se destacan en geometría proyectiva, estática gráfica y transformaciones birracionales. Su claridad expositiva y su visión integradora consolidaron una teoría unificada en geometría, situando a Italia a la vanguardia de las matemáticas a finales del siglo XIX.

Diagrama de Cremona. https://es.wikipedia.org/

En el ámbito de las estructuras, es conocido el método gráfico de Cremona. El diagrama de Cremona, también conocido como método de Cremona-Maxwell, es una técnica gráfica desarrollada en el siglo XIX por el matemático italiano Luigi Cremona. Su objetivo es analizar estructuras isostáticas de celosías, como puentes, cerchas o marquesinas. El método se basa en representar gráficamente las fuerzas que actúan en cada nudo de la estructura mediante polígonos funiculares. Para aplicar correctamente este método, la estructura debe estar triangulada y cumplir la relación 2n – 3 = b, donde n es el número de nudos y b el de barras.

El diagrama establece una correspondencia geométrica entre los elementos de la estructura original y los elementos del diagrama: a cada vértice le corresponde un triángulo, a cada barra un segmento y a cada región un punto. La distancia entre los puntos que representan las barras refleja el esfuerzo axial que actúa en ellas, por lo que el diagrama permite calcular las fuerzas internas en cada barra.

Para construir el diagrama, primero se dibujan semirrectas en la dirección de cada fuerza aplicada sobre los nudos. Estas líneas, junto con las barras de la estructura, dividen el plano en regiones numeradas. A partir de un punto inicial asignado a una de las regiones, se ubican los demás puntos del diagrama mediante vectores que representan las fuerzas conocidas. Las regiones interiores se completan con intersecciones de rectas paralelas a los bordes de las regiones adyacentes.

Una vez finalizado el diagrama, las distancias entre los puntos permiten obtener las magnitudes de las fuerzas en las barras, mientras que el tipo de esfuerzo (tracción o compresión) se determina mediante un algoritmo adicional. Este método sigue siendo útil y vigente en el análisis gráfico de estructuras reticulares simples.

Obras fundamentales:

  • Le figure reciproche nella statica grafica (1872)

  • Die reciproken Figuren in der graphischen Statik (1873)

  • Elementi di geometria proiettiva (1873)

  • Elementi di calcolo grafico (1874)

  • Opere matematiche (1914–1917)

Os dejo algunos vídeos del método gráfico de Cremona para la resolución de estructuras.

Joseph Louis Lagrange: El arte de la matemática aplicada a la mecánica

Joseph-Louis Lagrange (1736-1813). https://es.wikipedia.org/wiki/Joseph-Louis_Lagrange

Joseph-Louis Lagrange, inscrito al nacer como Giuseppe Lodovico Lagrangia, nació en Turín el 25 de enero de 1736, en el entonces Reino de Cerdeña. Fue un matemático, físico y astrónomo que desarrolló la mayor parte de su carrera en Prusia y Francia. Falleció en París el 10 de abril de 1813. Lagrange fue una de las mentes más brillantes del siglo XVIII en el ámbito de las matemáticas y la mecánica. Su legado, aún vigente en numerosos campos de la ingeniería y la ciencia, lo sitúa como una figura clave en la historia de la mecánica teórica. Es considerado uno de los científicos más influyentes de todos los tiempos gracias a la profundidad y el volumen de sus contribuciones.

Provenía de una familia de origen parisino asentada en Turín. Su padre era tesorero del Departamento de Obras Públicas y Fortificaciones, pero su afición al juego arruinó la fortuna familiar. Esto le impidió seguir una carrera militar. Estudió en la Universidad de Turín y no mostró interés por las matemáticas hasta los 17 años, cuando la lectura de un ensayo de Edmund Halley despertó su vocación científica.

Con tan solo 19 años, en 1755, se convirtió en profesor de la Escuela Real de Artillería de Turín. Ese mismo año publicó sus primeros trabajos matemáticos independientes, en los que introdujo innovaciones basadas en las teorías de Robins y Euler. No obstante, su enfoque teórico y abstracto fue criticado por su escasa conexión con la práctica militar.

Poco después, en 1757, fundó junto a un grupo de estudiantes la Academia de Ciencias de Turín. El primer volumen de sus Mémoires, publicado en 1759, contenía artículos que ya le situaban entre los grandes científicos del siglo XVIII. Uno de sus alumnos más destacados fue François Daviet de Foncenex, quien se especializó más adelante en análisis dimensional. Durante estos primeros años, centró su trabajo en el estudio de ecuaciones diferenciales, el cálculo de variaciones y sus aplicaciones a la mecánica celeste.

La fama de Lagrange creció rápidamente. En 1757 fue admitido como miembro correspondiente de la Academia de Ciencias de Berlín, gracias a la recomendación de Leonhard Euler. En 1766, tras la marcha de Euler a San Petersburgo, el rey Federico II de Prusia, animado por Jean le Rond d’Alembert, lo invitó a ocupar su lugar. A sus 30 años, Lagrange se instaló en Berlín, donde permaneció dos décadas.

Durante su estancia en Prusia, escribió más de cincuenta tratados sobre matemáticas, mecánica y astronomía. Entre sus avances más notables se encuentran sus contribuciones a la teoría de pandeo en estructuras (Sur la figure des colonnes, 1770–1773), desarrollando la teoría de la estabilidad iniciada por Euler y determinando los modos propios del segundo caso de Euler. Su obra magna, Mécanique analytique, empezó a tomar forma durante este periodo. También dirigió la Academia de Ciencias de Berlín, sucediendo al propio Euler.

La muerte de Federico II en 1786 y el nuevo clima poco favorable a la ciencia le llevaron a aceptar la invitación de Luis XVI para trasladarse a París en 1787 e integrarse en la Academia de Ciencias de Francia. Instalado en el Louvre, continuó su labor científica a pesar de un nuevo episodio depresivo que le llevó a ignorar la publicación de su Mécanique analytique, que había terminado en Berlín y que vio la luz en 1788 gracias a la ayuda de Adrien-Marie Legendre. Esta obra supuso una revolución en la forma de entender la mecánica, ya que Lagrange logró derivar toda la teoría a partir de un único principio: el de las velocidades virtuales.

Curiosamente, la publicación de esta obra coincidió con un periodo de agotamiento personal. Afectado por lo que hoy denominaríamos síndrome de burnout, Lagrange ni siquiera abrió los ejemplares impresos cuando llegaron. Durante un tiempo, se refugió en la teología y la filosofía.

Durante la Revolución Francesa, que marcó un punto de inflexión en su vida, Lagrange permaneció en París. Participó activamente en la reforma del sistema de pesos y medidas, siendo clave en la adopción del sistema métrico decimal en 1799. Fue nombrado profesor de la École Normale en 1795 y, en 1797, pasó a formar parte del claustro de la recién fundada École Polytechnique, donde impartió clases de cálculo diferencial e integral. Sus clases dieron origen a importantes obras como Théorie des fonctions analytiques (1797) y Leçons sur le calcul des fonctions (1799), aunque no logró dotar al análisis matemático de una base plenamente axiomática.

Lagrange llevó una vida metódica y discreta, y siempre evitó la polémica. Era reservado y tímido, y su frágil salud mental le acompañó durante toda su vida, alternando períodos de intensa actividad intelectual con episodios de melancolía.

A pesar de su timidez, su matrimonio en 1792 con una joven que simpatizaba con su carácter reservado marcó un período de estabilidad personal. Recibió numerosos reconocimientos, entre ellos la Gran Cruz de la Orden Imperial de la Reunión, que le concedió Napoleón Bonaparte dos días antes de su muerte.

Joseph Louis Lagrange falleció en París el 10 de abril de 1813. Tres días después fue enterrado en el Panteón, junto a otras grandes figuras de la historia de Francia. En su elogio fúnebre, Pierre-Simon Laplace destacó que, al igual que Newton, Lagrange poseía “el más alto grado de maestría en la medida más afortunada, lo que le permitió descubrir los principios generales que constituyen la verdadera esencia de la ciencia”.

Sus escritos, especialmente Mécanique analytique y sus estudios sobre estructuras y cálculo de variaciones, considerados clásicos de las matemáticas y de la mecánica teórica, siguen siendo valorados no solo por su profundidad conceptual, sino también por su elegancia formal. En palabras del matemático Hamel, su estilo es “profundo, transparente, prudente, puro, claro, encantador, e incluso elegante”: una muestra de lo que puede ser la auténtica belleza matemática.

Principales aportaciones a la teoría de estructuras y la mecánica:

  • Sur la figure des colonnes (1770–1773): desarrollo de la teoría del pandeo.

  • Mécanique analytique (1788): reformulación de la mecánica clásica desde principios variacionales.

  • Analytische Mechanik (edición póstuma de 1887): versión alemana con gran influencia posterior.

Os dejo un enlace a un vídeo sobre este personaje.

https://www.youtube.com/watch?v=av5WgKdOAd8