Algunas preguntas sobre la gestión y el mantenimiento de la maquinaria empleada en la construcción

¿Cuáles son los objetivos principales del mantenimiento de la maquinaria y cómo se clasifica?

El mantenimiento de la maquinaria de construcción tiene como objetivos fundamentales maximizar su disponibilidad al mínimo coste, optimizar su rendimiento y garantizar unas condiciones óptimas de operatividad y seguridad. Esto se traduce en la reducción de costes debidos a paradas accidentales, minimizando las pérdidas de producción y los gastos propios del mantenimiento, así como en la limitación del deterioro de la maquinaria para evitar la disminución de la calidad del producto.

Las tareas de mantenimiento se clasifican en niveles según la importancia de la obra y sus misiones específicas. Por ejemplo, en una empresa constructora típica, el primer escalón (conductoras y conductores) se encarga del mantenimiento diario, semanal o quincenal (limpieza, repostaje, engrase y reparaciones de urgencia). El segundo escalón (equipos de obra) se encarga del mantenimiento mensual, trimestral o semestral, que incluye revisiones, ajustes ligeros y localización de averías. Los escalones superiores (el tercero y el cuarto, talleres móviles y fijos) se dedican a reparaciones más complejas, a la sustitución de piezas y a grandes reconstrucciones.

¿Qué tipos de políticas de mantenimiento existen y cuál es el más beneficioso a largo plazo?

No existe una clasificación rígida de los sistemas de mantenimiento y cada empresa debe elegir el más adecuado para cada máquina. Sin embargo, pueden clasificarse principalmente en:

  • Corrección por avería: Se permite que los equipos funcionen hasta que fallen, y luego se reparan lo antes posible. Aunque a corto plazo puede parecer económico, a medio y largo plazo puede generar costes elevados debido a la imposibilidad de programar las paradas y al riesgo de fallos graves, lo que disminuye la eficiencia del servicio. Solo se justifica en contadas ocasiones o cuando se trata de muchas máquinas iguales y hay capacidad de sobra.
  • Mantenimiento rutinario: Se establecen instrucciones generales para el mantenimiento de grupos homogéneos de máquinas, basado en la experiencia, para prevenir fallos. Es de bajo costo y puede resolver muchas averías antes de que ocurran.
  • Mantenimiento preventivo planificado: Se establecen ciclos de revisiones y sustituciones de componentes importantes según las instrucciones del fabricante y el uso de la máquina. Esto permite registrar averías y prever la vida útil de los elementos. Aunque es más costoso a corto plazo, resulta más ventajoso a medio y largo plazo, ya que permite programar los tiempos de inactividad y evitar fallos catastróficos, lo que aumenta la eficacia general. El objetivo es reparar antes de que se produzca una avería importante, lo que resulta más rápido y económico.

En resumen, el mantenimiento preventivo planificado es el más ventajoso a medio y largo plazo, ya que permite anticiparse a los problemas, reducir los costes y los tiempos de reparación, y aumentar la eficacia del servicio.

¿Cómo se distribuye el tiempo de permanencia de una máquina en obra y qué implicaciones tiene para los costos?

El tiempo que una máquina permanece en obra se divide en varias categorías, lo que afecta directamente el costo horario y la producción.

  • Tiempo de calendario laborable (fondo horario bruto): Horas reconocidas por la legislación laboral y la organización para trabajar.
  • Tiempo laborable real (fondo horario operacional): Horas de presencia efectiva de la máquina en obra, descontando circunstancias fortuitas como fenómenos atmosféricos, huelgas o catástrofes. Incluye horas extraordinarias.
  • Tiempo de máquina en disposición (fondo horario de explotación): Horas en las que la máquina está operativa y lista para trabajar, excluyendo paradas menores a 15 minutos.
  • Tiempo fuera de disposición: Horas en las que la máquina no está operativa, divididas en:
  • Mantenimiento: Tareas previsibles.
  • Averías: Reparaciones imprevisibles.
  • Parada por organización de obra: Tiempo de inactividad por causas ajenas a la máquina (falta de tajo, suministros, averías de otras máquinas, etc.).
  • Tiempo de trabajo útil: Horas netas donde la máquina produce, incluyendo trabajo productivo y trabajo no productivo o complementario.

Esta distribución temporal implica que el coste horario de una máquina varía en función de la referencia. Para el propietario, el coste se evalúa en relación con la hora de utilización, mientras que, en el caso de un alquiler, se refiere a la hora laborable real. Ampliar la jornada laboral para aumentar las horas útiles puede disminuir el coste horario fijo y acortar los plazos, pero hay que sopesarlo con inconvenientes como el aumento de costes por horas extra del operario, su fatiga y la dilución de responsabilidades si hay varios conductores, lo que puede incrementar las averías.

¿Cómo se calcula la fiabilidad de un equipo de construcción y cuáles son las fases de su vida útil según la «curva de la bañera»?

La fiabilidad se define como la probabilidad de que una unidad funcione correctamente en un intervalo de tiempo determinado sin interrupciones debidas a fallos de sus componentes, en condiciones establecidas. Está relacionada con el tiempo medio entre fallos (TMEF), que es la relación entre las horas de funcionamiento y el número de averías sufridas en ese período.

La «curva de la bañera» describe la evolución de la tasa de fallos de una máquina a lo largo del tiempo y se divide en tres fases:

  1. Período de mortalidad infantil o fallos prematuros: Caracterizado por una alta tasa de fallos que disminuye rápidamente. Las causas suelen ser errores de diseño, fabricación o uso. Estos fallos ocurren en la fase de rodaje y, una vez resueltos, no suelen repetirse.
  2. Período de tasa de fallos constante o vida útil: Los fallos aparecen de forma aleatoria y accidental, debidos a limitaciones de diseño, percances por uso o mal mantenimiento. Es el período ideal de utilización de la máquina.
  3. Período de desgaste: La tasa de fallos aumenta con el tiempo debido a la vejez y el fin de la vida útil. En esta fase, se recomienda el reemplazo preventivo de componentes o incluso la renovación completa del equipo para evitar incidentes catastróficos.
Figura 2. Curva de fiabilidad de una máquina

Para alargar su vida útil, se puede aplicar el envejecimiento preventivo (funcionamiento preliminar para detectar fallos prematuros) y la sustitución preventiva (reemplazo de unidades al finalizar su vida útil para evitar fallos).

¿Cómo se modela la fiabilidad de una máquina y qué técnicas de prevención de fallos se utilizan en el diseño?

La fiabilidad de una máquina puede modelarse mediante la distribución exponencial cuando la tasa de fallos es constante durante el período de vida útil. Esto implica que la ocurrencia de un fallo es imprevisible e independiente de la vida útil del equipo. Una generalización de este modelo es la función de Weibull, que se utiliza cuando la tasa de fallos es variable y permite tener en cuenta las fases de fallos precoces y de envejecimiento.

En lo que respecta a las técnicas de prevención de fallos en el diseño de equipos, las empresas se centran en maximizar la fiabilidad del producto. Algunas metodologías clave son:

  • Despliegue de la Función de Calidad (QFD): Permite traducir los requisitos de calidad del cliente en características técnicas del producto, utilizando matrices para analizar necesidades, competencia y nichos de mercado.
  • Análisis Modal de Fallos y Efectos (AMFE): Una metodología estructurada para identificar y prevenir modos de fallo potenciales y sus causas en un producto o sistema.
  • Análisis del valor: Busca reducir el coste del producto sin eliminar las características esenciales demandadas por los clientes, identificando cambios que aumenten el valor sin un incremento desproporcionado del coste.

¿Cómo influyen las condiciones climáticas y otros imprevistos en la planificación del tiempo de trabajo en una obra de construcción?

Las condiciones climáticas y otros imprevistos son factores cruciales que influyen en el plazo de ejecución de una obra. La planificación del tiempo de trabajo disponible se basa en datos históricos del clima y en el calendario laboral.

El método de la Dirección General de Carreteras, por ejemplo, utiliza coeficientes de reducción aplicados al número de días laborables de cada mes para estimar los días efectivamente trabajados. Estos coeficientes tienen en cuenta:

  • Temperatura límite: Por debajo de la cual no se pueden ejecutar ciertas unidades de obra (ej., 10 ºC para riegos bituminosos, 5 ºC para mezclas bituminosas, 0 ºC para manipulación de materiales húmedos).
  • Precipitación límite diaria: Se definen valores como 1 mm/día para trabajos sensibles a lluvia ligera y 10 mm/día para la mayoría de los trabajos, donde una protección especial sería necesaria.

Los días utilizables netos de cada mes se calculan multiplicando los días laborables por los coeficientes reductores por climatología adversa y por los días no laborables, que dependen de festivos y convenios laborales. La reducción de días representa la probabilidad de que un día del mes sea favorable desde el punto de vista climático y laborable. Estos cálculos permiten elaborar un plan de obra lo más ajustado posible, minimizando las desviaciones de plazo, aunque la evolución del tiempo atmosférico es impredecible en la práctica.

¿Qué se entiende por «disponibilidad» de una máquina en obra y cómo se calcula?

La disponibilidad de una máquina se refiere a su estado operativo, es decir, al tiempo en el que se encuentra disponible. Se pueden distinguir dos tipos principales de disponibilidad:

  • Disponibilidad en obra o factor de disponibilidad: Se define como el cociente entre el tiempo en que una máquina se encuentra en estado operativo y el tiempo laborable real. En otras palabras, es la relación entre las horas brutas de disponibilidad y las horas que la máquina ha estado presente en la obra. Valores bajos de este factor pueden indicar una mala conservación, reparaciones lentas o falta de repuestos.
  • Disponibilidad intrínseca: Se define como el cociente entre el tiempo de utilización y el tiempo laborable real, sin tener en cuenta las paradas ajenas a la máquina por tiempo disponible no utilizado (mala organización de la obra, etc.). Estadísticamente, se define como la probabilidad de que una máquina funcione correctamente en un momento determinado o de que no presente averías irreparables en un tiempo máximo.

Las máquinas se clasifican en «principales» (se requiere alta disponibilidad, ya que su fallo paraliza la producción de un conjunto de máquinas) y «secundarias» o «de producción trabajando solas».

¿Cómo se calcula la disponibilidad de un conjunto de máquinas trabajando en cadena y en paralelo?

La disponibilidad de un sistema de máquinas varía significativamente en función de si trabajan en serie o en paralelo.

  • Máquinas trabajando en cadena (serie): Si n máquinas trabajan en cadena, y el fallo de una paraliza a las demás, la disponibilidad intrínseca del conjunto es el producto de las disponibilidades individuales. Esto significa que la disponibilidad general disminuye rápidamente al aumentar el número de máquinas en serie. Si se admiten acopios intermedios suficientemente grandes, la disponibilidad del equipo sería el mínimo de las disponibilidades individuales, lo que amplía la disponibilidad respecto a no tener acopios.
  • Máquinas trabajando en paralelo: Si n máquinas iguales trabajan en paralelo y la inoperatividad de una no detiene completamente el proceso (ya que otras pueden seguir trabajando), la probabilidad de que x máquinas se encuentren en disposición sigue una distribución binomial. En este caso, la disponibilidad del conjunto aumenta al tener más unidades en paralelo, ya que el sistema puede continuar operando incluso si algunas máquinas fallan.

En un caso general de máquinas principales en paralelo y auxiliares en paralelo que luego trabajan en serie, la disponibilidad del conjunto se calcula combinando las fórmulas de disponibilidad en serie y en paralelo.

 

Referencias:

PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente nº 97.439. Ed. Universitat Politècnica de València. 256 pág. Depósito Legal: V-4598-1997. ISBN: 84-7721-551-0.

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442. ISBN: 978-84-1396-046-3

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

Curso:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Necrológica: Javier Rui-Wamba: la ingeniería como humanismo

Javier Rui-Wamba Martija (1942-2025). Foto cortesía de Esteyco

Acaba de dejarnos Javier Rui-Wamba Martija, fundador de Esteyco y de la fundación que lleva su nombre. Falleció en Barcelona el pasado 10 de julio. Su vida y su obra demostraron que la ingeniería no solo es técnica, sino también cultura, rigor y belleza.

Nació en Guernica en 1942 y, a los siete años, se mudó a Bilbao, donde cursó los diez años de bachillerato en el colegio de los jesuitas. En aquellos años, además de estudiar, cultivó su afición por el deporte: practicó fútbol y baloncesto con éxito y recorría en bicicleta la ría, contemplando la industria pesada de la margen izquierda y los barcos que esperaban faena los lunes.

Se formó como ingeniero de Caminos, Canales y Puertos y, durante años, fue docente en la Escuela Superior de Ingenieros de Caminos de Madrid, en la cátedra de Puentes y Estructuras Metálicas. También participó activamente en numerosos comités nacionales e internacionales, contribuyendo a elaborar normativas de referencia como el influyente Código Modelo 1990 del Comité Europeo del Hormigón.

Su carrera profesional fue igual de intensa: lideró un equipo multidisciplinar en más de 800 proyectos en más de 30 países, para los que empleó con frecuencia técnicas innovadoras y materiales diversos. Entre sus obras más notables destacan la torre eólica telescópica sin sujeción más alta del mundo, proyectada en China, y la plaza de las Glorias de Barcelona, un proyecto que diseñó y rediseñó para abrir la ciudad al mar.

En 1970, fundó la empresa Esteyco y, más tarde, la Fundación Esteyco, con la que demostró que la ingeniería también puede ser un humanismo, creando un espacio de encuentro entre arquitectura e ingeniería en el que ambas disciplinas se someten al rigor científico, la excelencia literaria y la belleza visual. La fundación ha editado más de cien libros desde 1991, que se suman a la impresionante biblioteca personal de Rui-Wamba: cuatro mil volúmenes técnicos en su oficina y otros cuatro mil —sobre todo novelas— en su casa. «Con los libros pierdes el miedo a lo que no conoces», solía decir.

Además de su labor profesional, Rui-Wamba dejó un legado intelectual: tras 12 años de trabajo y unas 10.000 horas invertidas, publicó su obra más ambiciosa, El legado estructural de Javier Rui-Wamba: extractos de la teoría unificada de estructuras y cimientos (TUEC), un tratado de 3.000 páginas cuidadosamente manuscritas.

A lo largo de su carrera recibió numerosos galardones, entre ellos el Premio Nacional de Ingeniería Civil, concedido por unanimidad en 2016, la Medalla Ildefons Cerdá, la Medalla de Honor del Colegio de Ingenieros de Caminos y el Premio Nacional de Ingeniería del Ministerio de Fomento. El propio ministro destacó entonces su «talento y compromiso con la sociedad» y su capacidad para combinar las distintas facetas de la profesión.

Hasta poco antes de la pandemia, acudía cada mañana a su oficina con buen humor y una sonrisa, con un aire que recordaba al actor Harrison Ford. Hablaba catalán, firmaba con su Pilot V5 azul y recordaba con cariño que su madre le llamaba buru handi (cabeza grande) en euskera.

Hoy, arquitectos e ingenieros, reconocemos la deuda de gratitud con quien supo tender puentes entre la técnica y la cultura, la ciencia y la belleza. Descanse en paz, Javier Rui-Wamba Martija.

Aquí le podemos ver en varios vídeos:

Os dejo un artículo que permite adentrarnos algo más en la personalidad de este gran ingeniero.

Pincha aquí para descargar

También el discurso de toma de posesión en la Academia de Ingeniería.

Pincha aquí para descargar

RESILIFE: Optimización resiliente de estructuras híbridas en condiciones extremas

En este artículo se explica el proyecto RESILIFE, cuyos investigadores principales son Víctor Yepes y Julián Alcalá, de la Universitat Politècnica de València. Se trata de un proyecto de investigación de carácter internacional en el que también colaboran profesores de Brasil, Chile y China. Además, se están realizando varias tesis doctorales de estudiantes de Cuba, Perú, México y Ecuador, así como de estudiantes españoles. A continuación, se describe brevemente el proyecto y se incluye una comunicación reciente donde se explica con más detalle.

El proyecto RESILIFE se centra en optimizar de forma resiliente el ciclo de vida de estructuras híbridas y modulares para conseguir una alta eficiencia social y medioambiental, especialmente en condiciones extremas. La investigación aborda la necesidad de diseñar, construir y mantener infraestructuras que puedan resistir y recuperarse rápidamente de desastres naturales o provocados por el ser humano, minimizando las pérdidas y el impacto en la sociedad y el medioambiente. Para ello, el estudio propone utilizar inteligencia artificial, metaheurísticas híbridas, aprendizaje profundo y teoría de juegos en un enfoque multicriterio. El objetivo es mejorar la seguridad, reducir costes y optimizar la recuperación, alineándose con los Objetivos de Desarrollo Sostenible (ODS). La metodología integral incluye el análisis del ciclo de vida, así como la aplicación de lógica neutrosófica y redes bayesianas para la toma de decisiones.

¿Qué problema aborda el proyecto RESILIFE y por qué es urgente?

El proyecto RESILIFE aborda el desafío crítico que supone diseñar y mantener infraestructuras resilientes y sostenibles frente a desastres naturales y provocados por el ser humano. La urgencia es evidente debido a las enormes pérdidas humanas y económicas causadas por estos eventos (más de 1,1 millones de muertes y 1,5 billones de dólares en pérdidas entre 2003 y 2013), lo que subraya la necesidad de estructuras de alto rendimiento que protejan vidas y economías, al tiempo que se alinean con los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas. Además, los errores de diseño y construcción, así como la falta de mantenimiento, han demostrado ser causas significativas de colapso estructural, y solo el 50 % de las reparaciones de hormigón resultan efectivas en Europa.

¿Cuál es el objetivo principal de RESILIFE?

El objetivo general del proyecto RESILIFE es optimizar el diseño, el mantenimiento y la reparación de estructuras híbridas y modulares (MMC) de alta eficiencia social y medioambiental para que puedan resistir condiciones extremas. Para ello, se deben abordar problemas complejos de toma de decisiones en los ámbitos público y privado, integrando criterios de sostenibilidad social y medioambiental durante todo el ciclo de vida de las estructuras y teniendo en cuenta la variabilidad e incertidumbre inherentes al mundo real. El objetivo es que estas estructuras sean tan seguras como las tradicionales, pero con una mayor capacidad de recuperación rápida y un menor impacto social y medioambiental.

 

¿Qué tipos de estructuras son el foco de RESILIFE y por qué?

El proyecto se centra en estructuras híbridas (que combinan, por ejemplo, acero y hormigón) y en estructuras basadas en métodos modernos de construcción (MMC), especialmente las modulares. Estas estructuras se han elegido como objeto de estudio debido a su gran potencial para mejorar la resiliencia estructural, la eficiencia en la construcción (al reducir las interrupciones en obra y mejorar el control de calidad) y la sostenibilidad. A pesar de sus ventajas, se han identificado lagunas en la investigación sobre su optimización para eventos extremos y su aplicación en estructuras complejas, aspectos que el proyecto RESILIFE busca subsanar.

¿Qué metodologías innovadoras utiliza RESILIFE para lograr sus objetivos?

RESILIFE emplea un enfoque multidisciplinario e innovador que integra diversas técnicas avanzadas:

¿Cómo aborda RESILIFE la incertidumbre y la variabilidad en el diseño y mantenimiento de estructuras?

El proyecto aborda la incertidumbre y la variabilidad mediante varias estrategias:

  • Análisis de funciones de distribución de eventos extremos: Para el diseño óptimo basado en fiabilidad.
  • Metamodelos y metaheurísticas híbridas basadas en fiabilidad: Permiten manejar la aleatoriedad de los parámetros y asegurar que los proyectos optimizados no sean inviables ante pequeños cambios en las condiciones.
  • Técnicas de decisión multicriterio (lógica neutrosófica y redes bayesianas): Integran aspectos inciertos y criterios subjetivos en la toma de decisiones.
  • Análisis de sensibilidad: De los escenarios presupuestarios y las hipótesis del ciclo de vida para identificar las mejores prácticas.

¿Qué se entiende por «resiliencia» en el contexto de RESILIFE y cómo se cuantifica?

En el contexto de RESILIFE, la resiliencia se define como la capacidad de una estructura para resistir eventos extremos, mantener su funcionalidad o recuperarla rápidamente con reparaciones mínimas tras sufrir daños, y con un bajo coste social y medioambiental. El objetivo es ir más allá de la simple resistencia y centrarse en la capacidad de adaptación y recuperación. El proyecto tiene como objetivo desarrollar procedimientos explícitos para cuantificar la resiliencia de las estructuras e infraestructuras en el contexto de múltiples amenazas, un aspecto que actualmente presenta una laguna en la investigación. Esto incluye tener en cuenta la funcionalidad técnico-socioeconómica y los impactos a lo largo de toda su vida útil.

¿Qué tipo de casos de estudio se aplican en la metodología RESILIFE?

La metodología de RESILIFE se aplica a varios casos de estudio clave:

  • Optimización de pórticos de edificios altos: Con estructura de acero híbrido y hormigón armado, sometidos a un fuerte incremento de temperatura, o ante el fallo completo de soportes para evitar el colapso progresivo.
  • Viviendas sociales prefabricadas en zonas sísmicas: Optimizando su resistencia a acciones extremas y su capacidad de reparación rápida.
  • Mantenimiento y reparación de patologías: Resultantes de eventos extremos en diversas estructuras.
  • Otras estructuras como puentes mixtos y estructuras modulares: Ampliando el alcance más allá de las viviendas. Estos casos de estudio permiten validar la aplicabilidad de las metodologías propuestas en situaciones reales y complejas.

¿Cuáles son las principales contribuciones esperadas de RESILIFE a la ingeniería estructural y la sostenibilidad?

Las principales contribuciones esperadas de RESILIFE son:

  • Desarrollo de soluciones constructivas innovadoras: Como conexiones especiales y estructuras fusibles para aumentar la resiliencia y evitar el colapso progresivo.
  • Formulación de metodologías de participación social: Para integrar criterios objetivos y subjetivos en decisiones multicriterio.
  • Propuesta de técnicas de optimización multiobjetivo avanzadas: Basadas en metaheurísticas híbridas de deep learning, teoría de juegos y fiabilidad.
  • Introducción de nuevas métricas: Que prioricen soluciones resilientes en la frontera de Pareto.
  • Identificación de políticas presupuestarias efectivas: Y definición de buenas prácticas de diseño, reparación y mantenimiento robusto en construcciones MMC y estructuras híbridas.
  • Avances en la modelización y evaluación: De la sostenibilidad a largo plazo y el impacto ambiental de las infraestructuras, contribuyendo a normativas y software de diseño más eficientes.

Pincha aquí para descargar

Glosario de términos clave

  • Resiliencia (estructural): Capacidad de una estructura para absorber, resistir, adaptarse y recuperarse de un evento extremo, manteniendo o recuperando su funcionalidad rápidamente y con costes mínimos.
  • Estructuras híbridas: Estructuras que combinan dos o más materiales estructurales diferentes, como acero y hormigón, para optimizar sus propiedades y rendimiento.
  • Estructuras modulares: Estructuras compuestas por unidades o módulos prefabricados que se ensamblan en el lugar de la construcción, ofreciendo ventajas en velocidad de construcción y control de calidad.
  • Eventos extremos: Desastres naturales (terremotos, tsunamis, inundaciones) o provocados por humanos (explosiones, impactos) que causan daños significativos a las estructuras y la sociedad.
  • Optimización del ciclo de vida: Proceso de diseño, construcción, mantenimiento y reparación de una estructura, considerando su impacto total (económico, social, ambiental) a lo largo de toda su vida útil.
  • Sostenibilidad: Principio que busca satisfacer las necesidades actuales sin comprometer la capacidad de las futuras generaciones para satisfacer sus propias necesidades, integrando aspectos ambientales, sociales y económicos.
  • Inteligencia artificial (IA): Campo de la informática que dota a las máquinas de la capacidad de aprender, razonar y resolver problemas, utilizada aquí para evaluar y mejorar la resiliencia.
  • Metaheurísticas híbridas: Algoritmos de optimización que combinan diferentes técnicas heurísticas o metaheurísticas para encontrar soluciones eficientes a problemas complejos, especialmente en la optimización multiobjetivo.
  • Aprendizaje profundo (Deep Learning – DL): Subcampo del aprendizaje automático que utiliza redes neuronales artificiales con múltiples capas para aprender representaciones de datos, aplicado para mejorar la toma de decisiones y reducir tiempos de cálculo.
  • Teoría de juegos: Rama de las matemáticas que estudia las interacciones estratégicas entre agentes racionales, aplicada en la optimización multiobjetivo para el diseño de estructuras.
  • Lógica neutrosófica: Marco matemático para tratar la indeterminación y la inconsistencia, utilizado en la toma de decisiones multicriterio para manejar la incertidumbre.
  • Redes bayesianas: Modelos gráficos probabilísticos que representan relaciones de dependencia condicional entre variables, empleadas en el análisis multicriterio y la gestión de incertidumbre.
  • Colapso progresivo: Fenómeno en el cual un daño inicial localizado en una estructura se propaga a otras partes, llevando al colapso desproporcionado de una gran porción o de toda la estructura.
  • Modern Methods of Construction (MMC): Métodos de construcción modernos que incluyen tecnologías de prefabricación, construcción modular e impresión 3D, buscando mayor eficiencia y control de calidad.
  • BIM (Building Information Modeling / Modelos de Información en la Construcción): Proceso de creación y gestión de un modelo digital de un edificio o infraestructura, que facilita la integración del proyecto estructural y la toma de decisiones a lo largo del ciclo de vida.
  • Metamodelo (o modelo subrogado): Modelo simplificado de un sistema complejo que permite realizar cálculos más rápidos y eficientes, crucial para reducir los tiempos de computación en la optimización.
  • Diseño óptimo basado en fiabilidad: Enfoque de diseño que considera la probabilidad de fallo y las incertidumbres inherentes para optimizar las estructuras, garantizando un nivel de seguridad predefinido.
  • Frontera de Pareto: Conjunto de soluciones óptimas en problemas de optimización multiobjetivo, donde ninguna de las funciones objetivo puede mejorarse sin degradar al menos otra función objetivo.

Agradecimientos:

Grant PID2023-150003OB-I00 funded by MCIN/AEI/10.13039/501100011033, and the European Regional Development Fund (ERDF), a program of the European Union (EU).

Algunas preguntas sobre el curado del hormigón

¿Qué es el curado del hormigón y por qué es imprescindible?

El curado del hormigón consiste en adoptar medidas para facilitar la hidratación del cemento, lo que implica evitar la pérdida de humedad por evaporación y, si es necesario, aportar humedad adicional. También se busca mantener una temperatura favorable durante el fraguado y los primeros días de endurecimiento. Es relevante porque si el hormigón se seca al aire, su resistencia puede disminuir hasta en un 40 %, aumenta su porosidad y se incrementa la probabilidad de que se produzcan fisuras por retracción. Un curado adecuado garantiza el desarrollo óptimo de la resistencia y la durabilidad, ya que la impermeabilidad de las capas exteriores del hormigón depende en gran medida de un proceso de curado eficaz, lo que, a su vez, prolonga la vida útil de la estructura al proteger el recubrimiento de las armaduras.

¿Cuál es la importancia del agua en el proceso de hidratación del cemento y en el curado?

El agua es imprescindible para la hidratación del cemento, que solo se produce en un entorno casi saturado. Para la hidratación completa del cemento Portland, se requiere una cantidad de agua equivalente a 0,45 veces la masa del cemento hidratado, la cual se divide en agua químicamente combinada (0,25 veces la masa del cemento) y agua adsorbida en la estructura del gel (0,20 veces la masa del cemento). Durante el proceso de curado, es necesario añadir agua adicional para mantener los poros capilares saturados y permitir que el cemento continúe hidratándose. La proporción adecuada de agua y un curado húmedo son fundamentales para que los productos de la hidratación rellenen los poros entre las partículas de cemento, lo que aumenta la resistencia y la durabilidad del hormigón. Si la relación agua/cemento es baja (igual o inferior a 0,45), puede producirse autodesecación, por lo que se requiere un curado húmedo continuo, aunque la baja permeabilidad puede limitar la penetración de agua externa en la superficie.

¿Cuáles son las fases del curado del hormigón según la norma ACI 308 R?

El curado del hormigón se divide en tres fases principales que abarcan desde su colocación hasta que la estructura adquiere sus propiedades de diseño:

  • Curado inicial: cuando la superficie del hormigón empieza a secarse, incluso antes de que se complete el acabado. Su objetivo es evitar la pérdida de humedad superficial y prevenir la fisuración por retracción plástica. Es especialmente importante en hormigones con baja exudación o en entornos con alta evaporación, y puede lograrse mediante nebulización, aditivos reductores de la evaporación o modificando el entorno.
  • Curado intermedio: Es necesario cuando el acabado de la superficie se completa antes de que el hormigón haya fraguado por completo. Se pueden continuar con las medidas del curado inicial o emplear métodos que no dañen la superficie aún blanda, como la aplicación suave de agua o de compuestos de curado.
  • Curado final: Se aplican los procedimientos tras el acabado, una vez que el hormigón ha fraguado y ha comenzado a desarrollar resistencia. Es fundamental iniciarlo sin demora para evitar una pérdida significativa de agua por evaporación, especialmente en acabados con una gran superficie expuesta. Puede incluir aspersión, el uso de arpilleras húmedas o el riego con manguera, entre otros métodos.

¿Cómo influyen las condiciones ambientales y el tipo de hormigón en la duración y la intensidad del curado?

La duración y la intensidad del curado dependen de varios factores:

  • Temperatura y humedad ambientales: A medida que las condiciones sean más adversas (por ejemplo, calor intenso o baja humedad), se requerirá un período de curado más prolongado.
  • Acción del viento y exposición directa al sol: Estos factores aumentan la velocidad de evaporación, lo que exige medidas de curado más rigurosas.
  • Tipo y cantidad de cemento: Los cementos difieren en su velocidad de hidratación, lo que influye en los requisitos de curado.
  • Relación agua/cemento (a/c): Una baja relación a/c puede conducir a la autodesecación y a requerir un curado húmedo más intensivo.
  • Condiciones de exposición de la estructura en servicio: Las estructuras expuestas a ambientes más agresivos requieren un curado más prolongado y eficaz para garantizar su durabilidad.

¿Qué problemas específicos presenta el curado de losas de hormigón sobre tierra y cómo se abordan?

Las losas de hormigón sobre tierra, ya sean pavimentos o cimentaciones, presentan una alta relación entre el área superficial y el volumen, por lo que son susceptibles a una evaporación rápida y significativa. Los principales problemas son:

  • Formación de gradientes de humedad: La pérdida de humedad en la cara superior provoca la curvatura de la losa, mientras que una base de tierra seca puede absorber agua del hormigón y generar una curvatura opuesta. Para evitarlo, hay que humedecer previamente la base y garantizar condiciones de humedad uniformes en ambas caras mediante un curado inicial, intermedio y final. Si se utiliza una lámina impermeable, la cara superior debe mantenerse húmeda para evitar la curvatura.
  • Riesgo de fisuración por retracción plástica: La rápida pérdida de humedad superficial aumenta este riesgo. Es crucial aplicar el curado inmediatamente después del acabado.

Entre los métodos recomendados se incluyen los reductores de evaporación, la nebulización, los compuestos de curado (preferiblemente pigmentados en blanco si la temperatura ambiente supera los 25 °C) y la protección con techado y cortavientos. El uso de agua por aspersión o inmersión es el más eficaz, ya que también ayuda a enfriar el hormigón y a reducir la fisuración térmica.

¿Qué es el curado al vapor y cuáles son sus principales aplicaciones?

El curado al vapor es un método muy eficaz para curar el hormigón, que se emplea casi exclusivamente en la prefabricación y acelera considerablemente su endurecimiento. Este proceso implica la aplicación de calor húmedo y se basa en el concepto de «maduración» del hormigón, en el que diferentes combinaciones de temperaturas y tiempos pueden producir resultados similares en cuanto a endurecimiento.

Se puede realizar de dos formas:

  • Curado a presión atmosférica: Se utiliza en estructuras encerradas construidas in situ o en grandes unidades prefabricadas.
  • Curado con vapor a alta presión: se realiza en autoclaves y se aplica a pequeñas unidades prefabricadas.

El proceso consiste en elevar gradualmente la temperatura tras el prefraguado, mantenerla dentro de un rango establecido (entre 55 °C y 75 °C, sin superar los 80 °C) y, a continuación, reducirla de forma continua hasta alcanzar la temperatura ambiente, evitando cambios térmicos bruscos.

¿Cuáles son las ventajas del curado al vapor en comparación con los métodos convencionales?

El curado al vapor ofrece varias ventajas significativas:

  • Endurecimiento rápido: Facilita el proceso constructivo en climas fríos y permite una alta resistencia inicial, especialmente útil en la fabricación de unidades prefabricadas y pretensadas.
  • Aceleración de la construcción: Incrementa la velocidad de obra, lo que se traduce en mayor eficiencia y productividad.
  • Rapidez: Acorta los tiempos de construcción y permite una mayor rotación de proyectos en comparación con otros métodos de curado convencionales.
  • Control de la hidratación: Permite un control meticuloso para asegurar que el recinto de curado permanezca saturado de humedad, aunque requiere precaución para evitar cambios de volumen excesivos.

¿Cuáles son las desventajas del curado al vapor?

A pesar de sus beneficios, el curado al vapor presenta ciertas limitaciones:

  • Limitaciones en superficies extensas: No es adecuado para curar grandes áreas in situ, lo que puede requerir métodos alternativos.
  • Necesidad de personal capacitado: Requiere personal experimentado para garantizar resultados óptimos y prevenir problemas como cambios volumétricos excesivos, que pueden afectar la resistencia inicial del hormigón.
  • Coste inicial elevado: El equipo y los materiales necesarios para el curado al vapor suelen implicar un costo inicial más alto que los métodos de curado convencionales.

En esta conversación y en este vídeo que os dejo, aparecen conceptos interesantes de este tema.

Referencias:

CALAVERA, J. et al. (2004). Ejecución y control de estructuras de hormigón. Intemac, Madrid, 937 pp.

MARTÍ, J.V.; YEPES, V.; GONZÁLEZ, F. (2014). Fabricación, transporte y colocación del hormigón. Apuntes de la Universitat Politècnica de València, 189 pp.

MENZEL, C.A. (1954). Causes and Prevention of Crack Development in Plastic Concrete. Proceedings of the Portland Cement Association, Vol. 130:136.

LERCH, W. (1957). Plastic shrinkage. ACI Journal, 53(8):797-802.

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

Cursos:

Curso de fabricación y puesta en obra del hormigón.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Ingeniero, matemático y visionario: la historia de Saint-Venant

Adhémar Jean Claude Barré de Saint-Venant (1797 – 1886). https://en.wikipedia.org/wiki/

Adhémar Jean Claude Barré de Saint-Venant (Villiers-en-Bière, Seine-et-Marne, Francia, 23 de agosto de 1797 – Saint-Ouen, Loir-et-Cher, Francia, enero de 1886) fue un ingeniero, matemático y científico de la mecánica de medios continuos francés que contribuyó de manera decisiva al nacimiento de esta disciplina, tanto en la mecánica de sólidos deformables como en la mecánica de fluidos. Aunque su apellido completo era Barré de Saint-Venant, en la bibliografía no francesa suele aparecer simplemente como Saint-Venant.

Fue un pionero en el estudio de los esfuerzos en estructuras. Su nombre está vinculado al principio de Saint-Venant para sistemas de cargas equivalentes, al teorema de Saint-Venant, que establece que el círculo es la sección maciza más efectiva contra la torsión, y a la condición de compatibilidad de Saint-Venant, que garantiza la integrabilidad de los tensores de deformación. En mecánica de fluidos, desarrolló las ecuaciones que describen el flujo unidimensional no estacionario de un fluido en lámina libre para aguas poco profundas, conocidas como ecuaciones de Saint-Venant. También fue el primero en «identificar adecuadamente el coeficiente de viscosidad y su papel como factor multiplicador de los gradientes de velocidad en un flujo».

Además, desarrolló un cálculo vectorial similar al de Grassmann (hoy considerado una forma de cálculo exterior), que publicó en 1845. Esto dio lugar a una disputa sobre la prioridad con Grassmann, quien había publicado sus resultados un año antes, en 1844, aunque Saint-Venant afirmó haber ideado el cálculo en 1832.

Vida

Nació el 23 de agosto de 1797 en el Château de Fortoiseau, en Villiers-en-Bière (Seine-et-Marne). Su padre, Jean Barré de Saint-Venant (1737-1810), fue oficial colonial en la isla de Santo Domingo y su madre, Marie-Thérèse Josèphe Laborie, nació en Haití en 1769.

En 1813, con tan solo dieciséis años, ingresó en la École Polytechnique, donde estudió bajo la dirección de Gay-Lussac. Ese mismo año, París se preparaba para resistir la invasión tras la derrota de Napoleón en Leipzig. Todos los estudiantes fueron movilizados, pero Saint-Venant se negó a combatir diciendo: «Mi conciencia me prohíbe luchar por un usurpador». Por esta negativa, tuvo que abandonar la escuela. No obstante, en 1816 logró graduarse como ingeniero tras completar los estudios interrumpidos.

A partir de ese momento, trabajó como ingeniero durante 27 años. Inicialmente, su afición por la química le llevó a ser élève-commissaire del Service des Poudres et Salpêtres (Servicio de Pólvoras y Nitratos), donde trabajó durante los primeros siete años. Posteriormente, durante los veinte años siguientes, ejerció como ingeniero civil en el Corps des Ponts et Chaussées (Cuerpo de Puentes y Caminos). Al mismo tiempo, asistió a cursos en el Collège de France y todavía se conservan sus detalladas notas de las clases de Liouville de 1839-1840.

En 1823 obtuvo permiso para reincorporarse formalmente a la École des Ponts et Chaussées, donde se graduó en 1825 y llegó a ser ingeniero jefe de segunda clase. En 1837 se casó con Rohaut Fleury, de París. Tras un desacuerdo con la administración municipal, se retiró del servicio público el 1 de abril de 1848.

En 1850 ganó por concurso la cátedra de ingeniería agronómica en el Instituto Agronómico de Versalles, que ocupó durante dos años. En ese contexto, en 1851 publicó Principes de Mécanique fondés sur la Cinématique, donde defendía una concepción atomista de la materia y presentaba las fuerzas como entidades cinemáticas, desligadas de las nociones metafísicas o fisiológicas que, en su opinión, oscurecían el concepto físico de fuerza. Su uso del cálculo vectorial, introducido en estas lecciones, fue adoptado por el sistema escolar francés. Posteriormente, sucedió a Coriolis como profesor de matemáticas en la École des Ponts et Chaussées.

En 1868, con 71 años, fue elegido para ocupar la plaza de la sección de Mecánica de la Academia de Ciencias de Francia, en sustitución de Poncelet. En 1869, el papa Pío IX le concedió el título de conde. En 1883, a los 86 años, tradujo (junto con A. Flamant) al francés la Théorie de l’élasticité des corps solides de Clebsch, añadiendo él mismo notas originales al texto. Flamant también redactó su necrológica oficial con otros colegas.

Saint-Venant murió en enero de 1886 en Saint-Ouen (Loir-et-Cher). Las fuentes discrepan sobre la fecha exacta: algunas señalan el 6 de enero y otras el 22.

Obra científica

Saint-Venant trabajó principalmente en mecánica, elasticidad, hidrostática e hidrodinámica. Fue uno de los primeros en aplicar rigurosamente el concepto de esfuerzos internos en sólidos y en describir las condiciones para la integrabilidad de los campos de deformación. En la década de 1850, desarrolló soluciones para la torsión de cilindros no circulares y amplió el trabajo de Navier sobre la flexión de vigas, publicando en 1864 un tratado exhaustivo sobre el tema.

Su contribución más destacada fue probablemente su trabajo de 1843, en el que redescubrió correctamente las ecuaciones de Navier-Stokes para flujos viscosos. En palabras de Anderson:

Siete años después de la muerte de Navier, Saint-Venant rederivó sus ecuaciones para un flujo viscoso, considerando las tensiones internas viscosas y descartando por completo el enfoque molecular de Navier. Su artículo de 1843 fue el primero en identificar adecuadamente el coeficiente de viscosidad y su papel como factor que multiplica los gradientes de velocidad en el flujo, interpretando estos productos como tensiones viscosas debidas a la fricción interna. Saint-Venant lo hizo bien y lo documentó. Que su nombre no quedara asociado a estas ecuaciones es un misterio, sin duda una injusticia técnica.

Stokes también las derivó correctamente, pero su publicación se produjo dos años más tarde, en 1845.

En el ámbito de la hidrodinámica, desarrolló las ecuaciones para el flujo no estacionario en lámina libre, que hoy llevan su nombre (ecuaciones de Saint-Venant). En 1871, derivó las ecuaciones para el flujo no estacionario en canales abiertos.

En 1845, publicó una versión del cálculo vectorial similar a la de Grassmann, quien había publicado en 1844. Saint-Venant defendió que ya había desarrollado estas ideas en 1832 y utilizó este cálculo vectorial en sus clases en el Instituto Agronómico y en su obra de 1851. Aunque sus concepciones atomistas no prosperaron, su enfoque vectorial se adoptó en la enseñanza francesa.

Saint-Venant es recordado como un ingeniero, matemático y científico mecánico excepcional, pionero de la mecánica de medios continuos, del estudio del esfuerzo y la deformación en estructuras, de la hidrodinámica y del cálculo vectorial. Sus contribuciones fundamentales a la elasticidad, los flujos viscosos, la torsión de estructuras y el cálculo cinemático lo sitúan como uno de los grandes fundadores de la ingeniería y la mecánica moderna.

 

Energía de impacto: cómo responden las estructuras ante una colisión

Figura 1. Ejemplo de carga de impacto entre dos vehículos.

En ingeniería, las cargas que actúan sobre una estructura se clasifican en dos tipos principales: estáticas y dinámicas, según si permanecen constantes o varían con el tiempo.

Una carga estática se aplica lentamente y no produce efectos vibratorios ni dinámicos en la estructura. Es decir, la carga aumenta gradualmente desde cero hasta alcanzar su valor máximo y, a partir de ahí, permanece constante. Un ejemplo de carga estática típica es el peso de un objeto colocado cuidadosamente sobre una superficie.

Por su parte, las cargas dinámicas pueden adoptar muchas formas y comportarse de manera más compleja. Algunas se aplican y se retiran de forma repentina, como las cargas de impacto, mientras que otras persisten durante periodos largos y varían continuamente de intensidad, y se conocen como cargas fluctuantes. Las cargas de impacto se producen, por ejemplo, cuando dos objetos colisionan o cuando un objeto en caída golpea una estructura (Figura 1). En cambio, las cargas fluctuantes suelen estar asociadas a maquinaria rotatoria, tránsito de vehículos, ráfagas de viento, olas del mar, movimientos sísmicos o procesos industriales de fabricación. La carga dinámica sobre un cuerpo se puede considerar como una carga aplicada en forma estática multiplicada por un factor de mayoración.

Muchos elementos de las máquinas están sometidos a cargas variables que cambian de intensidad con el tiempo. El comportamiento de los materiales sometidos a este tipo de carga es muy diferente del que presentan frente a cargas estáticas. Por ejemplo, una pieza que puede soportar sin problemas una gran carga estática podría fallar si se le aplica una carga mucho menor, pero repetida un gran número de veces.

Las cargas variables generan esfuerzos alternantes en el material que tienden a producir pequeñas grietas en su superficie. Con cada repetición de la carga, estas grietas se van propagando poco a poco hasta que finalmente se produce la rotura total de la pieza. A este fenómeno, en el que la acumulación de daños por cargas repetidas provoca la fractura, se le conoce como fatiga.

Para ilustrar cómo responde una estructura ante una carga dinámica, analicemos un caso sencillo, pero revelador: el impacto de un objeto que cae sobre el extremo inferior de una barra prismática (Figura 2). Supongamos que un collarín con masa , inicialmente en reposo, se deja caer desde una altura hasta chocar contra una brida fija al extremo inferior de la barra.

Figura 2. Carga de impacto sobre una barra prismática.

Cuando el collarín golpea la brida, la barra comienza a alargarse debido a que el impacto genera esfuerzos axiales internos. En un intervalo muy breve, del orden de algunos milisegundos, la brida desciende y alcanza su posición de desplazamiento máximo. A partir de ese momento, la barra comienza a vibrar longitudinalmente: primero se acorta, después se alarga, luego se vuelve a acortar y así sucesivamente, con el extremo inferior oscilando hacia arriba y hacia abajo.

Estas vibraciones son similares a las que se observan cuando se estira y suelta un resorte o cuando una persona salta con una cuerda elástica atada al tobillo. No obstante, estas vibraciones no persisten indefinidamente, ya que el material presenta efectos de amortiguamiento que hacen que se atenúen rápidamente y la barra finalmente quede en reposo con la masa M apoyada sobre la brida.

Es evidente que la respuesta de la barra al impacto del collarín es bastante compleja. Un análisis completo y preciso requiere recurrir a técnicas matemáticas avanzadas para describir el fenómeno en detalle. Sin embargo, es posible obtener una aproximación útil utilizando el concepto de energía de deformación y formulando algunas suposiciones simplificadoras.

  • Antes de liberar el collarín, este se encuentra a una altura sobre la brida y posee una energía potencial gravitatoria:

donde es la aceleración de la gravedad.

  • A medida que cae, la energía potencial se convierte en energía cinética. Justo al impactar, toda la energía es cinética:

siendo n=√(2 · g · h) la velocidad del collarín en el momento del choque.

Figura 3. Alargamiento producido por el impacto

Durante el impacto, la energía cinética del collarín se transforma en otras formas de energía. Una parte se convierte en energía de deformación cuando la barra se estira. Otra parte se disipa en forma de calor y mediante deformaciones plásticas locales tanto en el collarín como en la brida. Además, una pequeña fracción de la energía permanece como energía cinética residual en el collarín, que puede seguir moviéndose hacia abajo mientras está en contacto con la brida e, incluso, rebotar hacia arriba.

Para simplificar el análisis de esta situación tan compleja, haremos algunas idealizaciones y asumiremos las siguientes condiciones:

  1. Supondremos que el collarín y la brida están diseñados de manera que, tras el impacto, el collarín «se pega» a la brida y se desplaza hacia abajo con ella. Es decir, asumimos que no hay rebote. Este comportamiento es más probable cuando la masa del collarín es mayor que la de la barra.

  2. Ignoraremos todas las pérdidas de energía y supondremos que toda la energía cinética del collarín al caer se transforma por completo en energía de deformación de la barra. Esta simplificación da como resultado esfuerzos mayores de los que realmente se producirían si se tuvieran en cuenta las pérdidas de energía.

  3. No tendremos en cuenta los cambios en la energía potencial de la barra debidos a su movimiento vertical ni la energía de deformación asociada a su propio peso. Ambos efectos son extremadamente pequeños y pueden ignorarse.

  4. Supondremos que los esfuerzos en la barra se mantienen dentro del rango linealmente elástico, es decir, que no se produce deformación plástica en la barra.

  5. Consideraremos que la distribución de esfuerzos en toda la barra es la misma que si estuviera sometida a una carga estática en su extremo inferior, es decir, que los esfuerzos son uniformes en todo el volumen de la barra. En realidad, las ondas de esfuerzo longitudinal que se propagan por la barra causan variaciones en la distribución del esfuerzo, pero aquí las despreciaremos para simplificar el análisis.

Con estas suposiciones, podemos calcular el alargamiento máximo de la barra y los esfuerzos de tensión máximos producidos por la carga de impacto. Hay que recordar que en este análisis no se tiene en cuenta el peso de la barra y que únicamente se evalúan los esfuerzos generados por la caída del collarín.

Este análisis energético, aunque simplificado, permite comprender los principios fundamentales que rigen la respuesta de las estructuras ante una carga de impacto, así como las vibraciones que se generan y la forma en que se amortiguan hasta que la estructura alcanza un nuevo estado de equilibrio.

En este tipo de análisis, asumimos que no hay pérdidas de energía durante el impacto. Sin embargo, en la realidad estas pérdidas siempre están presentes y, por lo general, se disipan en forma de calor y mediante deformaciones localizadas en los materiales. Por tanto, la energía cinética del sistema es menor inmediatamente después del impacto que antes de este. Esto significa que la barra se deforma menos de lo que predice nuestro análisis simplificado. Por lo tanto, el desplazamiento real del extremo de la barra (como se muestra en la Figura 3) es menor que el calculado en el modelo idealizado.

También supusimos que los esfuerzos en la barra permanecían siempre dentro del límite de proporcionalidad, es decir, en el rango elástico. Si el esfuerzo máximo sobrepasa este límite, la relación entre el alargamiento de la barra y la fuerza axial deja de ser lineal y el análisis se vuelve mucho más complejo.

Además, hay otros factores que influyen en la respuesta real de la estructura y que no hemos tenido en cuenta en el modelo, como las ondas de esfuerzo que se propagan a lo largo de la barra, el amortiguamiento y las posibles imperfecciones en las superficies de contacto. Por estas razones, debemos tener presente que todas las fórmulas y resultados obtenidos bajo estas suposiciones son válidos solo en condiciones muy idealizadas y tienden a sobreestimar el alargamiento real de la barra.

Por otro lado, los materiales dúctiles, es decir, aquellos que pueden deformarse considerablemente más allá del límite de proporcionalidad, ofrecen una mayor resistencia frente a las cargas de impacto que los materiales frágiles. También es importante recordar que las barras con ranuras, agujeros u otras concentraciones de esfuerzo son muy vulnerables al impacto: incluso un golpe ligero puede causar una fractura, aunque el material sea relativamente dúctil bajo cargas estáticas.

Por tanto, para resistir con más eficacia una carga de impacto, un elemento estructural debe tener un gran volumen, estar fabricado con un material que tenga un módulo de elasticidad bajo y una alta resistencia a la fluencia, y tener una forma que permita distribuir los esfuerzos de manera uniforme por todo el elemento.

Para un análisis más profundo, recomendamos al lector consultar alguna referencia como las que dejamos a continuación.

Referencias:

Beer, F.P.; Johnston, J. E.; DeWolf, J.T.; Mazurek, D.F. (2017). Mecánica de Materiales. Séptima edición, McGraw Hill, México.

Gere, J. M., & Goodno, B. J. (2009). Mecánica de materiales. Séptima edición, Cengage Learning Editores, S.A. de C.V., México.

Pasarelas peatonales sostenibles: cómo optimizar su diseño para reducir costes económicos y ambientales

Este artículo se centra en la aplicación práctica de la evaluación del ciclo de vida (LCA) para optimizar el impacto ambiental y los costes de los puentes peatonales compuestos de acero y hormigón. Los autores utilizan el algoritmo de búsqueda de armonía multiobjetivo (MOHS) para identificar soluciones de diseño que minimicen simultáneamente las emisiones de CO₂, la energía incorporada y los costes de construcción. Los resultados muestran una relación directa y lineal entre el coste, las emisiones de CO₂ y la energía incorporada, lo que sugiere que las soluciones económicamente eficientes también son beneficiosas para el medio ambiente. Se analizan escenarios alternativos, como variaciones en la resistencia del hormigón y fluctuaciones en el precio de los materiales, para evaluar su impacto en los resultados de la optimización. En última instancia, el estudio demuestra la eficacia de combinar la optimización estructural con la evaluación del ciclo de vida para fomentar un diseño de infraestructura más sostenible.

El trabajo se enmarca dentro del proyecto de investigación RESILIFE que dirijo como investigador principal en la Universitat Politècnica de València. Se trata de una colaboración internacional de nuestro grupo con investigadores brasileños. A continuación se recoge un resumen sintético del trabajo.

El sector de la construcción es uno de los que más recursos consume y más emisiones de gases de efecto invernadero genera. Según el Programa de las Naciones Unidas para el Medio Ambiente, este sector consume alrededor del 34 % de la energía mundial y es responsable de aproximadamente el 37 % de las emisiones de CO₂. Ante esta realidad, mejorar la sostenibilidad de las infraestructuras es fundamental para alcanzar los Objetivos de Desarrollo Sostenible (ODS) de la ONU. En este contexto, el artículo «Aplicación práctica de la evaluación del ciclo de vida para optimizar el impacto ambiental de los puentes peatonales de acero y hormigón», de Fernando Luiz Tres Junior y colaboradores, muestra cómo la combinación de la optimización estructural multiobjetivo y la evaluación del ciclo de vida permite diseñar un puente peatonal que reduce simultáneamente su coste económico, las emisiones de CO₂ y la energía incorporada, sin sacrificar la seguridad ni la funcionalidad.

El trabajo aporta varias conclusiones relevantes. Una de las más importantes es que los objetivos de minimizar el coste y el impacto ambiental no son opuestos, sino que las soluciones más baratas también son más sostenibles. Además, el estudio cuantifica con precisión la relación entre estos factores, por lo que es posible estimar cómo varía el impacto ambiental en función del presupuesto. Otra aportación destacable es la validación práctica de la metodología: la combinación de técnicas de optimización y bases de datos de evaluación del ciclo de vida (LCA, por sus siglas en inglés) conduce a soluciones óptimas y robustas, incluso ante cambios en parámetros como la resistencia del hormigón o las fluctuaciones de precios.

El caso de estudio consiste en un puente peatonal de 17,5 m de luz y 3 m de ancho ubicado en el sur de Brasil. La estructura combina vigas de acero soldadas y una losa de hormigón armado, unidas mediante conectores de corte. Las variables de diseño incluyen el espesor y la resistencia del hormigón, las dimensiones de las vigas de acero y el grado de interacción entre ambos materiales. Estas variables pueden adoptar distintos valores discretos, lo que da lugar a más de 700 000 millones de combinaciones posibles. El objetivo de la optimización es hallar las mejores soluciones en términos de coste económico, emisiones de CO₂ y energía incorporada, cumpliendo siempre con la normativa brasileña sobre seguridad estructural y confort frente a vibraciones.

Para evaluar el impacto ambiental de los materiales, los autores utilizaron dos bases de datos. En el caso del acero de las vigas, utilizaron una base de datos internacional, que contiene datos globales sobre emisiones y consumo de energía. En el caso del hormigón y las armaduras, recurrieron a datos locales de producción del sur de Brasil. Además, analizaron dos escenarios alternativos para comprobar la solidez de las soluciones: uno con hormigón de menor resistencia (20 MPa en lugar de 40 MPa) y otro con precios más altos para los materiales (como ocurrió durante la pandemia en 2022).

Todas las soluciones se verificaron para garantizar que cumplían los requisitos normativos de seguridad y servicio, incluidos los estados límite últimos, las deformaciones y las vibraciones. Las soluciones que no superaban estas comprobaciones eran penalizadas y el algoritmo de optimización las descartaba. Para la optimización, utilizaron el algoritmo Multiobjective Harmony Search (MOHS), inspirado en la improvisación musical, que busca soluciones que «armonizan» los distintos objetivos. Este algoritmo genera y mejora iterativamente las soluciones hasta construir la denominada «frontera de Pareto», que recoge las mejores alternativas posibles sin que ninguna sea mejor en todos los objetivos a la vez.

Los resultados muestran que estos tres objetivos —coste, emisiones de CO₂ y energía incorporada— están estrechamente relacionados y no entran en conflicto entre sí. Se evita la emisión de 1 kg de CO₂ por cada 6,56 reales brasileños ahorrados por metro de puente, y se reducen 1 MJ de energía por cada 0,70 reales. Además, por cada 9,3 MJ ahorrados se evita la emisión de 1 kg de CO₂. Estas relaciones lineales reflejan que, al reducir el consumo de materiales, se consigue simultáneamente un ahorro económico y un menor impacto medioambiental.

Las soluciones óptimas obtenidas tienen características muy similares entre sí. La losa de hormigón tiene un espesor de 12 cm y la viga de acero mide aproximadamente 860 mm de altura, con un espesor del alma de 6,35 mm, y mantiene la clásica proporción luz/altura cercana a 20. La anchura de las alas superior e inferior de la viga varía, siendo la inferior más ancha y gruesa. En todos los casos, la interacción entre el acero y el hormigón es completa (grado de interacción igual a 1).

Al considerar el escenario con hormigón de menor resistencia, se observó un aumento del coste total del 3 %, debido a que fue necesario añadir más acero para compensar la menor resistencia del hormigón. En cuanto al impacto ambiental, las emisiones de CO₂ apenas se redujeron (menos de un 1 %), mientras que la energía incorporada aumentó alrededor de un 4 %. En el escenario con precios más altos de los materiales, se obtuvieron dos soluciones óptimas: una más barata, pero con mayores emisiones, y otra más cara y sostenible. En ambos casos, las diferencias entre las soluciones fueron pequeñas y se mantuvo la relación lineal entre los objetivos.

En conclusión, este trabajo demuestra que es posible diseñar puentes peatonales más económicos y sostenibles combinando optimización estructural y LCA. La reducción del consumo de materiales no solo abarata la estructura, sino que también disminuye las emisiones de CO₂ y la energía incorporada. Además, el uso de hormigón de alta resistencia reduce la cantidad de acero necesaria, lo que tiene un impacto positivo en el coste y la sostenibilidad. Las soluciones óptimas resultaron muy similares al modificar las condiciones del diseño o del mercado, lo que confirma la solidez de la metodología.

Este tipo de estudios es especialmente valioso en los países en desarrollo, donde las necesidades de infraestructuras son elevadas y los recursos económicos, limitados. El diseño de estructuras asequibles y sostenibles contribuye al desarrollo regional y a la lucha contra el cambio climático. Los autores recomiendan ampliar futuras investigaciones para incluir también el impacto social y considerar así los tres pilares de la sostenibilidad: el económico, el ambiental y el social. También recomiendan analizar el ciclo de vida completo de la estructura, incluyendo el mantenimiento y la demolición. Por último, esta metodología podría aplicarse fácilmente a otros tipos de infraestructuras, como puentes para vehículos o edificios.

En definitiva, este trabajo no solo muestra cómo reducir costes y emisiones en un puente peatonal concreto, sino que también abre la puerta a un diseño más sostenible de nuestras infraestructuras. Es un claro ejemplo de cómo la ingeniería civil puede ser una aliada clave en el desarrollo sostenible.

Referencia:

Tres Junior, F.L., Yepes, V., de Medeiros, G.F., Kripka, M. (2025). Practical Application of LCA to Optimize Environmental Impacts of Steel–concrete Footbridges. In: Brandli, L., Rosa, F.D., Petrorius, R., Veiga Avila, L., Filho, W.L. (eds) The Contribution of Life Cycle Analyses and Circular Economy to the Sustainable Development Goals. World Sustainability Series. Springer, Cham. https://doi.org/10.1007/978-3-031-85300-5_22

Glosario de términos clave

  • Evaluación del ciclo de vida (LCA): Una metodología para estimar los impactos ambientales resultantes de la fabricación de un producto o servicio, examinando cada etapa de su ciclo de vida, desde la extracción de recursos naturales hasta su eliminación.
  • Emisiones de CO2: La cantidad de dióxido de carbono liberada a la atmósfera, utilizada como un criterio clave para evaluar el impacto ambiental en este estudio.
  • Energía incorporada: La suma total de energía necesaria para producir un producto, desde la extracción de las materias primas hasta el final del proceso de fabricación, utilizada como otro criterio de impacto ambiental.
  • Optimización multi-objetivo: Un proceso de optimización que considera múltiples funciones objetivo que deben minimizarse o maximizarse simultáneamente. Produce un conjunto de soluciones no dominadas o Pareto-óptimas.
  • Algoritmo de búsqueda de armonía multi-objetivo (MOHS): Un algoritmo metaheurístico basado en la improvisación musical, adaptado para resolver problemas de optimización multi-objetivo.
  • Pasarela mixta de hormigón y acero: Una estructura que combina elementos de acero y hormigón de manera que trabajen juntos como una sola unidad para soportar cargas, aprovechando las fortalezas de ambos materiales.
  • Frontera de Pareto: Una representación gráfica que conecta el conjunto de soluciones no dominadas (Pareto-óptimas) en un problema de optimización multi-objetivo, lo que permite analizar las compensaciones entre los objetivos.
  • Solución no dominada (Pareto-Óptima): Una solución para la cual no existe otra solución admisible que mejore simultáneamente todas las funciones objetivo. Mejorar un objetivo solo es posible a expensas de al menos otro.
  • Grado de interacción (α): Una variable de diseño en vigas compuestas que representa el nivel de conexión entre el acero y el hormigón, influyendo en su comportamiento estructural combinado.
  • Estado límite último (ULS): Verificaciones relacionadas con la capacidad de la estructura para resistir las cargas máximas sin colapsar, incluyendo la tensión de cizallamiento y el momento de flexión.
  • Estado límite de servicio (SLS): Verificaciones relacionadas con el rendimiento de la estructura bajo cargas normales para garantizar la comodidad y la funcionalidad, como la limitación de los desplazamientos y las aceleraciones.
  • Penalización: Un método utilizado en algoritmos de optimización para hacer que las soluciones que no cumplen con las restricciones de diseño sean menos atractivas para el algoritmo, agregando un valor a la función objetivo.

Entornos de aprendizaje emergentes en la educación en ingeniería

La formación en ingeniería está experimentando una transformación profunda, impulsada por desafíos globales como el cambio climático, la revolución digital y la creciente brecha entre la enseñanza académica y las exigencias del mercado laboral. A continuación, analizamos el trabajo de Hadgraft y Kolmos (2020), donde se explora cómo la educación en ingeniería está evolucionando para hacer frente a estos retos mediante cuatro tendencias clave: el aprendizaje centrado en el estudiante, el aprendizaje contextual, la digitalización de la enseñanza y el desarrollo de competencias profesionales. A partir de estas líneas de cambio, se propone que la educación futura debe pasar de un enfoque en disciplinas individuales a currículos integrados que aborden problemas complejos y promuevan trayectorias de aprendizaje personalizadas. En última instancia, se hace hincapié en la necesidad de un cambio sistémico en el diseño curricular para preparar a los ingenieros para un futuro laboral en constante cambio.

La educación en ingeniería se enfrenta a tres desafíos fundamentales: la sostenibilidad y el cambio climático, la Cuarta Revolución Industrial (Industria 4.0) y la empleabilidad de los graduados. Estos desafíos exigen que los ingenieros del futuro posean habilidades transdisciplinares, pensamiento sistémico y contextual, y la capacidad de actuar en situaciones complejas y caóticas. Para responder a estas necesidades, la educación en ingeniería ha evolucionado hacia un enfoque centrado en el estudiante, la integración de la teoría y la práctica, el aprendizaje digital y en línea, y el desarrollo de competencias profesionales. A largo plazo, se tenderá a modelos curriculares más personalizados y centrados en proyectos que permitan a los estudiantes construir sus propias trayectorias de aprendizaje y documentar sus competencias para el aprendizaje a lo largo de la vida.

1. Desafíos clave para la educación en ingeniería

Se identifican tres desafíos principales que están impulsando la necesidad de transformar la educación en ingeniería:

  • Sostenibilidad y cambio climático: la ingeniería es fundamental para abordar los 17 Objetivos de Desarrollo Sostenible (ODS) de la ONU, especialmente en lo que respecta a la pobreza, el hambre, la salud, el agua, la energía, el crecimiento económico y la acción climática. La educación en ingeniería debe preparar a los graduados para responder a estos desafíos humanitarios, sociales y económicos.
  • Cuarta Revolución Industrial (Industria 4.0): Esta revolución implica la integración generalizada de tecnologías como la automatización, el internet de las cosas (IoT), la inteligencia artificial (IA), la robótica y la fabricación aditiva. Tradicionalmente, la ingeniería no se ha enseñado de manera integradora, pero el éxito de la Industria 4.0 depende de la interacción y la integración de estas tecnologías. Esto requiere una mayor colaboración interdisciplinaria entre diferentes programas y disciplinas universitarias, como informática, análisis de datos, robótica, automatización, producción, gestión, electrónica y materiales. La segunda revolución industrial, que está en la agenda política e industrial, implica la integración generalizada de tecnologías como la automatización, el IoT, la IA, la robótica, los materiales avanzados, la fabricación aditiva, la impresión multidimensional, las bio-, nano- y neurotecnologías, y las realidades virtuales y aumentadas.
  • Empleabilidad y competencias de innovación: a pesar de la creciente importancia de habilidades como el emprendimiento y el pensamiento de diseño, aún existe una brecha entre la formación en ingeniería y la preparación para el mundo laboral. La integración de la teoría y la práctica mediante pasantías, proyectos en colaboración con el sector y laboratorios de aprendizaje son soluciones parciales. El aprendizaje basado en problemas o proyectos (PBL) se presenta como un mecanismo para abordar este desafío. La brecha entre la educación en ingeniería y la preparación para el trabajo sigue existiendo, por lo que se deben integrar la teoría y la práctica mediante un enfoque centrado en la empleabilidad y la colaboración con la industria mediante pasantías, proyectos de asociación y laboratorios de aprendizaje.
Desafíos principales que están impulsando la necesidad de transformar la educación en ingeniería

Estos tres desafíos exigen, en conjunto, un mayor énfasis en la responsabilidad social, la integración del contexto social y la interdisciplinariedad, combinados con habilidades digitales y genéricas.

2. Respuestas actuales y tendencias emergentes

La educación en ingeniería ha respondido a estos desafíos con cuatro tendencias principales que se materializarán a corto plazo:

  1. Aprendizaje centrado en el estudiante: Un cambio significativo de la enseñanza tradicional (el profesor da la clase, los estudiantes escuchan) a un currículo más interactivo donde los estudiantes influyen en la dirección de su propio aprendizaje. Esto incluye metodologías como el aprendizaje activo, el aprendizaje colaborativo, el aprendizaje basado en equipos, el aprendizaje basado en el diseño, el aprendizaje basado en la investigación y, en particular, el aprendizaje basado en problemas y proyectos (PBL). El PBL ha demostrado su eficacia para aumentar la motivación, reducir las tasas de abandono y desarrollar competencias, y constituye una respuesta clave a la necesidad de un aprendizaje más complejo. El aprendizaje centrado en el estudiante es un área bien investigada. Los estudios sobre aprendizaje activo, aprendizaje basado en la investigación, aprendizaje basado en el diseño y aprendizaje basado en desafíos muestran efectos positivos en los resultados del aprendizaje. La motivación aumenta cuando los estudiantes inician proyectos, en los que identifican problemas y tienen un alto grado de influencia en la dirección del proyecto.
  2. Aprendizaje contextual y basado en la práctica: Incorporación de elementos curriculares relacionados con situaciones laborales futuras, como pasantías, proyectos de la industria, emprendimiento y centros de innovación. Los proyectos iniciados externamente (por empresas o la comunidad) son particularmente valiosos porque son auténticos y exponen a los estudiantes a la complejidad del mundo real. Junto con la tendencia del aprendizaje centrado en el estudiante, existe una tendencia de aprendizaje contextual y relacionado con la práctica, en la que los estudiantes cuentan con elementos del currículo relacionados con situaciones laborales posteriores, como pasantías, proyectos de la industria, emprendimiento y centros de innovación.
  3. Aprendizaje digital y en línea: Evolución del aprendizaje a distancia a estrategias de aprendizaje combinado (blended learning) que utilizan nuevas tecnologías como la realidad aumentada y la visualización 3D. El modelo del «aula invertida» (flipped classroom) es un ejemplo destacado, en el que los estudiantes se preparan con contenido en línea antes de clase y utilizan el tiempo en el aula para actividades interactivas y resolución de problemas. Este enfoque es una respuesta a la ineficacia de las clases magistrales tradicionales para los niveles superiores de la taxonomía de Bloom y los aspectos complejos del marco Cynefin. En la actualidad, el aprendizaje digital se centra en las estrategias de aprendizaje combinado. La digitalización es más que ofrecer plataformas y entornos de aprendizaje en línea como Blackboard o Moodle; consiste en usar nuevas tecnologías para el aprendizaje, como la realidad aumentada, la visualización 3D, etc. El modelo de «aula invertida», como enfoque centrado en el estudiante, es una respuesta a la metodología de enseñanza y aprendizaje más extendida en la educación en ingeniería, que consiste en un aprendizaje instructivo basado en libros de texto organizado como conferencias, tutoriales y laboratorios, combinado con la resolución de pequeños ejercicios.
  4. Competencias profesionales: Reconocimiento de la creciente importancia de desarrollar competencias profesionales integradas para la empleabilidad en el siglo XXI. Esto incluye el «aprendizaje meta» para que los estudiantes identifiquen y desarrollen sus propias competencias de manera personalizada, a menudo a través de portafolios que les permitan articular su aprendizaje y trayectoria profesional. Se enfatiza la responsabilidad individual en la construcción de la trayectoria de aprendizaje, combinada con la participación en actividades colaborativas. Otro aspecto emergente en la educación en ingeniería es la creciente importancia del aprendizaje integrado de competencias profesionales. Los portafolios desempeñarán un papel fundamental en este proceso, ya que ayudarán a los estudiantes a presentar su aprendizaje a sí mismos, a sus mentores académicos y a futuros empleadores en una entrevista de trabajo.
Respuestas actuales y tendencias en la educación en ingeniería

3. La complejidad y los sistemas en la educación en ingeniería

Los desafíos del futuro requieren que los ingenieros operen en situaciones de complejidad creciente. El marco Cynefin se utiliza para clasificar las situaciones en simples, complicadas, complejas y caóticas, y prescribe diferentes enfoques para cada una:

  • Simple: Comportamiento bien entendido, «mejores prácticas» definidas. Se aplica el método «sentir, categorizar y responder» (ej. fundamentos de ingeniería, problemas de examen tipo fórmula).
  • Complicado: Requiere comportamiento experto, múltiples respuestas correctas. Se aplica «sentir, analizar y responder» (ej. diseño de puentes o teléfonos móviles; proyectos de diseño de estudiantes). La ingeniería de sistemas proporciona un marco estructurado.
  • Complejo: No hay una solución clara o única; surgen soluciones. Se aplica «probar, sentir y responder». Estos son los «problemas complejos» (wicked problems), caracterizados por no tener una formulación definitiva, no tener una mejor solución única, no tener un punto final claro, y donde cada intento de solución impacta el sistema. El diseño de sistemas de transporte para grandes ciudades es un ejemplo.
  • Caótico: Resultado de desastres, requiere acción inmediata para estabilizar antes de aplicar otros enfoques. No suelen ser el foco directo de un grado de ingeniería, excepto en la ética de la ingeniería, aprendiendo de desastres pasados.

Los currículos de ingeniería deben incluir formación para afrontar situaciones simples, complicadas y, crucialmente, complejas. Se necesitan currículos de ingeniería que incluyan la complejidad y lo complicado. Además, para educar a los estudiantes del futuro, deben tener la posibilidad de aprender tanto disciplinas específicas como la transdisciplinariedad, así como conocimientos y habilidades técnicos simples y complicados, y la complejidad que implica la comprensión del contexto, los sistemas, la sostenibilidad y los valores.

4. Modelos curriculares futuros e integrados

La evolución de las respuestas educativas muestra una transición de lo «dirigido por el profesor» a lo «dirigido por el estudiante» y de «módulos únicos» a «modelos de currículo completo».

  • Cambio a nivel de sistema: Existe una tendencia emergente a diseñar currículos a nivel de sistema, coordinando todos los elementos curriculares en lugar de simplemente agregar o modificar cursos individuales. Este enfoque sistémico es crucial para el aprendizaje de la complejidad. Pero, en términos generales, definitivamente ha habido un cambio de un entorno de aprendizaje dirigido por el profesor a otro mucho más dirigido por el estudiante. Además, está surgiendo la tendencia a desarrollar currículos a nivel de sistema, lo que implica coordinar todos los elementos del currículo.
  • Proyectos como núcleo: Los proyectos constituyen un elemento central en los modelos curriculares emergentes, especialmente aquellos iniciados por entidades externas (industria, comunidad). Estos proyectos permiten el desarrollo de habilidades técnicas, sociales y ambientales (comunicación, trabajo en equipo, ética, sostenibilidad) y de diseño y resolución de problemas (pensamiento de diseño, ingeniería de sistemas). También facilitan la consideración de perspectivas multidisciplinares y la comprensión de problemas en contexto, con múltiples puntos de vista y sistemas de valores.
  • Ejemplos de modelos emergentes:
    • University College London (UCL) – Integrated Engineering Program (IEP): Dedica una semana de cada cinco a un proyecto integrado. Esto permite a los estudiantes ver las conexiones entre diferentes módulos y disciplinas.
    • Charles Sturt University (CSU): Programa radicalmente diferente con tres semestres orientados a proyectos, donde los estudiantes aprenden «justo a tiempo» a través de módulos en línea y pasan la mitad de su tiempo en proyectos. Luego realizan cuatro pasantías de un año.
    • Swinburne University: Enfoque similar al de CSU, con proyectos de seis semanas patrocinados por la industria realizados en la universidad, operando como una empresa de ingeniería.
    • Iron Range Engineering: Los estudiantes trabajan en proyectos de empresa y reflexionan continuamente sobre su aprendizaje.

Estos ejemplos muestran cómo las instituciones combinan el aprendizaje basado en proyectos, el aprendizaje digital/en línea y el uso de portafolios para apoyar las trayectorias de aprendizaje personalizadas.

5. Perspectivas y conclusiones

La educación en ingeniería se dirige hacia un futuro en el que la combinación de trayectorias de aprendizaje personales, competencias profesionales y capacidad de abordar la complejidad será la tendencia dominante. Esto implica lo siguiente:

  • Currículos sistémicos: Es necesario un enfoque más sistémico y holístico en el diseño curricular, en lugar de modificaciones aisladas a nivel de curso. Los modelos tradicionales centrados en cursos individuales a menudo dejan la tarea de integrar el conocimiento al estudiante.
  • Aprendizaje para la complejidad: La educación debe preparar a los estudiantes para manejar problemas complejos, que requieren integrar conocimientos disciplinarios e interdisciplinarios, teoría y práctica, comprensión contextual y abstracta, y construcción de conocimiento individual y colaborativa.
  • Habilidades del Siglo XXI: La automatización de cálculos técnicos significa que los ingenieros futuros necesitarán comprender los requisitos sociales, ambientales y económicos de la tecnología y su aplicación.
  • Aprendizaje a lo largo de la vida: Los ingenieros serán cada vez más responsables de sus propias rutas de aprendizaje personales y necesitarán saber cómo construir su crecimiento individual dentro de comunidades de aprendizaje colaborativas. El acceso al conocimiento en línea (MOOCs) aumentará, pero la clave será cómo los estudiantes desarrollan competencias para el aprendizaje a lo largo de la vida, incluida la reflexión crítica y el pensamiento sistémico, normativo y anticipatorio.

En resumen, la educación en ingeniería debe evolucionar de un enfoque basado en la transmisión de conocimientos técnicos simples a otro que fomente la capacidad de los estudiantes para navegar y resolver problemas complejos, multidisciplinares y contextualizados, preparándolos para ser aprendices activos de por vida en un mundo en constante cambio.

Referencia:

Hadgraft, R.G.; Kolmos, A. (2020). «Emerging learning environments in engineering education«, Australasian Journal of Engineering Education, 25:1, 3-16, DOI: 10.1080/22054952.2020.1713522

Glosario de términos clave

  • Aprendizaje centrado en el estudiante: Un enfoque pedagógico en el que el estudiante se convierte en el centro del proceso de aprendizaje, con métodos como el aprendizaje activo, colaborativo, basado en problemas y proyectos, donde los estudiantes tienen una influencia significativa en la dirección de su aprendizaje.
  • Aprendizaje contextual y basado en la práctica: Un enfoque de aprendizaje que integra situaciones del mundo real y experiencias prácticas en el currículo, incluyendo pasantías, proyectos industriales y hubs de innovación, para conectar la teoría con la futura situación laboral.
  • Aula invertida (Flipped Classroom): Una metodología de aprendizaje semipresencial donde la instrucción directa se mueve de la clase a un espacio individual (generalmente en línea), y el tiempo en clase se transforma en un entorno de aprendizaje dinámico e interactivo donde el educador guía a los estudiantes a aplicar conceptos.
  • CDIO (Concebir, Diseñar, Implementar, Operar): Un marco curricular para la educación en ingeniería que enfatiza el desarrollo de habilidades profesionales y un enfoque holístico e integrado del currículo, desde la concepción de una idea hasta su operación.
  • Competencias profesionales: Conjunto de conocimientos, habilidades y aptitudes (tanto técnicas como genéricas, como la comunicación, el trabajo en equipo y la ética) que se espera que los ingenieros adquieran para desempeñarse eficazmente en el lugar de trabajo.
  • Complejidad (en el marco Cynefin): Un dominio de situaciones donde la relación causa-efecto solo puede discernirse en retrospectiva, y las soluciones emergen del sondeo y la experimentación. Se caracteriza por problemas «perversos» sin soluciones únicas o definitivas.
  • Complicado (en el marco Cynefin): Un dominio de situaciones que requieren experiencia y análisis para encontrar múltiples respuestas correctas, pero donde la relación causa-efecto es clara, aunque puede no ser obvia para todos. La resolución de problemas implica «sentir, analizar y responder».
  • Cuarta Revolución Industrial (Industria 4.0): Un término que describe la tendencia actual de automatización e intercambio de datos en las tecnologías de fabricación, incluyendo sistemas ciberfísicos, el Internet de las Cosas (IoT), la computación en la nube y la inteligencia artificial (IA).
  • Currículo sistémico/integral: Un enfoque de diseño curricular que coordina todos los elementos de un programa educativo a nivel de sistema, en lugar de centrarse solo en módulos o asignaturas individuales, buscando una progresión y coherencia holísticas en los resultados del aprendizaje.
  • Cynefin Framework: Un modelo conceptual creado por Dave Snowden que ayuda a la toma de decisiones al categorizar los problemas en diferentes dominios (simple, complicado, complejo, caótico y desorden) basados en la naturaleza de su relación causa-efecto.
  • Diseño centrado en el usuario (User Experience – UX): Se refiere a la experiencia general que tiene un usuario al interactuar con un producto o sistema. En ingeniería, implica diseñar soluciones que realmente satisfagan los requisitos del cliente, el usuario y la comunidad.
  • Diseño de sistemas (Systems Design): Un enfoque estructurado para el diseño de sistemas complejos que considera las interacciones entre los componentes y el entorno, y busca satisfacer un conjunto de requisitos funcionales y no funcionales.
  • Pensamiento de diseño (Design Thinking): Una metodología de resolución de problemas centrada en el ser humano que implica fases como empatizar, definir, idear, prototipar y probar, común en muchas disciplinas de diseño, incluida la ingeniería.
  • Emergencia: En el contexto de los entornos de aprendizaje, se refiere a cómo las estructuras, patrones y comportamientos de aprendizaje se vuelven visibles a través de las interacciones entre elementos más pequeños, como estudiantes y recursos, indicando posibles direcciones futuras en la educación.
  • Habilidades blandas/genéricas: Habilidades no técnicas pero igualmente importantes, como la comunicación, el trabajo en equipo, la ética, el pensamiento crítico y la resolución de problemas, que son aplicables en una amplia gama de contextos profesionales.
  • Internet de las Cosas (IoT): Una red de objetos físicos equipados con sensores, software y otras tecnologías que les permiten conectarse e intercambiar datos con otros dispositivos y sistemas a través de Internet.
  • PBL (Aprendizaje Basado en Problemas y Proyectos): Un enfoque pedagógico centrado en el estudiante donde los alumnos aprenden sobre un tema trabajando en un problema abierto o un proyecto complejo, desarrollando habilidades de resolución de problemas, trabajo en equipo e investigación.
  • Portafolio: Una colección de trabajos de los estudiantes que demuestra su aprendizaje, habilidades y crecimiento a lo largo del tiempo. En ingeniería, se utiliza para articular las trayectorias de aprendizaje individuales y las competencias profesionales a mentores y futuros empleadores.
  • Simple (en el marco Cynefin): Un dominio de situaciones donde la relación causa-efecto es obvia para todos, y las «mejores prácticas» pueden aplicarse. La resolución de problemas implica «sentir, categorizar y responder», como la aplicación de fórmulas fundamentales de ingeniería.
  • Sostenibilidad (ODS): La capacidad de satisfacer las necesidades del presente sin comprometer la capacidad de las futuras generaciones para satisfacer sus propias necesidades. Los ODS (Objetivos de Desarrollo Sostenible) son una colección de 17 objetivos globales interconectados establecidos por las Naciones Unidas.
  • Sistemas (Pensamiento sistémico): La capacidad de comprender cómo los componentes de un sistema interactúan entre sí y con el entorno para producir un comportamiento determinado, en lugar de analizar los componentes de forma aislada.
  • Trayectorias de aprendizaje personalizadas: Rutas de aprendizaje adaptadas a las necesidades, intereses y aspiraciones profesionales individuales de los estudiantes, permitiéndoles configurar y documentar su propio desarrollo de competencias como parte de una estrategia de aprendizaje a lo largo de toda la vida.

Orígenes del estudio de la vibración: de la música a la ciencia

Representación medieval de Pitágoras evaluando las consonancias perfectas regidas por relaciones matemáticas simples. https://bustena.wordpress.com/2013/09/16/la-sombra-de-pitagoras-armonia-composicion-ciencia-y-religion-en-la-musica-medieval/

Desde tiempos remotos, la humanidad ha observado y utilizado los fenómenos naturales para crear herramientas, expresar emociones y generar conocimiento. Uno de estos fenómenos, la vibración, ha estado presente en aspectos tan diversos como la música, la detección de terremotos, la ingeniería y la arquitectura.

En términos sencillos, una vibración consiste en el movimiento repetido de un objeto alrededor de una posición de equilibrio. Esa posición de equilibrio es el lugar al que tiende a volver el objeto cuando no actúa sobre él ninguna fuerza. Cuando todo el objeto se mueve al mismo tiempo y en la misma dirección, se habla de vibración de cuerpo entero. En este caso, todas sus partes oscilan juntas sin moverse de forma independiente.

Este artículo repasa de forma cronológica y accesible cómo distintas civilizaciones abordaron el estudio de la vibración, desde la intuición musical hasta los primeros intentos científicos de comprender el sonido y el movimiento. Este viaje histórico nos muestra cómo una misma pregunta puede tener múltiples respuestas a lo largo del tiempo y de las culturas.

El interés del ser humano por la vibración es tan antiguo como la propia civilización. De hecho, el primer contacto del ser humano con este fenómeno probablemente se produjo a través del sonido, cuando nuestros antepasados comenzaron a crear instrumentos musicales rudimentarios, como silbatos y tambores. Desde entonces, músicos, artesanos y pensadores han tratado de entender las reglas que hay detrás de la producción del sonido, han perfeccionado los instrumentos y han transmitido su conocimiento de generación en generación.

La vibración en las culturas antiguas

Hacia el año 4000 a. C., la música ocupaba un lugar destacado en civilizaciones como la china, la hindú, la japonesa y la egipcia. Estos pueblos seguían ciertas reglas musicales empíricas, aunque su conocimiento todavía no podía considerarse científico.

En el antiguo Egipto, por ejemplo, el arco del cazador, un arma común en sus ejércitos, pudo inspirar la creación de instrumentos de cuerda. Entre estos instrumentos, destaca la nanga, un arpa primitiva de tres o cuatro cuerdas, cada una de las cuales producía una sola nota. Un ejemplar de este tipo, fechado en torno al año 1500 a. C., se conserva en el Museo Británico. También se han encontrado en tumbas egipcias de alrededor del 3000 a. C. representaciones de arpas de hasta 11 cuerdas, lo que demuestra un nivel notable de sofisticación.

Una de las piezas más impresionantes es un arpa decorada en oro con una caja de resonancia en forma de cabeza de toro hallada en una tumba real de Ur (Mesopotamia) que data aproximadamente del año 2600 a. C.

La Grecia clásica: primeros pasos hacia la ciencia del sonido

Nuestro sistema musical actual tiene sus raíces en la antigua Grecia. Allí se inició el estudio sistemático del sonido, en particular del sonido musical. El filósofo y matemático Pitágoras (582-507 a. C.) fue probablemente el primero en abordar este fenómeno desde una perspectiva científica.

Mediante un instrumento denominado monocordio, Pitágoras llevó a cabo experimentos que pusieron de manifiesto la existencia de relaciones entre la longitud de una cuerda y el tono que produce. Por ejemplo, descubrió que, si dos cuerdas están sometidas a la misma tensión, la más corta emite un sonido más agudo. Además, descubrió que si una cuerda tiene la mitad de la longitud de otra, produce un sonido una octava más agudo. Aunque Pitágoras no dejó escritos sobre sus experimentos, sus ideas han sido transmitidas por otros autores.

Monocordio básico —diapasón—. https://es.wikipedia.org/wiki/Monocordio

Hacia el 350 a. C., Aristóteles escribió tratados sobre la música y el sonido, incluyendo observaciones cualitativas como «La voz es más dulce que el sonido de los instrumentos». Poco después, Aristógenes, uno de sus alumnos, redactó Elementos de armonía, una obra en tres volúmenes que es quizá el tratado musical más antiguo que se conserva y que fue escrito por un músico-investigador. Por su parte, Euclides abordó brevemente el tema musical en Introducción a la armonía, aunque sin hacer referencia a la física del sonido.

A pesar del prometedor inicio, los griegos no avanzaron más allá en la comprensión científica de las vibraciones.

Los romanos y el largo silencio

Los romanos heredaron la mayor parte de sus conocimientos musicales de los griegos. La notable excepción fue el arquitecto del siglo I a. C. Vitruvio, quien escribió sobre la acústica de los teatros en su obra De Architectura Libri Decem (Diez libros sobre arquitectura). Este tratado se perdió durante siglos y no fue redescubierto hasta el Renacimiento. Aparte de él, no se produjeron avances significativos en la teoría del sonido ni de la vibración durante los 16 siglos siguientes.

China y el nacimiento de la detección sísmica

Al mismo tiempo que en el mundo grecorromano, en la antigua China se mostró un interés temprano por los fenómenos vibratorios relacionados con los movimientos sísmicos. De hecho, los primeros detectores de movimiento de los que se tiene constancia provienen de esta civilización.

En el año 132 d. C., el astrónomo e historiador chino Zhang Heng inventó el primer sismógrafo de la historia. Este ingenioso dispositivo, fabricado en bronce fundido, tenía forma de jarra de vino y medía aproximadamente 1,9 metros de diámetro. En su interior albergaba un péndulo central rodeado por un sistema de ocho palancas dispuestas en direcciones cardinales.

Réplica del detector de terremotos de Zhāng Héng. https://es.wikipedia.org/wiki/Zhang_Heng

En el exterior, el aparato tenía ocho figuras de dragones, cada una con una esfera de bronce en la boca. Debajo de cada dragón había una rana de metal con la boca abierta. Cuando se producía un terremoto, incluso uno muy leve, el péndulo interno se desplazaba en la dirección de la onda sísmica, activando una de las palancas. Esta hacía que la boca del dragón correspondiente se abriera y liberara la esfera, que caía en la rana con un sonido metálico. De este modo, el dispositivo no solo detectaba la ocurrencia del seísmo, sino que también indicaba con precisión la dirección de propagación del movimiento. Este invento de Zhang Heng no solo es considerado el primer sismógrafo funcional, sino también uno de los primeros ejemplos del uso ingenieril del fenómeno de la vibración.

Hacia una comprensión científica: Galileo y la frecuencia

Aunque Pitágoras había dado los primeros pasos, la verdadera comprensión de la relación entre tono y frecuencia tuvo que esperar muchos siglos. Galileo Galilei dio el salto decisivo en el siglo XVI al vincular científicamente la vibración con el sonido audible. A partir de entonces, el estudio de las vibraciones se consolidó como un campo fundamental dentro de la física y la ingeniería, con aplicaciones que abarcan desde la música hasta la detección de terremotos y el diseño de estructuras resistentes. Pero eso ya lo trataremos en futuros artículos.

Referencia:

Rao, S. S., García, D. S., Figueroa, R. R., & Muñoz, G. D. V. D. (2012). Vibraciones mecánicas (Vol. 776). Pearson educación.

Comunicaciones presentadas al XI Congreso de Innovación Educativa y Docencia en Red INRED 2025

Me complace informar a mis lectores que el XI Congreso de Innovación Educativa y Docencia en Red (INRED) 2025 se celebrará los días 17 y 18 de julio en Valencia. En un contexto en el que las instituciones educativas están experimentando una transformación vertiginosa, la innovación educativa se presenta como una herramienta esencial para renovar los procesos de enseñanza y aprendizaje y adaptarse a los nuevos retos. La Ley Orgánica de Sistema Universitario (LOSU) plantea que la innovación docente es un medio para mejorar la calidad de la educación superior y para fortalecer la capacidad de adaptación a nuevos escenarios formativos. Además, la considera una estrategia esencial para el desarrollo profesional del profesorado.

Desde hace tiempo, las universidades fomentan la participación del profesorado en proyectos de innovación y se ha avanzado notablemente en la forma de diseñar y desarrollar estos proyectos. No obstante, hoy más que nunca es crucial impulsar propuestas de innovación más rigurosas y orientadas a dar respuesta a los grandes retos educativos a los que nos enfrentamos.

Este enfoque nos remite al concepto de scholarship o enfoque académico de la docencia, una perspectiva que se ha consolidado en la educación superior y que propone valorar la enseñanza al mismo nivel que la investigación disciplinar.

Detrás de esta idea se encuentra una forma de innovar basada en tres pilares fundamentales:

  • El análisis sistemático de la enseñanza y sus efectos en el aprendizaje del estudiantado.
  • La comunicación de los conocimientos sobre enseñanza y aprendizaje generados en entornos académicos, como congresos y revistas científicas.
  • La revisión crítica por parte de iguales en comunidades académicas, con el fin de validar o refutar el conocimiento producido.

En esta nueva edición del Congreso INRED 2025, reflexionaremos sobre cómo avanzar desde una innovación basada en la experiencia y con un nivel incipiente de fundamentación empírica hacia una innovación con un enfoque académico. Un enfoque que no solo se apoye en la experimentación y el análisis sistemático de la docencia, sino que también genere evidencia comunicable y susceptible de ser sometida a revisión crítica por parte de la comunidad académica. Además, exploraremos los nuevos desafíos que plantea este modelo desde las perspectivas técnica y ética.

En este congreso, tengo el placer de anunciar que tenemos aceptadas dos comunicaciones:

YEPES, V. (2025). Pensamiento lateral para mejorar la resolución de problemas complejos en estudios de máster. En libro de actas: XI Congreso de Innovación Educativa y Docencia en Red. Valencia, 17 – 18 de julio de 2025.

Esta comunicación presenta una metodología innovadora que integra el pensamiento lateral mediante la técnica de los «Seis sombreros para pensar» de Edward de Bono en la enseñanza de la resolución de problemas complejos en ingeniería. El objetivo principal es evaluar la efectividad de esta técnica para desarrollar habilidades críticas y creativas en los estudiantes. La metodología se implementó en un curso de ingeniería, donde los estudiantes trabajaron en grupos para abordar un problema específico utilizando los enfoques que cada sombrero representa. Se realizaron encuestas antes y después de la actividad para medir la mejora en la capacidad de resolución de problemas y colaboración entre los estudiantes. Los resultados indican que la aplicación del pensamiento lateral mejora significativamente la capacidad de los estudiantes para resolver problemas complejos y fomenta un ambiente de aprendizaje colaborativo. Los estudiantes afirmaron haber aumentado su creatividad y disposición para compartir ideas. Esta metodología es exportable a otras titulaciones y niveles educativos, convirtiéndose en una herramienta valiosa para la innovación docente en diversas disciplinas.

YEPES, V.; YEPES-BELLVER, L.; MARTÍNEZ-PAGÁN, P. (2025). Impacto de la diversidad cultural en la resolución colaborativa de problemas en la docencia universitaria de ingeniería. En libro de actas: XI Congreso de Innovación Educativa y Docencia en Red. Valencia, 17 – 18 de julio de 2025.

La globalización y la movilidad académica han transformado las aulas universitarias en entornos multiculturales, donde la diversidad cultural es fundamental para el desarrollo de competencias profesionales. Este trabajo investiga la influencia de la diversidad cultural en la resolución colaborativa de problemas (RCP) en programas en ingeniería. Para ello, se desarrollaron actividades en grupos heterogéneos que promovieron la participación y el desarrollo de habilidades interpersonales mediante una metodología activa y colaborativa. Se aplicó una encuesta a 79 estudiantes para evaluar su percepción sobre la influencia de la diversidad cultural en su aprendizaje y en la dinámica de trabajo en equipo. Los resultados indican que la diversidad cultural no solo enriquece las interacciones y fomenta la creatividad, sino que también mejora la toma de decisiones y la resolución de problemas. Este estudio aporta pruebas empíricas que respaldan la necesidad de gestionar pedagógicamente la diversidad como un recurso estratégico en la educación. Se concluye que una enseñanza inclusiva y consciente de la diversidad potencia la sinergia entre conocimientos técnicos y competencias interculturales, mejorando la calidad educativa en ingeniería.