Los puentes de madera: evolución, tipología y relevancia actual

Puente de madera de Cofrentes, sobre el río Cabriel, junto al puente nuevo construido en 1911 (Sanchis, 1993).

1. Definición y tipología estructural.

La madera fue el primer material estructural utilizado en la construcción de puentes, mucho antes que la piedra, el metal o el hormigón. La madera permite fabricar piezas lineales aptas para resistir esfuerzos de compresión y tracción y, por tanto, también de flexión. Su uso ha evolucionado desde los rudimentarios troncos apoyados en los cauces hasta las complejas estructuras actuales de madera laminada y materiales compuestos. En la actualidad, este material está experimentando un notable resurgimiento, impulsado por sus virtudes técnicas: una excelente relación resistencia-peso, facilidad de mecanizado y de transporte, y la capacidad de crear elementos prefabricados de gran longitud.

A diferencia de la mampostería, que requiere morteros y recurre al arco para salvar grandes luces, la madera permite ensamblajes con continuidad estructural. Esto permite diseñar diseños lineales, ligeros y flexibles que se adaptan a una amplia variedad de vanos. El desarrollo de la madera laminada encolada (en inglés, glulam), los adhesivos estructurales, los tratamientos de protección en autoclave y las normativas estandarizadas, como el Eurocódigo 5, han consolidado la madera como una alternativa duradera y viable frente a los materiales convencionales.

Clasificación estructural

Los puentes de placas de madera son estructuras que funcionan como placas continuas, normalmente compuestas por tableros de madera contralaminada (CLT), y tienen luces limitadas o se combinan con vigas para alcanzar dimensiones mayores. Por otro lado, los puentes de barras de madera están formados por piezas lineales que configuran vigas, arcos o cerchas (vigas reticuladas), lo que les permite cubrir luces más amplias.

Tipo estructural Descripción Luz típica
Vigas Vigas macizas o de glulam, a menudo en configuraciones triarticuladas. 3 a 24 m
Viga reticulada (cercha) Sistema triangulado (p. ej., tipo Howe o Pratt) de barras que operan bajo esfuerzo axial. 9 a 45 m
Arco triarticulado Fabricado en glulam, sometido predominantemente a compresión. 12 a 70 m
Colgante El tablero está suspendido mediante cables de acero anclados a mástiles. Luces variables
De apertura Tablero con piezas móviles o deslizantes. Hasta 24 m

2. Evolución histórica de los puentes de madera.

  • Orígenes antiguos e ingeniería primitiva: La madera es uno de los materiales estructurales más antiguos que la humanidad ha utilizado para superar obstáculos naturales. Desde la prehistoria, concretamente desde la invención del hacha de piedra, alrededor del año 15 000 a. C., los seres humanos utilizaban troncos como puentes sobre ríos o arroyos. Los palafitos eran construcciones de madera levantadas sobre el agua, similares a los puentes. En algunas culturas subtropicales también empleaban lianas, que prefiguraban los puentes colgantes. No obstante, los ejemplos más sofisticados datan de épocas posteriores. Aunque en la Antigüedad clásica los puentes de piedra en arco fueron los más duraderos, la madera desempeñó un papel esencial en la ingeniería militar. Uno de los ejemplos más conocidos es el puente que Julio César construyó sobre el Rin, diseñado para montarse y desmontarse rápidamente aprovechando las corrientes del río para estabilizar sus uniones. Otro ejemplo es el legendario Ponte Sublicio (c. 642 a. C.) sobre el Tíber, concebido para ser destruido en caso necesario, lo que subraya la importancia estratégica de los puentes de madera en la Antigüedad.
Puente de Julio César en el Rin. https://www.cienciahistorica.com/2015/08/25/acojonar-enemigo/
  • Edad Media, Renacimiento y «siglo de oro» europeo: Aunque durante la Edad Media predominaban las estructuras de mampostería, la madera seguía utilizándose en puentes, especialmente en forma de cubiertas que protegían la superestructura de las inclemencias del tiempo. Ya desde el Renacimiento, ingenieros como Leonardo da Vinci idearon puentes de madera desmontables o de montaje rápido, lo que evidencia una notable anticipación técnica. En Suiza, por ejemplo, los puentes cubiertos como el Kapellbrücke y el Spreuerbrücke (siglos XIV-XVI) demuestran que la cubierta de madera prolongaba la vida útil de la estructura al protegerla de la humedad y del sol. El siglo XVIII se considera un periodo de auge de los puentes de madera en Europa. Ingenieros como Hans Ulrich Grubenmann, en Suiza, desarrollaron puentes de madera laminada empernada y arcos rebajados, logrando luces de más de 50 metros, lo que situó a la madera, en términos de vano, en niveles comparables a los de la piedra.
Puente Kapellbrücke de Lucerna (Suiza). https://worldcitytrail.com/es/2025/01/04/spreuerbrucke-en-lucerna/
  • El impulso industrial y las cerchas reticuladas: El gran salto tecnológico en la construcción de puentes de madera se produjo en el siglo XIX, como resultado de la Revolución Industrial y del desarrollo de las redes ferroviarias, sobre todo en Norteamérica. La necesidad de construir puentes de forma rápida y con luces mayores impulsó el uso de conexiones metálicas y de tipos estructurales más eficientes. Aparecieron patentes como las de Ithiel Town (cercha Town), William Howe (cercha Howe) y Thomas Pratt (cercha Pratt). Un ejemplo histórico es el puente Colossus Bridge, construido por Lewis Wernwag en 1812 sobre el río Schuylkill, en Filadelfia. Con un vano de 103,7 metros y conectores de hierro, en su época se consideró el puente de madera de vano único más largo de Estados Unidos. Estas innovaciones permitieron que la madera compitiera con otros materiales estructurales.
Puente Colossus Bridge, construido por Lewis Wernwag en 1812 sobre el río Schuylkill, en Filadelfia. https://www.structuremag.org/article/the-colossus-of-the-schuylkill-river/
  • Siglos XX y XXI: innovación tecnológica y sostenibilidad: Durante gran parte del siglo XX, los materiales dominantes fueron el acero y el hormigón, que relegaron en parte a la madera. No obstante, en ese periodo se sentaron las bases para su renacimiento: la invención de la madera laminada encolada (glulam), los adhesivos estructurales de alto rendimiento y los tratamientos en autoclave mejoraron sustancialmente la estabilidad dimensional, la durabilidad y la fiabilidad de la madera como material estructural. En la actualidad, la madera está experimentando un notable resurgimiento en la ingeniería de puentes, gracias también a los criterios de sostenibilidad y de ecología. Normativas como el Eurocódigo 5 (EN 1995-2: Puentes de madera) han aportado solidez a su uso desde el punto de vista ingenieril. Además, la aparición de la madera contralaminada (CLT) y el desarrollo de estructuras híbridas (madera-acero o madera-hormigón), junto con las herramientas de modelado digital (BIM) y la prefabricación, han devuelto a la madera su papel esencial en las infraestructuras sostenibles.
Puente de madera laminada sobre el Pisuerga. http://www.mediamadera.com/es/puentes-de-madera

3. Consideraciones técnicas y materiales

Los puentes modernos se construyen con madera de ingeniería, un material estable y de alto rendimiento.

A. Materiales estructurales clave

  • Madera laminada encolada (glulam): permite fabricar vigas curvadas o rectas de gran sección y longitud, optimizando la resistencia.
  • Madera contralaminada (CLT): paneles de gran formato y rigidez bidireccional, muy utilizados en tableros de placa por su capacidad de prefabricación modular.
  • Maderas compuestas estructurales (LVL, PSL): productos derivados de chapas o de virutas que ofrecen uniformidad y alto rendimiento mecánico.

B. Durabilidad, protección y mantenimiento

La longevidad de un puente de madera depende fundamentalmente de un diseño inteligente que controle la humedad:

  1. Protección constructiva: el diseño debe evitar la acumulación de agua mediante drenajes e inclinaciones y asegurar una ventilación adecuada. La cubierta protectora sigue siendo la mejor defensa a largo plazo.
  2. Tratamiento: selección de especies duraderas (según EN 350) o aplicación de tratamientos protectores en autoclave (sales de cobre, etc.) para alcanzar las clases de uso 3 y 4.
  3. Mantenimiento: revisiones periódicas y reaplicación de protectores superficiales para combatir la radiación UV solar.

El diseño estructural de los puentes de madera se basa en normativas internacionales rigurosas. En Europa, la referencia principal es el Eurocódigo 5 (EN 1995-2: Puentes), que establece los criterios esenciales de cálculo por el método de estados límite, la durabilidad de la madera y el dimensionamiento de las uniones e incorpora factores de modificación críticos. Además, el Manual de diseño de puentes AASHTO LRFD (Load and Resistance Factor Design) ofrece una metodología de diseño basada en factores de carga y resistencia que predomina en Norteamérica y otras regiones. Estas dos directrices se complementan con las guías técnicas detalladas del US Forest Service, que ofrecen buenas prácticas especializadas para la construcción y la durabilidad de estas estructuras.

4. Aplicaciones y mercado

Los puentes de madera tienen una amplia gama de usos:

  • Vehiculares: carreteras secundarias y entornos rurales, diseñados para soportar cargas moderadas.
  • Peatonales y para ciclistas: son los más comunes y destacan por su estética cálida y su excelente integración paisajística en parques y entornos naturales.
  • Sistemas híbridos: la combinación de glulam con losas de hormigón o acero permite construir puentes con vanos más largos y con mayor resistencia al tráfico pesado.

La sostenibilidad es el motor actual. La madera es un material renovable, reciclable y que captura carbono, y se suministra mediante sistemas de construcción industrializados (prefabricación), lo que asegura una rápida ejecución en obra. En el mercado actual se integran fabricantes de glulam, ingenierías especializadas y constructoras modulares, capaces de producir estructuras completas mediante sistemas industrializados.

5. Comparativa de materiales estructurales para puentes

Propiedad / criterio Madera estructural Acero Hormigón armado / pretensado Piedra
Resistencia específica (resistencia/peso) Muy alta (estructuras ligeras). Alta. Media. Baja.
Durabilidad natural Limitada si no se protege; mejorable con tratamientos. Alta si se protege contra la corrosión. Muy alta. Muy alta.
Mantenimiento Requiere revisiones y repintado o reaplicación de protector. Requiere control de la corrosión y de la pintura. Bajo. Mínimo.
Coste inicial Medio o bajo (según el tipo de madera y el diseño). Alto. Medio. Alto.
Coste de mantenimiento Moderado. Alto. Bajo. Muy bajo.
Comportamiento frente al fuego Predecible (carbonización superficial). Excelente. Muy bueno. Excelente.
Comportamiento ante agentes climáticos Sensible a la humedad y a los rayos UV; requiere protección. Sensible a la corrosión. Buena durabilidad. Muy buena.
Sostenibilidad y huella de carbono Excelente. Material renovable y reciclable. Elevada huella de CO₂. Alta huella de CO₂. Alta huella energética.
Estética e integración paisajística Muy alta. Calidez y naturalidad. Industrial. Neutra. Tradicional.
Rapidez de construcción Muy alta (prefabricación). Alta. Media. Muy baja.
Aplicaciones recomendadas Pasarelas, carreteras secundarias, entornos naturales. Grandes luces, tráfico intenso. Infraestructura masiva. Monumentos y obras históricas.

Conclusión

Lejos de ser obras provisionales, los puentes de madera son una síntesis de tradición e innovación tecnológica. Desde los primeros troncos prehistóricos hasta los diseños actuales con madera laminada encolada, contralaminada y estructuras híbridas, la madera ha demostrado su versatilidad, sostenibilidad y competitividad técnica. Gracias a la ingeniería moderna y a las normativas internacionales, la madera se consolida como un material estructural de referencia en el ámbito de las infraestructuras sostenibles.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Crees que la ciencia «transfiere» conocimiento a la sociedad? 4 revelaciones que cambiarán tu perspectiva.

Introducción: de la torre de marfil al diálogo abierto.

A menudo imaginamos la ciencia como un proceso aislado: un grupo de expertos en una torre de marfil que, una vez finalizado su trabajo, «transfiere» su conocimiento empaquetado a una sociedad que lo recibe pasivamente. Esta imagen de un flujo unidireccional en el que el conocimiento fluye desde el laboratorio hasta la calle ha dominado nuestra percepción durante décadas. Sin embargo, esta visión está profundamente obsoleta. La relación entre la ciencia y la sociedad es, en realidad, un ecosistema vibrante, un diálogo complejo y multidireccional que enriquece a ambas partes de formas que apenas empezamos a comprender.

Este artículo se sumerge en el corazón de esta nueva perspectiva basándose en un profundo análisis del documento de trabajo de la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA). A continuación, revelaremos las claves más impactantes y sorprendentes sobre cómo el conocimiento científico crea realmente valor social, desmontando viejos mitos y abriendo la puerta a una nueva forma de entender la ciencia.

1. No es «transferencia», sino «intercambio». Y el cambio es enorme.

El primer gran cambio es conceptual, pero tiene implicaciones transformadoras. La anterior Ley Orgánica de Universidades de 2001 entendía la «transferencia» como un flujo que siempre partía de la universidad hacia la sociedad, con un enfoque casi exclusivo en el valor económico o tecnológico. Era un monólogo en el que la ciencia hablaba y la sociedad escuchaba.

El nuevo paradigma, impulsado por las recientes leyes del Sistema Universitario y de la Ciencia, habla de «transferencia e intercambio de conocimiento». Este término enriquece radicalmente la perspectiva. Reconoce que los flujos de conocimiento son multidireccionales, ya que la sociedad también aporta saberes, necesidades y contextos cruciales para la investigación. Se valora la interacción con actores no académicos y los procesos de cocreación, en los que el valor ya no es solo económico, sino también social, artístico y cultural. Este cambio es significativo, puesto que transforma la relación de un monólogo a un diálogo y reconoce que el conocimiento y las necesidades de la sociedad son fundamentales para enriquecer la propia ciencia.

La valorización del conocimiento consiste en crear valor social y económico a partir de él, vinculando diferentes ámbitos y sectores, y transformando datos, conocimientos técnicos y resultados de la investigación en productos, servicios, soluciones y políticas basadas en el conocimiento, sostenibles y que beneficien a la sociedad.

2. Las patentes son solo la punta del iceberg (y muy pequeña, además).

Cuando pensamos en la ciencia aplicada a la sociedad, suele venirnos a la mente la imagen de una patente que se convierte en un producto comercial o la creación de una empresa spin-off a partir de una investigación universitaria. Estas se han considerado durante mucho tiempo como el máximo exponente de la transferencia de tecnología.

Sin embargo, la realidad es muy diferente. El informe de la ANECA pone de manifiesto que solo una minoría de investigadores e instituciones participa activamente en estas actividades. Los datos del estudio EXTRA son reveladores: la comercialización de resultados (que incluye patentes y empresas derivadas) es una práctica mucho menos frecuente (12 %) que la colaboración formal mediante contrato (63 %) o la colaboración informal (80 %). Esto significa que, durante décadas, los sistemas de evaluación han premiado y medido la actividad de una minoría (el 12 %), mientras que el vasto ecosistema de colaboración real (el 80 %) que genera valor social ha permanecido en la sombra, sin ser reconocido ni incentivado.

Esta obsesión por lo comercial no es solo teórica. En una evaluación piloto de la «transferencia» realizada en 2018, los resultados favorecieron abrumadoramente un modelo económico y tecnológico que premiaba perfiles muy específicos (hombres de mayor edad con trayectorias consolidadas) y actividades como las spin-offs y las patentes, mientras que la divulgación y la transferencia con valor social obtuvieron resultados muy inferiores. Este sesgo sistémico demostró que el antiguo modelo no solo era incompleto, sino también excluyente.

La mayor parte del intercambio real se produce a través de un «espectro oculto» de mecanismos menos visibles, pero muy valiosos, como la investigación conjunta con empresas u ONG, la consultoría especializada, la formación a medida o la participación directa en la elaboración de políticas públicas.

«Intercambio de conocimientos» es el nombre que damos a la amplia gama de actividades que las instituciones de educación superior emprenden con socios (…) para explorar datos y explicaciones sobre las diferentes maneras en que trabajan con sus socios externos, desde empresas hasta grupos comunitarios, en beneficio de la economía y la sociedad.

3. El valor de la ciencia no es intrínseco, sino que lo crean quienes la utilizan.

Medir el «impacto social» de la investigación es un gran desafío. De hecho, la literatura citada en el documento de ANECA señala que ni siquiera existe una definición consensuada de qué es exactamente. Esto ha llevado a un cambio de enfoque radical: la «valorización y el uso social».

La idea es sencilla, pero potente: el valor no reside inherentemente en los resultados científicos, como un artículo o un descubrimiento. El valor se crea y materializa cuando los agentes sociales —empresas, administraciones públicas, ONG, asociaciones de pacientes o ciudadanos— utilizan ese conocimiento para resolver problemas, mejorar procesos o enriquecer contextos. La investigación, por sí sola, no tiene valor social; lo adquiere cuando alguien la pone en práctica.

En la práctica, son los actores sociales que usan o apoyan el uso de la investigación quienes le confieren valor, ya que este no es intrínseco a los resultados científicos, sino que depende de su materialización efectiva por parte de los usuarios en sus respectivos entornos.

Esta perspectiva empodera a la sociedad y transforma por completo el enfoque de la evaluación. La pregunta clave ya no es «¿qué ha producido el científico?», sino «¿cómo y quién ha utilizado el conocimiento generado para crear valor real en el mundo?».

4. La ciencia del futuro debe ser inclusiva, abierta y responsable.

La idea de una ciencia completamente neutral y objetiva, inmune a los problemas sociales, es otro mito que se desmorona. El documento de ANECA deja claro que la ciencia, al igual que cualquier actividad humana, no está exenta de sesgos sistémicos como el sexismo, el racismo o la discriminación por clase social. Reconocer esto es el primer paso para construir una ciencia mejor, guiada por tres pilares fundamentales:

  • Ciencia inclusiva: supera el «modelo del déficit», que asume que el público es un receptor vacío de conocimiento. En su lugar, incorpora activamente las voces, experiencias y preocupaciones de comunidades diversas e históricamente excluidas en el propio proceso científico. En esencia, es la puesta en práctica del verdadero «intercambio» del que hablamos al principio y garantiza que el diálogo sea real y representativo.
  • Ciencia abierta: promueve el acceso libre y gratuito a los datos, las metodologías y los resultados de la investigación. El objetivo es maximizar su reutilización, transparencia y beneficio para toda la sociedad, no solo para quienes pueden pagarlo.
  • Ciencia responsable: implica considerar proactivamente las implicaciones éticas, sociales y medioambientales de la investigación. Se trata de anticipar consecuencias para garantizar que el «valor» creado por la sociedad, como vimos antes, se oriente siempre hacia el bien común.

Integrar estos principios no es solo una cuestión de justicia social. Se trata de una estrategia indispensable para mejorar la calidad y la relevancia de la propia investigación, fortalecer la confianza pública en la ciencia y garantizar que sus beneficios lleguen a todos.

Conclusión: una conversación, no un monólogo.

El viaje ha sido revelador. Hemos pasado de la idea de una «transferencia» unidireccional y centrada en las patentes a un ecosistema de «intercambio», en el que el verdadero valor no radica en el descubrimiento científico en sí, sino en cómo la sociedad lo utiliza y lo transforma. Este cambio nos obliga a replantearnos qué es lo que realmente importa. La ciencia del futuro no puede medirse por sus productos aislados, sino por la riqueza y la calidad de sus relaciones con la sociedad. Su éxito no radica en un monólogo desde la autoridad, sino en su capacidad para crear, conjuntamente, un valor tangible y equitativo mediante un diálogo inclusivo, abierto y responsable.

Ahora que entendemos la ciencia no como un monólogo desde una torre de marfil, sino como una conversación continua, ¿qué pregunta urgente le harías tú a la comunidad científica?

En esta conversación se descubre gran parte de las ideas anteriores.

En este vídeo tenéis un resumen del tema.

El documento de ANECA lo podéis ver en este enlace: https://www.aneca.es/web/guest/-/documento-transferencia-e-intercambio-de-conocimiento

Pero también lo podéis descargar aquí:

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Montaje por movimientos horizontales de puentes atirantados

Los procedimientos de montaje por movimientos horizontales de puentes atirantados se aplican cuando el puente —total o parcialmente— se construye fuera de su posición definitiva y se traslada posteriormente hasta ella. Este enfoque permite reducir la interferencia con el cauce, el tráfico o las infraestructuras existentes, además de mejorar la seguridad y el control de calidad, ya que la mayor parte de los trabajos se realizan en condiciones estables sobre tierra firme.

En todos los casos, las torres y el tablero deben comportarse de forma solidaria durante el desplazamiento, apoyándose el conjunto en pilas o apoyos provisionales que garanticen la estabilidad global. La elección del método depende de las condiciones geométricas del emplazamiento, de las luces principales, de la rigidez del sistema atirantado y de la disponibilidad de medios auxiliares.

Se distinguen tres métodos fundamentales de ejecución:

a) Puentes empujados longitudinalmente

Este procedimiento es similar al empleado en los puentes de vigas lanzadas incrementalmente, pero está adaptado a la configuración atirantada. El tablero se construye por tramos en una orilla y se empuja progresivamente hacia el vano principal mediante gatos hidráulicos. Para compensar los momentos negativos en el frente de avance, se coloca una nariz de lanzamiento o una estructura auxiliar ligera.

Durante el empuje, los apoyos provisionales y las torres soportan cargas variables, por lo que es necesario controlar continuamente la tensión en los tirantes y realizar ajustes secuenciales para evitar sobreesfuerzos o deformaciones excesivas. Para ello, se utilizan dispositivos deslizantes de baja fricción, como placas de neopreno-PTFE sobre acero inoxidable o carros rodantes en combinación con gatos sincronizados. Además, se realiza una instrumentación topográfica y extensométrica en tiempo real para controlar la geometría de avance.

Un ejemplo representativo es el puente de la calle Jülicher, en Düsseldorf, donde este sistema se aplicó con éxito, combinando el control hidráulico de las tensiones en los tirantes con el uso de apoyos provisionales sobre las pilas intermedias durante el avance del tablero. El mismo procedimiento se empleó en el puente de la calle Franklin, también en Düsseldorf, siguiendo una metodología constructiva similar.

Puente de la calle Jülicher en Düsseldorf, Alemania. https://de.wikipedia.org/wiki/Br%C3%BCcke_J%C3%BClicher_Stra%C3%9Fe

b) Puentes girados

Cuando las condiciones del terreno o del cauce hacen inviable el empuje longitudinal, se puede recurrir al giro del puente completo o de sus semitableros desde una posición lateral de montaje. El conjunto se apoya temporalmente sobre una articulación o pivote reforzado bajo la torre principal, mientras el extremo libre describe un sector circular hasta alcanzar su posición definitiva.

Durante la maniobra, es fundamental mantener el equilibrio del centro de gravedad y la estabilidad frente al vuelco o la torsión, por lo que suelen emplearse lastres temporales y gatos hidráulicos sincronizados. La precisión se garantiza mediante un control topográfico y de tensiones en los tirantes antes y después del giro.

El puente sobre el canal del Danubio, en Viena, es un ejemplo clásico de dos semipuentes girados hasta su posición final. Otro caso notable es el puente de Ben-Ahin (Père Pire) sobre el río Mosa, en Bélgica, que se construyó por completo en una orilla y se giró alrededor de su pila principal en 1987. La maniobra, que desplazó decenas de miles de toneladas, supuso en su momento un récord europeo por el peso movilizado mediante una rotación controlada. Este puente, construido en 1988, fue en su momento el de mayor masa girada del mundo. La pila tiene 84 metros de altura; el tablero mide 341 metros de largo y pesa 16 000 toneladas. Lo soportan 40 cables en abanico situados en un plano.

Puente de Ben-Ahin, Bélgica. Imagen: C. Pujos. Fuente: http://www.puentemania.com/3502

c) Puentes ripados transversalmente

El ripado o traslación transversal consiste en construir el puente en su ubicación final y trasladarlo lateralmente mediante sistemas de deslizamiento controlado. Este método requiere alineamientos precisos entre la posición inicial y la definitiva, así como patines o cojinetes de deslizamiento lubricados, que a menudo se combinan con transportadores modulares autopropulsados (SPMT, por sus siglas en inglés) o con gatos de empuje y freno.

El puente de Oberkassel, en Düsseldorf, es un ejemplo representativo de este tipo de maniobra. La estructura principal se desplazó lateralmente desde su zona de ensamblaje hasta el eje del río mediante carros rodantes y guías transversales, bajo una monitorización topográfica en tiempo real que garantizó la precisión del posicionamiento final. El puente tiene una luz principal de 257,75 m y una torre central de 100 m de altura sobre el tablero. Su superestructura metálica, de 35 m de ancho, está formada por una viga cajón de tres células con losa ortótropa.

Puente sobre el Rin Düsseldorf-Oberkassel. Fuente: https://www.visitduesseldorf.de/en/attractions/oberkasseler-bruecke-bridge-b2338616ec

El ripado presenta ventajas en emplazamientos con suficiente espacio lateral, ya que reduce los trabajos en el cauce y minimiza las afecciones medioambientales o de tráfico. No obstante, exige un estudio detallado del coeficiente de fricción, de las reacciones en los apoyos provisionales y de los esfuerzos transitorios en los tirantes y en las pilas durante el movimiento.

Consideraciones generales

En los puentes atirantados, los movimientos horizontales requieren una planificación constructiva precisa y un análisis estructural temporal que contemple la evolución de las tensiones, las deformaciones y la estabilidad global en cada fase. Es fundamental modelar los estados transitorios y definir procedimientos de tensado, destensado y control geométrico con el apoyo de instrumentación avanzada (celdas de carga, inclinómetros y estaciones totales automatizadas).

En la práctica, estos métodos ofrecen varias ventajas: permiten trabajar en seco y en condiciones controladas, reducen los riesgos laborales y minimizan la interferencia con el entorno. Entre sus principales limitaciones se encuentran el coste de los equipos especializados, la complejidad de las maniobras y la necesidad de personal altamente cualificado.

En resumen, el montaje por movimientos horizontales es una técnica versátil y segura, plenamente consolidada en la ingeniería de puentes moderna, que combina la precisión geométrica con la eficiencia constructiva. Ha demostrado su viabilidad en numerosos puentes atirantados europeos, como los de Düsseldorf, Viena y Ben-Ahin.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Harold M. Westergaard: el ingeniero que cimentó la teoría moderna de estructuras

Harold Malcolm Westergaard (1888 – 1950). https://sv.wikipedia.org/wiki/Harald_Westergaard

Harold Malcolm Westergaard (Copenhague, Dinamarca, 9 de octubre de 1888 – Cambridge, Massachusetts, Estados Unidos, 22 de junio de 1950) fue un ingeniero estructural danés cuya influencia en la teoría de estructuras y en el análisis del hormigón armado ha perdurado a lo largo de todo el siglo XX. Fue profesor de Mecánica Teórica y Aplicada en la Universidad de Illinois en Urbana y, posteriormente, de Ingeniería Civil en la Universidad de Harvard, donde llegó a ocupar el decanato de la Escuela de Posgrado de Ingeniería.

Westergaard nació en el seno de una familia profundamente vinculada al mundo académico. Su abuelo fue profesor de lenguas orientales en la Universidad de Copenhague y su padre, catedrático de economía y estadística en la misma institución. Esta herencia intelectual marcó su vocación científica desde joven. Estudió ingeniería en el Instituto Técnico de Copenhague (Danmarks Tekniske Højskole), donde trabajó bajo la dirección del destacado ingeniero civil Asger Ostenfeld, graduándose en 1911. Mantuvo contacto con su maestro hasta la muerte de este en 1931, conservando siempre una profunda admiración por su figura.

Tras finalizar sus estudios, Westergaard adquirió experiencia práctica en la construcción de estructuras de hormigón armado en Copenhague, Hamburgo y Londres. Después se mudó a Alemania, donde se impregnó del ambiente científico de la escuela de Göttingen, en torno a figuras como Felix Klein. Allí estudió bajo la dirección de Ludwig Prandtl, uno de los padres de la mecánica de fluidos moderna. En 1915, con la ayuda de August Föppl, preparó la edición escrita de su disertación doctoral en la Königlich Bayerische Technische Hochschule München (actual Universidad Técnica de Múnich). Sin embargo, la Primera Guerra Mundial interrumpió su proceso académico y no pudo defender su tesis hasta septiembre de 1921, ante Sebastian Finsterwalder y Ludwig Föppl. El reconocimiento oficial de su título de doctor ingeniero no llegaría hasta 1925, cuando su tesis doctoral fue finalmente publicada.

Durante esos años, Westergaard se trasladó a Estados Unidos con una beca de la American Scandinavian Foundation. En 1916 obtuvo el doctorado en la Universidad de Illinois en Urbana y, por recomendación de su mentor, Ostenfeld, fue nombrado profesor de mecánica teórica y aplicada en esa misma universidad. Su carrera académica fue ascendente: en 1921 fue ascendido a assistant professor, en 1924 a associate professor y en 1927 alcanzó la categoría de full professor.

La producción científica de Westergaard fue tan precoz como influyente. En 1920, publicó un estudio sobre la resistencia de materiales dúctiles sometidos a esfuerzos combinados en dos o tres direcciones perpendiculares. Al año siguiente, presentó un artículo sobre momentos y tensiones en losas de hormigón armado junto con William. A. Slater. Este trabajo pionero en su campo le valió la prestigiosa Medalla Wason del American Concrete Institute (ACI) en 1922. Ese mismo año, también publicó un estudio sobre el pandeo de estructuras elásticas que ampliaría más tarde con nuevos resultados teóricos.

A partir de 1923, comenzó a investigar la interacción entre los pavimentos de hormigón y el terreno de apoyo para la construcción de carreteras, un campo en el que sus aportaciones se convirtieron en una referencia obligada. Entre 1925 y 1926, publicó varios artículos fundamentales sobre el cálculo de tensiones en pavimentos de hormigón, como Stress in concrete pavements, computed by theoretical analysis y Computation of stresses in concrete roads, que sentaron las bases de la normativa moderna para el diseño de firmes rígidos. En sus modelos, Westergaard representaba los pavimentos como losas delgadas elásticas sobre un lecho tipo Winkler, siguiendo la teoría de placas de Kirchhoff. Aunque años más tarde otros autores, como Losberg (1960) o Ioannides (1985), señalaron inconsistencias teóricas en sus ecuaciones, su modelo se mantuvo como el estándar de referencia durante décadas, incluso más allá de la «fase de innovación» de la teoría de estructuras (1950-1975).

Westergaard también se interesó por la aplicación del análisis estructural a problemas reales de ingeniería civil. En 1930, publicó One Hundred Years Advance in Structural Analysis, una obra histórica que se considera el primer estudio sistemático sobre la evolución de la teoría de estructuras en Estados Unidos. Ese mismo año elaboró un trabajo sobre losas de puentes sometidas a cargas móviles (Computation of stresses in bridge slabs due to wheel loads). En 1933 publicó su influyente estudio Water Pressures on Dams During Earthquakes, fruto de su labor como asesor técnico del Bureau of Reclamation de los Estados Unidos durante el diseño de la presa Hoover, una de las obras más emblemáticas de la ingeniería moderna.

En 1935, presentó una contribución teórica de gran profundidad: la General Solution of the Problem of Elastostatics in an n-Dimensional Homogeneous Isotropic Solid in an n-Dimensional Space, en la que ofreció una formulación general del problema de la elastostática en espacios de dimensión arbitraria. Poco después, en 1939, publicó dos trabajos clave: Bearing Pressures and Cracks, sobre las presiones de apoyo y la aparición de fisuras, y Stresses in Concrete Runways of Airports, en el que extendió sus investigaciones sobre pavimentos al ámbito aeroportuario.

En 1936 fue nombrado profesor Gordon McKay de Ingeniería Estructural en la Universidad de Harvard y entre 1937 y 1946 ejerció como decano de la Escuela de Posgrado de Ingeniería. Durante este periodo, se centró en los fundamentos teóricos de la mecánica, abordando cuestiones de mecánica de fractura, un campo en el que sus estudios supusieron un hito. En 1942 publicó Stresses Concentration in Plates Loaded Over Small Areas y, en 1948, New Formulas for Stresses in Concrete Pavements of Airfields, obras que consolidaron su autoridad en el análisis estructural del hormigón.

Durante la Segunda Guerra Mundial, Westergaard sirvió como comandante del Cuerpo de Ingenieros Civiles de la Marina de Estados Unidos. También participó en la comisión encargada de evaluar los efectos estructurales de las bombas atómicas de Hiroshima y Nagasaki y contribuyó, con su experiencia, a la comprensión del comportamiento de las estructuras sometidas a cargas extremas.

En la primavera de 1949, comenzó a recopilar su extensa producción científica, que constaba de casi cuarenta artículos. A pesar de su grave enfermedad, logró completar la primera parte de su manuscrito sobre teoría de la elasticidad, que se publicó póstumamente en 1952 con el título Theory of Elasticity and Plasticity. Falleció el 22 de junio de 1950 en Cambridge, Massachusetts.

La muerte de Harold M. Westergaard supuso la pérdida de una de las figuras más brillantes e influyentes de la ingeniería estructural estadounidense en su etapa de gestación (1925-1950). Su colega Nathan Newmark lo describió como «una figura impresionante, intelectualmente brillante y físicamente fuerte. Amaba el arte y la música, y aunque era algo tímido, era cálido y atento con los demás».

Su legado científico es extenso y trascendente. Entre sus principales contribuciones destacan:

  • On the Resistance of Ductile Materials to Combined Stresses in Two or Three Directions Perpendicular to One Another (1920)
  • Moments and Stresses in Slabs (1921)
  • Buckling of Elastic Structures (1922)
  • Anwendung der Statik auf die Ausgleichsrechnung (1925)
  • Stress in Concrete Pavements Computed by Theoretical Analysis (1926/1)
  • Computation of Stresses in Concrete Roads (1926/2)
  • One Hundred Years Advance in Structural Analysis (1930/1)
  • Computation of Stresses in Bridge Slabs Due to Wheel Loads (1930/2)
  • Water Pressures on Dams During Earthquakes (1933)
  • General Solution of the Problem of Elastostatics in an n-dimensional Homogeneous Isotropic Solid in an n-dimensional Space (1935)
  • Bearing Pressures and Cracks (1939)
  • Theory of Elasticity and Plasticity (1952)

Harold Malcolm Westergaard fue, sin duda, un ingeniero con una amplitud intelectual poco común: un científico riguroso, un profesor inspirador y un hombre comprometido con su tiempo. Sus teorías, obras y visión interdisciplinar siguen siendo una referencia fundamental en la historia de la ingeniería estructural moderna.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

5 revelaciones sobre el aprendizaje que la educación tradicional ignora.

¿Te has preguntado alguna vez por qué se olvida la información justo después de un examen? No se trata de un fallo personal, sino del resultado previsible de un modelo educativo anticuado que suele priorizar la memorización a corto plazo sobre la comprensión profunda. De hecho, la investigación ha demostrado que los estudiantes retienen muy poco de lo que se les enseña en una clase magistral tradicional.

Frente a este desafío, surge el «aprendizaje activo» como una alternativa poderosa. Su enfoque no se centra en lo que enseña el profesor, sino en lo que el estudiante construye. En lugar de ser receptores pasivos, los estudiantes se convierten en protagonistas de su propio proceso de aprendizaje.

A continuación, revelaremos cinco aspectos fundamentales de este enfoque que están redefiniendo el éxito educativo y transformando tu manera de entender el aprendizaje.

Revelación 1: tu cerebro no es un disco duro; es una red en construcción.

El modelo tradicional considera la mente como un recipiente vacío o un disco duro que hay que llenar de datos. La revelación es que la mente no es un almacén, sino un telar. Cada nueva idea es un hilo que solo tiene valor cuando se entreteje con los demás.

La psicología cognitiva nos enseña que el conocimiento se organiza en «redes semánticas». Para que una nueva información sea útil y duradera, debe conectarse con la red existente en nuestra mente. Sin esa conexión, se trata de un dato aislado, fácil de olvidar e inútil para resolver problemas. Aprender no es acumular, sino construir significado.

La enseñanza basada en metodologías activas se centra en el estudiante y en su formación en competencias propias de la disciplina. Estas estrategias conciben el aprendizaje como un proceso constructivo y no como un proceso receptivo.

Revelación 2: no importa tanto lo que sabes, sino cómo aprendes.

En un mundo saturado de información, la habilidad más valiosa no es memorizar datos, sino aprender de forma autónoma. Las metodologías activas se centran en el desarrollo del «aprendizaje autodirigido», cultivando las habilidades metacognitivas que nos serán útiles a lo largo de toda la vida.

Esto significa ser conscientes de nuestro propio proceso de aprendizaje: evaluar la dificultad de un problema, comprender si hemos entendido un texto, saber cuándo debemos buscar estrategias alternativas y medir nuestro progreso. Esta autonomía es crucial en un panorama laboral cambiante que exige un aprendizaje continuo, por lo que se convierte en una capacidad mucho más relevante que cualquier dato memorizado.

Se trata de promover habilidades que permitan al estudiante valorar la dificultad de los problemas, detectar si ha comprendido un texto, saber cuándo debe utilizar estrategias alternativas para comprender la documentación y evaluar su progreso en la adquisición de conocimientos.

Revelación 3: el aprendizaje se enciende con problemas reales, no con teoría abstracta.

¿Por qué aprendemos? La respuesta más potente es para resolver problemas. Esta revelación sostiene que la enseñanza debe producirse en el contexto de los desafíos del mundo real o de la práctica profesional. Al enfrentar situaciones complejas y significativas, el aprendizaje adquiere un propósito claro y tangible.

Esta contextualización no solo aumenta la motivación, sino que también facilita la transición de la universidad al mundo laboral. Cuando el conocimiento se ancla en la realidad, deja de ser un ejercicio abstracto para convertirse en una herramienta poderosa y fundamental para el futuro profesional.

Revelación 4: el profesor no es un orador, sino un arquitecto de experiencias.

El modelo tradicional nos dio al «sabio en el escenario» (sage on the stage). La metodología activa nos ofrece la figura del «guía a tu lado» (guide on the side) o, más precisamente, la de un «arquitecto de experiencias de aprendizaje». Su papel ya no consiste en transmitir información, sino en diseñar escenarios que despierten la curiosidad.

En estos escenarios, el profesor asigna un papel profesional a los estudiantes («ustedes son un equipo de ingenieros…») y plantea un problema. A menudo, utiliza un «objeto de información» —una noticia de periódico, una imagen intrigante, un poema— que actúa como catalizador. Este objeto no da pistas, sino que crea una «necesidad de aprendizaje», un motor que impulsa a los estudiantes a buscar el conocimiento necesario para cumplir su misión.

Revelación 5: el equipo no es un grupo de amigos, sino una estructura de responsabilidades.

El trabajo en grupo es un pilar fundamental de este enfoque, que se estructura según los principios del «aprendizaje cooperativo» para recrear entornos profesionales y garantizar la participación de todos. La complejidad de los problemas del mundo real a menudo es tal que los miembros del grupo necesitan repartirse las tareas para avanzar.

Hay dos conceptos clave. El primero es la interdependencia positiva: la tarea está diseñada de modo que todos los miembros del grupo sean necesarios para alcanzar el éxito. El segundo es la exigibilidad individual: cada estudiante es responsable de su parte del trabajo y de comprender la labor del resto del equipo. No se trata solo de una tarea académica, sino de un entrenamiento directo para el mundo laboral, donde la colaboración y la responsabilidad compartida son la norma.

Conclusión: una invitación a repensar el aprendizaje.

Estas revelaciones nos obligan a redefinir el concepto de éxito educativo. Ya no se trata de cuánta información se ha transmitido, sino de qué capacidades se han desarrollado. Suponen un cambio de paradigma fundamental: el foco deja de estar en lo que enseña el docente para ponerse en lo que el estudiante es capaz de hacer con lo que aprende.

Este enfoque fomenta una comprensión más profunda, una mayor motivación y habilidades de colaboración y resolución de problemas, tan demandadas en el mundo actual. Supone dejar de ser receptores pasivos para convertirnos en constructores activos de nuestro propio conocimiento.

Si pudieras aplicar solo una de estas ideas a tu forma de aprender o de enseñar, ¿cuál elegirías y por qué?

Aquí te dejo una conversación que ilustra bien lo expuesto.

Y si quieres un resumen, puedes ver este vídeo.

Referencias:

Brunning, R. H., Schraw, G. J., & Ronning, R. R. (1995). Cognitive psychology and instruction (2ª ed.). Englewood Cliffs, NJ: Prentice Hall.

Duch, B. J., Groh, S. E., & Allen, D. E. (2001). The power of problem-based learning. Sterling, VA: Stylus.

Glaser, R. (1991). The maturing of the relationship between the science of learning and cognition and educational practice. Learning and Instruction, 1(2), 129–144.

Johnson, D. W., Johnson, R. T., & Smith, K. A. (2000). Active learning: Cooperation in the college classroom. Edina, MN: Interaction Book.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

3 secretos sorprendentes detrás de las encuestas que rellenas cada día.

Introducción: La ciencia oculta de las encuestas.

Todos hemos pasado por ello: cuestionarios interminables, preguntas que parecen sacadas de un manual de psicología y, sobre todo, esa sensación de responder a la misma pregunta una y otra vez. Es una experiencia tan común como, a menudo, frustrante. ¿Por qué algunas preguntas parecen extrañas o repetitivas? ¿Realmente merece la pena todo este esfuerzo?

La respuesta es un rotundo sí. Detrás de cada cuestionario bien diseñado se esconde la rigurosa ciencia de la psicometría, el campo dedicado al arte de la medición precisa. Conceptos como la fiabilidad y la validez son los pilares de cualquier instrumento de medición serio, ya sea una encuesta de satisfacción del cliente o un test de personalidad.

Este artículo desvela algunos de los secretos más sorprendentes y fascinantes sobre cómo se construyen estas escalas de medida. Descubrirás por qué la repetición puede ser una virtud, por qué la perfección a veces es sospechosa y por qué es posible equivocarse de manera confiable.

Primer secreto: la fiabilidad no es la validez (y se puede estar fiablemente equivocado).

En el mundo de la medición, la fiabilidad y la validez son dos conceptos cruciales que a menudo se confunden. Sin embargo, comprender su diferencia es fundamental para entender por qué algunas encuestas funcionan y otras no.

  • La fiabilidad se refiere a la precisión o consistencia de una medida. Un instrumento fiable produce resultados muy similares cada vez que se utiliza en las mismas condiciones.
  • La validez es la exactitud de la medida. Un instrumento válido mide exactamente lo que se pretende medir. La validez va más allá de la simple exactitud, ya que se asegura de que las conclusiones que extraemos de los resultados de la encuesta estén justificadas y sean significativas.

La mejor manera de entenderlo es mediante la analogía de un tirador que apunta a una diana.

  • Fiabilidad sin validez: imagina a un tirador. Escuchas el sonido seco y repetitivo de los disparos impactando en la madera, agrupados en un área no mayor que una moneda, pero peligrosamente cerca del borde de la diana. El patrón es muy consistente (alta fiabilidad), pero erróneo de forma sistemática, ya que no alcanza el blanco (baja validez). Esto representa un error sistemático que se debe a un defecto fundamental en el diseño del cuestionario, como preguntas mal redactadas o una escala de respuesta poco clara.
  • Validez con baja fiabilidad: ahora imagina a un tirador cuyos disparos están dispersos por toda la diana, pero cuya media se sitúa justo en el centro. No hay precisión en cada tiro (baja fiabilidad), pero, en conjunto, apuntan en la dirección correcta (alta validez). Esto representa errores aleatorios que pueden deberse a factores incontrolables, como distracciones, ruido ambiental o incluso al estado de ánimo temporal del encuestado.
Validez y fiabilidad (Morales, 2008)

La conclusión clave es que la validez es más importante que la fiabilidad. Como subrayan los expertos en la materia: «Un instrumento puede ser muy fiable (medir muy bien), pero no medir bien lo que se quería medir». De nada sirve medir algo con una precisión milimétrica si no es lo que realmente nos interesa.

Segundo secreto: ¿por qué las encuestas a veces parecen repetitivas?

Una de las quejas más comunes sobre los cuestionarios es que incluyen preguntas que parecen decir lo mismo de distintas maneras. Lejos de ser un descuido, el uso de lo que los expertos denominan «ítems repetitivos» —expresar la misma idea de diversas formas— es una técnica deliberada y muy útil para garantizar la calidad de los datos. Esta «forma bidireccional de redactar los ítems» tiene dos ventajas principales:

  • Requiere mayor atención del sujeto: al presentar la misma idea con formulaciones distintas (a veces en positivo y otras en negativo), se evita que la persona responda de forma automática o sin pensar y se le obliga a procesar el significado de cada pregunta.
  • Permite comprobar la coherencia de las respuestas: sirve como control de calidad para detectar y mitigar dos de los sesgos más frecuentes al responder encuestas: la aquiescencia y el sesgo de confirmación.
    • Aquiescencia: tendencia a estar de acuerdo con todas las afirmaciones. Imagina a alguien que responde con prisas, marcando «Totalmente de acuerdo» a todo («Sí, el servicio fue excelente», «Sí, el producto es terrible»), con el único fin de terminar cuanto antes.
    • Deseabilidad social: tendencia a responder para proyectar una buena imagen. Este sesgo lo muestra la persona que, al ser preguntada por sus hábitos de reciclaje, se presenta como un ecologista modelo, aunque el contenido de su cubo de basura cuente una historia muy diferente.

Por lo tanto, la próxima vez que te encuentres con preguntas que te resulten familiares en un mismo cuestionario, recuerda que no se trata de un error. Se trata de una herramienta diseñada para garantizar que tus respuestas sean más atentas, coherentes y, en última instancia, sinceras.

Tercer secreto: una fiabilidad «perfecta» puede ser una señal de alarma.

Intuitivamente, podríamos pensar que el objetivo de cualquier escala de medida es lograr la mayor fiabilidad posible. Sin embargo, en psicometría, una fiabilidad extremadamente alta puede ser una señal de alarma que indica un problema subyacente.

El coeficiente de fiabilidad más utilizado, el alfa de Cronbach, presenta una particularidad: su valor tiende a aumentar al añadir más ítems a la escala. Esto crea la tentación de inflar artificialmente la fiabilidad simplemente alargando el cuestionario. Como advierte la literatura especializada: «No se debe buscar una alta fiabilidad aumentando sin más el número de ítems, sin pensar si realmente son válidos».

Un ejemplo hipotético ilustra perfectamente este peligro. Imaginemos que aplicamos un test a un grupo mixto compuesto por niñas de 10 años que hacen ballet y niños de 14 años que juegan al fútbol. Les preguntamos por su edad, su sexo y el deporte que practican. La fiabilidad estadística se dispara porque las preguntas son perfectamente consistentes al separar a los dos grupos. Si se pregunta sobre ballet, todas las niñas responden de una manera y todos los niños de otra. Si se pregunta por el fútbol, ocurre lo mismo. El algoritmo estadístico detecta esta consistencia impecable y reporta una fiabilidad altísima, sin comprender que el «rasgo» subyacente que se está midiendo es simplemente una mezcla de datos demográficos, no una característica psicológica coherente. A pesar de esa elevada fiabilidad, en realidad no estaríamos midiendo «nada interpretable».

Este ejemplo nos deja una lección fundamental que el texto fuente resume de manera brillante:

«En ningún caso la estadística sustituye al sentido común y al análisis lógico de nuestras acciones».

Conclusión: la próxima vez que rellenes una encuesta…

Desde el dilema fundamental entre mediciones consistentes, pero erróneas (fiabilidad frente a validez), pasando por el uso deliberado de la repetición para burlar nuestros propios sesgos, hasta la idea contraintuitiva de que una puntuación «perfecta» puede indicar un resultado sin sentido, queda claro que elaborar una buena encuesta es un trabajo científico.

La próxima vez que te enfrentes a un cuestionario, en lugar de frustrarte por sus preguntas, ¿te detendrás a pensar qué rasgo intentan medir y si realmente lo están logrando?

En este audio os dejo una conversación sobre estas ideas.

Os dejo un vídeo que resume el contenido de este artículo.

Referencias:

Campbell, D. T., & Fiske, D. W. (1959). Convergent and discriminant validation by the multitrait–multimethod matrix. Psychological Bulletin, 56(2), 81–105. https://doi.org/10.1037/h0046016

Dunn, T. J., Baguley, T., & Brunsden, V. (2014). From alpha to omega: A practical solution to the pervasive problem of internal consistency estimation. British Journal of Psychology, 105, 399–412. https://doi.org/10.1111/bjop.12046

Farrell, A. M. (2010). Insufficient discriminant validity: A comment on Bove, Pervan, Beatty and Shiu (2009). Journal of Business Research, 63, 324–327. https://ssrn.com/abstract=3466257

Fornell, C., & Larcker, D. F. (1981). Evaluating structural equation models with unobservable variables and measurement error. Journal of Marketing Research, 18(1), 39–50. https://doi.org/10.1177/002224378101800104

Frías-Navarro, D. (2019). Apuntes de consistencia interna de las puntuaciones de un instrumento de medida. Universidad de Valencia. https://www.uv.es/friasnav/AlfaCronbach.pdf

Grande, I., & Abascal, E. (2009). Fundamentos y técnicas de investigación comercial. Madrid: ESIC.

Hernández, B. (2001). Técnicas estadísticas de investigación social. Madrid: Díaz de Santos.

Hair, J. F., Anderson, R. E., Tatham, R. L., & Black, W. C. (1995). Multivariate data analysis (Eds.). New York: Prentice Hall International, Inc.

Kotler, P., & Armstrong, G. (2001). Marketing. México: Pearson Prentice Hall.

Matas, A. (2018). Diseño del formato de escalas tipo Likert: un estado de la cuestión. Revista Electrónica de Investigación Educativa, 20(1), 38–47. http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1607-40412018000100038

Morales, P. (2006). Medición de actitudes en psicología y educación. Madrid: Universidad Pontificia de Comillas.

Morales, P. (2008). Estadística aplicada a las ciencias sociales. Madrid: Universidad Pontificia Comillas.

Nadler, J., Weston, R., & Voyles, E. (2015). Stuck in the middle: The use and interpretation of mid-points in items on questionnaires. The Journal of General Psychology, 142(2), 71–89. https://doi.org/10.1080/00221309.2014.994590

Nunnally, J. C. (1978). Psychometric theory. New York: McGraw-Hill.

Schmitt, N. (1996). Uses and abuses of coefficient alpha. Psychological Assessment, 8(4), 350–353. http://ist-socrates.berkeley.edu/~maccoun/PP279_Schmitt.pdf

Prats, P. (2005). Métodos para medir la satisfacción del cliente. Madrid: AENOR Ediciones.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Reconocimiento especial por la divulgación científica de la DANA de 2024

Figura 1. De izquierda a derecha: Julián Alcalá, José Capilla (rector de la UPV), Víctor Yepes y Eugenio Pellicer

Quisiera expresar mi más sincero agradecimiento a la Universitat Politècnica de València (UPV) por el reconocimiento especial recibido por

«el firme compromiso con la divulgación científica y la exquisita atención a los medios de comunicación en la cobertura periodística vinculada a la DANA que asoló la provincia de Valencia en octubre de 2024».

Este reconocimiento ha sido otorgado a varios profesores de la UPV que, desde el primer momento, han intentado aportar explicaciones rigurosas y fundamentadas desde los ámbitos técnico y científico sobre este trágico fenómeno meteorológico. En la Figura 1 se pueden ver a los profesores Julián Alcalá, Víctor Yepes y Eugenio Pellicer, junto con el rector de la Universitat Politècnica de València, José Capilla. En la imagen aparecemos quienes hemos centrado nuestra labor divulgativa en los aspectos relacionados con las infraestructuras, como los puentes, las vías de comunicación, los procesos de reconstrucción y la resiliencia estructural ante eventos extremos.

Otros compañeros del Instituto de Ingeniería del Agua y Medio Ambiente (IIAMA), como Félix FrancésFrancisco VallésManuel PulidoMiguel Ángel Eguibar y Juan Marco, también han contribuido de forma ejemplar desde la perspectiva de los fenómenos hidrológico e hidráulico, aportando información valiosa para entender las causas y consecuencias de la DANA.

De izquierda a derecha: Francisco Vallés, Manuel Pulido, Juan Marco, José Capilla (rector de la UPV), Miguel Ángel Eguibar y Félix Francés.

En el ámbito del urbanismo y la ordenación del territorio, fueron reconocidos los profesores Sergio Palencia y María Jesús Romero. Y otros tantos de otras áreas de conocimiento de nuestra universidad. Tampoco quisiera olvidarme de algunos profesores, ya jubilados de la UPV y que no estuvieron en el acto de ayer, que también han contribuido a la divulgación científica de la DANA, como Federico Bonet y Vicent Esteban Chapapría.

De izquierda a derecha: Sergio Palencia, José Capilla (rector de la UPV) y María Jesús Romero.

En mi caso, recibo con gratitud este reconocimiento, pero considero que es una obligación profesional y ética ofrecer a la opinión pública explicaciones claras, basadas en la ciencia y la ingeniería, sobre un tema tan complejo y delicado. La divulgación técnica rigurosa es esencial para construir una sociedad más informada, capaz de afrontar los desafíos que nos plantea el cambio climático y sus efectos sobre nuestras infraestructuras.

Por tanto, mi agradecimiento es doble: a la institución, por valorar este trabajo, y a todos los compañeros que comparten la convicción de que la ciencia debe estar al servicio de la sociedad, especialmente en los momentos más difíciles.

Algunas de las intervenciones en prensa del mismo día del primer aniversario de la DANA las podéis ver en este enlace: https://victoryepes.blogs.upv.es/2025/10/29/primer-aniversario-de-la-dana-de-valencia-anatomia-de-un-desastre/

 

5 lecciones sorprendentes de ingeniería avanzada para construir puentes más sostenibles y económicos

Cuando pensamos en la construcción de grandes infraestructuras, como los puentes, a menudo nos viene a la mente una imagen de fuerza bruta: toneladas de hormigón y acero ensambladas con una precisión monumental. Se trata de una proeza de la ingeniería física, un testimonio de la capacidad humana para dominar los materiales y la geografía.

Sin embargo, detrás de esta fachada de poderío industrial se está produciendo una revolución silenciosa. La inteligencia artificial y los modelos computacionales avanzados, que pueden ejecutar el equivalente a décadas de diseño y pruebas de ingeniería en cuestión de horas, están redefiniendo las reglas del juego. Lejos de ser un mero ejercicio teórico, estas herramientas permiten a los ingenieros diseñar puentes que son no solo más resistentes, sino también sorprendentemente más económicos y respetuosos con el medio ambiente.

Las lecciones que siguen se basan en los hallazgos de una tesis doctoral, defendida por la profesora Lorena Yepes Bellver, innovadora en la optimización de puentes. La tesis obtuvo la máxima calificación de sobresaliente «cum laude». Las lecciones demuestran que el futuro de la construcción no radica únicamente en nuevos materiales milagrosos, sino en la aplicación de una inteligencia que permita aprovechar los ya existentes de forma mucho más eficiente.

De izquierda a derecha: Julián Alcalá, Salvador Ivorra, Lorena Yepes, Tatiana García y Antonio Tomás.

1. El pequeño coste de un gran impacto ecológico: pagar un 1 % más para emitir un 2 % menos de CO₂.

Uno de los principales obstáculos para la adopción de prácticas sostenibles ha sido siempre la creencia de que «ser verde» es significativamente más caro. Sin embargo, la investigación en optimización de puentes revela una realidad mucho más alentadora. Gracias a los diseños perfeccionados mediante metamodelos, es posible lograr reducciones significativas de la huella de carbono con un impacto económico mínimo.

El dato clave del estudio es contundente: «Un modesto aumento de los costes de construcción (menos del 1 %) puede reducir sustancialmente las emisiones de CO₂ (más del 2 %)». Este hallazgo demuestra que la sostenibilidad no tiene por qué ser un lujo, sino el resultado de una ingeniería más inteligente.

 

«Esto demuestra que el diseño de puentes sostenibles puede ser económicamente viable».

Esta lección es fundamental, ya que pone fin a una falsa dicotomía entre la economía y la ecología. Demuestra que no es necesario elegir entre un puente asequible y otro respetuoso con el medio ambiente. Gracias a las decisiones de diseño inteligentes, guiadas por la optimización avanzada, es posible alcanzar ambos objetivos simultáneamente, de modo que la sostenibilidad se convierte en una ventaja competitiva y no en una carga.

2. La paradoja de los materiales: añadir más componentes para reducir el consumo global.

La lógica convencional nos diría que, para construir de forma más sostenible, el objetivo debería ser reducir la cantidad total de materiales utilizados. Menos hormigón, menos acero, menos de todo. Sin embargo, uno de los hallazgos más sorprendentes de la tesis es una paradoja que desafía esta idea tan simple.

El diseño óptimo y más sostenible aumenta, de hecho, la cantidad de uno de sus componentes: la armadura pasiva (el acero de refuerzo convencional). A primera vista, esto parece contradictorio: ¿cómo puede ser más ecológico añadir más material?

La explicación se debe a un enfoque sistémico. Este aumento estratégico y calculado del refuerzo pasivo permite reducir considerablemente el consumo de otros dos materiales clave: el hormigón y la armadura activa (el acero de pretensado). La producción de estos materiales, especialmente la del cemento y del acero de alta resistencia, es intensiva en energía y, por tanto, genera numerosas emisiones de CO₂. En esencia, se sacrifica una pequeña cantidad de un material de menor impacto para ahorrar una cantidad mucho mayor de materiales de alto impacto.

Este enfoque, que podría describirse como «sacrificar una pieza para ganar el juego», es un ejemplo perfecto de cómo la optimización avanzada supera las reglas simplistas de reducción. En lugar de aplicar un recorte general, se analiza el sistema en su conjunto y se determina el equilibrio más eficiente. Este equilibrio inteligente de materiales solo es posible si se afina otro factor clave: la geometría de la estructura.

Retos en la optimización de puentes con metamodelos

3. Más esbelto es mejor: el secreto de la «delgadez» estructural para la sostenibilidad.

En el ámbito de la ingeniería de puentes, el concepto de «esbeltez» es fundamental. En términos sencillos, se refiere a la relación entre el canto de la losa y la luz que debe cubrir. Una mayor esbeltez implica un diseño estructural, en palabras comunes, más «delgado» o «fino».

La investigación revela un hallazgo crucial: los diseños que son óptimos tanto en términos de emisiones de CO₂ como de energía incorporada se logran con relaciones de esbeltez altas, concretamente de entre 1/30 y 1/28. En otras palabras, los puentes más sostenibles son también los más delgados y se complementan con hormigones óptimos situados entre 35 y 40 MPa de resistencia característica.

¿Por qué es esto tan beneficioso? Un diseño más esbelto requiere, inherentemente, una menor cantidad de materiales, principalmente de hormigón. Lo realmente notable es cómo se consigue. Los métodos tradicionales suelen basarse en reglas generales y márgenes de seguridad amplios, mientras que la optimización computacional permite a los ingenieros explorar miles, e incluso millones, de variaciones para acercarse al límite físico de la eficiencia sin sacrificar la seguridad. El resultado es una elegancia estructural casi contraintuitiva: puentes que alcanzan su fuerza no a través de la masa bruta, sino mediante una delgadez inteligentemente calculada, donde la sostenibilidad es una consecuencia natural de la eficiencia.

4. La optimización inteligente genera ahorros reales: una reducción de costes de hasta un 6,5 %.

Más allá de los beneficios medioambientales, la aplicación de estas técnicas de optimización tiene un impacto económico directo y medible. El diseño de infraestructuras deja de ser un arte basado únicamente en la experiencia para convertirse en una ciencia precisa que busca la máxima eficiencia económica.

El resultado principal del estudio sobre la optimización de costes es claro: el uso de modelos sustitutos (metamodelos Kriging) guiados por algoritmos heurísticos, como el recocido simulado, logró una reducción de costes del 6,54 % en comparación con un diseño de referencia.

Estos ahorros no son teóricos, sino que provienen directamente de la reducción de materiales. En concreto, se consiguió una disminución del 14,8 % en el uso de hormigón y del 11,25 % en el acero activo (pretensado). Es crucial destacar que estas reducciones se consiguieron sin afectar a la integridad estructural ni a la capacidad de servicio del puente. No se trata de sacrificar la calidad por el precio, sino de diseñar de manera más inteligente. Esta metodología convierte la optimización del diseño en una tarea académica en una herramienta práctica y altamente eficaz para la gestión económica de grandes proyectos de ingeniería civil.

5. No todos los cerebros artificiales piensan igual; la clave está en elegir el modelo computacional adecuado.

Una de las lecciones más importantes de esta investigación es que no basta con aplicar «inteligencia artificial» de forma genérica. El éxito de la optimización depende de elegir la herramienta computacional adecuada para cada tarea específica.

La tesis comparó dos potentes metamodelos: las redes neuronales artificiales (RNA) y los modelos de Kriging. Se descubrió una diferencia crucial en su rendimiento: si bien las RNA ofrecían predicciones absolutas más precisas sobre el comportamiento de un diseño concreto, el modelo de Kriging demostró ser mucho más eficaz para identificar los «óptimos locales», es decir, las zonas del mapa de diseño donde se encontraban las mejores soluciones.

Esto revela una capa más profunda de la optimización inteligente. Un modelo puede ser excelente para predecir un resultado (RNA), mientras que otro es más eficaz para guiar la búsqueda del mejor resultado posible (Kriging). No se trata solo de utilizar IA, sino de comprender qué «tipo de pensamiento» artificial es el más adecuado para cada fase del problema: predecir frente a optimizar. La verdadera maestría de la ingeniería moderna consiste en saber elegir las herramientas adecuadas para cada fase del problema.

Conclusión: la nueva frontera del diseño de infraestructuras.

La construcción de nuestras infraestructuras entra en una nueva era. La combinación de la ingeniería estructural clásica con el poder de los modelos computacionales avanzados, como el metamodelado Kriging y las redes neuronales artificiales, está abriendo una nueva frontera en la que la eficiencia y la sostenibilidad no son objetivos opcionales, sino resultados intrínsecos de un buen diseño.

Como hemos visto, los grandes avances no siempre provienen de materiales revolucionarios. A menudo, los «secretos» mejor guardados residen en la optimización inteligente de los diseños y materiales que ya conocemos. Obtener un mayor beneficio ecológico pagando menos, utilizar estratégicamente más de un material para reducir el consumo global o diseñar estructuras más esbeltas y elegantes son lecciones que van más allá de la construcción de puentes.

Nos dejan con una pregunta final que invita a la reflexión: si podemos lograr esto con los puentes, ¿qué otras áreas de la construcción y la industria están esperando a ser reinventadas por el poder de la optimización inteligente?

Os dejo un audio en el que se discuten las ideas de la tesis doctoral. Espero que os guste.

Y en este vídeo, tenemos resumidas las ideas principales de esta tesis.

Referencias:

YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Predictive modeling for carbon footprint optimization of prestressed road flyovers. Applied Sciences15(17), 9591. DOI:10.3390/app15179591

VILLALBA, P.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2025). A Hybrid Fuzzy DEMATEL–DANP–TOPSIS Framework for Life Cycle-Based Sustainable Retrofit Decision-Making in Seismic RC Structures. Mathematics, 13(16), 2649. DOI:10.3390/math13162649

ZHOU, Z.; WANG, Y.J.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Intelligent monitoring of loess landslides and research on multi-factor coupling damage. Geomechanics for Energy and the Environment, 42:100692. DOI:10.1016/j.gete.2025.100692

ZHOU, Z.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Study on the failure mechanism of deep foundation pit of high-rise building: comprehensive test and microstructure coupling. Buildings, 15(8), 1270. DOI:10.3390/buildings15081270

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

BLIGHT, T.; MARTÍNEZ-PAGÁN, P.; ROSCHIER, L.; BOULET, D.; YEPES-BELLVER, L.; YEPES, V. (2025). Innovative approach of nomography application into an engineering educational context. Plos One, 20(2): e0315426. DOI:10.1371/journal.pone.0315426

NAVARRO, I.J.; VILLALBA, I.; YEPES-BELLVER, L.; ALCALÁ, J. Social Life Cycle Assessment of Railway Track Substructure AlternativesJ. Clean. Prod. 2024450, 142008.

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2024). Artificial neural network and Kriging surrogate model for embodied energy optimization of prestressed slab bridges. Sustainability, 16(19), 8450. DOI:10.3390/su16198450

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2023). Embodied energy optimization of prestressed concrete road flyovers by a two-phase Kriging surrogate model. Materials16(20); 6767. DOI:10.3390/ma16206767

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2022). CO₂-optimization of post-tensioned concrete slab-bridge decks using surrogate modeling. Materials, 15(14):4776. DOI:10.3390/ma15144776

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.;

José Torán Peláez, un visionario de las grandes presas españolas

José Torán Peláez (1916 – 1981). https://www.iagua.es/blogs/eduardo-echeverria/2016-ano-jose-toran

Nació el 10 de agosto de 1916 en Teruel, hijo de José Torán de la Riva (1916-1981) y Consuelo Peláez, pertenecientes a una familia turolense vinculada a la política, la ingeniería y los negocios. Provenía de una estirpe de ingenieros y empresarios: su bisabuelo, José Torán Herreras (1828-1899), y su abuelo, José Torán Garzarán (1853-1902), habían sentado el precedente familiar. En 1924, la familia se trasladó a Madrid, donde José y su hermano Carlos ingresaron en el Instituto-Escuela de la Junta para Ampliación de Estudios, institución que combinaba la formación científica, humanística y artística. Allí se sembró en José Torán un gusto especial por la pulcritud y la estética que marcaría su vida profesional. En 1933 concluyó el bachillerato e inició la preparación para ingresar en la Escuela de Ingenieros de Caminos en la academia de Augusto Krahe. Consiguió la admisión en junio de 1936, justo al inicio de la Guerra Civil.

Durante el conflicto, fue destinado a un campo de trabajo y participó en la construcción del llamado «ferrocarril de los cien días», un proyecto del Gobierno republicano para comunicar Madrid con Valencia. En esta etapa se comenzó la práctica profesional del cuerpo de Ingenieros de Caminos del Ejército republicano. Tras la guerra, entre octubre de 1939 y 1943, completó su formación en la Escuela de Ingenieros de Caminos, con profesores de la talla de José María Aguirre, José Entrecanales, Clemente Sáenz y José María Torroja. De todos ellos, guardó un afecto especial por Clemente Sáenz, a quien dedicó un artículo in memoriam en la Revista de Obras Públicas. Su hermano, Juan Jesús, también cursó Ingeniería de Caminos y llegó a ser ingeniero jefe en la Dirección General de Obras Hidráulicas.

El 22 de julio de 1943, Torán ingresó como ingeniero tercero en el Cuerpo de Ingenieros de Caminos, Canales y Puertos, destinado a los Servicios Hidráulicos del Sur de España. Aunque cesó en agosto de 1947 para dedicarse al ejercicio libre de la profesión, continuó ascendiendo hasta alcanzar el rango de ingeniero primero en 1956 y volvió a ingresar en el cuerpo en 1975.

En 1944, se incorporó a la Empresa Madrileña de Tranvías, gestionada por Augusto Krahe y Ángel Balbás, donde diseñó y construyó el «viaducto Torán», que conectaba Moncloa con la Ciudad Universitaria. Ese mismo año, asistió en Lisboa al Congreso de la Unión Iberoamericana de Urbanismo, donde se reencontró con José Ortega y Gasset, a quien trajo de regreso a España en su coche en 1945. Posteriormente, comenzó a trabajar en Estudios y Ejecución de Obras, S. L., donde gestionó la conclusión de la presa de El Vado (río Jarama), interrumpida durante la guerra, y resolvió problemas de materiales y costes mediante destajos por administración.

Embalse de El Vado. https://es.wikipedia.org/wiki/Embalse_de_El_Vado

En 1946, promovió la creación de su propia empresa, Construcciones Civiles, S. A. (COVILES), con el lema «Grandes presas, grandes obras», e incorporó los contratos y el patrimonio de su anterior empresa. Ese mismo año, inició el recrecimiento de El Vado y entró en contacto con el ingeniero Juan de Arespacochaga, con quien entabló una sólida amistad. En 1950 se casó con Amparo Junquera y tuvieron siete hijos: Leonor, Lucas, Lilia, Lope, Loyola, León y Loreto. Así continuaba la tradición familiar de ingenieros.

En 1955, obtuvo el contrato para construir la base naval de Rota en asociación con Corbetta Construction Company. En esta obra concibió los rompeolas de tetrápodos de hormigón, empleados posteriormente en puertos de todo el mundo. Sin embargo, su salida de Coviles se produjo en 1958 debido a diferencias en la gestión económica. Ese mismo año participó activamente en congresos internacionales de presas y energía, representando a España en la ICOLD y promoviendo la publicación de ponencias sobre recrecimientos de presas existentes.

En 1960, fundó Torán y Compañía, Ingeniería y Fomento, dedicada a la consultoría hidráulica y de grandes obras, un concepto aún incipiente en España. La empresa se integró en Tecniberia. Apoyó como mecenas a literatos, como Jaime Valle-Inclán, Rafael Sánchez Ferlosio, Carmen Martín Gaite, Luis Delgado Benavente y estrecha su amistad con Juan Benet. Torán mantuvo una activa presencia internacional: asistió a congresos en Roma (1961), Moscú (1962) y Estados Unidos, lo que impulsó la proyección española en el ámbito de la hidráulica y los riegos.

Entre 1966 y 1981, presidió el Comité Español de Grandes Presas y fue vicepresidente (1965-1968) y presidente (1970-1973) del Comité Internacional. Bajo su liderazgo, se promovieron normas de diseño y gestión de presas, entre las que destaca la Orden de 31 de marzo de 1967, por la que se aprobó la Instrucción para el proyecto, la construcción y la explotación de grandes presas. Entre sus proyectos internacionales, destaca la regulación de la cuenca del Tigris en Irak (1966-1969), que incluyó el recrecimiento de la presa de Razzaza para crear un embalse de 31 000 hectómetros cúbicos. También fue invitado por el gobierno chino para realizar estudios de planificación hidrológica en 1973 y 1979.

En los años setenta, su oficina de Madrid, ubicada en la calle Pedro de Valdivia, llegó a tener hasta siete sedes, con presencia en Canarias y filiales internacionales. Torán promovió el intercambio cultural y científico y apoyó a escritores y artistas en sus proyectos. Además, en 1979 fundó los foros de debate «Aulas Libres» en el Colegio de Ingenieros de Caminos. A lo largo de su vida, combinó la rigurosidad de la ingeniería con la sensibilidad artística y humanista y siempre proyectó la técnica como un medio para mejorar la sociedad.

Tras el fallecimiento de su esposa, Amparo, en 1976, continuó con su actividad profesional y cultural hasta su fallecimiento el 14 de diciembre de 1981 en Madrid, mientras trabajaba en proyectos para China. Diez años después, se le rindió homenaje denominando el embalse de José Torán en Sevilla en su honor, perpetuando el legado de un ingeniero cuya vida fue una apasionante combinación de ciencia, arte y compromiso internacional.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.;

Prohibieron la IA en sus clases de ingeniería. Ahora es su mejor herramienta para enseñar a pensar.

Introducción: El dilema de la IA en las aulas.

En los pasillos de la educación superior, un debate resuena con fuerza: ¿qué hacemos con la inteligencia artificial generativa (IAG)? Para muchos, herramientas como ChatGPT suponen una amenaza directa para el pensamiento crítico, ya que facilitan el plagio y fomentan la superficialidad académica. El temor es comprensible y está muy extendido.

Sin embargo, ¿y si el problema no fuera la herramienta, sino nuestra forma de reaccionar ante ella? El proyecto PROFUNDIA (acrónimo de PROFUNDo y autonomÍA) surge de esta cuestión, pero con un enfoque inesperado. Esta iniciativa de innovación educativa en ingeniería estructural no surgió de una prohibición teórica, sino de un problema práctico y urgente: el uso no regulado de la IA por parte de los estudiantes estaba deteriorando la calidad de su aprendizaje.

En lugar de intensificar la prohibición, este proyecto propone una solución radicalmente diferente. Este artículo explora los cuatro descubrimientos clave de un enfoque que busca transformar la IA de una amenaza en una de las herramientas pedagógicas más potentes.

Los 4 descubrimientos clave del proyecto PROFUNDIA

1. La cruda realidad es que el uso no supervisado de la IA estaba deteriorando el aprendizaje.

El proyecto PROFUNDIA no se basó en una hipótesis abstracta, sino que surgió de una necesidad urgente detectada en las aulas a partir del curso 2023-2024. El profesorado comenzó a observar un patrón preocupante en los trabajos de los estudiantes.

Las estadísticas internas confirmaron la sospecha: las encuestas revelaron que más del 60 % del alumnado ya utilizaba la IA para hacer sus trabajos. Sin embargo, el dato más alarmante era otro: solo el 25 % de ellos revisaba críticamente los resultados que la herramienta generaba.

La consecuencia fue una «notable disminución de la calidad técnica y argumentativa» de los proyectos. El problema era específico y grave: aunque la herramienta ofrecía soluciones funcionales, no podía verificar las hipótesis iniciales ni razonar la adecuación del modelo al contexto técnico. Los estudiantes dependían de la IA de forma acrítica, entregando trabajos con «errores conceptuales importantes» y debilitando su capacidad de razonamiento. Esto demostró que mirar hacia otro lado no era una opción, sino que era necesaria una intervención educativa guiada.

2. El cambio de paradigma: de la prohibición a la integración crítica.

Hasta entonces, la política en las asignaturas implicadas era clara: el uso de la IA «estaba explícitamente prohibido». Sin embargo, la realidad demostró que esta medida era ineficaz y contraproducente.

En lugar de librar una batalla perdida contra una tecnología omnipresente, el proyecto PROFUNDIA optó por un cambio de 180 grados: integrarla de forma «explícita, guiada y crítica». La nueva filosofía consistía en enseñar a los estudiantes a utilizar la herramienta de manera inteligente en lugar de ignorarla.

La esencia de este nuevo paradigma se resume en su declaración de intenciones:

Frente a enfoques que restringen o penalizan el uso de la IA, PROFUNDIA propone su integración crítica y formativa como herramienta cognitiva para potenciar el aprendizaje profundo, la interpretación técnica, la argumentación fundamentada y el desarrollo de la autonomía del estudiante.

3. El método: aprender a pensar «enseñando» a la IA.

La propuesta metodológica supone un cambio estructural en el aprendizaje, ya que se pasa de un proceso lineal (profesor-estudiante) a otro triangular (profesor-estudiante-IA). En primer lugar, los estudiantes resuelven un problema por sus propios medios. Después, piden a la IA que resuelva el mismo problema. La fase clave llega a continuación: deben comparar críticamente su solución con la de la IA.

En este punto radica la innovación más profunda del método. La IA se incorpora «como un agente más en el proceso, con un papel activo y con un sesgo deliberado hacia el error». El papel del estudiante cambia radicalmente: deja de ser un usuario pasivo para convertirse en entrenador activo de la IA. Su tarea ya no consiste en obtener una respuesta, sino en identificar, cuestionar y corregir los errores de la herramienta, lo que les lleva a «enseñar» a la IA a resolver problemas complejos y, en el proceso, a dominar el tema a un nivel mucho más profundo.

El objetivo final de este proceso es la «reflexión metacognitiva». Se pretende que el estudiante «reflexione sobre cómo piensa y aprende» al contrastar su razonamiento con el de la IA, sus compañeros y el profesor.

4. La meta final: la IA como una «mindtool» para crear mejores ingenieros.

Este enfoque no es solo una técnica ingeniosa, sino que se fundamenta en un concepto pedagógico sólido: el de las mindtools o «herramientas para la mente». Esta idea defiende el uso de la tecnología no como un sustituto del esfuerzo intelectual, sino como un andamio para potenciar el pensamiento crítico y la construcción activa del conocimiento, es decir, tratar la tecnología no como una muleta, sino como un gimnasio para la mente.

Este planteamiento conecta directamente con las demandas del mercado laboral actual. Como señalan estudios previos (Pellicer et al., 2017), las empresas no solo buscan egresados con conocimientos técnicos, sino también con habilidades transversales como la resolución de problemas, la autonomía y el juicio crítico.

Por tanto, los resultados de aprendizaje que se persiguen son extremadamente precisos y potentes. El objetivo es formar ingenieros que puedan:

  1. Formular problemas técnicos complejos con la precisión necesaria para que la IAG pueda analizarlos.
  2. Evaluar y validar críticamente las soluciones generadas por la IAG, justificando sus decisiones.
  3. Gestionar de forma autónoma el uso de la IAG dentro de estrategias complejas de resolución de problemas.

En definitiva, se les prepara para un entorno profesional «complejo, colaborativo y en constante evolución».

Conclusión: ¿Y si dejamos de temer a la tecnología y empezamos a usarla para pensar mejor?

El proyecto PROFUNDIA demuestra que es posible cambiar la perspectiva sobre la IA en la educación. Transforma lo que muchos consideran una amenaza para el aprendizaje en una oportunidad única para fomentar un pensamiento más profundo, crítico y autónomo.

Su reflexión trasciende las aulas de ingeniería. ¿Qué otras tecnologías emergentes podríamos empezar a integrar en nuestras profesiones, no como un atajo, sino como un catalizador para desarrollar un pensamiento más crítico y sofisticado?

Os dejo un audio en el que dos personas hablan y discuten sobre este tema.

También os dejo un vídeo que resume muy bien el contenido del proyecto.

Referencias:

Blight, T., Martínez-Pagán, P., Roschier, L., Boulet, D., Yepes-Bellver, L., & Yepes, V. (2025). Innovative approach of nomography application into an engineering educational context. PloS one, 20(2), e0315426.

Castro-Aristizabal, G., Acosta-Ortega, F., & Moreno-Charris, A. V. (2024). Los entornos de aprendizaje y el éxito escolar en Latinoamérica. Lecturas de Economía, (101), 7-46.

Hadgraft, R. G., & Kolmos, A. (2020). Emerging learning environments in engineering education. Australasian Journal of Engineering Education, 25(1), 3-16.

Jiang, N., Zhou, W., Hasanzadeh, S., & Duffy Ph D, V. G. (2025). Application of Generative AI in Civil Engineering Education: A Systematic Review of Current Research and Future Directions. In CIB Conferences (Vol. 1, No. 1, p. 306).

Jonassen, D. H., Peck, K. L., & Wilson, B. G. (1999). Learning with technology: A constructivist perspective. Columbus, OH: Merrill/Prentice-Hall.

Liao, W., Lu, X., Fei, Y., Gu, Y., & Huang, Y. (2024). Generative AI design for building structures. Automation in Construction157, 105187.

Navarro, I. J., Marti, J. V., & Yepes, V. (2023). Evaluation of Higher Education Students’ Critical Thinking Skills on Sustainability. International Journal of Engineering Education, 39(3), 592-603.

Onatayo, D., Onososen, A., Oyediran, A. O., Oyediran, H., Arowoiya, V., & Onatayo, E. (2024). Generative AI applications in architecture, engineering, and construction: Trends, implications for practice, education & imperatives for upskilling—a review. Architecture4(4), 877-902.

Pellicer, E., Yepes, V., Ortega, A. J., & Carrión, A. (2017). Market demands on construction management: View from graduate students. Journal of Professional Issues in Engineering Education and Practice143(4), 04017005.

Perkins, D., & Unger, C. (1999). La enseñanza para la comprensión. Argentina: Paidós.

Torres-Machí, C., Carrión, A., Yepes, V., & Pellicer, E. (2013). Employability of graduate students in construction management. Journal of Professional Issues in Engineering Education and Practice139(2), 163-170.

Xu, G., & Guo, T. (2025). Advances in AI-powered civil engineering throughout the entire lifecycle. Advances in Structural Engineering, 13694332241307721.

Zhou, Z., Tian, Q., Alcalá, J., & Yepes, V. (2025). Research on the coupling of talent cultivation and reform practice of higher education in architecture. Computers and Education Open, 100268.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.