5 revelaciones sobre el aprendizaje que la educación tradicional ignora.

¿Te has preguntado alguna vez por qué se olvida la información justo después de un examen? No se trata de un fallo personal, sino del resultado previsible de un modelo educativo anticuado que suele priorizar la memorización a corto plazo sobre la comprensión profunda. De hecho, la investigación ha demostrado que los estudiantes retienen muy poco de lo que se les enseña en una clase magistral tradicional.

Frente a este desafío, surge el «aprendizaje activo» como una alternativa poderosa. Su enfoque no se centra en lo que enseña el profesor, sino en lo que el estudiante construye. En lugar de ser receptores pasivos, los estudiantes se convierten en protagonistas de su propio proceso de aprendizaje.

A continuación, revelaremos cinco aspectos fundamentales de este enfoque que están redefiniendo el éxito educativo y transformando tu manera de entender el aprendizaje.

Revelación 1: tu cerebro no es un disco duro; es una red en construcción.

El modelo tradicional considera la mente como un recipiente vacío o un disco duro que hay que llenar de datos. La revelación es que la mente no es un almacén, sino un telar. Cada nueva idea es un hilo que solo tiene valor cuando se entreteje con los demás.

La psicología cognitiva nos enseña que el conocimiento se organiza en «redes semánticas». Para que una nueva información sea útil y duradera, debe conectarse con la red existente en nuestra mente. Sin esa conexión, se trata de un dato aislado, fácil de olvidar e inútil para resolver problemas. Aprender no es acumular, sino construir significado.

La enseñanza basada en metodologías activas se centra en el estudiante y en su formación en competencias propias de la disciplina. Estas estrategias conciben el aprendizaje como un proceso constructivo y no como un proceso receptivo.

Revelación 2: no importa tanto lo que sabes, sino cómo aprendes.

En un mundo saturado de información, la habilidad más valiosa no es memorizar datos, sino aprender de forma autónoma. Las metodologías activas se centran en el desarrollo del «aprendizaje autodirigido», cultivando las habilidades metacognitivas que nos serán útiles a lo largo de toda la vida.

Esto significa ser conscientes de nuestro propio proceso de aprendizaje: evaluar la dificultad de un problema, comprender si hemos entendido un texto, saber cuándo debemos buscar estrategias alternativas y medir nuestro progreso. Esta autonomía es crucial en un panorama laboral cambiante que exige un aprendizaje continuo, por lo que se convierte en una capacidad mucho más relevante que cualquier dato memorizado.

Se trata de promover habilidades que permitan al estudiante valorar la dificultad de los problemas, detectar si ha comprendido un texto, saber cuándo debe utilizar estrategias alternativas para comprender la documentación y evaluar su progreso en la adquisición de conocimientos.

Revelación 3: el aprendizaje se enciende con problemas reales, no con teoría abstracta.

¿Por qué aprendemos? La respuesta más potente es para resolver problemas. Esta revelación sostiene que la enseñanza debe producirse en el contexto de los desafíos del mundo real o de la práctica profesional. Al enfrentar situaciones complejas y significativas, el aprendizaje adquiere un propósito claro y tangible.

Esta contextualización no solo aumenta la motivación, sino que también facilita la transición de la universidad al mundo laboral. Cuando el conocimiento se ancla en la realidad, deja de ser un ejercicio abstracto para convertirse en una herramienta poderosa y fundamental para el futuro profesional.

Revelación 4: el profesor no es un orador, sino un arquitecto de experiencias.

El modelo tradicional nos dio al «sabio en el escenario» (sage on the stage). La metodología activa nos ofrece la figura del «guía a tu lado» (guide on the side) o, más precisamente, la de un «arquitecto de experiencias de aprendizaje». Su papel ya no consiste en transmitir información, sino en diseñar escenarios que despierten la curiosidad.

En estos escenarios, el profesor asigna un papel profesional a los estudiantes («ustedes son un equipo de ingenieros…») y plantea un problema. A menudo, utiliza un «objeto de información» —una noticia de periódico, una imagen intrigante, un poema— que actúa como catalizador. Este objeto no da pistas, sino que crea una «necesidad de aprendizaje», un motor que impulsa a los estudiantes a buscar el conocimiento necesario para cumplir su misión.

Revelación 5: el equipo no es un grupo de amigos, sino una estructura de responsabilidades.

El trabajo en grupo es un pilar fundamental de este enfoque, que se estructura según los principios del «aprendizaje cooperativo» para recrear entornos profesionales y garantizar la participación de todos. La complejidad de los problemas del mundo real a menudo es tal que los miembros del grupo necesitan repartirse las tareas para avanzar.

Hay dos conceptos clave. El primero es la interdependencia positiva: la tarea está diseñada de modo que todos los miembros del grupo sean necesarios para alcanzar el éxito. El segundo es la exigibilidad individual: cada estudiante es responsable de su parte del trabajo y de comprender la labor del resto del equipo. No se trata solo de una tarea académica, sino de un entrenamiento directo para el mundo laboral, donde la colaboración y la responsabilidad compartida son la norma.

Conclusión: una invitación a repensar el aprendizaje.

Estas revelaciones nos obligan a redefinir el concepto de éxito educativo. Ya no se trata de cuánta información se ha transmitido, sino de qué capacidades se han desarrollado. Suponen un cambio de paradigma fundamental: el foco deja de estar en lo que enseña el docente para ponerse en lo que el estudiante es capaz de hacer con lo que aprende.

Este enfoque fomenta una comprensión más profunda, una mayor motivación y habilidades de colaboración y resolución de problemas, tan demandadas en el mundo actual. Supone dejar de ser receptores pasivos para convertirnos en constructores activos de nuestro propio conocimiento.

Si pudieras aplicar solo una de estas ideas a tu forma de aprender o de enseñar, ¿cuál elegirías y por qué?

Aquí te dejo una conversación que ilustra bien lo expuesto.

Y si quieres un resumen, puedes ver este vídeo.

Referencias:

Brunning, R. H., Schraw, G. J., & Ronning, R. R. (1995). Cognitive psychology and instruction (2ª ed.). Englewood Cliffs, NJ: Prentice Hall.

Duch, B. J., Groh, S. E., & Allen, D. E. (2001). The power of problem-based learning. Sterling, VA: Stylus.

Glaser, R. (1991). The maturing of the relationship between the science of learning and cognition and educational practice. Learning and Instruction, 1(2), 129–144.

Johnson, D. W., Johnson, R. T., & Smith, K. A. (2000). Active learning: Cooperation in the college classroom. Edina, MN: Interaction Book.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

3 secretos sorprendentes detrás de las encuestas que rellenas cada día.

Introducción: La ciencia oculta de las encuestas.

Todos hemos pasado por ello: cuestionarios interminables, preguntas que parecen sacadas de un manual de psicología y, sobre todo, esa sensación de responder a la misma pregunta una y otra vez. Es una experiencia tan común como, a menudo, frustrante. ¿Por qué algunas preguntas parecen extrañas o repetitivas? ¿Realmente merece la pena todo este esfuerzo?

La respuesta es un rotundo sí. Detrás de cada cuestionario bien diseñado se esconde la rigurosa ciencia de la psicometría, el campo dedicado al arte de la medición precisa. Conceptos como la fiabilidad y la validez son los pilares de cualquier instrumento de medición serio, ya sea una encuesta de satisfacción del cliente o un test de personalidad.

Este artículo desvela algunos de los secretos más sorprendentes y fascinantes sobre cómo se construyen estas escalas de medida. Descubrirás por qué la repetición puede ser una virtud, por qué la perfección a veces es sospechosa y por qué es posible equivocarse de manera confiable.

Primer secreto: la fiabilidad no es la validez (y se puede estar fiablemente equivocado).

En el mundo de la medición, la fiabilidad y la validez son dos conceptos cruciales que a menudo se confunden. Sin embargo, comprender su diferencia es fundamental para entender por qué algunas encuestas funcionan y otras no.

  • La fiabilidad se refiere a la precisión o consistencia de una medida. Un instrumento fiable produce resultados muy similares cada vez que se utiliza en las mismas condiciones.
  • La validez es la exactitud de la medida. Un instrumento válido mide exactamente lo que se pretende medir. La validez va más allá de la simple exactitud, ya que se asegura de que las conclusiones que extraemos de los resultados de la encuesta estén justificadas y sean significativas.

La mejor manera de entenderlo es mediante la analogía de un tirador que apunta a una diana.

  • Fiabilidad sin validez: imagina a un tirador. Escuchas el sonido seco y repetitivo de los disparos impactando en la madera, agrupados en un área no mayor que una moneda, pero peligrosamente cerca del borde de la diana. El patrón es muy consistente (alta fiabilidad), pero erróneo de forma sistemática, ya que no alcanza el blanco (baja validez). Esto representa un error sistemático que se debe a un defecto fundamental en el diseño del cuestionario, como preguntas mal redactadas o una escala de respuesta poco clara.
  • Validez con baja fiabilidad: ahora imagina a un tirador cuyos disparos están dispersos por toda la diana, pero cuya media se sitúa justo en el centro. No hay precisión en cada tiro (baja fiabilidad), pero, en conjunto, apuntan en la dirección correcta (alta validez). Esto representa errores aleatorios que pueden deberse a factores incontrolables, como distracciones, ruido ambiental o incluso al estado de ánimo temporal del encuestado.
Validez y fiabilidad (Morales, 2008)

La conclusión clave es que la validez es más importante que la fiabilidad. Como subrayan los expertos en la materia: «Un instrumento puede ser muy fiable (medir muy bien), pero no medir bien lo que se quería medir». De nada sirve medir algo con una precisión milimétrica si no es lo que realmente nos interesa.

Segundo secreto: ¿por qué las encuestas a veces parecen repetitivas?

Una de las quejas más comunes sobre los cuestionarios es que incluyen preguntas que parecen decir lo mismo de distintas maneras. Lejos de ser un descuido, el uso de lo que los expertos denominan «ítems repetitivos» —expresar la misma idea de diversas formas— es una técnica deliberada y muy útil para garantizar la calidad de los datos. Esta «forma bidireccional de redactar los ítems» tiene dos ventajas principales:

  • Requiere mayor atención del sujeto: al presentar la misma idea con formulaciones distintas (a veces en positivo y otras en negativo), se evita que la persona responda de forma automática o sin pensar y se le obliga a procesar el significado de cada pregunta.
  • Permite comprobar la coherencia de las respuestas: sirve como control de calidad para detectar y mitigar dos de los sesgos más frecuentes al responder encuestas: la aquiescencia y el sesgo de confirmación.
    • Aquiescencia: tendencia a estar de acuerdo con todas las afirmaciones. Imagina a alguien que responde con prisas, marcando «Totalmente de acuerdo» a todo («Sí, el servicio fue excelente», «Sí, el producto es terrible»), con el único fin de terminar cuanto antes.
    • Deseabilidad social: tendencia a responder para proyectar una buena imagen. Este sesgo lo muestra la persona que, al ser preguntada por sus hábitos de reciclaje, se presenta como un ecologista modelo, aunque el contenido de su cubo de basura cuente una historia muy diferente.

Por lo tanto, la próxima vez que te encuentres con preguntas que te resulten familiares en un mismo cuestionario, recuerda que no se trata de un error. Se trata de una herramienta diseñada para garantizar que tus respuestas sean más atentas, coherentes y, en última instancia, sinceras.

Tercer secreto: una fiabilidad «perfecta» puede ser una señal de alarma.

Intuitivamente, podríamos pensar que el objetivo de cualquier escala de medida es lograr la mayor fiabilidad posible. Sin embargo, en psicometría, una fiabilidad extremadamente alta puede ser una señal de alarma que indica un problema subyacente.

El coeficiente de fiabilidad más utilizado, el alfa de Cronbach, presenta una particularidad: su valor tiende a aumentar al añadir más ítems a la escala. Esto crea la tentación de inflar artificialmente la fiabilidad simplemente alargando el cuestionario. Como advierte la literatura especializada: «No se debe buscar una alta fiabilidad aumentando sin más el número de ítems, sin pensar si realmente son válidos».

Un ejemplo hipotético ilustra perfectamente este peligro. Imaginemos que aplicamos un test a un grupo mixto compuesto por niñas de 10 años que hacen ballet y niños de 14 años que juegan al fútbol. Les preguntamos por su edad, su sexo y el deporte que practican. La fiabilidad estadística se dispara porque las preguntas son perfectamente consistentes al separar a los dos grupos. Si se pregunta sobre ballet, todas las niñas responden de una manera y todos los niños de otra. Si se pregunta por el fútbol, ocurre lo mismo. El algoritmo estadístico detecta esta consistencia impecable y reporta una fiabilidad altísima, sin comprender que el «rasgo» subyacente que se está midiendo es simplemente una mezcla de datos demográficos, no una característica psicológica coherente. A pesar de esa elevada fiabilidad, en realidad no estaríamos midiendo «nada interpretable».

Este ejemplo nos deja una lección fundamental que el texto fuente resume de manera brillante:

«En ningún caso la estadística sustituye al sentido común y al análisis lógico de nuestras acciones».

Conclusión: la próxima vez que rellenes una encuesta…

Desde el dilema fundamental entre mediciones consistentes, pero erróneas (fiabilidad frente a validez), pasando por el uso deliberado de la repetición para burlar nuestros propios sesgos, hasta la idea contraintuitiva de que una puntuación «perfecta» puede indicar un resultado sin sentido, queda claro que elaborar una buena encuesta es un trabajo científico.

La próxima vez que te enfrentes a un cuestionario, en lugar de frustrarte por sus preguntas, ¿te detendrás a pensar qué rasgo intentan medir y si realmente lo están logrando?

En este audio os dejo una conversación sobre estas ideas.

Os dejo un vídeo que resume el contenido de este artículo.

Referencias:

Campbell, D. T., & Fiske, D. W. (1959). Convergent and discriminant validation by the multitrait–multimethod matrix. Psychological Bulletin, 56(2), 81–105. https://doi.org/10.1037/h0046016

Dunn, T. J., Baguley, T., & Brunsden, V. (2014). From alpha to omega: A practical solution to the pervasive problem of internal consistency estimation. British Journal of Psychology, 105, 399–412. https://doi.org/10.1111/bjop.12046

Farrell, A. M. (2010). Insufficient discriminant validity: A comment on Bove, Pervan, Beatty and Shiu (2009). Journal of Business Research, 63, 324–327. https://ssrn.com/abstract=3466257

Fornell, C., & Larcker, D. F. (1981). Evaluating structural equation models with unobservable variables and measurement error. Journal of Marketing Research, 18(1), 39–50. https://doi.org/10.1177/002224378101800104

Frías-Navarro, D. (2019). Apuntes de consistencia interna de las puntuaciones de un instrumento de medida. Universidad de Valencia. https://www.uv.es/friasnav/AlfaCronbach.pdf

Grande, I., & Abascal, E. (2009). Fundamentos y técnicas de investigación comercial. Madrid: ESIC.

Hernández, B. (2001). Técnicas estadísticas de investigación social. Madrid: Díaz de Santos.

Hair, J. F., Anderson, R. E., Tatham, R. L., & Black, W. C. (1995). Multivariate data analysis (Eds.). New York: Prentice Hall International, Inc.

Kotler, P., & Armstrong, G. (2001). Marketing. México: Pearson Prentice Hall.

Matas, A. (2018). Diseño del formato de escalas tipo Likert: un estado de la cuestión. Revista Electrónica de Investigación Educativa, 20(1), 38–47. http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1607-40412018000100038

Morales, P. (2006). Medición de actitudes en psicología y educación. Madrid: Universidad Pontificia de Comillas.

Morales, P. (2008). Estadística aplicada a las ciencias sociales. Madrid: Universidad Pontificia Comillas.

Nadler, J., Weston, R., & Voyles, E. (2015). Stuck in the middle: The use and interpretation of mid-points in items on questionnaires. The Journal of General Psychology, 142(2), 71–89. https://doi.org/10.1080/00221309.2014.994590

Nunnally, J. C. (1978). Psychometric theory. New York: McGraw-Hill.

Schmitt, N. (1996). Uses and abuses of coefficient alpha. Psychological Assessment, 8(4), 350–353. http://ist-socrates.berkeley.edu/~maccoun/PP279_Schmitt.pdf

Prats, P. (2005). Métodos para medir la satisfacción del cliente. Madrid: AENOR Ediciones.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Reconocimiento especial por la divulgación científica de la DANA de 2024

Figura 1. De izquierda a derecha: Julián Alcalá, José Capilla (rector de la UPV), Víctor Yepes y Eugenio Pellicer

Quisiera expresar mi más sincero agradecimiento a la Universitat Politècnica de València (UPV) por el reconocimiento especial recibido por

«el firme compromiso con la divulgación científica y la exquisita atención a los medios de comunicación en la cobertura periodística vinculada a la DANA que asoló la provincia de Valencia en octubre de 2024».

Este reconocimiento ha sido otorgado a varios profesores de la UPV que, desde el primer momento, han intentado aportar explicaciones rigurosas y fundamentadas desde los ámbitos técnico y científico sobre este trágico fenómeno meteorológico. En la Figura 1 se pueden ver a los profesores Julián Alcalá, Víctor Yepes y Eugenio Pellicer, junto con el rector de la Universitat Politècnica de València, José Capilla. En la imagen aparecemos quienes hemos centrado nuestra labor divulgativa en los aspectos relacionados con las infraestructuras, como los puentes, las vías de comunicación, los procesos de reconstrucción y la resiliencia estructural ante eventos extremos.

Otros compañeros del Instituto de Ingeniería del Agua y Medio Ambiente (IIAMA), como Félix FrancésFrancisco VallésManuel PulidoMiguel Ángel Eguibar y Juan Marco, también han contribuido de forma ejemplar desde la perspectiva de los fenómenos hidrológico e hidráulico, aportando información valiosa para entender las causas y consecuencias de la DANA.

De izquierda a derecha: Francisco Vallés, Manuel Pulido, Juan Marco, José Capilla (rector de la UPV), Miguel Ángel Eguibar y Félix Francés.

En el ámbito del urbanismo y la ordenación del territorio, fueron reconocidos los profesores Sergio Palencia y María Jesús Romero. Y otros tantos de otras áreas de conocimiento de nuestra universidad. Tampoco quisiera olvidarme de algunos profesores, ya jubilados de la UPV y que no estuvieron en el acto de ayer, que también han contribuido a la divulgación científica de la DANA, como Federico Bonet y Vicent Esteban Chapapría.

De izquierda a derecha: Sergio Palencia, José Capilla (rector de la UPV) y María Jesús Romero.

En mi caso, recibo con gratitud este reconocimiento, pero considero que es una obligación profesional y ética ofrecer a la opinión pública explicaciones claras, basadas en la ciencia y la ingeniería, sobre un tema tan complejo y delicado. La divulgación técnica rigurosa es esencial para construir una sociedad más informada, capaz de afrontar los desafíos que nos plantea el cambio climático y sus efectos sobre nuestras infraestructuras.

Por tanto, mi agradecimiento es doble: a la institución, por valorar este trabajo, y a todos los compañeros que comparten la convicción de que la ciencia debe estar al servicio de la sociedad, especialmente en los momentos más difíciles.

Algunas de las intervenciones en prensa del mismo día del primer aniversario de la DANA las podéis ver en este enlace: https://victoryepes.blogs.upv.es/2025/10/29/primer-aniversario-de-la-dana-de-valencia-anatomia-de-un-desastre/

 

5 lecciones sorprendentes de ingeniería avanzada para construir puentes más sostenibles y económicos

Cuando pensamos en la construcción de grandes infraestructuras, como los puentes, a menudo nos viene a la mente una imagen de fuerza bruta: toneladas de hormigón y acero ensambladas con una precisión monumental. Se trata de una proeza de la ingeniería física, un testimonio de la capacidad humana para dominar los materiales y la geografía.

Sin embargo, detrás de esta fachada de poderío industrial se está produciendo una revolución silenciosa. La inteligencia artificial y los modelos computacionales avanzados, que pueden ejecutar el equivalente a décadas de diseño y pruebas de ingeniería en cuestión de horas, están redefiniendo las reglas del juego. Lejos de ser un mero ejercicio teórico, estas herramientas permiten a los ingenieros diseñar puentes que son no solo más resistentes, sino también sorprendentemente más económicos y respetuosos con el medio ambiente.

Las lecciones que siguen se basan en los hallazgos de una tesis doctoral, defendida por la profesora Lorena Yepes Bellver, innovadora en la optimización de puentes. La tesis obtuvo la máxima calificación de sobresaliente «cum laude». Las lecciones demuestran que el futuro de la construcción no radica únicamente en nuevos materiales milagrosos, sino en la aplicación de una inteligencia que permita aprovechar los ya existentes de forma mucho más eficiente.

De izquierda a derecha: Julián Alcalá, Salvador Ivorra, Lorena Yepes, Tatiana García y Antonio Tomás.

1. El pequeño coste de un gran impacto ecológico: pagar un 1 % más para emitir un 2 % menos de CO₂.

Uno de los principales obstáculos para la adopción de prácticas sostenibles ha sido siempre la creencia de que «ser verde» es significativamente más caro. Sin embargo, la investigación en optimización de puentes revela una realidad mucho más alentadora. Gracias a los diseños perfeccionados mediante metamodelos, es posible lograr reducciones significativas de la huella de carbono con un impacto económico mínimo.

El dato clave del estudio es contundente: «Un modesto aumento de los costes de construcción (menos del 1 %) puede reducir sustancialmente las emisiones de CO₂ (más del 2 %)». Este hallazgo demuestra que la sostenibilidad no tiene por qué ser un lujo, sino el resultado de una ingeniería más inteligente.

 

«Esto demuestra que el diseño de puentes sostenibles puede ser económicamente viable».

Esta lección es fundamental, ya que pone fin a una falsa dicotomía entre la economía y la ecología. Demuestra que no es necesario elegir entre un puente asequible y otro respetuoso con el medio ambiente. Gracias a las decisiones de diseño inteligentes, guiadas por la optimización avanzada, es posible alcanzar ambos objetivos simultáneamente, de modo que la sostenibilidad se convierte en una ventaja competitiva y no en una carga.

2. La paradoja de los materiales: añadir más componentes para reducir el consumo global.

La lógica convencional nos diría que, para construir de forma más sostenible, el objetivo debería ser reducir la cantidad total de materiales utilizados. Menos hormigón, menos acero, menos de todo. Sin embargo, uno de los hallazgos más sorprendentes de la tesis es una paradoja que desafía esta idea tan simple.

El diseño óptimo y más sostenible aumenta, de hecho, la cantidad de uno de sus componentes: la armadura pasiva (el acero de refuerzo convencional). A primera vista, esto parece contradictorio: ¿cómo puede ser más ecológico añadir más material?

La explicación se debe a un enfoque sistémico. Este aumento estratégico y calculado del refuerzo pasivo permite reducir considerablemente el consumo de otros dos materiales clave: el hormigón y la armadura activa (el acero de pretensado). La producción de estos materiales, especialmente la del cemento y del acero de alta resistencia, es intensiva en energía y, por tanto, genera numerosas emisiones de CO₂. En esencia, se sacrifica una pequeña cantidad de un material de menor impacto para ahorrar una cantidad mucho mayor de materiales de alto impacto.

Este enfoque, que podría describirse como «sacrificar una pieza para ganar el juego», es un ejemplo perfecto de cómo la optimización avanzada supera las reglas simplistas de reducción. En lugar de aplicar un recorte general, se analiza el sistema en su conjunto y se determina el equilibrio más eficiente. Este equilibrio inteligente de materiales solo es posible si se afina otro factor clave: la geometría de la estructura.

Retos en la optimización de puentes con metamodelos

3. Más esbelto es mejor: el secreto de la «delgadez» estructural para la sostenibilidad.

En el ámbito de la ingeniería de puentes, el concepto de «esbeltez» es fundamental. En términos sencillos, se refiere a la relación entre el canto de la losa y la luz que debe cubrir. Una mayor esbeltez implica un diseño estructural, en palabras comunes, más «delgado» o «fino».

La investigación revela un hallazgo crucial: los diseños que son óptimos tanto en términos de emisiones de CO₂ como de energía incorporada se logran con relaciones de esbeltez altas, concretamente de entre 1/30 y 1/28. En otras palabras, los puentes más sostenibles son también los más delgados y se complementan con hormigones óptimos situados entre 35 y 40 MPa de resistencia característica.

¿Por qué es esto tan beneficioso? Un diseño más esbelto requiere, inherentemente, una menor cantidad de materiales, principalmente de hormigón. Lo realmente notable es cómo se consigue. Los métodos tradicionales suelen basarse en reglas generales y márgenes de seguridad amplios, mientras que la optimización computacional permite a los ingenieros explorar miles, e incluso millones, de variaciones para acercarse al límite físico de la eficiencia sin sacrificar la seguridad. El resultado es una elegancia estructural casi contraintuitiva: puentes que alcanzan su fuerza no a través de la masa bruta, sino mediante una delgadez inteligentemente calculada, donde la sostenibilidad es una consecuencia natural de la eficiencia.

4. La optimización inteligente genera ahorros reales: una reducción de costes de hasta un 6,5 %.

Más allá de los beneficios medioambientales, la aplicación de estas técnicas de optimización tiene un impacto económico directo y medible. El diseño de infraestructuras deja de ser un arte basado únicamente en la experiencia para convertirse en una ciencia precisa que busca la máxima eficiencia económica.

El resultado principal del estudio sobre la optimización de costes es claro: el uso de modelos sustitutos (metamodelos Kriging) guiados por algoritmos heurísticos, como el recocido simulado, logró una reducción de costes del 6,54 % en comparación con un diseño de referencia.

Estos ahorros no son teóricos, sino que provienen directamente de la reducción de materiales. En concreto, se consiguió una disminución del 14,8 % en el uso de hormigón y del 11,25 % en el acero activo (pretensado). Es crucial destacar que estas reducciones se consiguieron sin afectar a la integridad estructural ni a la capacidad de servicio del puente. No se trata de sacrificar la calidad por el precio, sino de diseñar de manera más inteligente. Esta metodología convierte la optimización del diseño en una tarea académica en una herramienta práctica y altamente eficaz para la gestión económica de grandes proyectos de ingeniería civil.

5. No todos los cerebros artificiales piensan igual; la clave está en elegir el modelo computacional adecuado.

Una de las lecciones más importantes de esta investigación es que no basta con aplicar «inteligencia artificial» de forma genérica. El éxito de la optimización depende de elegir la herramienta computacional adecuada para cada tarea específica.

La tesis comparó dos potentes metamodelos: las redes neuronales artificiales (RNA) y los modelos de Kriging. Se descubrió una diferencia crucial en su rendimiento: si bien las RNA ofrecían predicciones absolutas más precisas sobre el comportamiento de un diseño concreto, el modelo de Kriging demostró ser mucho más eficaz para identificar los «óptimos locales», es decir, las zonas del mapa de diseño donde se encontraban las mejores soluciones.

Esto revela una capa más profunda de la optimización inteligente. Un modelo puede ser excelente para predecir un resultado (RNA), mientras que otro es más eficaz para guiar la búsqueda del mejor resultado posible (Kriging). No se trata solo de utilizar IA, sino de comprender qué «tipo de pensamiento» artificial es el más adecuado para cada fase del problema: predecir frente a optimizar. La verdadera maestría de la ingeniería moderna consiste en saber elegir las herramientas adecuadas para cada fase del problema.

Conclusión: la nueva frontera del diseño de infraestructuras.

La construcción de nuestras infraestructuras entra en una nueva era. La combinación de la ingeniería estructural clásica con el poder de los modelos computacionales avanzados, como el metamodelado Kriging y las redes neuronales artificiales, está abriendo una nueva frontera en la que la eficiencia y la sostenibilidad no son objetivos opcionales, sino resultados intrínsecos de un buen diseño.

Como hemos visto, los grandes avances no siempre provienen de materiales revolucionarios. A menudo, los «secretos» mejor guardados residen en la optimización inteligente de los diseños y materiales que ya conocemos. Obtener un mayor beneficio ecológico pagando menos, utilizar estratégicamente más de un material para reducir el consumo global o diseñar estructuras más esbeltas y elegantes son lecciones que van más allá de la construcción de puentes.

Nos dejan con una pregunta final que invita a la reflexión: si podemos lograr esto con los puentes, ¿qué otras áreas de la construcción y la industria están esperando a ser reinventadas por el poder de la optimización inteligente?

Os dejo un audio en el que se discuten las ideas de la tesis doctoral. Espero que os guste.

Y en este vídeo, tenemos resumidas las ideas principales de esta tesis.

Referencias:

YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Predictive modeling for carbon footprint optimization of prestressed road flyovers. Applied Sciences15(17), 9591. DOI:10.3390/app15179591

VILLALBA, P.; SÁNCHEZ-GARRIDO, A.; YEPES-BELLVER, L.; YEPES, V. (2025). A Hybrid Fuzzy DEMATEL–DANP–TOPSIS Framework for Life Cycle-Based Sustainable Retrofit Decision-Making in Seismic RC Structures. Mathematics, 13(16), 2649. DOI:10.3390/math13162649

ZHOU, Z.; WANG, Y.J.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Intelligent monitoring of loess landslides and research on multi-factor coupling damage. Geomechanics for Energy and the Environment, 42:100692. DOI:10.1016/j.gete.2025.100692

ZHOU, Z.; YEPES-BELLVER, L.; ALCALÁ, J.; YEPES, V. (2025). Study on the failure mechanism of deep foundation pit of high-rise building: comprehensive test and microstructure coupling. Buildings, 15(8), 1270. DOI:10.3390/buildings15081270

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2025). Surrogate-assisted cost optimization for post-tensioned concrete slab bridgesInfrastructures, 10(2): 43. DOI:10.3390/infrastructures10020043.

BLIGHT, T.; MARTÍNEZ-PAGÁN, P.; ROSCHIER, L.; BOULET, D.; YEPES-BELLVER, L.; YEPES, V. (2025). Innovative approach of nomography application into an engineering educational context. Plos One, 20(2): e0315426. DOI:10.1371/journal.pone.0315426

NAVARRO, I.J.; VILLALBA, I.; YEPES-BELLVER, L.; ALCALÁ, J. Social Life Cycle Assessment of Railway Track Substructure AlternativesJ. Clean. Prod. 2024450, 142008.

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2024). Artificial neural network and Kriging surrogate model for embodied energy optimization of prestressed slab bridges. Sustainability, 16(19), 8450. DOI:10.3390/su16198450

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2023). Embodied energy optimization of prestressed concrete road flyovers by a two-phase Kriging surrogate model. Materials16(20); 6767. DOI:10.3390/ma16206767

YEPES-BELLVER, L.; BRUN-IZQUIERDO, A.; ALCALÁ, J.; YEPES, V. (2022). CO₂-optimization of post-tensioned concrete slab-bridge decks using surrogate modeling. Materials, 15(14):4776. DOI:10.3390/ma15144776

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.;

José Torán Peláez, un visionario de las grandes presas españolas

José Torán Peláez (1916 – 1981). https://www.iagua.es/blogs/eduardo-echeverria/2016-ano-jose-toran

Nació el 10 de agosto de 1916 en Teruel, hijo de José Torán de la Riva (1916-1981) y Consuelo Peláez, pertenecientes a una familia turolense vinculada a la política, la ingeniería y los negocios. Provenía de una estirpe de ingenieros y empresarios: su bisabuelo, José Torán Herreras (1828-1899), y su abuelo, José Torán Garzarán (1853-1902), habían sentado el precedente familiar. En 1924, la familia se trasladó a Madrid, donde José y su hermano Carlos ingresaron en el Instituto-Escuela de la Junta para Ampliación de Estudios, institución que combinaba la formación científica, humanística y artística. Allí se sembró en José Torán un gusto especial por la pulcritud y la estética que marcaría su vida profesional. En 1933 concluyó el bachillerato e inició la preparación para ingresar en la Escuela de Ingenieros de Caminos en la academia de Augusto Krahe. Consiguió la admisión en junio de 1936, justo al inicio de la Guerra Civil.

Durante el conflicto, fue destinado a un campo de trabajo y participó en la construcción del llamado «ferrocarril de los cien días», un proyecto del Gobierno republicano para comunicar Madrid con Valencia. En esta etapa se comenzó la práctica profesional del cuerpo de Ingenieros de Caminos del Ejército republicano. Tras la guerra, entre octubre de 1939 y 1943, completó su formación en la Escuela de Ingenieros de Caminos, con profesores de la talla de José María Aguirre, José Entrecanales, Clemente Sáenz y José María Torroja. De todos ellos, guardó un afecto especial por Clemente Sáenz, a quien dedicó un artículo in memoriam en la Revista de Obras Públicas. Su hermano, Juan Jesús, también cursó Ingeniería de Caminos y llegó a ser ingeniero jefe en la Dirección General de Obras Hidráulicas.

El 22 de julio de 1943, Torán ingresó como ingeniero tercero en el Cuerpo de Ingenieros de Caminos, Canales y Puertos, destinado a los Servicios Hidráulicos del Sur de España. Aunque cesó en agosto de 1947 para dedicarse al ejercicio libre de la profesión, continuó ascendiendo hasta alcanzar el rango de ingeniero primero en 1956 y volvió a ingresar en el cuerpo en 1975.

En 1944, se incorporó a la Empresa Madrileña de Tranvías, gestionada por Augusto Krahe y Ángel Balbás, donde diseñó y construyó el «viaducto Torán», que conectaba Moncloa con la Ciudad Universitaria. Ese mismo año, asistió en Lisboa al Congreso de la Unión Iberoamericana de Urbanismo, donde se reencontró con José Ortega y Gasset, a quien trajo de regreso a España en su coche en 1945. Posteriormente, comenzó a trabajar en Estudios y Ejecución de Obras, S. L., donde gestionó la conclusión de la presa de El Vado (río Jarama), interrumpida durante la guerra, y resolvió problemas de materiales y costes mediante destajos por administración.

Embalse de El Vado. https://es.wikipedia.org/wiki/Embalse_de_El_Vado

En 1946, promovió la creación de su propia empresa, Construcciones Civiles, S. A. (COVILES), con el lema «Grandes presas, grandes obras», e incorporó los contratos y el patrimonio de su anterior empresa. Ese mismo año, inició el recrecimiento de El Vado y entró en contacto con el ingeniero Juan de Arespacochaga, con quien entabló una sólida amistad. En 1950 se casó con Amparo Junquera y tuvieron siete hijos: Leonor, Lucas, Lilia, Lope, Loyola, León y Loreto. Así continuaba la tradición familiar de ingenieros.

En 1955, obtuvo el contrato para construir la base naval de Rota en asociación con Corbetta Construction Company. En esta obra concibió los rompeolas de tetrápodos de hormigón, empleados posteriormente en puertos de todo el mundo. Sin embargo, su salida de Coviles se produjo en 1958 debido a diferencias en la gestión económica. Ese mismo año participó activamente en congresos internacionales de presas y energía, representando a España en la ICOLD y promoviendo la publicación de ponencias sobre recrecimientos de presas existentes.

En 1960, fundó Torán y Compañía, Ingeniería y Fomento, dedicada a la consultoría hidráulica y de grandes obras, un concepto aún incipiente en España. La empresa se integró en Tecniberia. Apoyó como mecenas a literatos, como Jaime Valle-Inclán, Rafael Sánchez Ferlosio, Carmen Martín Gaite, Luis Delgado Benavente y estrecha su amistad con Juan Benet. Torán mantuvo una activa presencia internacional: asistió a congresos en Roma (1961), Moscú (1962) y Estados Unidos, lo que impulsó la proyección española en el ámbito de la hidráulica y los riegos.

Entre 1966 y 1981, presidió el Comité Español de Grandes Presas y fue vicepresidente (1965-1968) y presidente (1970-1973) del Comité Internacional. Bajo su liderazgo, se promovieron normas de diseño y gestión de presas, entre las que destaca la Orden de 31 de marzo de 1967, por la que se aprobó la Instrucción para el proyecto, la construcción y la explotación de grandes presas. Entre sus proyectos internacionales, destaca la regulación de la cuenca del Tigris en Irak (1966-1969), que incluyó el recrecimiento de la presa de Razzaza para crear un embalse de 31 000 hectómetros cúbicos. También fue invitado por el gobierno chino para realizar estudios de planificación hidrológica en 1973 y 1979.

En los años setenta, su oficina de Madrid, ubicada en la calle Pedro de Valdivia, llegó a tener hasta siete sedes, con presencia en Canarias y filiales internacionales. Torán promovió el intercambio cultural y científico y apoyó a escritores y artistas en sus proyectos. Además, en 1979 fundó los foros de debate «Aulas Libres» en el Colegio de Ingenieros de Caminos. A lo largo de su vida, combinó la rigurosidad de la ingeniería con la sensibilidad artística y humanista y siempre proyectó la técnica como un medio para mejorar la sociedad.

Tras el fallecimiento de su esposa, Amparo, en 1976, continuó con su actividad profesional y cultural hasta su fallecimiento el 14 de diciembre de 1981 en Madrid, mientras trabajaba en proyectos para China. Diez años después, se le rindió homenaje denominando el embalse de José Torán en Sevilla en su honor, perpetuando el legado de un ingeniero cuya vida fue una apasionante combinación de ciencia, arte y compromiso internacional.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.;