Ideas sorprendentes que están redefiniendo la docencia universitaria

¿Por qué algunos estudiantes aprenden de verdad y otros solo memorizan para el examen?

Todos nos hemos hecho esta pregunta, ya sea como docentes o como estudiantes: ¿por qué el conocimiento que con tanto esfuerzo se imparte en las aulas universitarias parece evaporarse justo después del examen final? La respuesta no radica en estudiar más horas ni en cubrir más temario, sino en cómo diseñamos la experiencia de aprendizaje.

La investigación en educación superior ha revelado principios clave para una «buena docencia» que a menudo contradicen las prácticas más arraigadas. No se trata de opiniones, sino de conclusiones basadas en décadas de estudio sobre el aprendizaje humano. Este artículo resume cuatro de las ideas más impactantes y transformadoras extraídas de marcos de innovación como los Proyectos de Innovación y Mejora Educativa (PIME) de la Universitat Politècnica de València, que se basan en estas investigaciones para redefinir la calidad docente.

1. Diseñar el currículo «hacia atrás»: la revolución del diseño inverso.

Tradicionalmente, la planificación de una asignatura comienza con una pregunta: ¿qué temas vamos a abordar? Se elige un libro de texto, se secuencian los capítulos y se diseñan actividades para cada uno de ellos. Sin embargo, este enfoque tiene un problema fundamental: se centra en los inputs (lo que el profesor enseña) y no en los outputs (lo que el estudiante debe ser capaz de hacer).

El concepto de «diseño inverso» (Backward Design), propuesto por Wiggins y McTighe, le da la vuelta a esta lógica. La idea, radicalmente simple, pero poderosa, es que la planificación curricular debe empezar por el final, es decir, definiendo primero los resultados de aprendizaje deseados: ¿qué comprensiones profundas y qué competencias clave queremos que nuestros estudiantes adquieran con la asignatura? Una vez que tenemos esa meta clara, el segundo paso es determinar qué evidencias (evaluaciones) nos demostrarán que la han alcanzado. Solo entonces, como tercer y último paso, se diseñan las actividades de aprendizaje e instrucción.

Este enfoque garantiza un «alineamiento constructivo» (un concepto acuñado por John Biggs), en el que las actividades que realizan los estudiantes y los métodos de evaluación están lógicamente conectados con los objetivos de aprendizaje. No hay nada al azar: cada elemento del curso tiene un propósito claro.

«Nuestras lecciones, unidades y cursos deben inferirse lógicamente de los resultados que buscamos, no derivarse de los métodos, libros y actividades con los que nos sentimos más cómodos. El currículo debe exponer las formas más eficaces de lograr resultados específicos. En resumen, los mejores diseños parten de los aprendizajes buscados».

Este cambio de perspectiva obliga al docente a actuar como un arquitecto del aprendizaje, centrándose en la transferencia y la comprensión reales de los contenidos, en lugar de en la mera cobertura de estos. Así, la planificación de una clase deja de ser una simple lista de contenidos para convertirse en un acto intencionado de diseño orientado al éxito del estudiante. Con un diseño curricular que parte del fin, el docente ya no se pregunta «¿qué voy a enseñar hoy?», sino «¿qué experiencia debo diseñar para que mis estudiantes logren el objetivo?», lo que nos lleva a un cambio de paradigma fundamental en nuestra propia misión.

2. El gran cambio de paradigma: pasar de enseñar a provocar el aprendizaje.

Si el primer punto cambia la forma en que planificamos, el segundo redefine nuestra misión como docentes. En un influyente artículo de 1995, Barr y Tagg acuñaron la expresión “shift from teaching to learning” (el cambio de la enseñanza al aprendizaje) para describir un cambio de paradigma fundamental.

Este cambio propone que la misión del profesorado universitario no se limita a transmitir información, sino a diseñar experiencias y entornos que permitan a los estudiantes aprender por sí mismos. El foco se desplaza de la figura del profesor y de su discurso hacia la actividad del estudiante y su proceso de construcción del conocimiento. Ya no se trata de ser un «sabio en el estrado», sino de un «guía en el camino».

«Ahora vemos que nuestra misión no es instruir, sino provocar el aprendizaje de cada uno de los estudiantes mediante el método que mejor les funcione».

Esta idea tiene implicaciones profundas. Nos obliga a preguntarnos constantemente qué están haciendo los estudiantes para aprender. Este cambio nos libera de la presión de ser meros oradores para convertirnos en facilitadores eficaces del desarrollo de los demás. Si nuestra misión es provocar aprendizaje, la siguiente pregunta es inevitable: ¿aprendizaje de qué? No se trata de aprender a repetir, sino de aprender a pensar, actuar y ser, que es la verdadera esencia de la competencia.

3. La verdadera competencia consiste en pensar y actuar como un experto.

¿Qué significa ser un ingeniero, un médico o un historiador competente? La noción de «competencia» ha evolucionado significativamente y comprender esta evolución es crucial para diseñar un aprendizaje valioso. Podemos identificar tres niveles de concepción:

  • Nivel 1: competencia como conocimiento. En su versión más básica, se piensa que una persona competente es quien sabe «más», quien acumula más conocimientos académicos sobre un tema. El foco está en la reproducción de la información.
  • Nivel 2: competencia como aplicación. Un paso más allá, se considera que una persona competente es aquella que sabe aplicar el conocimiento teórico a problemas prácticos «reales». En este nivel, la transferencia del conocimiento se concibe como relativamente directa: primero se aprende la teoría y luego se aplica.
  • Nivel 3: competencia como gestión de la complejidad. Esta es la concepción más avanzada y la que se persigue en la educación superior de calidad. Una persona verdaderamente competente es aquella que sabe afrontar situaciones nuevas, confusas y complejas, razonando y actuando como lo haría un experto en su campo.

El verdadero desafío docente no consiste en la «transferencia» de conocimientos de un contexto a otro, sino en desarrollar las formas de pensar y actuar propias de una disciplina (ways of thinking and practising, un concepto clave de McCune y Hounsell (2005) y de Entwistle (2007). Se trata de enseñar a los estudiantes a pensar como un biólogo, a argumentar como un jurista o a diseñar como un arquitecto. Por tanto, nuestro objetivo no es que el estudiante sepa sobre nuestra disciplina, sino que se convierta en un incipiente practicante de ella.

4. El «student engagement»: la métrica definitiva del aprendizaje.

Si el aprendizaje requiere que los estudiantes desarrollen formas complejas de pensamiento, ¿cómo podemos fomentarlo? La respuesta se halla en un concepto que se ha convertido en el principal foco de atención de la investigación educativa: el engagement del estudiante.

La evidencia es abrumadora: según una influyente revisión de la literatura realizada por V. Trowler (2010) señala una «correlación robusta» entre el grado de implicación del estudiante en actividades académicas valiosas y resultados positivos, como el éxito, la satisfacción y la persistencia en los estudios. Da igual lo brillante que sea una lección magistral; si el estudiante no está mentalmente implicado, no se producirá un aprendizaje profundo. Como resumieron Chickering y Gamson en 1987:

«El aprendizaje no es un deporte de espectadores. Los estudiantes no aprenden demasiado: simplemente se sientan en clase a escuchar al profesorado, memorizan tareas prefabricadas y repiten respuestas. Deben hablar sobre lo que están aprendiendo, escribir sobre ello, relacionarlo con experiencias pasadas y aplicarlo a sus vidas cotidianas. Deben hacer de lo que aprenden parte de sí mismos».

Es importante distinguir entre el aprendizaje «activo» (en el que el estudiante simplemente «hace cosas») y el aprendizaje «constructivo», un concepto desarrollado por Chi (2009), en el que se le pide al estudiante que vaya «más allá» del material de partida. El aprendizaje meramente «activo» podría consistir en aplicar una fórmula a un problema tipo. En cambio, el aprendizaje «constructivo» exige una elaboración cognitiva superior, como confrontar críticamente dos teorías alternativas, diseñar un experimento para confirmar una hipótesis o formular nuevas preguntas sobre un fenómeno. Es en esta construcción donde se produce un aprendizaje profundo y la implicación del estudiante se convierte en verdaderamente productiva.

¿Diseñamos clases o diseñamos aprendizaje?

Estas cuatro ideas no son consejos aislados, sino los engranajes de un mismo motor pedagógico. El diseño inverso (idea 1) nos proporciona el mapa. El cambio de paradigma hacia el aprendizaje (idea 2) nos brinda la brújula. El desarrollo del pensamiento experto (idea 3) es nuestro destino. Y el Student engagement (idea 4) es el combustible que nos lleva hasta él.

En tu próxima clase o sesión de estudio, pregúntate: ¿qué pequeño cambio podrías hacer para pasar de «cubrir material» a «provocar un aprendizaje» real y duradero?

En esta conversación podéis escuchar lo más importante de este cambio de enfoque.

En este vídeo se recogen las ideas más interesantes del tema.

Referencias:

Barr, R. B., & Tagg, J. (1995). From teaching to learning: A new paradigm for undergraduate education. Change: The Magazine of Higher Learning, 27(6), 13–25.

Chi, M. T. H. (2009). Active-constructive-interactive: A conceptual framework for differentiating learning activities. Topics in Cognitive Science, 1(1), 73–105. https://doi.org/10.1111/j.1756-8765.2008.01005.x

Chickering, A. W., & Gamson, Z. F. (1987). Seven principles for good practice in undergraduate education. AAHE bulletin3, 7.

McCune, V., & Hounsell, D. (2005). The development of students’ ways of thinking and practising in three final-year biology courses. Higher Education, 49(1–2), 255–289. https://doi.org/10.1007/s10734-004-6666-0

Trowler, V. (2010). Student engagement literature review. The higher education academy11(1), 1-15.

Wiggins, G., & McTighe, J. (1998). Backward design. In Understanding by design (pp. 13–34). ASCD.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Quieres más datos? No siempre es mejor: la lección que cambiará tu forma de ver la ciencia.

En la era del Big Data, tenemos, casi instintivamente, la idea de que más información siempre es mejor. Acumular más datos parece el camino directo hacia decisiones más inteligentes, resultados más fiables y una certeza casi absoluta. Creemos que si medimos algo diez, cien o mil veces, nuestra comprensión del fenómeno será inevitablemente más profunda y precisa.

Sin embargo, en el ámbito de la experimentación científica rigurosa, esta intuición puede resultar peligrosamente engañosa. Existe un concepto fundamental que a menudo se pasa por alto y que es mucho más importante que la mera cantidad de mediciones. No se trata de cuántos datos se recogen, sino de cómo se recogen. La estructura de un experimento es clave para su eficacia.

En este artículo se desglosan tres ideas clave del diseño experimental que revelan por qué la arquitectura de un estudio es más relevante que la cantidad de datos brutos. Prepárate para descubrir el secreto del éxito en los experimentos.

1. ¿Quién es nuestro protagonista? La unidad experimental.

Todo experimento comparativo tiene una estrella principal, un elemento central en torno al cual gira toda la acción. No se trata del tratamiento aplicado ni de la variable medida, sino de la unidad experimental (UE). Pero, ¿qué es exactamente?

Una unidad experimental es el elemento más pequeño al que se puede asignar un tratamiento de forma completamente independiente. Es la pieza fundamental sobre la que se realizan las mediciones para determinar qué ocurre. Piensa en ella como el «sujeto» de tu experimento.

Los ejemplos concretos ayudan a entenderlo mejor:

  • En la agricultura, si quieres comparar dos tipos de fertilizantes, la unidad experimental podría ser una parcela de terreno de un tamaño determinado.
  • En un estudio médico, la unidad experimental suele ser un paciente.
  • En entomología, podría tratarse de un insecto concreto o incluso de una colonia entera.

La clave está en que la definición de la unidad experimental depende de los objetivos de la investigación. Se trata de la pieza fundamental sobre la que se construye toda la comparación. Definir esta unidad es el primer paso, pero el verdadero desafío surge cuando empezamos a tomar mediciones en ella, lo que nos lleva a una de las trampas más comunes de la ciencia.

2. El espejismo de los «diez datos»: por qué medir más no siempre es medir mejor.

Esta es una de las confusiones más frecuentes. A menudo, en una unidad experimental podemos tomar varias mediciones. A estos subelementos los llamamos «unidades muestrales». Por ejemplo, en una parcela de terreno (la UE) podríamos analizar diez plantas distintas (las unidades muestrales).

Parecería que tenemos diez datos, ¿verdad? Técnicamente, sí, pero no son lo que parecen. Hay una regla de oro en el diseño experimental que lo cambia todo:

Las unidades muestrales dentro de una misma unidad experimental deben recibir el mismo tratamiento. Por ello, la asignación del tratamiento a estas unidades muestrales no es independiente entre sí.

Esto tiene unas implicaciones enormes. Las diez plantas de la misma parcela son como hermanos que crecieron en la misma casa. Comparten el mismo terreno, la misma cantidad de luz solar y la misma cantidad de agua. Medirlas por separado no es lo mismo que entrevistar a diez personas de distintas partes de la ciudad. Su similitud y su falta de independencia significan que no se obtienen diez puntos de vista únicos, sino diez variaciones sobre el mismo punto de vista. Confundir estas muestras con diez unidades experimentales independientes es uno de los errores más frecuentes al interpretar resultados.

Entonces, si multiplicar las muestras en una misma parcela no aumenta la fiabilidad, ¿cómo podemos estar seguros de que nuestro tratamiento funciona? La respuesta no consiste en acumular más mediciones, sino en comprender y medir correctamente el «ruido» del sistema.

3. Abraza el ruido: por qué el «error experimental» es tu mejor aliado.

La palabra «error» tiene una connotación negativa, pero en la ciencia el error experimental es tu mejor aliado. No se refiere a una equivocación ni a un fallo de medición. Se trata simplemente de la variabilidad natural entre las unidades experimentales. Es el «ruido» de fondo inevitable del sistema que estás estudiando. Dos pacientes nunca son idénticos ni dos parcelas de terreno son clones perfectos.

Para medir este «ruido» natural, necesitamos comparar manzanas con manzanas. Por eso la unidad experimental (Idea 1) es tan importante. La pequeña variación entre diez plantas de la misma parcela (las unidades muestrales de la idea 2) no nos dice nada sobre la variabilidad natural entre parcelas. El verdadero error experimental solo puede medirse comparando las diferencias entre múltiples parcelas completas que recibieron el mismo tratamiento.

La diferencia de altura entre dos plantas situadas a pocos centímetros entre sí en la misma parcela bien fertilizada será mínima. Esta pequeña variación no nos dice nada sobre la eficacia del fertilizante en general, especialmente si lo comparamos con otra parcela que, por su composición natural, presenta un suelo completamente diferente. La variación entre las parcelas es lo que constituye el verdadero desafío. La esencia de un buen experimento consiste en determinar si el efecto del tratamiento es mayor que la variabilidad natural. Sin una medición honesta de este error, es imposible sacar conclusiones válidas.

Conclusión: mirar más allá de los números.

La validez de un experimento no depende de la cantidad de mediciones, sino de la correcta definición, asignación y comparación de sus unidades experimentales. Es la estructura, no el volumen, lo que permite separar la señal del ruido.

La próxima vez que leas sobre un nuevo estudio, ignora por un momento el deslumbrante número de mediciones. En su lugar, busca a la verdadera protagonista: la unidad experimental. Pregúntate cómo la definieron los investigadores y cómo la utilizaron para medir el ruido de fondo. Esa es la diferencia entre una montaña de datos y un verdadero descubrimiento.

En esta conversación puedes descubrir alguna de las ideas de este artículo.

También puedes ver este vídeo, donde se recogen los conceptos más interesantes del tema.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Más allá de la opinión: en busca de la evidencia científica.

¿Cómo entendemos realmente el comportamiento humano y el funcionamiento de la sociedad? A menudo, nos basamos en la intuición o en ideas preconcebidas sobre lo que es «científico». Asociamos la ciencia con laboratorios, experimentos y datos exactos, mientras que el estudio de lo social nos parece más ambiguo o «blando».

Sin embargo, la investigación social es sorprendentemente rigurosa. Sus métodos y principios nos permiten comprender el mundo y desarrollar un pensamiento crítico y estructurado.

En este artículo, veremos cinco ideas impactantes que surgen de la investigación social. Prepárate, porque algunas de tus certezas podrían cambiar.

1. No es el objeto de estudio, sino el método, lo que define a la ciencia.

Una de las primeras barreras con las que nos encontramos al pensar en las ciencias sociales es el objeto de estudio: el ser humano. A diferencia de las células o los planetas, las personas somos sujetos conscientes, llenos de simbolismo y percepciones. Esto lleva a muchas personas a pensar que no pueden ser objeto de estudio científico.

Sin embargo, aquí radica la primera gran idea: lo que distingue a la ciencia de otras formas de conocimiento no es el tema que investiga, sino el rigor de su método. Da igual si estudias la interacción de partículas o las dinámicas de un grupo social; lo importante es cómo lo haces.

«Si no hay método, no hay ciencia».

Por tanto, la cientificidad de las ciencias sociales se basa en el cumplimiento de reglas metodológicas formalizadas. Principios como el rigor y la parsimonia, la verificación empírica y la búsqueda de formulaciones de tipo general (universales) son los pilares que sustentan cualquier investigación válida, independientemente de lo complejo o subjetivo que pueda parecer su objeto de estudio.

2. Que algo sea cuantitativo no lo convierte automáticamente en objetivo (y viceversa).

Vivimos en un mundo obsesionado con los datos. Tendemos a creer que un porcentaje, una estadística o un número son sinónimos de verdad objetiva, mientras que un discurso o una opinión se considera meramente subjetivo. La idea de que los datos cuantitativos son inherentemente objetivos y más científicos es, según la propia metodología, falsa.

La objetividad no reside en la naturaleza del dato (un número frente a una palabra), sino en el método con el que se ha obtenido y analizado. Un estudio cuantitativo basado en un mal diseño de encuesta o en una muestra no representativa puede ofrecer resultados completamente sesgados y poco objetivos. Del mismo modo, un análisis cualitativo de discursos puede ser extremadamente riguroso y objetivo si se sigue un procedimiento sistemático y controlado.

Esta idea nos invita a ser más críticos con la información que consumimos. La próxima vez que veas una estadística impactante, no te quedes en el número; pregúntate cuál es el método que hay detrás.

«¡Ojo! Que trabajemos con discursos y percepciones no significa que la investigación se base en la subjetividad del investigador ni que la investigación sea subjetiva. Sería lo mismo que decir que, por trabajar con números o porcentajes, los resultados son objetivos, sin tener en cuenta cómo se han obtenido esos datos».

3. En toda ciencia hay un factor humano: el propio investigador.

La imagen popular del científico es la de una figura neutral e imparcial que observa la realidad sin afectarla. Sin embargo, la verdad es que en toda investigación científica se incluyen criterios subjetivos del investigador.

El verdadero rigor científico no consiste en negar esta subjetividad, sino en ser consciente de ella, saber identificarla y limitarla para que no condicione los resultados de la investigación. Esto es especialmente crucial en las ciencias sociales, donde el objeto de estudio es, a su vez, un sujeto consciente. El investigador debe esforzarse por distanciarse y seguir el método de forma disciplinada, empleando mecanismos como el «distanciamiento» y la «extrañeza» al analizar el objeto».

Este principio humaniza la ciencia. Nos recuerda que es una actividad humana, llevada a cabo por personas, y que requiere no solo conocimientos técnicos, sino también autoconciencia, disciplina y honestidad intelectual.

4. Antes de elegir una técnica, debes definir qué quieres saber.

Imagina que un carpintero decide usar un martillo antes de saber si tiene que clavar, atornillar o serrar. Suena absurdo, ¿verdad? Pues bien, en la investigación (y en muchos otros ámbitos de la vida) es un error muy común. A menudo, nos enamoramos de una herramienta —una encuesta, una entrevista, un grupo de discusión— sin haber definido previamente la pregunta fundamental.

Un principio clave de la metodología de investigación es que el objeto de estudio y los objetivos deben definirse antes de decidir qué técnicas se utilizarán. La herramienta debe adaptarse al problema y no al revés. ¿Necesitas datos generalizables de una población grande? Quizás lo más adecuado sea una encuesta. ¿Quieres profundizar en los significados y las experiencias de un grupo concreto? Las entrevistas pueden ser más adecuadas.

¿Cómo resume a la perfección el principio metodológico: «El diseño metodológico se construye a partir del objeto y de los objetivos del estudio»? Esta lección es universal: la estrategia siempre debe preceder a la táctica.

5. La mejor investigación no elige bando, sino que combina métodos.

El antiguo debate entre la investigación cuantitativa (basada en números) y la cualitativa (basada en discursos) está cada vez más superado. La investigación social moderna no los concibe como enfoques opuestos e irreconciliables, sino como herramientas complementarias que, utilizadas conjuntamente, ofrecen una visión mucho más completa de la realidad.

Cada método tiene su propia lógica y propósito. La investigación cuantitativa, heredera del positivismo, sigue una lógica de verificación perfectamente diseñada para su objetivo: la búsqueda de leyes generales mediante un enfoque cuantitativo. Por su parte, la investigación cualitativa, más ligada al humanismo, se basa en una lógica de descubrimiento, indispensable para su objetivo, que consiste en la búsqueda de los significados de la acción humana.

Las estrategias más potentes son las de «articulación metodológica», como la complementación (emplear diferentes técnicas para distintos objetivos) o la triangulación, que consiste en utilizar distintas metodologías para validar datos sobre un mismo objetivo. Este enfoque integrador permite construir un conocimiento más rico, robusto y matizado que cualquier método por sí solo podría ofrecer.

Una nueva forma de entender el conocimiento.

Como hemos visto, la investigación social, lejos de ser una «ciencia blanda», está llena de principios rigurosos y sofisticados que desafían muchas de nuestras suposiciones sobre el conocimiento, la objetividad y la verdad. Nos enseña que el «cómo» es tan importante como el «qué», que los números no siempre dicen la verdad y que la clave para entender la complejidad humana a menudo radica en combinar diferentes perspectivas.

Ahora que sabes que la objetividad es más compleja de lo que parece y que el método es la clave, ¿qué «verdad» aceptada en tu día a día empezarás a cuestionar?

En esta conversación puedes descubrir las claves de las técnicas de investigación social.

Os dejo un vídeo que resume bien las ideas fundamentales de estas técnicas.

Os dejo este documento de síntesis de estas técnicas.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Optimización heurística mediante recocido simulado (simulated annealing)

El recocido simulado (simulated annealing, SA) es una técnica metaheurística estocástica potente diseñada para abordar problemas de optimización global en espacios de búsqueda grandes y complejos. Inspirado en el proceso de recocido de la metalurgia, el algoritmo explora ampliamente el espacio de soluciones a «temperaturas» elevadas y se centra gradualmente en las regiones más prometedoras a medida que la temperatura desciende. Su característica distintiva es la capacidad de aceptar soluciones peores con una probabilidad que disminuye con el tiempo, lo que le permite escapar de mínimos locales y evitar la convergencia prematura.

Este método es particularmente eficaz para problemas NP-hard, como el problema del viajante, la planificación de tareas y el diseño de circuitos, en los que los algoritmos exactos resultan inviables desde el punto de vista computacional. Aunque el SA no garantiza la obtención del óptimo global, produce soluciones de alta calidad en tiempos de cálculo prácticos de forma consistente. El éxito del algoritmo depende en gran medida del ajuste preciso de sus parámetros, como la temperatura inicial, el esquema de enfriamiento y la longitud de las iteraciones en cada nivel de temperatura. Su robustez y versatilidad lo han consolidado como una herramienta fundamental en campos tan diversos como la ingeniería estructural, la química molecular, el procesamiento de imágenes y la asignación de recursos.

Principios fundamentales y origen

El recocido simulado (SA), también conocido como templado simulado, recristalización simulada o enfriamiento simulado, es una técnica metaheurística que adapta un proceso físico al ámbito de la optimización.

  • Definición: El SA es un método estocástico de optimización global. Su estrategia se basa en la analogía con el recocido metalúrgico, proceso en el que un material se calienta y luego se enfría de forma controlada para alcanzar una estructura cristalina estable y de baja energía.
  • Mecanismo central: El algoritmo mejora las soluciones de forma iterativa. Acepta incondicionalmente las soluciones candidatas que son mejores que la actual y, con una probabilidad decreciente, también acepta movimientos que la empeoran. Esta aceptación controlada de transiciones «cuesta arriba» es clave para evitar quedar atrapado en óptimos locales y para permitir un cambio gradual de la exploración a la explotación del espacio de soluciones.
  • Origen: El SA fue desarrollado de forma independiente por Kirkpatrick, Gelatt y Vecchi (1983) y por Černý (1985). Su base teórica se encuentra en el algoritmo de Metropolis (1953), que se aplicó originalmente a la simulación de sistemas termodinámicos.

Mecanismo de funcionamiento y analogía termodinámica.

El SA establece un paralelismo directo entre la optimización y la termodinámica estadística, donde los conceptos se relacionan de la siguiente manera:

  • Función objetivo: corresponde a la energía de un sistema físico. El objetivo es minimizar dicha energía.
  • Solución óptima: representa una estructura cristalina de baja energía, que es un estado estable del sistema.
  • Temperatura (T): Es el parámetro que regula el comportamiento estocástico. A altas temperaturas, el sistema es más volátil y explora más; a bajas, se estabiliza.

El proceso de optimización se rige por el factor de Boltzmann, exp(-ΔE/T), donde ΔE es el cambio en la energía (valor de la función objetivo) de la nueva configuración y T es la temperatura actual.

El criterio de aceptación de una nueva solución s' a partir de una solución actual s sigue la regla de Metropolis:

  1. Si el cambio de energía ΔE = f(s') - f(s) es menor o igual a cero (ΔE ≤ 0), la nueva solución es mejor o igual, por lo que se acepta siempre.
  2. Si el cambio de energía es positivo (ΔE > 0), la nueva solución es peor. Se acepta con una probabilidad P = exp(-ΔE/T).

Esta probabilidad es alta a temperaturas elevadas, lo que fomenta la diversificación y la exploración global. A medida que T se acerca a cero, la probabilidad de aceptar malos movimientos disminuye drásticamente, haciendo que el algoritmo sea más selectivo y se comporte de manera “codiciosa” (greedy), intensificando la búsqueda en regiones prometedoras.

Componentes clave del algoritmo

El rendimiento del SA depende de la calibración precisa de su «esquema de enfriamiento». Sus componentes matemáticos y de procedimiento clave son los siguientes:

Componente Descripción
Temperatura inicial (T₀) Se elige un valor lo suficientemente alto como para asegurar una alta probabilidad de aceptación inicial, lo que permite una exploración amplia del espacio de soluciones. El método de Medina (2001) sugiere ajustarla para que la tasa de aceptación de soluciones de mayor coste se sitúe entre el 20% y el 40%.
Esquema de enfriamiento Define cómo disminuye la temperatura. El más común es el esquema geométrico: T(t+1) = α * Tt, donde α es un coeficiente de reducción típicamente en el rango de [0.8, 0.99]. Una refrigeración rápida corre el riesgo de atrapar la solución en estados metaestables, mientras que una lenta mejora la fiabilidad a un mayor coste computacional.
Longitud de la cadena de Markov Es el número de iteraciones que se ejecutan en cada nivel de temperatura. Debe ser lo suficientemente largo como para que el sistema alcance un estado de equilibrio a esa temperatura antes de seguir enfriando.
Criterio de parada Determina cuándo finaliza el algoritmo. Las condiciones comunes incluyen que la temperatura caiga por debajo de un umbral predefinido (p. ej., el 1% de la temperatura inicial) o que las mejoras en la solución se estabilicen.

Variantes y mejoras

Con el fin de mejorar la eficiencia y la adaptabilidad del SA, se han desarrollado diversas variantes y modificaciones.

  • Estrategia “Best-So-Far”: Mantiene en memoria la mejor solución encontrada hasta el momento, independientemente del estado actual de la búsqueda.
  • Esquemas de recalentamiento: Cuando el sistema se estanca en un óptimo local, la temperatura se incrementa temporalmente para promover una nueva fase de exploración (Dowsland, 1993).
  • Hibridación: Se integra el SA con otros métodos, como algoritmos genéticos, branch-and-bound o programación entera, para aprovechar sus fortalezas complementarias.
  • Implementaciones paralelas: Distribuyen los ensayos entre múltiples procesadores para mejorar la escalabilidad y la velocidad de convergencia.
  • Evaluaciones aproximadas de ΔE: Se utilizan en problemas de alta dimensionalidad para acelerar el cálculo.

Threshold Accepting (TA)

Una variante notable es el Threshold Accepting (TA), introducido por Dueck y Scheuer en 1990. Este método sustituye la regla de aceptación probabilística por una regla determinista: se acepta una solución subóptima si su empeoramiento es inferior a un umbral predefinido.

  • Se acepta una solución subóptima si su empeoramiento (degradación) es inferior a un umbral predefinido.
    Este umbral disminuye gradualmente durante la búsqueda, de forma análoga al esquema de enfriamiento del SA.

Estudios empíricos han demostrado que el TA puede tener un rendimiento comparable o incluso superior al del SA en problemas de planificación, programación y asignación de recursos (Lin et al., 1995).

Dominios de aplicación y ejemplos notables

El SA ha demostrado ser una herramienta versátil y fiable, especialmente para problemas NP-hard para los que no existen solucionadores específicos.

Dominio Aplicación específica y referencia
Enrutamiento Resolución del Problema del Viajante de Comercio (TSP) y sus variantes con restricciones de tiempo (Kirkpatrick et al., 1983).
Planificación Solución de problemas de job-shop scheduling mediante un equilibrio entre diversificación e intensificación (van Laarhoven et al., 1992).
Asignación de recursos Manejo de la complejidad del Problema de Asignación Cuadrática (QAP) en el diseño de instalaciones (Connolly, 1990).
Procesamiento de imágenes Métodos de relajación estocástica para resolver problemas de segmentación y restauración de imágenes (Geman y Geman, 1984).
Química molecular Herramienta estándar para la cristalografía macromolecular y el refinamiento conformacional (Brünger, 1992).
Ingeniería estructural – Diseño de puentes de hormigón pretensado (Martí et al., 2013).

– Optimización paramétrica de muros de contención (Yepes et al., 2008).

– Optimización del tamaño y la disposición de las estructuras de acero (Bresolin et al., 2022).

– Minimización de costes e impacto ambiental (CO₂) en el hormigón armado (Santoro y Kripka, 2020; Medeiros y Kripka, 2014).

– Diseño de estructuras marinas bajo incertidumbre (Toğan, 2012).

Factores críticos para el rendimiento.

El éxito en la aplicación del SA depende en gran medida de la formulación del problema:

  1. Representación del espacio de configuración: La forma en que se define matemáticamente el espacio de soluciones es fundamental.
  2. Definición de movimientos: Es esencial elegir un conjunto adecuado de «movimientos» o ajustes que permitan pasar de una solución a otra vecina. Las representaciones efectivas aseguran que las transiciones entre mínimos locales impliquen pequeñas diferencias de coste, lo que reduce las «barreras de energía».
  3. Función objetivo: Una función objetivo bien elegida puede modificar la distribución de los mínimos locales hacia valores de menor coste promedio, lo que aumenta la probabilidad de encontrar soluciones mejores.
  4. Manejo de restricciones: En los problemas con restricciones, la búsqueda puede limitarse a regiones factibles o pueden permitirse soluciones infactibles penalizándolas en la función objetivo. Este último enfoque puede simplificar la estructura de vecindad y suavizar la topología del paisaje de búsqueda, lo que mejora la convergencia.

Os dejo un vídeo que grabé hace unos años para explicar esta metaheurística. Espero que os sea de interés.

Referencias:

Bresolin, J. M., Pravia, Z. M., & Kripka, M. (2022). Discrete sizing and layout optimization of steel truss-framed structures with Simulated Annealing Algorithm. Steel and Composite Structures, 44(5), 603–617. https://doi.org/10.12989/scs.2022.44.5.603

Brünger, A. T. (1992). X-PLOR Version 3.1: A system for X-ray crystallography and NMR. Yale University Press.

Černý, V. (1985). Thermodynamical approach to the travelling salesman problem: An efficient simulation algorithm. Journal of Optimization Theory and Applications, 45(1), 41–51. https://doi.org/10.1007/BF00940812

Connolly, D. T. (1990). An improved annealing scheme for the QAP. European Journal of Operational Research, 46(1), 93–100. https://doi.org/10.1016/0377-2217(90)90301-Q

Dowsland, K. A. (1993). Simulated annealing. In C. R. Reeves (Ed.), Modern heuristic techniques for combinatorial problems (pp. 20–69). Wiley.

Dueck, G., & Scheuer, T. (1990). Threshold accepting: A general purpose optimization algorithm appearing superior to simulated annealing. Journal of Computational Physics, 90(1), 161–175. https://doi.org/10.1016/0021-9991(90)90201-B

Geman, S., & Geman, D. (1984). Stochastic relaxation, Gibbs distributions, and the Bayesian restoration of images. IEEE Transactions on Pattern Analysis and Machine Intelligence, 6(6), 721–741. https://doi.org/10.1109/TPAMI.1984.4767596

Kirkpatrick, S., Gelatt, C. D., & Vecchi, M. P. (1983). Optimization by simulated annealing. Science, 220(4598), 671–680. https://doi.org/10.1126/science.220.4598.671

Lin, C. K. Y., Haley, K. B., & Sparks, C. (1995). A comparative study of threshold accepting and simulated annealing algorithms in three scheduling problems. European Journal of Operational Research, 83(2), 330–346. https://doi.org/10.1016/0377-2217(95)00011-E

Martí, J. V., González-Vidosa, F., Yepes, V., & Alcalá, J. (2013). Design of prestressed concrete precast road bridges with hybrid simulated annealing. Engineering Structures, 48, 342–352. https://doi.org/10.1016/j.engstruct.2012.09.014

Medeiros, F., & Kripka, M. (2014). Optimization of reinforced concrete columns according to cost and CO₂ emissions. Engineering Structures, 59, 185–194. https://doi.org/10.1016/j.engstruct.2013.10.045

Medina, J. R. (2001). Estimation of incident and reflected waves using simulated annealing. Journal of Waterway, Port, Coastal and Ocean Engineering, 127(4), 213–221. https://doi.org/10.1061/(ASCE)0733-950X(2001)127:4(213)

Metropolis, N., Rosenbluth, A. W., Rosenbluth, M. N., Teller, A. H., & Teller, E. (1953). Equation of state calculations by fast computing machines. The Journal of Chemical Physics, 21(6), 1087–1092. https://doi.org/10.1063/1.1699114

Santoro, J. F., & Kripka, M. (2020). Minimizing environmental impact in the design of reinforced concrete elements using simulated annealing. Computers and Concrete, 25(2), 111–118. https://doi.org/10.12989/cac.2020.25.2.111

Toğan, V. (2012). Optimization of monopod offshore tower under uncertainties with gradient-based and gradient-free optimization algorithms. Advances in Structural Engineering, 15(12), 2021–2032. https://doi.org/10.1260/1369-4332.15.12.2021

van Laarhoven, P. J. M., & Aarts, E. H. L. (1987). Simulated annealing: Theory and applications (Mathematics and Its Applications, Vol. 37). Springer. https://doi.org/10.1007/978-94-015-7744-1

van Laarhoven, P. J. M., Aarts, E. H. L., & Lenstra, J. K. (1992). Job shop scheduling by simulated annealing. Operations Research, 40(1), 113–125. https://doi.org/10.1287/opre.40.1.113

Yepes, V., Alcalá, J., Perea, C., & González-Vidosa, F. (2008). A parametric study of optimum earth retaining walls by simulated annealing. Engineering Structures, 30(3), 821–830. https://doi.org/10.1016/j.engstruct.2007.05.023

Yepes, V. (2026). Heuristic Optimization Using Simulated Annealing. In: Kulkarni, A.J., Mezura-Montes, E., Bonakdari, H. (eds) Encyclopedia of Engineering Optimization and Heuristics. Springer, Singapore. https://doi.org/10.1007/978-981-96-8165-5_48-1

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Más allá del ladrillo? El sorprendente futuro de la vivienda social sostenible

Introducción: El reto de los 1 600 millones.

La crisis de la vivienda no es solo una estadística, sino una emergencia humanitaria. Según UN-Habitat, más de 1 600 millones de personas carecen de una vivienda adecuada y, para cerrar esta brecha, el mundo debe enfrentarse al titánico reto de construir 96 000 viviendas al día hasta el año 2030. Este desafío tiene un rostro concreto en distritos como Carabayllo, en Lima (Perú), una zona de expansión urbana acelerada donde la necesidad de soluciones rápidas suele chocar con la falta de recursos y la precariedad constructiva.

Ante este panorama, surge la pregunta central: ¿es posible construir viviendas económicas y rápidas que también respeten el medio ambiente y la dignidad de quienes las habitan? Para responderla, la ciencia del urbanismo recurre hoy a métodos avanzados de evaluación, como el análisis del ciclo de vida (LCA), el análisis de costes del ciclo de vida (LCC) y el análisis del ciclo de vida social (S-LCA). Los resultados de aplicar estas herramientas en el contexto peruano revelan que el futuro de la vivienda social no radica en el ladrillo tradicional, sino en la construcción industrializada.

Punto 1: el acero ligero (LSF) es el nuevo referente en materia de sostenibilidad.

En la búsqueda del sistema constructivo ideal, el acero ligero, también conocido como Light Steel Frame (LSF), ha destronado a las opciones convencionales. Su éxito se debe a su equilibrio casi perfecto entre peso, resistencia y sostenibilidad. Al ser un sistema de baja intensidad material, el LSF utiliza los recursos de forma quirúrgica, minimizando el desperdicio que abunda en las obras tradicionales.

Desde el punto de vista financiero, el LSF no solo es competitivo, sino también transformador: reduce el coste inicial de construcción en un 15 % y los costes de fin de vida (demolición y reciclaje) en un asombroso 77 % en comparación con la mampostería confinada (RCF-M). Al ser altamente reciclable, el acero hace que el edificio, al final de su vida útil, no se convierta en escombro, sino en un recurso.

«El Life Cycle Steel Frame (LSF) ha obtenido la máxima puntuación en sostenibilidad en todas las categorías».

Punto 2: lo social ya no es secundario (pesa un 40 %).

Quizás el hallazgo más revolucionario de la investigación es que la sostenibilidad ya no se mide solo en toneladas de CO₂. Los indicadores sociales representaron casi el 40 % del peso total (38,93 %) en la toma de decisiones, superando por primera vez a los factores económicos y ambientales.

Este estudio introduce una métrica basada en el factor humano: las horas de riesgo medio (MRH). En lugar de limitarse a calcular el ahorro de energía, el análisis cuantifica la seguridad del trabajador, las condiciones laborales y el impacto en la comunidad local. Lo fascinante es que estos resultados son robustos: el análisis de sensibilidad (S-BWM) demostró que, independientemente de si el evaluador era un experto sénior con 35 años de experiencia o un especialista júnior, los datos señalaban de manera consistente al LSF como el camino más ético y eficiente.

Punto 3: La trampa del coste inicial frente al ciclo de vida.

En urbanismo sostenible, lo que hoy es barato puede resultar carísimo mañana. Existe una brecha crítica entre el presupuesto de obra y el LCC (costo del ciclo de vida) a 50 años. Aquí es donde entra en juego la funcionalidad (C9): no debemos considerar la vivienda social como un «refugio temporal», sino como un activo permanente que garantiza la dignidad y el patrimonio familiar.

Los sistemas pesados, como los paneles sándwich, pueden prometer rapidez, pero imponen cargas de mantenimiento y de demolición mucho más elevadas. Para evitar esta trampa, la evaluación debe considerar tres momentos:

  • Construcción: el gasto inmediato en materiales y mano de obra especializada.
  • Uso (mantenimiento): la inversión necesaria para que la casa sea habitable y segura (pintura, anticorrosión).
  • Fin de vida (EoL): el coste de «desaparecer» la estructura de forma responsable.

Punto 4: El «efecto dominó» del coste medioambiental.

Gracias al análisis causal DEMATEL, hemos descubierto que la sostenibilidad funciona como un juego de dominó. El coste de construcción es la pieza clave: el motor principal que impulsa el resto de los impactos.

La ciencia nos dice que no podemos mejorar la salud humana (C5), lo cual actúa como un criterio dependiente o «efecto» si simplemente nos enfocamos en indicadores sanitarios aislados. Para proteger la salud de las poblaciones urbanas, debemos «atacar» los impulsores causales: si optimizamos el coste inicial y la gestión de recursos desde el diseño, reduciremos inevitablemente la contaminación y el estrés ambiental que enferma a las ciudades décadas después.

Punto 5: El mito de que lo prefabricado siempre es mejor.

El estudio revela una ironía tecnológica. Los paneles sándwich con conexiones de pernos (LBSPS), que a primera vista parecen la cúspide de la innovación «prefabricada», ocuparon el último lugar en el ranking de sostenibilidad.

¿Por qué este sistema falló en el contexto de Lima? El análisis revela una paradoja: resultó un 20 % más costoso que la mampostería tradicional que pretendía reemplazar. El sistema se penalizó por una cadena de suministro local inmadura y la necesidad de una mano de obra extremadamente especializada. Esto debe servir de advertencia a los responsables de la toma de decisiones: la tecnología sin un marco institucional y un mercado local preparado es solo una solución teórica, no una realidad social.

Conclusión: una brújula para la política de vivienda.

No existe un sistema «perfecto», sino decisiones equilibradas basadas en datos. Mientras el LSF lidera la vanguardia, los muros de hormigón armado (RCW) se consolidan como la segunda opción: una alternativa económicamente sólida y viable en contextos donde la capacidad industrial del acero es limitada.

Como especialistas, nuestra misión es avanzar hacia procesos de evaluación que no sacrifiquen la calidad de vida en aras de la rapidez. Debemos comprender que cada ladrillo o cada perfil de acero es una decisión que afecta la salud y la economía de las generaciones futuras.

Ante el déficit global de vivienda, ¿estamos dispuestos a cambiar nuestra cultura constructiva para garantizar un hogar digno y sostenible para las generaciones futuras?

Aquí tienes una conversación en la que puedes escuchar argumentos sobre este trabajo.

En este vídeo puedes ver un resumen de las ideas más interesantes sobre este tema.

También os dejo un documento resumen, a modo de presentación.

Vivienda Social Sostenibilidad y Decisiones Integrales.pdf

 

Referencia:

LUQUE CASTILLO, X.; YEPES-BELLVER, L.; YEPES, V. (2026). Towards Sustainable Social Housing: An Integrative Life Cycle and Multi-Criteria ApproachSustainable Cities and Society, 137, 107164. DOI:10.1016/j.scs.2026.107164

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Nuestro trabajo seleccionado entre los mejores de Engineering Structures (Edición vols. 342-345)

Nos complace compartir una excelente noticia: nuestro artículo Life-cycle environmental impact optimization of an RC-THVS composite frame for sustainable construction ha sido reconocido con el Featured Paper Award de la revista Engineering Structures, de Elsevier.

Este galardón distingue a un número muy reducido de trabajos que destacan por su excelencia científica, originalidad y relevancia en la revista. Por tanto, se trata de un reconocimiento de alto nivel al impacto y la calidad de la investigación realizada.

¿Qué es Engineering Structures?

Engineering Structures es una de las revistas internacionales de referencia en el ámbito de la ingeniería civil y estructural. Su objetivo principal es publicar investigaciones avanzadas, tanto teóricas como aplicadas, relacionadas con el análisis, el diseño, el comportamiento y la optimización de estructuras, incluidos puentes, edificios y sistemas estructurales innovadores. La revista hace especial hincapié en los enfoques modernos que integran la sostenibilidad, los nuevos materiales, los métodos computacionales y la evaluación del ciclo de vida.

En términos bibliométricos, Engineering Structures se sitúa en el primer decil (D1) del Journal Citation Reports (JCR) en el área de ingeniería civil, lo que significa que se encuentra entre el 10 % de las revistas con mayor impacto científico a nivel mundial en su campo.

El significado del Featured Paper Award

Recibir el Featured Paper Award implica que el artículo ha sido considerado especialmente relevante por el equipo editorial de la revista, no solo por su calidad metodológica, sino también por su contribución al avance del conocimiento y su interés para la comunidad científica internacional. En este caso, el trabajo aborda la optimización del impacto ambiental a lo largo del ciclo de vida de sistemas estructurales compuestos, lo que lo alinea con uno de los grandes retos actuales de la ingeniería: el desarrollo de infraestructuras más sostenibles y eficientes.

Este reconocimiento aumenta la visibilidad del trabajo publicado y destaca la importancia de integrar criterios ambientales y de sostenibilidad en el diseño estructural, un enfoque cada vez más necesario en el contexto de la transición ecológica del sector de la construcción.

Desde nuestro equipo, agradecemos este reconocimiento y esperamos que el artículo contribuya a seguir impulsando la investigación en ingeniería estructural sostenible y en el análisis del ciclo de vida.

Podéis leer el artículo de forma gratuita si accedéis a este enlace: https://www.sciencedirect.com/science/article/pii/S0141029625018528

Referencia:

Negrín, I., Kripka, M., & Yepes, V. (2025). Life-cycle environmental impact optimization of an RC-THVS composite frame for sustainable construction. Engineering Structures, 345, 121461. https://doi.org/10.1016/j.engstruct.2025.121461

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Cómo lograr que tus estudiantes transformen su forma de pensar, según la ciencia

Introducción: ¿Por qué a veces enseñar parece una batalla perdida?

Todo educador conoce esa frustración: preparamos nuestras clases con esmero, organizamos los contenidos de forma lógica, explicamos con la mayor claridad posible y ponemos toda nuestra pasión en ello. Sin embargo, al final del semestre, nos damos cuenta de que muchos estudiantes no han retenido la información, no han conectado las ideas o, simplemente, no han llegado a comprender la esencia de lo que intentábamos transmitir. Es como si nuestras palabras se hubieran desvanecido en el aire.

La reacción instintiva ante este problema es intentar perfeccionar nuestra enseñanza. Buscamos ser más claros, organizar mejor el material o encontrar ejemplos más ilustrativos. Asumimos que, si mejoramos la forma en que transmitimos el conocimiento, el aprendizaje ocurrirá de forma natural. Pero ¿y si esa premisa fuera fundamentalmente incorrecta?

Décadas de investigación rigurosa en educación superior han revelado una serie de principios sobre cómo las personas realmente aprenden. Lo sorprendente es que muchas de estas conclusiones son profundamente contraintuitivas y entran en conflicto con nuestras ideas más arraigadas sobre la enseñanza. En este artículo, sintetizamos cinco de las lecciones más impactantes de esta investigación, organizadas en un proceso de creciente sofisticación pedagógica. Empezaremos por los fundamentos de la comunicación efectiva y llegaremos hasta las formas más avanzadas de diseño curricular, revelando un mapa que transforma la frustración en un aprendizaje real y duradero.

Lección 1: no se trata de lo que enseñas, sino de lo que ellos hacen.

El primer y más importante cambio de paradigma es el siguiente: el factor que determina los resultados del aprendizaje no es la calidad de la exposición del profesor, sino la de la actividad que realiza el estudiante. Se trata de una idea sencilla en apariencia, pero con implicaciones revolucionarias para el diseño de cualquier curso.

Investigadores como John Biggs han demostrado que el enfoque de la planificación docente debe cambiar por completo. Esta es la esencia del cambio de paradigma que Barr y Tagg describieron en su artículo «From Teaching to Learning», un pilar de la pedagogía moderna. En lugar de preguntarnos «¿qué temas voy a cubrir?», la pregunta fundamental debe ser «¿qué actividades voy a diseñar para que mis estudiantes piensen y trabajen?». Este principio nos obliga a cambiar nuestro papel de «presentadores de información» a «arquitectos de experiencias de aprendizaje».

Este cambio es difícil de asimilar porque nos saca del centro del escenario. Lo que realmente importa es el reto intelectual que proponemos y el trabajo cognitivo que los estudiantes realizan para superarlo, no nuestra brillante explicación. La enseñanza más eficaz no es la que transmite mejor, sino la que provoca la mejor actividad.

«Lo que el estudiante hace, y no tanto lo que el profesor hace, es lo que determina los resultados de aprendizaje».

Lección 2: Los sentimientos importan más de lo que crees.

A menudo, concebimos la enseñanza como un proceso puramente cognitivo: si la información es clara y está bien organizada, los estudiantes aprenderán. Sin embargo, la investigación demuestra que los aspectos afectivos y relacionales son, como mínimo, tan importantes. Factores como la cercanía, la expresividad y la credibilidad del docente pueden potenciar el aprendizaje.

Estas cualidades no son meros adornos. Tienen efectos directos y medibles: aumentan la motivación, reducen la ansiedad que sienten los estudiantes ante la información compleja y, lo que es crucial, impactan en el aprendizaje afectivo. Este último se refiere a los valores, actitudes y sentimientos que el estudiante desarrolla hacia la asignatura. De hecho, un hallazgo sorprendente es que la claridad del profesorado puede tener un efecto aun mayor en la actitud positiva del alumnado hacia la asignatura que en su aprendizaje puramente cognitivo.

La comunicación en el aula nunca es solo una transacción de información. Es un acto de construcción de relaciones. Cuando un profesor se muestra cercano y creíble, fomenta un entorno en el que los estudiantes están más dispuestos a implicarse, a confiar y, en definitiva, a valorar el conocimiento que se les ofrece.

«La mayoría de los estudiantes no valora intrínsecamente el aprendizaje que se les prescribe. Hay que enseñarles a valorar ese conocimiento».

Dominar la claridad y la conexión con el estudiante (lo que la investigación denomina nivel 1) es la base. Sin embargo, el verdadero salto en la efectividad se produce cuando cambiamos el enfoque de nosotros hacia ellos y empezamos a diseñar el aprendizaje en función de su actividad.

4. Lección 3: Olvida el «aprendizaje activo». Busca el «aprendizaje constructivo».

«Aprendizaje activo» se ha convertido en un término de moda, una especie de eslogan que todo el mundo apoya, pero pocos lo definen con precisión. La dicotomía simple entre «activo» (hacer cosas) y «pasivo» (escuchar) es engañosa. Escuchar una conferencia brillante puede ser una actividad intelectual increíblemente intensa, mientras que participar en una actividad mal diseñada puede ser una pérdida de tiempo.

La investigadora Michelene Chi propone un concepto mucho más útil y preciso: el aprendizaje constructivo. La clave no está en si los estudiantes «hacen algo» físicamente, sino en el tipo de trabajo mental que realizan. El aprendizaje es constructivo cuando la actividad exige a los estudiantes producir un resultado que va más allá de la información inicialmente proporcionada.

El aprendizaje constructivo se produce cuando el estudiante reorganiza las ideas, sintetiza, critica, diseña, aplica, ofrece soluciones, realiza diagnósticos o aporta análisis. La clave es la transformación, no la mera repetición. El objetivo de una buena actividad no es simplemente mantener a los estudiantes ocupados; es involucrarlos en un trabajo cognitivo de alto nivel que propicie una comprensión nueva y personal.

«…aquellas [actividades] en las que, al realizarlas, los estudiantes producen resultados añadidos, esto es, resultados que contienen ideas relevantes que van más allá de la información de partida que se les ha dado»

Lección 4: el mayor obstáculo es lo que los estudiantes ya «saben».

Uno de los descubrimientos más sólidos y, a la vez, más ignorados de la investigación educativa es que el mayor obstáculo para el aprendizaje no es la falta de conocimientos, sino las ideas preconcebidas, ingenuas o erróneas que los estudiantes traen al aula. Estas ideas, a menudo implícitas y profundamente arraigadas, pueden ser increíblemente resistentes al cambio y bloquear la asimilación de conceptos científicos o de expertos.

La magnitud de este problema es enorme. Un ejemplo famoso proviene de la física: cuando se diseñó el Force Concept Inventory (FCI), una prueba para evaluar la comprensión de los conceptos básicos de la mecánica newtoniana, los profesores universitarios predijeron que sus alumnos la superarían con facilidad. Los resultados reales fueron un shock: las puntuaciones medias se situaban en un desolador 20-25 %. Esto reveló que incluso los estudiantes más brillantes albergaban ideas profundamente erróneas sobre el movimiento. Sus cursos no los habían corregido porque la enseñanza tradicional simplemente añade capas de información nueva sobre estas concepciones resistentes sin llegar nunca a desplazarlas.

Una enseñanza verdaderamente eficaz no puede ignorar este hecho. Debe diseñarse explícitamente para facilitar el cambio conceptual. Para ello, es necesario crear situaciones y problemas que obliguen a los estudiantes a expresar sus ideas previas, a confrontarlas con las pruebas y, en última instancia, a modificar su forma de pensar. Si no se lleva a cabo este proceso deliberado, corremos el riesgo de que los estudiantes memoricen únicamente las respuestas correctas para el examen, mientras sus ideas erróneas originales permanecen intactas.

«¿Con qué frecuencia el profesor invierte un gran esfuerzo en ofrecer una explicación concienzuda de algún fenómeno sin darse cuenta de que los estudiantes están formando interpretaciones significativamente diferentes en sus cabezas?».

Si este «cambio conceptual» es el objetivo, ¿cómo diseñamos un curso entero en torno a él? La respuesta está en identificar los «portales» donde este cambio sea más necesario y transformador.

Lección 5: No enseñes temas; diseña «portales» de conocimiento.

El nivel más avanzado de diseño curricular abandona la idea de un temario como una mera lista de contenidos por cubrir. En su lugar, se centra en identificar y enseñar los conceptos umbral (threshold concepts). Esta idea, desarrollada por Meyer y Land, parte del concepto de «conocimiento problemático» (troublesome knowledge) de David Perkins, que se refiere a aquellas ideas contraintuitivas o complejas que, por tanto, resisten el aprendizaje superficial.

Un concepto umbral funciona como un portal: cuando el estudiante lo atraviesa, su forma de ver la disciplina (e incluso el mundo) cambia por completo. Abrirá una forma de pensar antes inaccesible. Estos conceptos suelen ser precisamente los puntos en los que los estudiantes se atascan, ya que a menudo resultan contraintuitivos, problemáticos o complejos. Son las ideas clave que, una vez comprendidas, conectan todo lo demás y permiten al estudiante empezar a pensar como un experto en la materia.

Pensemos, por ejemplo, en el concepto de «coste de oportunidad» en economía. Cuando un estudiante lo comprende de verdad, ya no ve las decisiones como simples elecciones, sino como un campo de renuncias y de alternativas. Este concepto transforma su manera de analizarlo todo, desde una política gubernamental hasta qué hacer el sábado por la noche. Ese es el poder de un portal conceptual.

La docencia de excelencia consiste, por tanto, en identificar estos portales conceptuales en una disciplina. El curso deja de ser una secuencia de temas para convertirse en un viaje cuidadosamente diseñado que guía a los estudiantes a través de estos umbrales transformadores. El objetivo ya no es «cubrir el temario», sino provocar saltos cualitativos en la comprensión.

«Un concepto umbral puede considerarse como un portal que abre una nueva forma de pensar sobre algo previamente inaccesible. Representa una forma transformada de comprender, interpretar o ver algo, sin la cual el estudiante no puede progresar».

Conclusión: un pequeño cambio, un gran impacto.

Estas cinco lecciones suponen una evolución coherente en nuestra forma de entender la docencia. Nos invitan a evolucionar desde el papel de profesor que presenta información de forma clara y cercana (lecciones 1 y 2), hasta el de arquitecto que diseña desafíos cognitivos (lección 3), diagnosticador que identifica los modelos mentales de sus estudiantes (lección 4) y, por último, guía que acompaña a los estudiantes a través de los portales intelectuales más transformadores de su disciplina (lección 5). El enfoque cambia de la perfección en la transmisión de contenidos a la creación de experiencias que faciliten un aprendizaje auténtico.

De estas cinco lecciones, ¿qué cambio podrías implementar en tu próxima clase para empezar a centrarte en lo que hace el estudiante?

En este audio podemos escuchar una conversación sobre este tema.

En este vídeo se sintetizan las ideas más importantes sobre el aprendizaje activo.

En este documento puedes ver las ideas más importantes.

Pincha aquí para descargar

Referencias:

Barr, R. B., & Tagg, J. (1995). From teaching to learning: A new paradigm for undergraduate education. Change Magazine, Nov/Dec.

Biggs, J. (1999). What the student does: Teaching for enhanced learning. Higher Education Research and Development, 18(1), 57–75.

Biggs, J. B., & Tang, C. (1999). Teaching for quality learning at university: What the student does. Society for Research into Higher Education & Open University Press.

Chi, M. T. H. (2005). Commonsense conceptions of emergent processes: Why some misconceptions are robust. Journal of the Learning Sciences, 14, 161–199.

Chi, M. T. H. (2008). Three types of conceptual change: Belief revision, mental model transformation, and categorical shift. En S. Vosniadou (Ed.), International handbook of research on conceptual change (pp. 61–82). Routledge.

Chi, M. T. H. (2009). Active-constructive-interactive: A conceptual framework for differentiating learning activities. Topics in Cognitive Science, 1(1), 73–105. https://doi.org/10.1111/j.1756-8765.2008.01005.x

Meyer, J. H. F., & Land, R. (2003). Threshold concepts and troublesome knowledge: Linkages to ways of thinking and practising within the disciplines. ETL Project, University of Edinburgh.

Meyer, J. H. F., & Land, R. (2005). Threshold concepts and troublesome knowledge (2): Epistemological considerations and a conceptual framework for teaching and learning. Higher Education, 49, 373–388. https://doi.org/10.1007/s10734-004-6779-5

Meyer, J. H. F., & Land, R. (2006). Threshold concepts and troublesome knowledge: An introduction. En J. H. F. Meyer & R. Land (Eds.), Overcoming barriers to student understanding: Threshold concepts and troublesome knowledge (pp. 3–18). Routledge.

Paricio, J. (2020). La calidad de «lo que el estudiante hace»: aprendizaje activo y constructivo. En J. Paricio, A. Fernández March y J. M. Carot Sierra (Eds.), Cartografía de la buena docencia universitaria (pp. 57-88). Narcea.

Perkins, D. (1999). The many faces of constructivism. Educational Leadership, 57(3), 6–11.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Marco Vitruvio Polión

Marco Vitruvio Polión (c. 80 a. C.-70 a. C., 15 a. C.). https://www.bbc.com/mundo/noticias-62321557

Marco Vitruvio Polión (en latín Marcus Vitruvius Pollio; c. 80 a. C.-70 a. C., 15 a. C.), conocido simplemente como Vitruvio, fue un arquitecto e ingeniero romano del siglo I a. C. Se desconoce su lugar y año de nacimiento exactos, pero existen varias hipótesis. Maffei lo consideraba originario de Verona; otros estudios señalan Placentia, y algunos autores sostienen que nació en Mola di Gaeta (la antigua Formia), siendo esta última suposición la que parece estar mejor fundada, especialmente por la presencia de la gens Vitruvia en esa zona de la Campania. A pesar de la incertidumbre sobre su biografía, se sabe con certeza que tuvo una vida larga y activa y que su obra ha dejado una huella perdurable en la historia de la arquitectura y la ingeniería.

Vitruvio vivió en un periodo de fuertes transformaciones políticas. Tras décadas de guerras civiles, Roma se encontraba en plena transición de la República al Imperio y nuevos grupos sociales accedían a posiciones de poder antes inaccesibles. Este escenario de expansión territorial, riqueza y cambios culturales generó un gran interés por la construcción, tanto pública como privada, y constituyó el marco en el que Vitruvio desarrolló su carrera. En su juventud, sirvió como soldado bajo el mando de Julio César en Hispania y Grecia, donde trabajó como ingeniero militar especializado en la fabricación de piezas de artillería, como ballistae y scorpiones. En esas campañas adquirió experiencia en construcción militar e infraestructuras que después aplicaría en obras civiles. Posteriormente, residió en Roma, donde trabajó en obras imperiales. Tanto Julio César como Augusto le concedieron una subvención vitalicia en su vejez, lo que constituyó un reconocimiento explícito de su valía profesional y prestigio técnico. La obra que compuso en los últimos años de su vida, ya anciano y enfermo, fue el tratado De Architectura, dedicado a Augusto, su protector, y probablemente terminado antes del año 27 a. C., dado que no menciona los grandes edificios de mármol que caracterizaron el final del reinado de Augusto.

La influencia de Vitruvio también se extiende a su relación con la familia imperial. En su obra se insinúa que contó con la protección de Octavia, hermana de César Augusto, lo que refuerza la idea de que su carrera profesional estuvo vinculada al círculo más próximo al poder. En cuanto a su legado material, sus obras se han perdido casi por completo. Aun así, se conservan vestigios en la ciudad de Fano, donde construyó una famosa basílica y un arco de triunfo augusteo, que aún es visible, aunque ha sido modificado. En el ámbito técnico, se le atribuye la invención del módulo quinario en la construcción de acueductos, lo que constituye una importante aportación a la ingeniería hidráulica romana, y se detalla, además, el uso de la chorobates para nivelar el terreno con una precisión asombrosa. También diseñó máquinas de guerra y construyó numerosos monumentos, aunque la mayoría no han llegado hasta nuestros días.

El Hombre de Vitruvio, de Leonardo da Vinci ilustra, cinco siglos después, las proporciones del cuerpo humano descritas por Vitruvio. https://es.wikipedia.org/wiki/Vitruvio

La fama de Vitruvio se debe, sobre todo, a su tratado De Architectura, la única obra de estas características que se conserva de la Antigüedad clásica. Probablemente compuesto hacia el año 27 a. C., tiene carácter de manual resumido y divulgativo y refleja los procedimientos de la arquitectura romana del último siglo de la República. Aunque en ocasiones resulta incompleto u oscuro, el tratado se organiza en diez libros que abarcan de forma sistemática los distintos aspectos de la arquitectura, desde la teoría hasta la práctica constructiva. Su estructura y contenido constituyen un documento insustituible, también por la información que aporta sobre la pintura y la escultura griegas y romanas, con referencias a artistas y obras.

El libro I comienza con consideraciones sobre las cualidades y los deberes del arquitecto y define la arquitectura como ciencia y arte. Vitruvio expone que la aedificatio incluye la construcción de edificios públicos, clasificados según su finalidad en defensio, religio u oportunitas, y la construcción de edificios privados, en los que se integran aspectos como la gnomónica y la machinatio. El primer libro también aborda problemas urbanísticos, como la elección de lugares adecuados para fundar ciudades, el trazado de calles orientadas para evitar los vientos dominantes, la construcción de murallas defensivas y la distribución de edificios dentro del recinto urbano.

En el libro II, tras repasar la evolución de la arquitectura desde los primeros tiempos, Vitruvio aborda la elección y el uso de materiales y de estructuras murales, con ejemplos prácticos de obras romanas y griegas, destacando especialmente las propiedades de la arena volcánica de Pozzuoli (pulvis puteolanus) para la fabricación de hormigón hidráulico. El libro III describe los distintos tipos de templos y establece normas de proporción y simetría para sus planimetrías y sus partes, prestando especial atención al orden jónico. La columna adquiere una importancia central, ya que regula matemáticamente las proporciones del templo. El libro IV trata sobre los templos dóricos, corintios y toscanos e incorpora preceptos técnicos y rituales de construcción.

El libro V se dedica a los edificios de utilidad pública: foros, basílicas, erarios, cárceles, curias, teatros, pórticos, baños, palestras y puertos. En este apartado, Vitruvio demuestra sus conocimientos técnicos, especialmente en lo relativo a teatros y puertos, donde describe el uso de vasos de bronce afinados armónicamente para mejorar la acústica (echea). Se aprecia un carácter innovador al mencionar y describir brevemente una obra propia: la basílica de Fano. El libro VI trata sobre los edificios privados y supone un distanciamiento respecto a los tratadistas griegos, pues Vitruvio reflexiona sobre cómo el clima y las costumbres determinan las diferencias en la disposición de las viviendas griegas y romanas. El libro VII ofrece preceptos prácticos para los acabados, como enjalbegados, pavimentos y decoraciones esculpidas o pintadas, que confieren a los edificios venustatem y firmitatem.

En el libro VIII, Vitruvio se presenta como un estudioso de la hidráulica y constructor de conductos hidráulicos y aborda cuestiones relacionadas con la ingeniería del agua, incluyendo métodos para descubrir manantiales subterráneos observando la vegetación y los vapores matutinos. El libro IX trata de problemas geométricos y astronómicos aplicados a la gnomónica. Finalmente, en el libro X, retomando conocimientos griegos, se abordan la mecánica y las máquinas de paz y de guerra. En esta última parte, el autor se adentra en un campo de gran interés para él, aunque su lectura resulta difícil para el lector moderno debido a la pérdida de las ilustraciones originales y a la ausencia de un lenguaje técnico consolidado en latín. En este sentido, Vitruvio intentó crear un nuevo lenguaje técnico para describir la arquitectura, transliterando términos griegos o inventándolos en latín, un esfuerzo que algunos especialistas modernos han valorado como innovador.

Conceptualmente, el pensamiento de Vitruvio se inspira en un racionalismo aritmético heredado de la escuela pitagórica, que se complica al combinarse con principios prácticos. La experiencia constructiva interviene continuamente en su juicio, por lo que, desde un punto de vista teórico, algunas ideas resultan confusas y otras categorías no pueden interpretarse con seguridad, como ordinatiodispositiodistributioeuritmia o symmetria.  Entre sus conceptos más influyentes se encuentra la tríada vitruviana: la estabilidad, la utilidad y la belleza (firmitas, utilitas y venustas), que se presentan como cualidades inseparables de una estructura bien concebida. Estas ideas no solo se aplican a edificios públicos, sino también a las residencias privadas, especialmente a las villas de los más ricos, en las que Vitruvio hace hincapié en la decoración interior, la pintura mural y el estuco, así como en la orientación y la función de cada estancia.

A lo largo de los siglos, De Architectura tuvo una fortuna variable. Aunque se conoció y se empleó en la Edad Media —siendo copiado en monasterios como el de Saint Gall—, no ejerció una verdadera influencia sobre el pensamiento artístico hasta el Renacimiento, cuando figuras como León Battista Alberti retomaron y difundieron sus ideas. El redescubrimiento y la difusión del tratado se vieron favorecidos por la imprenta y la edición príncipe de 1486, publicada en Roma por Giovanni Sulpicio da Veroli, resultó decisiva para que los artistas renacentistas accedieran a las formas arquitectónicas de la antigüedad grecorromana. En el siglo XVI, la fama de Vitruvio superó los méritos reales de su obra y se convirtió en un canon rígido de la arquitectura antigua, interpretado de manera normativa en muchos tratados posteriores. En este periodo, el tratado se publicó en numerosos países y se consolidó como una fuente documental insustituible, no solo por su información sobre arquitectura, sino también sobre pintura y escultura, así como por las noticias que aporta sobre artistas y obras.

La influencia de Vitruvio se observa tanto en la evolución de la arquitectura renacentista como en la creación de imágenes emblemáticas como el Hombre de Vitruvio de Leonardo da Vinci (c. 1490). Este dibujo se basó en pasajes de De Architectura y refleja la idea, que se remonta al pensamiento pitagórico y platónico, de que el cuerpo humano es un modelo de proporción y armonía. La idea de que la geometría se deriva de la forma humana y de que las proporciones del cuerpo pueden inscribirse en figuras geométricas como el círculo y el cuadrado convirtió al Hombre de Vitruvio en un símbolo de la conexión entre la naturaleza, las matemáticas y la arquitectura.

Entre las traducciones más importantes destaca la versión italiana de Cesare Cesariano, publicada en 1512 en Como bajo el título Di Lucio Vitruvio Pollione e Cesare Augusto de Architetture… translato in vulgare sermone commentato et affigurato da Cesare Cesariano. Esta edición fue el primer intento de traducir el tratado al italiano y se acompañó de un extenso comentario con numerosas citas de autores clásicos como Plinio el Viejo. Aunque fue criticada por la oscuridad de su lenguaje, supuso un avance importante, ya que se revisaron los códices con método y se ofreció una rica presentación tipográfica. Sus adiciones y comentarios ejercieron una gran influencia en ediciones posteriores hasta que la traducción veneciana de Daniele Barbaro, ilustrada por Andrea Palladio, la superó en claridad y rigor.

En conjunto, Vitruvio puede considerarse una figura clave en la historia de la arquitectura y la ingeniería. Su tratado no solo documenta la técnica constructiva romana, sino que también plantea principios teóricos sobre proporción, belleza y funcionalidad que han perdurado a lo largo de los siglos y siguen siendo una referencia en la cultura arquitectónica occidental.

Dejo un par de videos sobre este eminente personaje. Espero que os sean de interés.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Nueva colaboración internacional: estancia de investigación del profesor Élcio Cassimiro Alves

Profesores Víctor Yepes y Élcio C. Alves

Nuestro grupo de investigación se siente especialmente orgulloso y afortunado de recibir con regularidad a profesores de reconocido prestigio internacional que visitan la Universitat Politècnica de València para colaborar, investigar y compartir experiencias. En entradas anteriores ya he comentado estancias y visitas tan relevantes como la del profesor Dan M. Frangopol, la del profesor Gizo Parskhaladze, o la del profesor Moacir Kripka, todas ellas realizadas junto a nuestro grupo en el ICITECH.

En esta línea de colaboración internacional, la Universitat Politècnica de València (UPV) acoge durante diez meses la estancia de investigación del doctor Élcio Cassimiro Alves, ingeniero civil y profesor de la Universidad Federal de Espírito Santo (UFES, Brasil). Esta estancia, que se desarrolla entre enero y octubre de 2026, tiene como objetivo reforzar la colaboración científica con el grupo de investigación del profesor Víctor Yepes, especialmente en los ámbitos de la optimización estructural y de la sostenibilidad en ingeniería civil.

El profesor Alves cuenta con una sólida trayectoria académica y docente. En la UFES imparte docencia en los grados de Ingeniería Civil y de Arquitectura, así como en los programas de máster y de doctorado en Ingeniería Civil. A lo largo de su carrera ha asumido importantes responsabilidades de gestión académica, entre ellas la coordinación de los grados y másteres en ingeniería civil, periodo durante el cual impulsó de manera decisiva la creación del programa de doctorado en esta disciplina en su universidad.

Más allá de su actividad estrictamente académica, destaca también su compromiso social. Ha coordinado proyectos de extensión universitaria vinculados a la ONG Ingenieros Sin Fronteras, participando en iniciativas orientadas a la transferencia del conocimiento de la ingeniería a comunidades vulnerables, lo cual se alinea directamente con la visión contemporánea de la ingeniería como herramienta de transformación social.

Durante su estancia posdoctoral en la UPV, financiada por la Fundación de Apoyo a la Investigación del Espíritu Santo (FAPES, Brasil), el profesor Cassimiro Alves trabajará estrechamente con el grupo del profesor Víctor Yepes en líneas de investigación comunes. Su trabajo se centra en la optimización estructural, con especial énfasis en criterios de sostenibilidad y en la reducción del impacto ambiental, abordando temas como la minimización de emisiones de CO₂, el análisis estructural lineal y no lineal, el hormigón armado y las estructuras mixtas de acero y hormigón.

Este tipo de estancias refuerza la internacionalización de la investigación, favorece el intercambio de conocimientos y experiencias y contribuye al desarrollo de soluciones innovadoras para uno de los grandes retos actuales de la ingeniería civil: diseñar estructuras más eficientes, seguras y sostenibles. Sin duda, la colaboración entre la UFES y la UPV durante estos meses será una oportunidad enriquecedora para ambas instituciones y para el avance de la investigación en ingeniería estructural.

 

Vivienda social sostenible: un enfoque integrador de ciclo de vida y evaluación multicriterio

Acaban de publicar un artículo nuestro en Sustainable Cities and Society, una de las revistas de mayor impacto científico, ubicada en el primer decil del JCR. En este trabajo se propone un enfoque integrador basado en el ciclo de vida y en métodos de evaluación multicriterio para analizar la vivienda social sostenible. La investigación se enmarca en el proyecto RESILIFE, que dirijo como investigador principal en la Universitat Politècnica de València. A continuación, se presenta un resumen del trabajo.

Los principales resultados revelan que el sistema Light Steel Frame (LSF) es la alternativa más sostenible, ya que logra un equilibrio superior entre la eficiencia en el uso de los recursos, la durabilidad y la reducción del mantenimiento. Un descubrimiento crucial es el papel de la dimensión social, que representó casi el 40 % del peso total en la evaluación, por encima de las dimensiones económica y medioambiental. El análisis causal identifica el coste de construcción, la funcionalidad y los agentes de la cadena de valor como los principales factores que condicionan el rendimiento sostenible del resto del sistema.

El artículo presenta un marco metodológico integrador que combina evaluaciones basadas en el ciclo de vida —análisis de ciclo de vida (LCA), análisis de coste del ciclo de vida (LCC) y análisis de ciclo de vida estocástico (S-LCA)— con técnicas avanzadas de decisión multicriterio: método mejor-peor (BWM), análisis DEMATEL difuso y análisis MARCOS. Esta integración permite incorporar ponderaciones de expertos, modelar relaciones causales entre criterios y sintetizar resultados frente a soluciones ideales o anti-ideales, lo que aumenta la transparencia en la priorización de alternativas constructivas. Este enfoque se ha aplicado a un caso real de vivienda social en Perú, en el que se han comparado cinco sistemas estructurales representativos: LSF, LBSPS, RCW, RCF-M y RCF-CP. El estudio ha proporcionado pruebas empíricas sobre los costes del ciclo de vida, los impactos ambientales y las prestaciones sociales que respaldan las decisiones de diseño y las políticas.

El estudio analiza cinco sistemas constructivos adaptados a contextos de urbanización rápida (específicamente en Lima, Perú), que van desde métodos convencionales hasta industrializados:

Entre las aportaciones metodológicas, la combinación de BWM con una agregación basada en credenciales profesionales reduce la carga de comparación y atenúa los sesgos en la agregación de juicios, mientras que la extensión difusa de DEMATEL permite identificar los criterios que funcionan como impulsores del sistema y los que actúan como receptores. Esta capacidad para distinguir entre causas y efectos permite aclarar qué palancas hay que modificar para lograr efectos amplificados en la sostenibilidad. Por último, la validación cruzada con otros métodos de MCDM y los ensayos de sensibilidad aumentan la confianza en la estabilidad de los resultados.

Discusión de resultados

Los análisis económicos muestran que, en un horizonte de 50 años y por metro cuadrado, los sistemas basados en acero ligero (LSF) tienen los menores costes totales de ciclo de vida, mientras que algunas alternativas prefabricadas, como el LBSPS, tienen los mayores costes de construcción. Estos datos implican que si solo se tiene en cuenta la inversión inicial, se pueden tomar decisiones subóptimas, ya que no se consideran el mantenimiento y el fin de vida.

En términos ambientales, la evaluación con ReCiPe (endpoint) sitúa al LSF como el sistema con el menor impacto agregado, principalmente debido a su menor intensidad material. Por el contrario, las soluciones con mayor presencia de hormigón y ladrillo presentan una carga superior, especialmente en la dimensión de recursos. Esta diferenciación pone de manifiesto la influencia del perfil material y del proceso de fabricación en la huella medioambiental de la vivienda y sugiere que, en la práctica profesional, se deben priorizar medidas que reduzcan la demanda de materiales energéticamente intensivos en la fase de fabricación.

La S-LCA revela una tensión entre la industrialización y la exposición social: las alternativas más industrializadas, como el LSF y el LBSPS, presentan mayores valores de exposición laboral y de funcionalidad exigente, mientras que las tipologías convencionales de hormigón muestran menores riesgos sociales, medidos en Medium Risk Hours. Este resultado indica que la adopción de sistemas industrializados exige prestar atención explícita a la gestión del trabajo, la formación y la coordinación de la cadena de suministro para evitar que los impactos negativos se transfieran al personal y a la comunidad.

La síntesis mediante MARCOS ubica a LSF como la alternativa mejor valorada en el escenario analizado, seguida de RCW y RCF-M. Los sistemas LBSPS y RCF-CP quedan en posiciones inferiores. Las pruebas de sensibilidad (variación de los pesos de ±15 %, escenarios de distancia de transporte y estratificación de expertos) muestran que el orden general se mantiene, lo que indica cierta robustez frente a perturbaciones razonables en los supuestos. Estos resultados permiten extraer una conclusión práctica: en contextos con características similares a las del caso estudiado, las soluciones ligeras industrializadas pueden mejorar la relación entre coste, impacto ambiental y rendimiento técnico, siempre que se gestionen adecuadamente los aspectos sociales y de ejecución.

Un aspecto metodológico de interés es la identificación de los criterios causales. La técnica DEMATEL identifica el coste de construcción, la funcionalidad y las interacciones con la cadena de valor como criterios que inciden en el resto del sistema, mientras que los indicadores ambientales, como la salud humana y la conservación de los ecosistemas, se presentan principalmente como efectos. Esto sugiere que las intervenciones en los costes de construcción y en la organización funcional pueden provocar mejoras indirectas en la sostenibilidad ambiental y social, lo cual resulta relevante al diseñar políticas y contratos que incentiven las prácticas integradas.

Futuras líneas de investigación

Una línea de trabajo inmediata consiste en ampliar la diversidad y el tamaño del panel de agentes consultados para captar las variaciones en las prioridades y las competencias profesionales. Esto permitiría evaluar la sensibilidad de las ponderaciones y mejorar la representatividad social del proceso. Otra opción es trasladar y recalibrar el marco a otros contextos geográficos y tipologías constructivas, como viviendas de mayor altura o equipamientos públicos, para evaluar la transferibilidad de la clasificación y de la estructura causal identificada en este estudio.

En el ámbito técnico, utilizar datos primarios de obras reales en lugar de bases de datos secundarias aumentará la fiabilidad de la evaluación del ciclo de vida (LCA) y del análisis del ciclo de vida (S-LCA) y mejorará la precisión de los modelos de coste del ciclo de vida (LCC). La incorporación de enfoques dinámicos, como la LCA dinámica o las simulaciones acopladas a plataformas BIM, puede facilitar las evaluaciones en etapas iniciales y permitir análisis de sensibilidad más detallados relacionados con la sustitución de componentes, las reparaciones y las evoluciones tecnológicas. Asimismo, explorar técnicas de optimización multiobjetivo que vinculen explícitamente las restricciones económicas con las metas ambientales y sociales podría proporcionar soluciones de diseño más operativas para promotores y organismos públicos.

Desde la perspectiva social, investigar intervenciones concretas de capacitación, reorganización de procesos y de contratos que reduzcan la exposición de los trabajadores a los sistemas industrializados aportará pruebas sobre cómo mantener los beneficios ambientales y económicos sin incrementar los impactos sociales. Por último, el estudio de la interacción entre políticas públicas, incentivos financieros y la adopción tecnológica ofrecerá información útil para diseñar instrumentos que favorezcan soluciones constructivas más equilibradas en el marco de los programas de vivienda social.

Conclusión

El estudio proporciona un marco metodológico replicable y sólido que combina la evaluación del ciclo de vida con técnicas multicriterio capaces de representar las interdependencias y la incertidumbre. Los resultados empíricos indican que, en el caso analizado, las soluciones ligeras industrializadas presentan ventajas en términos de coste y de huella ambiental, aunque se requieren medidas específicas para reducir los riesgos sociales derivados de su ejecución. La metodología y los resultados obtenidos sientan las bases para orientar las políticas y las decisiones de los proyectos y ponen de manifiesto la necesidad de ampliar los datos primarios, diversificar la muestra de expertos y conectar el análisis con herramientas digitales de diseño y gestión.

Referencia:

LUQUE CASTILLO, X.; YEPES-BELLVER, L.; YEPES, V. (2026). Towards Sustainable Social Housing: An Integrative Life Cycle and Multi-Criteria ApproachSustainable Cities and Society, 137, 107164. DOI:10.1016/j.scs.2026.107164

Dejo a continuación el artículo completo, ya que está publicado en abierto.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.