Más allá de la opinión: en busca de la evidencia científica.

¿Cómo entendemos realmente el comportamiento humano y el funcionamiento de la sociedad? A menudo, nos basamos en la intuición o en ideas preconcebidas sobre lo que es «científico». Asociamos la ciencia con laboratorios, experimentos y datos exactos, mientras que el estudio de lo social nos parece más ambiguo o «blando».

Sin embargo, la investigación social es sorprendentemente rigurosa. Sus métodos y principios nos permiten comprender el mundo y desarrollar un pensamiento crítico y estructurado.

En este artículo, veremos cinco ideas impactantes que surgen de la investigación social. Prepárate, porque algunas de tus certezas podrían cambiar.

1. No es el objeto de estudio, sino el método, lo que define a la ciencia.

Una de las primeras barreras con las que nos encontramos al pensar en las ciencias sociales es el objeto de estudio: el ser humano. A diferencia de las células o los planetas, las personas somos sujetos conscientes, llenos de simbolismo y percepciones. Esto lleva a muchas personas a pensar que no pueden ser objeto de estudio científico.

Sin embargo, aquí radica la primera gran idea: lo que distingue a la ciencia de otras formas de conocimiento no es el tema que investiga, sino el rigor de su método. Da igual si estudias la interacción de partículas o las dinámicas de un grupo social; lo importante es cómo lo haces.

«Si no hay método, no hay ciencia».

Por tanto, la cientificidad de las ciencias sociales se basa en el cumplimiento de reglas metodológicas formalizadas. Principios como el rigor y la parsimonia, la verificación empírica y la búsqueda de formulaciones de tipo general (universales) son los pilares que sustentan cualquier investigación válida, independientemente de lo complejo o subjetivo que pueda parecer su objeto de estudio.

2. Que algo sea cuantitativo no lo convierte automáticamente en objetivo (y viceversa).

Vivimos en un mundo obsesionado con los datos. Tendemos a creer que un porcentaje, una estadística o un número son sinónimos de verdad objetiva, mientras que un discurso o una opinión se considera meramente subjetivo. La idea de que los datos cuantitativos son inherentemente objetivos y más científicos es, según la propia metodología, falsa.

La objetividad no reside en la naturaleza del dato (un número frente a una palabra), sino en el método con el que se ha obtenido y analizado. Un estudio cuantitativo basado en un mal diseño de encuesta o en una muestra no representativa puede ofrecer resultados completamente sesgados y poco objetivos. Del mismo modo, un análisis cualitativo de discursos puede ser extremadamente riguroso y objetivo si se sigue un procedimiento sistemático y controlado.

Esta idea nos invita a ser más críticos con la información que consumimos. La próxima vez que veas una estadística impactante, no te quedes en el número; pregúntate cuál es el método que hay detrás.

«¡Ojo! Que trabajemos con discursos y percepciones no significa que la investigación se base en la subjetividad del investigador ni que la investigación sea subjetiva. Sería lo mismo que decir que, por trabajar con números o porcentajes, los resultados son objetivos, sin tener en cuenta cómo se han obtenido esos datos».

3. En toda ciencia hay un factor humano: el propio investigador.

La imagen popular del científico es la de una figura neutral e imparcial que observa la realidad sin afectarla. Sin embargo, la verdad es que en toda investigación científica se incluyen criterios subjetivos del investigador.

El verdadero rigor científico no consiste en negar esta subjetividad, sino en ser consciente de ella, saber identificarla y limitarla para que no condicione los resultados de la investigación. Esto es especialmente crucial en las ciencias sociales, donde el objeto de estudio es, a su vez, un sujeto consciente. El investigador debe esforzarse por distanciarse y seguir el método de forma disciplinada, empleando mecanismos como el «distanciamiento» y la «extrañeza» al analizar el objeto».

Este principio humaniza la ciencia. Nos recuerda que es una actividad humana, llevada a cabo por personas, y que requiere no solo conocimientos técnicos, sino también autoconciencia, disciplina y honestidad intelectual.

4. Antes de elegir una técnica, debes definir qué quieres saber.

Imagina que un carpintero decide usar un martillo antes de saber si tiene que clavar, atornillar o serrar. Suena absurdo, ¿verdad? Pues bien, en la investigación (y en muchos otros ámbitos de la vida) es un error muy común. A menudo, nos enamoramos de una herramienta —una encuesta, una entrevista, un grupo de discusión— sin haber definido previamente la pregunta fundamental.

Un principio clave de la metodología de investigación es que el objeto de estudio y los objetivos deben definirse antes de decidir qué técnicas se utilizarán. La herramienta debe adaptarse al problema y no al revés. ¿Necesitas datos generalizables de una población grande? Quizás lo más adecuado sea una encuesta. ¿Quieres profundizar en los significados y las experiencias de un grupo concreto? Las entrevistas pueden ser más adecuadas.

¿Cómo resume a la perfección el principio metodológico: «El diseño metodológico se construye a partir del objeto y de los objetivos del estudio»? Esta lección es universal: la estrategia siempre debe preceder a la táctica.

5. La mejor investigación no elige bando, sino que combina métodos.

El antiguo debate entre la investigación cuantitativa (basada en números) y la cualitativa (basada en discursos) está cada vez más superado. La investigación social moderna no los concibe como enfoques opuestos e irreconciliables, sino como herramientas complementarias que, utilizadas conjuntamente, ofrecen una visión mucho más completa de la realidad.

Cada método tiene su propia lógica y propósito. La investigación cuantitativa, heredera del positivismo, sigue una lógica de verificación perfectamente diseñada para su objetivo: la búsqueda de leyes generales mediante un enfoque cuantitativo. Por su parte, la investigación cualitativa, más ligada al humanismo, se basa en una lógica de descubrimiento, indispensable para su objetivo, que consiste en la búsqueda de los significados de la acción humana.

Las estrategias más potentes son las de «articulación metodológica», como la complementación (emplear diferentes técnicas para distintos objetivos) o la triangulación, que consiste en utilizar distintas metodologías para validar datos sobre un mismo objetivo. Este enfoque integrador permite construir un conocimiento más rico, robusto y matizado que cualquier método por sí solo podría ofrecer.

Una nueva forma de entender el conocimiento.

Como hemos visto, la investigación social, lejos de ser una «ciencia blanda», está llena de principios rigurosos y sofisticados que desafían muchas de nuestras suposiciones sobre el conocimiento, la objetividad y la verdad. Nos enseña que el «cómo» es tan importante como el «qué», que los números no siempre dicen la verdad y que la clave para entender la complejidad humana a menudo radica en combinar diferentes perspectivas.

Ahora que sabes que la objetividad es más compleja de lo que parece y que el método es la clave, ¿qué «verdad» aceptada en tu día a día empezarás a cuestionar?

En esta conversación puedes descubrir las claves de las técnicas de investigación social.

Os dejo un vídeo que resume bien las ideas fundamentales de estas técnicas.

Os dejo este documento de síntesis de estas técnicas.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Optimización heurística mediante recocido simulado (simulated annealing)

El recocido simulado (simulated annealing, SA) es una técnica metaheurística estocástica potente diseñada para abordar problemas de optimización global en espacios de búsqueda grandes y complejos. Inspirado en el proceso de recocido de la metalurgia, el algoritmo explora ampliamente el espacio de soluciones a «temperaturas» elevadas y se centra gradualmente en las regiones más prometedoras a medida que la temperatura desciende. Su característica distintiva es la capacidad de aceptar soluciones peores con una probabilidad que disminuye con el tiempo, lo que le permite escapar de mínimos locales y evitar la convergencia prematura.

Este método es particularmente eficaz para problemas NP-hard, como el problema del viajante, la planificación de tareas y el diseño de circuitos, en los que los algoritmos exactos resultan inviables desde el punto de vista computacional. Aunque el SA no garantiza la obtención del óptimo global, produce soluciones de alta calidad en tiempos de cálculo prácticos de forma consistente. El éxito del algoritmo depende en gran medida del ajuste preciso de sus parámetros, como la temperatura inicial, el esquema de enfriamiento y la longitud de las iteraciones en cada nivel de temperatura. Su robustez y versatilidad lo han consolidado como una herramienta fundamental en campos tan diversos como la ingeniería estructural, la química molecular, el procesamiento de imágenes y la asignación de recursos.

Principios fundamentales y origen

El recocido simulado (SA), también conocido como templado simulado, recristalización simulada o enfriamiento simulado, es una técnica metaheurística que adapta un proceso físico al ámbito de la optimización.

  • Definición: El SA es un método estocástico de optimización global. Su estrategia se basa en la analogía con el recocido metalúrgico, proceso en el que un material se calienta y luego se enfría de forma controlada para alcanzar una estructura cristalina estable y de baja energía.
  • Mecanismo central: El algoritmo mejora las soluciones de forma iterativa. Acepta incondicionalmente las soluciones candidatas que son mejores que la actual y, con una probabilidad decreciente, también acepta movimientos que la empeoran. Esta aceptación controlada de transiciones «cuesta arriba» es clave para evitar quedar atrapado en óptimos locales y para permitir un cambio gradual de la exploración a la explotación del espacio de soluciones.
  • Origen: El SA fue desarrollado de forma independiente por Kirkpatrick, Gelatt y Vecchi (1983) y por Černý (1985). Su base teórica se encuentra en el algoritmo de Metropolis (1953), que se aplicó originalmente a la simulación de sistemas termodinámicos.

Mecanismo de funcionamiento y analogía termodinámica.

El SA establece un paralelismo directo entre la optimización y la termodinámica estadística, donde los conceptos se relacionan de la siguiente manera:

  • Función objetivo: corresponde a la energía de un sistema físico. El objetivo es minimizar dicha energía.
  • Solución óptima: representa una estructura cristalina de baja energía, que es un estado estable del sistema.
  • Temperatura (T): Es el parámetro que regula el comportamiento estocástico. A altas temperaturas, el sistema es más volátil y explora más; a bajas, se estabiliza.

El proceso de optimización se rige por el factor de Boltzmann, exp(-ΔE/T), donde ΔE es el cambio en la energía (valor de la función objetivo) de la nueva configuración y T es la temperatura actual.

El criterio de aceptación de una nueva solución s' a partir de una solución actual s sigue la regla de Metropolis:

  1. Si el cambio de energía ΔE = f(s') - f(s) es menor o igual a cero (ΔE ≤ 0), la nueva solución es mejor o igual, por lo que se acepta siempre.
  2. Si el cambio de energía es positivo (ΔE > 0), la nueva solución es peor. Se acepta con una probabilidad P = exp(-ΔE/T).

Esta probabilidad es alta a temperaturas elevadas, lo que fomenta la diversificación y la exploración global. A medida que T se acerca a cero, la probabilidad de aceptar malos movimientos disminuye drásticamente, haciendo que el algoritmo sea más selectivo y se comporte de manera “codiciosa” (greedy), intensificando la búsqueda en regiones prometedoras.

Componentes clave del algoritmo

El rendimiento del SA depende de la calibración precisa de su «esquema de enfriamiento». Sus componentes matemáticos y de procedimiento clave son los siguientes:

Componente Descripción
Temperatura inicial (T₀) Se elige un valor lo suficientemente alto como para asegurar una alta probabilidad de aceptación inicial, lo que permite una exploración amplia del espacio de soluciones. El método de Medina (2001) sugiere ajustarla para que la tasa de aceptación de soluciones de mayor coste se sitúe entre el 20% y el 40%.
Esquema de enfriamiento Define cómo disminuye la temperatura. El más común es el esquema geométrico: T(t+1) = α * Tt, donde α es un coeficiente de reducción típicamente en el rango de [0.8, 0.99]. Una refrigeración rápida corre el riesgo de atrapar la solución en estados metaestables, mientras que una lenta mejora la fiabilidad a un mayor coste computacional.
Longitud de la cadena de Markov Es el número de iteraciones que se ejecutan en cada nivel de temperatura. Debe ser lo suficientemente largo como para que el sistema alcance un estado de equilibrio a esa temperatura antes de seguir enfriando.
Criterio de parada Determina cuándo finaliza el algoritmo. Las condiciones comunes incluyen que la temperatura caiga por debajo de un umbral predefinido (p. ej., el 1% de la temperatura inicial) o que las mejoras en la solución se estabilicen.

Variantes y mejoras

Con el fin de mejorar la eficiencia y la adaptabilidad del SA, se han desarrollado diversas variantes y modificaciones.

  • Estrategia “Best-So-Far”: Mantiene en memoria la mejor solución encontrada hasta el momento, independientemente del estado actual de la búsqueda.
  • Esquemas de recalentamiento: Cuando el sistema se estanca en un óptimo local, la temperatura se incrementa temporalmente para promover una nueva fase de exploración (Dowsland, 1993).
  • Hibridación: Se integra el SA con otros métodos, como algoritmos genéticos, branch-and-bound o programación entera, para aprovechar sus fortalezas complementarias.
  • Implementaciones paralelas: Distribuyen los ensayos entre múltiples procesadores para mejorar la escalabilidad y la velocidad de convergencia.
  • Evaluaciones aproximadas de ΔE: Se utilizan en problemas de alta dimensionalidad para acelerar el cálculo.

Threshold Accepting (TA)

Una variante notable es el Threshold Accepting (TA), introducido por Dueck y Scheuer en 1990. Este método sustituye la regla de aceptación probabilística por una regla determinista: se acepta una solución subóptima si su empeoramiento es inferior a un umbral predefinido.

  • Se acepta una solución subóptima si su empeoramiento (degradación) es inferior a un umbral predefinido.
    Este umbral disminuye gradualmente durante la búsqueda, de forma análoga al esquema de enfriamiento del SA.

Estudios empíricos han demostrado que el TA puede tener un rendimiento comparable o incluso superior al del SA en problemas de planificación, programación y asignación de recursos (Lin et al., 1995).

Dominios de aplicación y ejemplos notables

El SA ha demostrado ser una herramienta versátil y fiable, especialmente para problemas NP-hard para los que no existen solucionadores específicos.

Dominio Aplicación específica y referencia
Enrutamiento Resolución del Problema del Viajante de Comercio (TSP) y sus variantes con restricciones de tiempo (Kirkpatrick et al., 1983).
Planificación Solución de problemas de job-shop scheduling mediante un equilibrio entre diversificación e intensificación (van Laarhoven et al., 1992).
Asignación de recursos Manejo de la complejidad del Problema de Asignación Cuadrática (QAP) en el diseño de instalaciones (Connolly, 1990).
Procesamiento de imágenes Métodos de relajación estocástica para resolver problemas de segmentación y restauración de imágenes (Geman y Geman, 1984).
Química molecular Herramienta estándar para la cristalografía macromolecular y el refinamiento conformacional (Brünger, 1992).
Ingeniería estructural – Diseño de puentes de hormigón pretensado (Martí et al., 2013).

– Optimización paramétrica de muros de contención (Yepes et al., 2008).

– Optimización del tamaño y la disposición de las estructuras de acero (Bresolin et al., 2022).

– Minimización de costes e impacto ambiental (CO₂) en el hormigón armado (Santoro y Kripka, 2020; Medeiros y Kripka, 2014).

– Diseño de estructuras marinas bajo incertidumbre (Toğan, 2012).

Factores críticos para el rendimiento.

El éxito en la aplicación del SA depende en gran medida de la formulación del problema:

  1. Representación del espacio de configuración: La forma en que se define matemáticamente el espacio de soluciones es fundamental.
  2. Definición de movimientos: Es esencial elegir un conjunto adecuado de «movimientos» o ajustes que permitan pasar de una solución a otra vecina. Las representaciones efectivas aseguran que las transiciones entre mínimos locales impliquen pequeñas diferencias de coste, lo que reduce las «barreras de energía».
  3. Función objetivo: Una función objetivo bien elegida puede modificar la distribución de los mínimos locales hacia valores de menor coste promedio, lo que aumenta la probabilidad de encontrar soluciones mejores.
  4. Manejo de restricciones: En los problemas con restricciones, la búsqueda puede limitarse a regiones factibles o pueden permitirse soluciones infactibles penalizándolas en la función objetivo. Este último enfoque puede simplificar la estructura de vecindad y suavizar la topología del paisaje de búsqueda, lo que mejora la convergencia.

Os dejo un vídeo que grabé hace unos años para explicar esta metaheurística. Espero que os sea de interés.

Referencias:

Bresolin, J. M., Pravia, Z. M., & Kripka, M. (2022). Discrete sizing and layout optimization of steel truss-framed structures with Simulated Annealing Algorithm. Steel and Composite Structures, 44(5), 603–617. https://doi.org/10.12989/scs.2022.44.5.603

Brünger, A. T. (1992). X-PLOR Version 3.1: A system for X-ray crystallography and NMR. Yale University Press.

Černý, V. (1985). Thermodynamical approach to the travelling salesman problem: An efficient simulation algorithm. Journal of Optimization Theory and Applications, 45(1), 41–51. https://doi.org/10.1007/BF00940812

Connolly, D. T. (1990). An improved annealing scheme for the QAP. European Journal of Operational Research, 46(1), 93–100. https://doi.org/10.1016/0377-2217(90)90301-Q

Dowsland, K. A. (1993). Simulated annealing. In C. R. Reeves (Ed.), Modern heuristic techniques for combinatorial problems (pp. 20–69). Wiley.

Dueck, G., & Scheuer, T. (1990). Threshold accepting: A general purpose optimization algorithm appearing superior to simulated annealing. Journal of Computational Physics, 90(1), 161–175. https://doi.org/10.1016/0021-9991(90)90201-B

Geman, S., & Geman, D. (1984). Stochastic relaxation, Gibbs distributions, and the Bayesian restoration of images. IEEE Transactions on Pattern Analysis and Machine Intelligence, 6(6), 721–741. https://doi.org/10.1109/TPAMI.1984.4767596

Kirkpatrick, S., Gelatt, C. D., & Vecchi, M. P. (1983). Optimization by simulated annealing. Science, 220(4598), 671–680. https://doi.org/10.1126/science.220.4598.671

Lin, C. K. Y., Haley, K. B., & Sparks, C. (1995). A comparative study of threshold accepting and simulated annealing algorithms in three scheduling problems. European Journal of Operational Research, 83(2), 330–346. https://doi.org/10.1016/0377-2217(95)00011-E

Martí, J. V., González-Vidosa, F., Yepes, V., & Alcalá, J. (2013). Design of prestressed concrete precast road bridges with hybrid simulated annealing. Engineering Structures, 48, 342–352. https://doi.org/10.1016/j.engstruct.2012.09.014

Medeiros, F., & Kripka, M. (2014). Optimization of reinforced concrete columns according to cost and CO₂ emissions. Engineering Structures, 59, 185–194. https://doi.org/10.1016/j.engstruct.2013.10.045

Medina, J. R. (2001). Estimation of incident and reflected waves using simulated annealing. Journal of Waterway, Port, Coastal and Ocean Engineering, 127(4), 213–221. https://doi.org/10.1061/(ASCE)0733-950X(2001)127:4(213)

Metropolis, N., Rosenbluth, A. W., Rosenbluth, M. N., Teller, A. H., & Teller, E. (1953). Equation of state calculations by fast computing machines. The Journal of Chemical Physics, 21(6), 1087–1092. https://doi.org/10.1063/1.1699114

Santoro, J. F., & Kripka, M. (2020). Minimizing environmental impact in the design of reinforced concrete elements using simulated annealing. Computers and Concrete, 25(2), 111–118. https://doi.org/10.12989/cac.2020.25.2.111

Toğan, V. (2012). Optimization of monopod offshore tower under uncertainties with gradient-based and gradient-free optimization algorithms. Advances in Structural Engineering, 15(12), 2021–2032. https://doi.org/10.1260/1369-4332.15.12.2021

van Laarhoven, P. J. M., & Aarts, E. H. L. (1987). Simulated annealing: Theory and applications (Mathematics and Its Applications, Vol. 37). Springer. https://doi.org/10.1007/978-94-015-7744-1

van Laarhoven, P. J. M., Aarts, E. H. L., & Lenstra, J. K. (1992). Job shop scheduling by simulated annealing. Operations Research, 40(1), 113–125. https://doi.org/10.1287/opre.40.1.113

Yepes, V., Alcalá, J., Perea, C., & González-Vidosa, F. (2008). A parametric study of optimum earth retaining walls by simulated annealing. Engineering Structures, 30(3), 821–830. https://doi.org/10.1016/j.engstruct.2007.05.023

Yepes, V. (2026). Heuristic Optimization Using Simulated Annealing. In: Kulkarni, A.J., Mezura-Montes, E., Bonakdari, H. (eds) Encyclopedia of Engineering Optimization and Heuristics. Springer, Singapore. https://doi.org/10.1007/978-981-96-8165-5_48-1

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Más allá del ladrillo? El sorprendente futuro de la vivienda social sostenible

Introducción: El reto de los 1 600 millones.

La crisis de la vivienda no es solo una estadística, sino una emergencia humanitaria. Según UN-Habitat, más de 1 600 millones de personas carecen de una vivienda adecuada y, para cerrar esta brecha, el mundo debe enfrentarse al titánico reto de construir 96 000 viviendas al día hasta el año 2030. Este desafío tiene un rostro concreto en distritos como Carabayllo, en Lima (Perú), una zona de expansión urbana acelerada donde la necesidad de soluciones rápidas suele chocar con la falta de recursos y la precariedad constructiva.

Ante este panorama, surge la pregunta central: ¿es posible construir viviendas económicas y rápidas que también respeten el medio ambiente y la dignidad de quienes las habitan? Para responderla, la ciencia del urbanismo recurre hoy a métodos avanzados de evaluación, como el análisis del ciclo de vida (LCA), el análisis de costes del ciclo de vida (LCC) y el análisis del ciclo de vida social (S-LCA). Los resultados de aplicar estas herramientas en el contexto peruano revelan que el futuro de la vivienda social no radica en el ladrillo tradicional, sino en la construcción industrializada.

Punto 1: el acero ligero (LSF) es el nuevo referente en materia de sostenibilidad.

En la búsqueda del sistema constructivo ideal, el acero ligero, también conocido como Light Steel Frame (LSF), ha destronado a las opciones convencionales. Su éxito se debe a su equilibrio casi perfecto entre peso, resistencia y sostenibilidad. Al ser un sistema de baja intensidad material, el LSF utiliza los recursos de forma quirúrgica, minimizando el desperdicio que abunda en las obras tradicionales.

Desde el punto de vista financiero, el LSF no solo es competitivo, sino también transformador: reduce el coste inicial de construcción en un 15 % y los costes de fin de vida (demolición y reciclaje) en un asombroso 77 % en comparación con la mampostería confinada (RCF-M). Al ser altamente reciclable, el acero hace que el edificio, al final de su vida útil, no se convierta en escombro, sino en un recurso.

«El Life Cycle Steel Frame (LSF) ha obtenido la máxima puntuación en sostenibilidad en todas las categorías».

Punto 2: lo social ya no es secundario (pesa un 40 %).

Quizás el hallazgo más revolucionario de la investigación es que la sostenibilidad ya no se mide solo en toneladas de CO₂. Los indicadores sociales representaron casi el 40 % del peso total (38,93 %) en la toma de decisiones, superando por primera vez a los factores económicos y ambientales.

Este estudio introduce una métrica basada en el factor humano: las horas de riesgo medio (MRH). En lugar de limitarse a calcular el ahorro de energía, el análisis cuantifica la seguridad del trabajador, las condiciones laborales y el impacto en la comunidad local. Lo fascinante es que estos resultados son robustos: el análisis de sensibilidad (S-BWM) demostró que, independientemente de si el evaluador era un experto sénior con 35 años de experiencia o un especialista júnior, los datos señalaban de manera consistente al LSF como el camino más ético y eficiente.

Punto 3: La trampa del coste inicial frente al ciclo de vida.

En urbanismo sostenible, lo que hoy es barato puede resultar carísimo mañana. Existe una brecha crítica entre el presupuesto de obra y el LCC (costo del ciclo de vida) a 50 años. Aquí es donde entra en juego la funcionalidad (C9): no debemos considerar la vivienda social como un «refugio temporal», sino como un activo permanente que garantiza la dignidad y el patrimonio familiar.

Los sistemas pesados, como los paneles sándwich, pueden prometer rapidez, pero imponen cargas de mantenimiento y de demolición mucho más elevadas. Para evitar esta trampa, la evaluación debe considerar tres momentos:

  • Construcción: el gasto inmediato en materiales y mano de obra especializada.
  • Uso (mantenimiento): la inversión necesaria para que la casa sea habitable y segura (pintura, anticorrosión).
  • Fin de vida (EoL): el coste de «desaparecer» la estructura de forma responsable.

Punto 4: El «efecto dominó» del coste medioambiental.

Gracias al análisis causal DEMATEL, hemos descubierto que la sostenibilidad funciona como un juego de dominó. El coste de construcción es la pieza clave: el motor principal que impulsa el resto de los impactos.

La ciencia nos dice que no podemos mejorar la salud humana (C5), lo cual actúa como un criterio dependiente o «efecto» si simplemente nos enfocamos en indicadores sanitarios aislados. Para proteger la salud de las poblaciones urbanas, debemos «atacar» los impulsores causales: si optimizamos el coste inicial y la gestión de recursos desde el diseño, reduciremos inevitablemente la contaminación y el estrés ambiental que enferma a las ciudades décadas después.

Punto 5: El mito de que lo prefabricado siempre es mejor.

El estudio revela una ironía tecnológica. Los paneles sándwich con conexiones de pernos (LBSPS), que a primera vista parecen la cúspide de la innovación «prefabricada», ocuparon el último lugar en el ranking de sostenibilidad.

¿Por qué este sistema falló en el contexto de Lima? El análisis revela una paradoja: resultó un 20 % más costoso que la mampostería tradicional que pretendía reemplazar. El sistema se penalizó por una cadena de suministro local inmadura y la necesidad de una mano de obra extremadamente especializada. Esto debe servir de advertencia a los responsables de la toma de decisiones: la tecnología sin un marco institucional y un mercado local preparado es solo una solución teórica, no una realidad social.

Conclusión: una brújula para la política de vivienda.

No existe un sistema «perfecto», sino decisiones equilibradas basadas en datos. Mientras el LSF lidera la vanguardia, los muros de hormigón armado (RCW) se consolidan como la segunda opción: una alternativa económicamente sólida y viable en contextos donde la capacidad industrial del acero es limitada.

Como especialistas, nuestra misión es avanzar hacia procesos de evaluación que no sacrifiquen la calidad de vida en aras de la rapidez. Debemos comprender que cada ladrillo o cada perfil de acero es una decisión que afecta la salud y la economía de las generaciones futuras.

Ante el déficit global de vivienda, ¿estamos dispuestos a cambiar nuestra cultura constructiva para garantizar un hogar digno y sostenible para las generaciones futuras?

Aquí tienes una conversación en la que puedes escuchar argumentos sobre este trabajo.

En este vídeo puedes ver un resumen de las ideas más interesantes sobre este tema.

También os dejo un documento resumen, a modo de presentación.

Vivienda Social Sostenibilidad y Decisiones Integrales.pdf

 

Referencia:

LUQUE CASTILLO, X.; YEPES-BELLVER, L.; YEPES, V. (2026). Towards Sustainable Social Housing: An Integrative Life Cycle and Multi-Criteria ApproachSustainable Cities and Society, 137, 107164. DOI:10.1016/j.scs.2026.107164

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.