Todos estamos de acuerdo en que el futuro de la construcción debe ser más ecológico. La descarbonización del entorno construido es una prioridad en la agenda europea y, por intuición, sabemos que debemos favorecer los materiales «verdes». Las etiquetas para productos bajos en carbono parecen una solución obvia y directa para guiar al mercado.
Sin embargo, en el actual debate legislativo, centrado en iniciativas como la Ley de Aceleración de la Descarbonización Industrial (IDAA), la realidad del sector demuestra ser mucho más compleja. La Federación Europea de la Industria de la Construcción (FIEC) ha publicado un análisis estratégico que desmonta varias suposiciones populares y argumenta que las soluciones simplistas no solo son ineficaces, sino que también podrían resultar contraproducentes para la competitividad y la innovación en Europa. Este artículo desglosa las cinco revelaciones más impactantes de su análisis.
Las emisiones bajan, pero por la razón equivocada.
A primera vista, una reducción de las emisiones en industrias de alto consumo energético, como las productoras de acero o cemento, podría parecer una victoria. Sin embargo, el informe de la FIEC encendió una luz de alarma sobre la razón de esta reciente caída. El problema no es que las emisiones bajen, sino el motivo por el que lo hacen. El informe señala que, debido a factores como los altos costes energéticos y la competencia global, la producción industrial europea está en declive.
«Hoy en día, la reducción de las emisiones es con demasiada frecuencia el resultado de una menor producción, en lugar de una mayor eficiencia, una mayor integración del sistema energético y procesos de fabricación descarbonizados…».
Esta observación es crucial. No se trata solo de una mala noticia para la economía, sino de una estrategia climática fallida que simplemente deslocaliza las emisiones en lugar de eliminarlas, y que debilita la capacidad de Europa para construir la infraestructura verde del futuro.
El escepticismo de la industria: ¿por qué las etiquetas verdes son una solución incompleta?
La propuesta de crear etiquetas voluntarias para materiales industriales con bajas emisiones de carbono parece una herramienta lógica. Sin embargo, la FIEC muestra un gran escepticismo sobre su valor real y advierte de varios riesgos potenciales:
Los profesionales no las necesitan: Los equipos de compras no se guían por etiquetas simplificadas. Toman sus decisiones basándose en documentación técnica detallada, como las Declaraciones Ambientales de Producto (DAP o EPDs en inglés), que cuantifican de forma estandarizada el impacto ambiental de un producto a lo largo de su ciclo de vida.
Riesgo de confusión y carga administrativa: Una multiplicación de diferentes etiquetas podría generar confusión y una enorme carga burocrática, afectando especialmente a las pequeñas y medianas empresas (PYMES), que son la columna vertebral del sector.
Fragmentación del mercado: Si cada país establece sus propios umbrales, se corre el riesgo de fragmentar el mercado. No se trata solo de un problema burocrático, sino que socava el principio fundamental del Mercado Único de la UE al crear barreras que impiden a las empresas más innovadoras, independientemente de su país de origen, competir en igualdad de condiciones.
Valor añadido cuestionable: En resumen, no está claro que estas etiquetas aporten un valor real al proceso de toma de decisiones de los profesionales del sector, que ya cuentan con herramientas más sólidas.
El peligro de etiquetar lo incorrecto: el caso del cemento frente al hormigón.
Uno de los argumentos más potentes de la FIEC se centra en el peligro del «etiquetado indirecto». Para ilustrarlo, utilizan el ejemplo del cemento y el hormigón, mostrando cómo centrarse en el material equivocado puede anular los beneficios de una política bienintencionada.
La clave está en comprender que el cemento es un ingrediente y el hormigón es el producto final que adquieren y utilizan las empresas constructoras. Las políticas que se centran exclusivamente en etiquetar el cemento «bajo en carbono» ignoran que muchas de las mayores oportunidades de innovación se encuentran en la fase de producción del hormigón. Por ejemplo, se puede reducir la huella de carbono mediante mezclas innovadoras que logran un rendimiento estructural igual o superior con menos clínker (el componente que más emisiones genera).
Si las políticas solo incentivan un cemento «verde», se desaprovecharán todas estas innovaciones en el ámbito del hormigón. En el peor de los casos, este enfoque podría dar lugar a una «suboptimización», en la que se elige un componente supuestamente ecológico que provoca un impacto ambiental general negativo del producto final.
Si pagamos una «prima verde», el dinero debe reinvertirse.
La industria reconoce que los materiales con bajo contenido de carbono suelen tener un coste más elevado, lo que se conoce como «prima verde». La FIEC no se opone por principio a pagar este sobrecoste, pero establece una condición fundamental e ineludible: cualquier coste adicional pagado por estos productos debe reinvertirse de forma explícita y transparente en un mayor esfuerzo de descarbonización.
Esta condición convierte la «prima verde» en un mecanismo de inversión circular, creando un bucle de retroalimentación positiva en el que la demanda actual financia directamente las tecnologías limpias del futuro. Sin esta garantía, el sistema pierde credibilidad y desaparece el incentivo para que los clientes paguen más.
Una alternativa inteligente: El «precio sombra del CO₂».
En lugar de etiquetas, la FIEC propone un mecanismo más sofisticado y alineado con el mercado para la contratación pública: el «precio sombra del CO₂». Se trata de un mecanismo pragmático y elegante que utiliza herramientas existentes.
Se toma la huella de carbono de un producto de construcción, un dato ya disponible en las Declaraciones Ambientales de Producto (DAP/EPD).
Esa cifra de CO₂ se multiplica por el precio del carbono en el mercado de derechos de emisión de la UE (EU ETS).
El resultado es un «precio sombra» monetario que no se añade al coste, sino que se utiliza como un criterio de evaluación clave en las licitaciones públicas.
Este método incentivaría una competencia real para reducir la huella de carbono de las ofertas. Es fundamental señalar que la FIEC lo concibe como un mecanismo de transición. Para evitar una «doble contabilidad», el precio sombra debería eliminarse progresivamente a medida que el EU ETS funcione sin asignaciones gratuitas.
Conclusión: más allá de la simplicidad.
El mensaje del sector de la construcción es claro: la descarbonización de un sector tan complejo no se puede lograr con gestos simbólicos. Se requieren mecanismos sofisticados que incentiven la innovación en toda la cadena de valor, desde la materia prima hasta la construcción finalizada.
La postura de la FIEC es una llamada al realismo: para lograr una descarbonización efectiva, es necesario pasar de los gestos simbólicos a los incentivos sistémicos. La pregunta crucial para los legisladores es si están dispuestos a diseñar políticas que reflejen la complejidad del mercado o si se conformarán con la falsa simplicidad de una etiqueta.
A continuación, os dejo un audio en el que se puede escuchar una conversación que ilustra claramente el contenido de este tema.
En este vídeo se recogen las ideas más importantes del artículo.
El documento que adjunto a continuación sintetiza la postura de la Federación de la Industria Europea de la Construcción (FIEC) respecto a la próxima «Acta Aceleradora de la Descarbonización Industrial» (IDAA) propuesta por la Comisión Europea. La FIEC apoya el objetivo general de la IDAA de fomentar la producción industrial sostenible y resiliente en la Unión Europea, pero expresa serias preocupaciones sobre los métodos sugeridos, en particular la creación de etiquetas voluntarias para productos industriales con bajas emisiones de carbono, como el acero y el cemento.
Figura 1. Esquema de Perforación Horizontal Dirigida
Todos conocemos la estampa: una calle principal cortada, el ensordecedor ruido de la maquinaria, el tráfico desviado durante semanas y zanjas abiertas que suponen un obstáculo constante. Estas son las molestias habituales de las obras urbanas tradicionales, una realidad que asumimos como necesaria para mantener y ampliar las infraestructuras que nos prestan servicio. Sin embargo, bajo nuestros pies se está produciendo una revolución silenciosa. Existe una forma de instalar tuberías esenciales para el agua, el gas, la electricidad o las telecomunicaciones sin que apenas nos demos cuenta: las «tecnologías sin zanja».
Una de las más revolucionarias es la Perforación Horizontal Dirigida (PHD). Aunque su trabajo es invisible, su impacto es monumental. Este artículo revela seis aspectos sorprendentes sobre el funcionamiento de esta tecnología que está transformando el subsuelo de nuestras ciudades de manera más inteligente, rápida y respetuosa con el medio ambiente.
Figura 2. Máquina de perforación horizontal ideada por Leonardo da Vinci, antes de 1495. Fuente: http://trenchless-australasia.com/
1. Una idea renacentista: sus orígenes se remontan a Leonardo da Vinci.
Cuando pensamos en una tecnología tan sofisticada, capaz de perforar kilómetros bajo tierra con precisión centimétrica, la asociamos instintivamente al siglo XXI. La realidad es mucho más sorprendente. La idea conceptual de una máquina de perforación horizontal fue concebida nada menos que por Leonardo da Vinci antes de 1495. Aunque tuvieron que pasar casi cinco siglos para que la tecnología madurara, la primera instalación moderna de PHD con una tubería de acero se llevó a cabo en 1971 para cruzar el río Pájaro, en California.
Es fascinante reflexionar sobre cómo una visión renacentista sentó las bases de una de las técnicas de construcción más avanzadas de nuestro tiempo. Este largo camino de innovación demuestra que a menudo las grandes ideas necesitan siglos para encontrar las herramientas adecuadas para hacerse realidad, conectando el genio de un artista del pasado con las necesidades de la ingeniería del futuro.
2. No se trata solo de evitar zanjas, sino de salvar la vida útil de nuestras ciudades.
El principal beneficio que se asocia a la PHD es la comodidad: evitar el caos de las zanjas abiertas. Sin embargo, su verdadero impacto es mucho más profundo y estratégico. El método tradicional de abrir y cerrar zanjas tiene un coste oculto devastador para nuestras infraestructuras. Según los expertos, la simple apertura de una zanja puede reducir la vida útil de un pavimento en un 30 %. Esto significa que las calles que deberían durar décadas se deterioran prematuramente, lo que obliga a realizar reparaciones costosas y constantes.
Por tanto, el beneficio de la PHD va mucho más allá de la simple conveniencia. Se trata de una decisión económica y ecológica fundamental. Al eliminar la necesidad de excavar, no solo se reducen los plazos de ejecución, el impacto ambiental y las restricciones de tráfico, sino que también se preserva la integridad de la infraestructura urbana existente. En última instancia, esto reduce los costes finales de la obra y protege una de las inversiones públicas más importantes: nuestras calles y carreteras.
3. No se perfora a ciegas, sino que se «navega» bajo tierra con precisión centimétrica.
Una de las ideas erróneas más comunes sobre la perforación horizontal dirigida (PHD) es imaginarla como un proceso de perforación «a ciegas». Nada más lejos de la realidad. La cabeza de perforación es, básicamente, un vehículo teledirigido que se «navega» bajo tierra con una precisión asombrosa. La trayectoria se controla en todo momento mediante sistemas de navegación avanzados, lo que permite alcanzar grandes longitudes con una precisión centimétrica.
«Walk-Over»: similar a un detector de metales muy avanzado, un operario camina por la superficie siguiendo la trayectoria de la cabeza perforadora en tiempo real.
«Wire-Line»: un cable en el interior de la sarta de perforación transmite la información de posición.
«Gyro Compass»: un sistema giroscópico, similar al utilizado en aeronáutica, permite una navegación autónoma sin necesidad de acceder a la superficie.
Tabla. Diferentes procedimientos de navegación de PHD (IbSTT, 2013).
Esta precisión no es un lujo, sino una necesidad crítica. No solo garantiza que la perforación llegue al punto de salida exacto, sino que también es fundamental para evitar dañar la maraña de servicios soterrados existente (cables de fibra óptica, tuberías de gas y conducciones de agua). Un error podría acarrear «desorbitados costes legales por daños a terceros», convirtiendo una obra eficiente en un desastre económico y de seguridad.
4. El héroe anónimo: El fluido de perforación es mucho más que «lodo».
En cualquier operación de PHD se puede observar un fluido espeso, que a menudo se denomina «mud» o lodo, que circula constantemente. Podría parecer un simple subproducto, pero en realidad es uno de los componentes con mayor ingeniería de todo el proceso y el verdadero héroe anónimo de la operación, ya que cumple cinco funciones cruciales e irremplazables. Su composición se diseña específicamente para la geología del terreno que se va a atravesar y cumple cinco funciones cruciales e irremplazables:
Refrigerar las herramientas de corte, que giran a gran velocidad y generan una intensa fricción.
Ayudar en el corte del terreno gracias a la alta presión con la que se inyecta (efecto hidrojet).
Transportar los detritos (el material excavado) fuera del túnel y mantenerlo limpio.
Lubricar tanto la sarta de perforación como la tubería final durante su instalación.
Contener y mantener estables las paredes de la perforación, creando una especie de «revestimiento» temporal que evita derrumbes.
Sin este fluido multifuncional, la técnica sería inviable. Garantiza la estabilidad del túnel, la eficiencia del corte y el éxito de la instalación de la tubería.
Figura 3. Escariador. Imágen de Catalana de Perforacions
5. La paradoja de la rapidez: el éxito depende de una planificación meticulosa.
Una de las grandes ventajas de la PHD es su rapidez de ejecución en comparación con los métodos tradicionales. Sin embargo, esta rapidez en la fase de obra es el resultado de una fase de preparación extraordinariamente exhaustiva. En el sector se utiliza una proporción muy reveladora: «1 día de trabajo, 2 de planificación». El éxito no se improvisa, se diseña.
Antes de que entre en funcionamiento la primera máquina, es imprescindible valorar la viabilidad del proyecto mediante estudios previos. Estos incluyen análisis topográficos detallados y, fundamentalmente, estudios geológicos exhaustivos para conocer a la perfección el subsuelo. Estos estudios, realizados por geólogos expertos en la técnica PHD, pueden incluir perforaciones de investigación, prospecciones geofísicas (como el georradar para detectar servicios enterrados) y pruebas de laboratorio de los materiales del terreno. El objetivo es claro: reducir los riesgos de construcción al mínimo y anticiparse a cualquier obstáculo o cambio en el terreno antes de empezar a perforar. Esta fase de preparación es la que garantiza que la «navegación» subterránea sea un éxito y no un desastre, y evita precisamente los «desorbitados costes legales» que se producirían al dañar servicios existentes.
6. Mucho más que tuberías: creando tomas de agua que protegen los ecosistemas marinos.
Si bien la PHD es una aliada clave en entornos urbanos, algunas de sus aplicaciones más innovadoras y con mayor impacto se encuentran en la protección de ecosistemas sensibles. Dos ejemplos de ello son las tecnologías «APPROACH» y «NEODREN®», que utilizan la PHD como herramienta de ingeniería medioambiental.
APPROACH permite realizar conexiones tierra-mar, como emisarios o tomas de agua, sin dañar la zona intermareal y submarina vulnerable. La perforación se realiza desde tierra firme y sale directamente en el punto deseado del fondo marino, evitando así cualquier tipo de excavación en la costa o en el lecho marino.
NEODREN® es un sistema revolucionario de captación de agua marina. Su genialidad consiste en que, en lugar de una simple toma de agua marina, convierte el propio subsuelo marino en una planta de filtración natural. Se instalan múltiples drenes horizontales desde la costa hasta una capa permeable bajo el lecho marino. Estos drenes funcionan como un pozo de alto volumen que extrae agua de mar después de que esta se haya filtrado lentamente a través de la arena y las rocas, «consiguiéndose un agua de alta calidad, sin turbidez y de caudal constante», ideal para plantas desalinizadoras. Este método elimina por completo la necesidad de realizar excavaciones en el fondo marino.
Figura 4. Neodren®. https://www.catalanadeperforacions.com/es/soluciones/sistema-neodren/neodren-captacion-de-agua-marina/
El impacto ecológico de estas aplicaciones es enorme, tal y como lo resumen los expertos, al ser una técnica subterránea, se evita trabajar en la zona marítima, que es de difícil maniobra y siempre está expuesta a daños causados por temporales, al mismo tiempo que se protegen zonas de especial valor ecológico, como las praderas de posidonia. Así, la PHD trasciende su papel como técnica de construcción para convertirse en una herramienta que permite desarrollar infraestructuras críticas en perfecta armonía con el entorno y proteger los ecosistemas que antes se sacrificaban en nombre del progreso.
Conclusión: la próxima frontera de la construcción ya está aquí.
La perforación horizontal dirigida es mucho más que un método ingenioso para evitar zanjas. Se trata de una disciplina de alta tecnología con una historia sorprendente, una precisión casi quirúrgica y aplicaciones innovadoras que están redefiniendo la construcción moderna. Nos muestra que el futuro de la infraestructura no radica en dominar la superficie, sino en trabajar de manera inteligente y respetuosa con el entorno que se encuentra debajo, lo que hace que nuestras ciudades y costas sean más eficientes, resilientes y sostenibles.
La próxima vez que camines por una calle sin obras ni atascos o disfrutes de una playa virgen, ¿te preguntarás qué maravillas de la ingeniería se están construyendo silenciosamente bajo tus pies?
A continuación, dejo un audio donde se habla del PHD.
También os dejo este vídeo, donde se resumen conceptos importantes. No obstante, en este blog encontrarás muchos más vídeos y artículos sobre este tema de tanto interés.
Referencias:
Allouche, E., Ariaratnam, S., and Lueke, J. (2000). Horizontal Directional Drilling: Profile of an Emerging Industry. Journal of Construction Engineering and Management, Volume 126, No. 1, pp. 68–76.
Ariaratnam, S. T., and Allouche, E. N. (2000). Suggested practices for installations using horizontal directional drilling. Practice Periodical on Structural Design and Construction, Volume 5, No. 4, pp. 142-149.
Ariaratnam, S. T., and Proszek, J. (2006). Legal consequences of damages to underground facilities by horizontal directional drilling. Journal of Professional Issues in Engineering Education and Practice, Volume 132, No. 4, pp. 342-354.
IbSTT Asociación Ibérica de Tecnología SIN Zanja (2013). Manual de Tecnologías Sin Zanja.
Jaganathan, A. P., Shah, J. N., Allouche, E. N., Kieba, M., and Ziolkowski, C. J. (2011). Modeling of an obstacle detection sensor for horizontal directional drilling (HDD) operations. Automation in Construction, Volume 20, No. 8, pp. 1079-1086.
Lubrecht, M. D. (2012). Horizontal directional drilling: A green and sustainable technology for site remediation. Environmental Science & Technology, Volume 46, No. 5, pp. 2484-2489.
Yepes, V. (2014). Maquinaria para sondeos y perforaciones. Apuntes de la Universitat Politècnica de València, Ref. 209. Valencia, 89 pp.
Yepes, V. (2015). Aspectos generales de la perforación horizontal dirigida. Curso de Postgrado Especialista en Tecnologías Sin Zanja, Ref. M7-2, 10 pp.
Puente de Brooklyn. https://www.nuevayork.net/puente-brooklyn
Cuando pensamos en un puente, solemos verlo como una maravilla de la ingeniería, un símbolo de conexión y progreso. Es una estructura que nos lleva de un punto a otro, superando un obstáculo. Sin embargo, detrás de esa aparente simplicidad se esconde un desafío monumental: construir un puente que no solo sea funcional y seguro, sino también sostenible.
Esta tarea es mucho más compleja de lo que parece. La sostenibilidad en ingeniería no se reduce a marcar una casilla, sino que implica un complejo proceso de toma de decisiones para conciliar los objetivos a menudo contrapuestos de la economía, el medio ambiente y la sociedad. Esta complejidad es el tema central de un profundo estudio académico titulado A Review of Multi-Criteria Decision-Making Methods Applied to the Sustainable Bridge Design, que analiza 77 artículos de investigación publicados a lo largo de 25 años para comprender cómo toman los expertos estas decisiones cruciales.
Este artículo recoge las lecciones más impactantes y, en ocasiones, sorprendentes, de esa exhaustiva investigación. En él descubriremos qué aspectos dominan el debate sobre los puentes sostenibles, qué puntos ciegos persisten y cómo están evolucionando las herramientas para diseñar las infraestructuras del futuro.
Las 5 lecciones más sorprendentes sobre los puentes sostenibles.
El análisis de décadas de investigación revela patrones inesperados y desafíos ocultos en la búsqueda de la infraestructura perfecta. A continuación, exploramos los cinco hallazgos más sorprendentes.
Ecoducto en la Autopista A6 Austria-Eslovaquia. https://blogs.upm.es/puma/2019/01/14/ecoductos-puentes-verdes-para-la-fauna/
Lección 1: «Sostenible» no solo significa «ecológico», sino que es un delicado equilibrio a tres bandas.
La palabra «sostenible» a menudo se asocia exclusivamente con el medio ambiente. Sin embargo, el estudio subraya que la verdadera sostenibilidad se apoya en tres pilares fundamentales: los factores económicos (coste y mantenimiento), los ambientales (emisiones de CO₂ e impacto en el ecosistema) y los sociales (seguridad, impacto en la comunidad y estética).
Estos tres pilares suelen tener objetivos contrapuestos. Un material más barato puede tener un mayor impacto ambiental. Un diseño que minimice las molestias a la comunidad podría ser mucho más costoso. Lograr un consenso entre ellos es un acto de equilibrio complejo. Curiosamente, el estudio revela que los factores sociales son los menos estudiados y comprendidos de los tres. Esta brecha de conocimiento no es solo una curiosidad académica, sino una de las barreras más significativas que nos impiden conseguir infraestructuras que sirvan de verdad a la sociedad a largo plazo.
Lección 2: Nos obsesiona cómo viven los puentes, pero ignoramos cómo mueren.
El ciclo de vida de un puente abarca desde su diseño y construcción hasta su demolición o reciclaje final. El estudio presenta una estadística demoledora sobre en qué fase del ciclo de vida se centra la atención de los investigadores. De los 77 artículos analizados, un abrumador 68,83 % se centra en la fase de «operación y mantenimiento».
En un drástico contraste, solo un minúsculo 2,6 % de los estudios se dedica a la fase final de «demolición o reciclaje». Esta enorme diferencia pone de manifiesto una importante laguna. La investigación sugiere que esto podría deberse a que la fase final se percibe como de «menor impacto general». Sin embargo, a medida que la sostenibilidad se convierte en una preocupación primordial, esta suposición se está poniendo en tela de juicio, lo que nos obliga a considerar el impacto completo de nuestra infraestructura, desde su concepción hasta su eliminación.
Lección 3: La ingeniería de vanguardia a veces necesita lógica «difusa»
Dado que la investigación está tan fuertemente sesgada hacia la fase de mantenimiento, es lógico que las herramientas más populares sean las que mejor se adaptan a sus desafíos únicos. Esto nos lleva a una paradoja fascinante en la ingeniería: en un campo tan preciso, podría parecer contradictorio utilizar un método llamado «lógica difusa» (fuzzy logic). Sin embargo, el estudio la identifica como una de las herramientas más populares, ¿la razón? Muchas decisiones críticas se basan en información cualitativa, incierta o subjetiva.
Una inspección visual para evaluar el estado de una estructura, por ejemplo, no proporciona un número exacto, sino una apreciación experta que puede contener vaguedad («ligero deterioro», «corrosión moderada»). La lógica difusa permite a los sistemas informáticos procesar esta «incertidumbre o vaguedad» del lenguaje humano y convertirla en datos matemáticos para tomar decisiones más sólidas. Es una fascinante paradoja: utilizar un concepto que suena impreciso para tomar decisiones de ingeniería de alta tecnología con mayor fiabilidad.
Lección 4: Las herramientas que usamos para decidir no son infalibles.
Para tomar decisiones tan complejas, los ingenieros utilizan «métodos de decisión multicriterio» (MCDM). Sin embargo, el estudio advierte de que los métodos tradicionales tienen importantes limitaciones. Imagínese que tiene que elegir un nuevo material para un puente. Esa única elección afecta simultáneamente al coste final, a la durabilidad de la estructura y a su huella de carbono. Estos factores están profundamente interconectados. No obstante, una limitación significativa de las herramientas tradicionales de toma de decisiones es que suelen partir de la poco realista suposición de que estos criterios son independientes entre sí. Ignorar estas interdependencias puede llevar a soluciones subóptimas.
Los métodos tradicionales de toma de decisiones suelen partir de supuestos poco realistas en relación con los problemas del mundo real, como la independencia de los criterios, la agregación lineal o la elección de la mejor alternativa entre un conjunto fijo en lugar de la alternativa que permita alcanzar los niveles de aspiración deseados.
Lección 5: el futuro no consiste en elegir la «mejor» opción, sino en alcanzar la «meta» deseada.
Este último punto supone un cambio de paradigma. Los métodos de decisión tradicionales funcionan como un concurso: se presenta una lista fija de alternativas (puente de acero, de hormigón o mixto) y el método las clasifica para seleccionar la «mejor».
Sin embargo, los nuevos métodos híbridos que están surgiendo proponen un enfoque diferente. En lugar de elegir simplemente una opción de una lista, buscan soluciones que alcancen «niveles de aspiración» o metas predefinidas. Por ejemplo, el objetivo podría ser diseñar un puente que no supere un coste X, no genere más de Y toneladas de CO₂ y tenga una vida útil de Z años. Este cambio de un modelo de «el mejor de la clase» a otro de «cumplir el objetivo» transforma fundamentalmente el desafío de la ingeniería. Transforma la tarea de seleccionar de un catálogo de opciones en inventar activamente nuevas soluciones que puedan satisfacer múltiples objetivos de sostenibilidad, a menudo contradictorios.
Conclusión: un puente hacia el futuro.
El viaje hacia la construcción de puentes verdaderamente sostenibles nos enseña que la ingeniería moderna es mucho más que cálculos y materiales. Se trata de un proceso de toma de decisiones dinámico, lleno de matices, compensaciones y una profunda reflexión sobre el impacto a largo plazo de nuestras creaciones. No se trata de seguir una simple lista de verificación «verde», sino de navegar por una compleja red de factores económicos, sociales y medioambientales en constante tensión.
El camino a seguir, iluminado por esta investigación, está claro. Debemos ampliar nuestra definición de sostenibilidad más allá de lo puramente ecológico para valorar adecuadamente el impacto social. Debemos diseñar para la demolición con la misma seriedad con la que diseñamos para la durabilidad. Además, debemos adoptar herramientas nuevas y más sofisticadas que reflejen la realidad interconectada de estas complejas decisiones. La próxima vez que cruces un puente, ¿solo verás una estructura de acero y hormigón o el resultado de un complejo debate entre economía, sociedad y medio ambiente?
Os dejo este audio donde podéis aprender más sobre el tema.
En este vídeo se resumen las ideas más interesantes de este artículo.
¿Sientes que tu negocio está en una lucha constante por la cuota de mercado? ¿Las guerras de precios y los márgenes de beneficio cada vez más reducidos marcan tu día a día? Si es así, es probable que estés navegando, por lo que los estrategas W. Chan Kim y Renée Mauborgne llaman un «océano rojo».
Esta metáfora describe el espacio de mercado conocido, donde las industrias y sus reglas del juego están perfectamente definidas. En estas aguas, las empresas compiten ferozmente por una demanda existente, tratando de superar a sus rivales para llevarse la mayor participación posible. A medida que el mercado se satura, la competencia a muerte tiñe el agua de sangre, dando lugar a un entorno de crecimiento limitado y utilidades decrecientes.
Pero ¿y si hubiera una alternativa? ¿Y si, en lugar de luchar por un trozo del pastel, pudieras crear uno completamente nuevo? Esa es la promesa del «océano azul»: la creación de espacios de mercado sin competencia, donde aún no existen las reglas del juego y la demanda se crea en lugar de disputarse.
A continuación, te presentamos las cinco ideas más impactantes del libro La estrategia del océano azul, que ofrecen un método sistemático para salir del océano rojo y navegar hacia un crecimiento rentable y sostenible.
1. Olvida a tus rivales: el objetivo es que la competencia sea irrelevante.
La primera idea puede resultar sorprendente: el objetivo de una buena estrategia no es vencer a la competencia, sino hacerla irrelevante. Mientras que la estrategia convencional se centra en la referenciación (benchmarking) y en superar a los rivales, la estrategia del océano azul propone un cambio de enfoque radical.
El contraste, basado en los principios del libro, es claro:
Estrategia del Océano Rojo:
Competir en el espacio existente del mercado.
Vencer a la competencia.
Explotar la demanda existente.
Elegir entre la disyuntiva entre valor y coste.
Alinear todo el sistema de las actividades de una empresa con la decisión estratégica de la diferenciación o del bajo costo.
Estrategia del Océano Azul:
Crear un espacio sin competencia en el mercado.
Hacer que la competencia pierda toda importancia.
Crear y capturar nueva demanda.
Romper la disyuntiva entre valor y coste.
Alinear todo el sistema de las actividades de una empresa con el propósito de lograr diferenciación y bajo costo.
Este cambio de mentalidad se resume a la perfección en una de las frases más célebres del libro:
«La única manera de vencer a la competencia es dejar de tratar de vencerla».
Estratégicamente, este giro es poderoso porque desplaza el objetivo empresarial de un juego de suma cero, en el que la ganancia de una empresa es la pérdida de otra, a una lógica de creación de nuevo valor. En lugar de repartir una demanda limitada, el objetivo es aumentar el tamaño total del mercado.
2. Innovación en valor: el arte de ser diferente y más barato a la vez.
El pensamiento estratégico tradicional nos ha enseñado que las empresas deben tomar una decisión fundamental: o bien compiten por diferenciación, ofreciendo un mayor valor a un coste más alto, o bien compiten por bajo coste, ofreciendo un valor razonable a un coste menor. La estrategia de los océanos azules rompe esta disyuntiva con su piedra angular: la innovación en valor.
La innovación en valor consiste en buscar simultáneamente la diferenciación y el bajo coste. No se trata de un simple avance tecnológico o de ser el primero en un mercado, sino de alinear la innovación con la utilidad para el comprador, el precio y la estructura de costes de la empresa.
Este concepto se materializa cuando se cuestiona en qué compite la industria. Al eliminar o reducir las variables que los clientes no valoran o que suponen un alto coste, la empresa consigue una estructura de costes inferior a la de sus competidores. Del mismo modo, al incrementar y crear nuevas fuentes de valor que la industria nunca antes había ofrecido, se genera una diferenciación radical. Es esta doble acción la que rompe la disyuntiva clásica y permite ofrecer un valor superior a un coste menor.
Este enfoque, que busca la diferenciación y el bajo coste de forma simultánea, no es solo una teoría elegante, sino que tiene un impacto medible y desproporcionado en los resultados del negocio, como demuestran las cifras del siguiente apartado.
3. El impacto real de los océanos azules (traducido en cifras).
Para quienes puedan pensar que crear nuevos mercados es una apuesta demasiado arriesgada, los autores presentan los resultados de un estudio sobre 108 lanzamientos de negocios que demuestran lo contrario. Los resultados son sorprendentes y revelan una clara asimetría entre el riesgo y la recompensa.
Las cifras hablan por sí solas:
Lanzamientos en océanos rojos (el 86 % del total) generaron solo el 62 % de los ingresos totales y un escaso 39 % de las utilidades.
Lanzamientos en océanos azules (14 % del total): generaron el 38 % de los ingresos y un impresionante 61 % de las utilidades totales.
Esta asimetría demuestra que, aunque la creación de océanos azules es menos frecuente, su impacto en la rentabilidad es desproporcionadamente alto. Aunque navegar en aguas competitivas puede parecer la opción más segura, las cifras indican que la verdadera oportunidad de crecimiento y rentabilidad se halla en la creación de nuevos espacios de mercado. Por tanto, la búsqueda de océanos azules se convierte en un imperativo estratégico.
4. Deja de obsesionarte con tus clientes y empieza a pensar en los «no clientes».
Las empresas tienden a centrarse en sus clientes actuales, tratando de segmentar el mercado de manera cada vez más precisa para satisfacer mejor sus preferencias. Para crear un océano azul y maximizar su tamaño, la estrategia propone hacer lo contrario: mirar más allá de la demanda existente y centrarse en los «no clientes».
Los autores identifican tres niveles de «no clientes» que representan un torrente de demanda potencial sin explotar:
Primer nivel: Personas que están próximas a convertirse en no clientes. Utilizan mínimamente la oferta actual mientras buscan algo mejor y están a la espera de dejar de ser clientes.
Segundo nivel: No clientes que rechazan conscientemente el mercado de la empresa. Han visto la oferta y han decidido no utilizarla.
Tercer nivel: No clientes inexplorados que jamás han contemplado la oferta de la empresa como una opción.
El caso del vino australiano Yellow Tail es un ejemplo perfecto. En lugar de competir con los conocedores del vino, se centraron en los no clientes: los bebedores de cerveza y cócteles. Este grupo se sentía intimidado por los aspectos del vino tradicional, como la compleja terminología enológica, el envejecimiento, los taninos y la sofisticación que rodeaba su consumo. Al identificar estos puntos de fricción, Yellow Tail creó un vino fácil de beber, accesible y divertido que eliminó o redujo sistemáticamente esas barreras, creando en su lugar «facilidad para beber» y «diversión y aventura», y abrió un océano azul masivo al convertir a los no bebedores de vino en nuevos clientes.
5. La herramienta para reconstruir tu mercado: eliminar, reducir, incrementar y crear.
La estrategia del océano azul no es un concepto abstracto, sino un proceso práctico y sistemático. Su principal herramienta para aplicar la innovación en valor es el esquema de las cuatro acciones, que desafía la lógica estratégica de una industria a través de cuatro preguntas clave:
¿Qué variables que la industria da por sentadas se deben eliminar?
¿Qué variables se deben reducir muy por debajo de la norma de la industria?
¿Qué variables se deben incrementar muy por encima de la norma de la industria?
¿Qué variables se deben crear porque la industria nunca las ha ofrecido?
El ejemplo más paradigmático es el Cirque du Soleil. En una industria del circo en declive, aplicaron este modelo para reinventar el entretenimiento en vivo.
Eliminó: las estrellas del circo, los espectáculos con animales, las concesiones en los pasillos y las pistas múltiples.
Redujo: la diversión, el humor, el suspense y el peligro.
Incrementó: un único escenario.
Creó: un tema, un ambiente refinado, múltiples producciones y música y danza artísticas.
Esta herramienta sistemática permite a cualquier empresa deconstruir la lógica de su sector y reconstruirla en una nueva curva de valor. Al responder a estas cuatro preguntas, una empresa puede visualizar un nuevo perfil estratégico que la diferencie radicalmente de la competencia, de modo que la comparación directa pierda sentido.
Conclusión: ¿cuál es tu océano azul?
La estrategia del océano azul es mucho más que una teoría empresarial: supone un cambio de mentalidad fundamental. Nos invita a pasar, de competir a crear, de dividir los mercados existentes a construirlos de nuevo. Demuestra que la creación de estos nuevos espacios no es fruto de la suerte o la genialidad, sino el resultado de un proceso estratégico, analítico y sistemático que cualquier organización puede llevar a cabo.
La próxima vez que te sientas atrapado en las sangrientas aguas de la competencia, detente y hazte una pregunta: ¿qué reglas «inquebrantables» de tu sector podrías empezar a cuestionar hoy mismo para descubrir tu propio océano azul?
En este audio se mantiene una conversación interesante sobre este tema.
El siguiente vídeo sintetiza bien las ideas más importantes de la estrategia del océano azul.
Os dejo un vídeo de Polimedia en el que el profesor Jordi Joan Mauri Castelló nos explica este concepto. Espero que os resulte útil.
En un mundo cada vez más consciente de la emergencia climática, la construcción sostenible ha dejado de ser una opción para convertirse en una necesidad. Arquitectos, ingenieros y promotores buscan constantemente el método constructivo «perfecto»: aquel que sea económico, ecológico y socialmente responsable. Sin embargo, ¿qué pasaría si nuestras ideas más arraigadas sobre lo que es «mejor» estuvieran equivocadas?
Un detallado estudio científico realizado por nuestro grupo de investigación, dentro del proyecto RESILIFE, ha puesto a prueba nuestras creencias. En él, los investigadores compararon de forma exhaustiva cuatro métodos de construcción para una vivienda unifamiliar: uno tradicional y tres alternativas industrializadas que prometen mayor eficiencia y sostenibilidad. Sus conclusiones no solo son sorprendentes, sino que también revelan por qué nuestra intuición sobre la construcción sostenible a menudo falla. Este artículo desvela los hallazgos que nos obligan a replantearnos qué significa realmente construir de forma sostenible.
Vivienda unifamiliar adosada analizada.
Intuición fallida n.º 1: la búsqueda de un «campeón» absoluto.
La primera gran revelación del estudio es que no existe una solución mágica que destaque en todas las categorías. Nuestra intuición busca un único «campeón» de la sostenibilidad, pero la realidad es un complejo juego de equilibrios. Cada método constructivo destacó en una dimensión diferente, lo que demuestra que la opción ideal depende de las prioridades del proyecto.
El estudio identificó un ganador claro para cada una de las tres dimensiones:
Dimensión económica: la alternativa «PRE» (losa de hormigón aligerada con discos huecos) fue la más económica. Su ventaja radica en su alta eficiencia estructural, ya que requiere «la mitad de material para las mismas solicitaciones estructurales» en comparación con la losa convencional.
Dimensión medioambiental: la alternativa «YTN» (prefabricada con hormigón celular autoclavado) obtuvo el mejor rendimiento ecológico. Esto se debe a que es un «material 100 % mineral» que necesita poca materia prima (1 m³ de materia prima produce 5 m³ de producto) y tiene un «bajo consumo de energía en su fabricación».
Dimensión social: la alternativa «ELE» (elementos de doble pared) fue la óptima desde una perspectiva social, impulsada en gran medida por un mayor confort de usuario, gracias a su excepcional rendimiento térmico, derivado de la gruesa capa de EPS utilizada como encofrado perdido.
Este hallazgo es fundamental. La sostenibilidad real no consiste en maximizar una única métrica, como la reducción de CO₂, sino en encontrar un equilibrio inteligente entre factores que, a menudo, están en conflicto.
Intuición fallida n.º 2: asumir que lo más «verde» es siempre lo mejor.
Podríamos pensar que la opción con menor impacto medioambiental (YTN) sería automáticamente la más sostenible, pero no es así. Sin embargo, el estudio demuestra que no es tan simple. Al combinar todos los factores en un «Índice Global de Sostenibilidad Estructural» (GSSI), la alternativa ganadora fue la «PRE» (losa aligerada).
¿Por qué ganó? La razón es el equilibrio. Aunque no fue la mejor en los ámbitos medioambiental y social, la alternativa PRE ofreció un excelente rendimiento económico y resultados muy sólidos en las otras dos áreas. El estudio la selecciona como la opción más sostenible porque, en sus palabras, presenta las respuestas más equilibradas a los criterios. Esta conclusión subraya una idea crucial: la solución más sostenible no es un extremo, sino un compromiso inteligente y equilibrado.
Los métodos «modernos» no son infalibles: sorpresas en los costes.
El estudio desveló dos realidades incómodas sobre los costes, tanto económicos como medioambientales, de algunas de las alternativas más innovadoras y puso en tela de juicio la idea de que «moderno» siempre significa «mejor».
En primer lugar, el método prefabricado (YTN), que a menudo se asocia con la eficiencia y el ahorro, resultó ser el más caro de todos. Su coste de construcción fue un 30,4 % superior al del método convencional de referencia.
Pero el sobrecoste económico no es el único precio oculto que reveló el estudio. La alternativa más tecnológica, ELE, conlleva una elevada factura medioambiental. Aunque fue la mejor valorada socialmente, su rendimiento ecológico fue pobre debido al enorme consumo de energía necesario para producir el poliestireno expandido (EPS) que utiliza como encofrado perdido. El estudio es contundente al respecto:
«Esto significa que, solo en los forjados, la alternativa ELE provoca un consumo de energía tres veces superior al necesario para obtener el EPS que requiere la solución de referencia».
Este hallazgo nos recuerda la importancia de analizar el ciclo de vida completo de los materiales y no dejarnos seducir únicamente por etiquetas como «moderno» o «tecnológico».
El mayor riesgo es el «business as usual»: el método tradicional fue el peor.
Quizás el hallazgo más importante y aleccionador del estudio es el pobre desempeño del método de construcción convencional (denominado «REF»). Al compararlo con las tres alternativas industrializadas, el sistema tradicional resultó ser la opción menos sostenible en todos los aspectos.
La conclusión de los investigadores es clara e inequívoca: «La alternativa REF es la peor opción en todos los criterios individuales y, en consecuencia, obtiene la menor prioridad en la caracterización de la sostenibilidad». Este resultado debe hacer reflexionar al sector: seguir construyendo como siempre se ha hecho, sin evaluar ni adoptar nuevas alternativas, es la decisión menos sostenible que podemos tomar.
Conclusión: repensando la construcción sostenible.
Este estudio demuestra que la sostenibilidad es un problema complejo que desafía las soluciones simplistas y las ideas preconcebidas. No se trata de encontrar una solución universal, sino de evaluar de manera integral y equilibrada las dimensiones económica, medioambiental y social de cada proyecto.
Como resumen, los propios autores: «Solo la consideración simultánea de los tres campos de la sostenibilidad […] conducirá a diseños adecuados». Esto nos obliga a cambiar nuestra pregunta fundamental: en lugar de buscar el material más ecológico o la técnica más barata, debemos preguntarnos cuál es la solución más equilibrada para un contexto específico.
Teniendo en cuenta estos resultados, ¿cómo deberíamos redefinir «la mejor forma de construir» para conseguir un futuro verdaderamente sostenible?
Figura 1. Desencofrado en paso superior. Pista de Silla (Valencia). Imagen: V. Yepes
1. Introducción a los pasos superiores pretensados.
Los pasos superiores pretensados construidos in situ constituyen una de las soluciones estructurales más extendidas y fiables para el desarrollo de obras lineales, como carreteras y ferrocarriles, en España. Su prevalencia se debe a una combinación de eficiencia estructural, robustez y notable capacidad de adaptación a las geometrías de cruce requeridas por la infraestructura moderna.
Estas estructuras se definen por una serie de características geométricas fundamentales que optimizan su comportamiento y su coste.
Relación canto/luz: La esbeltez del tablero es un indicador clave de su eficiencia. Esta relación se obtiene dividiendo el canto por la distancia entre apoyos (luz). Por lo general, esta proporción es de aproximadamente 1/25, aunque puede llegar a un límite práctico de 1/30 cuando existen restricciones severas de gálibo vertical. Superar este umbral conduce a diseños que requieren un pretensado excesivo, lo que invalida la eficiencia del concepto estructural y obliga a replantear el diseño por completo.
Configuraciones de vanos: La disposición de los vanos se adapta al obstáculo que hay que salvar, lo que da lugar a configuraciones estandarizadas por la práctica. En autovías, las configuraciones más comunes responden a una lógica funcional:
Dos vanos (por ejemplo, 30-30 m): configuración ideal para autovías de doble calzada, ya que se aprovecha la mediana central para ubicar una pila de apoyo.
Tres vanos (por ejemplo, 20-36-20 m): trazado común para salvar obstáculos más anchos donde no es factible o deseable una pila central.
Cuatro vanos (por ejemplo, 12-18-18-12 m): solución para cruces amplios que requieren una distribución de apoyos más regular.
Cuando el cruce es esviado (no es perpendicular), las luces aumentan para mantener los gálibos, pudiendo alcanzar configuraciones como 14-20-20-14 m. En las líneas de alta velocidad (AVE), son habituales los puentes de tres vanos con luces de 12-17-12 m.
Tipos de estribos: Los estribos, apoyos extremos del puente, pueden ser abiertos o cerrados. Se desaconseja rigurosamente el uso de estribos flotantes en tableros hiperestáticos (continuos sobre múltiples apoyos) debido al elevado riesgo de asientos diferenciales en el terraplén, fenómeno para el que estas estructuras no están preparadas y que comprometería gravemente su integridad.
La preferencia por las soluciones construidas in situ frente a las prefabricadas se debe principalmente a su mejor comportamiento frente a impactos accidentales de vehículos que exceden el gálibo permitido. Su capacidad para redistribuir cargas imprevistas les confiere una resiliencia intrínseca que resulta fundamental para garantizar la seguridad a largo plazo de la infraestructura.
El éxito de estas estructuras depende de una ejecución meticulosa en cada fase. A continuación, se detallará el proceso constructivo, comenzando por los cimientos de la obra: la ejecución de los alzados.
2. Construcción de cimentaciones y alzados (pilas y estribos).
Los alzados del puente (pilas y estribos) suponen entre el 30 % y el 50 % del coste total de la estructura y son un componente crítico. Su correcta ejecución, desde la cimentación hasta la coronación, es la garantía fundamental de la estabilidad global y de la correcta transmisión de las cargas al terreno.
El proceso comienza con la construcción de las cimentaciones, siguiendo una secuencia rigurosa:
Excavación y verificación geotécnica: Se excava el terreno hasta la cota de cimentación definida en el proyecto. En este punto, es fundamental comprobar que el terreno de apoyo real posee las características resistentes contempladas en el cálculo. Si el estrato esperado no se encuentra a la cota prevista, se debe profundizar la excavación hasta dar con él y rellenar el exceso de profundidad con hormigón pobre. Si el terreno adecuado no aparece, hay que detenerse y reconsiderar el diseño de la cimentación. Una práctica constructiva recomendable consiste en realizar una sobreexcavación de unos 5 cm para que el hormigón que pueda contaminarse con material de las paredes quede fuera del recubrimiento estructural.
Hormigón de limpieza y armaduras de zapata: Sobre el terreno verificado, se vierte una capa de entre 10 y 15 cm de hormigón de limpieza. Su función es crear una superficie de trabajo nivelada y limpia, esencial para el correcto montaje de las armaduras pasivas de la zapata. A continuación, se colocan las mallas inferior y superior de armaduras, separadas ambas por barras denominadas «pates», que garantizan la geometría y permiten el tránsito de los operarios sin deformar la armadura.
Figura 2. Cimbra porticada. Imagen: V. Yepes
Una vez completada la cimentación, se procede a la ejecución de los soportes, como en el caso de un estribo abierto:
Montaje de armaduras y encofrados: Se coloca la armadura pasiva del soporte, que suele llegar premontada desde el taller. A continuación, se instalan los encofrados, que suelen ser metálicos en el caso de paramentos no vistos. Estos se aploman y arriostran con puntales inclinados para garantizar su estabilidad frente a la presión hidrostática del hormigón fresco.
Hormigonado de soportes: El hormigonado se realiza con un cubilote y una manguera que desciende hasta el fondo del encofrado para evitar la segregación del hormigón al caer desde gran altura. Se utiliza hormigón tipo HA-25 y se vibra por capas de unos 30 cm para asegurar una compactación homogénea.
Desencofrado: El encofrado se retira normalmente a las 24 horas. El acabado superficial de estos paramentos no vistos suele ser de calidad básica, ya que quedarán cubiertos por el relleno de tierras.
Una vez ejecutados los soportes, se procede al relleno de tierras en la parte trasera del estribo. Esta operación requiere una compactación rigurosa para evitar desprendimientos futuros bajo las cargas de tráfico. Es fundamental coordinar esta tarea con la construcción del cargadero, es decir, la viga de coronación que une los soportes. En la práctica, la coordinación entre los equipos de movimiento de tierras y los de estructuras suele ser un punto conflictivo, pero es imprescindible compactar el relleno antes de hormigonar el cargadero para poder acceder con la maquinaria de compactación.
En paralelo, se construyen las pilas intermedias. Un ejemplo común son las pilas circulares, que se ejecutan con encofrados metálicos semicirculares que se ensamblan para formar los diámetros más frecuentes, de 1,00 m o 1,20 m.
Una vez finalizados los alzados, la obra está preparada para la siguiente fase crucial: el montaje de la estructura auxiliar que soportará la construcción del tablero.
3. Sistemas de cimbra y encofrado del tablero.
La ejecución del tablero in situ requiere un sistema de soporte temporal robusto y preciso. Este sistema está compuesto por dos elementos funcionalmente distintos: la cimbra, que es la estructura de apoyo global que transmite las cargas al terreno, y el encofrado, que es el molde en contacto directo con el hormigón y que le confiere su geometría final. A continuación, se analizan las dos metodologías principales empleadas.
3.1 Método 1: cimbra tubular con encofrado de madera.
Este es el sistema más tradicional y versátil. La cimbra tubular (tipo PAL) está formada por torres de perfiles huecos de planta cuadrada o triangular que cubren toda la superficie inferior del tablero. Su montaje, realizado por una cuadrilla de cinco personas, suele durar una semana.
La seguridad y estabilidad de este sistema dependen de varios factores críticos:
Estabilidad y arriostramiento: Para evitar el colapso «en castillo de naipes», es imprescindible escalonar los terraplenes laterales de los vanos extremos y conectar las torres entre sí mediante barras de arriostramiento longitudinales y transversales.
Cimentación y apoyo: La cimbra requiere un terreno con una tensión admisible mínima de 0,10 MPa. Para cumplir este requisito, suele mejorarse el terreno con una capa de grava-cemento y se reparten las cargas de las torres mediante tableros de madera longitudinales o zapatas individuales bajo cada pie.
Drenaje: Una gestión deficiente de las aguas torrenciales puede erosionar el terreno de apoyo y provocar el desplome de la cimbra, por lo que su control es un aspecto fundamental de la seguridad.
Figura 3. Cimbra con torres modulares. Imagen: V. Yepes
Sobre la cimbra tubular se monta el encofrado de madera, cuyo montaje puede llevar de una a tres semanas:
Nivelación y ajuste fino: En la parte superior de cada torre hay husillos de nivelación que permiten ajustar la cota del encofrado con precisión milimétrica. Un aspecto notable de estos diseños es la omisión deliberada de la contraflecha (curvatura ascendente). Esto es posible porque la flecha descendente debida al peso propio y la contraflecha ascendente generada por el pretensado tienen magnitudes similares y se anulan mutuamente, lo que caracteriza un diseño pretensado eficiente.
Componentes del encofrado: El sistema está compuesto por largueros (vigas longitudinales apoyadas en los husillos), costillas (elementos transversales que dan forma a la sección) y el forro de tabla, que es la superficie que está en contacto directo con el hormigón.
Elementos específicos: Se deben ejecutar encofrados particulares para elementos como los dados de apoyo sobre los neoprenos y los cajetines para los anclajes del sistema de pretensado.
3.2. Método 2: cimbra industrial con encofrado metálico.
Este sistema es una alternativa más moderna y rápida. Consiste en torres de carga metálicas de alta capacidad, separadas aproximadamente cada 12 metros, sobre las que se apoyan vigas en celosía que sostienen los paneles de encofrado metálicos.
Figura 4. Cimbra porticada. Imagen: V. Yepes
Las particularidades de este sistema frente al método tradicional son:
Cimentación: Cada pareja de torres puede soportar cargas de hasta 250 toneladas, por lo que es necesario construir zapatas de hormigón armado de unos 40 cm de espesor. Si el terreno no es adecuado, puede ser necesario realizar pilotajes en estas cimentaciones temporales.
Ventajas: Su principal ventaja es la rapidez de montaje, ya que permite alcanzar ciclos de hormigonado de un tablero al mes. Además, su diseño diáfano permite mantener el paso de vehículos por debajo de la estructura durante la construcción.
Calidad de acabado: El acabado superficial que deja el encofrado metálico suele ser de peor calidad estética que el de la madera. Para mejorarlo, se pueden aplicar tratamientos al hormigón para dejar el árido visto.
Descimbrado: A diferencia del sistema tubular, el descimbrado se realiza accionando gatos de tornillo situados en la base de las torres, que permiten descender toda la estructura de forma controlada.
Una vez completado el montaje de la cimbra y el encofrado, la estructura está lista para recibir el esqueleto de acero que le conferirá su resistencia.
4. Colocación de armaduras pasivas y activas.
Esta fase consiste en montar el entramado de acero que reforzará el hormigón. Existen dos tipos de armaduras con funciones diferentes: las pasivas, que absorben esfuerzos locales y controlan la fisuración, y las activas, que conforman el sistema de pretensado que proporciona la capacidad portante principal del puente.
Las armaduras pasivas presentan una cuantía que oscila entre 50 y 70 kg/m² de tablero, mientras que las armaduras activas tienen una cuantía menor, que varía entre 12 y 25 kg/m.
Figura 5. Aligeramientos de poliestireno entre armaduras pasivas.
El proceso de montaje se desarrolla de la siguiente manera:
Montaje de armaduras pasivas: Las barras de acero llegan a la obra cortadas y dobladas desde el taller. El montaje comienza con las armaduras transversales («barcas») y las barras maestras longitudinales, con las que se crea un armazón base estable. Una zona que requiere especial atención es el diafragma de estribos (riostra de estribos), una viga transversal integrada diseñada para distribuir las inmensas fuerzas concentradas de los anclajes del pretensado (de hasta 4548 toneladas) en el cuerpo del tablero. El armado en esta zona debe ser extremadamente denso; un armado deficiente podría provocar la rotura del hormigón durante el pretensado. No se trata de una preocupación teórica. En España se han producido accidentes mortales por un armado inadecuado en las zonas de anclaje. Por este motivo, considero que la revisión de este detalle de armado específico es uno de los puntos de control más críticos de todo el proceso constructivo.
Colocación de aligeramientos de poliestireno (porexpan): Para optimizar la sección, se utilizan bloques de poliestireno como aligeramientos internos. Su función estructural consiste en mejorar la relación inercia/área, al reducir el peso propio y aumentar la eficiencia del pretensado. Estos bloques tienden a flotar en el hormigón fresco. Para evitarlo, se sujetan con barras de acero superiores y transversales. Aun así, la fuerza ascensional es tan elevada que obliga a hormigonar el tablero en tongadas.
Instalación de armaduras activas (pretensado):
Trazado de las vainas: Se colocan las vainas (tubos metálicos corrugados) que alojarán los cables. Su trazado se realiza siguiendo la ley de momentos flectores: se colocan en la parte superior del tablero sobre los apoyos y en la parte inferior en el centro de los vanos, con una tolerancia de colocación de solo 1 cm. Es crucial garantizar un espacio horizontal mínimo de entre 5 y 6 cm entre vainas, especialmente en vanos y sobre pilas. Si las vainas quedan alineadas verticalmente, las fuerzas radiales del pretensado pueden generar tracciones que rompan el hormigón entre ellas.
Tubos de purga: En los puntos más altos del trazado (generalmente, sobre las pilas) se instalan tubos de purga. Estos tubos son fundamentales para permitir la salida del aire durante la inyección posterior de mortero, lo que garantiza la protección completa del acero y la durabilidad del puente.
Enfilado de torones: El día antes del hormigonado, los torones de acero se enfilan dentro de las vainas mediante una enfiladora mecánica, dejando un metro de cable sobrante en cada extremo para el anclaje del gato de tesado.
Figura 6. Enfilando cables de pretensado. Youtube.
Tras el meticuloso ensamblaje e inspección de las armaduras, se alcanza el punto de no retorno: el vertido monolítico que dará al puente su forma definitiva.
5. Hormigonado del tablero.
El hormigonado del tablero es una de las fases más críticas y logísticamente complejas. Debe ejecutarse de forma continua, de principio a fin y sin juntas de construcción, para garantizar la integridad monolítica de la estructura.
Una planificación logística adecuada es fundamental para garantizar un hormigonado ininterrumpido:
Volumen y suministro: Se manejan volúmenes de entre 300 y 700 m³, normalmente de hormigón HP-35. Para evitar paradas, la estrategia habitual consiste en contratar el suministro con dos plantas diferentes, de modo que una pueda cubrir a la otra en caso de avería.
Equipos: Es indispensable disponer de una bomba de hormigón de repuesto en la obra para sustituir inmediatamente la principal en caso de fallo.
Condiciones ambientales: La operación se pospone si hay riesgo de heladas o si las temperaturas superan los 40 °C. No obstante, una vez iniciado, el hormigonado debe continuar incluso si comienza a llover.
Figura 7. Hormigonado del tablero. https://economis.com.ar/puente-san-francisco-en-andresito-se-avanzo-con-el-hormigonado-del-tablero/
El proceso de ejecución en obra se realiza con un estricto control de calidad:
Técnica de vertido en tongadas: Para evitar la flotación de los aligeramientos de poliestireno, el hormigonado se realiza en tres capas o tongadas sucesivas: primero la losa inferior, luego las almas y, por último, la losa superior. Es fundamental que el vibrador penetre en la capa anterior para asegurar un vínculo monolítico y evitar juntas frías entre vertidos.
Control de calidad del hormigón: Se comprueba la consistencia del hormigón con el cono de Abrams y se toman muestras cilíndricas (aproximadamente seis por cada tercio de las cubas) para realizar ensayos de rotura en el laboratorio y confirmar que la resistencia alcanza los valores requeridos a los 7 y 28 días.
La cuadrilla de trabajo se guía por «tochos», barras con marcas de cota establecidas por topografía, para garantizar que la superficie final del tablero tenga la geometría exacta definida en los planos.
Cuando el hormigón alcanza la resistencia necesaria, se somete la estructura a su primera prueba de carga real: el pretensado.
6. Operaciones de pretensado del tablero.
Figura 8. Tesado de los cables.
El tesado de los cables es la operación estructuralmente más crítica, ya que somete al puente a una de sus situaciones de carga más exigentes, que es la combinación del pretensado máximo con únicamente el peso propio de la estructura.
Para llevar a cabo el tesado, deben cumplirse unos requisitos previos:
Resistencia del hormigón: El hormigón debe alcanzar una resistencia mínima especificada de 27,5 MPa para un hormigón HP-35. Este valor, que suele alcanzarse a los siete días, es necesario para que el hormigón soporte las altas cargas concentradas en los anclajes y para limitar las pérdidas de pretensado a largo plazo.
Equipo de tesado: El equipo consta de un gato de pretensado, una centralita hidráulica y un grupo electrógeno.
El procedimiento de tesado de cada tendón, que dura aproximadamente 45 minutos, sigue una secuencia metódica:
Secuencia: El tesado sigue un orden definido en los planos, generalmente desde los tendones centrales hacia los extremos para mantener la simetría de las cargas.
Preparación: Se enfilan los bloques de anclaje («quesos») y se colocan las cuñas cónicas que los bloquearán.
Aplicación de carga y control dual: Se aplica presión hidráulica al gato de forma gradual. La correcta aplicación de la fuerza se verifica mediante un doble control: se mide la presión en el manómetro y, simultáneamente, el alargamiento real del cable.
Criterio de aceptación: El tesado se considera correcto si la desviación media entre el alargamiento real y el teórico es inferior al 5 %. Si la discrepancia es mayor, el primer paso es reevaluar el alargamiento teórico utilizando el módulo de elasticidad real del acero, obtenido de los ensayos de control de calidad, ya que esta es una causa frecuente de disparidad.
Tras tesar desde un extremo, se repite la operación desde el opuesto; el alargamiento total es la suma de ambos. Una vez aprobado el tesado, se cortan los sobrantes de los torones y se puede proceder al descimbrado.
Para garantizar la durabilidad a largo plazo de la armadura activa, es imprescindible realizar la siguiente operación: la inyección de las vainas.
7. Inyección de vainas.
La inyección consiste en rellenar con un mortero específico los conductos (vainas) que alojan los cables de pretensado. Cumple dos funciones fundamentales:
Protección contra la corrosión: El mortero aísla las armaduras activas del ambiente exterior, previniendo su oxidación.
Adherencia: La inyección crea un vínculo mecánico sólido entre la armadura activa y el hormigón circundante.
El procedimiento se realiza de la siguiente manera:
Equipo y mezcla: Se utiliza una amasadora y una bomba de inyección. Está prohibido amasar a mano.
Proceso de relleno: El mortero se inyecta a presión (aproximadamente 0,50 N/mm²) desde un extremo de la vaina.
Purga de aire: A medida que el mortero avanza, se abren los tubos de purga en los puntos más altos para expulsar el aire atrapado. No se cierran hasta que por el tubo emane un «chorro sólido de inyección». Este paso es absolutamente crítico. Una inyección deficiente con aire ocluido «puede dar lugar, en un plazo de 10 a 20 años, a la corrosión de las armaduras activas y al desplome del puente».
Una vez asegurada la integridad estructural interna, se procede a las fases de acabado exterior y superestructura.
8. Acabados y superestructura.
Esta fase incluye todos los trabajos destinados a la finalización estética y funcional del puente, desde el tratamiento de las superficies de hormigón hasta la instalación de los elementos para la circulación.
La calidad de los acabados del hormigón visto depende directamente del tipo de encofrado utilizado:
Encofrado de madera: Proporciona un acabado de alta calidad que deja marcada la veta de la tabla, ideal para entornos urbanos. Para mantener esta calidad, suele limitarse el número de usos. Si se busca la máxima calidad, suele exigirse madera de primera puesta.
Encofrado metálico: Puede dejar acabados de menor calidad, con marcas visibles en las juntas y manchas, si no se toman precauciones.
Desde el punto de vista estético, la esbeltez del puente (con una relación luz/canto de 27,5, por ejemplo) es uno de sus principales atributos. Para preservar la elegancia visual que proporciona la esbeltez del tablero, debe evitarse el uso de parapetos de hormigón macizo. Estos añaden un volumen visual que contradice la eficiencia estructural del diseño. Las barandillas metálicas abiertas son la elección más apropiada para mantener la estética deseada.
Finalmente, se ejecutan los elementos de la superestructura.
Aceras: Se forman mediante un bordillo, una solera de hormigón in situ y una imposta lateral. Es fundamental que dispongan de armaduras de conexión con el tablero para poder resistir los impactos de los vehículos sin desprenderse.
Otros elementos: La construcción se completa con la colocación del firme (pavimento asfáltico) y de las juntas de calzada en los estribos.
Una vez terminada la superestructura, el puente está listo para su validación final mediante la prueba de carga.
9. Prueba de carga.
La prueba de carga es la fase final y obligatoria para todos los puentes de más de 12 metros de luz en España. Su objetivo es verificar experimentalmente el comportamiento real de la estructura y comprobar que se corresponde con las previsiones del cálculo antes de su puesta en servicio.
Figura 9. Prueba de carga. https://www.laensa.com/prueba-carga-se40/
La prueba se diseña y ejecuta siguiendo estas pautas:
Objetivo y configuración: El propósito es someter al puente a un tren de cargas que genere esfuerzos cercanos al 70 % de los del tren de cargas del proyecto. Por ejemplo, para un puente cuyo tren de cargas de proyecto suma 348 toneladas, una prueba típica podría emplear ocho camiones de 30 toneladas cada uno, que sumarían 240 toneladas..
Estados de carga: Los camiones se disponen en distintas configuraciones diseñadas para provocar el máximo efecto en las secciones críticas: por ejemplo, en el centro de un vano para generar el máximo momento flector positivo o sobre las pilas para generar el máximo momento flector negativo.
Durante la prueba, se aplica un estricto criterio de aceptación:
Medición de deformaciones: Los desplazamientos verticales (flechas) del tablero se miden con gran precisión mediante pértigas y relojes comparadores.
Resultados típicos: La experiencia demuestra que las flechas medidas suelen ser aproximadamente el 85 % de las teóricas calculadas.
Ciclo de carga y descarga: Se mide la posición en vacío, con carga instantánea, con carga estabilizada y tras la descarga. Para que la prueba se considere satisfactoria, la recuperación de la flecha tras la descarga debe ser superior al 90 % de la deformación total medida.
La superación de la prueba de carga no es un mero trámite final, sino la validación última de un proceso riguroso. Representa la confirmación de que la intención del diseño se ha traducido meticulosamente a la realidad física mediante una ejecución disciplinada en cada etapa previa. El resultado se documenta en un acta oficial y el paso superior queda listo para entrar en servicio.
Figura 1. El gran terremoto de 1985 en Chile. https://novaciencia.es/el-gran-terremoto-de-1985-en-chile-un-seismo-que-se-podria-repetir-dentro-de-40-anos/
1. Introducción: viviendo en un país sísmico.
Vivir en un país como Chile significa comprender que el suelo que pisamos no es estático, sino que habitamos una tierra de geografía imponente, forjada por la misma energía que, de vez en cuando, nos recuerda su poder. Somos uno de los países con mayor actividad sísmica del planeta, una realidad que nos obliga a respetar la naturaleza y a liderar el desarrollo de una ingeniería resiliente. Para comprender la magnitud de nuestro desafío, basta con una cifra contundente proporcionada por el experto sismólogo Sergio Barrientos: el 46,5 % de toda la energía sísmica mundial del siglo XX se liberó en Chile.
Esta convivencia con los seísmos ha moldeado nuestra forma de construir. La normativa chilena (NCh433) establece una filosofía de diseño sismorresistente con objetivos claros y escalonados enfocados, ante todo, en la seguridad de las personas.
Sismos moderados: la estructura debe resistir sin sufrir ningún daño.
Sismos medianos: se aceptan daños, pero estos deben limitarse a elementos «no estructurales», como tabiques o techos falsos.
Sismos severos: el objetivo primordial es evitar el colapso de la estructura para salvaguardar la vida de sus ocupantes, aunque esto implique daños significativos e irreparables en el edificio.
El mensaje clave es que la meta mínima es sobrevivir. Un edificio puede quedar completamente inutilizable tras un gran terremoto, pero si no se derrumbó, cumplió su función principal. Sin embargo, tras la experiencia del terremoto de 2010, la población exige «algo más que evitar el colapso». En la actualidad, no solo se busca sobrevivir, sino también proteger la inversión, garantizar la funcionalidad de los edificios críticos y asegurar la tranquilidad.
Para responder a estas nuevas y más altas expectativas, la ingeniería ha desarrollado tecnologías avanzadas que van más allá de la normativa: los sistemas de protección sísmica.
2. ¿Qué son los sistemas de protección sísmica?
Para combatir la energía destructiva de un terremoto, la ingeniería ha diseñado el aislamiento sísmico y la disipación de energía. Ambos son sistemas pasivos, es decir, no requieren energía externa para funcionar, y su objetivo es reducir drásticamente el daño. Sin embargo, sus estrategias son fundamentalmente diferentes:
Sistema
Principio fundamental (analogía)
Objetivo principal
Aislamiento sísmico
Actúa como un filtro o un campo de fuerza. Separa o «desacopla» el edificio del suelo, evitando que la mayor parte de la energía del sismo ingrese a la estructura.
Limitar la energía que el sismo transfiere a la superestructura.
Disipación de energía
Actúa como los amortiguadores. Absorbe la energía que ya entró al edificio, concentrándola en dispositivos especiales para proteger la estructura principal.
Disipar la energía en dispositivos especializados, reduciendo el daño a componentes estructurales y no estructurales.
En resumen, usando una metáfora bélica, el aislamiento busca ganar la batalla impidiendo que el enemigo entre en la fortaleza, mientras que la disipación gana la batalla gestionando de forma inteligente al enemigo una vez que ha cruzado los muros. Ambas estrategias buscan un nivel de rendimiento muy superior al mínimo exigido, que es simplemente evitar el colapso.
3. Desacoplando el edificio del terremoto: cómo funcionan los aisladores sísmicos.
Pero, ¿cómo se logra «desconectar» un gigante de hormigón de la tierra? El aislamiento sísmico lo consigue instalando una serie de elementos flexibles entre la cimentación y la estructura principal. Estos dispositivos ralentizan el movimiento del edificio y transforman las sacudidas violentas y rápidas del seísmo en un vaivén lento y suave. En esencia, el edificio navega el terremoto en lugar de luchar contra él.
Existen dos categorías principales de aisladores:
Aislantes elastoméricos: Son extremadamente rígidos en sentido vertical para soportar el peso colosal del edificio, pero muy flexibles en sentido horizontal para permitir el movimiento. Una versión avanzada incluye un núcleo de plomo (LRB) que, además de aislar, disipa energía.
Aislantes deslizantes (de fricción): Durante un terremoto, un deslizador se mueve sobre una superficie curva de acero inoxidable. La fricción frena el movimiento y disipa energía, y la forma del plato guía suavemente el edificio de vuelta a su centro una vez que todo termina.
Figura 2. Aisladores de caucho y plomo. https://sites.ipleiria.pt/seismicknowledge/tag/aisladores-de-caucho-y-plomo/
El principal beneficio del aislamiento para los ocupantes y los bienes es que, al reducir drásticamente los movimientos, se protege no solo la estructura, sino también los muros, las ventanas y, fundamentalmente, todo lo que hay dentro: desde equipos médicos y ordenadores hasta objetos valiosos.
4. Absorbiendo el impacto: cómo funcionan los disipadores de energía.
Pero, ¿qué sucede si no podemos evitar que la energía entre? La respuesta es mantenerla bajo control. Esa es la misión de los disipadores de energía. Se trata de dispositivos especiales que se añaden a la estructura para que actúen como «fusibles» mecánicos, diseñados para absorber la mayor parte del impacto del seísmo.
Estos dispositivos se deforman o se mueven de manera controlada, convirtiendo la energía cinética en calor, que se disipa de forma inofensiva. De esta manera, «toman el golpe» del terremoto y protegen los elementos estructurales principales, como vigas, columnas y muros.
Dos ejemplos ilustran bien el concepto:
Los disipadores metálicos son piezas de metal con formas especiales diseñadas para doblarse de manera controlada. Al hacerlo, absorben una gran cantidad de energía de forma similar a como se calienta un clip de papel si lo doblas repetidamente, convirtiendo la energía cinética en calor inofensivo.
Los disipadores fluido-viscosos funcionan de manera muy similar a los amortiguadores de un automóvil, pero a gran escala. Consisten en un pistón que fuerza el paso de un fluido muy espeso a través de pequeños orificios. Este proceso frena el movimiento del edificio y convierte la energía cinética del seísmo en calor.
Figura 3. Disipadores sísmicos utilizados en la Torre Titanium (Chile). https://sites.ipleiria.pt/seismicknowledge/torre-titanium-la-portada/
Figura 4. Amortiguador viscoso. Puente Amolanas (Chile). https://www.cec.uchile.cl/~renadic/anexos/amolana2.html
El resultado es que la energía es absorbida por estos elementos de sacrificio. Esto no solo minimiza el daño general, sino que tiene una ventaja práctica fundamental: después de un terremoto intenso, es mucho más rápido y económico inspeccionar y reemplazar estos «fusibles» diseñados para fallar que reparar las vigas o columnas, que constituyen el esqueleto del edificio.
5. Más allá de sobrevivir: ¿por qué es importante invertir en protección sísmica?
La implantación de estos sistemas no solo supone una mejora técnica, sino que constituye una inversión estratégica que redefine el concepto de seguridad en un país sísmico. Sus beneficios más relevantes son profundamente humanos.
Manteniendo en pie lo esencial: continuidad operativa para infraestructuras críticas, como hospitales, aeropuertos o centros de datos, seguir funcionando durante y después de un seísmo es vital. Un caso emblemático es el del Teaching Hospital of USC en el terremoto de Northridge (1994). Gracias a su aislamiento sísmico, permaneció totalmente operativo, mientras que un hospital cercano de diseño convencional tuvo que ser evacuado y sufrió daños por valor de 400 millones de dólares.
Protegiendo más que ladrillos: estos sistemas reducen drásticamente los costes de reparación, pero su verdadero valor radica en proteger aquello que el dinero no siempre puede reemplazar. Salvaguardar equipos médicos de vanguardia, servidores con información crítica, maquinaria industrial o incluso los recuerdos y bienes de una familia es tan importante como proteger el edificio en sí.
La ingeniería de la tranquilidad: al ofrecer un rendimiento superior, estas tecnologías responden directamente a la demanda ciudadana de mayor seguridad. Un edificio que se mueve menos y sufre menos daños no solo protege físicamente a sus ocupantes, sino que también les proporciona una sensación de seguridad y tranquilidad invaluable en los momentos de mayor incertidumbre.
En resumen, los sistemas de protección sísmica suponen un cambio de paradigma en ingeniería, ya que responden a la demanda de una sociedad que no se conforma con sobrevivir, sino que exige activamente resiliencia, funcionalidad y la incalculable paz mental en una de las zonas más sísmicas del mundo.
En este audio, se puede escuchar una conversación sobre este tema.
Aquí tenéis un vídeo resumen, que se centra en este problema.
En este otro vídeo se puede ver un ejemplo.
Os dejo este documento que explica bien el tema del que se ha hablado en este artículo.
Anthony Weston en 2012. Por Violetwood – Trabajo propio, CC BY-SA 3.0, https://commons.wikimedia.org
En una asignatura que imparto en el Máster en Planificación y Gestión de la Ingeniería Civil, dedico unas horas a que mis estudiantes desarrollen el pensamiento crítico y aprendan a argumentar. Esto es fundamental para su desarrollo profesional, ya que deberán realizar informes, leer documentación técnica y, sobre todo, saber identificar los prejuicios y las opiniones carentes de razonamiento. Este aprendizaje es también fundamental para su vida en general, para no dejarse manipular y para desarrollar un criterio propio. Para ello, uno de los libros que recomiendo es Las claves de la argumentación, de Anthony Weston. A continuación, veremos algunos aspectos de este libro.
La palabra «argumento» suele tener mala fama. La asociamos con disputas y discusiones verbales inútiles en las que dos personas exponen sus prejuicios sin escucharse. Es la imagen de un conflicto en el que nadie gana y todos acaban frustrados. Sin embargo, esta percepción, aunque común, no se corresponde en absoluto con lo que significa argumentar.
En su influyente libro, el filósofo Anthony Weston nos ofrece una perspectiva transformadora. Nos enseña que «dar un argumento» no es una pelea, sino que significa «ofrecer un conjunto de razones o pruebas en apoyo de una conclusión». Lejos de ser inútiles, los argumentos se convierten así en herramientas esenciales para defender nuestras ideas y, lo que es más importante, para indagar, descubrir y pensar con mayor claridad. A continuación, exploramos seis de sus reglas fundamentales, ideas que actúan como llaves maestras para abrir la puerta a un pensamiento más claro y un debate más honesto.
1. Argumentar no es pelear, es investigar.
El primer y más relevante cambio de mentalidad consiste en entender que un argumento no es una batalla que se gana o se pierde. Es una herramienta de investigación que nos permite explorar qué opiniones son mejores que otras y por qué. Cuando argumentamos, no solo defendemos una idea preconcebida, sino que también ponemos a prueba nuestras propias creencias para ver si se sostienen con buenas razones.
Como señala Weston, no todos los puntos de vista son iguales. Algunos se apoyan en pruebas sólidas, mientras que otros tienen un sustento muy débil. El argumento es el método que usamos para distinguirlos.
En este sentido, un argumento es un medio para investigar.
Este cambio de perspectiva es crucial. Transforma una confrontación, que a menudo vemos como un juego de suma cero en el que solo puede ganar uno, en un proceso de descubrimiento colaborativo. El objetivo deja de ser «ganar» para convertirse en algo mucho más valioso: llegar juntos a una conclusión mejor informada y más sólida. Se pasa de un «yo contra ti» a un «nosotros contra el problema».
2. La trampa de la ambigüedad: no todos los «iguales» son iguales.
Un argumento puede parecer perfectamente lógico y, sin embargo, ser un completo engaño si se utiliza una palabra clave con dos significados diferentes. Esta es la falacia de la ambigüedad y es una de las trampas más sutiles del razonamiento.
Weston presenta un ejemplo brillante con la palabra «igual». Consideremos este argumento:
Las mujeres y los hombres son física y emocionalmente diferentes.
Por lo tanto, los sexos no son “iguales”.
Y, por lo tanto, el derecho no debe pretender que lo seamos.
El problema es que la palabra «igual» se usa de dos maneras distintas. En la primera, «igual» significa «idéntico». En la segunda, al hablar de derechos, «igualdad» significa «merecer los mismos derechos y oportunidades». Si aclaramos los términos, la debilidad del argumento queda expuesta: «Como las mujeres y los hombres no son físicamente ni emocionalmente idénticos, no merecen los mismos derechos y oportunidades». La conclusión ya no se sigue de la premisa. Lo mismo ocurre con términos cargados de significado como «egoísta», cuyo significado puede deslizarse desde «codicioso y egocéntrico» hasta «simplemente hacer lo que uno quiere», con lo que se vacía de contenido cualquier crítica. Esta lección nos obliga a definir nuestros términos: en cualquier discusión seria, la claridad es la base de la honestidad intelectual.
3. Para rebatir una idea, primero entiéndela (sin caricaturizarla).
Es muy tentador, sobre todo en debates acalorados, caricaturizar la postura del oponente para que parezca absurda y resulte más fácil de atacar. Esta falacia se conoce como «hombre de paja», y Weston nos advierte contra ella y contra el uso de lenguaje emotivo cuya única función sea manipular. A menudo, el lenguaje emotivo es la herramienta que usamos para construir al «hombre de paja», pues nos permite presentar la postura del otro de forma tan negativa que resulta irreconocible y fácil de derribar.
Por lo general, las personas que defienden una postura lo hacen por razones que consideran serias y sinceras. Si queremos rebatir una idea de forma honesta y persuasiva, primero debemos entenderla en su versión más fuerte y convincente, no en la más débil. Si no logramos hacerlo, es probable que ni siquiera la hayamos comprendido del todo.
Si no es capaz de imaginar cómo podría alguien defender el punto de vista que está atacando, es porque todavía no lo ha entendido bien.
Aplicar esta regla no solo fortalece nuestros propios argumentos, sino que fomenta un debate más productivo y respetuoso. Nos obliga a enfrentarnos a las verdaderas razones del otro, y no a una versión distorsionada que solo existe para nuestra conveniencia.
4. El peligro del «argumento de la persona que…» y la necesidad de ejemplos representativos.
Todos hemos escuchado o utilizado alguna vez el «argumento de la persona que…»: «Conozco a una persona que fumaba tres paquetes de cigarrillos al día y vivió hasta los 100 años». Este tipo de anécdotas son gráficas y memorables, pero utilizarlas como base para una conclusión general es una falacia.
Weston explica que generalizar a partir de información incompleta es un error común. Para que un argumento basado en ejemplos sea sólido, se necesitan más de un ejemplo y, lo que es más importante, que esos ejemplos sean representativos del conjunto sobre el que se generaliza. Una anécdota aislada, como la del fumador centenario, es una excepción, no una regla, y no puede refutar la abrumadora evidencia estadística de que fumar es perjudicial para la salud.
Para evaluar correctamente cualquier afirmación basada en ejemplos, necesitamos información de contexto: ¿cuántos fumadores no llegan a esa edad?, ¿cuál es la tasa de supervivencia en comparación con la de los no fumadores? Sin este contexto, los ejemplos individuales son prácticamente inútiles y, a menudo, engañosos. Este error revela un sesgo cognitivo fundamental: nuestra tendencia a otorgar más peso emocional y lógico a las historias personales y vívidas que a los datos estadísticos, aunque estos últimos sean mucho más representativos. Aprender a resistir al encanto de la anécdota es una característica del pensamiento claro.
5. La correlación no implica causalidad (y es más complicada de lo que crees).
A menudo, observamos que dos hechos ocurren juntos (una correlación) y saltamos a la conclusión de que uno debe causar el otro. Pero esta es una de las falacias más extendidas y peligrosas. Weston nos recuerda que, antes de aceptar que A causa B, debemos considerar explicaciones alternativas.
Puede ser una mera coincidencia. Que te quedaras dormido diez minutos después de tomar el «Bitter contra el insomnio de la doctora Hartshorne» no demuestra que el remedio funcione. Quizás estabas agotado y te habrías dormido de todos modos.
Ambos hechos pueden tener una causa común. Es posible que tanto ser culto como tener una mentalidad abierta sean efectos de un tercer factor, como ir a la universidad, que expone a las personas a diversas ideas y fomenta la lectura.
B puede causar A: tal vez tener una mentalidad abierta lleva a las personas a leer más, y no al revés. Weston cuenta una anécdota personal de su infancia: pensaba que los bomberos provocaban los incendios porque, después de todo, siempre estaban allí cuando había fuego. Solo más tarde comprendió que la causalidad iba en la dirección opuesta.
Las causas pueden ser complejas y bidireccionales. Los pasos de peatones se instalan en lugares donde se han producido accidentes, por lo que no se puede afirmar que su simple presencia cause más accidentes. Es posible que el lugar sea inherentemente peligroso y que haya múltiples causas que se retroalimenten entre sí.
Esta trampa mental es fácil de detectar en un niño, pero caemos en versiones más sofisticadas constantemente, lo que nos lleva a tomar malas decisiones, desde adoptar dietas ineficaces porque las promociona una celebridad hasta culpar a un político por un ciclo económico que no controla.
6. Atacar a la persona no invalida su argumento, pero sí el tuyo.
Cuando nos quedamos sin argumentos, podemos caer en la tentación de atacar a la persona que presenta el argumento en lugar del argumento mismo. Esta es la falacia ad hominem («contra el hombre»).
El libro nos ofrece un ejemplo contundente: cómo atacaron la teoría del economista Ricardo: algunos por ser burgués, otros por ser judío y otros por ser inglés. Ninguno de estos factores es relevante para determinar si su teoría económica es correcta. Para descalificar a una autoridad, hay que demostrar que no está bien informada, que no es imparcial o que otros expertos cualificados no están de acuerdo con ella. Sus características personales son irrelevantes.
En última instancia, un ataque personal no dice nada sobre la validez de la idea que se discute, pero sí mucho sobre quien lo realiza: revela una falta de argumentos sólidos y descalifica su posición en el debate.
Conclusión: pensar mejor, no solo ganar.
Las reglas de la argumentación no son trucos para «ganar» discusiones, sino herramientas para pensar con mayor claridad, honestidad y profundidad. Nos enseñan a construir nuestras propias ideas sobre cimientos sólidos, a evaluar críticamente las opiniones ajenas y a participar en conversaciones que busquen la comprensión en lugar de la victoria. El objetivo de un buen argumento, como nos recuerda Weston, es explicar y defender una conclusión con razones para que los demás puedan formarse su propia opinión de manera informada.
¿Cuál de estas ideas crees que tendría el mayor impacto en la calidad de tus conversaciones y decisiones si la aplicaras mañana?
En este audio tenéis una conversación interesante sobre este tema.
Este vídeo resume bien las ideas anteriores.
Referencia:
Weston, A. (2018). A rulebook for arguments. Hackett Publishing.
En el panorama actual, marcado por una mayor complejidad e interconexión a nivel mundial, los efectos de los desastres son cada vez más graves. El cambio climático, por ejemplo, actúa como un multiplicador de riesgos, intensificando los peligros existentes y generando otros nuevos. Ante esta realidad, el concepto de resiliencia comunitaria se ha convertido en un elemento clave de las estrategias de gestión del riesgo de desastres. La misión de la ingeniería es proporcionar a las comunidades las herramientas necesarias para resistir, adaptarse y recuperarse de estos eventos. En este contexto, los sistemas de apoyo a la decisión (DSS) emergen como herramientas indispensables que transforman la manera en que abordamos la protección de las ciudades y sus ciudadanos.
En el ámbito de la ingeniería civil y la planificación urbana, la resiliencia se define como la capacidad de un sistema, comunidad o sociedad expuesta a peligros para resistir, absorber, adaptarse, transformarse y recuperarse de manera oportuna y eficiente de los efectos de un evento adverso. Esto incluye la preservación y restauración de sus estructuras y funciones básicas esenciales mediante una gestión de riesgos adecuada. Una comunidad resiliente es aquella que, tras un terremoto, una inundación o una ola de calor extrema, logra mantener operativas o recuperar rápidamente sus infraestructuras críticas —desde la red eléctrica hasta los hospitales—, minimizando el impacto en la vida de sus habitantes.
La gestión del riesgo de desastres (DRM) incluye las fases de prevención, preparación, respuesta y recuperación. La resiliencia está intrínsecamente vinculada a todas estas fases. Por ejemplo, la implementación de códigos de construcción más estrictos o sistemas de control de inundaciones es una medida de prevención que aumenta la resiliencia. La preparación, por su parte, permite que las comunidades se adapten mejor a una situación de desastre y se recuperen con mayor rapidez.
Sistemas de apoyo a la decisión (DSS): herramientas inteligentes para la gestión de crisis.
Los DSS son herramientas informáticas diseñadas para ayudar a los responsables de la toma de decisiones, ya que proporcionan análisis, información y recomendaciones, e incluso permiten simular diferentes escenarios. Son fundamentales para mejorar la resiliencia comunitaria, puesto que ofrecen soluciones rápidas y eficientes a los problemas relacionados con los desastres, integrando diversas fuentes de datos y perspectivas de múltiples interesados. Además, los DSS facilitan la operacionalización de la resiliencia, es decir, permiten traducir este concepto abstracto en acciones y modelos analíticos concretos en los que están implicados todos los actores clave, lo que ofrece una comprensión más profunda del proceso de resiliencia. Esto, a su vez, conduce a una toma de decisiones más objetiva y basada en pruebas, que mitiga la subjetividad humana.
Las técnicas de modelización en los DSS: un arsenal de estrategias.
Los DSS se construyen utilizando diversas técnicas de modelización, cada una con sus propias fortalezas. Entre ellas, las técnicas de optimización son las más utilizadas. Estas técnicas permiten encontrar la mejor solución a un problema teniendo en cuenta múltiples factores y restricciones, a menudo mediante algoritmos matemáticos que identifican la opción más eficiente o efectiva. Por ejemplo, se utilizan para decidir la asignación óptima de recursos para la reparación de infraestructuras tras un terremoto o para la gestión de intervenciones en infraestructuras interdependientes.
Otras técnicas destacadas incluyen:
Modelado espacial (SIG): utiliza sistemas de información geográfica (SIG) para capturar relaciones espaciales, analizar, predecir y visualizar la influencia de los factores geográficos en los procesos y las decisiones. Esta técnica resulta muy útil para visualizar la distribución de riesgos y recursos en una ubicación específica, lo que facilita la comprensión del estado de resiliencia.
Análisis de decisiones multicriterio (MCDA): ayuda a los responsables de la toma de decisiones a ponderar diferentes factores y evaluar alternativas frente a múltiples criterios, a menudo conflictivos, para identificar la opción más adecuada en función de las prioridades y los objetivos. Es idóneo para la toma de decisiones en grupo y para capturar aspectos cualitativos de un problema.
Simulación: crea un modelo digital para imitar sistemas o procesos del mundo real, lo que permite la experimentación y el análisis en un entorno controlado. Es excelente para probar el impacto de diversas políticas y decisiones en el comportamiento del sistema antes de su implementación real.
Teoría de grafos: estudia las relaciones entre objetos, que se representan como nodos y aristas en un grafo. Es fundamental para analizar la conectividad de las redes interdependientes, como las infraestructuras de transporte o suministro, y para encontrar rutas óptimas, por ejemplo, para la distribución de ayuda humanitaria.
Minería de texto: extrae conocimiento e información de grandes volúmenes de datos textuales mediante métodos computacionales. Un ejemplo práctico es el uso de chatbots que procesan datos de redes sociales para ofrecer información en tiempo real durante un desastre.
Aplicación de los DSS en las fases de gestión de desastres.
Es interesante observar que los DSS tienden a centrarse más en las fases de preparación y respuesta que en las de recuperación y mitigación. Por ejemplo, el modelado espacial se utiliza mucho en la fase de preparación (en el 80 % de los artículos consultados) para tomar decisiones estratégicas, como determinar la ubicación óptima de los refugios o cómo distribuir los recursos. Durante la fase de respuesta, los DSS espaciales permiten visualizar la situación en tiempo real, identificar rutas bloqueadas y distribuir la ayuda humanitaria de manera eficiente mediante algoritmos que calculan la ruta más corta.
La optimización, por su parte, se utiliza principalmente en la fase de recuperación (en el 75 % de los artículos consultados), particularmente en las decisiones relativas a la rehabilitación y reconstrucción de infraestructuras dañadas. Las técnicas de MCDA son adecuadas para la fase de preparación (el 75 % de los artículos), ya que permiten comparar planes y políticas alternativas con el tiempo necesario para su análisis. Los modelos de simulación también se utilizan en la fase de respuesta para imitar el comportamiento del sistema y de los individuos durante una catástrofe.
Desafíos en el desarrollo y la implementación de los DSS.
A pesar de su potencial, el desarrollo e implementación de sistemas de apoyo a la decisión para la resiliencia no están exentos de desafíos significativos. Uno de los principales desafíos es la disponibilidad y calidad de los datos. La modelización de la resiliencia es un proceso complejo en el que los datos, tanto cuantitativos como cualitativos, son fundamentales. A menudo, la información proviene de múltiples fuentes con diferentes niveles de precisión, lo que dificulta su integración. En los países menos desarrollados, el acceso a los datos públicos (censos, informes, etc.) es aún más complicado, lo que limita la aplicación de ciertos modelos.
Otro obstáculo es la incertidumbre inherente al contexto de un desastre y la necesidad de gestionar cambios en tiempo real. También es una preocupación crucial la privacidad de los datos sensibles sobre infraestructuras críticas o planes de emergencia.
Por último, la colaboración interdisciplinar es imprescindible, pero difícil de conseguir, y la integración de estos sistemas en las operaciones diarias de las organizaciones de emergencia sigue siendo un reto considerable.
La colaboración con los interesados es clave para el éxito.
La implicación de los diversos actores o partes interesadas (stakeholders) es fundamental en el ciclo de vida de un DSS para la resiliencia. Se identifican tres enfoques principales:
Como fuente de datos: recopilando sus opiniones y datos (mediante entrevistas, encuestas o incluso información compartida en redes sociales).
Participación en el diseño: involucrándolos en la identificación de problemas, la construcción del modelo y el desarrollo del sistema para garantizar que la herramienta sea relevante y práctica para sus necesidades reales
Incorporación de preferencias en el modelo: reflejando sus prioridades como parámetros o funciones objetivo en los modelos matemáticos, lo que influirá directamente en las soluciones propuestas. Por ejemplo, se pueden integrar las preferencias comunitarias como restricciones en un modelo de optimización.
Conclusiones y futuras direcciones en ingeniería resiliente.
Los sistemas de apoyo a la decisión suponen un avance significativo en nuestra capacidad para crear comunidades más resilientes frente a los desastres. Aunque hemos logrado grandes avances, especialmente en las fases de preparación y respuesta, y con el uso intensivo de modelos de optimización, aún queda mucho por hacer. Es imperativo ampliar el enfoque a las fases de recuperación y mitigación e investigar cómo integrar fuentes de datos en tiempo real y tecnologías IoT para mejorar la capacidad de respuesta de los DSS en entornos dinámicos. Además, debemos seguir profundizando en la modelización de las interacciones entre los diversos actores de la comunidad para fomentar una colaboración más sólida y, en última instancia, crear un entorno más seguro y resiliente para todos.
Rudolf Saliger nació el 1 de febrero de 1873 en Spachendorf, cerca de Freudenthal, en el Imperio austrohúngaro, y falleció el 31 de enero de 1958 en Viena. Fue un ingeniero civil y profesor universitario austríaco, considerado uno de los pioneros del hormigón armado. Era hijo de Gustav Saliger, un ebanista, y creció como el undécimo de doce hermanos. Cursó sus estudios secundarios en la Realschule de Troppau.
Entre 1891 y 1898 estudió Ingeniería Civil en la Technische Hochschule de Viena, convirtiéndose en uno de los primeros en recibir el título de Diplom-Ingenieur. Interrumpió sus estudios en 1895-1896 para cumplir con su servicio militar anual como voluntario. Tras superar el segundo examen estatal en 1898, comenzó a trabajar en el Brückenbaubüro y en la dirección de vías de la Südbahngesellschaft (1897-1899). Entre 1899 y 1900 trabajó como ingeniero de puentes en la gobernación de Alta Austria, en Linz.
Posteriormente, orientó su carrera hacia Alemania: trabajó en la empresa Beton- und Monierbau AG, colaboró con el Materialprüfungsamt de Berlín-Dahlem en 1906 y ejerció como ingeniero de puentes y de hormigón armado en Kassel. En ese periodo también fue docente en las escuelas de construcción de Poznań y Kassel. Durante esos años, realizó viajes de estudios a Suiza, Francia —donde asistió a la Exposición Universal de París de 1900— y Bélgica, donde se formó en la técnica del hormigón armado bajo la influencia de los pioneros François Hennebique y Joseph Monier.
En 1903 contrajo matrimonio con Marie Hettling y, ese mismo año, obtuvo el título de doctor en la Technische Hochschule de Viena con la tesis Über die Festigkeit der Bauwerke aus veränderlich elastischen Stoffen, vornehmlich der Beton-Eisen-Konstruktionen (publicada en 1904).
En 1907 fue llamado a la Technische Hochschule de Braunschweig y, en 1908/1909, a la Deutsche Technische Hochschule de Praga, donde fue profesor de mecánica estructural y construcción metálica. En 1909 se trasladó a Dresde y, finalmente, en 1910 fue nombrado catedrático de Estática y Hormigón Armado en la Universidad Técnica de Viena, donde permaneció hasta su jubilación en 1940.
Desde 1910, impartía cursos de hormigón armado y, gracias a su iniciativa, esta asignatura se convirtió en obligatoria en el curso 1916/1917. No obstante, no fue hasta el curso 1927/1928 cuando alcanzó el pleno reconocimiento dentro del plan de estudios con su curso de construcción en piedra y hormigón armado. Entre 1920 y 1922 fue decano de la Facultad de Arquitectura y, en 1924/1925, rector de la institución.
Además de su labor docente, entre 1927 y 1934 trabajó como asesor técnico de la ciudad de Viena, donde actuó como consultor y proyectista en obras que se convirtieron en símbolos urbanos, como el Dianabad, el Stadion Wien, el rascacielos de Herrengasse 8, la Reichsbrücke y los estudios cinematográficos de Rosenhügel.
Saliger fue un prolífico autor de manuales y tratados que tuvieron gran difusión internacional. Entre ellos destacan:
Über die Festigkeit veränderlich elastischer Konstruktionen insbesondere von Eisenbeton-Bauten (1904)
Der Eisenbeton in Theorie und Konstruktion (1906)
Praktische Statik (1921)
Schalendach aus Eisenbeton nach Bauart Kolb (1928)
Die neue Theorie des Stahlbetons auf Grund der Bildsamkeit im Bruchzustand (1947)
Ingenieur Gustav Adolf Wayss. Ein Bahnbrecher des Stahlbetons (1948)
Der Stahlbetonbau: Werkstoff, Berechnung, Gestaltung (1956).
Especial relevancia alcanzaron Praktische Statik y Der Stahlbetonbau, que conocieron numerosas ediciones y traducciones, incluidas en español y ruso. Estas obras consolidaron el análisis práctico de estructuras y la aplicación científica del hormigón armado, aportando un corpus sin precedentes a la ingeniería alemana y austríaca en el periodo 1900–1950.
Tras la anexión de Austria por parte de la Alemania nazi en marzo de 1938, Saliger fue nombrado rector interino de la TH de Viena en sustitución de Karl Holey. En este cargo, mostró públicamente su apoyo al régimen mediante telegramas y discursos de adhesión. En 1939, fue elegido miembro de número de la Academia Austríaca de Ciencias y, el 20 de febrero de 1940, solicitó formalmente su ingreso en el NSDAP, que se hizo efectivo el 1 de junio.
Antes de jubilarse en 1939, desempeñó un papel relevante en la nazificación de la universidad y en la discriminación y expulsión de estudiantes y profesores judíos y socialdemócratas. Según la historiadora Juliane Mikoletzky, este proceso se produjo en la TH de Viena de manera especialmente rápida y ordenada.
Tras 1945, fue clasificado como Minderbelasteter (cómplice menor) en los procesos de desnazificación. En 1948, le fue concedido el perdón por «razones técnico-científicas», lo que le permitió mantener su prestigio académico.
Rudolf Saliger falleció en su residencia de Larochegasse 29, en Viena, el 31 de enero de 1958, apenas unas horas antes de recibir la condecoración del presidente de Austria por sus servicios a la ciencia y al arte. Sus restos fueron incinerados y depositados en una tumba de honor diseñada por Viktor Hammer en el cementerio de la Feuerhalle Simmering.
En 1965, la ciudad de Viena dio su nombre a la calle Saligergasse, en el distrito de Favoriten. Décadas después, entre 2011 y 2013, una comisión de historiadores, por encargo del Ayuntamiento de Viena, revisó el papel de las personalidades que habían dado nombre a las calles y situó a Saliger como pionero técnico, pero también como académico vinculado al nacionalsocialismo.
El legado de Rudolf Saliger es amplio y complejo. Como ingeniero, fue pionero en el desarrollo y la enseñanza del hormigón armado en Austria, impulsó su institucionalización universitaria y participó en obras emblemáticas de Viena, además de dejar una extensa bibliografía técnica. Como figura pública, apoyó al régimen nazi y promovió políticas de exclusión en la universidad. Estas dos dimensiones, la científica y la política, forman parte inseparable de su legado en la historia de la ingeniería y del siglo XX.