Cinco ideas revolucionarias de la «estrategia del océano azul» que cambiarán tu forma de ver los negocios.

Introducción: ¿Atrapado en un mar de competencia?

¿Sientes que tu negocio está en una lucha constante por la cuota de mercado? ¿Las guerras de precios y los márgenes de beneficio cada vez más reducidos marcan tu día a día? Si es así, es probable que estés navegando, por lo que los estrategas W. Chan Kim y Renée Mauborgne llaman un «océano rojo».

Esta metáfora describe el espacio de mercado conocido, donde las industrias y sus reglas del juego están perfectamente definidas. En estas aguas, las empresas compiten ferozmente por una demanda existente, tratando de superar a sus rivales para llevarse la mayor participación posible. A medida que el mercado se satura, la competencia a muerte tiñe el agua de sangre, dando lugar a un entorno de crecimiento limitado y utilidades decrecientes.

Pero ¿y si hubiera una alternativa? ¿Y si, en lugar de luchar por un trozo del pastel, pudieras crear uno completamente nuevo? Esa es la promesa del «océano azul»: la creación de espacios de mercado sin competencia, donde aún no existen las reglas del juego y la demanda se crea en lugar de disputarse.

A continuación, te presentamos las cinco ideas más impactantes del libro La estrategia del océano azul, que ofrecen un método sistemático para salir del océano rojo y navegar hacia un crecimiento rentable y sostenible.

1. Olvida a tus rivales: el objetivo es que la competencia sea irrelevante.

La primera idea puede resultar sorprendente: el objetivo de una buena estrategia no es vencer a la competencia, sino hacerla irrelevante. Mientras que la estrategia convencional se centra en la referenciación (benchmarking) y en superar a los rivales, la estrategia del océano azul propone un cambio de enfoque radical.

El contraste, basado en los principios del libro, es claro:

  • Estrategia del Océano Rojo:
    • Competir en el espacio existente del mercado.
    • Vencer a la competencia.
    • Explotar la demanda existente.
    • Elegir entre la disyuntiva entre valor y coste.
    • Alinear todo el sistema de las actividades de una empresa con la decisión estratégica de la diferenciación o del bajo costo.
  • Estrategia del Océano Azul:
    • Crear un espacio sin competencia en el mercado.
    • Hacer que la competencia pierda toda importancia.
    • Crear y capturar nueva demanda.
    • Romper la disyuntiva entre valor y coste.
    • Alinear todo el sistema de las actividades de una empresa con el propósito de lograr diferenciación y bajo costo.

Este cambio de mentalidad se resume a la perfección en una de las frases más célebres del libro:

«La única manera de vencer a la competencia es dejar de tratar de vencerla».

Estratégicamente, este giro es poderoso porque desplaza el objetivo empresarial de un juego de suma cero, en el que la ganancia de una empresa es la pérdida de otra, a una lógica de creación de nuevo valor. En lugar de repartir una demanda limitada, el objetivo es aumentar el tamaño total del mercado.

2. Innovación en valor: el arte de ser diferente y más barato a la vez.

El pensamiento estratégico tradicional nos ha enseñado que las empresas deben tomar una decisión fundamental: o bien compiten por diferenciación, ofreciendo un mayor valor a un coste más alto, o bien compiten por bajo coste, ofreciendo un valor razonable a un coste menor. La estrategia de los océanos azules rompe esta disyuntiva con su piedra angular: la innovación en valor.

La innovación en valor consiste en buscar simultáneamente la diferenciación y el bajo coste. No se trata de un simple avance tecnológico o de ser el primero en un mercado, sino de alinear la innovación con la utilidad para el comprador, el precio y la estructura de costes de la empresa.

Este concepto se materializa cuando se cuestiona en qué compite la industria. Al eliminar o reducir las variables que los clientes no valoran o que suponen un alto coste, la empresa consigue una estructura de costes inferior a la de sus competidores. Del mismo modo, al incrementar y crear nuevas fuentes de valor que la industria nunca antes había ofrecido, se genera una diferenciación radical. Es esta doble acción la que rompe la disyuntiva clásica y permite ofrecer un valor superior a un coste menor.

Este enfoque, que busca la diferenciación y el bajo coste de forma simultánea, no es solo una teoría elegante, sino que tiene un impacto medible y desproporcionado en los resultados del negocio, como demuestran las cifras del siguiente apartado.

3. El impacto real de los océanos azules (traducido en cifras).

Para quienes puedan pensar que crear nuevos mercados es una apuesta demasiado arriesgada, los autores presentan los resultados de un estudio sobre 108 lanzamientos de negocios que demuestran lo contrario. Los resultados son sorprendentes y revelan una clara asimetría entre el riesgo y la recompensa.

Las cifras hablan por sí solas:

  • Lanzamientos en océanos rojos (el 86 % del total) generaron solo el 62 % de los ingresos totales y un escaso 39 % de las utilidades.
  • Lanzamientos en océanos azules (14 % del total): generaron el 38 % de los ingresos y un impresionante 61 % de las utilidades totales.

Esta asimetría demuestra que, aunque la creación de océanos azules es menos frecuente, su impacto en la rentabilidad es desproporcionadamente alto. Aunque navegar en aguas competitivas puede parecer la opción más segura, las cifras indican que la verdadera oportunidad de crecimiento y rentabilidad se halla en la creación de nuevos espacios de mercado. Por tanto, la búsqueda de océanos azules se convierte en un imperativo estratégico.

4. Deja de obsesionarte con tus clientes y empieza a pensar en los «no clientes».

Las empresas tienden a centrarse en sus clientes actuales, tratando de segmentar el mercado de manera cada vez más precisa para satisfacer mejor sus preferencias. Para crear un océano azul y maximizar su tamaño, la estrategia propone hacer lo contrario: mirar más allá de la demanda existente y centrarse en los «no clientes».

Los autores identifican tres niveles de «no clientes» que representan un torrente de demanda potencial sin explotar:

  • Primer nivel: Personas que están próximas a convertirse en no clientes. Utilizan mínimamente la oferta actual mientras buscan algo mejor y están a la espera de dejar de ser clientes.
  • Segundo nivel: No clientes que rechazan conscientemente el mercado de la empresa. Han visto la oferta y han decidido no utilizarla.
  • Tercer nivel: No clientes inexplorados que jamás han contemplado la oferta de la empresa como una opción.

El caso del vino australiano Yellow Tail es un ejemplo perfecto. En lugar de competir con los conocedores del vino, se centraron en los no clientes: los bebedores de cerveza y cócteles. Este grupo se sentía intimidado por los aspectos del vino tradicional, como la compleja terminología enológica, el envejecimiento, los taninos y la sofisticación que rodeaba su consumo. Al identificar estos puntos de fricción, Yellow Tail creó un vino fácil de beber, accesible y divertido que eliminó o redujo sistemáticamente esas barreras, creando en su lugar «facilidad para beber» y «diversión y aventura», y abrió un océano azul masivo al convertir a los no bebedores de vino en nuevos clientes.

5. La herramienta para reconstruir tu mercado: eliminar, reducir, incrementar y crear.

La estrategia del océano azul no es un concepto abstracto, sino un proceso práctico y sistemático. Su principal herramienta para aplicar la innovación en valor es el esquema de las cuatro acciones, que desafía la lógica estratégica de una industria a través de cuatro preguntas clave:

  • ¿Qué variables que la industria da por sentadas se deben eliminar?
  • ¿Qué variables se deben reducir muy por debajo de la norma de la industria?
  • ¿Qué variables se deben incrementar muy por encima de la norma de la industria?
  • ¿Qué variables se deben crear porque la industria nunca las ha ofrecido?

El ejemplo más paradigmático es el Cirque du Soleil. En una industria del circo en declive, aplicaron este modelo para reinventar el entretenimiento en vivo.

  • Eliminó: las estrellas del circo, los espectáculos con animales, las concesiones en los pasillos y las pistas múltiples.
  • Redujo: la diversión, el humor, el suspense y el peligro.
  • Incrementó: un único escenario.
  • Creó: un tema, un ambiente refinado, múltiples producciones y música y danza artísticas.

Esta herramienta sistemática permite a cualquier empresa deconstruir la lógica de su sector y reconstruirla en una nueva curva de valor. Al responder a estas cuatro preguntas, una empresa puede visualizar un nuevo perfil estratégico que la diferencie radicalmente de la competencia, de modo que la comparación directa pierda sentido.

Conclusión: ¿cuál es tu océano azul?

La estrategia del océano azul es mucho más que una teoría empresarial: supone un cambio de mentalidad fundamental. Nos invita a pasar, de competir a crear, de dividir los mercados existentes a construirlos de nuevo. Demuestra que la creación de estos nuevos espacios no es fruto de la suerte o la genialidad, sino el resultado de un proceso estratégico, analítico y sistemático que cualquier organización puede llevar a cabo.

La próxima vez que te sientas atrapado en las sangrientas aguas de la competencia, detente y hazte una pregunta: ¿qué reglas «inquebrantables» de tu sector podrías empezar a cuestionar hoy mismo para descubrir tu propio océano azul?

En este audio se mantiene una conversación interesante sobre este tema.

El siguiente vídeo sintetiza bien las ideas más importantes de la estrategia del océano azul.

Os dejo un vídeo de Polimedia en el que el profesor Jordi Joan Mauri Castelló nos explica este concepto. Espero que os resulte útil.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Construcción sostenible: por qué nuestra intuición nos falla.

En un mundo cada vez más consciente de la emergencia climática, la construcción sostenible ha dejado de ser una opción para convertirse en una necesidad. Arquitectos, ingenieros y promotores buscan constantemente el método constructivo «perfecto»: aquel que sea económico, ecológico y socialmente responsable. Sin embargo, ¿qué pasaría si nuestras ideas más arraigadas sobre lo que es «mejor» estuvieran equivocadas?

Un detallado estudio científico realizado por nuestro grupo de investigación, dentro del proyecto RESILIFE, ha puesto a prueba nuestras creencias. En él, los investigadores compararon de forma exhaustiva cuatro métodos de construcción para una vivienda unifamiliar: uno tradicional y tres alternativas industrializadas que prometen mayor eficiencia y sostenibilidad. Sus conclusiones no solo son sorprendentes, sino que también revelan por qué nuestra intuición sobre la construcción sostenible a menudo falla. Este artículo desvela los hallazgos que nos obligan a replantearnos qué significa realmente construir de forma sostenible.

Vivienda unifamiliar adosada analizada.

Intuición fallida n.º 1: la búsqueda de un «campeón» absoluto.

La primera gran revelación del estudio es que no existe una solución mágica que destaque en todas las categorías. Nuestra intuición busca un único «campeón» de la sostenibilidad, pero la realidad es un complejo juego de equilibrios. Cada método constructivo destacó en una dimensión diferente, lo que demuestra que la opción ideal depende de las prioridades del proyecto.

El estudio identificó un ganador claro para cada una de las tres dimensiones:

  • Dimensión económica: la alternativa «PRE» (losa de hormigón aligerada con discos huecos) fue la más económica. Su ventaja radica en su alta eficiencia estructural, ya que requiere «la mitad de material para las mismas solicitaciones estructurales» en comparación con la losa convencional.
  • Dimensión medioambiental: la alternativa «YTN» (prefabricada con hormigón celular autoclavado) obtuvo el mejor rendimiento ecológico. Esto se debe a que es un «material 100 % mineral» que necesita poca materia prima (1 m³ de materia prima produce 5 m³ de producto) y tiene un «bajo consumo de energía en su fabricación».
  • Dimensión social: la alternativa «ELE» (elementos de doble pared) fue la óptima desde una perspectiva social, impulsada en gran medida por un mayor confort de usuario, gracias a su excepcional rendimiento térmico, derivado de la gruesa capa de EPS utilizada como encofrado perdido.

Este hallazgo es fundamental. La sostenibilidad real no consiste en maximizar una única métrica, como la reducción de CO₂, sino en encontrar un equilibrio inteligente entre factores que, a menudo, están en conflicto.

Intuición fallida n.º 2: asumir que lo más «verde» es siempre lo mejor.

Podríamos pensar que la opción con menor impacto medioambiental (YTN) sería automáticamente la más sostenible, pero no es así. Sin embargo, el estudio demuestra que no es tan simple. Al combinar todos los factores en un «Índice Global de Sostenibilidad Estructural» (GSSI), la alternativa ganadora fue la «PRE» (losa aligerada).

¿Por qué ganó? La razón es el equilibrio. Aunque no fue la mejor en los ámbitos medioambiental y social, la alternativa PRE ofreció un excelente rendimiento económico y resultados muy sólidos en las otras dos áreas. El estudio la selecciona como la opción más sostenible porque, en sus palabras, presenta las respuestas más equilibradas a los criterios. Esta conclusión subraya una idea crucial: la solución más sostenible no es un extremo, sino un compromiso inteligente y equilibrado.

Los métodos «modernos» no son infalibles: sorpresas en los costes.

El estudio desveló dos realidades incómodas sobre los costes, tanto económicos como medioambientales, de algunas de las alternativas más innovadoras y puso en tela de juicio la idea de que «moderno» siempre significa «mejor».

En primer lugar, el método prefabricado (YTN), que a menudo se asocia con la eficiencia y el ahorro, resultó ser el más caro de todos. Su coste de construcción fue un 30,4 % superior al del método convencional de referencia.

Pero el sobrecoste económico no es el único precio oculto que reveló el estudio. La alternativa más tecnológica, ELE, conlleva una elevada factura medioambiental. Aunque fue la mejor valorada socialmente, su rendimiento ecológico fue pobre debido al enorme consumo de energía necesario para producir el poliestireno expandido (EPS) que utiliza como encofrado perdido. El estudio es contundente al respecto:

«Esto significa que, solo en los forjados, la alternativa ELE provoca un consumo de energía tres veces superior al necesario para obtener el EPS que requiere la solución de referencia».

Este hallazgo nos recuerda la importancia de analizar el ciclo de vida completo de los materiales y no dejarnos seducir únicamente por etiquetas como «moderno» o «tecnológico».

El mayor riesgo es el «business as usual»: el método tradicional fue el peor.

Quizás el hallazgo más importante y aleccionador del estudio es el pobre desempeño del método de construcción convencional (denominado «REF»). Al compararlo con las tres alternativas industrializadas, el sistema tradicional resultó ser la opción menos sostenible en todos los aspectos.

La conclusión de los investigadores es clara e inequívoca: «La alternativa REF es la peor opción en todos los criterios individuales y, en consecuencia, obtiene la menor prioridad en la caracterización de la sostenibilidad». Este resultado debe hacer reflexionar al sector: seguir construyendo como siempre se ha hecho, sin evaluar ni adoptar nuevas alternativas, es la decisión menos sostenible que podemos tomar.

Conclusión: repensando la construcción sostenible.

Este estudio demuestra que la sostenibilidad es un problema complejo que desafía las soluciones simplistas y las ideas preconcebidas. No se trata de encontrar una solución universal, sino de evaluar de manera integral y equilibrada las dimensiones económica, medioambiental y social de cada proyecto.

Como resumen, los propios autores: «Solo la consideración simultánea de los tres campos de la sostenibilidad […] conducirá a diseños adecuados». Esto nos obliga a cambiar nuestra pregunta fundamental: en lugar de buscar el material más ecológico o la técnica más barata, debemos preguntarnos cuál es la solución más equilibrada para un contexto específico.

Teniendo en cuenta estos resultados, ¿cómo deberíamos redefinir «la mejor forma de construir» para conseguir un futuro verdaderamente sostenible?

Aquí tenéis un audio que explica estos conceptos.

Os dejo un vídeo resumen sobre estas ideas.

Referencia:

SÁNCHEZ-GARRIDO, A.J.; NAVARRO, I.J.; YEPES, V. (2022). Multi-criteria decision-making applied to the sustainability of building structures based on Modern Methods of Construction. Journal of Cleaner Production, 330:129724. DOI:10.1016/j.jclepro.2021.129724

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Procedimientos constructivos para pasos superiores pretensados in situ.

Figura 1. Desencofrado en paso superior. Pista de Silla (Valencia). Imagen: V. Yepes

1. Introducción a los pasos superiores pretensados.

Los pasos superiores pretensados construidos in situ constituyen una de las soluciones estructurales más extendidas y fiables para el desarrollo de obras lineales, como carreteras y ferrocarriles, en España. Su prevalencia se debe a una combinación de eficiencia estructural, robustez y notable capacidad de adaptación a las geometrías de cruce requeridas por la infraestructura moderna.

Estas estructuras se definen por una serie de características geométricas fundamentales que optimizan su comportamiento y coste.

  • Relación canto/luz: La esbeltez del tablero es un indicador clave de su eficiencia. Esta relación se obtiene dividiendo el canto entre la distancia entre apoyos (luz). Por lo general, esta proporción es de aproximadamente 1/25, aunque puede llegar a un límite práctico de 1/30 cuando existen restricciones severas de gálibo vertical. Superar este umbral conduce a diseños que requieren un pretensado excesivo, lo que invalida la eficiencia del concepto estructural y obliga a replantear el diseño por completo.
  • Configuraciones de vanos: La disposición de los vanos se adapta al obstáculo que hay que salvar, lo que da lugar a configuraciones estandarizadas por la práctica. En autovías, las configuraciones más comunes responden a una lógica funcional:
    • Dos vanos (por ejemplo, 30-30 m): configuración ideal para autovías de doble calzada, ya que se aprovecha la mediana central para ubicar una pila de apoyo.
    • Tres vanos (por ejemplo, 20-36-20 m): trazado común para salvar obstáculos más anchos cuando no es factible o deseable una pila central.
    • Cuatro vanos (por ejemplo, 12-18-18-12 m): solución para cruces amplios que requieren una distribución de apoyos más regular.
    • Cuando el cruce es esviado (no es perpendicular), las luces aumentan para mantener los gálibos, lo que puede llevar a configuraciones como 14-20-20-14 m. En las líneas de alta velocidad (AVE), son habituales los puentes de tres vanos con luces de 12-17-12 m.
  • Tipos de estribos: Los estribos, apoyos extremos del puente, pueden ser abiertos o cerrados. Se desaconseja rigurosamente el uso de estribos flotantes en tableros hiperestáticos (continuos sobre múltiples apoyos) debido al elevado riesgo de asientos diferenciales en el terraplén, fenómeno para el que estas estructuras no están preparadas y que comprometería gravemente su integridad.

La preferencia por las soluciones construidas in situ frente a las prefabricadas se debe principalmente a su mejor comportamiento frente a impactos accidentales de vehículos que exceden el gálibo permitido. Su capacidad para redistribuir cargas imprevistas les confiere una resiliencia intrínseca, fundamental para garantizar la seguridad a largo plazo de la infraestructura.

El éxito de estas estructuras depende de una ejecución meticulosa en cada fase. A continuación, se detallará el proceso constructivo, comenzando por los cimientos de la obra: la ejecución de los alzados.

2. Construcción de cimentaciones y alzados (pilas y estribos).

Los alzados del puente (pilas y estribos) representan entre el 30 % y el 50 % del coste total de la estructura y constituyen un componente crítico. Su correcta ejecución, desde la cimentación hasta la coronación, es la garantía fundamental de la estabilidad global y de la transmisión adecuada de las cargas al terreno.

El proceso comienza con la construcción de las cimentaciones, siguiendo una secuencia rigurosa:

  1. Excavación y verificación geotécnica: Se excava el terreno hasta la cota de cimentación definida en el proyecto. En este punto, es fundamental comprobar que el terreno de apoyo real posee las características de resistencia contempladas en el cálculo. Si el estrato esperado no se encuentra a la cota prevista, se debe profundizar la excavación hasta dar con él y rellenar el excedente de profundidad con hormigón pobre. Si el terreno adecuado no aparece, hay que detenerse y reconsiderar el diseño de la cimentación. Una práctica constructiva recomendable consiste en realizar una sobreexcavación de unos 5 cm para que el hormigón, que podría contaminarse con material de las paredes, quede fuera del recubrimiento estructural.
  2. Hormigón de limpieza y armaduras de zapata: Sobre el terreno verificado, se vierte una capa de hormigón de limpieza de entre 10 y 15 cm de espesor. Su función es crear una superficie de trabajo nivelada y limpia, esencial para el montaje correcto de las armaduras pasivas de la zapata. A continuación, se colocan las mallas inferior y superior de armadura, separadas entre sí por barras denominadas «pates», que garantizan la geometría y permiten el tránsito de los operarios sin deformar la armadura.
Figura 2. Cimbra porticada. Imagen: V. Yepes

Una vez completada la cimentación, se procede a la ejecución de los soportes, como en el caso de un estribo abierto:

  • Montaje de armaduras y encofrados: Se coloca la armadura pasiva del soporte, que suele llegar premontada desde el taller. A continuación, se instalan los encofrados, que suelen ser metálicos en el caso de los paramentos no vistos. Estos se aploman y se arriostran con puntales inclinados para garantizar su estabilidad frente a la presión hidrostática del hormigón fresco.
  • Hormigonado de soportes: El hormigonado se realiza con un cubilote y una manguera que desciende hasta el fondo del encofrado para evitar la segregación del hormigón al caer desde gran altura. Se utiliza hormigón tipo HA-25 y se vibra en capas de unos 30 cm para asegurar una compactación homogénea.
  • Desencofrado: El encofrado se retira normalmente a las 24 horas. El acabado superficial de estos paramentos no vistos suele ser de calidad básica, ya que quedarán cubiertos por el relleno de tierras.

Una vez ejecutados los soportes, se procede al relleno de tierras en la parte trasera del estribo. Esta operación requiere una compactación rigurosa para evitar desprendimientos futuros bajo las cargas de tráfico. Es fundamental coordinar esta tarea con la construcción del cargadero, es decir, la viga de coronación que une los soportes. En la práctica, la coordinación entre los equipos de movimiento de tierras y los de estructuras suele ser un punto conflictivo, pero es imprescindible compactar el relleno antes de hormigonar el cargadero para poder acceder con la maquinaria de compactación.

En paralelo, se construyen las pilas intermedias. Un ejemplo común son las pilas circulares, que se ejecutan con encofrados metálicos semicirculares que se ensamblan para formar los diámetros más frecuentes: 1,00 m o 1,20 m.

Una vez finalizados los alzados, la obra está preparada para la siguiente fase crucial: el montaje de la estructura auxiliar que soportará el tablero.

3. Sistemas de cimbrado y encofrado del tablero.

La ejecución del tablero in situ requiere un sistema de soporte temporal robusto y preciso. Este sistema está compuesto por dos elementos funcionalmente distintos: la cimbra, que es la estructura de apoyo global que transmite las cargas al terreno, y el encofrado, que es el molde en contacto directo con el hormigón y que le confiere su geometría final. A continuación, se analizan las dos metodologías principales empleadas.

3.1 Método 1: cimbra tubular con encofrado de madera.

Este es el sistema más tradicional y versátil. La cimbra tubular (tipo PAL) está formada por torres de perfiles huecos de planta cuadrada o triangular que cubren toda la superficie inferior del tablero. Su montaje, realizado por una cuadrilla de cinco personas, suele durar una semana.

La seguridad y estabilidad de este sistema dependen de varios factores críticos:

  • Estabilidad y arriostramiento: Para evitar el colapso «en castillo de naipes», es imprescindible escalonar los terraplenes laterales de los vanos extremos y conectar las torres entre sí mediante barras de arriostramiento longitudinales y transversales.
  • Cimentación y apoyo: La cimbra requiere un terreno con una tensión admisible mínima de 0,10 MPa. Para cumplir este requisito, suele mejorarse el terreno con una capa de grava-cemento y se reparten las cargas de las torres mediante tableros de madera longitudinales o zapatas individuales bajo cada pie.
  • Drenaje: Una gestión deficiente de las aguas torrenciales puede erosionar el terreno de apoyo y provocar el desplome de la cimbra, por lo que el control de estas aguas es un aspecto fundamental de la seguridad.
Figura 3. Cimbra con torres modulares. Imagen: V. Yepes

Sobre la cimbra tubular se monta el encofrado de madera, cuyo  montaje puede llevar de una a tres semanas:

  • Nivelación y ajuste fino: En la parte superior de cada torre hay husillos de nivelación que permiten ajustar la cota del encofrado con precisión milimétrica. Un aspecto notable de estos diseños es la omisión deliberada de la contraflecha (curvatura ascendente). Esto es posible porque la flecha descendente debida al peso propio y la contraflecha ascendente generada por el pretensado tienen magnitudes similares y se anulan mutuamente, lo que caracteriza un diseño de pretensado eficiente.
  • Componentes del encofrado: El sistema está compuesto por largueros (vigas longitudinales apoyadas en los husillos), costillas (elementos transversales que dan forma a la sección) y el forro de tabla, que es la superficie en contacto directo con el hormigón.
  • Elementos específicos: Se deben ejecutar encofrados particulares para elementos como los dados de apoyo sobre los neoprenos y los cajetines de los anclajes del sistema de pretensado.

3.2. Método 2: cimbra industrial con encofrado metálico.

Este sistema es una alternativa más moderna y rápida. Consiste en torres de carga metálicas de alta capacidad, separadas aproximadamente cada 12 metros, sobre las cuales se apoyan vigas en celosía que sostienen los paneles de encofrado metálicos.

Figura 4. Cimbra porticada. Imagen: V. Yepes

Las particularidades de este sistema frente al método tradicional son:

  • Cimentación: Cada pareja de torres puede soportar cargas de hasta 250 toneladas, por lo que es necesario construir zapatas de hormigón armado de unos 40 cm de espesor. Si el terreno no es adecuado, puede ser necesario realizar pilotajes en estas cimentaciones temporales.
  • Ventajas: Su principal ventaja es la rapidez de montaje, ya que permite alcanzar ciclos de hormigonado de un tablero al mes. Además, su diseño diáfano permite mantener el paso de los vehículos por debajo de la estructura durante la construcción.
  • Calidad de acabado: El acabado superficial que deja el encofrado metálico suele ser de peor calidad estética que el de la madera. Para mejorarlo, se pueden aplicar tratamientos al hormigón para dejar el árido visto.
  • Descimbrado: A diferencia del sistema tubular, el descimbrado se realiza mediante gatos de tornillo situados en la base de las torres, que permiten descender toda la estructura de forma controlada.

Una vez completado el montaje de la cimbra y el encofrado, la estructura está lista para recibir el esqueleto de acero que le conferirá su resistencia.

4. Colocación de armaduras pasivas y activas.

Esta fase consiste en montar el entramado de acero que reforzará el hormigón. Existen dos tipos de armaduras con funciones diferentes: las pasivas, que absorben esfuerzos locales y controlan la fisuración, y las activas, que conforman el sistema de pretensado que proporciona la capacidad portante principal del puente.

Las armaduras pasivas presentan una cuantía que oscila entre 50 y 70 kg/m² de tablero, mientras que las armaduras activas tienen una cuantía menor, que varía entre 12 y 25 kg/m.

Figura 5. Aligeramientos de poliestireno entre armaduras pasivas.

El proceso de montaje se desarrolla de la siguiente manera:

  1. Montaje de armaduras pasivas: Las barras de acero llegan a la obra cortadas y dobladas desde el taller. El montaje comienza con las armaduras transversales («barcas») y las barras maestras longitudinales, con las que se construye un armazón base estable. Una zona que requiere especial atención es el diafragma de estribos (riostra de estribos), una viga transversal integrada diseñada para distribuir las inmensas fuerzas concentradas de los anclajes del pretensado (de hasta 4548 toneladas) en el cuerpo del tablero. El armado en esta zona debe ser extremadamente denso; un armado deficiente podría provocar la rotura del hormigón durante el pretensado. No se trata de una preocupación teórica. En España se han producido accidentes mortales debido a un armado inadecuado en las zonas de anclaje. Por este motivo, considero que la revisión de este detalle específico del armado es uno de los puntos de control más críticos de todo el proceso constructivo.
  2. Colocación de aligeramientos de poliestireno (porexpan): Para optimizar la sección, se emplean bloques de poliestireno como aligeramientos internos. Su función estructural consiste en mejorar la relación inercia/área, al reducir el peso propio y aumentar la eficiencia del pretensado. Estos bloques tienden a flotar en el hormigón fresco. Para evitarlo, se sujetan con barras de acero superiores y transversales. Aun así, la fuerza ascensional es tan elevada que obliga a hormigonar el tablero en tongadas.
  3. Instalación de armaduras activas (pretensado):
    • Trazado de las vainas: Se colocan las vainas (tubos metálicos corrugados) que alojarán los cables. Su trazado se realiza siguiendo la ley de momentos flectores: se colocan en la parte superior del tablero, sobre los apoyos, y en la parte inferior, en el centro de los vanos, con una tolerancia de colocación de solo 1 cm. Es crucial garantizar un espacio horizontal mínimo de 5 a 6 cm entre las vainas, especialmente en vanos y sobre pilas. Si las vainas quedan alineadas verticalmente, las fuerzas radiales del pretensado pueden generar tracciones que rompan el hormigón entre ellas.
    • Tubos de purga: En los puntos más altos del trazado (generalmente, sobre las pilas) se instalan tubos de purga. Estos tubos son fundamentales para permitir la salida del aire durante la inyección posterior de mortero, lo que garantiza la protección completa del acero y la durabilidad del puente.
    • Enfilado de torones: El día antes del hormigonado, los torones de acero se enfilan en las vainas mediante una enfiladora mecánica, dejando un metro de cable sobrante en cada extremo para el anclaje del gato de tesado.
Figura 6. Enfilando cables de pretensado. Youtube.

Tras el meticuloso ensamblaje e inspección de las armaduras, se alcanza el punto de no retorno: el vertido monolítico que dará al puente su forma definitiva.

5. Hormigonado del tablero.

El hormigonado del tablero es una de las fases más críticas y logísticamente complejas. Debe ejecutarse de forma continua, de principio a fin y sin juntas de construcción, para garantizar la integridad monolítica de la estructura.

Una planificación logística adecuada es fundamental para garantizar un hormigonado ininterrumpido:

  • Volumen y suministro: Se manejan volúmenes de entre 300 y 700 m³, normalmente de hormigón HP-35. Para evitar paradas, la estrategia habitual consiste en contratar el suministro de dos plantas diferentes, de modo que una pueda cubrir a la otra en caso de avería.
  • Equipos: Es indispensable contar con una bomba de hormigón de repuesto en la obra para sustituir de inmediato la principal en caso de fallo.
  • Condiciones ambientales: La operación se pospone ante riesgo de heladas o si las temperaturas superan los 40 °C. No obstante, una vez iniciado, el hormigonado debe continuar incluso si comienza a llover.
Figura 7. Hormigonado del tablero. https://economis.com.ar/puente-san-francisco-en-andresito-se-avanzo-con-el-hormigonado-del-tablero/

El proceso de ejecución en obra se realiza con un estricto control de calidad:

  • Técnica de vertido en tongadas: Para evitar la flotación de los aligeramientos de poliestireno, el hormigonado se realiza en tres capas o tongadas sucesivas: primero la losa inferior, luego las almas y, por último, la losa superior. Es fundamental que el vibrador penetre en la capa anterior para asegurar un vínculo monolítico y evitar juntas frías entre vertidos.
  • Control de calidad del hormigón: Se comprueba la consistencia del hormigón con el cono de Abrams y se toman muestras cilíndricas (aproximadamente seis por cada tercio de las cubas) para realizar ensayos de rotura en el laboratorio y confirmar que la resistencia alcanza los valores requeridos a los 7 y 28 días.

La cuadrilla de trabajo se guía por «tochos», barras con marcas de cota establecidas según la topografía, para garantizar que la superficie final del tablero tenga la geometría exacta definida en los planos.

Cuando el hormigón alcanza la resistencia necesaria, se somete la estructura a su primera prueba de carga real: el pretensado.

6. Operaciones de pretensado del tablero.

Figura 8. Tesado de los cables.

El tesado de los cables es la operación estructuralmente más crítica, ya que somete al puente a una de sus situaciones de carga más exigentes: la combinación del pretensado máximo con únicamente el peso propio de la estructura.

Para llevar a cabo el tesado, deben cumplirse unos requisitos previos:

  • Resistencia del hormigón: El hormigón debe alcanzar una resistencia mínima especificada de 27,5 MPa para el hormigón HP-35. Este valor, que suele alcanzarse a los siete días, es necesario para que el hormigón soporte las altas cargas concentradas en los anclajes y para limitar las pérdidas de pretensado a largo plazo.
  • Equipo de tesado: El equipo consta de un gato de pretensado, una centralita hidráulica y un grupo electrógeno.

El procedimiento de tesado de cada tendón, que dura aproximadamente 45 minutos, sigue una secuencia metódica:

  1. Secuencia: El tesado sigue un orden definido en los planos, generalmente desde los tendones centrales hacia los extremos para mantener la simetría de las cargas.
  2. Preparación: Se enfilan los bloques de anclaje («quesos») y se colocan las cuñas cónicas que los bloquearán.
  3. Aplicación de carga y control dual: Se aplica la presión hidráulica al gato de forma gradual. La correcta aplicación de la fuerza se verifica mediante un doble control: se mide la presión en el manómetro y, simultáneamente, el alargamiento real del cable.
  4. Criterio de aceptación: El tesado se considera correcto si la desviación media entre el alargamiento real y el teórico es inferior al 5 %. Si la discrepancia es mayor, el primer paso es reevaluar el alargamiento teórico utilizando el módulo de elasticidad real del acero, obtenido de los ensayos de control de calidad, ya que esta es una causa frecuente de disparidad.

Tras tesar desde un extremo, se repite la operación desde el otro; el alargamiento total es la suma de ambos. Una vez aprobado el tesado, se cortan los sobrantes de los torones y se puede proceder al descimbrado.

Para garantizar la durabilidad a largo plazo de la armadura activa, es imprescindible realizar la siguiente operación: la inyección de las vainas.

7. Inyección de vainas.

La inyección consiste en rellenar los conductos (vainas) que alojan los cables de pretensado con un mortero específico. Cumple dos funciones fundamentales:

  1. Protección contra la corrosión: El mortero aísla las armaduras activas del ambiente exterior, lo que previene su oxidación.
  2. Adherencia: La inyección crea un vínculo mecánico sólido entre la armadura activa y el hormigón circundante.

El procedimiento se realiza de la siguiente manera:

  • Equipo y mezcla: Se utiliza una amasadora y una bomba de inyección. Está prohibido amasar a mano.
  • Proceso de relleno: El mortero se inyecta a presión (aproximadamente 0,50 N/mm²) desde un extremo de la vaina.
  • Purga de aire: A medida que el mortero avanza, se abren los tubos de purga en los puntos más altos para expulsar el aire atrapado. No se cierran hasta que por el tubo emane un «chorro sólido de inyección». Este paso es absolutamente crítico. Una inyección deficiente con aire ocluido «puede dar lugar, en un plazo de 10 a 20 años, a la corrosión de las armaduras activas y al desplome del puente».

Una vez asegurada la integridad estructural interna, se procede a las fases de acabado exterior y de superestructura.

8. Acabados y superestructura.

Esta fase incluye todos los trabajos destinados a la finalización estética y funcional del puente, desde el tratamiento de las superficies de hormigón hasta la instalación de los elementos de circulación.

La calidad de los acabados del hormigón visto depende directamente del tipo de encofrado utilizado:

  • Encofrado de madera: Proporciona un acabado de alta calidad que deja marcada la veta de la tabla y es ideal para entornos urbanos. Para mantener esta calidad, suele limitarse el número de usos. Si se busca la máxima calidad, suele exigirse madera de primera puesta.
  • Encofrado metálico: Puede dejar acabados de menor calidad, con marcas visibles en las juntas y manchas si no se toman precauciones.

Desde el punto de vista estético, la esbeltez del puente (con una relación luz/canto de 27,5, por ejemplo) es uno de sus principales atributos. Para preservar la elegancia visual que aporta la esbeltez del tablero, debe evitarse el uso de parapetos de hormigón macizo. Estos añaden un volumen visual que contradice la eficiencia estructural del diseño. Las barandillas metálicas abiertas son la opción más apropiada para mantener la estética deseada.

Finalmente, se ejecutan los elementos de la superestructura.

  • Aceras: Se forman mediante un bordillo, una solera de hormigón in situ y una imposta lateral. Es fundamental que dispongan de armaduras de conexión con el tablero que resistan los impactos de los vehículos sin desprenderse.
  • Otros elementos: La construcción se completa con la colocación del firme (pavimento asfáltico) y de las juntas de calzada en los estribos.

Una vez terminada la superestructura, el puente está listo para su validación final mediante la prueba de carga.

9. Prueba de carga.

La prueba de carga es la fase final y obligatoria para todos los puentes con una luz superior a 12 metros en España. Su objetivo es verificar experimentalmente el comportamiento real de la estructura y comprobar que este se corresponde con las previsiones del cálculo antes de su puesta en servicio.

Figura 9. Prueba de carga. https://www.laensa.com/prueba-carga-se40/

La prueba se diseña y ejecuta siguiendo estas pautas:

  • Objetivo y configuración: El propósito es someter al puente a un tren de cargas que genere esfuerzos cercanos al 70 % de los del tren de cargas del proyecto. Por ejemplo, para un puente cuyo tren de cargas de proyecto suma 348 toneladas, una prueba típica podría emplear ocho camiones de 30 toneladas cada uno, que sumarían 240 toneladas..
  • Estados de carga: Los camiones se disponen en distintas configuraciones diseñadas para provocar el máximo efecto en las secciones críticas: por ejemplo, en el centro de un vano para generar el máximo momento flector positivo o sobre las pilas para generar el máximo momento flector negativo.

Durante la prueba, se aplica un estricto criterio de aceptación:

  • Medición de deformaciones: Los desplazamientos verticales (flechas) del tablero se miden con gran precisión mediante pértigas y relojes comparadores.
  • Resultados típicos: La experiencia demuestra que las flechas medidas suelen representar aproximadamente el 85 % de las teóricas calculadas.
  • Ciclo de carga y descarga: Se mide la posición en vacío, con carga instantánea, con carga estabilizada y tras la descarga. Para que la prueba se considere satisfactoria, la recuperación de la flecha tras la descarga debe superar el 90 % de la deformación total medida.

La superación de la prueba de carga no es un mero trámite final, sino la validación final de un proceso riguroso. Representa la confirmación de que la intención del diseño se ha traducido meticulosamente en la realidad física mediante una ejecución disciplinada en cada etapa previa. El resultado se documenta en un acta oficial y el paso superior queda listo para entrar en servicio.

Referencias:

YEPES-BELLVER, L. (2025). Multi-criteria optimization for sustainable designof post-tensioned concrete slab bridges using metamodels. Doctoral Thesis, Construction Engineering Department, Universitat Politècnica de València.

YEPES, V. (2024). Estructuras auxiliares en la construcción: Andamios, apeos, entibaciones, encofrados y cimbras. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 408 pp. Ref. 477. ISBN: 978-84-1396-238-2

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442. ISBN: 978-84-1396-046-3

YEPES, V. (2021). Procedimientos de construcción para la compactación y mejora del terreno. Colección Manual de Referencia, 1ª edición. Editorial Universitat Politècnica de València, 426 pp. Ref. 428. ISBN: 978-84-9048-603-0.

YEPES, V. (2020). Procedimientos de construcción de cimentaciones y estructuras de contención. Colección Manual de Referencia, 2ª edición. Editorial Universitat Politècnica de València, 480 pp. Ref. 328. ISBN: 978-84-9048-903-1.

Cursos:

Curso de fabricación y puesta en obra del hormigón.

Curso de estructuras auxiliares en la construcción: andamios, apeos, entibaciones, encofrados y cimbras.

Curso de Procedimientos de Construcción de cimentaciones y estructuras de contención en obra civil y edificación.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Entendiendo la protección sísmica: cómo hacemos nuestros edificios más seguros.

Figura 1. El gran terremoto de 1985 en Chile. https://novaciencia.es/el-gran-terremoto-de-1985-en-chile-un-seismo-que-se-podria-repetir-dentro-de-40-anos/

1. Introducción: viviendo en un país sísmico.

Vivir en un país como Chile significa comprender que el suelo que pisamos no es estático, sino que habitamos una tierra de geografía imponente, forjada por la misma energía que, de vez en cuando, nos recuerda su poder. Somos uno de los países con mayor actividad sísmica del planeta, una realidad que nos obliga a respetar la naturaleza y a liderar el desarrollo de una ingeniería resiliente. Para comprender la magnitud de nuestro desafío, basta con una cifra contundente proporcionada por el experto sismólogo Sergio Barrientos: el 46,5 % de toda la energía sísmica mundial del siglo XX se liberó en Chile.

Esta convivencia con los seísmos ha moldeado nuestra forma de construir. La normativa chilena (NCh433) establece una filosofía de diseño sismorresistente con objetivos claros y escalonados enfocados, ante todo, en la seguridad de las personas.

  • Sismos moderados: la estructura debe resistir sin sufrir ningún daño.
  • Sismos medianos: se aceptan daños, pero estos deben limitarse a elementos «no estructurales», como tabiques o techos falsos.
  • Sismos severos: el objetivo primordial es evitar el colapso de la estructura para salvaguardar la vida de sus ocupantes, aunque esto implique daños significativos e irreparables en el edificio.

El mensaje clave es que la meta mínima es sobrevivir. Un edificio puede quedar completamente inutilizable tras un gran terremoto, pero si no se derrumbó, cumplió su función principal. Sin embargo, tras la experiencia del terremoto de 2010, la población exige «algo más que evitar el colapso». En la actualidad, no solo se busca sobrevivir, sino también proteger la inversión, garantizar la funcionalidad de los edificios críticos y asegurar la tranquilidad.

Para responder a estas nuevas y más altas expectativas, la ingeniería ha desarrollado tecnologías avanzadas que van más allá de la normativa: los sistemas de protección sísmica.

2. ¿Qué son los sistemas de protección sísmica?

Para combatir la energía destructiva de un terremoto, la ingeniería ha diseñado el aislamiento sísmico y la disipación de energía. Ambos son sistemas pasivos, es decir, no requieren energía externa para funcionar, y su objetivo es reducir drásticamente el daño. Sin embargo, sus estrategias son fundamentalmente diferentes:

Sistema Principio fundamental (analogía) Objetivo principal
Aislamiento sísmico Actúa como un filtro o un campo de fuerza. Separa o «desacopla» el edificio del suelo, evitando que la mayor parte de la energía del sismo ingrese a la estructura. Limitar la energía que el sismo transfiere a la superestructura.
Disipación de energía Actúa como los amortiguadores. Absorbe la energía que ya entró al edificio, concentrándola en dispositivos especiales para proteger la estructura principal. Disipar la energía en dispositivos especializados, reduciendo el daño a componentes estructurales y no estructurales.

En resumen, usando una metáfora bélica, el aislamiento busca ganar la batalla impidiendo que el enemigo entre en la fortaleza, mientras que la disipación gana la batalla gestionando de forma inteligente al enemigo una vez que ha cruzado los muros. Ambas estrategias buscan un nivel de rendimiento muy superior al mínimo exigido, que es simplemente evitar el colapso.

3. Desacoplando el edificio del terremoto: cómo funcionan los aisladores sísmicos.

Pero, ¿cómo se logra «desconectar» un gigante de hormigón de la tierra? El aislamiento sísmico lo consigue instalando una serie de elementos flexibles entre la cimentación y la estructura principal. Estos dispositivos ralentizan el movimiento del edificio y transforman las sacudidas violentas y rápidas del seísmo en un vaivén lento y suave. En esencia, el edificio navega el terremoto en lugar de luchar contra él.

Existen dos categorías principales de aisladores:

  • Aislantes elastoméricos: Son extremadamente rígidos en sentido vertical para soportar el peso colosal del edificio, pero muy flexibles en sentido horizontal para permitir el movimiento. Una versión avanzada incluye un núcleo de plomo (LRB) que, además de aislar, disipa energía.
  • Aislantes deslizantes (de fricción): Durante un terremoto, un deslizador se mueve sobre una superficie curva de acero inoxidable. La fricción frena el movimiento y disipa energía, y la forma del plato guía suavemente el edificio de vuelta a su centro una vez que todo termina.
Figura 2. Aisladores de caucho y plomo. https://sites.ipleiria.pt/seismicknowledge/tag/aisladores-de-caucho-y-plomo/

El principal beneficio del aislamiento para los ocupantes y los bienes es que, al reducir drásticamente los movimientos, se protege no solo la estructura, sino también los muros, las ventanas y, fundamentalmente, todo lo que hay dentro: desde equipos médicos y ordenadores hasta objetos valiosos.

4. Absorbiendo el impacto: cómo funcionan los disipadores de energía.

Pero, ¿qué sucede si no podemos evitar que la energía entre? La respuesta es mantenerla bajo control. Esa es la misión de los disipadores de energía. Se trata de dispositivos especiales que se añaden a la estructura para que actúen como «fusibles» mecánicos, diseñados para absorber la mayor parte del impacto del seísmo.

Estos dispositivos se deforman o se mueven de manera controlada, convirtiendo la energía cinética en calor, que se disipa de forma inofensiva. De esta manera, «toman el golpe» del terremoto y protegen los elementos estructurales principales, como vigas, columnas y muros.

Dos ejemplos ilustran bien el concepto:

  • Los disipadores metálicos son piezas de metal con formas especiales diseñadas para doblarse de manera controlada. Al hacerlo, absorben una gran cantidad de energía de forma similar a como se calienta un clip de papel si lo doblas repetidamente, convirtiendo la energía cinética en calor inofensivo.
  • Los disipadores fluido-viscosos funcionan de manera muy similar a los amortiguadores de un automóvil, pero a gran escala. Consisten en un pistón que fuerza el paso de un fluido muy espeso a través de pequeños orificios. Este proceso frena el movimiento del edificio y convierte la energía cinética del seísmo en calor.
Figura 3. Disipadores sísmicos utilizados en la Torre Titanium (Chile). https://sites.ipleiria.pt/seismicknowledge/torre-titanium-la-portada/

 

Figura 4. Amortiguador viscoso. Puente Amolanas (Chile). https://www.cec.uchile.cl/~renadic/anexos/amolana2.html

El resultado es que la energía es absorbida por estos elementos de sacrificio. Esto no solo minimiza el daño general, sino que tiene una ventaja práctica fundamental: después de un terremoto intenso, es mucho más rápido y económico inspeccionar y reemplazar estos «fusibles» diseñados para fallar que reparar las vigas o columnas, que constituyen el esqueleto del edificio.

5. Más allá de sobrevivir: ¿por qué es importante invertir en protección sísmica?

La implantación de estos sistemas no solo supone una mejora técnica, sino que constituye una inversión estratégica que redefine el concepto de seguridad en un país sísmico. Sus beneficios más relevantes son profundamente humanos.

  • Manteniendo en pie lo esencial: continuidad operativa para infraestructuras críticas, como hospitales, aeropuertos o centros de datos, seguir funcionando durante y después de un seísmo es vital. Un caso emblemático es el del Teaching Hospital of USC en el terremoto de Northridge (1994). Gracias a su aislamiento sísmico, permaneció totalmente operativo, mientras que un hospital cercano de diseño convencional tuvo que ser evacuado y sufrió daños por valor de 400 millones de dólares.
  • Protegiendo más que ladrillos: estos sistemas reducen drásticamente los costes de reparación, pero su verdadero valor radica en proteger aquello que el dinero no siempre puede reemplazar. Salvaguardar equipos médicos de vanguardia, servidores con información crítica, maquinaria industrial o incluso los recuerdos y bienes de una familia es tan importante como proteger el edificio en sí.
  • La ingeniería de la tranquilidad: al ofrecer un rendimiento superior, estas tecnologías responden directamente a la demanda ciudadana de mayor seguridad. Un edificio que se mueve menos y sufre menos daños no solo protege físicamente a sus ocupantes, sino que también les proporciona una sensación de seguridad y tranquilidad invaluable en los momentos de mayor incertidumbre.

En resumen, los sistemas de protección sísmica suponen un cambio de paradigma en ingeniería, ya que responden a la demanda de una sociedad que no se conforma con sobrevivir, sino que exige activamente resiliencia, funcionalidad y la incalculable paz mental en una de las zonas más sísmicas del mundo.

En este audio, se puede escuchar una conversación sobre este tema.

Aquí tenéis un vídeo resumen, que se centra en este problema.

En este otro vídeo se puede ver un ejemplo.

Os dejo este documento que explica bien el tema del que se ha hablado en este artículo.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Lecciones de un filósofo para discutir mejor (y pensar con más claridad).

Anthony Weston en 2012. Por Violetwood – Trabajo propio, CC BY-SA 3.0, https://commons.wikimedia.org

En una asignatura que imparto en el Máster en Planificación y Gestión de la Ingeniería Civil, dedico unas horas a que mis estudiantes desarrollen el pensamiento crítico y aprendan a argumentar. Esto es fundamental para su desarrollo profesional, ya que deberán realizar informes, leer documentación técnica y, sobre todo, saber identificar los prejuicios y las opiniones carentes de razonamiento. Este aprendizaje es también fundamental para su vida en general, para no dejarse manipular y para desarrollar un criterio propio. Para ello, uno de los libros que recomiendo es Las claves de la argumentación, de Anthony Weston. A continuación, veremos algunos aspectos de este libro.

La palabra «argumento» suele tener mala fama. La asociamos con disputas y discusiones verbales inútiles en las que dos personas exponen sus prejuicios sin escucharse. Es la imagen de un conflicto en el que nadie gana y todos acaban frustrados. Sin embargo, esta percepción, aunque común, no se corresponde en absoluto con lo que significa argumentar.

En su influyente libro, el filósofo Anthony Weston nos ofrece una perspectiva transformadora. Nos enseña que «dar un argumento» no es una pelea, sino que significa «ofrecer un conjunto de razones o pruebas en apoyo de una conclusión». Lejos de ser inútiles, los argumentos se convierten así en herramientas esenciales para defender nuestras ideas y, lo que es más importante, para indagar, descubrir y pensar con mayor claridad. A continuación, exploramos seis de sus reglas fundamentales, ideas que actúan como llaves maestras para abrir la puerta a un pensamiento más claro y un debate más honesto.

1. Argumentar no es pelear, es investigar.

El primer y más relevante cambio de mentalidad consiste en entender que un argumento no es una batalla que se gana o se pierde. Es una herramienta de investigación que nos permite explorar qué opiniones son mejores que otras y por qué. Cuando argumentamos, no solo defendemos una idea preconcebida, sino que también ponemos a prueba nuestras propias creencias para ver si se sostienen con buenas razones.

Como señala Weston, no todos los puntos de vista son iguales. Algunos se apoyan en pruebas sólidas, mientras que otros tienen un sustento muy débil. El argumento es el método que usamos para distinguirlos.

En este sentido, un argumento es un medio para investigar.

Este cambio de perspectiva es crucial. Transforma una confrontación, que a menudo vemos como un juego de suma cero en el que solo puede ganar uno, en un proceso de descubrimiento colaborativo. El objetivo deja de ser «ganar» para convertirse en algo mucho más valioso: llegar juntos a una conclusión mejor informada y más sólida. Se pasa de un «yo contra ti» a un «nosotros contra el problema».

2. La trampa de la ambigüedad: no todos los «iguales» son iguales.

Un argumento puede parecer perfectamente lógico y, sin embargo, ser un completo engaño si se utiliza una palabra clave con dos significados diferentes. Esta es la falacia de la ambigüedad y es una de las trampas más sutiles del razonamiento.

Weston presenta un ejemplo brillante con la palabra «igual». Consideremos este argumento:

  • Las mujeres y los hombres son física y emocionalmente diferentes.
  • Por lo tanto, los sexos no son “iguales”.
  • Y, por lo tanto, el derecho no debe pretender que lo seamos.

El problema es que la palabra «igual» se usa de dos maneras distintas. En la primera, «igual» significa «idéntico». En la segunda, al hablar de derechos, «igualdad» significa «merecer los mismos derechos y oportunidades». Si aclaramos los términos, la debilidad del argumento queda expuesta: «Como las mujeres y los hombres no son físicamente ni emocionalmente idénticos, no merecen los mismos derechos y oportunidades». La conclusión ya no se sigue de la premisa. Lo mismo ocurre con términos cargados de significado como «egoísta», cuyo significado puede deslizarse desde «codicioso y egocéntrico» hasta «simplemente hacer lo que uno quiere», con lo que se vacía de contenido cualquier crítica. Esta lección nos obliga a definir nuestros términos: en cualquier discusión seria, la claridad es la base de la honestidad intelectual.

3. Para rebatir una idea, primero entiéndela (sin caricaturizarla).

Es muy tentador, sobre todo en debates acalorados, caricaturizar la postura del oponente para que parezca absurda y resulte más fácil de atacar. Esta falacia se conoce como «hombre de paja», y Weston nos advierte contra ella y contra el uso de lenguaje emotivo cuya única función sea manipular. A menudo, el lenguaje emotivo es la herramienta que usamos para construir al «hombre de paja», pues nos permite presentar la postura del otro de forma tan negativa que resulta irreconocible y fácil de derribar.

Por lo general, las personas que defienden una postura lo hacen por razones que consideran serias y sinceras. Si queremos rebatir una idea de forma honesta y persuasiva, primero debemos entenderla en su versión más fuerte y convincente, no en la más débil. Si no logramos hacerlo, es probable que ni siquiera la hayamos comprendido del todo.

Si no es capaz de imaginar cómo podría alguien defender el punto de vista que está atacando, es porque todavía no lo ha entendido bien.

Aplicar esta regla no solo fortalece nuestros propios argumentos, sino que fomenta un debate más productivo y respetuoso. Nos obliga a enfrentarnos a las verdaderas razones del otro, y no a una versión distorsionada que solo existe para nuestra conveniencia.

4. El peligro del «argumento de la persona que…» y la necesidad de ejemplos representativos.

Todos hemos escuchado o utilizado alguna vez el «argumento de la persona que…»: «Conozco a una persona que fumaba tres paquetes de cigarrillos al día y vivió hasta los 100 años». Este tipo de anécdotas son gráficas y memorables, pero utilizarlas como base para una conclusión general es una falacia.

Weston explica que generalizar a partir de información incompleta es un error común. Para que un argumento basado en ejemplos sea sólido, se necesitan más de un ejemplo y, lo que es más importante, que esos ejemplos sean representativos del conjunto sobre el que se generaliza. Una anécdota aislada, como la del fumador centenario, es una excepción, no una regla, y no puede refutar la abrumadora evidencia estadística de que fumar es perjudicial para la salud.

Para evaluar correctamente cualquier afirmación basada en ejemplos, necesitamos información de contexto: ¿cuántos fumadores no llegan a esa edad?, ¿cuál es la tasa de supervivencia en comparación con la de los no fumadores? Sin este contexto, los ejemplos individuales son prácticamente inútiles y, a menudo, engañosos. Este error revela un sesgo cognitivo fundamental: nuestra tendencia a otorgar más peso emocional y lógico a las historias personales y vívidas que a los datos estadísticos, aunque estos últimos sean mucho más representativos. Aprender a resistir al encanto de la anécdota es una característica del pensamiento claro.

5. La correlación no implica causalidad (y es más complicada de lo que crees).

A menudo, observamos que dos hechos ocurren juntos (una correlación) y saltamos a la conclusión de que uno debe causar el otro. Pero esta es una de las falacias más extendidas y peligrosas. Weston nos recuerda que, antes de aceptar que A causa B, debemos considerar explicaciones alternativas.

  • Puede ser una mera coincidencia. Que te quedaras dormido diez minutos después de tomar el «Bitter contra el insomnio de la doctora Hartshorne» no demuestra que el remedio funcione. Quizás estabas agotado y te habrías dormido de todos modos.
  • Ambos hechos pueden tener una causa común. Es posible que tanto ser culto como tener una mentalidad abierta sean efectos de un tercer factor, como ir a la universidad, que expone a las personas a diversas ideas y fomenta la lectura.
  • B puede causar A: tal vez tener una mentalidad abierta lleva a las personas a leer más, y no al revés. Weston cuenta una anécdota personal de su infancia: pensaba que los bomberos provocaban los incendios porque, después de todo, siempre estaban allí cuando había fuego. Solo más tarde comprendió que la causalidad iba en la dirección opuesta.
  • Las causas pueden ser complejas y bidireccionales. Los pasos de peatones se instalan en lugares donde se han producido accidentes, por lo que no se puede afirmar que su simple presencia cause más accidentes. Es posible que el lugar sea inherentemente peligroso y que haya múltiples causas que se retroalimenten entre sí.

Esta trampa mental es fácil de detectar en un niño, pero caemos en versiones más sofisticadas constantemente, lo que nos lleva a tomar malas decisiones, desde adoptar dietas ineficaces porque las promociona una celebridad hasta culpar a un político por un ciclo económico que no controla.

6. Atacar a la persona no invalida su argumento, pero sí el tuyo.

Cuando nos quedamos sin argumentos, podemos caer en la tentación de atacar a la persona que presenta el argumento en lugar del argumento mismo. Esta es la falacia ad hominem («contra el hombre»).

El libro nos ofrece un ejemplo contundente: cómo atacaron la teoría del economista Ricardo: algunos por ser burgués, otros por ser judío y otros por ser inglés. Ninguno de estos factores es relevante para determinar si su teoría económica es correcta. Para descalificar a una autoridad, hay que demostrar que no está bien informada, que no es imparcial o que otros expertos cualificados no están de acuerdo con ella. Sus características personales son irrelevantes.

En última instancia, un ataque personal no dice nada sobre la validez de la idea que se discute, pero sí mucho sobre quien lo realiza: revela una falta de argumentos sólidos y descalifica su posición en el debate.

Conclusión: pensar mejor, no solo ganar.

Las reglas de la argumentación no son trucos para «ganar» discusiones, sino herramientas para pensar con mayor claridad, honestidad y profundidad. Nos enseñan a construir nuestras propias ideas sobre cimientos sólidos, a evaluar críticamente las opiniones ajenas y a participar en conversaciones que busquen la comprensión en lugar de la victoria. El objetivo de un buen argumento, como nos recuerda Weston, es explicar y defender una conclusión con razones para que los demás puedan formarse su propia opinión de manera informada.

¿Cuál de estas ideas crees que tendría el mayor impacto en la calidad de tus conversaciones y decisiones si la aplicaras mañana?

En este audio tenéis una conversación interesante sobre este tema.

Este vídeo resume bien las ideas anteriores.

Referencia:

Weston, A. (2018). A rulebook for arguments. Hackett Publishing.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Ingeniería y resiliencia: la clave de los sistemas de apoyo a la decisión en la gestión de desastres.

En el panorama actual, marcado por una mayor complejidad e interconexión a nivel mundial, los efectos de los desastres son cada vez más graves. El cambio climático, por ejemplo, actúa como un multiplicador de riesgos, intensificando los peligros existentes y generando otros nuevos. Ante esta realidad, el concepto de resiliencia comunitaria se ha convertido en un elemento clave de las estrategias de gestión del riesgo de desastres. La misión de la ingeniería es proporcionar a las comunidades las herramientas necesarias para resistir, adaptarse y recuperarse de estos eventos. En este contexto, los sistemas de apoyo a la decisión (DSS) emergen como herramientas indispensables que transforman la manera en que abordamos la protección de las ciudades y sus ciudadanos.

¿Qué entendemos por resiliencia comunitaria?

En el ámbito de la ingeniería civil y la planificación urbana, la resiliencia se define como la capacidad de un sistema, comunidad o sociedad expuesta a peligros para resistir, absorber, adaptarse, transformarse y recuperarse de manera oportuna y eficiente de los efectos de un evento adverso. Esto incluye la preservación y restauración de sus estructuras y funciones básicas esenciales mediante una gestión de riesgos adecuada. Una comunidad resiliente es aquella que, tras un terremoto, una inundación o una ola de calor extrema, logra mantener operativas o recuperar rápidamente sus infraestructuras críticas —desde la red eléctrica hasta los hospitales—, minimizando el impacto en la vida de sus habitantes.

La gestión del riesgo de desastres (DRM) incluye las fases de prevención, preparación, respuesta y recuperación. La resiliencia está intrínsecamente vinculada a todas estas fases. Por ejemplo, la implementación de códigos de construcción más estrictos o sistemas de control de inundaciones es una medida de prevención que aumenta la resiliencia. La preparación, por su parte, permite que las comunidades se adapten mejor a una situación de desastre y se recuperen con mayor rapidez.

Sistemas de apoyo a la decisión (DSS): herramientas inteligentes para la gestión de crisis.

Los DSS son herramientas informáticas diseñadas para ayudar a los responsables de la toma de decisiones, ya que proporcionan análisis, información y recomendaciones, e incluso permiten simular diferentes escenarios. Son fundamentales para mejorar la resiliencia comunitaria, puesto que ofrecen soluciones rápidas y eficientes a los problemas relacionados con los desastres, integrando diversas fuentes de datos y perspectivas de múltiples interesados. Además, los DSS facilitan la operacionalización de la resiliencia, es decir, permiten traducir este concepto abstracto en acciones y modelos analíticos concretos en los que están implicados todos los actores clave, lo que ofrece una comprensión más profunda del proceso de resiliencia. Esto, a su vez, conduce a una toma de decisiones más objetiva y basada en pruebas, que mitiga la subjetividad humana.

Las técnicas de modelización en los DSS: un arsenal de estrategias.

Los DSS se construyen utilizando diversas técnicas de modelización, cada una con sus propias fortalezas. Entre ellas, las técnicas de optimización son las más utilizadas. Estas técnicas permiten encontrar la mejor solución a un problema teniendo en cuenta múltiples factores y restricciones, a menudo mediante algoritmos matemáticos que identifican la opción más eficiente o efectiva. Por ejemplo, se utilizan para decidir la asignación óptima de recursos para la reparación de infraestructuras tras un terremoto o para la gestión de intervenciones en infraestructuras interdependientes.

Otras técnicas destacadas incluyen:

  • Modelado espacial (SIG): utiliza sistemas de información geográfica (SIG) para capturar relaciones espaciales, analizar, predecir y visualizar la influencia de los factores geográficos en los procesos y las decisiones. Esta técnica resulta muy útil para visualizar la distribución de riesgos y recursos en una ubicación específica, lo que facilita la comprensión del estado de resiliencia.
  • Análisis de decisiones multicriterio (MCDA): ayuda a los responsables de la toma de decisiones a ponderar diferentes factores y evaluar alternativas frente a múltiples criterios, a menudo conflictivos, para identificar la opción más adecuada en función de las prioridades y los objetivos. Es idóneo para la toma de decisiones en grupo y para capturar aspectos cualitativos de un problema.
  • Simulación: crea un modelo digital para imitar sistemas o procesos del mundo real, lo que permite la experimentación y el análisis en un entorno controlado. Es excelente para probar el impacto de diversas políticas y decisiones en el comportamiento del sistema antes de su implementación real.
  • Teoría de grafos: estudia las relaciones entre objetos, que se representan como nodos y aristas en un grafo. Es fundamental para analizar la conectividad de las redes interdependientes, como las infraestructuras de transporte o suministro, y para encontrar rutas óptimas, por ejemplo, para la distribución de ayuda humanitaria.
  • Minería de texto: extrae conocimiento e información de grandes volúmenes de datos textuales mediante métodos computacionales. Un ejemplo práctico es el uso de chatbots que procesan datos de redes sociales para ofrecer información en tiempo real durante un desastre.

Aplicación de los DSS en las fases de gestión de desastres.

Es interesante observar que los DSS tienden a centrarse más en las fases de preparación y respuesta que en las de recuperación y mitigación. Por ejemplo, el modelado espacial se utiliza mucho en la fase de preparación (en el 80 % de los artículos consultados) para tomar decisiones estratégicas, como determinar la ubicación óptima de los refugios o cómo distribuir los recursos. Durante la fase de respuesta, los DSS espaciales permiten visualizar la situación en tiempo real, identificar rutas bloqueadas y distribuir la ayuda humanitaria de manera eficiente mediante algoritmos que calculan la ruta más corta.

La optimización, por su parte, se utiliza principalmente en la fase de recuperación (en el 75 % de los artículos consultados), particularmente en las decisiones relativas a la rehabilitación y reconstrucción de infraestructuras dañadas. Las técnicas de MCDA son adecuadas para la fase de preparación (el 75 % de los artículos), ya que permiten comparar planes y políticas alternativas con el tiempo necesario para su análisis. Los modelos de simulación también se utilizan en la fase de respuesta para imitar el comportamiento del sistema y de los individuos durante una catástrofe.

Desafíos en el desarrollo y la implementación de los DSS.

A pesar de su potencial, el desarrollo e implementación de sistemas de apoyo a la decisión para la resiliencia no están exentos de desafíos significativos. Uno de los principales desafíos es la disponibilidad y calidad de los datos. La modelización de la resiliencia es un proceso complejo en el que los datos, tanto cuantitativos como cualitativos, son fundamentales. A menudo, la información proviene de múltiples fuentes con diferentes niveles de precisión, lo que dificulta su integración. En los países menos desarrollados, el acceso a los datos públicos (censos, informes, etc.) es aún más complicado, lo que limita la aplicación de ciertos modelos.

Otro obstáculo es la incertidumbre inherente al contexto de un desastre y la necesidad de gestionar cambios en tiempo real. También es una preocupación crucial la privacidad de los datos sensibles sobre infraestructuras críticas o planes de emergencia.

Por último, la colaboración interdisciplinar es imprescindible, pero difícil de conseguir, y la integración de estos sistemas en las operaciones diarias de las organizaciones de emergencia sigue siendo un reto considerable.

La colaboración con los interesados es clave para el éxito.

La implicación de los diversos actores o partes interesadas (stakeholders) es fundamental en el ciclo de vida de un DSS para la resiliencia. Se identifican tres enfoques principales:

  1. Como fuente de datos: recopilando sus opiniones y datos (mediante entrevistas, encuestas o incluso información compartida en redes sociales).
  2. Participación en el diseño: involucrándolos en la identificación de problemas, la construcción del modelo y el desarrollo del sistema para garantizar que la herramienta sea relevante y práctica para sus necesidades reales
  3. Incorporación de preferencias en el modelo: reflejando sus prioridades como parámetros o funciones objetivo en los modelos matemáticos, lo que influirá directamente en las soluciones propuestas. Por ejemplo, se pueden integrar las preferencias comunitarias como restricciones en un modelo de optimización.

Conclusiones y futuras direcciones en ingeniería resiliente.

Los sistemas de apoyo a la decisión suponen un avance significativo en nuestra capacidad para crear comunidades más resilientes frente a los desastres. Aunque hemos logrado grandes avances, especialmente en las fases de preparación y respuesta, y con el uso intensivo de modelos de optimización, aún queda mucho por hacer. Es imperativo ampliar el enfoque a las fases de recuperación y mitigación e investigar cómo integrar fuentes de datos en tiempo real y tecnologías IoT para mejorar la capacidad de respuesta de los DSS en entornos dinámicos. Además, debemos seguir profundizando en la modelización de las interacciones entre los diversos actores de la comunidad para fomentar una colaboración más sólida y, en última instancia, crear un entorno más seguro y resiliente para todos.

Referencias:

Elkady, S., Hernantes, J., & Labaka, L. (2024). Decision-making for community resilience: A review of decision support systems and their applicationsHeliyon10(12).

Salas, J., & Yepes, V. (2020). Enhancing sustainability and resilience through multi-level infrastructure planningInternational Journal of Environmental Research and Public Health17(3), 962.

Zhou, Z. W., Alcalà, J., & Yepes, V. (2023). Carbon impact assessment of bridge construction based on resilience theoryJournal of Civil Engineering and Management29(6), 561-576.

Os dejo un audio que resume bien el artículo anterior. Espero que os sea de interés.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

La contribución de Rudolf Saliger al análisis estructural y la construcción en hormigón armado

Rudolf Saliger (1873 – 1958). Vienna TU archives.

Rudolf Saliger nació el 1 de febrero de 1873 en Spachendorf, cerca de Freudenthal, en el Imperio austrohúngaro, y falleció el 31 de enero de 1958 en Viena. Fue un ingeniero civil y profesor universitario austríaco, considerado uno de los pioneros del hormigón armado. Era hijo de Gustav Saliger, un ebanista, y creció como el undécimo de doce hermanos. Cursó sus estudios secundarios en la Realschule de Troppau.

Entre 1891 y 1898 estudió Ingeniería Civil en la Technische Hochschule de Viena, convirtiéndose en uno de los primeros en recibir el título de Diplom-Ingenieur. Interrumpió sus estudios en 1895-1896 para cumplir con su servicio militar anual como voluntario. Tras superar el segundo examen estatal en 1898, comenzó a trabajar en el Brückenbaubüro y en la dirección de vías de la Südbahngesellschaft (1897-1899). Entre 1899 y 1900 trabajó como ingeniero de puentes en la gobernación de Alta Austria, en Linz.

Posteriormente, orientó su carrera hacia Alemania: trabajó en la empresa Beton- und Monierbau AG, colaboró con el Materialprüfungsamt de Berlín-Dahlem en 1906 y ejerció como ingeniero de puentes y de hormigón armado en Kassel. En ese periodo también fue docente en las escuelas de construcción de Poznań y Kassel. Durante esos años, realizó viajes de estudios a Suiza, Francia —donde asistió a la Exposición Universal de París de 1900— y Bélgica, donde se formó en la técnica del hormigón armado bajo la influencia de los pioneros François Hennebique y Joseph Monier.

En 1903 contrajo matrimonio con Marie Hettling y, ese mismo año, obtuvo el título de doctor en la Technische Hochschule de Viena con la tesis Über die Festigkeit der Bauwerke aus veränderlich elastischen Stoffen, vornehmlich der Beton-Eisen-Konstruktionen (publicada en 1904).

En 1907 fue llamado a la Technische Hochschule de Braunschweig y, en 1908/1909, a la Deutsche Technische Hochschule de Praga, donde fue profesor de mecánica estructural y construcción metálica. En 1909 se trasladó a Dresde y, finalmente, en 1910 fue nombrado catedrático de Estática y Hormigón Armado en la Universidad Técnica de Viena, donde permaneció hasta su jubilación en 1940.

Desde 1910, impartía cursos de hormigón armado y, gracias a su iniciativa, esta asignatura se convirtió en obligatoria en el curso 1916/1917. No obstante, no fue hasta el curso 1927/1928 cuando alcanzó el pleno reconocimiento dentro del plan de estudios con su curso de construcción en piedra y hormigón armado. Entre 1920 y 1922 fue decano de la Facultad de Arquitectura y, en 1924/1925, rector de la institución.

Además de su labor docente, entre 1927 y 1934 trabajó como asesor técnico de la ciudad de Viena, donde actuó como consultor y proyectista en obras que se convirtieron en símbolos urbanos, como el Dianabad, el Stadion Wien, el rascacielos de Herrengasse 8, la Reichsbrücke y los estudios cinematográficos de Rosenhügel.

Saliger fue un prolífico autor de manuales y tratados que tuvieron gran difusión internacional. Entre ellos destacan:

  • Über die Festigkeit veränderlich elastischer Konstruktionen insbesondere von Eisenbeton-Bauten (1904)
  • Der Eisenbeton in Theorie und Konstruktion (1906)
  • Praktische Statik (1921)
  • Schalendach aus Eisenbeton nach Bauart Kolb (1928)
  • Die neue Theorie des Stahlbetons auf Grund der Bildsamkeit im Bruchzustand (1947)
  • Ingenieur Gustav Adolf Wayss. Ein Bahnbrecher des Stahlbetons (1948)
  • Der Stahlbetonbau: Werkstoff, Berechnung, Gestaltung (1956).

Especial relevancia alcanzaron Praktische Statik y Der Stahlbetonbau, que conocieron numerosas ediciones y traducciones, incluidas en español y ruso. Estas obras consolidaron el análisis práctico de estructuras y la aplicación científica del hormigón armado, aportando un corpus sin precedentes a la ingeniería alemana y austríaca en el periodo 1900–1950.

Tras la anexión de Austria por parte de la Alemania nazi en marzo de 1938, Saliger fue nombrado rector interino de la TH de Viena en sustitución de Karl Holey. En este cargo, mostró públicamente su apoyo al régimen mediante telegramas y discursos de adhesión. En 1939, fue elegido miembro de número de la Academia Austríaca de Ciencias y, el 20 de febrero de 1940, solicitó formalmente su ingreso en el NSDAP, que se hizo efectivo el 1 de junio.

Antes de jubilarse en 1939, desempeñó un papel relevante en la nazificación de la universidad y en la discriminación y expulsión de estudiantes y profesores judíos y socialdemócratas. Según la historiadora Juliane Mikoletzky, este proceso se produjo en la TH de Viena de manera especialmente rápida y ordenada.

Tras 1945, fue clasificado como Minderbelasteter (cómplice menor) en los procesos de desnazificación. En 1948, le fue concedido el perdón por «razones técnico-científicas», lo que le permitió mantener su prestigio académico.

Rudolf Saliger falleció en su residencia de Larochegasse 29, en Viena, el 31 de enero de 1958, apenas unas horas antes de recibir la condecoración del presidente de Austria por sus servicios a la ciencia y al arte. Sus restos fueron incinerados y depositados en una tumba de honor diseñada por Viktor Hammer en el cementerio de la Feuerhalle Simmering.

En 1965, la ciudad de Viena dio su nombre a la calle Saligergasse, en el distrito de Favoriten. Décadas después, entre 2011 y 2013, una comisión de historiadores, por encargo del Ayuntamiento de Viena, revisó el papel de las personalidades que habían dado nombre a las calles y situó a Saliger como pionero técnico, pero también como académico vinculado al nacionalsocialismo.

El legado de Rudolf Saliger es amplio y complejo. Como ingeniero, fue pionero en el desarrollo y la enseñanza del hormigón armado en Austria, impulsó su institucionalización universitaria y participó en obras emblemáticas de Viena, además de dejar una extensa bibliografía técnica. Como figura pública, apoyó al régimen nazi y promovió políticas de exclusión en la universidad. Estas dos dimensiones, la científica y la política, forman parte inseparable de su legado en la historia de la ingeniería y del siglo XX.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Guía para principiantes sobre la compactación de suelos.

1. ¿Qué es la compactación y por qué es importante?

La compactación de suelos es el proceso de aumentar la densidad de un terreno aplicando energía mecánica. En términos sencillos, consiste en hacer circular cargas elevadas sobre capas de suelo el número de veces necesario para alcanzar la densidad especificada. Al reducir los vacíos de aire en el suelo, se aumenta su resistencia, se reduce su capacidad de deformación y se disminuye su permeabilidad.

El objetivo principal de la compactación es mejorar las propiedades geotécnicas del suelo para garantizar la seguridad y durabilidad de las estructuras construidas sobre él, como carreteras, edificios o presas. La elección del equipo y del método de compactación no es universal, sino que depende de factores clave como la naturaleza del terreno, su contenido de humedad y la función que desempeñará el relleno compactado.

Para seleccionar y utilizar correctamente estos equipos, es esencial comprender los principios fundamentales que rigen su funcionamiento.

Figura 1. Distintos tipos de compactadores. https://www.noticiasmaquinaria.com/nuevos-modelos-de-la-serie-de-rodillos-tandem-de-hamm-en-conexpo/

2. Los cuatro esfuerzos elementales de la compactación.

Toda la maquinaria de compactación, desde un pequeño pisón manual hasta un rodillo de varias toneladas, aplica una combinación de cuatro esfuerzos básicos para densificar el suelo. Comprender estos mecanismos es el primer paso para dominar el proceso.

Tipo de esfuerzo Mecanismo y efecto principal
Estático vertical Aplica el peso de la máquina para comprimir el suelo. Produce tensiones fundamentalmente verticales que aprietan las partículas entre sí.
Amasado Genera tensiones en múltiples direcciones, «amasando» el suelo para reordenar partículas. Es especialmente útil para romper terrones en suelos cohesivos.
Impacto Aplica una fuerza súbita que propaga una onda de presión, alcanzando mayor profundidad que el esfuerzo estático.
Vibratorio Aplica una sucesión rápida de impactos que reduce la fricción interna entre partículas, facilitando su reacomodo en una configuración más densa.

Es importante destacar que el tipo de esfuerzo aplicado influye directamente en la estructura final de las partículas del suelo. Un terreno más compactado presenta partículas más orientadas y ordenadas (menos «floculadas»). El efecto de ordenamiento es progresivamente mayor al aplicar esfuerzos en el siguiente orden: estático, vibratorio, de impacto y, por último, de amasado.

Ahora que conocemos la teoría que hay detrás de la compactación, podemos explorar los equipos que aplican estos esfuerzos en la práctica.

3. Tipos principales de equipos de compactación.

Los equipos de compactación se pueden clasificar según el principio de trabajo predominante que utilizan: la fuerza estática de su propio peso o la energía dinámica de la vibración.

3.1. Compactadores estáticos: la fuerza del peso.

Estos equipos dependen principalmente de su peso para compactar el suelo.

3.1.1. Apisonadoras de rodillos lisos

  • Principio de funcionamiento: utilizan cilindros metálicos lisos para aplicar presión estática. Su mecanismo de compactación es «de arriba hacia abajo», por lo que la capa superior recibe la mayor energía.
  • Suelos adecuados: arenas y gravas bien graduadas, limos y arcillas de baja plasticidad. No se recomiendan para arenas uniformes o arcillas blandas.
  • Limitación principal: existe el riesgo de compactar en exceso la superficie y crear una costra rígida conocida como «encarpetamiento», mientras que las capas inferiores quedan menos densas.
Figura 2. Apisonadora estática de rodillo liso tipo triciclo. Imagen: V. Yepes

3.1.2. Compactadores de patas apisonadoras («pata de cabra»)

  • Principio de funcionamiento: en lugar de un rodillo liso, utilizan cilindros con múltiples «patas» o salientes que penetran en el suelo. Esto concentra la presión y compacta el terreno «de abajo hacia arriba».
  • Suelos adecuados: son especialmente efectivos en arenas y gravas con más del 20% de finos, así como en la mayoría de los suelos de grano fino (suelos limo-arcillosos, arenas limosas y arcillosas).
  • Ventaja principal: la acción de las patas rompe los terrones y grumos del suelo, a la vez que mejora la trabazón (unión) entre las sucesivas capas de material compactado.
Figura 3. Rodillo remolcado pata de cabra. Imagen: V. Yepes (2021)

3.1.3. Compactadores de ruedas neumáticas

  • Principio de funcionamiento: combinan el esfuerzo estático de su peso con el efecto de amasado que se produce por la deformación de sus neumáticos de goma, un proceso que reordena las partículas sin romperlas ni aplastarlas.
  • Suelos adecuados: son eficaces en suelos algo cohesivos y rellenos de limos poco plásticos.
  • Ventaja clave: son muy versátiles. Se puede ajustar su efecto modificando dos variables principales:
    • Aumentar la presión de inflado: incrementa la compactación en la superficie.
    • Aumentar la carga por rueda: aumenta el efecto de compactación en profundidad.
Figura 4. Compactador con neumáticos con dibujo. http://www.corinsa.es/tecnologia/compactacion/compactacion-de-tierras/

3.2. Compactadores vibratorios: reduciendo la fricción interna

Estos equipos añaden una fuerza dinámica a su peso estático, lo que los hace extremadamente eficientes.

3.2.1. Principio de funcionamiento

  • Mecanismo: la vibración de un cilindro o una placa, lo que elimina en gran medida la fricción interna entre las partículas del suelo. Así, las partículas se reordenan y alcanzan una mayor densidad con menos esfuerzo y en capas de mayor espesor. Es especialmente eficaz en terrenos granulares (arenas y gravas). Para hacerse una idea de su eficacia, la acción de un rodillo vibrante puede equivaler a la de un rodillo estático mucho más pesado: hasta ocho veces en suelos cohesivos y hasta doce veces en gravas y escolleras.
  • Regla de oro para su uso:
    • Materiales granulares (arenas, gravas): se compactan mejor con frecuencia alta y amplitud reducida.
    • Materiales cohesivos (arcillas, limos): prefieren más amplitud y menor frecuencia.

3.2.2. Tipos más comunes

Existen diversos modelos: los monocilíndricos (con rodillo liso o de patas), los de dos rodillos (tándem) y los mixtos (un rodillo y ruedas neumáticas). De todos ellos, los monocilíndricos autopropulsados son los más versátiles en la mayoría de las obras de movimiento de tierras.

Figura 5. Rodillo compactador vibratorio hidráulico de un solo tambor LSD216H. http://changlin.es/3-2-6-hydraulic-road-roller.html

3.3. Equipos para trabajos específicos

Para tareas específicas o en áreas de difícil acceso, se utilizan equipos más especializados.

3.3.1. Placas y pisones vibrantes

Son máquinas de pequeño tamaño que son guiadas por un operario. Su principal ventaja es que pueden trabajar en espacios reducidos a los que no pueden acceder máquinas más grandes, por ejemplo, en la compactación de rellenos en zanjas o trasdoses de muros.

3.3.2. Compactadores por impactos de gran energía

Este sistema es una alternativa más intensa que los rodillos vibratorios convencionales. Utiliza rodillos de perfil irregular (no cilíndricos) que, al girar a gran velocidad, generan impactos de alta energía. Su principal ventaja es la profundidad de su efecto, que puede alcanzar hasta cuatro o cinco metros.

Figura 6. Compactador de impacto de gran energía.

Una vez conocidos los tipos de equipos disponibles, el siguiente paso lógico es aprender a decidir cuál es el más adecuado para cada situación.

4. ¿Cómo elegir el equipo de compactación adecuado?

La elección del compactador no tiene una solución única, ya que depende de múltiples factores y, en última instancia, es una decisión económica. No obstante, para poder tomar una decisión técnica fundamentada, hay que tener en cuenta tres factores determinantes:

  • La naturaleza del material: es el factor más importante. Los suelos se pueden clasificar en tres grandes grupos:
    1. Suelos finos: limos y arcillas.
    2. Suelos de grano grueso: arenas y gravas.
    3. Pedraplenes: materiales rocosos.
  • El estado del material: principalmente, su contenido de humedad. La humedad actúa como un lubricante entre partículas, pero un exceso o defecto puede dificultar enormemente la compactación.
  • El volumen, la forma de la zona a compactar y el ritmo de la obra: Un área grande y abierta permite el uso de máquinas de alto rendimiento. De hecho, suelen elegirse compactadores con una capacidad de producción superior a la de los equipos de excavación y transporte, para evitar que la compactación se convierta en un «cuello de botella» que retrase todo el proyecto.

La siguiente tabla ofrece una guía simplificada para la selección inicial del equipo en función del tipo de suelo.

Guía rápida para la selección de equipos por tipo de suelo.

Tipo de suelo Equipos recomendados Consideración clave
Suelos finos (limos y arcillas) • Compactadores de patas apisonadoras

• Compactadores de neumáticos

El control preciso de la humedad es fundamental. Estos suelos son sensibles a un exceso o defecto de agua.
Suelos de grano grueso (arenas y gravas) • Rodillos vibratorios

• Compactadores de neumáticos pesados

La vibración es extremadamente efectiva para reordenar las partículas en este tipo de material.
Pedraplenes (roca) • Equipos vibratorios pesados (más de 10 toneladas) Se necesita una gran energía de compactación debido al gran tamaño de los elementos rocosos.

Elegir el equipo adecuado no solo garantiza que se alcancen las especificaciones de densidad, sino que también optimiza el rendimiento y los costes del proyecto.

5. Conclusión: principios clave para el éxito de una compactación.

La compactación es una de las operaciones más importantes en la construcción, ya que de ella dependen la estabilidad y durabilidad de casi cualquier estructura. Aunque se trata de un tema amplio, un principiante puede sentar unas bases sólidas de conocimiento si se centra en dos principios fundamentales.

  • Para lograr una compactación eficaz, es esencial comprender y dominar los cuatro tipos de esfuerzos básicos (estático, de amasado, de impacto y vibratorio), así como la forma en que cada máquina los aplica.
  • Además, es importante entender que la elección del equipo depende principalmente del tipo de suelo. No hay una máquina universal: la clave del éxito es adaptar la herramienta al material con el que se trabaja.

Aquí tienes un vídeo introductorio a los compactadores.

A continuación, os dejo un resumen de las ideas más relevantes que un principiante debería conocer sobre la compactación de suelos. Espero que os resulte interesante.

Referencias:

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente nº 97.439. Ed. Universitat Politècnica de València. 253 pág. Depósito Legal: V-4598-1997. ISBN: 84-7721-551-0.

YEPES, V. (2021). Procedimientos de construcción para la compactación y mejora del terreno. Colección Manual de Referencia, 1ª edición. Editorial Universitat Politècnica de València, 426 pp. Ref. 428. ISBN: 978-84-9048-603-0.

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442. ISBN: 978-84-1396-046-3

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

Cursos:

Curso de compactación superficial y profunda de suelos en obras de ingeniería civil y edificación.

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Plan de puntos críticos de control de calidad en la construcción de puentes postesados

1. Introducción y objeto del plan.

Los pasos superiores de hormigón pretensado ejecutados in situ son elementos estructurales fundamentales en la construcción de obras lineales, como carreteras y ferrocarriles. Su correcta ejecución es fundamental para garantizar la durabilidad de la infraestructura y, lo que es más importante, la seguridad de los usuarios. Este Plan de Calidad se ha desarrollado como un instrumento de control riguroso, centrado en la identificación sistemática de los puntos críticos de control (PCC), los riesgos inherentes a cada fase y los procedimientos de verificación necesarios para mitigarlos. Basado en las mejores prácticas del sector, su objetivo es servir de guía técnica y procedimental para la dirección de obra y el contratista, garantizando el cumplimiento estricto de las especificaciones del proyecto y la consecución de los más altos estándares de calidad.

Figura 1.  Paso superior en la autovía A-7, en Cocentaina (Alicante). Imagen: Lorena Yepes-Bellver

Este documento abarca las fases clave en la construcción de este tipo de estructuras y cubre el proceso constructivo de manera integral. En concreto, el plan abarca:

  • La ejecución de las cimentaciones y alzados (pilas y estribos).
  • El montaje, nivelación y aseguramiento de cimbras y encofrados.
  • La correcta colocación de armaduras pasivas, activas y elementos aligerantes.
  • La planificación y ejecución del hormigonado del tablero.
  • La operación de tesado del pretensado.
  • La inyección de vainas para la protección de la armadura activa.
  • Los controles de acabados y la ejecución de la prueba de carga final.

El proceso constructivo comienza con la ejecución de los alzados, una fase fundamental que sienta las bases para la estabilidad y el correcto comportamiento de toda la estructura.

2. Control de calidad en la construcción de alzados (pilas y estribos).

La construcción de los alzados, que incluye las pilas y los estribos, es una fase de gran importancia. Al representar entre el 30 % y el 50 % del coste total del puente, su correcta ejecución, y en particular la de sus cimentaciones, es la base sobre la que se sustenta la estabilidad de toda la estructura. Las estadísticas del sector son claras: aproximadamente un tercio de los fallos estructurales se deben a cimentaciones deficientes, por lo que esta etapa es un punto de control de máxima prioridad.

Figura 2. Cimentación provisional para las torres de una cimbra porticada. Imagen: V. Yepes

2.1 Verificación geotécnica y cota de cimentación.

El principal riesgo de una verificación incorrecta del terreno de cimentación es la aparición de asientos diferenciales. Un terreno con características resistentes inferiores a las previstas en el proyecto puede provocar movimientos incompatibles con la naturaleza hiperestática de la estructura, lo que conlleva una redistribución de esfuerzos no prevista y, en casos graves, fallos estructurales.

Los procedimientos de verificación y control para este punto crítico son los siguientes:

  1. Revisión documental: antes de iniciar la excavación, es obligatoria la revisión exhaustiva del anexo geotécnico y del anexo de cálculo del proyecto. El equipo de obra debe familiarizarse con los sondeos y las recomendaciones de cimentación.
  2. Inspección visual y verificación in situ: una vez alcanzada la cota final de excavación, se debe realizar una comprobación visual para confirmar que el estrato de apoyo se corresponde con el terreno esperado según los sondeos.
  3. Protocolo de actuación ante discrepancias: si el terreno esperado no se encuentra en la cota prevista, el procedimiento estándar consiste en profundizar la excavación hasta localizarlo y, posteriormente, rellenar el sobreexceso con hormigón pobre. Si tras una profundización razonable no se localiza el estrato, se deberá detener el proceso, plantear un nuevo sondeo y revisar el diseño de la cimentación.
  4. Control de cimentaciones profundas: en el caso de cimentaciones por pilotes, se debe verificar el estadillo de excavación y comprobar que el empotramiento de la punta en el estrato resistente cumple con lo especificado en el proyecto.

2.2 Colocación de armaduras y encofrados de soportes

Una ejecución deficiente en esta fase introduce múltiples riesgos: recubrimientos de hormigón insuficientes que exponen las armaduras a la corrosión, longitudes de empalme de las esperas inadecuadas que impiden la transmisión correcta de esfuerzos y comprometen la capacidad estructural, y una estabilidad deficiente del encofrado que puede provocar su deformación o colapso bajo la presión del hormigón fresco.

Procedimiento de verificación Criterio de aceptación/rechazo
Medición de recubrimientos: Verificar la correcta colocación de separadores para garantizar la distancia entre la armadura y el encofrado. El recubrimiento debe cumplir estrictamente con las especificaciones del plano. Se debe colocar un número de separadores suficiente para evitar el hundimiento de la malla superior al ser pisada, utilizando pates o soportes equivalentes de hormigón a razón de, al menos, 1 ud/m².
Comprobación de empalmes: Medir la longitud de solape de las esperas de los soportes. La longitud debe ser igual o superior a la especificada en el proyecto para garantizar la correcta transmisión de esfuerzos.
Apeo y estabilidad del encofrado: Inspeccionar el sistema de apuntalamiento del encofrado de los soportes, incluyendo los puntales inclinados. El encofrado debe estar perfectamente aplomado y arriostrado para asegurar su estabilidad y planeidad durante el hormigonado.

2.3 Hormigonado de soportes y curado

El principal riesgo durante el hormigonado de elementos esbeltos y verticales, como los soportes, es la segregación del hormigón. Verter el hormigón desde una altura excesiva hace que los áridos gruesos se separen de la pasta de cemento, por lo que el elemento resultante no es homogéneo y tiene una resistencia local inferior a la prevista.

Para controlar este riesgo, es obligatorio utilizar un embudo metálico y una manguera que descienda hasta el fondo del encofrado. El vertido debe realizarse en capas de aproximadamente 30 cm de espesor, vibrando cada una de ellas para garantizar una compactación adecuada y una distribución homogénea de los componentes del hormigón.

Figura 3. Estribo abierto. Imagen: V. Yepes

2.4. Ejecución y compactación del relleno del trasdós (estribos abiertos).

La coordinación y ejecución del relleno en estribos abiertos es un aspecto crítico que a menudo se subestima. Una compactación deficiente del terreno, especialmente en la zona acotada entre los soportes y bajo el futuro cargadero, puede provocar el desmoronamiento del terraplén cuando la estructura entre en servicio y se vea sometida a las cargas dinámicas del tráfico.

El procedimiento de control clave es secuencial: el relleno y la compactación de las tierras del cono de derrame deben realizarse antes de ejecutar el cargadero superior del estribo. Esta secuencia es la única que garantiza el acceso de la maquinaria de compactación a toda la superficie del trasdós, lo que asegura un grado de compactación uniforme y adecuado en la zona más crítica. Es fundamental señalar que, dado que los equipos de movimiento de tierras y los de estructuras suelen gestionar tajos distintos, coordinar esta tarea no siempre es sencillo, pero es imprescindible para garantizar la calidad final del estribo.

Una vez completados y verificados los alzados, la construcción avanza hacia el montaje de la estructura auxiliar que dará forma al tablero: la cimbra y el encofrado.

3. Control de calidad de cimbras y encofrados del tablero.

La cimbra es una estructura temporal, pero su función durante la construcción es absolutamente crítica. Debe soportar el peso total del hormigón fresco del tablero, las armaduras y las sobrecargas de ejecución, y transmitir estas cargas de forma segura al terreno. Si falla durante el hormigonado, las consecuencias son catastróficas. Los dos sistemas más habituales son la cimbra tubular con encofrado de madera, que ofrece un acabado superficial de mayor calidad, y la cimbra industrial con encofrado metálico, que permite un montaje más rápido a costa de un acabado estético inferior.

3.1. Estabilidad y cimentación de la cimbra.

La estabilidad de la cimbra está amenazada por varios riesgos fundamentales que deben ser controlados rigurosamente:

  • Fallo del terreno de apoyo: Cimentar sobre un terreno con una tensión admisible inferior a la requerida (el mínimo habitual para cimbra tubular es de 1.00 kp/cm²).
  • Desplome en «castillo de naipes»: Ausencia de arriostramientos longitudinales y transversales que conecten las torres entre sí, impidiendo una respuesta conjunta de la estructura.
  • Erosión y lavado: Una escorrentía no controlada de aguas torrenciales puede socavar los apoyos de la cimbra y provocar su colapso.
  • Deslizamiento en taludes: La falta de un escalonamiento adecuado en los terraplenes laterales donde apoyan los vanos de compensación compromete la estabilidad de las torres.
Figura 4. Escalonamiento con pequeños muros de hormigón junto al estribo. Imagen: V. Yepes

 

Riesgo identificado Procedimiento de verificación y control Criterio de aceptación
Fallo del terreno de apoyo Inspeccionar el terreno y verificar que se ha ejecutado la capa de mejora de 30 cm de grava-cemento. Comprobar la disposición de tableros o zapatas de madera para el reparto de cargas. El terreno debe cumplir la tensión admisible especificada en el proyecto de cimbra. Las medidas de mejora y reparto deben estar correctamente ejecutadas.
Desplome en «castillo de naipes» Inspeccionar visualmente la existencia y correcta instalación de las barras de arriostramiento en ambas direcciones, uniendo todas las torres. Todas las torres deben estar arriostradas conforme al proyecto de cimbra. No se admitirá la ausencia de estos elementos.
Erosión por lluvia Verificar la ejecución de una zanja de drenaje aguas arriba y una zanja lateral que evacúe el agua de forma controlada. El sistema de drenaje debe ser funcional y capaz de gestionar la escorrentía previsible.
Deslizamiento en taludes Comprobar que los terraplenes laterales han sido escalonados y, si es necesario, reforzados con muretes de hormigón. La ejecución del escalonamiento debe coincidir con los planos del proyecto de cimbra para garantizar un apoyo seguro.

3.2 Nivelación y geometría del encofrado del tablero.

La precisión en la nivelación del encofrado debe ser milimétrica y crítica. Un principio clave del diseño de estas estructuras es el equilibrio de deformaciones, por lo que no se aplica una contraflecha, ya que las flechas producidas por el peso propio y por la acción del pretensado están diseñadas para compensarse entre sí. Por este motivo, la precisión topográfica inicial del encofrado es un factor absolutamente imprescindible, ya que define directamente la rasante final del tablero.

El procedimiento de control topográfico es esencial. Un topógrafo debe nivelar de manera individual cada uno de los husillos de la cimbra, siguiendo las cotas definidas en los planos del proyecto. Este ajuste preciso garantiza que la geometría del tablero, incluidos los peraltes y los acuerdos, se construya con la máxima fidelidad al diseño.

Una vez verificada la geometría y la estabilidad del «molde» (encofrado), el siguiente punto crítico de control es la correcta colocación de su contenido: las armaduras pasivas y activas.

Figura 5. Encofrado del tablero. Imagen: V. Yepes

4. Control de calidad en la colocación de armaduras y aligeramientos.

Las armaduras de una estructura de hormigón pretensado cumplen una función dual: la armadura pasiva gestiona los esfuerzos secundarios de cortante y torsión, mientras que la armadura activa (los cables de pretensado) confiere al puente su capacidad principal para salvar grandes luces de manera eficiente. Cualquier error en la disposición o la cantidad de acero en esta fase compromete de forma directa e irreversible la capacidad portante de la estructura.

4.1 Trazado y sujeción de vainas de pretensado.

El trazado de las vainas de pretensado es un riesgo de primer orden. La armadura activa no es más que una armadura de tracción que debe colocarse donde se producen dichas tracciones: en la parte superior, sobre las pilas, y en la inferior, en el centro del vano. Si su posición vertical (excentricidad) es incorrecta, la fuerza de pretensado no generará el momento flector interno deseado, lo que invalidaría los cálculos del proyecto y comprometería la seguridad y el comportamiento de la estructura.

El protocolo de verificación del trazado de vainas es el siguiente:

  1. Verificación por puntos: Se debe comprobar la cota vertical de todas las vainas en intervalos de 2.00 a 3.00 metros, contrastando las mediciones con los planos de pretensado.
  2. Tolerancia: El trazado en vertical debe ajustarse con una tolerancia máxima de un centímetro, siendo especialmente rigurosos en las secciones críticas sobre pilas y en los centros de vano.
  3. Sujeción: Es imperativo asegurar que las vainas estén firmemente sujetas a los estribos de las almas para evitar su movimiento o desplazamiento durante las operaciones de hormigonado.
  4. Espaciamiento: Se debe verificar que existe un hueco horizontal mínimo de 5-6 cm entre vainas contiguas. Este espacio es crucial para permitir que el hormigón fluya correctamente y envuelva por completo las vainas, evitando la formación de coqueras.

4.2 Sujeción de aligeramientos contra la flotación.

Los aligeramientos de poliestireno expandido, al tener una densidad muy baja, están sometidos a una gran fuerza de flotación cuando se vierte el hormigón fresco. Este riesgo es crítico, por ejemplo, en un tablero con cuatro aligeramientos de 80 cm de diámetro, ya que el empuje de flotación puede alcanzar las 4,83 t/m, una fuerza muy superior al peso de la armadura pasiva que los recubre (aproximadamente 0,72 t/m). Si los aligeramientos no están adecuadamente anclados, flotarán y se desplazarán de su posición teórica, lo que alterará la sección transversal del tablero y constituirá un defecto estructural de difícil y costosa solución.

Figura 6. Aligeramiento puente losa.

Para mitigar este riesgo, deben aplicarse obligatoriamente dos medidas de control combinadas:

  • Anclaje mecánico: verificar la colocación de un sistema de sujeción robusto. Este sistema puede consistir en barras de acero (por ejemplo, de 12 o 16 mm de diámetro) dispuestas por encima de los aligeramientos y atadas a los cercos de las almas, o bien en flejes metálicos que rodean los aligeramientos y se anclan al fondo del encofrado.
  • Hormigonado por fases: se debe exigir que el hormigonado del tablero se realice en tres tongadas o capas sucesivas (losa inferior, almas y losa superior). Esta estrategia de vertido es fundamental, ya que el peso del hormigón de cada capa contrarresta de forma progresiva la fuerza ascensional, impidiendo la flotación.

4.3. Control de armado en zonas de alta concentración de esfuerzos.

La riostra sobre los estribos es una de las zonas más críticas de la estructura. Su función es difundir las cargas altamente concentradas de todos los anclajes del pretensado (que pueden sumar miles de toneladas, como las 4548 t del caso de referencia) hacia el resto del tablero. Un armado insuficiente en esta zona puede provocar la rotura de la riostra durante la operación de tesado, lo que supondría un fallo frágil y catastrófico. La gravedad de este riesgo no es teórica: recientemente se ha producido algún caso en España con víctimas mortales y heridos graves.

Como procedimiento de control, se establece una inspección final obligatoria y la emisión de un visto bueno formal por parte de la dirección de obra para la totalidad del armado del tablero antes de autorizar el inicio del hormigonado. Por experiencia, se sabe que las prisas en esta revisión final son la causa principal de la omisión de armaduras de refuerzo críticas. Este control debe ser un «punto de espera» formal y sin prisas en la planificación de la obra.

Una vez que el acero está correctamente posicionado y asegurado, el siguiente paso es hormigonar el tablero, una operación logística de gran envergadura y alta criticidad.

5. Control de calidad en el hormigonado del tablero.

El hormigonado del tablero de un paso superior es una operación logística de alta criticidad. Debe ejecutarse de forma continua, sin juntas de construcción, y conlleva el uso de grandes volúmenes de hormigón (normalmente entre 300 y 700 m³). Este proceso exige una planificación exhaustiva y la implementación de planes de contingencia para evitar cualquier interrupción que pueda afectar a la monoliticidad y a la integridad estructural del elemento.

5.1 Aseguramiento del suministro continuo de hormigón.

El principal riesgo durante esta fase es la interrupción del hormigonado. Cualquier detención prolongada crearía una junta fría que actuaría como un plano de debilidad estructural, algo inaceptable en el tablero de un puente. Los puntos de fallo más probables son una avería en la planta de hormigón o una avería mecánica en la bomba de hormigonado.

Para mitigar este riesgo, es obligatorio disponer de un plan de contingencia robusto:

  • Doble suministro: Se debe contratar el hormigón con dos plantas de producción independientes o, como alternativa, contratar una planta principal y mantener una segunda planta en servicio de guardia, lista para asumir la producción en caso de fallo de la primera.
  • Bomba de repuesto: Es imprescindible disponer de una segunda bomba de hormigón en la obra, totalmente operativa y lista para sustituir a la principal de forma inmediata en caso de avería.
  • Logística de personal: La jornada de hormigonado, que puede extenderse por más de 10 horas, debe ser planificada con personal suficiente para permitir turnos de descanso. Asimismo, el avituallamiento (comida y bebida) debe ser provisto en la propia obra para no interrumpir el ritmo de trabajo.

5.2. Control de calidad del hormigón en fresco y endurecido.

El control de calidad del material es tan importante como la logística de su colocación. Dichos controles deben ser sistemáticos y rigurosos.

Fase de control Parámetro a controlar Procedimiento de verificación Criterio de aceptación/rechazo
Recepción en obra Trabajabilidad (cono) Realizar el ensayo del cono de Abrams a todas las cubas antes de su vertido en la bomba. El cono medido debe estar dentro de la tolerancia especificada (p. ej., para un cono de 12 cm, se acepta ±2 cm). Las cubas fuera de rango deben ser rechazadas y vertidas en un lugar previsto para ello.
Muestreo para ensayo Resistencia a compresión Realizar un muestreo estadístico (p. ej., de un tercio de las cubas). De cada amasada controlada, se deben fabricar 6 probetas para su ensayo en laboratorio. El resultado del ensayo a 28 días debe cumplir o superar la resistencia característica de proyecto (p. ej., HP-35).
Control para tesado Resistencia temprana Ensayo a compresión de una serie de probetas a 7 días (o 3 días si se prevé un tesado temprano). Se recomienda curar una serie de estas probetas a pie de puente, en las mismas condiciones ambientales que el tablero, para obtener una medida más representativa de la resistencia real. La resistencia media obtenida debe alcanzar el valor mínimo especificado en el proyecto para autorizar el tesado (p. ej., 27.5 MPa).

Una vez colocado el hormigón y alcanzada la resistencia necesaria, se pasa a la siguiente fase crítica: el pretensado, que constituye la auténtica prueba de carga de la estructura.

6. Control de calidad en el pretensado del tablero.

La operación de tesado del tablero es extremadamente crítica. En esta fase, la estructura se somete a una de sus situaciones de carga más desfavorables, ya que se aplica la fuerza máxima de pretensado con únicamente el peso propio del tablero actuando. Esta situación pone a prueba los límites de resistencia tanto del hormigón en las zonas de anclaje como del acero de alta resistencia de los tendones.

Figura 7. Anclajes de hormigón postesado. https://www.becosan.com/es/hormigon-pretensado/

6.1 Verificación dual de la fuerza de tesado.

El principal riesgo de esta operación es aplicar una fuerza de pretensado incorrecta, ya sea por exceso o por defecto. Un tesado insuficiente no conferirá a la estructura la capacidad portante para la que fue diseñada, por lo que quedará vulnerable ante las cargas de servicio. Por el contrario, un tesado excesivo puede provocar daños por compresión en el hormigón o incluso la rotura de los propios tendones.

Para garantizar la correcta aplicación de la fuerza, es obligatorio realizar un procedimiento de control dual.

  1. Control de presión: Monitorizar y registrar la presión aplicada al gato hidráulico a través del manómetro de la centralita.
  2. Control de alargamiento: Medir físicamente con una cinta métrica el alargamiento real que experimentan los tendones en cada extremo.

El criterio principal de aceptación es que la media de la desviación entre los alargamientos reales medidos y los alargamientos teóricos calculados en el proyecto debe ser inferior al 5 %. Si se supera este umbral, se debe detener la operación. Hay que informar inmediatamente al proyectista, analizar las posibles causas (por ejemplo, una discrepancia en el módulo de deformación real del acero de las bobinas suministradas) y no proceder hasta haberlas determinado.

6.2 Secuencia de tesado y seguridad operacional.

Una secuencia de tesado incorrecta, por ejemplo, asimétrica, puede inducir esfuerzos parásitos en la estructura que no se tuvieron en cuenta en el cálculo. Además, la operación conlleva un riesgo intrínseco muy elevado debido a las grandes energías almacenadas; la rotura de un anclaje o de un tendón puede tener consecuencias mortales.

Los procedimientos de control que se deben aplicar son:

  • Secuencia de tesado: Verificar que la operación sigue estrictamente el orden de tesado de los tendones especificado en los planos del proyecto. Generalmente, la secuencia procede desde los tendones centrales hacia los extremos, manteniendo siempre la simetría para no inducir momentos torsores no deseados.
  • Seguridad: Se prohíbe de forma taxativa la permanencia de personal no esencial en la zona posterior a los anclajes durante la aplicación de la carga.

Tras el tesado y su aprobación, es crucial proteger el acero activo contra la corrosión mediante la inyección de las vainas.

7. Control de calidad en la inyección de vainas.

La inyección de las vainas con mortero cumple dos funciones vitales: en primer lugar, proteger las armaduras activas de alta resistencia contra la corrosión y, en segundo lugar, garantizar la adherencia entre el cable y el hormigón circundante. No se debe subestimar la importancia de esta fase; los fallos por corrosión debidos a una inyección deficiente en el Reino Unido provocaron una moratoria en la construcción de este tipo de puentes, lo que subraya la gravedad de ejecutar incorrectamente este proceso.

7.1. Vaciado completo del aire ocluido.

El principal riesgo durante la inyección es la presencia de aire atrapado en los puntos más altos del recorrido de la vaina. Estas bolsas de aire impiden que el mortero de protección llegue a todas las partes del cable, por lo que quedan secciones del acero expuestas a la humedad y, por tanto, a un alto riesgo de corrosión a largo plazo.

El procedimiento de inyección y purga debe seguirse meticulosamente:

  1. Se inyecta la lechada de mortero por uno de los extremos de la vaina a una presión controlada (alrededor de 5 kp/cm²).
  2. Se espera hasta que la lechada fluya de manera continua por el extremo opuesto, momento en el que dicho extremo se tapa para presurizar la vaina.
  3. A continuación, se abre el primer tubo de purga, que se encuentra en el punto más alto cercano al punto de inyección (normalmente sobre una pila).
  4. Se mantiene el tubo de purga abierto hasta que por él salga un chorro sólido y continuo de inyección, sin burbujas de aire. En ese momento, se cierra herméticamente.
  5. El proceso de purga se repite de forma secuencial para todos los tubos situados en los puntos altos a lo largo del trazado del cable.

Esta operación debe realizarse lo antes posible una vez recibido el visto bueno del tesado, sin posponerla, para minimizar el tiempo que el acero activo permanece desprotegido.

Una vez finalizadas las fases estructurales principales, se procede a ejecutar los elementos de acabado y a verificar el comportamiento final de la estructura mediante la prueba de carga.

8. Control de calidad de los acabados y prueba de carga.

Aunque la integridad estructural del puente ya está asegurada en esta fase, la ejecución de los acabados define su durabilidad y su aspecto final, mientras que la prueba de carga supone la aceptación formal de la obra y demuestra empíricamente que su comportamiento bajo carga es el esperado.

Figura 8. Prueba de carga. https://indaico.es/servicios/pruebas-de-carga

8.1 Ejecución de la prueba de carga.

La prueba de carga, que es obligatoria para puentes con luces superiores a 12 metros, tiene como objetivo someter la estructura a un estado de cargas que genere esfuerzos equivalentes a aproximadamente el 70 % de los producidos por el tren de cargas del proyecto. Supone la verificación final y tangible del trabajo realizado.

Los procedimientos de control para la prueba son los siguientes:

  1. Proyecto de prueba: Se debe exigir un proyecto específico de prueba de carga, preparado por el calculista de la estructura. Este documento debe definir el número de camiones, sus pesos exactos y sus posiciones sobre el tablero para los distintos estados de carga que se van a probar (por ejemplo, el máximo momento flector positivo en el vano central y el máximo momento negativo sobre las pilas).
  2. Medición de deformaciones: Utilizando equipos de precisión, se deben medir los desplazamientos verticales (flechas) en puntos clave del tablero. Las mediciones se toman antes de la carga (lectura de cero), durante la aplicación de la carga (respuesta instantánea) y tras un periodo de estabilización.
  3. Medición de recuperación: Tras la retirada completa de la carga, se mide la flecha remanente para evaluar el comportamiento elástico de la estructura.
  4. Criterios de aceptación: Se deben cumplir dos criterios principales:
    • La flecha máxima medida debe ser coherente con la calculada teóricamente (la experiencia indica que suele ser en torno al 85 % de la teórica).
    • La recuperación elástica debe ser superior al 90 % de la flecha máxima medida.
  5. Acta de prueba: Los resultados de la prueba deben formalizarse en un acta oficial que se incorporará al expediente final de la obra como constancia de la correcta ejecución y comportamiento de la estructura.

8.2 Ejecución correcta de la superestructura.

Por último, hay que comprobar los elementos de la superestructura que completan el puente:

  • Aceras: Es crucial verificar la existencia de las armaduras de conexión (normalmente redondas de 12 a 25) que anclan la acera al tablero. Esta armadura evita que la acera pueda ser arrancada por impactos accidentales de vehículos contra el bordillo.
  • Estética: Se debe comprobar que los elementos de borde, como barandillas metálicas o parapetos, respetan la estética de la esbeltez del tablero. Se debe evitar el uso de parapetos de hormigón macizo, ya que aumentan visualmente el canto y restan elegancia al diseño. Esto es especialmente relevante si se han utilizado sistemas de cimbra industrial que, como se mencionó, priorizan la velocidad sobre la calidad del acabado superficial y dejan marcas y manchas que deben gestionarse para obtener un resultado final aceptable.

El cumplimiento riguroso y sistemático de todos los puntos de control detallados en este plan es esencial para garantizar la entrega de una estructura segura, duradera y conforme a los más altos estándares de calidad en ingeniería civil.

Referencias:

YEPES, V. (2024). Estructuras auxiliares en la construcción: Andamios, apeos, entibaciones, encofrados y cimbras. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 408 pp. Ref. 477. ISBN: 978-84-1396-238-2

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442. ISBN: 978-84-1396-046-3

YEPES, V. (2021). Procedimientos de construcción para la compactación y mejora del terreno. Colección Manual de Referencia, 1ª edición. Editorial Universitat Politècnica de València, 426 pp. Ref. 428. ISBN: 978-84-9048-603-0.

YEPES, V. (2020). Procedimientos de construcción de cimentaciones y estructuras de contención. Colección Manual de Referencia, 2ª edición. Editorial Universitat Politècnica de València, 480 pp. Ref. 328. ISBN: 978-84-9048-903-1.

Cursos:

Curso de fabricación y puesta en obra del hormigón.

Curso de estructuras auxiliares en la construcción: andamios, apeos, entibaciones, encofrados y cimbras.

Curso de Procedimientos de Construcción de cimentaciones y estructuras de contención en obra civil y edificación.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Inteligencia artificial y eficiencia en el diseño de edificios

La inteligencia artificial (IA) está transformando de manera radical el diseño arquitectónico y la edificación. En la actualidad, el sector de la construcción se enfrenta a tres tendencias clave: la industrialización, la sostenibilidad y la transformación digital e inteligente. La convergencia de estos factores genera numerosas oportunidades, pero también desafíos significativos.

Los proyectos contemporáneos son cada vez más grandes y complejos, y están sujetos a requisitos ambientales más estrictos, lo que aumenta la presión sobre los equipos de diseño en términos de procesamiento de información, tiempo y recursos. En este contexto, la IA no solo optimiza los procesos, sino que también mejora la eficiencia de los métodos tradicionales de diseño.

A continuación, analizamos cómo la IA puede impulsar la eficiencia del diseño, fomentar la innovación y contribuir a la sostenibilidad de los proyectos. La tecnología ya está presente en todas las etapas del ciclo de vida del edificio, desde el análisis predictivo y la supervisión de la construcción hasta el mantenimiento de las instalaciones.

La digitalización ha transformado profundamente la forma en que concebimos, proyectamos y gestionamos las infraestructuras. Tras la aparición del diseño asistido por ordenador (CAD) y el modelado de información para la construcción (BIM), la inteligencia artificial (IA) se presenta como el siguiente gran avance tecnológico. A diferencia de otras herramientas, la IA no solo automatiza tareas, sino que también aprende, genera propuestas y ayuda a tomar decisiones complejas de manera óptima. Como señalan Li, Chen, Yu y Yang (2025), la IA se está consolidando como una herramienta fundamental para aumentar la eficiencia en el diseño arquitectónico e integrar criterios de sostenibilidad, industrialización y digitalización en toda la cadena de valor.

La IA se puede definir como un conjunto de técnicas informáticas que buscan reproducir procesos propios de la inteligencia humana, como el razonamiento, el aprendizaje o el reconocimiento de patrones. Entre sus ramas se incluyen el aprendizaje automático (machine learning o ML), basado en algoritmos que identifican patrones en grandes volúmenes de datos; las redes neuronales artificiales, que imitan el funcionamiento del cerebro y permiten resolver problemas complejos, como la predicción energética (Chen et al., 2023); los algoritmos genéticos, que simulan procesos evolutivos para hallar soluciones óptimas en problemas con múltiples variables, y la IA generativa, capaz de crear contenidos originales, como imágenes o planos, a partir de descripciones textuales. Este último enfoque, también conocido como AIGC (contenido generado por IA), ha popularizado herramientas como Stable Diffusion o Midjourney (Li et al., 2025).

En el sector de la construcción confluyen tres grandes tendencias: la industrialización, vinculada a la modularización y la prefabricación de componentes; el desarrollo sostenible, que impulsa diseños energéticamente eficientes y con menor impacto ambiental; y la digitalización inteligente, en la que la IA desempeña un papel protagonista (Asif, Naeem y Khalid, 2024). Estas tres dinámicas están interrelacionadas: sin tecnologías de análisis avanzado, como la IA, sería mucho más difícil cumplir los objetivos de sostenibilidad o gestionar procesos constructivos industrializados.

Tendencias de la construcción

Las aplicaciones de la IA se extienden a lo largo de todo el ciclo de vida del edificio. En las primeras fases de diseño, los algoritmos generan en segundos múltiples alternativas de distribución, optimizando la orientación, la iluminación natural o la ventilación. El diseño paramétrico asistido por IA permite explorar variaciones infinitas ajustando solo unos pocos parámetros (Li et al., 2025). Durante la fase de proyecto, los sistemas basados en procesamiento del lenguaje natural pueden interpretar normativas y detectar incumplimientos de forma automática, lo que reduce la probabilidad de modificaciones en obra (Xu et al., 2024). Además, las técnicas de simulación permiten prever el comportamiento estructural, acústico o energético de un edificio antes de su construcción, lo que proporciona seguridad y precisión en la toma de decisiones.

Avances de la IA en el diseño arquitectónico

En el sector de la construcción, la IA se combina con sensores y análisis de datos en tiempo real para optimizar la producción y la logística. En la construcción industrializada, los algoritmos ajustan la fabricación de elementos prefabricados, optimizan los cortes y los ensamblajes, y mejoran la gestión de las obras (Li et al., 2025). Al mismo tiempo, la monitorización inteligente permite anticiparse a las desviaciones, planificar los recursos con mayor eficiencia e incrementar la seguridad en entornos complejos.

Optimización del ciclo de vida del edificio con IA

Uno de los campos más avanzados es la predicción y optimización del consumo energético. Algoritmos como las redes neuronales, las máquinas de soporte vectorial o los métodos evolutivos permiten modelizar con gran precisión el comportamiento energético, incluso en las fases preliminares (Chen et al., 2023). Gracias a estas técnicas, es posible seleccionar soluciones constructivas más sostenibles, diseñar envolventes eficientes e integrar energías renovables en el proyecto. Como señalan Ding et al. (2018), estas herramientas facilitan el cumplimiento de los sistemas de evaluación ambiental y apoyan la transición hacia edificios de energía casi nula.

Las ventajas de la IA son evidentes: aumenta la eficiencia, reduce los errores y permite generar múltiples alternativas en mucho menos tiempo (Li et al., 2025). También optimiza los aspectos energéticos y estructurales, lo que hace que los proyectos sean más fiables y competitivos. La automatización de tareas repetitivas agiliza la creación de planos y documentos, mientras que los profesionales pueden dedicarse a tareas creativas. Además, las herramientas de gestión de proyectos con IA ayudan a organizar mejor los recursos y los plazos. Gracias a su capacidad para analizar grandes volúmenes de datos, fomentan la innovación, diversifican los métodos de diseño y facilitan la selección de materiales y el rendimiento energético.

Beneficios de la IA en el diseño

Sin embargo, la IA también plantea importantes desafíos. Su eficacia depende de la calidad de los datos; sin información fiable, los algoritmos pierden precisión. Además, integrarla con plataformas como CAD o BIM sigue siendo complicado (Xu et al., 2024). A esto se suman cuestiones éticas y legales, como la propiedad intelectual de los diseños generados por IA, la opacidad en la toma de decisiones y el riesgo de que los diseñadores pierdan cierto control. En algunos lugares, como EE. UU., se han revocado derechos de autor sobre obras generadas por IA, lo que refleja la incertidumbre legal existente.

Otros retos son la homogeneización del diseño si todos usan herramientas similares, la reticencia de algunos profesionales a adoptar soluciones de IA por dudas sobre la personalización y la fiabilidad, y los altos costes y la limitada disponibilidad de hardware y software especializados. Aún así, la IA sigue siendo una herramienta poderosa que, si se utiliza correctamente, puede transformar la eficiencia, la creatividad y la sostenibilidad en el sector de la construcción, abriendo un futuro lleno de oportunidades.

Desafíos de la adopción de la IA en el diseño

Ya existen ejemplos prácticos que muestran el potencial de estas tecnologías. Herramientas como Stable Diffusion o FUGenerator pueden generar imágenes y maquetas a partir de descripciones en lenguaje natural y actúan como asistentes que multiplican la productividad del proyectista (Li et al., 2025). Estas plataformas no sustituyen la creatividad humana, pero ofrecen un apoyo decisivo en la fase de ideación.

Bucle interactivo de inferencia de diseño arquitectónico de FUGenerator (Li et al., 2025)

La IA se está convirtiendo en un pilar fundamental de la construcción, integrándose cada vez más con tecnologías como la realidad aumentada (RA), la realidad virtual (RV), la realidad mixta (RM) y los gemelos digitales. Gracias a esta combinación, no solo es posible visualizar cómo será un edificio, sino también anticipar su comportamiento estructural, energético o acústico antes de su construcción (Xu et al., 2024). Esto permite a los diseñadores y a los clientes evaluar las propuestas en las primeras etapas, lo que mejora la calidad del diseño y la experiencia del usuario.

La IA del futuro será más inteligente y adaptable, capaz de predecir con gran precisión los resultados del diseño y ofrecer soluciones personalizadas. Su impacto no se limita al diseño arquitectónico: la gestión de la construcción se beneficiará de la robótica asistida, lo que aumentará la seguridad y la eficiencia en tareas complejas o de alto riesgo; la operación de los edificios podrá monitorizar su rendimiento, anticipar las necesidades de mantenimiento y prolongar su vida útil, lo que reducirá los costes, y el análisis de mercado aprovechará el big data para prever la demanda y los precios de los materiales, lo que optimizará la cadena de suministro.

En ingeniería civil, la integración de la IA y las tecnologías avanzadas permite tomar decisiones más fundamentadas, minimizar riesgos y entregar proyectos más seguros y sostenibles (Xu et al., 2024). Así, la construcción del futuro se perfila como un proceso más eficiente, innovador y conectado, en el que la tecnología y la planificación estratégica trabajan juntas para lograr resultados óptimos.

En conclusión, la IA no pretende sustituir a los ingenieros y arquitectos, sino ampliar sus capacidades, como ya hicieron el CAD o el BIM (Asif et al., 2024; Li et al., 2025). Automatiza tareas repetitivas, agiliza el diseño, facilita la toma de decisiones basada en datos y ayuda a elegir materiales, mejorar la eficiencia energética y estructural e inspirar soluciones creativas. Su impacto trasciende el diseño y se extiende a la planificación, la supervisión de la construcción y la gestión del ciclo de vida del edificio. No obstante, su adopción plantea desafíos como los altos costes, la escasez de software disponible y la necesidad de contar con datos de calidad y algoritmos robustos. Si se depende en exceso de la IA, los diseños podrían homogeneizarse, por lo que es fundamental definir claramente los roles entre los arquitectos y la IA. Si se utiliza correctamente, la IA puede potenciar la creatividad, la eficiencia y la sostenibilidad, y ofrecer un futuro más innovador y dinámico para la construcción.

Os dejo un vídeo que resume las ideas más importantes.

Referencias:

Glosario de términos clave

  • Inteligencia Artificial (IA): Una disciplina científica y tecnológica de vanguardia que simula el aprendizaje y la innovación humanos para extender el alcance de la aplicación de la tecnología.
  • Inteligencia Artificial Generativa (GAI): Un subconjunto de la IA que utiliza el aprendizaje automático y las capacidades de procesamiento del lenguaje natural para que las computadoras simulen la creatividad y el juicio humanos, produciendo automáticamente contenido que cumple con los requisitos.
  • Diseño Paramétrico: Un método de diseño en el que se utilizan algoritmos para definir la relación entre los elementos de diseño, permitiendo la generación de diversas variaciones de diseño mediante el ajuste de parámetros.
  • Diseño Asistido por IA: Métodos en los que las herramientas de IA ayudan a los diseñadores a optimizar diseños, analizar datos, resolver problemas y explorar conceptos creativos.
  • Colaboración Hombre-Máquina: Un enfoque en el que humanos y máquinas trabajan juntos en tareas complejas, con la IA apoyando la innovación humana y el intercambio de información eficiente.
  • Redes Neuronales Artificiales (RNA o ANN): Un tipo de algoritmo de IA, modelado a partir del cerebro humano, que se utiliza para modelar relaciones complejas entre entradas y salidas, a menudo empleadas en la predicción del consumo de energía de los edificios.
  • Aprendizaje Profundo (Deep Learning): Un subcampo del aprendizaje automático que utiliza redes neuronales con múltiples capas (redes neuronales profundas o DNN) para aprender representaciones de datos con múltiples niveles de abstracción.
  • Redes Neuronales Profundas (DNN): Redes neuronales con numerosas capas ocultas que permiten que el modelo aprenda patrones más complejos en los datos, mejorando la precisión en tareas como la predicción del consumo de energía.
  • Máquinas de Vectores de Soporte (SVM): Un algoritmo de aprendizaje supervisado utilizado para tareas de clasificación y regresión, especialmente eficaz con conjuntos de datos pequeños y para identificar relaciones no lineales.
  • Procesamiento del Lenguaje Natural (PLN o NLP): Un campo de la IA que se ocupa de la interacción entre las computadoras y el lenguaje humano, permitiendo a los sistemas interpretar y generar lenguaje humano.
  • Modelado de Información de Construcción (BIM): Una metodología para la gestión de la información de construcción a lo largo de su ciclo de vida, utilizada con la IA para mejorar las simulaciones de rendimiento del edificio.
  • Algoritmos Genéticos (GA): Una clase de algoritmos de optimización inspirados en el proceso de selección natural, utilizados para encontrar soluciones óptimas en tareas de diseño complejas.
  • Adaptación de Bajo Rango (LoRA): Un método de ajuste de bajo rango para modelos de lenguaje grandes, que permite modificar el comportamiento de los modelos añadiendo y entrenando nuevas capas de red sin alterar los parámetros del modelo original.
  • Stable Diffusion: Una herramienta avanzada de IA para generar imágenes a partir de descripciones de texto o dibujos de referencia, que a menudo utiliza el modelo LoRA para estilos específicos.
  • Inception Score (IS) y Fréchet Inception Distance (FID): Métricas cuantitativas utilizadas para evaluar la calidad y diversidad de las imágenes generadas por modelos de IA, con IS evaluando la calidad y FID la similitud de la distribución entre imágenes reales y generadas.
  • FUGenerator: Una plataforma que integra varios modelos de IA (como Diffusion Model, GAN, CLIP) para respaldar múltiples escenarios de aplicación de diseño arquitectónico, desde la descripción semántica hasta la generación de bocetos y el control.
  • Industrialización (en construcción): Énfasis en métodos de construcción modulares y automatizados para mejorar la eficiencia y estandarización.
  • Desarrollo Ecológico (en construcción): Enfoque en la conservación de energía durante el ciclo de vida, el uso de materiales sostenibles y la reducción del impacto ambiental.
  • Transformación Digital-Inteligente (en construcción): Integración de sistemas de digitalización e inteligencia, aprovechando tecnologías como la GAI para optimizar procesos y mejorar la creación de valor.
  • Problema Mal Definido (Ill-defined problem): Problemas de diseño, comunes en arquitectura, que tienen propósitos y medios iniciales poco claros.
  • Problema Malicioso (Wicked problem): Problemas de diseño caracterizados por interconexiones y objetivos poco claros, que requieren enfoques de resolución complejos.
  • Integración del Internet de las Cosas (IoT): La interconexión de dispositivos físicos con sensores, software y otras tecnologías para permitir la recopilación y el intercambio de datos, crucial para los sistemas de control de edificios inteligentes

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.