En este trabajo se describe una metodología para minimizar las emisiones de CO₂ y los costes de puentes de carretera de vigas de hormigón pretensado prefabricadas con sección transversal en doble U. Para ello se ha utilizado un algoritmo híbrido de optimización por enjambre de luciérnagas (glowworm swarm optimization, GSO) y el recocido simulado (simulated anneling, SA), que se ha denominado SAGSO. La estructura se define por 40 variables, que determina la geometría, los tipos de materiales y las armaduras de la viga y de la losa. Se emplea hormigón de alta resistencia autocompactante en la fabricación de las vigas. Los resultados suponen para los ingenieros proyectistas una guía útil para el predimensionamiento de puentes prefabricados de este tipo. Además, los resultados indican que, de media, la reducción de 1 euro en coste permite ahorrar hasta 1,75 Kg en emisiones de CO₂. Además, el estudio paramétrico realizado muestra que las soluciones de menor coste presentan un resultado medioambiental satisfactorio, que difiere en muy poco respecto a las soluciones que provocan menores emisiones.
Resultados interesantes:
El coste C, en euros, y las emisiones de CO₂, en kg varían de forma parabólica con la luz (L) del vano, en metros:
C=48.088L2+613.99L+31139
kgCO2=63.418L2+2392.3L+13328
Si se minimiza el coste, también se reducen las emisiones de CO₂, de forma que el ahorro en 1 euro equivale a ahorrar 1,75 kg de CO₂.
La esbeltez de los puentes de mínimo coste (L/18.08) y de mínimas emisiones (L/17,57) siempre son inferiores a L/17.
El espaciamiento entre las vigas se sitúa en torno a 5,85 m, oscilando entre 5,65 y 5,95 m.
Las estructuras de coste mínimo precisan 42,35 kg/m² de armadura pasiva, mientras que si se optimizan las emisiones, se necesitarían 37,04 kg/m².
Sorprende observar que, aunque parece que el hormigón de alta resistencia sería el adecuado para el prefabricado de las vigas, las estructuras óptimas se alejan de este supuesto. De hecho, el hormigón para el coste mínimo en las vigas prefabricadas oscila entre 40 y 50 MPa, alejado de los 100 MPa que permitía la optimización.
Por último, un análisis de sensibilidad de costes en los resultados optimizados indica que un aumento del 20% en los costes del acero haría que el coste total de la estructura aumentara un 10,27%, disminuyendo el volumen de acero empleado. Sin embargo, si sube un 20% el precio del hormigón, el coste total únicamente subiría un 3,41% y no variaría apenas el volumen consumido de hormigón.
Referencia:
YEPES, V.; MARTÍ, J.V.; GARCÍA-SEGURA, T. (2014). Cost and CO2 emission optimization of precast-prestressed concrete U-beam road bridges by a hybrid glowworm swarm algorithm.Automation in Construction, 49:123-134. DOI: 10.1016/j.autcon.2014.10.013 (link)
By retocada por Yeza de la versión original de Alonsoquijano [Public domain], from Wikimedia Commons
El propósito de este artículo es presentar la optimización multiobjetivo como herramienta para el estudio de la sostenibilidad de los hormigones autocompactantes. Se toma como ejemplo una viga en doble T de hormigón de 15 m de luz definida por 20 variables. Una variable recoge ocho posibles dosificaciones del hormigón. Cuatro hormigones convencionales CC y cuatro hormigones autocompactantes SCC representan cuatro clases resistentes. Se utiliza el algoritmo recocido simulado multiobjetivo «Multiobjective Simulated Annealing» (MOSA) para optimizar el coste, las emisiones de CO₂ y la durabilidad. Los resultados muestran la viabilidad económica de las reducciones de las emisiones de CO₂ y de las mejoras en durabilidad. Además, las soluciones con menor coste y emisión anual emplean hormigón autocompactante. Los resultados proporcionan al proyectista estructural criterios para elegir soluciones más sostenibles.
REFERENCIA
GARCÍA-SEGURA, T.; YEPES, V.; ALCALÁ, J.; MARTÍ, J.V. (2014). Optimización multiobjetivo para el estudio de la sostenibilidad del hormigón autocompactante. VI Congreso de ACHE, 3-5 de junio, Madrid. ISBN: 978-84-89670-80-8.
PALABRAS CLAVE
Sostenibilidad, autocompactante, optimización, multiobjetivo, viga en doble T.
Las turbo mezcladoras de eje vertical son máquinas que permiten fabricar hormigón y son típicas de las centrales de hormigonado. Estas máquinas constan de una cuba fija y, en el interior de la misma, gira un rotor con unos brazos suspendidos elásticamente y terminados en unas paletas, de forma que hay una gran velocidad periférica constante, del orden de 3 a 4 m/s. La velocidad del agitador puede graduarse sin escalonamientos y es posible cambiar el sentido de giro. Durante el proceso de carga, el agitador no actúa. Las capacidades de estas mezcladoras oscilan entre los 250 y los 4500 litros.
Los principales elementos son:
Una cuba cilíndrica de acero blindada, cuyas paredes y cuyo fondo vienen recubiertos con lámina de acero antidesgaste, atornilladas para su fácil remplazo.
Un rotor central que arrastra una serie de brazos articulados elásticamente para absorber los esfuerzos de los arranques con carga o cuando se trabaja con áridos de gran tamaño. Estos brazos llevan en sus extremos paletas o rasquetas que describen círculos de diámetros escalonados, de modo que sus trazos recubren toda la superficie del anillo. La altura de las paletas se ajusta desde el interior del rotor para graduarla a medida que estas se vayan desgastando, asegurando así una evacuación completa de la mezcla.
Un motor eléctrico de eje horizontal colocado bajo la cuba y atacando por un cardan a un reductor de tornillo sin fin cuyo eje de salida vertical lleva un piñón dentado. Una corona dentada fijada al eje principal del rotor.
Una compuerta de sector en el fondo, accionada por un motorreductor, por donde se produce el vaciado, que puede ser total o parcial.
Un circuito de alimentación del agua.
Os paso varios vídeos de un tubo mezclador. Espero que os gusten.
Referencias:
MARTÍ, J.V.; YEPES, V.; GONZÁLEZ, F. (2014).Fabricación, transporte y colocación del hormigón.Apuntes de la Universitat Politècnica de València.
In recent decades, with the objective of achieving more sustainable development, the global community has increased its concern for environmental protection. Nevertheless, there are still economic sectors, such as the construction industry, which produce significant environmental impacts. Life Cycle Assessment (LCA) is a tool that enables identifying environmental issues related to both finished products and services, and allows focusing efforts to resolve them. The main objective of this paper is to assess LCA applicability on concrete structures so that the construction’s environmental performance can be improved. For this purpose, an attempt is made to provide construction-sector stakeholders with a decision-making tool based on reliable, accurate environmental data. The research methodologies used in this paper are based on a literature review and are applied to a case study. This review was conducted to gather information on LCA methodologies currently in use and their practical applications. The case study described in this paper involved identifying the most sustainable slab type for a reinforced concrete structure in a residential building, using two databases. It was observed that, depending on the selected database and the inherent assumptions, results varied. Therefore, it was concluded that, to avoid incorrect results when applying LCA, it is highly recommended to develop a more constrained methodology and to grant access to reliable construction-sector data. (link)
La Naturaleza es más sabia de lo que sospechamos. ¿Quién diría a un ingeniero estructural que una simple luciérnaga sería capaz de sonrojarle e incluso de enseñarle trucos para diseñar puentes, no solo más baratos, sino también más respetuosos con el medio ambiente? Pues bien, no solo es cierto, sino que también podemos aprender del comportamiento social de las luciérnagas para optimizar estructuras. Efectivamente, las luciérnagas se comportan como un colectivo de forma inteligente. Las luciérnagas basan su comportamiento social en la luminosidad que emiten (luciferina). La característica más distintiva de las luciérnagas es su cortejo nocturno. Los machos patrullan en busca de pareja con un vuelo característico, mientras emiten secuencias de destellos de luz propias de cada especie. Las hembras de la misma especie pueden responder con destellos específicos y así el apareamiento puede ocurrir. En la resolución de problemas, la luminosidad de una luciérnaga depende tanto de la calidad de la solución encontrada como de la distancia desde donde las otras compañeras buscan soluciones. Cada luciérnaga selecciona, mediante un mecanismo probabilístico, un vecino con un valor de luciferina más alto que el suyo y se mueve hacia él. De esta forma, se pueden optimizar los puentes.
Dentro del proyecto de investigación HORSOST, nos acaban de aceptar un artículo científico en la revista Automation in Construction, que es una revista de primer nivel en el ámbito de la tecnología de la construcción (Factor de impacto en 2013: 1,822, posición 9 de 58 en el ámbito de Construction & Building Technology, y posición 19 de 124 en el ámbito de Civil Engineering, en función del impacto de las revistas indexadas en el JCR).
En este trabajo se describe una metodología para minimizar las emisiones de CO2 y los costes de los puentes de carretera de vigas de hormigón pretensado prefabricadas con sección transversal en doble U. Para ello, se ha utilizado un algoritmo híbrido de optimización por enjambre de luciérnagas (glowworm swarm optimization, GSO) y el recocido simulado (simulated annealing, SA), denominado SAGSO. La estructura se define por 40 variables, que determinan la geometría, los tipos de materiales y las armaduras de la viga y de la losa. Se emplea hormigón de alta resistencia autocompactante para la fabricación de las vigas. Los resultados constituyen para los ingenieros proyectistas una guía útil para el predimensionamiento de puentes prefabricados de este tipo. Además, los resultados indican que, en promedio, una reducción de 1 euro en costes permite ahorrar hasta 1,75 kg de emisiones de CO₂. Además, el estudio paramétrico realizado muestra que las soluciones de menor coste presentan un resultado medioambiental satisfactorio, que difiere en muy poco respecto a las soluciones que provocan menores emisiones.
Resultados interesantes:
El coste C, en euros, y las emisiones de CO₂, en kg, varían de forma parabólica con la luz (L) del vano, en metros:
C=48.088L2+613.99L+31139
kgCO2=63.418L2+2392.3L+13328
Si se minimiza el coste, también se reducen las emisiones de CO₂, de forma que el ahorro en 1 euro equivale a ahorrar 1,75 kg de CO₂.
La esbeltez de los puentes de mínimo coste (L/18,08) y de mínimas emisiones (L/17,57) siempre es inferior a L/17.
El espaciamiento entre las vigas se sitúa en torno a 5,85 m, con un rango de 5,65 a 5,95 m.
Las estructuras de coste mínimo precisan 42,35 kg/m² de armadura pasiva, mientras que si se optimizan las emisiones, se necesitarían 37,04 kg/m².
Sorprende observar que, aunque el hormigón de alta resistencia parece ser el adecuado para el prefabricado de las vigas, las estructuras óptimas se alejan de este supuesto. De hecho, el hormigón para el coste mínimo en las vigas prefabricadas oscila entre 40 y 50 MPa, alejado de los 100 MPa que permitía la optimización.
Por último, un análisis de sensibilidad de costes en los resultados optimizados indica que un aumento del 20% en los costes del acero haría que el coste total de la estructura aumentara un 10,27%, lo que disminuiría el volumen de acero empleado. Sin embargo, si sube un 20% el precio del hormigón, el coste total únicamente subiría un 3,41% y apenas variaría el volumen de hormigón consumido.
Referencia:
YEPES, V.; MARTÍ, J.V.; GARCÍA-SEGURA, T. (2015). Cost and CO₂ emission optimization of precast-prestressed concrete U-beam road bridges by a hybrid glowworm swarm algorithm.Automation in Construction, 49:123-134. DOI: 10.1016/j.autcon.2014.10.013 (link)
Las bombas peristálticas o de rotor para hormigón están compuestas por dos rodillos de presión giratorios, instalados en una carcasa, cuyo interior se encuentra a una presión inferior a la del exterior. Al girar, los rodillos comprimen el vacío en una manguera flexible fabricada con malla de acero de alta resistencia, a través de la cual se impulsa el hormigón. La operación se realiza en un vacío de 0,8-0,9 bar y, de esta forma, el tubo recupera su forma produciendo el efecto de succión.
Así, debido a la diferencia de presión entre la carcasa y el agitador, el hormigón sufre un efecto de succión que lo hace fluir de forma constante hacia la manguera. El caudal depende del diámetro de la tubería y de la velocidad de rotación del rotor. A diferencia de las bombas de pistón, la unión entre la manguera y la conducción es directa, sin desvíos ni cambios de sección.
Llenado del rotor de la bomba.
La presión de bombeo es media o baja, con una muy buena estanqueidad, un mantenimiento sencillo y las piezas que más se desgastan son el propio rotor y la manguera flexible. Sin embargo, solo se pueden bombear hormigones muy trabajables.
El equipo puede montarse en un camión y la bomba hidráulica que acciona el rotor puede estar acoplada al motor diésel del camión. En caso de ir la bomba remolcada, dispone de un motor de accionamiento propio.
Principales ventajas:
Economía
Simplicidad de funcionamiento
Sencillez en el acoplamiento y regulación
Sin problemas de desgaste de válvulas y prácticamente la única pieza que requiere una reposición relativamente frecuente por desgaste de la misma es la manguera y al cabo de unos 2000-2500 m³. Además, estos primeros fallos pueden apreciarse en las manchas que las salpicaduras de hormigón dejan en las ventanas de la carcasa.
Aplicaciones:
Para obras pequeñas o medianas con alcances no excesivos (20-25 m)
Posibilidad de instalación en equipos móviles o estacionarios.
Posibilidad de uso para gunitado por vía húmeda
Veamos algunos vídeos para ver cómo funciona la bomba.
Referencias:
MARTÍ, J.V.; YEPES, V.; GONZÁLEZ, F. (2014).Fabricación, transporte y colocación del hormigón.Apuntes de la Universitat Politècnica de València. 189 pp.
El presente artículo presenta una caracterización estadística de una muestra de 87 tableros reales de pasos superiores pretensados de canto constante para carreteras. El objetivo principal es encontrar fórmulas de predimensionamiento con el mínimo número de datos posible que permitan mejorar el diseño previo de estas estructuras. Para ello, se han realizado un análisis exploratorio y otro multivariante de las variables geométricas determinantes, de las cuantías de materiales y del coste, tanto para tableros macizos como aligerados. Los modelos de regresión han permitido deducir que el canto y la armadura activa quedan bien explicados por la luz, mientras que la cuantía de hormigón lo está por el canto. La variable que mejor explica (71,3%) el coste por unidad de superficie de tablero en losa maciza es el canto, mientras que en las aligeradas es la luz (51,9%). Las losas macizas son económicas en vanos inferiores a 19,24 m. La luz principal y los voladizos, junto con la anchura del tablero para losas macizas o el aligeramiento interior para las aligeradas, bastan para predimensionar la losa, con errores razonables en la estimación económica.
Instituto de Ciencia y Tecnología del Hormigón (ICITECH)
Creo que es interesante comentar en este post los resultados que estamos obteniendo de un proyecto de investigación financiado por el Ministerio de Ciencia e Innovación, que nuestro grupo de investigación llama HORSOST. Su nombre completo describe el contenido del trabajo que estamos desarrollando: «Diseño eficiente de estructuras con hormigones no convencionales basados en criterios sostenibles multiobjetivo mediante el empleo de técnicas de minería de datos«.
Se trata de un proyecto que iniciamos en 2012 y cuya finalización está prevista para finales de 2014. Nuestro grupo de investigación está formado por seis profesores y varios becarios de investigación del Instituto de Ciencia y Tecnología del Hormigón (ICITECH) de la Universidad Politécnica de Valencia. En dicho grupo me corresponde el papel de investigador principal. Espero que esta breve descripción os oriente sobre lo que estamos haciendo.
Este proyecto de investigación se encuentra relacionado con otros ya finalizados y otros en marcha, tanto de convocatorias competitivas como de convenios de transferencia tecnológica con empresas (constructoras, empresas de prefabricados, consultoras, etc.).
El objetivo fundamental del proyecto de investigación HORSOST consiste en establecer pautas de diseño eficiente de estructuras de hormigón no convencional, optimizadas heurísticamente mediante funciones multiobjetivo relacionadas con la sostenibilidad. Se pretende avanzar en el establecimiento de nuevos diseños que permitan extraer las ventajas que aportan los hormigones especiales, en particular hormigones de alta resistencia, hormigones con fibras, hormigones autocompactantes. Para ello, se utiliza el análisis del ciclo de vida de dichas estructuras (elaboración, transporte, procedimientos constructivos, mantenimiento, etc.), considerando aspectos energéticos, medioambientales, sociales y económicos. La optimización heurística permite evaluar los diseños más eficientes, comparar soluciones y generar bases de datos sobre las cuales aplicar herramientas procedentes de la minería de datos y del aprendizaje automático para extraer información no trivial que permita fórmulas de predimensionamiento. La posibilidad de análisis se debe a que las herramientas matemáticas empleadas son de carácter general. Se aplican técnicas como las redes neuronales o la teoría del valor extremo, además de otras herramientas más habituales, como la regresión lineal múltiple o el análisis por componentes principales.
INTRODUCCIÓN
Las evidencias del cambio climático actual, entre otras, han provocado una creciente preocupación por la sostenibilidad [1]. Ello ha impulsado la investigación en aspectos de sostenibilidad en el ámbito de la construcción. Así, se han desarrollado indicadores [2] y se han elaborado bases de datos que miden el impacto ambiental de los materiales [3,4], las cuales han servido en algunas investigaciones para reducir las emisiones de CO2 en estructuras [5,6]. Sin embargo, la sostenibilidad requiere considerar aspectos energéticos, medioambientales, sociales y económicos que deben abarcar todo el ciclo de vida de la estructura [7]. Un antecedente fue el Modelo Integrado de Cuantificación de Valor de un Proyecto Constructivo Sostenible: Aplicación a la Edificación Industrial y de Servicios (MIVES) y MIVES II, que abordaron la sostenibilidad mediante el análisis de valor aplicado a diversos ámbitos [8], y que fueron el punto de partida para el Anejo 13 de la actual EHE.
La disponibilidad de ordenadores de elevada potencia de cálculo, junto con el desarrollo de técnicas de análisis inteligente, ha permitido el avance en el diseño de estructuras óptimas [9-11]. Se ha insistido en la necesidad de optimizar estructuras reales, constatándose la escasez de optimización del hormigón estructural frente a las estructuras metálicas. La optimización [12] puede realizarse desde numerosos puntos de vista (geométricos, topológicos, seccionales, etc.). Además de los métodos basados en la programación matemática [13], el problema de optimización puede abordarse mediante técnicas metaheurísticas y bioinspiradas, tales como los algoritmos genéticos, el recocido simulado, las colonias de hormigas o las redes neuronales, entre otras [14,15]. Recientemente, el trabajo desarrollado por nuestro grupo ha reducido el coste de estructuras reales [16-28].
Sin embargo, la optimización ha requerido un intenso trabajo de investigación para extraer conclusiones aplicables a la realidad de las obras. Una forma que tiene el ingeniero para avanzar en el diseño de estructuras óptimas es difundir fórmulas de predimensionamiento [26,28]. Pues bien, para mejorar los diseños de las estructuras, es posible extraer información no trivial de bases de datos de estructuras óptimas mediante la inteligencia artificial.
El descubrimiento de conocimiento en bases de datos (“Knowledge Discovery from Databases”, KDD) constituye un área en la que se realizan muchos esfuerzos, tanto en metodología como en investigación. En este contexto, la minería de datos constituye un conjunto de herramientas empleadas para extraer información no trivial que reside implícitamente en los datos [29]. Mediante este tipo de técnicas se pueden solucionar problemas de predicción, clasificación y segmentación [30]. Algunas de sus herramientas más representativas son las redes neuronales, las máquinas de soporte vectorial, los árboles de decisión, los modelos estadísticos avanzados multivariantes y los diseños de experimentos y el agrupamiento o “clustering”. Estas herramientas construyen modelos abstractos a partir de datos basándose en métodos de aprendizaje automático “machine learning”.
Por otra parte, la investigación sobre hormigones no convencionales constituye una de las líneas de investigación relevantes relacionadas con los nuevos materiales de construcción. Sus propiedades permiten mejorar las prestaciones y la durabilidad, lo cual se relaciona con la sostenibilidad de su uso. Así, el refuerzo con fibras (HRF) reduce la fisuración y mejora la durabilidad al impedir el acceso de agua y de contaminantes [31]. Sin embargo, razones económicas han llevado al empleo de fibras sólo en casos puntuales, cuando existen beneficios adicionales relativos a la mano de obra, la durabilidad o la congestión del refuerzo [32]. El hormigón autocompactante (HAC) ha mejorado significativamente la tecnología del hormigón al conseguir estructuras más duraderas, mejorar la producción y los procesos constructivos, y facilitar el diseño de elementos complejos y los acabados. Ello se consigue mediante dosificaciones que modifican las propiedades mecánicas respecto al hormigón convencional [33]. Todo ello abre horizontes inexplorados, donde una simple optimización económica de las estructuras haría inviable el empleo de muchos hormigones especiales, pero donde una visión más amplia que contemple criterios de sostenibilidad y análisis del ciclo de vida puede cambiar la perspectiva respecto de su empleo.
Hipótesis de partida y objetivos del proyecto
El objetivo fundamental de HORSOST consiste en establecer criterios de diseño eficientes basados en el análisis del ciclo de vida de estructuras de hormigón no convencional, aplicando, para ello, técnicas procedentes de la inteligencia artificial y la minería de datos a amplios conjuntos de estructuras optimizadas heurísticamente bajo objetivos múltiples de sostenibilidad (ahorro energético y de recursos naturales, aspectos ambientales, sociales y económicos).
Hipótesis de partida
a) Es posible mejorar los diseños de las estructuras de hormigón mediante pautas de predimensionamiento solo disponibles para algunos proyectistas de gran experiencia.
b) Existen criterios de diseño que permiten compatibilizar las exigencias derivadas de la sostenibilidad con reducciones de coste, con aumentos en seguridad y constructibilidad. Sin embargo, estos criterios no son triviales.
c) Los hormigones no convencionales presentan propiedades que contribuyen a la sostenibilidad de las estructuras al analizar el ciclo de vida.
d) La inteligencia artificial y la minería de datos permiten aflorar relaciones no triviales cuando existen bases de datos lo suficientemente amplias.
e) La optimización heurística permite elaborar bases masivas de datos de estructuras optimizadas con múltiples objetivos basados en la sostenibilidad (huella ecológica, reducción de CO2, etc.).
Objetivos del proyecto
1. Desarrollar una metodología capaz de extraer información no trivial de bases de datos masivas de estructuras de hormigón no convencionales optimizadas con múltiples objetivos basados en la sostenibilidad.
2. Obtener reglas de predimensionamiento optimizadas para cada tipología estructural. La novedad y la relevancia radican en el uso de herramientas procedentes del “data mining” y del “machine learning”.
3. Comparar las reglas de diseño obtenidas para hormigones convencionales y no convencionales, así como con los criterios obtenidos de la práctica habitual de diseño y de la bibliografía existente.
4. Divulgar el conocimiento adquirido para que los proyectistas puedan utilizar estos criterios de predimensionamiento, de forma que se obtengan mejoras en la sostenibilidad a lo largo del ciclo de vida de las estructuras de hormigón no convencional.
Descripción de la metodología empleada en el proyecto
La metodología empleada consta de una secuencia iterativa de fases (Figura 1):
Integración y recopilación de datos, en la que se determinan las fuentes de información que pueden ser útiles y dónde conseguirlas.
Selección, limpieza y transformación de datos, en las que se eliminan o corrigen los datos incorrectos y se decide la estrategia a seguir para los datos incompletos.
Minería de datos, en la que se decide la tarea a realizar, ya sea la clasificación, la regresión, el agrupamiento o las reglas de asociación.
Evaluación e interpretación, en la que se evalúan los patrones y se analizan por el equipo de investigación, volviéndose a fases anteriores para nuevas iteraciones si fuera necesario.
Difusión, donde se hace uso del nuevo conocimiento adquirido y se hace partícipes de él a todos los posibles usuarios.
Figura 1 Extracción y difusión del conocimiento por contraste de criterios de diseño sostenible
Uno de los aspectos clave es la disponibilidad de datos utilizables, en cantidad y calidad suficientes, para aplicar las técnicas de “data mining”. Se trata de aplicar un procedimiento convergente para la generación de bases de datos (CGD, por sus siglas en inglés). A continuación se describe el fundamento y la forma de proceder de CGD.
Una estructura de hormigón puede representarse mediante una serie de variables y parámetros. Pues bien, la complejidad de un problema aumenta drásticamente con el número variables involucradas [34], efecto denominado como la “maldición de la dimensión” [35]. Para extraer información, como regla práctica [36], se necesita una muestra cuyo tamaño sea, al menos, 10 veces el número de variables independientes, siendo deseable que ese ratio sea mayor a 20. En el caso de un puente pretensado [37], el número de factores que son combinación lineal de las variables originales y que, además, sean independientes entre sí es de 4, por lo que se precisarían en torno a 40-80 casos para poder realizar inferencias lineales, lo cual no contemplaría relaciones cruzadas entre variables (ello implicaría una muestra mayor). Otras técnicas como las redes neuronales o las máquinas de soporte vectorial, que son capaces de inferir modelos no lineales e incluso discontinuos o discretos, requieren un número mayor de individuos. Además, se aconseja la reserva de un grupo de validación, que puede oscilar entre 1/3 y 1/4 de la muestra necesaria, para comprobar que las inferencias presentan una calidad adecuada.
Metaheurísticas empleadas en el desarrollo del proyecto
Desde los primeros años de la década de los 80, la investigación sobre los problemas de optimización se centra en el diseño de métodos aproximados basados en conceptos derivados de la inteligencia artificial, la evolución biológica y la mecánica estadística. En la Figura 2 se recoge una clasificación propuesta por Yepes [39] que debería complementarse con metaheurísticas híbridas que emplean, en mayor o menor medida, estrategias de unos grupos y otros. A continuación se describen algunas técnicas empleadas en HORSOST.
Figura 2 Taxonomía de estrategias empleadas en la resolución aproximada de problemas de optimización combinatoria [39]
Recocido simulado
El recocido simulado “Simulated Annealing” (SA) [40,41] se basa en la analogía entre la energía de un sistema termodinámico y la función de coste de un problema de optimización. Conceptualmente, es un algoritmo de búsqueda por entornos, donde una solución sustituye a la anterior si mejora a la anterior (D<0); en caso contrario, será aceptada con una probabilidad (e(-D/T), donde T es un parámetro denominado temperatura) decreciente con el aumento de D, la diferencia entre los costes de la solución candidata y la actual. La selección aleatoria de soluciones degradadas permite eludir los óptimos locales.
Aceptación por umbrales
La aceptación por umbrales “Threshold Accepting” (TA) [42] emplea un enfoque similar al de SA para eludir los óptimos locales, pero con una toma de decisiones más sencilla. Se autoriza el menoscabo de la calidad de las soluciones, siempre y cuando no se exceda, en cierta magnitud, la aptitud de la solución actual.
Sistema de colonia de hormigas
El sistema de colonia de hormigas “Ant System Optimization” (ACO) [43] se basa en la analogía con el comportamiento de estos insectos al encontrar el camino más corto entre la comida y su hormiguero. Tan pronto como un individuo encuentra una fuente de comida, evalúa su cantidad y calidad y transporta un poco al hormiguero. Durante el regreso, la hormiga deja por el camino feromonas para que las demás hormigas puedan seguirla. Después de un tiempo, el camino hacia el alimento se indicará por un rastro oloroso que crece con el número de hormigas que pasan por él y desaparece en caso contrario. El resultado final es la optimización del trabajo de todo el hormiguero en su búsqueda de comida.
Búsqueda local iterada
La idea de la búsqueda local iterada “Iterated Local Search” (ILS) [44] consiste en rastrear la solución entre los óptimos locales del subespacio definido por ellos. Dado que un algoritmo de búsqueda es capaz de transformar una solución s en otra s* que es un óptimo local, para pasar a otro óptimo local cercano, s’, se aplica una pequeña perturbación. Aplicando el algoritmo de búsqueda a s’ se encuentra otra solución s*’. La metaheurística acepta el paso de s* a s*’ según algún criterio, como el de máximo gradiente (si s*’ es mejor que s*, se acepta) o no (se puede pensar en un mecanismo TA o SA para evitar estancamientos dentro del subespacio de los óptimos locales s*).
Búsqueda en entornos variables
La búsqueda en entornos variables, “Variable Neighborhood Search” (VNS) [45], consiste en cambiar de operador de búsqueda cuando el anterior ha alcanzado un óptimo local. De este modo, VNS oscilará entre dos o más operadores con la esperanza de que los cambios en la estructura del entorno permitan escapar de muchos óptimos locales. Para que este principio funcione bien, los operadores empleados deberán ser lo suficientemente distintos respecto de la estructura del vecindario que generan.
Algoritmos genéticos
Los algoritmos genéticos, “Genetic Algorithms” (GA) [46], simulan el proceso de evolución de las especies que se reproducen sexualmente. Un nuevo individuo se genera a través del cruzamiento, que combina parte del patrimonio genético de cada progenitor para elaborar el del nuevo individuo, y de la mutación, que supone una modificación espontánea de esta información genética. Si los hijos heredan buenos atributos de sus padres, su probabilidad de supervivencia será mayor, reproduciéndose con mayor probabilidad.
Algoritmos meméticos
Los algoritmos meméticos “Memetic Algorithms” (MA) [47] derivan de GA, donde el uso de una población de soluciones se combina con heurísticas de búsqueda local. La idea consiste en recombinar la información de las soluciones provenientes del subespacio de óptimos locales. El éxito de estos métodos puede atribuirse a su equilibrio entre la búsqueda rápida y el mantenimiento de la diversidad, para evitar la convergencia prematura.
Otras técnicas empleadas en el proyecto
Regresión lineal múltiple
Los modelos de regresión lineal múltiple (RLM) se ajustan mediante mínimos cuadrados, de modo que la variable de respuesta esté explicada al máximo posible por las variables independientes. El proceso se inicia intentando explicar la respuesta en función de la variable con la que presenta la mayor correlación. El objetivo es aumentar el coeficiente de regresión agregando variables independientes explicativas, utilizando el método stepwise de pasos sucesivos [48].
Análisis por componentes principales
El análisis de componentes principales (ACP) examina la interdependencia entre variables para reducir su dimensión a un nuevo subconjunto de variables no observables. En síntesis, calcula unos factores que sean una combinación lineal de las variables originales y que, además, sean independientes entre sí. La primera componente principal se elige de modo que explique la mayor parte de la varianza posible, y así sucesivamente. Para facilitar la interpretación, se emplea una rotación ortogonal que minimiza el número de variables con saturaciones altas en cada factor [49].
Redes neuronales artificiales
Las redes neuronales artificiales “ArtificialNeural Networks” (ANN) simulan un sistema de procesamiento de la información altamente complejo, no lineal y en paralelo parecido al cerebro humano. McCulloch y Pitts [50] presentaron el primer modelo de neurona como un dispositivo no lineal multientrada con interconexiones “con peso”. La neurona suma las entradas ya ponderadas, les aplica una función no lineal y transmite una salida. La red puede ser preparada, utilizando ejemplos, para reconocer ciertas estructuras, como puede ser la clasificación de objetos por sus características o la inferencia a partir de los datos de entrada.
Teoría del valor extremo
Si se acepta que el óptimo local encontrado por un algoritmo de búsqueda estocástica puede considerarse una solución extrema de una muestra aleatoria simple formada por las soluciones visitadas, entonces se podría aplicar la teoría del valor extremo “Extreme Value Theory” (EVT) [51,52] para estimar el óptimo global del problema. Para ello se ha comprobado que los óptimos locales encontrados constituyen valores extremos que ajustan a una función Weibull de tres parámetros, siendo el de posición, γ, una estimación del óptimo global.
Tabla 1 Referencias del empleo de técnicas respecto a tipologías estructurales
SA
TA
ACO
ILS
VNS
GA
MA
EVT
ANN
ACP
RLM
Muros
[28]
[6]
[6]
Pórticos de edificación
[5,24]
[24]
Vigas de hormigón armado
[27]
[27]
[27]
Vigas pretensadas
[23]
Bóvedas de paso inferior
[16]
[16]
[17]
[17]
Marcos de paso inferior
[25]
[25,26]
Pilas de puente
[21]
[20,22]
[20]
Puentes de vigas artesa
[18]
[19]
Puentes losa postesados
[37]
[37]
Conclusiones
Como conclusiones generales del planteamiento del proyecto HORSOST se pueden citar las siguientes:
1) Existe una importante área de mejora en los diseños de estructuras de hormigón no convencional de forma que se obtenga un importante beneficio social si estos diseños maximizan la sostenibilidad en la construcción de estas estructuras considerando todo el ciclo de vida del producto.
2) Es posible emplear técnicas procedentes del descubrimiento de conocimiento en bases de datos (KDD) para extraer información no trivial de bases de datos de estructuras de hormigón generadas mediante optimización heurística multiobjetivo orientada a la sostenibilidad.
3) Los hormigones no convencionales presentan prestaciones que favorecen su durabilidad y, por ello, pueden contribuir a la sostenibilidad si se consideran aspectos medioambientales, sociales y económicos a lo largo de toda su vida útil. Por tanto, deben analizarse en detalle para comprobar su validez frente a los hormigones convencionales y ofrecer criterios de diseño aplicables para los proyectistas.
Agradecimientos
Los autores agradecen el aporte financiero realizado para este trabajo por el Ministerio de Ciencia e Innovación (Proyecto de Investigación BIA2011-23602) y por la Universitat Politècnica de València (Proyecto de Investigación PAID-06-12).
Referencias
[1] Baldasano, J.M. (2007). Evidencias del actual cambio climático, en Cambio climático y sus consecuencias. Generalitat Valenciana, pp. 43-56.
[2] Rodríguez, F.; Fernández, G. (2010). Ingeniería sostenible: nuevos objetivos en los proyectos de construcción. Revista Ingeniería de Construcción, 25(2), 147-160. [doi:10.4067/S0718-50732010000200001]
[3] Goedkoop, M.; Spriensma, R. (2001). The Ecoindicator 99: A damage oriented method for life cycle impact assessment. Methodology Report. Product Ecology Consultants, Amersfoort, Netherlands.
[4] Institut de Tecnologia de la Construcció de Catalunya (2009). BEDEC PR/PCT ITEC materials database. Available online at:http://www.itec.es/nouBedec.e/presentaciobedec.aspx
[5] Payá-Zaforteza I.; Yepes, V.; Hospitaler, A.; González-Vidosa, F. (2009). CO2-Efficient Design of Reinforced Concrete Building Frames. Engineering Structures, 31, 1501-1508. [doi.org/10.1016/j.engstruct.2009.02.034]
[6] Yepes, V.; González-Vidosa, F.; Alcalá, J.; Villalba, P. (2012). CO2-Optimization Design of Reinforced Concrete Retaining Walls based on a VNS-Threshold Acceptance Strategy. Journal of Computing in Civil Engineering ASCE, 26 (3), 378-386. [doi:10.1061/(ASCE)CP.1943-5487.0000140]
[7] Burón, M. (2007). La sostenibilidad de las construcciones de hormigón. Revista Técnica Cemento Hormigón, 897, 58-65.
[8] Aguado, A.; Alarcón, D.B.; Manga, R. (2008). Razón de ser del anejo ICES de la EHA y características del mismo. Revista Técnica Cemento Hormigón, 913, 16-23.
[9] Sriram, R.D. (2006). Artificial intelligence in engineering: personal reflections. Advanced Engineering Informatics, 20, 3-5. [doi:10.1016/j.aei.2005.12.002]
[10] Sarma, K.C.; Adeli, H. (1998). Cost optimization of concrete structures. ASCE Journal of Structural Engineering, 124(5), 570-578. [doi:10.1061/(ASCE)0733-9445(1998)124:5(570)]
[11] Cohn, M.Z.; Dinovitzer, A.S. (1994). Application of structural optimization. ASCE Journal of Structural Engineering, 120(2), 617-649. [doi:10.1061/(ASCE)0733-9445(1994)120:2(617)]
[12] Martínez, P.; Martí, P.; Querín, O.M. (2007). Growth method for size, topology, and geometry optimization of truss structures. Structural and Multidisciplinary Optimization, 33, 13-26. [doi:10.1007/s00158-006-0043-9]
[13] Hernández, S.; Fontan, A. (2002). Practical Applications of Design Optimization. WIT Press, Southampton.
[14] Adeli, H.; Sarma, K.C. (2006). “Cost optimization of structures. Fuzzy logic, genetic algorithms and parallel computing”, Wiley, Chichester.
[15] Dreo, J.; Petrowsky, A.; Siarry, P.; Taillard, E. (2006). Metaheuristics for hard optimization. Methods and case studies. Springer, Berlin Heidelberg.
[16] Carbonell, A.; González-Vidosa, F.; Yepes, V. (2011). Heuristic optimization of reinforced concrete road vault underpasses. Advances in Engineering Software, 42(4), 151-159. [doi:10.1016/j.advengsoft.2011.01.002]
[17] Carbonell, A.; Yepes, V.; González-Vidosa, F. (2012). Automatic design of concrete vaults using iterated local search and extreme value estimation. Latin American Journal of Solids and Structures, 9(6), 675-689.
[18] Martí, J.V.; González-Vidosa, F.; Yepes, V.; Alcalá, J. (2013). Design of prestressed concrete precast road bridges with hybrid simulated annealing. Engineering Structures, 48, 342-352. [doi:10.1016/j.engstruct.2012.09.014]
[19] Martí, J.V.; Yepes, V.; González-Vidosa, F.; Luz, A. (2013). Diseño automático de tableros óptimos de puentes de carretera de vigas artesa prefabricadas mediante algoritmos meméticos híbridos. Revista Internacional de Métodos Numéricos para Cálculo y Diseño en Ingeniería, (en prensa).
[20] Martínez-Martín, F.; González-Vidosa, F.; Hospitaler, A.; Yepes, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88(5-6), 375-386. [doi:10.1016/j.compstruc.2009.11.009]
[21] Martínez-Martín, F.; González-Vidosa, F.; Hospitaler, A.; Yepes, V. (2012). Multi-objective optimization design of bridge piers with hybrid heuristic algorithms. Journal of Zhejiang University-SCIENCE A (Applied Physics & Engineering, 13(6), 420-432. [doi:10.1631/jzus.A1100304]
[22] Martínez-Martín, F.; González-Vidosa, F.; Hospitaler, A.; Yepes, V. (2013). A parametric study of optimum tall piers for railway bridge viaducts. Structural Engineering and Mechanics, 45(6), 723-740.
[23] Martí-Vargas, J.R.; Ferri, F.J.; Yepes, V. (2013). Prediction of the transfer length of prestressing strands with neural networks. Computers and Concrete, (in press).
[24] Payá-Zaforteza, I.; Yepes, V.; González-Vidosa, F.; Hospitaler, A. (2010). On the Weibull cost estimation of building frames designed by simulated annealing. Meccanica, 45(5), 693-704. [doi:10.1007/s11012-010-9285-0]
[25] Perea, C.; Alcalá, J.; Yepes, V.; González-Vidosa, F.; Hospitaler, A. (2008). Design of Reinforced Concrete Bridge Frames by Heuristic Optimization. Advances in Engineering Software, 39(8), 676-688. [doi:10.1016/j.advengsoft.2007.07.007]
[26] Perea, C.; Yepes, V.; Alcalá, J.; Hospitaler, A.; González-Vidosa, F. (2010). A parametric study of optimum road frame bridges by threshold acceptance. Indian Journal of Engineering & Materials Sciences, 17(6), 427-437.
[27] Torres-Machí, C.; Yepes, V.; Alcalá, J.; Pellicer, E. (2013). Optimization of high-performance concrete structures by variable neighborhood search. International Journal of Civil Engineering, Transaction A: Civil Engineering, 11(2), 90-99.
[28] Yepes, V.; Alcalá, J.; Perea, C.; González-Vidosa, F. (2008). A Parametric Study of Optimum Earth Retaining Walls by Simulated Annealing. Engineering Structures, 30(3), 821-830. [doi:10.1016/j.engstruct.2007.05.023]
[29] Fayyad, U.M. (1996). Data Mining and Knowlegde Discovery: Making Sense Out of Data. IEEE Expert, 11(5), 20-25. [doi:10.1109/64.539013]
[30] Hernández, J.; Ramírez, M.J.; Ferri, C. (2004). Introducción a la minería de datos. Pearson, Madrid.
[31] Rossi, P.; Chanvillard, G. (eds.) (2000). “Fibre-Reinforced Concretes (FRC)”. Proceedings of the 5th International RILEM Symposium (BEFIB 2000). RILEM Publications S.A.R.L., Cachan, France.
[32] Massicitte, B. (2000). Fiber Reinforce Concrete: a Structural Perspective, RILEM Proceedings 15, BEFIB 2000.
[33] Martí-Vargas, J.R.; Serna-Ros, P.; Arbeláez, C.A.; Rigueira-Víctor, J.W. (2006). Comportamiento adherente del hormigón autocompactante en transmisión y anclaje. Materiales de Construcción, 56(284), 27-42.
[34] Pettis, K.W.; Bailey, T.A.; Jain, A.K.; Dubes, R.C. (1979). An intrinsic dimensionality estimator from near-neighbor information. IEEE Transactions on pattern analysis and machine intelligence, 1, 25-37. [doi:10.1109/TPAMI.1979.4766873]
[35] Bellman, R.E. (1961). Adaptive Control Processes. Princeton University Press, Princeton, N.J.
[36] Fukunaga, M. (1990). Introduction to Statistical Pattern Recognition. 2nd Edition. Academic Press, San Diego, USA.
[37] Yepes, V.; Díaz, J.; González-Vidosa, F.; Alcalá, J. (2009). Caracterización estadística de tableros pretensados para carreteras. Revista de la Construcción, 8(2), 95-109.
[38] Ferri, J.; Diaz-Chito, K.; Diaz-Villanueva, W. (2010). Efficient dimensionality reduction on undersampled problems through incremental discriminative common vectors, ICDM’10 (OEDM Workshop), pp. 1159-1166.
[39] Yepes, V. (2002). Optimización heurística económica de redes de transporte del tipo VRPTW. Tesis doctoral, Universitat Politècnica de València.
[41] Cerny, V. (1985). Thermodynamical approach to the traveling salesman problem: An efficient simulation algorithm. Optimization Theory and Applications, 45, 41-51. [doi:10.1007/BF00940812]
[42] Dueck G, Scheuer T. (1990). Threshold accepting: a general purpose optimization algorithm superior to simulated annealing. Journal of Computational Physics, 90(1), 161–75. [doi:10.1016/0021-9991(90)90201-B]
[43] Dorigo, M.; Maniezzo, V.; Colorni, A. (1996). The ant system: optimization by a colony of cooperating agents. IEEE Transactions on Systems, Man, and Cybernetics-Part B, 26(1), 29-41. [doi:10.1109/3477.484436]
[44] Lourenço, H.R.; Martin, O.C.; Stülze, T. (2003). Iterated local search. In F.W. Glover and G.A. Kochenberger, edi-tors, Handbook of metaheuristics, pages 321-353, Boston, Dordrecht, London. Kluwer Academic Publishers.
[45] Mladenovic, N.; Hansen, P. (1997). Variable neighborhood search. Computers and Operations Research, 24(11), 1097-1100. [doi:10.1016/S0305-0548(97)00031-2]
[46] Holland, J.H. (1975). Adaptation in natural and artificial systems. University of Michigan Press, Ann Arbor.
[47] Moscato, P. On evolution, search, optimization, genetic algorithms and martial arts: Towards memetic algorithms. Technical Report Caltech Concurrent Computation Program Report 826, Caltech, Pasadena, California, USA.
[48] Hocking, R. (1976). The Analysis and Selection of Variables in Linear Regression. Biometrics, 32, 1-49.
[49] Kaiser H.F. (1958). The Varimax criterion for analytic rotation in factor analysis. Psychometrika, 23(3), 187-200. [doi:10.1007/BF02289233]
[50] McCulloch, W.; Pitts, W. (1943). A logical calculus of ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5, 115-133. [doi:10.1016/S0092-8240(05)80006-0]
[51] McRoberts, K. (1971). A search model for evaluating combinatorially explosive problems. Operations Research, 19(6), 1331-1349. [doi:10.1287/opre.19.6.1331]
[52] Golden, B.L.; Alt, F.B. (1979). Interval estimation of a global optimum for large combinatorial problems. Naval Research Logistics Quarterly, 26(1), 69-77. [doi: 10.1002/nav.3800260108]
Este artículo describe la impartición de un curso de posgrado en el diseño automatizado y optimización económica de estructuras de hormigón. El contenido forma parte de un Máster en Ingeniería de Hormigón que comenzó en octubre de 2007. El curso aplica los algoritmos heurísticos al diseño práctico de estructuras reales de hormigón, tales como muros, pórticos y marcos de pasos inferiores de carreteras, pórticos de edificación, bóvedas, pilas, estribos y tableros de puentes. Se presentan como casos prácticos dos tableros de puente de hormigón pretensado usados en la obra pública de construcción de carreteras. En primer lugar, se aplica SA a un tablero de un puente peatonal de viga artesa de hormigón prefabricado. El segundo ejemplo aplica TA a un tablero de losa continua de hormigón postesado. Los casos estudiados indican que la optimización heurística es una buena opción para diseñar estructuras de hormigón pretensado reduciendo los costes.
El diseño en bloques completos al azar trata de comparar tres fuentes de variabilidad: el factor de tratamientos, el factor de bloques y el error aleatorio. El adjetivo completo se refiere a que en cada bloque se prueban todos los tratamientos. La aleatorización se hace dentro de cada bloque.
Para ilustrar el diseño, supongamos que queremos determinar si cuatro laboratorios miden la misma resistencia característica del hormigón a compresión. Para ello se han considerado 5 amasadas diferentes que han sido analizadas por cada uno de los laboratorios. A los 28 días, se han roto las probetas a compresión simple y los resultados son los que hemos recogido en la tabla que sigue.
AMASADA
1
2
3
4
5
Laboratorio 1
63,5
63,2
62,3
65,6
65,0
Laboratorio 2
64,1
64,2
63,0
64,2
64,9
Laboratorio 3
65,9
65,0
63,9
66,0
65,8
Laboratorio 4
64,9
65,2
64,1
65,9
67,9
En este caso, la variable de respuesta es la resistencia característica del hormigón a compresión (MPa), el factor es el laboratorio (4 niveles), el bloque es la amasada (no son objeto directo de motivo del estudio). Por otra parte, se considera que no existe interacción entre el laboratorio y la amasada (factor y bloque).
En este tipo de experimento, la medición será el resultado del efecto del tratamiento (laboratorio) donde se encuentre, del efecto del bloque al que pertenece (amasada) y de cierto error que se espera que sea aleatorio. La hipótesis de que las medias son iguales se va a analizar con el análisis de la varianza (ANOVA), con dos criterios de clasificación.
A parte de los supuesto de normalidad, igualdad de varianzas y de independencia, aquí se añade otro que es que no existe interacción entre el factor y el bloque.
Para los curiosos, después de haber analizado los datos, diremos que en este caso, con una seguridad del 95%, se aprecian diferencias significativas entre las resistencias medidas por los laboratorios 1 y 3, entre los laboratorios 1 y 4, y entre los laboratorios 2 y 4.
A continuación os dejo un vídeo donde os enseño cómo podemos analizar este problema con el programa estadístico SPSS. Espero que os sea útil.