Acaban de publicarnos un artículo en la revista Sustainability, revista indexada en JCR. En este artículo se evalúa el impacto social y ambiental de puentes de carretera óptimos de hormigón postesado. El trabajo se enmarca dentro del proyecto de investigación DIMALIFE que dirijo como investigador principal en la Universitat Politècnica de València.
La mayoría de las definiciones de sostenibilidad incluyen tres pilares básicos: económico, ambiental y social. El aspecto económico siempre se evalúa, pero no necesariamente en el sentido de la sostenibilidad económica. Por otra parte, el aspecto ambiental se está considerando cada vez más, mientras que el pilar social apenas se ha trabajado en él. Centrándose en los pilares ambiental y social, resulta crucial el uso de metodologías que permitan una evaluación amplia de todos los aspectos y la integración de la evaluación en unos pocos indicadores que sean comprensibles. Este artículo se estructura en dos partes. En la primera parte se hace un examen de los métodos de evaluación del impacto del ciclo de vida, que permiten una evaluación amplia de los aspectos ambiental y social. En la segunda parte, se realiza una evaluación completa de la sostenibilidad ambiental y social utilizando la base de datos de ecoinvent y el método ReCiPe, para el pilar ambiental, y la base de datos SOCA y el método simple de ponderación del impacto social, para el pilar social. Esta metodología se utilizó para comparar tres puentes optimizados: dos puentes de carretera de hormigón postensado de sección en cajón con diversas características iniciales y de mantenimiento, y un puente prefabricado de hormigón pretensado. Los resultados muestran que existe una alta interrelación entre el impacto ambiental y social para cada etapa del ciclo de vida.
Abstract
Most of the definitions of sustainability include three basic pillars: economic, environmental, and social. The economic pillar has always been evaluated but not necessarily in the sense of economic sustainability. On the other hand, the environmental pillar is increasingly being considered, while the social pillar is weakly developed. Focusing on the environmental and social pillars, the use of methodologies to allow a wide assessment of these pillars and the integration of the assessment in a few understandable indicators is crucial. This article is structured into two parts. In the first part, a review of life cycle impact assessment methods, which allow a comprehensive assessment of the environmental and social pillars, is carried out. In the second part, a complete environmental and social sustainability assessment is made using the ecoinvent database and ReCiPe method, for the environmental pillar, and SOCA database and simple Social Impact Weighting method, for the social pillar. This methodology was used to compare three optimized bridges: two box-section post-tensioned concrete road bridges with a variety of initial and maintenance characteristics, and a pre-stressed concrete precast bridge. The results show that there is a high interrelation between the environmental and social impact for each life cycle stage.
La insuficiente inversión en el sector público junto con programas ineficaces de infraestructura de mantenimiento conducen a altos costos económicos a largo plazo. Por lo tanto, los responsables de la infraestructura necesitan herramientas prácticas para maximizar la eficacia a largo plazo de los programas de mantenimiento. En el artículo que os presento se describe una herramienta de optimización basada en un procedimiento híbrido de búsqueda aleatoria y adaptativa (GRASP) considerando la aceptación del umbral (TA) con restricciones relajadas. Esta herramienta facilita el diseño de programas de mantenimiento óptimos sujetos a restricciones presupuestarias y técnicas, explorando el efecto de diferentes escenarios presupuestarios en el estado general de la red. La herramienta de optimización se aplica a un estudio de caso, demostrando su eficiencia para analizar datos reales. Se demuestra que los programas de mantenimiento optimizado rinden un 40% más a largo plazo que los programas tradicionales basados en una estrategia reactiva. Para ampliar los resultados obtenidos en este estudio de caso, también se optimizaron un conjunto de escenarios simulados, basados en el rango de valores encontrados en el ejemplo real. El trabajo concluye que este algoritmo de optimización mejora la asignación de los fondos de mantenimiento con respecto a la obtenida con una estrategia reactiva tradicional. El análisis de sensibilidad de una gama de escenarios presupuestarios indica que el nivel de financiación en los primeros años es un factor impulsor a largo plazo de los programas de mantenimiento óptimo.
Referencia:
YEPES, V.; TORRES-MACHÍ, C.; CHAMORRO, A.; PELLICER, E. (2016). Optimal pavement maintenance programs based on a hybrid greedy randomized adaptive search procedure algorithm.Journal of Civil Engineering and Management, 22(4):540-550. DOI:10.3846/13923730.2015.1120770
Os dejo a continuación la versión autor del artículo.
Acaban de publicarnos un artículo en la revista Sustainability, revista indexada en JCR. En este artículo minimizamos las emisiones de CO2 en la construcción de un muro de contrafuertes de hormigón armado usando la metaheurística del agujero negro (Black Hole Algorithm). El trabajo se enmarca dentro del proyecto de investigación DIMALIFE que dirijo como investigador principal en la Universitat Politècnica de València.
La optimización del costo y de las emisiones de CO2 en los muros de contención de tierras es relevante, pues estas estructuras se utilizan muy frecuentemente en la ingeniería civil. La optimización de los costos es esencial para la competitividad de la empresa constructora, y la optimización de las emisiones es relevante en el impacto ambiental de la construcción. Para abordar la optimización se utilizó la metaheurística de los agujeros negros, junto con un mecanismo de discretización basado en la normalización mínimo-máxima. Se evaluó la estabilidad del algoritmo con respecto a las soluciones obtenidas; se analizaron los valores de acero y hormigón obtenidos en ambas optimizaciones. Además, se compararon las variables geométricas de la estructura. Los resultados muestran un buen rendimiento en la optimización con el algoritmo de agujero negro.
Abstract
The optimization of the cost and CO 2 emissions in earth-retaining walls is of relevance, since these structures are often used in civil engineering. The optimization of costs is essential for the competitiveness of the construction company, and the optimization of emissions is relevant in the environmental impact of construction. To address the optimization, black hole metaheuristics were used, along with a discretization mechanism based on min–max normalization. The stability of the algorithm was evaluated with respect to the solutions obtained; the steel and concrete values obtained in both optimizations were analyzed. Additionally, the geometric variables of the structure were compared. Finally, the results obtained were compared with another algorithm that solved the problem. The results show that there is a trade-off between the use of steel and concrete. The solutions that minimize CO 2 emissions prefer the use of concrete instead of those that optimize the cost. On the other hand, when comparing the geometric variables, it is seen that most remain similar in both optimizations except for the distance between buttresses. When comparing with another algorithm, the results show a good performance in optimization using the black hole algorithm.
Keywords
CO2 emission; earth-retaining walls; optimization; black hole; min–max discretization
Reference:
YEPES, V.; MARTÍ, J.V.; GARCÍA, J. (2020). Black hole algorithm for sustainable design of counterfort retaining walls.Sustainability, 12, 2767. DOI:10.3390/su12072767
Acaban de publicarnos un artículo en la revista Journal of Cleaner Production, revista de ELSEVIER indexada en el primer decil del JCR.
En este artículo se presenta un estudio de tres alternativas estructurales diferentes que se aplican a un chalet adosado para facilitar la toma de decisiones, basándose en múltiples criterios y teniendo en cuenta la sostenibilidad. La metodología empleada permite identificar la estructura y evaluar las diferentes alternativas aquí propuestas para encontrar la opción óptima. Se compara una solución de referencia tradicional, un diseño prefabricado y, finalmente, una opción tecnológica basada en un sistema estructural integral de hormigón armado. El estudio proporciona un conjunto de indicadores para evaluar los aspectos ambientales, económicos y sociales de un edificio a lo largo de su ciclo de vida.
El trabajo se enmarca dentro del proyecto de investigación DIMALIFE que dirijo como investigador principal en la Universitat Politècnica de València.
El artículo lo podéis descargar GRATUITAMENTE hasta el 25 de abril de 2020 en el siguiente enlace:
In the architecture sector, single-family housing projects are often linked to demand from private clients, without arousing very much interest from developers, who seek higher returns on other real estate assets. For any owner, the construction of a home is perhaps the biggest investment of their life, and success or failure will therefore depend on the right decision. This paper presents a study of three different structural alternatives that are applied to a terraced house to facilitate decision making by a self-promoter, based on multiple criteria and taking sustainability into consideration. The methodology used allows us to identify the structure and to evaluate the different alternatives proposed here in order to find the optimal option. A comparison is drawn between a traditional reference solution, a pre-cast design and finally a technological option based on an integral reinforced concrete structural system. Although the technical feasibility of these last two solutions has been proven, they have not yet received enough attention from researchers to allow the thermal envelope of the building to be solved at the same time as the structure itself. The last of these alternatives achieved the best valuation, although it is neither the most widely used alternative or the quickest to build. This study demonstrates the practical versatility of a method that is seldom used in residential construction and only rarely used for single-family homes. We evaluate three alternatives for optimizing the structure and enveloping walls of a self-promoted, terraced house from a sustainability perspective. The study provides a set of indicators for assessing the environmental, economic and social aspects of a building throughout its life cycle. The sustainability index of the structural envelope obtained in this way allows a self-promoter to prioritize solutions to ensure its global sustainability.
Highlights
Each self-promoting decisions influence the global model of sustainable construction.
Self-construction prioritizes economic and functional aspects in the life cycle.
Three alternatives comparing traditional structure with non-conventional MMC systems.
A balance between the indicators favours a better sustainability index.
Reinforced concrete technology in housing reduces 10% lead times and 23% cost.
Keywords
Single-family house
Multi-criteria decision making
Sustainable design
MIVES
Ytong
Elesdopa
Reference:
SÁNCHEZ-GARRIDO, A.J.; YEPES, V. (2020). Multi-criteria assessment of alternative sustainable structures for a self-promoted, single-family home.Journal of Cleaner Production, 258, 120556. DOI:10.1016/j.jclepro.2020.120556
En menos de una década, gran parte de los ingenieros dejarán de hacer proyectos, tal y como lo conocemos ahora, y pasarán a ser gestores de gemelos híbridos digitales de infraestructuras.
Este podría ser un buen titular periodístico que, incluso podría parecer ciencia ficción, pero que tiene todos los visos de convertirse en realidad en menos tiempo del previsto. Se podría pensar que las tecnologías BIM o los modelos digitales actuales ya son una realidad, es decir, se trata de dar un nuevo nombre a lo que ya conocemos y está en desarrollo, pero de lo que estamos hablando es de un nuevo paradigma que va a revolver los cimientos de la tecnología actual en el ámbito de la ingeniería. Voy a desgranar esta conclusión explicando cada uno de los avances y los conceptos que subyacen al respecto.
La semana pasada tuve la ocasión de escuchar la conferencia magistral, en el Congreso CMMoST, de Francisco Chinesta, catedrático en la ENSAM ParisTech e ingeniero industrial egresado por la Universitat Politècnica de València. Trataba de un nuevo paradigma en la ingeniería basada en datos y no era otra que la de los gemelos híbridos digitales, un paso más allá de la modelización numérica y de la minería de datos. Este hecho coincidió con el anuncio en prensa de que Google había publicado en la prestigiosa revista Nature un artículo demostrando la supremacía cuántica, un artículo no exento de polémica, pues parece ser que se diseñó un algoritmo que tiene como objetivo generar números aleatorios mediante un procedimiento matemático muy complejo y que obligaría al superordenador Summit, que es actualmente el más potente del mundo gracias a sus 200 petaflops, a invertir 10.000 años en resolver el problema, que que el procesador cuántico Sycamore de 54 qubits de Google habría resuelto en tres minutos y 20 segundos.
Si nos centramos en la supuesta supremacía cuántica de Google, se debería matizar la noticia al respecto. En efecto, IBM ya se ha defendido diciendo que su ordenador Summit no se encuentra tan alejado, pues se ha resuelto un problema muy específico relacionado con generar números aleatorios y que parece que Sycamore sabe resolver muy bien. De hecho, IBM afirma que ha reajustado su superordenador y que ahora es capaz de resolver ese mismo problema en 2,5 días con un margen de error mucho menor que el ordenador cuántico. Aquí lo importante es saber si esta computación cuántica estará, sin trabas o límites, accesible a cualquier centro de investigación o empresa para resolver problemas de altísima complejidad computacional (problemas NP-hard como pueden ser los de optimización combinatoria). Tal vez los superordenadores convencionales servirán para resolver unos problemas específicos en tareas convencionales, y los cuánticos, imparables en resolver otro tipo de problemas. Todo se andará, pero parece que esto es imparable.
Por tanto, parece que el hardware necesario para la una computación ultrarrápida está o estará a nuestro alcance en un futuro no muy lejano. Ahora se trata de ver cómo ha cambiado el paradigma de la modelización matemática. Para ello podríamos empezar definiendo al “gemelo digital”, o digital twin. Se trata de un modelo virtual de un proceso, producto o servicio que sirve de enlace entre un ente en el mundo real y su representación digital que está utilizando continuamente datos de los sensores. A diferencia del modelado BIM, el gemelo digital no representa exclusivamente objetos espaciales, sino que también podría representar procesos, u otro tipo de entes sin soporte físico. Se trata de una tecnología que, según todos los expertos, marcarán tendencia en los próximos años y que, según el informe “Beyond the hype“, de KPMG, será la base de la cuarta Revolución Industrial.
Sin embargo, el gemelo digital no es una idea nueva, pues a principios de este siglo ya la introdujo Michael Grieves, en colaboración con John Vickers, director de tecnología de la NASA. Esta tecnología se aplica al Internet de las Cosas, que se refiere a la interconexión digital de objetos cotidianos con internet. Además, se encuentra muy relacionada con la inteligencia artificial y con la minería de datos “data-mining“. Empresas como Siemens ya están preparando convertir sus plantas industriales en fábricas de datos con su gemelo digital, o General Electric, que cuenta ya con 800.000 gemelos digitales para monitorizar virtualmente la cadena de suministro.
Con todo, tal y como explicó el profesor Chinesta (Chinesta et al., 2018), existe actualmente un cambio de paradigma hacia los gemelos digitales híbridos que, extrapolando su uso, va a significar la gran revolución en la forma de proyectar y gestionar las infraestructuras, tal y como avancé al principio del artículo.
En efecto, los modelos utilizados en ciencia y en ingeniería son muy complejos. La simulación numérica, la modelización y la experimentación han sido los tres pilares sobre los que se ha desarrollado la ingeniería en el siglo XX. La modelización numérica, que sería el nombre tradicional que se ha dado al “gemelo digital” presenta problemas prácticos por ser modelos estáticos, pues no se retroalimentan de forma continua de datos procedentes del mundo real a través de la monitorización continua. Estos modelos numéricos (usualmente elementos finitos, diferencias finitas, volumen finito, etc.) son suficientemente precisos si se calibran bien los parámetros que lo definen. La alternativa a estos modelos numéricos son el uso de modelos predictivos basados en datos masivos big-data, constituyendo “cajas negras” con alta capacidad de predicción debido a su aprendizaje automático “machine-learning“, pero que esconden el fundamento físico que sustentan los datos (por ejemplo, redes neuronales). Sin embargo, la experimentación es extraordinariamente cara y lenta para alimentar estos modelos basados en datos masivos.
El cambio de paradigma, por tanto, se basa en el uso de datos inteligentes “smart-data paradimg“. Este cambio se debe basar, no en la reducción de la complejidad de los modelos, sino en la reducción dimensional de los problemas, de la retroalimentación continua de datos del modelo numérico respecto a la realidad monitorizada y el uso de potentes herramientas de cálculo que permitan la interacción en tiempo real, obteniendo respuestas a cambios paramétricos en el problema. Dicho de otra forma, deberíamos poder interactuar a tiempo real con el gemelo virtual. Por tanto, estamos ante otra realidad, que es el gemelo virtual híbrido.
Por tanto, estamos ahora en disposición de centrarnos en la afirmación que hice al principio. La nueva tecnología en gemelos digitales híbridos, junto con la nueva capacidad de cálculo numérico en ciernes, va a transformar definitivamente la forma de entender, proyectar y gestionar las infraestructuras. Ya no se trata de proyectar, por ejemplo, un puente. Ni tampoco estamos hablando de diseñar un prototipo en 3D del mismo puente, ni siquiera de modelar en BIM dicha estructura. Estamos hablando de crear un gemelo digital que se retroalimentará continuamente del puente real, que estará monitorizado. Se reajustarán los parámetros de cálculo del puente con los resultados obtenidos de la prueba de carga, se podrán predecir las labores de mantenimiento, se podrá conocer con antelación el comportamiento ante un fenómeno extraordinario como una explosión o un terremoto. Por tanto, una nueva profesión, que será la del ingeniero de gemelos virtuales híbridos de infraestructuras será una de las nuevas profesiones que reemplazarán a otras que quedarán obsoletas.
Se tratará de gestionar el gemelo durante el proyecto, la construcción, la explotación e incluso el desmantelamiento de la infraestructura. Se podrán analizar cambios de usos previstos, la utilización óptima de recursos, monitorizar la seguridad, y lo más importante, incorporar nuevas funciones objetivo como son la sostenibilidad económica, medioambiental y social a lo largo del ciclo de vida completo. Este tipo de enfoque es el que nuestro grupo de investigación tiene en el proyecto DIMILIFE. Proyectos como puentes, presas, aeropuertos, redes de carreteras, redes de ferrocarriles, centrales nucleares, etc. tendrán su gemelo digital. Para que sea efectivo, se deberá prever, desde el principio, la monitorización de la infraestructura para ayudar a la toma de decisiones. Además, servirá para avanzar en la aproximación cognitiva en la toma de decisiones (Yepes et al., 2015).
Os paso a continuación un vídeo sobre el uso de los gemelos digitales en la ciudad de Singapur.
A continuación os pongo un vídeo sacado de la página de Elías Cueto, de la Universidad de Zaragoza, en la que vemos cómo se interactúa con un gemelo virtual de un conejo.
En este otro vídeo, el profesor Chinesta explica el cambio de paradigma del que hemos hablado anteriormente en el artículo.
¿Qué es la computación cuántica? Aquí tenemos un vídeo de Eduardo Sáenz de Cabezón:
Referencias:
Chinesta, F.; Cueto, E.; Abisset-Chavanne, E.; Duval, J.L. (2018). Virtual, Digital and Hybrid Twins: A New Paradigm in Data-Based Engineering and Engineered Data.Archives of Computational Methods in Engineering, DOI: 10.1007/s11831-018-9301-4
Yepes, V.; García-Segura, T.; Moreno-Jiménez, J.M. (2015). A cognitive approach for the multi-objective optimization of RC structural problems. Archives of Civil and Mechanical Engineering, 15(4):1024-1036. DOI:10.1016/j.acme.2015.05.001
En una entrada anterior resolvimos un problema concreto de un plan de muestreo por atributos. Sin embargo, para los que no estén familiarizados con la jerga y las definiciones de la estadística empleada en el control de calidad, me he decidido por subir unas transparencias que a veces utilizamos en clase para cuando tenemos que explicar los planes de muestreo.
Pero antes, voy a comentar brevemente algunos conceptos relacionados con el control de calidad, el control estadístico, el control de aceptación y el control del proceso, entre otros. Vamos a ello.
El control de calidades la parte de la gestión de la calidad orientada al cumplimiento de los requisitos de los productos o los servicios. Se trata de un método de trabajo que permite medir las características de calidad de una unidad, compararlas con los estándares establecidos e interpretar la diferencia entre lo obtenido y lo deseado para poder tomar decisiones conducentes a la corrección de estas diferencias.
En el proceso proyecto-construcción, la comprobación de los requisitos exigibles de calidad se basa fundamentalmente en el control de la calidad. Los pliegos de condiciones técnicas definen, para cada unidad de obra, qué tipo de controles deben realizarse para dar por buena la correcta ejecución de una obra, atendiendo no sólo a los materiales, sino a su puesta en obra y terminación. La misma filosofía es aplicable a la propia redacción de los proyectos de construcción por parte de las empresas de consultoría.
Una forma de controlar la calidad se basa en la inspección o la verificación de los productos terminados. Se trata establecer un filtro sobre los productos antes que éstos lleguen al cliente, de forma que los que no cumplen se desechan o se reparan. Este control en recepción normalmente se realiza por personas distintas a las que realizan el trabajo de producción, en cuyo caso los costes pueden ser elevados y pueden no considerarse las actividades de prevención ni los planes de mejora. Se trata de un control final, situado entre el productor y el cliente, que presenta la ventaja de ser imparcial, pero que adolece de muchos inconvenientes como son el desconocimiento de las circunstancias de la producción, la no-responsabilización de producción por la calidad, la lentitud en el flujo de la información, etc.
Sin embargo, una inspección al 100% de todas las unidades producidas puede ser materialmente imposible cuando los ensayos a realizar son destructivos. En estos casos, se hace necesario tomar decisiones de aceptación o rechazo de un lote completo de producto en función de la calidad de una muestra aleatoria. Este control estadístico (Statistical Control) proporciona una menor información, e incluso presenta riesgos propios del muestreo, pero sin embargo resulta más económico, requiere menos inspectores, las decisiones se toman con mayor rapidez y el rechazo a todo el lote estimula a los proveedores a mejorar la calidad.
El control estadístico se asentó plenamente a partir de la Segunda Guerra Mundial, caracterizándose por la consideración de las características de calidad como variables aleatorias, por lo que se centra básicamente en la calidad de fabricación o de producción. Este tipo de control también se identifica con el interés en conocer las causas de variación y establecer, como consecuencia, procedimientos de eliminación sistemática de dichas causas para la mejora continua de la calidad.
El control estadístico puede aplicarse en el producto final, lo que sería el control de aceptación, o bien a lo largo del proceso de producción, lo cual comprende el control del proceso. El control estadístico de recepción supone el establecimiento de planes de muestreo con criterios de aceptación o rechazo claros sobre lotes completos en función de los ensayos realizados sobre una muestra aleatoria. Este control por muestreo puede realizarse por atributos basándose en la norma ISO-2859, o bien por variables según ISO-3951. En cuanto al control estadístico de procesos, herramientas como los gráficos de control (Quality Control Chart) permiten tomar decisiones cuando el proceso se encuentra fuera de control. Igualmente, los estudios de capacidad de los procesos permiten decidir la capacidad de éstos de producir dentro de los límites de las especificaciones de calidad contratadas.
Una empresa constructora debería reducir al mínimo los costes de una mala calidad asegurándose que el resultado de sus procesos cumplieran los requisitos pactados con el cliente. Por ello, para garantizar que el control de aceptación de los productos presenta éxito –el denominado control externo-, la empresa constructora debería organizar como una actividad propia, un conjunto de controles en su cadena de producción que garantizase la calidad de las unidades de obra –actividad que recibe el nombre de control interno-.
Tanto el control interno como el externo puede ser realizado por la propia empresa constructora, por el cliente o por una organización independiente contratada al efecto. Así, por ejemplo, el control del hormigón recibido por el contratista puede ser realizado por una entidad independiente, la ejecución de la ferralla puede controlarse por parte de la dirección facultativa, o bien, la propia empresa constructora puede realizar un control interno de la ejecución de la obra.
Os paso, por tanto, la presentación que he utilizado alguna vez en clase.
Acaban de publicarnos un artículo en la revista científica Applied Sciences (indexada en el JCR, Q2) un artículo que trata sobre el uso de distintas técnicas heurísticas para optimizar una pasarela de sección mixta hormigón-acero. El trabajo se enmarca dentro del proyecto de investigación DIMALIFE que dirijo como investigador principal en la Universitat Politècnica de València.
El objetivo de este trabajo ha sido aplicar técnicas de optimización heurística a un puente peatonal compuesto de hormigón y acero, modelado como una viga biapoyada. Se ha desarrollado un programa específico en Fortran, capaz de generar puentes peatonales, comprobar todos sus estados límite y evaluar su coste. Se han utilizado en este trabajo los siguientes algoritmos: búsqueda local de descenso (DLS), un recocido simulado híbrido con un operador de mutación (SAMO2) y una optimización de enjambres de luciérnagas (GSO) en dos variantes. Los resultados se compararon según el coste más bajo. Los algoritmos GSO y DLS combinados obtuvieron los mejores resultados en términos de coste. Además, se ha estudiado la comparación entre las emisiones de CO2 asociadas a la cantidad de materiales obtenidos por cada técnica heurística y la solución de diseño original. Finalmente, se realizó un estudio paramétrico en función de la longitud de vano del puente peatonal.
The objective of this work was to apply heuristic optimization techniques to a steel-concrete composite pedestrian bridge, modeled like a beam on two supports. A program has been developed in Fortran programming language, capable of generating pedestrian bridges, checking them, and evaluating their cost. The following algorithms were implemented: descent local search (DLS), a hybrid simulated annealing with a mutation operator (SAMO2), and a glow-worms swarm optimization (GSO) in two variants. The first one only considers the GSO and the second combines GSO and DLS, applying the DSL heuristic to the best solutions obtained by the GSO. The results were compared according to the lowest cost. The GSO and DLS algorithms combined obtained the best results in terms of cost. Furthermore, a comparison between the CO2 emissions associated with the amount of materials obtained by every heuristic technique and the original design solution were studied. Finally, a parametric study was carried out according to the span length of the pedestrian bridge.
Nos acaban de publicar en la Revista CIATEC-UPF (Revista de Ciências Exatas Aplicadas e Tecnológicas da Universidade de Passo Fundo, CIATEC-UPF – ISSN 2176-4565), un artículo relacionado con la optimización de pórticos de hormigón armado con sistemas de agrupación de columnas. Se trata de una colaboración con el profesor Moacir Kripka y está dentro del proyecto de investigación DIMALIFE.
Os paso a continuación el resumen y una copia descargable del artículo, pues está publicado en abierto. Espero que os sea de interés.
RESUMEN:
Los puentes son infraestructuras esenciales para mejorar la comunicación dentro de un territorio. La optimización constituye un proceso que permite obtener puentes de menor coste bajo ciertas restricciones. Debido a la complejidad de los problemas estructurales, la optimización matemática no es útil y se recurre a la optimización heurística debido a su mayor eficacia. En este trabajo se presenta una alternativa a la optimización heurística basada en los metamodelos. El procedimiento consiste en una reducción de los factores iniciales mediante el diseño de experimentos, reduciendo significativamente la complejidad del problema sin perder información. Posteriormente, se aplica la metodología de la superficie de respuesta para obtener el óptimo del problema. Este procedimiento se aplica a un tablero de un puente de losa maciza que cumpla todas las restricciones de las normativas.
PALABRAS CLAVE:
Hormigón estructural. Optimización. Puente pretensado. Metamodelo. Superficie de respuesta
REFERENCIA:
PENADÉS-PLÀ, V.; YEPES, V.; KRIPKA, M. (2019). Optimización de puentes pretensados mediante la metodología de la superficie de respuesta.Revista CIATEC-UPF, 11(2):22-35. https://doi.org/10.5335/ciatec.v11i2.9159
En un artículo anterior tuvimos ocasión de hablar en detalle de los aspectos básicos del control de calidad en la compactación de un suelo. Pero, ¿qué pasa si existe una desviación entre los resultados que esperábamos y los realmente obtenidos? Es un tema que levanta fuertes discusiones, sobre todo por la repercusión económica y de funcionalidad de la unidad de obra. Mi opinión es que hay que ser muy cauteloso con la aceptación de unidades de obra con mermas de calidad, pero a veces se admiten excepciones que deben estar documentadas y razonadas. Una posibilidad es imponer una penalización económica lo suficientemente fuerte que desaconseje al contratista entrar en esa zona cercana a la aceptación, pero que se encuentre ligeramente por debajo de las especificaciones.
A veces el incumplimiento de las especificaciones que afecten a una determinada parte de la obra de terraplén, y siempre que a criterio del Director Facultativo, estos defectos no impliquen una pérdida significativa en la funcionalidad y seguridad de la obra o parte de la obra y no sea posible subsanarlos posteriormente, pueden aplicarse penalizaciones en forma de deducción en la relación valorada. Esta posibilidad no debe nunca implicar una aceptación sin más de la merma de calidad, sino que solo es aplicable en casos excepcionales.
A modo de ejemplo, y sin que ello suponga que esta penalización sea la más adecuada para todos los casos, el artículo 32.31 del Pliego de Condiciones Técnicas Generales 1988, del Ayuntamiento de Madrid propone las siguientes fórmulas, que podrán ser modificadas o complementadas en el Pliego de Condiciones Técnicas Particulares:
P1 = 0,04 ·ΔC · P (por defecto de compactación)
P2 = 0,20 · N · P (por cambio de calidad en el material)
siendo:
P1 y P2 deducción unitaria por penalización €/m3
P precio unitario del terraplén €/m3
ΔC defecto en % del grado de compactación en relación con el especificado.
Las observaciones instantáneas constituye un procedimiento de medición del trabajo que, junto con el cronometraje, permite determinar los tiempos improductivos y sus causas, eliminándolas mediante su análisis. Se emplea como auxiliar del estudio de métodos para eliminar o disminuir el tiempo de trabajo. El cronometraje es más apropiado para trabajos muy sistematizados y repetitivos, efectuados por una o pocas unidades de recurso. En cambio, las observaciones instantáneas cubre el resto de los escenarios posibles, como trabajos poco sistematizados, con ciclos largos o realizados por numerosos recursos.
Las observaciones instantáneas se basan en comprobar si, en un momento dado, un recurso se encuentra trabajando o parado. Se puede estimar el tiempo de trabajo y el de parada, así como su error estadístico basándose en la distribución binomial de probabilidad. Se puede ejecutar una pasada si observamos a un conjunto de recursos y anotamos para cada uno de ellos su situación de trabajo o parada. Para planificar correctamente las observaciones, se debería garantizar que todas las actividades sean observadas un número de veces proporcional a su duración.
Detengámonos un momento en el fundamento estadístico del método. Supongamos que p es la fracción del tiempo en el que un recurso presenta una característica. Por ejemplo, si p=15% puede significar que, del tiempo total de permanencia de una máquina en una obra, el 15% del tiempo se encuentra parada. Si extraemos n elementos de la población infinita de posibilidades en las que una máquina puede estar parada en una proporción p en una obra, la probabilidad de que x máquinas se encuentren paradas sería la siguiente:
Si en la distribución binomial se cumple que n·p>15, entonces la distribución binomial —que es discontinua— se puede aproximar a la distribución normal —que es continua—.
Ahora lo que nos interesa es conocer el tamaño de la muestra n para proporciones en una población infinita. Para calcular este tamaño de muestra, antes debemos especificar el nivel de confianza con el que se desea realizar la estimación y el margen de error máximo tolerable D. De esta forma, se espera trabajar con una muestra que sea representativa y que las estimaciones sean consistentes. La expresión que utilizaremos será la siguiente:
Aquí os dejo una tabla que relaciona el nivel de confianza con los las variables utilizada en la fórmula anterior:
Nivel de confianza
α
Z α/2
(Z α/2)2
99%
0,01
2,576
6,636
95%
0,05
1,960
3,842
90%
0,10
1,645
2,706
80%
0,20
1,280
1,638
50%
0,50
0,674
0,454
También os dejo un vídeo explicativo y un problema resuelto.