Optimización del mantenimiento del pavimento en carreteras mediante GRASP

La insuficiente inversión en el sector público junto con programas ineficaces de infraestructura de mantenimiento conducen a altos costos económicos a largo plazo. Por lo tanto, los responsables de la infraestructura necesitan herramientas prácticas para maximizar la eficacia a largo plazo de los programas de mantenimiento. En el artículo que os presento se describe una herramienta de optimización basada en un procedimiento híbrido de búsqueda aleatoria y adaptativa (GRASP) considerando la aceptación del umbral (TA) con restricciones relajadas. Esta herramienta facilita el diseño de programas de mantenimiento óptimos sujetos a restricciones presupuestarias y técnicas, explorando el efecto de diferentes escenarios presupuestarios en el estado general de la red. La herramienta de optimización se aplica a un estudio de caso, demostrando su eficiencia para analizar datos reales. Se demuestra que los programas de mantenimiento optimizado rinden un 40% más a largo plazo que los programas tradicionales basados en una estrategia reactiva. Para ampliar los resultados obtenidos en este estudio de caso, también se optimizaron un conjunto de escenarios simulados, basados en el rango de valores encontrados en el ejemplo real. El trabajo concluye que este algoritmo de optimización mejora la asignación de los fondos de mantenimiento con respecto a la obtenida con una estrategia reactiva tradicional. El análisis de sensibilidad de una gama de escenarios presupuestarios indica que el nivel de financiación en los primeros años es un factor impulsor a largo plazo de los programas de mantenimiento óptimo.

Referencia:

YEPES, V.; TORRES-MACHÍ, C.; CHAMORRO, A.; PELLICER, E. (2016). Optimal pavement maintenance programs based on a hybrid greedy randomized adaptive search procedure algorithm. Journal of Civil Engineering and Management, 22(4):540-550. DOI:10.3846/13923730.2015.1120770

Os dejo a continuación la versión autor del artículo.

Descargar (PDF, 568KB)

 

 

 

Optimización de emisiones de CO2 y costes de muros de contrafuertes con el algoritmo del agujero negro

Acaban de publicarnos un artículo en la revista Sustainability,  revista indexada en JCR. En este artículo minimizamos las emisiones de CO2 en la construcción de un muro de contrafuertes de hormigón armado usando la metaheurística del agujero negro (Black Hole Algorithm). El trabajo se enmarca dentro del proyecto de investigación DIMALIFE que dirijo como investigador principal en la Universitat Politècnica de València.

La optimización del costo y de las emisiones de CO2 en los muros de contención de tierras es relevante, pues estas estructuras se utilizan muy frecuentemente en la ingeniería civil. La optimización de los costos es esencial para la competitividad de la empresa constructora, y la optimización de las emisiones es relevante en el impacto ambiental de la construcción. Para abordar la optimización se utilizó la metaheurística de los agujeros negros, junto con un mecanismo de discretización basado en la normalización mínimo-máxima. Se evaluó la estabilidad del algoritmo con respecto a las soluciones obtenidas; se analizaron los valores de acero y hormigón obtenidos en ambas optimizaciones. Además, se compararon las variables geométricas de la estructura. Los resultados muestran un buen rendimiento en la optimización con el algoritmo de agujero negro.

Abstract

The optimization of the cost and CO 2 emissions in earth-retaining walls is of relevance, since these structures are often used in civil engineering. The optimization of costs is essential for the competitiveness of the construction company, and the optimization of emissions is relevant in the environmental impact of construction. To address the optimization, black hole metaheuristics were used, along with a discretization mechanism based on min–max normalization. The stability of the algorithm was evaluated with respect to the solutions obtained; the steel and concrete values obtained in both optimizations were analyzed. Additionally, the geometric variables of the structure were compared. Finally, the results obtained were compared with another algorithm that solved the problem. The results show that there is a trade-off between the use of steel and concrete. The solutions that minimize CO 2 emissions prefer the use of concrete instead of those that optimize the cost. On the other hand, when comparing the geometric variables, it is seen that most remain similar in both optimizations except for the distance between buttresses. When comparing with another algorithm, the results show a good performance in optimization using the black hole algorithm.

Keywords

CO2 emission; earth-retaining walls; optimization; black hole; min–max discretization

Reference:

YEPES, V.; MARTÍ, J.V.; GARCÍA, J. (2020). Black hole algorithm for sustainable design of counterfort retaining walls. Sustainability, 12, 2767. DOI:10.3390/su12072767

Descargar (PDF, 770KB)

Valoración multicriterio de alternativas sostenibles para viviendas unifamiliares

Acaban de publicarnos un artículo en la revista Journal of Cleaner Production, revista de ELSEVIER indexada en el primer decil del JCR.

En este artículo se presenta un estudio de tres alternativas estructurales diferentes que se aplican a un chalet adosado para facilitar la toma de decisiones, basándose en múltiples criterios y teniendo en cuenta la sostenibilidad. La metodología empleada permite identificar la estructura y evaluar las diferentes alternativas aquí propuestas para encontrar la opción óptima. Se compara una solución de referencia tradicional, un diseño prefabricado y, finalmente, una opción tecnológica basada en un sistema estructural integral de hormigón armado. El estudio proporciona un conjunto de indicadores para evaluar los aspectos ambientales, económicos y sociales de un edificio a lo largo de su ciclo de vida.

El trabajo se enmarca dentro del proyecto de investigación DIMALIFE que dirijo como investigador principal en la Universitat Politècnica de València.

El artículo lo podéis descargar GRATUITAMENTE hasta el 25 de abril de 2020 en el siguiente enlace:

https://authors.elsevier.com/a/1ah94_LqUdMgSB

Abstract

In the architecture sector, single-family housing projects are often linked to demand from private clients, without arousing very much interest from developers, who seek higher returns on other real estate assets. For any owner, the construction of a home is perhaps the biggest investment of their life, and success or failure will therefore depend on the right decision. This paper presents a study of three different structural alternatives that are applied to a terraced house to facilitate decision making by a self-promoter, based on multiple criteria and taking sustainability into consideration. The methodology used allows us to identify the structure and to evaluate the different alternatives proposed here in order to find the optimal option. A comparison is drawn between a traditional reference solution, a pre-cast design and finally a technological option based on an integral reinforced concrete structural system. Although the technical feasibility of these last two solutions has been proven, they have not yet received enough attention from researchers to allow the thermal envelope of the building to be solved at the same time as the structure itself. The last of these alternatives achieved the best valuation, although it is neither the most widely used alternative or the quickest to build. This study demonstrates the practical versatility of a method that is seldom used in residential construction and only rarely used for single-family homes. We evaluate three alternatives for optimizing the structure and enveloping walls of a self-promoted, terraced house from a sustainability perspective. The study provides a set of indicators for assessing the environmental, economic and social aspects of a building throughout its life cycle. The sustainability index of the structural envelope obtained in this way allows a self-promoter to prioritize solutions to ensure its global sustainability.

Highlights

  • Each self-promoting decisions influence the global model of sustainable construction.
  • Self-construction prioritizes economic and functional aspects in the life cycle.
  • Three alternatives comparing traditional structure with non-conventional MMC systems.
  • A balance between the indicators favours a better sustainability index.
  • Reinforced concrete technology in housing reduces 10% lead times and 23% cost.

Keywords

Single-family house
Multi-criteria decision making
Sustainable design
MIVES
Ytong
Elesdopa

Reference:

SÁNCHEZ-GARRIDO, A.J.; YEPES, V. (2020). Multi-criteria assessment of alternative sustainable structures for a self-promoted, single-family home. Journal of Cleaner Production, 258, 120556. DOI:10.1016/j.jclepro.2020.120556

Computación cuántica y gemelos híbridos digitales en ingeniería civil y edificación

La ciudad Estado de Singapur desarrolla una copia virtual de sí misma, un proyecto basado en big data, IoT, computación en la nube y realidad virtual. https://www.esmartcity.es/2019/03/22/singapur-gemelo-digital-posibilidades-ofrece-ciudad-inteligente-tener-copia-virtual-exacta

En menos de una década, gran parte de los ingenieros dejarán de hacer proyectos, tal y como lo conocemos ahora, y pasarán a ser gestores de gemelos híbridos digitales de infraestructuras.

Este podría ser un buen titular periodístico que, incluso podría parecer ciencia ficción, pero que tiene todos los visos de convertirse en realidad en menos tiempo del previsto. Se podría pensar que las tecnologías BIM o los modelos digitales actuales ya son una realidad, es decir, se trata de dar un nuevo nombre a lo que ya conocemos y está en desarrollo, pero de lo que estamos hablando es de un nuevo paradigma que va a revolver los cimientos de la tecnología actual en el ámbito de la ingeniería. Voy a desgranar esta conclusión explicando cada uno de los avances y los conceptos que subyacen al respecto.

La semana pasada tuve la ocasión de escuchar la conferencia magistral, en el Congreso CMMoST, de Francisco Chinesta, catedrático en la ENSAM ParisTech e ingeniero industrial egresado por la Universitat Politècnica de València. Trataba de un nuevo paradigma en la ingeniería basada en datos y no era otra que la de los gemelos híbridos digitales, un paso más allá de la modelización numérica y de la minería de datos. Este hecho coincidió con el anuncio en prensa de que Google había publicado en la prestigiosa revista Nature un artículo demostrando la supremacía cuántica, un artículo no exento de polémica, pues parece ser que se diseñó un algoritmo que tiene como objetivo generar números aleatorios mediante un procedimiento matemático muy complejo y que obligaría al superordenador Summit, que es actualmente el más potente del mundo gracias a sus 200 petaflops, a invertir 10.000 años en resolver el problema, que que el procesador cuántico Sycamore de 54 qubits de Google habría resuelto en tres minutos y 20 segundos.

Si nos centramos en la supuesta supremacía cuántica de Google, se debería matizar la noticia al respecto. En efecto, IBM ya se ha defendido diciendo que su ordenador Summit no se encuentra tan alejado, pues se ha resuelto un problema muy específico relacionado con generar números aleatorios y que parece que Sycamore sabe resolver muy bien. De hecho, IBM afirma que ha reajustado su superordenador y que ahora es capaz de resolver ese mismo problema en 2,5 días con un margen de error mucho menor que el ordenador cuántico. Aquí lo importante es saber si esta computación cuántica estará, sin trabas o límites, accesible a cualquier centro de investigación o empresa para resolver problemas de altísima complejidad computacional (problemas NP-hard como pueden ser los de optimización combinatoria). Tal vez los superordenadores convencionales servirán para resolver unos problemas específicos en tareas convencionales, y los cuánticos, imparables en resolver otro tipo de problemas. Todo se andará, pero parece que esto es imparable.

Por tanto, parece que el hardware necesario para la una computación ultrarrápida está o estará a nuestro alcance en un futuro no muy lejano. Ahora se trata de ver cómo ha cambiado el paradigma de la modelización matemática. Para ello podríamos empezar definiendo al “gemelo digital”, o digital twin. Se trata de un modelo virtual de un proceso, producto o servicio que sirve de enlace entre un ente en el mundo real y su representación digital que está utilizando continuamente datos de los sensores. A diferencia del modelado BIM, el gemelo digital no representa exclusivamente objetos espaciales, sino que también podría representar procesos, u otro tipo de entes sin soporte físico. Se trata de una tecnología que, según todos los expertos, marcarán tendencia en los próximos años y que, según el informe “Beyond the hype“, de KPMG, será la base de la cuarta Revolución Industrial.

https://www.geofumadas.com/por-que-usar-gemelos-digitales-en-la-construccion/

Sin embargo, el gemelo digital no es una idea nueva, pues a principios de este siglo ya la introdujo Michael Grieves, en colaboración con John Vickers, director de tecnología de la NASA. Esta tecnología se aplica al Internet de las Cosas, que se refiere a la interconexión digital de objetos cotidianos con internet. Además, se encuentra muy relacionada con la inteligencia artificial y con la minería de datosdata-mining“. Empresas como Siemens ya están preparando convertir sus plantas industriales en fábricas de datos con su gemelo digital, o General Electric, que cuenta ya con 800.000 gemelos digitales para monitorizar virtualmente la cadena de suministro.

Con todo, tal y como explicó el profesor Chinesta (Chinesta et al., 2018), existe actualmente un cambio de paradigma hacia los gemelos digitales híbridos que, extrapolando su uso, va a significar la gran revolución en la forma de proyectar y gestionar las infraestructuras, tal y como avancé al principio del artículo.

En efecto, los modelos utilizados en ciencia y en ingeniería son muy complejos. La simulación numérica, la modelización y la experimentación han sido los tres pilares sobre los que se ha desarrollado la ingeniería en el siglo XX. La modelización numérica, que sería el nombre tradicional que se ha dado al “gemelo digital” presenta problemas prácticos por ser modelos estáticos, pues no se retroalimentan de forma continua de datos procedentes del mundo real a través de la monitorización continua. Estos modelos numéricos (usualmente elementos finitos, diferencias finitas, volumen finito, etc.) son suficientemente precisos si se calibran bien los parámetros que lo definen. La alternativa a estos modelos numéricos son el uso de modelos predictivos basados en datos masivos big-data, constituyendo “cajas negras” con alta capacidad de predicción debido a su aprendizaje automáticomachine-learning“, pero que esconden el fundamento físico que sustentan los datos (por ejemplo, redes neuronales). Sin embargo, la experimentación es extraordinariamente cara y lenta para alimentar estos modelos basados en datos masivos.

El cambio de paradigma, por tanto, se basa en el uso de datos inteligentes “smart-data paradimg“. Este cambio se debe basar, no en la reducción de la complejidad de los modelos, sino en la reducción dimensional de los problemas, de la retroalimentación continua de datos del modelo numérico respecto a la realidad monitorizada y el uso de potentes herramientas de cálculo que permitan la interacción en tiempo real, obteniendo respuestas a cambios paramétricos en el problema. Dicho de otra forma, deberíamos poder interactuar a tiempo real con el gemelo virtual. Por tanto, estamos ante otra realidad, que es el gemelo virtual híbrido.

Por tanto, estamos ahora en disposición de centrarnos en la afirmación que hice al principio. La nueva tecnología en gemelos digitales híbridos, junto con la nueva capacidad de cálculo numérico en ciernes, va a transformar definitivamente la forma de entender, proyectar y gestionar las infraestructuras. Ya no se trata de proyectar, por ejemplo, un puente. Ni tampoco estamos hablando de diseñar un prototipo en 3D del mismo puente, ni siquiera de modelar en BIM dicha estructura. Estamos hablando de crear un gemelo digital que se retroalimentará continuamente del puente real, que estará monitorizado. Se reajustarán los parámetros de cálculo del puente con los resultados obtenidos de la prueba de carga, se podrán predecir las labores de mantenimiento, se podrá conocer con antelación el comportamiento ante un fenómeno extraordinario como una explosión o un terremoto. Por tanto, una nueva profesión, que será la del ingeniero de gemelos virtuales híbridos de infraestructuras será una de las nuevas profesiones que reemplazarán a otras que quedarán obsoletas.

Se tratará de gestionar el gemelo durante el proyecto, la construcción, la explotación e incluso el desmantelamiento de la infraestructura. Se podrán analizar cambios de usos previstos, la utilización óptima de recursos, monitorizar la seguridad, y lo más importante, incorporar nuevas funciones objetivo como son la sostenibilidad económica, medioambiental y social a lo largo del ciclo de vida completo. Este tipo de enfoque es el que nuestro grupo de investigación tiene en el proyecto DIMILIFE. Proyectos como puentes, presas, aeropuertos, redes de carreteras, redes de ferrocarriles, centrales nucleares, etc. tendrán su gemelo digital. Para que sea efectivo, se deberá prever, desde el principio, la monitorización de la infraestructura para ayudar a la toma de decisiones. Además, servirá para avanzar en la aproximación cognitiva en la toma de decisiones (Yepes et al., 2015).

Os paso a continuación un vídeo sobre el uso de los gemelos digitales en la ciudad de Singapur.

A continuación os pongo un vídeo sacado de la página de Elías Cueto, de la Universidad de Zaragoza, en la que vemos cómo se interactúa con un gemelo virtual de un conejo.

 

En este otro vídeo, el profesor Chinesta explica el cambio de paradigma del que hemos hablado anteriormente en el artículo.

¿Qué es la computación cuántica? Aquí tenemos un vídeo de Eduardo Sáenz de Cabezón:

Referencias:

Chinesta, F.; Cueto, E.; Abisset-Chavanne, E.; Duval, J.L. (2018). Virtual, Digital and Hybrid Twins: A New Paradigm in Data-Based Engineering and Engineered Data. Archives of Computational Methods in Engineering, DOI: 10.1007/s11831-018-9301-4

Yepes, V.; García-Segura, T.; Moreno-Jiménez, J.M. (2015). A cognitive approach for the multi-objective optimization of RC structural problems. Archives of Civil and Mechanical Engineering, 15(4):1024-1036. DOI:10.1016/j.acme.2015.05.001

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Control de calidad en recepción. Planes de muestreo

En una entrada anterior resolvimos un problema concreto de un plan de muestreo por atributos. Sin embargo, para los que no estén familiarizados con la jerga y las definiciones de la estadística empleada en el control de calidad, me he decidido por subir unas transparencias que a veces utilizamos en clase para cuando tenemos que explicar los planes de muestreo.

Pero antes, voy a comentar brevemente algunos conceptos relacionados con el control de calidad, el control estadístico, el control de aceptación y el control del proceso, entre otros. Vamos a ello.

El control de calidad es la parte de la gestión de la calidad orientada al cumplimiento de los requisitos de los productos o los servicios. Se trata de un método de trabajo que permite medir las características de calidad de una unidad, compararlas con los estándares establecidos e interpretar la diferencia entre lo obtenido y lo deseado para poder tomar decisiones conducentes a la corrección de estas diferencias.

En el proceso proyecto-construcción, la comprobación de los requisitos exigibles de calidad se basa fundamentalmente en el control de la calidad. Los pliegos de condiciones técnicas definen, para cada unidad de obra, qué tipo de controles deben realizarse para dar por buena la correcta ejecución de una obra, atendiendo no sólo a los materiales, sino a su puesta en obra y terminación. La misma filosofía es aplicable a la propia redacción de los proyectos de construcción por parte de las empresas de consultoría.

Una forma de controlar la calidad se basa en la inspección o la verificación de los productos terminados. Se trata establecer un filtro sobre los productos antes que éstos lleguen al cliente, de forma que los que no cumplen se desechan o se reparan. Este control en recepción normalmente se realiza por personas distintas a las que realizan el trabajo de producción, en cuyo caso los costes pueden ser elevados y pueden no considerarse las actividades de prevención ni los planes de mejora. Se trata de un control final, situado entre el productor y el cliente, que presenta la ventaja de ser imparcial, pero que adolece de muchos inconvenientes como son el desconocimiento de las circunstancias de la producción, la no-responsabilización de producción por la calidad, la lentitud en el flujo de la información, etc.

Sin embargo, una inspección al 100% de todas las unidades producidas puede ser materialmente imposible cuando los ensayos a realizar son destructivos. En estos casos, se hace necesario tomar decisiones de aceptación o rechazo de un lote completo de producto en función de la calidad de una muestra aleatoria. Este control estadístico (Statistical Control) proporciona una menor información, e incluso presenta riesgos propios del muestreo, pero sin embargo resulta más económico, requiere menos inspectores, las decisiones se toman con mayor rapidez y el rechazo a todo el lote estimula a los proveedores a mejorar la calidad.

El control estadístico se asentó plenamente a partir de la Segunda Guerra Mundial, caracterizándose por la consideración de las características de calidad como variables aleatorias, por lo que se centra básicamente en la calidad de fabricación o de producción. Este tipo de control también se identifica con el interés en conocer las causas de variación y establecer, como consecuencia, procedimientos de eliminación sistemática de dichas causas para la mejora continua de la calidad.

El control estadístico puede aplicarse en el producto final, lo que sería el control de aceptación, o bien a lo largo del proceso de producción, lo cual comprende el control del proceso. El control estadístico de recepción supone el establecimiento de planes de muestreo con criterios de aceptación o rechazo claros sobre lotes completos en función de los ensayos realizados sobre una muestra aleatoria. Este control por muestreo puede realizarse por atributos basándose en la norma ISO-2859, o bien por variables según ISO-3951. En cuanto al control estadístico de procesos, herramientas como los gráficos de control (Quality Control Chart) permiten tomar decisiones cuando el proceso se encuentra fuera de control. Igualmente, los estudios de capacidad de los procesos permiten decidir la capacidad de éstos de producir dentro de los límites de las especificaciones de calidad contratadas.

Una empresa constructora debería reducir al mínimo los costes de una mala calidad asegurándose que el resultado de sus procesos cumplieran los requisitos pactados con el cliente. Por ello, para garantizar que el control de aceptación de los productos presenta éxito –el denominado control externo-, la empresa constructora debería organizar como una actividad propia, un conjunto de controles en su cadena de producción que garantizase la calidad de las unidades de obra –actividad que recibe el nombre de control interno-.

Tanto el control interno como el externo puede ser realizado por la propia empresa constructora, por el cliente o por una organización independiente contratada al efecto. Así, por ejemplo, el control del hormigón recibido por el contratista puede ser realizado por una entidad independiente, la ejecución de la ferralla puede controlarse por parte de la dirección facultativa, o bien, la propia empresa constructora puede realizar un control interno de la ejecución de la obra.

Os paso, por tanto, la presentación que he utilizado alguna vez en clase.

Descargar (PDF, 3.97MB)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Técnicas heurísticas para el diseño de pasarelas mixtas

Acaban de publicarnos un artículo en la revista científica Applied Sciences (indexada en el JCR, Q2) un artículo que trata sobre el uso de distintas técnicas heurísticas para optimizar una pasarela de sección mixta hormigón-acero. El trabajo se enmarca dentro del proyecto de investigación DIMALIFE que dirijo como investigador principal en la Universitat Politècnica de València.

El objetivo de este trabajo ha sido aplicar técnicas de optimización heurística a un puente peatonal compuesto de hormigón y acero, modelado como una viga biapoyada. Se ha desarrollado un programa específico en Fortran, capaz de generar puentes peatonales, comprobar todos sus estados límite y evaluar su coste. Se han utilizado en este trabajo los siguientes algoritmos: búsqueda local de descenso (DLS), un recocido simulado híbrido con un operador de mutación (SAMO2) y una optimización de enjambres de luciérnagas (GSO) en dos variantes. Los resultados se compararon según el coste más bajo. Los algoritmos GSO y DLS combinados obtuvieron los mejores resultados en términos de coste. Además, se ha estudiado la comparación entre las emisiones de CO2 asociadas a la cantidad de materiales obtenidos por cada técnica heurística y la solución de diseño original. Finalmente, se realizó un estudio paramétrico en función de la longitud de vano del puente peatonal.

El artículo se ha publicado en abierto, y se puede descargar en el siguiente enlace: https://www.mdpi.com/2076-3417/9/16/3253

ABSTRACT:

The objective of this work was to apply heuristic optimization techniques to a steel-concrete composite pedestrian bridge, modeled like a beam on two supports. A program has been developed in Fortran programming language, capable of generating pedestrian bridges, checking them, and evaluating their cost. The following algorithms were implemented: descent local search (DLS), a hybrid simulated annealing with a mutation operator (SAMO2), and a glow-worms swarm optimization (GSO) in two variants. The first one only considers the GSO and the second combines GSO and DLS, applying the DSL heuristic to the best solutions obtained by the GSO. The results were compared according to the lowest cost. The GSO and DLS algorithms combined obtained the best results in terms of cost. Furthermore, a comparison between the CO2 emissions associated with the amount of materials obtained by every heuristic technique and the original design solution were studied. Finally, a parametric study was carried out according to the span length of the pedestrian bridge.

Keywords: pedestrian bridgecomposite structuresoptimizationmetaheuristicsstructural design

REFERENCIA:

Yepes, V.; Dasí-Gil, M.; Martínez-Muñoz, D.; López-Desfilis, V.J.; Martí, J.V. Heuristic Techniques for the Design of Steel-Concrete Composite Pedestrian Bridges. Appl. Sci. 20199, 3253.

Descargar (PDF, 3.69MB)

 

 

Optimización de puentes pretensados mediante la metodología de la superficie de respuesta

Nos acaban de publicar en la Revista CIATEC-UPF (Revista de Ciências Exatas Aplicadas e Tecnológicas da Universidade de Passo Fundo, CIATEC-UPF – ISSN 2176-4565), un artículo relacionado con la optimización de pórticos de hormigón armado con sistemas de agrupación de columnas. Se trata de una colaboración con el profesor Moacir Kripka y está dentro del proyecto de investigación DIMALIFE.

Os paso a continuación el resumen y una copia descargable del artículo, pues está publicado en abierto. Espero que os sea de interés.

RESUMEN:

Los puentes son infraestructuras esenciales para mejorar la comunicación dentro de un territorio. La optimización constituye un proceso que permite obtener puentes de menor coste bajo ciertas restricciones. Debido a la complejidad de los problemas estructurales, la optimización matemática no es útil y se recurre a la optimización heurística debido a su mayor eficacia. En este trabajo se presenta una alternativa a la optimización heurística basada en los metamodelos. El procedimiento consiste en una reducción de los factores iniciales mediante el diseño de experimentos, reduciendo significativamente la complejidad del problema sin perder información. Posteriormente, se aplica la metodología de la superficie de respuesta para obtener el óptimo del problema. Este procedimiento se aplica a un tablero de un puente de losa maciza que cumpla todas las restricciones de las normativas.

PALABRAS CLAVE:

Hormigón estructural. Optimización. Puente pretensado. Metamodelo. Superficie de respuesta

REFERENCIA:

PENADÉS-PLÀ, V.; YEPES, V.; KRIPKA, M. (2019). Optimización de puentes pretensados mediante la metodología de la superficie de respuesta. Revista CIATEC-UPF, 11(2):22-35. https://doi.org/10.5335/ciatec.v11i2.9159

 

Descargar (PDF, 988KB)

 

¿Penalizaciones económicas por una mala compactación?

En un artículo anterior tuvimos ocasión de hablar en detalle de los aspectos básicos del control de calidad en la compactación de un suelo. Pero, ¿qué pasa si existe una desviación entre los resultados que esperábamos y los realmente obtenidos? Es un tema que levanta fuertes discusiones, sobre todo por la repercusión económica y de funcionalidad de la unidad de obra. Mi opinión es que hay que ser muy cauteloso con la aceptación de unidades de obra con mermas de calidad, pero a veces se admiten excepciones que deben estar documentadas y razonadas. Una posibilidad es imponer una penalización económica lo suficientemente fuerte que desaconseje al contratista entrar en esa zona cercana a la aceptación, pero que se encuentre ligeramente por debajo de las especificaciones.

A veces el incumplimiento de las especificaciones que afecten a una determinada parte de la obra de terraplén, y siempre que a criterio del Director Facultativo, estos defectos no impliquen una pérdida significativa en la funcionalidad y seguridad de la obra o parte de la obra y no sea posible subsanarlos posteriormente, pueden aplicarse penalizaciones en forma de deducción en la relación valorada. Esta posibilidad no debe nunca implicar una aceptación sin más de la merma de calidad, sino que solo es aplicable en casos excepcionales.

A modo de ejemplo, y sin que ello suponga que esta penalización sea la más adecuada para todos los casos, el artículo 32.31 del Pliego de Condiciones Técnicas Generales 1988, del Ayuntamiento de Madrid propone las siguientes fórmulas, que podrán ser modificadas o complementadas en el Pliego de Condiciones Técnicas Particulares:

 

P1  = 0,04 ·ΔC · P        (por defecto de compactación)

P2  = 0,20 · N · P        (por cambio de calidad en el material)

siendo:

P1 y P2             deducción unitaria por penalización €/m3

P                     precio unitario del terraplén €/m3

ΔC                  defecto en % del grado de compactación en relación con el especificado.

N                     coeficiente por cambio de calidad.

— de seleccionado a adecuado, N=1

— de seleccionado a tolerable, N=4

— de adecuado a tolerable, N=2.

 

Referencias:

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente nº 97.439. Ed. Universitat Politècnica de València. 253 pág. ISBN: 84-7721-551-0.

YEPES, V. (2021). Procedimientos de construcción para la compactación y mejora del terreno. Colección Manual de Referencia, 1ª edición. Editorial Universitat Politècnica de València, 426 pp. Ref. 428. ISBN: 978-84-9048-603-0.

YEPES, V. (2015). Coste, producción y mantenimiento de maquinaria para construcción. Editorial Universitat Politècnica de València, 155 pp. ISBN: 978-84-9048-301-5. Ref. 402.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Medición del trabajo a través del procedimiento de observaciones instantáneas

Las observaciones instantáneas constituye un procedimiento de medición del trabajo que, junto con el cronometraje, permite determinar los tiempos improductivos y sus causas, eliminándolas mediante su análisis. Se emplea como auxiliar del estudio de métodos para eliminar o disminuir el tiempo de trabajo. El cronometraje es más apropiado para trabajos muy sistematizados y repetitivos, efectuados por una o pocas unidades de recurso. En cambio, las observaciones instantáneas cubre el resto de los escenarios posibles, como trabajos poco sistematizados, con ciclos largos o realizados por numerosos recursos.

Las observaciones instantáneas se basan en comprobar si, en un momento dado, un recurso se encuentra trabajando o parado. Se puede estimar el tiempo de trabajo y el de parada, así como su error estadístico basándose en la distribución binomial de probabilidad. Se puede ejecutar una pasada si observamos a un conjunto de recursos y anotamos para cada uno de ellos su situación de trabajo o parada. Para planificar correctamente las observaciones, se debería garantizar que todas las actividades sean observadas un número de veces proporcional a su duración.

Detengámonos un momento en el fundamento estadístico del método. Supongamos que p es la fracción del tiempo en el que un recurso presenta una característica. Por ejemplo, si p=15% puede significar que, del tiempo total de permanencia de una máquina en una obra, el 15% del tiempo se encuentra parada. Si extraemos n elementos de la población infinita de posibilidades en las que una máquina puede estar parada en una proporción p en una obra, la probabilidad de que x máquinas se encuentren paradas sería la siguiente:

Si en la distribución binomial se cumple que n·p>15, entonces la distribución binomial —que es discontinua— se puede aproximar a la distribución normal —que es continua—.

Ahora lo que nos interesa es conocer el tamaño de la muestra n para proporciones en una población infinita. Para calcular este tamaño de muestra, antes debemos especificar el nivel de confianza con el que se desea realizar la estimación y el margen de error máximo tolerable D. De esta forma, se espera trabajar con una muestra que sea representativa y que las estimaciones sean consistentes. La expresión que utilizaremos será la siguiente:

Aquí os dejo una tabla que relaciona el nivel de confianza con los las variables utilizada en la fórmula anterior:

Nivel de confianza α Z α/2 (Z α/2)2
99% 0,01 2,576 6,636
95% 0,05 1,960 3,842
90% 0,10 1,645 2,706
80% 0,20 1,280 1,638
50% 0,50 0,674 0,454

 

También os dejo un vídeo explicativo y un problema resuelto.

Descargar (PDF, 100KB)

Referencia:

YEPES, V. (2015). Coste, producción y mantenimiento de maquinaria para construcción. Editorial Universitat Politècnica de València, 155 pp. ISBN: 978-84-9048-301-5.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Constructividad, constructibilidad, constructabilidad, ¿todo lo mismo?

Figura 1. Capacidad de influir en el coste durante el proceso proyecto-construcción (Serpell, 2002)

Todo el mundo está de acuerdo en que la industria de la construcción es un motor del desarrollo económico de una sociedad, pues permite crear infraestructuras que soportan las actividades económicas y viviendas. Pero para ello se requieren recursos intensivos, tanto públicos como privados que, en muchas ocasiones, no se utilizan de forma efectiva. Se trata de un sector con amplio margen de mejora en cuanto a productividad se refiere y que, de momento, y con carácter general, no aprovecha todas las oportunidades que brinda el desarrollo tecnológico.

Todos los agentes que participan en la industria de la construcción, desde proyectistas, constructores, suministradores de materiales y equipos, etc., se ven abocados a utilizar de forma efectiva y eficiente todos los recursos a su alcance para mejorar de este modo la productividad y los resultados empresariales. Ello supone, no solo emplear bien los recursos disponibles, sino alcanzar con ellos los objetivos empresariales, que pasan por la satisfacción de las necesidades de los clientes en cuanto a calidad, costes y plazos.

En la Figura 1 se puede observar cómo, en el proceso proyecto-construcción, las primeras fases son las que presentan mayor capacidad de influencia en el coste final de un proyecto (Serpell, 2002). Sobre este asunto ya hablamos en un artículo anterior: La “Ley de los Cincos” de Sitter. Las estadísticas europeas señalan (ver Calavera, 1995) que el proyecto es el responsable del 35-45% de los problemas en construcción. A este respecto, Sitter (véase Rostman, 1992) ha introducido la llamada “Ley de los Cincos”, postulando que un dólar gastado en fase de diseño y construcción elimina costes de 5 dólares en mantenimiento preventivo, 25 dólares en labores de reparación y 125 en rehabilitación.

Por tanto, mejorar el diseño de un proyecto constructivo es clave, no solo para conseguir satisfacer los requerimientos del cliente, sino para mejorar los resultados de todos los agentes involucrados en el proceso proyecto-construcción. Sobre este aspecto, la bibliografía de origen anglosajón habla de Constructability o Buildability, que se ha traducido al español como “constructabilidad” o “constructibilidad”, incluso “constructividad”. Sin embargo, son palabras que no las recoge la Real Academia Española de la Lengua. Simplificando, podríamos hablar de que una obra puede construirse de forma más o menos fácil y efectiva. Ello va a depender de muchos factores, pero uno de los más importantes va a ser el propio proyecto constructivo. Por cierto, no vamos a utilizar aquí el concepto de “coeficiente de constructibilidad”, que en el ámbito del urbanismo, se refiere a un número que fija el máximo de superficie posible a construir en un ámbito determinado.

En la Figura 2 he elaborado un mapa conceptual para aclarar las ideas. Como puede verse, tanto la constructividad como la constructibilidad tienen como objetivo último satisfacer las necesidades del cliente en cuanto a calidad, costes, plazos, estética, etc., además de cumplir con otro tipo de objetivos relativos al contexto (requerimientos ambientales, sociales, legales, etc.), de forma que los agentes involucrados en la construcción sean capaces de mejorar sus resultados empresariales. Sin embargo, el enfoque de ambos conceptos es diferente. Veamos con algo de detalle las diferencias.

 

Figura 2. Mapa conceptual sobre constructividad y constructibilidad. Elaboración propia.

La constructividad define el grado con el cual un proyecto facilita el uso eficiente de los recursos para facilitar su construcción, satisfaciendo tanto los requerimientos del cliente como otros asociados al proyecto. Como se puede ver, se trata de un concepto directamente ligado a la fase del proyecto, y, por tanto, depende fuertemente del equipo encargado del diseño.

Por otra parte, la constructibilidad es un concepto relacionado con la gestión que involucra a todas las etapas del proyecto y que, en consecuencia, depende tanto de los proyectistas, de los gestores del proyecto y de los constructores. Aunque se trata de un concepto también relacionado con las etapas del diseño del proyecto, la diferencia estriba en la incorporación de personal en esta etapa preliminar de personal con experiencia y conocimiento en construcción con el fin de mejorar la aptitud constructiva de una obra.

Quizá un ejemplo sea clarificador. Supongamos un equipo de arquitectura que está proyectando un edificio complejo, como por ejemplo un hospital. Este equipo, con mayor o menor experiencia en obra, tratará de diseñar un edificio que se pueda construir. El proyecto se licitará y una empresa constructora se encargará de su ejecución. Resulta evidente que, en función de los problemas de obra, el proyecto podrá modificarse para adaptarse a problemas que no quedaron resueltos en el proyecto o a cambios no previstos durante la ejecución. Se trata de un ejemplo donde los proyectistas han incorporado, en la medida de lo posible, aspectos relacionados con la constructividad.

Por otra parte, podría darse el caso de un concurso de proyecto y construcción, donde el adjudicatario participara, a su riesgo, del proceso proyecto-construcción. En este caso, es muy posible que al equipo redactor del proyecto se incorporaran personas con amplia experiencia en la ejecución de este tipo de proyectos. Por ejemplo, jefes de obra o producción de la empresa que hubiesen realizado proyectos similares, podrían aportar conocimientos para mejorar el proyecto, de forma que este fuera fácilmente construible con los medios disponibles por la propia empresa. En este caso, estamos refiriéndonos a una gestión del proyecto donde se incorporan aspectos relacionados con la constructibilidad.

Para terminar, tenemos ejemplos claros de la diferencia entre estos dos conceptos en el caso de los proyectos que nuestros estudiantes elaboran durante sus estudios, por ejemplo, en el Grado de Ingeniería Civil o en el Máster en Ingeniería de Caminos, Canales y Puertos (donde imparto docencia). Un alumno brillante puede desarrollar un proyecto formalmente correcto, pero es muy habitual encontrar detalles mal resueltos porque son difíciles de construir. No se debe a que ha aplicado mal sus conocimientos, más bien se trata de falta de experiencia en obra que impide volcar en el proyecto soluciones que faciliten la construcción de la obra. Este problema, desgraciadamente, se repite en numerosas empresas de proyectos, donde la falta de experiencia de los proyectistas en la ejecución de la obra supone posteriormente problemas que ya se comentaron anteriormente cuando hablábamos de la regla de Sitter. La consecuencia de todo ello es clara: la importancia de que los proyectistas presenten experiencia dilatada en la ejecución de obra. La segunda derivada también es clara: los profesores en escuelas técnicas que forman a futuros ingenieros o arquitectos, deberían tener cierta experiencia en obra real. Igual es hora de balancear la importancia de la investigación y la experiencia en el mundo real a la hora de evaluar el perfil de los profesores que se dedican a formar a los futuros técnicos. Pero ese es otro tema.

Os dejo algún vídeo al respecto para ampliar conceptos.

Referencias:

CALAVERA, J. (1995). Proyectar y controlar proyectos. Revista de Obras Públicas num. 3.346. Madrid, septiembre.

PELLICER, E., CATALÁ, J., SANZ, A.(2002). La administración pública y el proceso proyecto-construcción. Actas del VI Congreso Internacional de Ingeniería de Proyectos, Departamento de Proyectos de Ingeniería de la Universidad Politécnica de Cataluña y AEIPRO, Barcelona, página 35.

PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.

SERPELL, A. (2002). Administración de operaciones de construcción. Alfaomega, 292 pp.

ROSTMAN, S. (1992). Tecnología moderna de durabilidad. Cuadernos Intemac, 5.

YEPES, V. (1998). La calidad económica. Qualitas Hodie, 44: 90-92.

YEPES, V. (2003). Sistemas de gestión de la calidad y del medio ambiente en las instalaciones náuticas de recreo.Curso Práctico de Dirección de Instalaciones Náuticas de Recreo. Ed. Universidad de Alicante. Murcia, pp. 219-244.

YEPES, V. (2015). Coste, producción y mantenimiento de maquinaria para construcción. Editorial Universitat Politècnica de València, 155 pp.

YEPES, V.; PELLICER, E. (2003). ISO 10006 “Guidelines to quality in project management” application to construction. VII International Congress on Project Engineering. 10 pp. ISBN: 84-9769-037-0.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.