Las técnicas clásicas de programación son herramientas comúnmente empleadas en las escuelas de ingeniería civil de todo el mundo para la enseñanza de la planificación y gestión de proyectos. Técnicas como el método del camino crítico (CPM), el método del diagrama de precedencias (PDM), el diagrama de Gantt o la técnica de evaluación y revisión de programas (PERT) presentan la ventaja de su sencillez, facilidad de comprensión y que se implementan en los programas informáticos de gestión de proyectos más aceptados, como Ms Project o Primavera P6. Sin embargo, estas técnicas de programación presentan importantes limitaciones a la hora de tratar la incertidumbre inherente a la gestión de proyectos de construcción. Por un lado, el enfoque determinista del CPM para el aprendizaje de la planificación del proyecto reduce la sensibilidad y la comprensión de los factores que alteran y desafían significativamente el éxito de un proyecto, y por otro lado, el CPM no es capaz de gestionar la incertidumbre. y desafían el éxito de un proyecto, mientras que, por otro lado, el PERT muestra unas capacidades demasiado limitadas en modelización de la incertidumbre y subestima la desviación estándar de la duración del proyecto.
El Análisis de Riesgo de Programación (SRA) es un método estocástico idóneo para promover que los estudiantes empiecen a gestionar proyectos de forma más eficaz y eficiente. En este trabajo, empleamos un software educativo de SRA (ESRA) para ayudar a los estudiantes a entender el supuesto subyacente de la programación estocástica, así como para hacer explícitas las ventajas de la programación estocástica en comparación con los métodos clásicos como CPM o PERT. ESRA permite modelar tanto la incertidumbre en la duración de las actividades, como la relación entre estas incertidumbres, ampliando la gama de problemas de planificación, que los estudiantes pueden ahora evaluar. Esta investigación se llevó a cabo en cuatro etapas a través de un taller. En primer lugar, se introdujeron los fundamentos teóricos de la simulación de Montecarlo, el método en el que se basan la mayoría de los métodos de evaluación de la incertidumbre. En segundo lugar, los estudiantes emplearon el ESRA para ver cómo funciona este método. En tercer lugar, los alumnos trabajaron en torno a un caso práctico de gestión de proyectos de construcción y analizaron los resultados, comparando los de la evaluación estocástica con los de la evaluación determinista. Por último, se les pidió que respondieran a un cuestionario en el que debían abordar la toma de decisiones en el mundo real en relación con la programación de proyectos que requería tener en cuenta las incertidumbres del proyecto.
Referencia:
SALAS, J.; SIERRA, L.; YEPES, V. (2021). ESRA, an educational software for introducing stochastic scheduling to civil engineering students. 15th annual International Technology, Education and Development Conference (INTED 2021), 8th-9th March, 2021, pp. 5788-5798, Valencia, Spain. ISBN: 978-84-09-27666-0
Os presento un trabajo donde se explora el patrimonio cultural de los puertos deportivos y se profundiza en la relación entre su patrimonio y el paisaje cultural. El paisaje y el patrimonio son elementos relevantes en estas áreas y podrían ser ventajas competitivas en la gestión de estas instalaciones marítimas. Como instalaciones para actividades marítimas de ocio, hay muchas posibilidades de identificar su patrimonio cultural y su paisaje cultural. A través del análisis de estos conceptos se desarrolla en este estudio la relación propuesta entre el binomio patrimonio/paisaje cultural y los puertos deportivos. De esta forma, se identifican algunos elementos a considerar dentro del patrimonio cultural de los puertos deportivos y su paisaje cultural, no solo relacionados con la conservación y la reutilización de elementos del pasado. También se proponen tres modelos de relación, que van desde la integración, hasta el fortalecimiento y la evolución.
MARÍN, R.; YEPES, V.; GRINDLAY, A. (2020). Discovering the marina’s cultural heritage and cultural landscape.8th International Symposium Monitoring of Mediterranean Coastal Areas. Problems and Measurements Techniques, pp. 95-104. Firenze University Press. e-ISBN: 978-88-5518-147-1 DOI: 10.36253/978-88-5518-147-1.11
El grado de desarrollo de una comunidad se mide, a menudo, por su inversión en investigación, desarrollo e innovación (I+D+i). Los países industrializados asumen la necesidad de investigar nuevas técnicas, materiales y procesos con objeto de alcanzar una mayor eficiencia y sustentabilidad en cada tarea productiva. La normalización y la certificación de la gestión de proyectos o sistemas de I+D+i supone una herramienta adecuada para optimizar los resultados, sobre todo cuando es una política internacional el incentivo de las tareas de I+D+i. Las empresas buscan acreditar ante la administración pública los recursos destinados a la I+D+i, obteniendo ventajas fiscales a lo largo de todo el proceso. A pesar de que el sector de la construcción es importante en todas las economías desarrolladas y en vías de desarrollo, las empresas constructoras invierten poco en I+D+i comparativamente con otros sectores. La relación entre la normalización y la innovación sigue siendo una asignatura pendiente dentro del campo de la gestión de la construcción. A lo largo del presente artículo se analiza la situación internacional en materia de normalización y certificación de actividades de I+D+i, señalando el carácter innovador de las normas españolas UNE 166000. Se exponen los resultados de un estudio sistemático destinado a conocer la situación actual en el sector de la construcción en España, referente a la normalización y a la certificación. Esta nueva familia de normas podría servir como referente para otros países, siempre funcionando conjuntamente con las series de normas ISO 9000 y 14000.
PELLICER E., YEPES V., CORREA C.L.; MARTÍNEZ, G. (2008). Enhancing R&D&i through standardization and certification: the case of the Spanish construction industry, Revista Ingeniería de Construcción, 23(2): 112-121.
La resiliencia es un concepto que viene del mundo de la psicología y representa la capacidad para adaptarse de forma positiva frente a situaciones adversas. Proviene del latín resilio, “volver atrás, volver de un salto, resaltar, rebotar”. En el campo de la mecánica, la resiliencia sería la capacidad de un material para recuperar su forma inicial después de haber sido deformado por una fuerza. En la ecología, un sistema es resiliente si puede tolerar una perturbación sin colapsar a un estado completamente distinto, controlado por otro conjunto de procesos. En un entorno tecnológico, este término se relaciona con la capacidad de un sistema de soportar y recuperarse ante desastres y perturbaciones. En este artículo vamos a indagar en el concepto de resiliencia de las infraestructuras.
Así, dentro de los objetivos de desarrollo sostenible de Naciones Unidas (Figura 1), encontramos el Objetivo 9: Construir infraestructuras resilientes, provomer la industrialización sostenible y fomentar la innovación. En efecto, las infraestructuras deben hacer frente al crecimiento de la población, pero también a los crecientes peligros físicos (cinéticos) como el terrorismo, o los asociados al clima extremo y los desastres naturales. La frecuencia y gravedad de estos eventos extremos se prevén crecientes, y, por tanto, es más que previsible un aumento en los costes e impacto humano. Además, debido a la cada vez más informatización y digitalización de las infraestructuras, el riesgo de ataques informáticos a las infraestructuras es más que evidente.
La resiliencia puede asociarse con cuatro atributos: robustez, que es la capacidad para resistir un evento extremo sin que el fracaso en la funcionalidad sea completo; rapidez, que sería la capacidad de recuperarse de forma eficiente y efectiva; la redundancia, que sería la reserva de componentes o de sistemas estructurales sustitutivos; y el ingenio, que sería la eficiencia en la identificación de problemas, priorizando soluciones y movilizando recursos para su solución (Bruneau et al., 2003).
Matemáticamente, se puede evaluar la resiliencia integrando la curva de funcionalidad a lo largo del tiempo (ver Figura 2).
donde Q(t) es la funcionalidad; t0 es el momento en el que ocurre el evento extremo y Tr es el horizonte hasta donde se estudia la funcionalidad.
En la Figura 2 se pueden observar los tres estados correspondientes con la funcionalidad. En la situación de fiabilidad, la infraestructura se encuentra con la funcionalidad de referencia, previo al evento extremo. La situación de recuperación comienza tras la ocurrencia del evento extremo, con una pérdida de funcionalidad dependiente de la robustez de la infraestructura, y con una recuperación que depende de los esfuerzos realizados en la reparación, que puede ser rápida o lenta en función del ingenio o la creatividad en las soluciones propuestas, así como de la redundancia de los sistemas previstos. Por último, la situación recuperada es la que ocurre cuando la funcionalidad vuelve a ser la de referencia.
Se comprueba en la Figura 2 cómo una infraestructura pasa de una funcionalidad de referencia a una residual tras el evento extremo. Tras el evento, puede darse una demora en la recuperación de la funcionalidad debido a las tareas de inspección, rediseño, financiación, contratación, permisos, etc.). La recuperación completa de la funcionalidad depende de la forma en la que se han abordado las tareas de reparación. Es fácil verificar que la resiliencia se puede calcular integrando la curva de recuperación de la funcionalidad desde la ocurrencia del evento extremo hasta la completa recuperación, dividiendo dicho valor por el tiempo empleado en dicha recuperación.
Este modelo simplificado permite establecer las pautas para mejorar la resiliencia de una infraestructura:
a) Incrementando la robustez de la infraestructura, es decir, maximizar su funcionalidad residual tras un evento extremo.
b) Acelerando las actividades de recuperación de la funcionalidad de la infraestructura.
En ambos casos, es necesario concebir la infraestructura desde el principio con diseños robustos, con sistemas redundantes y con una previsión de las tareas de reparación necesarias.
Con todo, la capacidad de recuperación comprende cuatro dimensiones interrelacionadas: técnica, organizativa, social y económica (Bruneau et al., 2003). La dimensión técnica de la resiliencia se refiere a la capacidad de los sistemas físicos (incluidos los componentes, sus interconexiones e interacciones, y los sistemas enteros) para funcionar a niveles aceptables o deseables cuando están sujetos a los eventos extremos. La dimensión organizativa de la resiliencia se refiere a la capacidad de las organizaciones que gestionan infraestructuras críticas y tienen la responsabilidad de tomar decisiones y adoptar medidas que contribuyan a lograr la resiliencia descrita anteriormente, es decir, que ayuden a lograr una mayor solidez, redundancia, ingenio y rapidez. La dimensión social de la resiliencia consiste en medidas específicamente diseñadas para disminuir los efectos de los eventos extremos por parte de la población debido a la pérdida de infraestructuras críticas. Análogamente, la dimensión económica de la resiliencia se refiere a la capacidad de reducir tanto las pérdidas directas e indirectas de los eventos extremos.
El problema de estas cuatro dimensiones se pueden sumar de forma homogénea, con interrelaciones entre ellas. El reto consiste en cuantificar y medir la resiliencia en todas sus dimensiones, así como sus interrelaciones. Se trata de un problema de investigación de gran trascendencia y complejidad, que afecta al ciclo de vida de las infraestructuras desde el inicio de la planificación (Salas y Yepes, 2020).
Referencias:
ANWAR, G.A.; DONG, Y.; ZHAI, C. (2020). Performance-based probabilistic framework for seismic risk, resilience, and sustainability assessment of reinforced concrete structures. Advances in Structural Engineering, 23(7):1454-1457.
BRUNEAU, M.; CHANG, S.E.; EGUCHI, R.T. et al. (2003). A framework to quantitatively assess and enhance the seismic resilience of communities. Earthquake Spectra 19(4): 733–752.
Uno de los datos más relevantes para que el uso seguro de las playas en tiempos de coronavirus es la estimación del aforo máximo de una playa en función una serie de factores que deben adaptarse a las circunstancias de cada playa y al contexto de la pandemia. Este cálculo no es sencillo, pues los factores que habitualmente se utilizan en los cálculos de aforos en playas se basan en aspectos que relacionados con el confort y con la satisfacción del usuario. Es la primera vez, por tanto, que se plantea un método cuyo objetivo principal sea la reducción del riesgo de contagio por coronavirus.
Para conocer dicho aforo son necesarios, entre otros, determinar las siguientes variables que influyen en el problema: distancia de seguridad sanitaria, ocupación estática segura, ocupación dinámica segura, porcentaje de usuarios susceptible de contagio, tipo y porcentaje de ocupación de la playa (toallas, sombrillas, toldos), tamaño de las “unidades de convivencia”, zonificación de la playa por usos (zona activa, zona de reposo, zona de resguardo, zona de servicios), temperatura de la arena, velocidad y dirección de la brisa, carrera de marea, curva horaria de uso de la playa, curva diaria de uso de la playa, separación entre accesos a la playa, separación de pasillos intermedios en zona de reposo, rango de tiempo mínimo y máximo de disfrute de la playa, velocidad de movimiento de los bañistas en la playa, gestión de colas, entre otras variables.
Se plantea, por tanto, un método simplificado que depende de una serie de coeficientes correctores que deberían ajustarse estudiando casos reales en cada una de las playas. El dato del aforo es fundamental para las autoridades que deben tomar decisiones respecto al control de accesos, planificación o evacuación de una playa en caso de necesidad. Además, el aforo máximo es un dato necesario en cualquier aplicación que, en tiempo real, sea capaz de comunicar a los usuarios si se ha desbordado el límite seguro de uso.
Dejo a continuación una metodología simplificada que, espero, os pueda ser útil y os resuelva muchas de vuestras dudas.
Se están proponiendo muchas soluciones, algunas más peregrinas que otras, respecto a cómo utilizar la playa de forma segura en tiempos de pandemia. En un artículo anterior comenté un modelo, muy sencillo, de circulación peatonal en paseos marítimos y playas. Ahora voy a explicar otra medida, también muy sencilla, y fácil de controlar, para garantizar márgenes de seguridad en el uso de la playa. En otros artículos que iré escribiendo, explicaré otros aspectos sobre cómo y dónde medir la ocupación de las playas y qué hacer para evitar problemas de contagios. Las soluciones, insisto, deben ser muy sencillas, de bajo coste y fáciles de controlar.
Para ello, lo más importante es que, en muchas playas, es posible que el grado de saturación no sea tan alto como podemos ver en la Figura 1. De hecho, el aspecto clave va a ser calcular una capacidad máxima de ocupación que sea compatible con la seguridad en el uso de las playas. Este es un concepto novedoso que aparece en este artículo por primera vez. El cálculo de esa capacidad será objeto de otro artículo en breve, y que está en proceso de redacción, pero supongamos que tenemos clara dicha cifra de Densidad Máxima Segura (DMS). Conviene aclarar que esta DMS será una densidad menor a la habitual en el uso de las playas por motivos de satisfacción o comodidad, pues aquí el factor limitante será la seguridad frente al contagio.
Antes de continuar con la exposición, hay que considerar que un número significativo de playas pequeñas, de uso muy familiar, de difícil acceso, o de especial protección, no llegan a esta DMS. Por otra parte, es posible que se vea reducido el turismo internacional y ello implique que determinadas playas saturadas en verano queden con una ocupación menor a la DMS. Por tanto, la metodología que se explica a continuación estaría muy orientada a playas urbanas, muy masificadas en verano, donde el usuario procede fundamentalmente de turismo nacional o es residente. Por eso, mi insistencia en que se debe abordar el problema de forma particular para cada municipio y playa.
Lo primero que tenemos que conocer de una playa es su comportamiento espacio-temporal. Si nos circunscribimos exclusivamente al comportamiento temporal, cada playa presenta una curva característica de ocupación horaria. Este comportamiento deberíamos conocerlo de alguna forma. Pero en caso de no tenerlo claro, os aporto una modelo simplificado en la Figura 2. Como se puede observar, la ocupación máxima, del 100%, ocurre aproximadamente a las 12:30 h en las playas. Posteriormente, y coincidiendo con el almuerzo, existe una meseta de ocupación. En algunas playas muy masificadas, la meseta prácticamente se mantiene una parte importante del día en su punto máximo.
La propuesta, a partir de aquí, es muy sencilla: Se trata de calcular el DMS y, por tanto, a qué porcentaje de ocupación nos estamos refiriendo. Puede ocurrir que una playa tenga un DMS superior al 100% de su ocupación esperada. En dicho caso, no hay que tomar medidas de restricción horaria. En la Figura 3 se representa en una línea roja el DMS para una playa determinada, en este caso, se ha calculado para el 80% del máximo de ocupación. Como puede verse, la solución es eliminar de alguna forma la saturación entre las 11:30 horas y las 13:30 horas. Pero, ¿cómo tomamos esa decisión?
Necesitamos conocer, a continuación, la pirámide poblacional de los turistas que frecuentan nuestra playa. En cada municipio se debería conocer dicha pirámide. Pero, a falta de datos, vamos a utilizar la pirámide de población española (Figura 4).
Si nos fijamos en este caso particular, la población mayor de 65 años, que es la más vulnerable, supone aproximadamente el 20% de la población. Los menores de 14 años suponen, del mismo modo, un porcentaje de un 15%. Por tanto, una solución sería la siguiente: desde las 11:30 a las 13:30 horas, no pueden hacer uso de la playa la población mayor de 65 años. De esta forma podríamos afrontar la exigencia del DMS de la Figura 3. Sin embargo, si fuera necesario, se podría añadir a la población menor de 14 años a dicha restricción. Resulta fácil por parte de las autoridades comprobar si en esa franja horaria existen usuarios mayores de 65 años o menores de 14. Es evidente que habría que particularizar el caso para cada una de las playas.
Por tanto, la metodología propuesta es la siguiente:
Paso 1. Determinar el DMS para una playa determinada.
Paso 2. Determinar la curva horaria de ocupación particular de la playa. En caso de no disponer ninguna, se utiliza la aproximación de la Figura 2.
Paso 3. Determinar la franja horaria de restricción horaria, tal y como se ha utilizado en la Figura 3.
Paso 4. Calcular la franja de edades, empezando por los usuarios vulnerables, donde se debe restringir el uso en la franja horaria. Se utilizará la pirámide de población de los usuarios de la playa. En caso de no disponer datos, se usará la pirámide de población española.
Paso 5. En caso de que sea insuficiente la restricción a las personas vulnerables, se restringirá también el uso a los menores.
Referencias:
YEPES, V. (2002). La explotación de las playas. La madurez del sector turístico. OP Ingeniería y territorio, 61:72-77. Depósito Legal: B-5348/1986. ISSN: 0213-4195. Edita: Colegio de Ingenieros de Caminos, Canales y Puertos. Barcelona. (link)
YEPES, V. (2005). Sistemas de gestión de calidad y medio ambiente como soporte de la gestión municipal de las playas.Equipamiento y servicios municipales, 117: 52-62. Depósito Legal: M-3244-1985. ISSN: 1131-6381. Edita: Publiteca, S.A. Madrid. (pdf)
YEPES, V. (2007). Gestión del uso y explotación de las playas.Cuadernos de Turismo, 19:241-254. ISSN: 1139-7861. (pdf)(link)
YEPES, V. (2012). Sistemas voluntarios de gestión de playas de uso intensivo.En: Rodríguez-Perea, A., Pons, G.X., Roig-Munar, F.X., Martín-Prieto, J.Á., Mir-Gual, M. y Cabrera, J.A. (eds.). La gestión integrada de playas y dunas: experiencias en Latinoamérica y Europa: Mon. Soc. Hist. Nat. Balears, 19: 61-76. ISBN: 978-84-616-2240-5. Palma de Mallorca.
Acaban de publicarnos un artículo en la revista International Journal of Environmental Research and Public Health (revista indexada en el JCR) sobre la aplicación de la planificación multinivel como herramienta para mejorar la sostenibilidad y la resiliencia de las infraestructuras. El trabajo se enmarca dentro del proyecto de investigación DIMALIFE que dirijo como investigador principal en la Universitat Politècnica de València.
Se aplica una metodología novedosa de control jerárquico con múltiples objetivos para abordar la vulnerabilidad urbana, la mejora del estado de la red de carreteras y la minimización del costo económico como objetivos en un proceso de planificación resistente en el que tanto las acciones como su ejecución se planifican para un desarrollo controlado y sostenible. Basándose en el Sistema de Apoyo al Planeamiento Urbano, una herramienta de planificación desarrollada previamente, el sistema mejorado de apoyo al planeamiento ofrece una alternativa de planificación en la red de carreteras española, con el mejor equilibrio multiobjetivo entre optimización, riesgo y oportunidad. El proceso de planificación formaliza entonces la capacidad de adaptación local como la capacidad de variar la alternativa de planificación seleccionada dentro de ciertos límites, y el control del riesgo global como las obligaciones que deben cumplirse a cambio. Por último, mediante la optimización multiobjetivo, el método revela los equilibrios multiobjetivo entre la oportunidad local, el riesgo global y los derechos y deberes a escala local, proporcionando así una comprensión más profunda para una toma de decisiones mejor informada.
El artículo se ha publicado en una revista de alto impacto internacional, Q1 de la WOS, Impact Factor = 2,468 (2018), en acceso abierto, que se puede descargar desde la siguiente dirección: https://www.mdpi.com/1660-4601/17/3/962
Abstract
Resilient planning demands not only resilient actions, but also resilient implementation, which promotes adaptive capacity for the attainment of the planned objectives. This requires, in the case of multi-level infrastructure systems, the simultaneous pursuit of bottom-up infrastructure planning for the promotion of adaptive capacity, and of top-down approaches for the achievement of global objectives and the reduction of structural vulnerabilities and imbalances. Though several authors have pointed out the need to balance bottom-up flexibility with top-down hierarchical control for better plan implementation, very few methods have yet been developed with this aim, least of all with a multi-objective perspective. This work addressed this lack by including, for the first time, the mitigation of urban vulnerability, the improvement of road network condition, and the minimization of the economic cost as objectives in a resilient planning process in which both actions and their implementation are planned for a controlled, sustainable development. Building on Urban planning support system (UPSS), a previously developed planning tool, the improved planning support system affords a planning alternative over the Spanish road network, with the best multi-objective balance between optimization, risk, and opportunity. The planning process then formalizes local adaptive capacity as the capacity to vary the selected planning alternative within certain limits, and global risk control as the duties that should be achieved in exchange. Finally, by means of multi-objective optimization, the method reveals the multi-objective trade-offs between local opportunity, global risk, and rights and duties at local scale, thus providing deeper understanding for better informed decision-making.
En menos de una década, gran parte de los ingenieros dejarán de hacer proyectos, tal y como lo conocemos ahora, y pasarán a ser gestores de gemelos híbridos digitales de infraestructuras.
Este podría ser un buen titular periodístico que, incluso podría parecer ciencia ficción, pero que tiene todos los visos de convertirse en realidad en menos tiempo del previsto. Se podría pensar que las tecnologías BIM o los modelos digitales actuales ya son una realidad, es decir, se trata de dar un nuevo nombre a lo que ya conocemos y está en desarrollo, pero de lo que estamos hablando es de un nuevo paradigma que va a revolver los cimientos de la tecnología actual en el ámbito de la ingeniería. Voy a desgranar esta conclusión explicando cada uno de los avances y los conceptos que subyacen al respecto.
La semana pasada tuve la ocasión de escuchar la conferencia magistral, en el Congreso CMMoST, de Francisco Chinesta, catedrático en la ENSAM ParisTech e ingeniero industrial egresado por la Universitat Politècnica de València. Trataba de un nuevo paradigma en la ingeniería basada en datos y no era otra que la de los gemelos híbridos digitales, un paso más allá de la modelización numérica y de la minería de datos. Este hecho coincidió con el anuncio en prensa de que Google había publicado en la prestigiosa revista Nature un artículo demostrando la supremacía cuántica, un artículo no exento de polémica, pues parece ser que se diseñó un algoritmo que tiene como objetivo generar números aleatorios mediante un procedimiento matemático muy complejo y que obligaría al superordenador Summit, que es actualmente el más potente del mundo gracias a sus 200 petaflops, a invertir 10.000 años en resolver el problema, que que el procesador cuántico Sycamore de 54 qubits de Google habría resuelto en tres minutos y 20 segundos.
Si nos centramos en la supuesta supremacía cuántica de Google, se debería matizar la noticia al respecto. En efecto, IBM ya se ha defendido diciendo que su ordenador Summit no se encuentra tan alejado, pues se ha resuelto un problema muy específico relacionado con generar números aleatorios y que parece que Sycamore sabe resolver muy bien. De hecho, IBM afirma que ha reajustado su superordenador y que ahora es capaz de resolver ese mismo problema en 2,5 días con un margen de error mucho menor que el ordenador cuántico. Aquí lo importante es saber si esta computación cuántica estará, sin trabas o límites, accesible a cualquier centro de investigación o empresa para resolver problemas de altísima complejidad computacional (problemas NP-hard como pueden ser los de optimización combinatoria). Tal vez los superordenadores convencionales servirán para resolver unos problemas específicos en tareas convencionales, y los cuánticos, imparables en resolver otro tipo de problemas. Todo se andará, pero parece que esto es imparable.
Por tanto, parece que el hardware necesario para la una computación ultrarrápida está o estará a nuestro alcance en un futuro no muy lejano. Ahora se trata de ver cómo ha cambiado el paradigma de la modelización matemática. Para ello podríamos empezar definiendo al “gemelo digital”, o digital twin. Se trata de un modelo virtual de un proceso, producto o servicio que sirve de enlace entre un ente en el mundo real y su representación digital que está utilizando continuamente datos de los sensores. A diferencia del modelado BIM, el gemelo digital no representa exclusivamente objetos espaciales, sino que también podría representar procesos, u otro tipo de entes sin soporte físico. Se trata de una tecnología que, según todos los expertos, marcarán tendencia en los próximos años y que, según el informe “Beyond the hype“, de KPMG, será la base de la cuarta Revolución Industrial.
Sin embargo, el gemelo digital no es una idea nueva, pues a principios de este siglo ya la introdujo Michael Grieves, en colaboración con John Vickers, director de tecnología de la NASA. Esta tecnología se aplica al Internet de las Cosas, que se refiere a la interconexión digital de objetos cotidianos con internet. Además, se encuentra muy relacionada con la inteligencia artificial y con la minería de datos “data-mining“. Empresas como Siemens ya están preparando convertir sus plantas industriales en fábricas de datos con su gemelo digital, o General Electric, que cuenta ya con 800.000 gemelos digitales para monitorizar virtualmente la cadena de suministro.
Con todo, tal y como explicó el profesor Chinesta (Chinesta et al., 2018), existe actualmente un cambio de paradigma hacia los gemelos digitales híbridos que, extrapolando su uso, va a significar la gran revolución en la forma de proyectar y gestionar las infraestructuras, tal y como avancé al principio del artículo.
En efecto, los modelos utilizados en ciencia y en ingeniería son muy complejos. La simulación numérica, la modelización y la experimentación han sido los tres pilares sobre los que se ha desarrollado la ingeniería en el siglo XX. La modelización numérica, que sería el nombre tradicional que se ha dado al “gemelo digital” presenta problemas prácticos por ser modelos estáticos, pues no se retroalimentan de forma continua de datos procedentes del mundo real a través de la monitorización continua. Estos modelos numéricos (usualmente elementos finitos, diferencias finitas, volumen finito, etc.) son suficientemente precisos si se calibran bien los parámetros que lo definen. La alternativa a estos modelos numéricos son el uso de modelos predictivos basados en datos masivos big-data, constituyendo “cajas negras” con alta capacidad de predicción debido a su aprendizaje automático “machine-learning“, pero que esconden el fundamento físico que sustentan los datos (por ejemplo, redes neuronales). Sin embargo, la experimentación es extraordinariamente cara y lenta para alimentar estos modelos basados en datos masivos.
El cambio de paradigma, por tanto, se basa en el uso de datos inteligentes “smart-data paradimg“. Este cambio se debe basar, no en la reducción de la complejidad de los modelos, sino en la reducción dimensional de los problemas, de la retroalimentación continua de datos del modelo numérico respecto a la realidad monitorizada y el uso de potentes herramientas de cálculo que permitan la interacción en tiempo real, obteniendo respuestas a cambios paramétricos en el problema. Dicho de otra forma, deberíamos poder interactuar a tiempo real con el gemelo virtual. Por tanto, estamos ante otra realidad, que es el gemelo virtual híbrido.
Por tanto, estamos ahora en disposición de centrarnos en la afirmación que hice al principio. La nueva tecnología en gemelos digitales híbridos, junto con la nueva capacidad de cálculo numérico en ciernes, va a transformar definitivamente la forma de entender, proyectar y gestionar las infraestructuras. Ya no se trata de proyectar, por ejemplo, un puente. Ni tampoco estamos hablando de diseñar un prototipo en 3D del mismo puente, ni siquiera de modelar en BIM dicha estructura. Estamos hablando de crear un gemelo digital que se retroalimentará continuamente del puente real, que estará monitorizado. Se reajustarán los parámetros de cálculo del puente con los resultados obtenidos de la prueba de carga, se podrán predecir las labores de mantenimiento, se podrá conocer con antelación el comportamiento ante un fenómeno extraordinario como una explosión o un terremoto. Por tanto, una nueva profesión, que será la del ingeniero de gemelos virtuales híbridos de infraestructuras será una de las nuevas profesiones que reemplazarán a otras que quedarán obsoletas.
Se tratará de gestionar el gemelo durante el proyecto, la construcción, la explotación e incluso el desmantelamiento de la infraestructura. Se podrán analizar cambios de usos previstos, la utilización óptima de recursos, monitorizar la seguridad, y lo más importante, incorporar nuevas funciones objetivo como son la sostenibilidad económica, medioambiental y social a lo largo del ciclo de vida completo. Este tipo de enfoque es el que nuestro grupo de investigación tiene en el proyecto DIMILIFE. Proyectos como puentes, presas, aeropuertos, redes de carreteras, redes de ferrocarriles, centrales nucleares, etc. tendrán su gemelo digital. Para que sea efectivo, se deberá prever, desde el principio, la monitorización de la infraestructura para ayudar a la toma de decisiones. Además, servirá para avanzar en la aproximación cognitiva en la toma de decisiones (Yepes et al., 2015).
Os paso a continuación un vídeo sobre el uso de los gemelos digitales en la ciudad de Singapur.
A continuación os pongo un vídeo sacado de la página de Elías Cueto, de la Universidad de Zaragoza, en la que vemos cómo se interactúa con un gemelo virtual de un conejo.
En este otro vídeo, el profesor Chinesta explica el cambio de paradigma del que hemos hablado anteriormente en el artículo.
¿Qué es la computación cuántica? Aquí tenemos un vídeo de Eduardo Sáenz de Cabezón:
Referencias:
Chinesta, F.; Cueto, E.; Abisset-Chavanne, E.; Duval, J.L. (2018). Virtual, Digital and Hybrid Twins: A New Paradigm in Data-Based Engineering and Engineered Data.Archives of Computational Methods in Engineering, DOI: 10.1007/s11831-018-9301-4
Yepes, V.; García-Segura, T.; Moreno-Jiménez, J.M. (2015). A cognitive approach for the multi-objective optimization of RC structural problems. Archives of Civil and Mechanical Engineering, 15(4):1024-1036. DOI:10.1016/j.acme.2015.05.001
En una entrada anterior resolvimos un problema concreto de un plan de muestreo por atributos. Sin embargo, para los que no estén familiarizados con la jerga y las definiciones de la estadística empleada en el control de calidad, me he decidido por subir unas transparencias que a veces utilizamos en clase para cuando tenemos que explicar los planes de muestreo.
Pero antes, voy a comentar brevemente algunos conceptos relacionados con el control de calidad, el control estadístico, el control de aceptación y el control del proceso, entre otros. Vamos a ello.
El control de calidades la parte de la gestión de la calidad orientada al cumplimiento de los requisitos de los productos o los servicios. Se trata de un método de trabajo que permite medir las características de calidad de una unidad, compararlas con los estándares establecidos e interpretar la diferencia entre lo obtenido y lo deseado para poder tomar decisiones conducentes a la corrección de estas diferencias.
En el proceso proyecto-construcción, la comprobación de los requisitos exigibles de calidad se basa fundamentalmente en el control de la calidad. Los pliegos de condiciones técnicas definen, para cada unidad de obra, qué tipo de controles deben realizarse para dar por buena la correcta ejecución de una obra, atendiendo no sólo a los materiales, sino a su puesta en obra y terminación. La misma filosofía es aplicable a la propia redacción de los proyectos de construcción por parte de las empresas de consultoría.
Una forma de controlar la calidad se basa en la inspección o la verificación de los productos terminados. Se trata establecer un filtro sobre los productos antes que éstos lleguen al cliente, de forma que los que no cumplen se desechan o se reparan. Este control en recepción normalmente se realiza por personas distintas a las que realizan el trabajo de producción, en cuyo caso los costes pueden ser elevados y pueden no considerarse las actividades de prevención ni los planes de mejora. Se trata de un control final, situado entre el productor y el cliente, que presenta la ventaja de ser imparcial, pero que adolece de muchos inconvenientes como son el desconocimiento de las circunstancias de la producción, la no-responsabilización de producción por la calidad, la lentitud en el flujo de la información, etc.
Sin embargo, una inspección al 100% de todas las unidades producidas puede ser materialmente imposible cuando los ensayos a realizar son destructivos. En estos casos, se hace necesario tomar decisiones de aceptación o rechazo de un lote completo de producto en función de la calidad de una muestra aleatoria. Este control estadístico (Statistical Control) proporciona una menor información, e incluso presenta riesgos propios del muestreo, pero sin embargo resulta más económico, requiere menos inspectores, las decisiones se toman con mayor rapidez y el rechazo a todo el lote estimula a los proveedores a mejorar la calidad.
El control estadístico se asentó plenamente a partir de la Segunda Guerra Mundial, caracterizándose por la consideración de las características de calidad como variables aleatorias, por lo que se centra básicamente en la calidad de fabricación o de producción. Este tipo de control también se identifica con el interés en conocer las causas de variación y establecer, como consecuencia, procedimientos de eliminación sistemática de dichas causas para la mejora continua de la calidad.
El control estadístico puede aplicarse en el producto final, lo que sería el control de aceptación, o bien a lo largo del proceso de producción, lo cual comprende el control del proceso. El control estadístico de recepción supone el establecimiento de planes de muestreo con criterios de aceptación o rechazo claros sobre lotes completos en función de los ensayos realizados sobre una muestra aleatoria. Este control por muestreo puede realizarse por atributos basándose en la norma ISO-2859, o bien por variables según ISO-3951. En cuanto al control estadístico de procesos, herramientas como los gráficos de control (Quality Control Chart) permiten tomar decisiones cuando el proceso se encuentra fuera de control. Igualmente, los estudios de capacidad de los procesos permiten decidir la capacidad de éstos de producir dentro de los límites de las especificaciones de calidad contratadas.
Una empresa constructora debería reducir al mínimo los costes de una mala calidad asegurándose que el resultado de sus procesos cumplieran los requisitos pactados con el cliente. Por ello, para garantizar que el control de aceptación de los productos presenta éxito –el denominado control externo-, la empresa constructora debería organizar como una actividad propia, un conjunto de controles en su cadena de producción que garantizase la calidad de las unidades de obra –actividad que recibe el nombre de control interno-.
Tanto el control interno como el externo puede ser realizado por la propia empresa constructora, por el cliente o por una organización independiente contratada al efecto. Así, por ejemplo, el control del hormigón recibido por el contratista puede ser realizado por una entidad independiente, la ejecución de la ferralla puede controlarse por parte de la dirección facultativa, o bien, la propia empresa constructora puede realizar un control interno de la ejecución de la obra.
Os paso, por tanto, la presentación que he utilizado alguna vez en clase.
El muestreo de aceptación constituye uno de los campos más amplios del control de calidad estadístico en recepción. Se trata de aceptar o rechazar un lote atendiendo a una serie de criterios establecidos. No se trata de determinar la calidad que presenta un lote, sino de determinar la forma de actuar. El muestreo de aceptación determina, por tanto, un procedimiento que si se aplica a una serie de lotes dará un riesgo especificado en cuanto a la aceptación de lotes de una calidad dada. Por tanto, el muestreo de aceptación proporciona un margen de seguridad en cuanto a la calidad.
Tampoco el muestreo de aceptación constituye un control de calidad propiamente dicho. Para ello tenemos otras herramientas como los diagramas de control, que pueden guiar al ingeniero en cuanto a la modificación de la producción con el objeto de mejorar los productos. Este punto debe tenerse muy en cuenta. Un muestreo de aceptación, tal y como hemos indicado antes, aceptará o rechazará lotes. Suponiendo que todos los lotes son de la misma calidad, aceptará unos y rechazará otros, sin que los aceptados sean mejores que los rechazados.
Sin embargo, esta práctica de muestreo proporciona un efecto indirecto muy importante. Si a un proveedor se le rechaza frecuentemente sus lotes, o cambia radicalmente su forma de producción, o el cliente buscará un nuevo proveedor.
A continuación os paso, totalmente resuelto, una práctica resuelta propuesta en clase de un muestreo de aceptación por atributos. En este caso, el producto es defectuoso o no lo es. Es evidente que, si se disponen de datos cuantitativos, sería mejor utilizar un muestreo de aceptación por variables, pero la filosofía y la estrategia es la misma.
En el caso del control de calidad en recepción por atributos, se han utilizado las tablas de la norma UNE 66-020 (actualmente la familia de normas vigentes son las UNE-ISO 2859), que proceden de la norma MIL-STD-105. Esta era una norma de defensa de los Estados Unidos que proporcionaba procedimientos y tablas para el muestreo por atributos basadas en las teorías de inspección de muestreo de Walter A. Shewhart, Harry Romig y Harold Dodge y fórmulas matemáticas.
Aunque el ejemplo trata de una producción industrial, el campo de aplicación podría extrapolarse a otros como la recepción de lotes en carreteras, que no deja de ser el resultado de un proceso de producción. En futuros artículos publicaré algunos ejemplos más. Por otra parte, para entender bien la resolución del problema, se recomienda al lector algún curso básico sobre estadística avanzada aplicada al control de calidad.