Todos sabemos lo que es un rascacielos y la enfermiza pasión de los humanos por superar lo que anteriormente otro hizo. Pero, ¿tiene sentido construir un «rascasuelos»? Se trata de un proyecto de construir un edificio de 300 m de profundidad en México D.F. Sería un edificio con 65 niveles donde se albergarían oficinas, viviendas y comercios. La pirámide tendría vacío el espacio central para permitir la circulación de aire y la entrada de luz natural, además que toda la estructura se proyecta para contener la presión de la tierra. Sin embargo, el elevado coste (unos ochocientos millones de dólares), el plazo de 8 años en su construcción, pero sobre todo el riesgo sísmico de la zona y los vestigios arqueológicos sobre los que se pretende realizar la estructura, provocan dudas más que razonables sobre su viabilidad.
De todos modos, la idea es sugerente, innovadora y atrevida, incluso el nombre de «rascasuelos» es original, aunque es posible que para algunos roce el absurdo y sean las limitaciones técnicas y económicas las que impidan su ejecución. Eso sí, la oficina de arquitectura artífice de la idea, BNKR Arquitectura, ha conseguido notoriedad en los medios. A continuación os dejo una entrevista con Marcel Ibarrola, Director Comercial de BNKR, que nos explica la viabilidad e impacto que este proyecto podría tener en la Ciudad de México.
En el diseño en cuadrado latino se tienen cuatro fuentes de variabilidad que pueden afectar a la respuesta observada: los tratamientos, el factor de bloque I (columnas), el factor de bloque II (filas) y el error aleatorio. Se llama cuadrado latino porque se trata de un cuadrado que tiene la restricción adicional de que los tres factores involucrados se prueban en la misma cantidad de niveles, y se llama latino porque se utilizan letras latinas para denotar los tratamientos o niveles del factor de interés.
Veamos un ejemplo práctico: se trata de averiguar si la resistencia característica del hormigón a la compresión (MPa) varía según cuatro dosificaciones diferentes (D1, D2, D3, D4). Para ello, se han preparado amasadas en 4 amasadoras distintas y los ensayos se han realizado en 4 laboratorios diferentes. Los resultados obtenidos se han presentado en la tabla que sigue.
TIPO DE AMASADORA
1
2
3
4
Laboratorio 1
26,7 (D3)
19,7 (D1)
28,0 (D2)
29,4 (D4)
Laboratorio 2
23,1 (D1)
20,7 (D2)
24,9 (D4)
29,0 (D3)
Laboratorio 3
28,3 (D2)
20,1 (D4)
29,0 (D3)
27,3 (D1)
Laboratorio 4
25,1 (D4)
17,4 (D3)
28,7 (D1)
34,1 (D2)
En este caso, la variable de respuesta es la resistencia característica del hormigón a la compresión (MPa); el factor es la dosificación, y los bloques son las amasadoras y los laboratorios. Se supone que no existe interacción entre el factor y los bloques. El ANOVA se utiliza para comprobar los efectos de los tratamientos (las dosificaciones).
A continuación, os dejo un videotutorial para resolver este diseño con el programa estadístico SPSS.
Referencias:
Gutiérrez, H.; de la Vara, R. (2004). Análisis y Diseño de Experimentos. McGraw Hill, México.
Vicente, M.ª L.; Girón, P.; Nieto, C.; Pérez, T. (2005). Diseño de experimentos. Soluciones con SAS y SPSS. Pearson, Prentice Hall, Madrid.
Pérez, C. (2013). Diseño de experimentos. Técnicas y Herramientas. Garceta Grupo Editorial, Madrid.
In recent decades, with the objective of achieving more sustainable development, the global community has increased its concern for environmental protection. Nevertheless, there are still economic sectors, such as the construction industry, which produce significant environmental impacts. Life Cycle Assessment (LCA) is a tool that enables identifying environmental issues related to both finished products and services, and allows focusing efforts to resolve them. The main objective of this paper is to assess LCA applicability on concrete structures so that the construction’s environmental performance can be improved. For this purpose, an attempt is made to provide construction-sector stakeholders with a decision-making tool based on reliable, accurate environmental data. The research methodologies used in this paper are based on a literature review and are applied to a case study. This review was conducted to gather information on LCA methodologies currently in use and their practical applications. The case study described in this paper involved identifying the most sustainable slab type for a reinforced concrete structure in a residential building, using two databases. It was observed that, depending on the selected database and the inherent assumptions, results varied. Therefore, it was concluded that, to avoid incorrect results when applying LCA, it is highly recommended to develop a more constrained methodology and to grant access to reliable construction-sector data. (link)
La innovación es un concepto abierto que abarca aspectos tan heterogéneos como las mejoras en los procesos, los productos o los servicios.Consiste, básicamente, en incorporar ideas no triviales capaces de generar cambios orientados a resolver necesidades en una empresa, con la finalidad de aumentar su competitividad y mejorar su posicionamiento en el mercado. La incorporación de la innovación en las empresas constructoras supone ventajas competitivas en un mercado cada vez más exigente y globalizado, que requiere la construcción de infraestructuras capaces de satisfacer de manera creciente a todas las partes interesadas, incluyendo al entorno ambiental y a las generaciones futuras.
La aplicación de la innovación en el sector de la construcción, sin embargo, no es una tarea fácil, a pesar de la importancia de este sector en el desarrollo de cualquier país. Las empresas que trabajan en la construcción tienen como objetivo proyectos “únicos” para los cuales deben adaptar, en cada ocasión, sus procesos y recursos. Cada obra es un prototipo único, cuya configuración evoluciona con el tiempo. Las obras se ubican en diversos lugares, con desplazamientos continuos del personal y de la maquinaria. Además, el clima y el trabajo a la intemperie son, entre otros, factores diferenciales que impiden trasladar directamente las experiencias obtenidas de otros sectores.
Las empresas constructoras aportan soluciones novedosas en obras cuya complejidad técnica exige esfuerzos especiales. Así, los departamentos técnicos son los que, con frecuencia, proponen soluciones de innovación para los problemas concretos que la ejecución de las obras va demandando. En ocasiones son el resultado de la adopción y adaptación de ideas de otras industrias o de empresas de suministro de materiales. Estas soluciones a problemas concretos se incorporan a la experiencia y al buen hacer de la empresa, que plantea la innovación como una tarea artesanal, lejos de los beneficios que supondría incorporar las actividades de I+D+i como procesos de gestión habituales en la organización.
Sin embargo, la innovación debe entenderse como un proceso sistemático e intencionado, en el que juega un papel importante el grado de conexión que la empresa tenga con el entorno, no requiriendo ser compleja para tener éxito, pero sí orientada a una aplicación concreta y a situar a la empresa en una posición privilegiada. La innovación deja de ser un acto puntual, de aplicación de ideas felices, para convertirse en un proceso susceptible de ser gestionado, medido y controlado de forma sistemática. Por consiguiente, la normalización de los procesos de innovación constituye un punto de partida de gran interés para las empresas.
La clave consiste en considerar la innovación como un proceso de gestión dentro de la empresa. Efectivamente, si cualquier proceso puede normalizarse y la innovación se considera un proceso, este también puede normalizarse. Una posible norma de gestión del proceso de innovación debe contener el marco de referencia, los criterios y las herramientas para la identificación, la elaboración y la sistematización de cada una de las actividades involucradas. En estas condiciones, cada organización puede controlar y mejorar los distintos aspectos de la innovación e integrarlos en el conjunto de procesos de la empresa.
Una empresa que incorpore una gestión normalizada de la innovación espera los siguientes beneficios:
Mejora de las actividades de la organización.
Incremento de la competitividad de la empresa a medio y largo plazo.
Mayor integración de los procesos de gestión empresarial con su estrategia.
Eficiente explotación del conocimiento de la organización.
Sistematización de la incorporación de nuevos conocimientos en procesos y productos.
Satisfacción de las expectativas futuras de los clientes.
Existen dos familias de normas centradas en la normalización del proceso de innovación: las británicas BS 7000-1 y las españolas UNE 166000. Las primeras (“Diseño de sistemas de innovación: guía para la gestión de la innovación”) sirven de guía para el desarrollo de productos innovadores y competitivos que satisfagan las necesidades futuras de los usuarios. Tres rasgos definen las normas británicas: su objeto es el diseño de productos; proporcionan una estructura para la gestión (no sistemática) de la innovación; y se apoyan en la norma ISO 9001 de gestión de la calidad.
Las normas UNE 166000 “Gestión de la I+D+i” —recientemente reconocidas oficialmente en España y, de forma extraoficial, en México, Brasil, Italia y Portugal— consideran la innovación como un proceso que puede sistematizarse siguiendo un modelo similar al de la gestión de la calidad o del medio ambiente. Sus objetivos son: homogeneizar los criterios en dichas actividades; fomentar la transferencia de tecnología; y proporcionar instrumentos que permitan a la administración pública valorar proyectos de I+D+i. También persiguen dotar a las empresas certificadas conforme a la norma ISO 9001 de una herramienta activa centrada en la mejora continua de sus procesos mediante las actividades de I+D+i.
Por tanto, la innovación en el sector de la construcción puede ser normalizada siempre que se trate de un proceso. Las etapas que guían dicho proceso pueden ser las siguientes:
Identificación de la necesidad y oportunidad de innovación: al analizar los métodos constructivos durante la planificación, es posible identificar posibles alternativas o ideas innovadoras que permitan alcanzar los objetivos asociados con el proyecto y la organización; esta etapa está muy influenciada por el alcance, la complejidad y la dificultad del proyecto, la demanda del mercado, la competencia, las oportunidades de negocio, la legislación, los accesos a nuevas tecnologías, etc.
Selección de proyectos de innovación en obra: la decisión sobre los proyectos de innovación depende de los objetivos, los beneficios o las ventajas competitivas esperados por la organización, del traspaso de las novedades a otros proyectos, etc. La evaluación de las alternativas de innovación debe considerar todos los objetivos del proyecto y de la empresa.
Desarrollo del proyecto de innovación en la obra: la incorporación de un avance tecnológico u organizativo requiere del compromiso de toda la organización, del equipo que desarrolla la innovación y del equipo de obra. La empresa debe asignar los recursos humanos y materiales necesarios para llevar a cabo el proyecto de innovación. Esta etapa es clave, pues en ella se debe ajustar lo planificado a la realidad de la obra.
Evaluación: el equipo y la organización deben evaluar el cumplimiento de los objetivos del proyecto de innovación. Debe considerarse cada una de las etapas del proceso de innovación, así como todos los aspectos relacionados.
Transferencia a futuros proyectos: la explotación de los resultados obtenidos requiere un traspaso exitoso a otras obras. En otras palabras, para que el proceso de innovación culmine, este debe ser aprendido, codificado y aplicado a futuros proyectos.
Referencias
CORREA, C.L.; YEPES, V.; PELLICER, E. (2007). Factores determinantes y propuestas para la gestión de la I+D+i en las empresas constructoras.Revista Ingeniería de Construcción, 22(1): 5-14. Pontificia Universidad Católica de Chile. ISSN: 0716-2952. (link)
PELLICER, E.; YEPES, V. (2007). Gestión de recursos, en Martínez, G.; Pellicer, E. (ed.): Organización y gestión de proyectos y obras. Ed. McGraw-Hill. Madrid, pp. 13-44. ISBN: 978-84-481-5641-1. (link)
PELLICER E., YEPES V., CORREA C.L.; MARTÍNEZ, G. (2008). Enhancing R&D&i through standardization and certification: the case of the Spanish construction industry, Revista Ingeniería de Construcción, 23(2): 112-121. (link)
PELLICER, E.; CORREA, C.L.;YEPES, V.; ALARCÓN, L.F. (2012). Organizacional improvement through standardization of the innovation process in construction firms.EMJ-Engineering Management Journal, 24(2) (accepted, in press).
PELLICER, E.; YEPES, V.; CORREA, C.L.; ALARCÓN, L.F. (2012). In Search of a Model for Systematic Innovation in Construction Companies.Journal of Construction Engineering and Management ASCE, (accepted, in press). DOI: 10.1061/(ASCE)CO.1943-7862.0000468. ISNN: 0733-9364.
YEPES, V. (2008). Technology and Quality Management, in Pellicer, E. et al.: Construction Management. Construction Managers’ Library Leonardo da Vinci: PL/06/B/F/PP/174014. Ed. Warsaw University of Technology, pp. 115-128. ISBN: 83-89780-48-8.
El sector de la construcción representa una parte muy importante de la economía en los países desarrollados y en vías de desarrollo. No obstante, la inversión en investigación, desarrollo e innovación (I+D+i) en el sector de la construcción es inferior a la de otros sectores económicos. El presente artículo plantea enfocar la gestión de la I+D+i en la construcción como otro proceso empresarial, contemplando también la posibilidad de sistematizarla mediante la serie de normas UNE 166000. La revisión bibliográfica realizada se concreta en un diagrama de afinidad que presenta las principales ideas sobre la innovación en el sector de la construcción. Teniendo en cuenta todo lo anterior, se plantea un modelo general de competitividad focalizado en la innovación, que se particulariza en una propuesta de modelo de gestión de I+D+i para empresas constructoras. El modelo expone la necesidad de facilitar los flujos de información dentro de la organización, de modo que el conocimiento generado por la incorporación de la innovación en las obras permita un aumento sustancial de su competitividad. El establecimiento de un proceso sistemático de innovación implica la necesidad de crear estructuras organizacionales distintas de las actuales en las empresas constructoras.
¿Es interesante un doble doctorado para un ingeniero en una universidad americana? Es posible que sí. Por este motivo, me han invitado a participar en el seminario internacional “Metodologías avanzadas para la gestión de proyectos de construcción”, que se realizará los días 10 y 12 de septiembre en la Cámara Chilena de la Construcción. Este seminario está dirigido a ingenieros, arquitectos y profesionales de la industria de la ingeniería y la construcción.
Además, será de gran interés para alumnos interesados en ingresar a un programa de doctorado en el área de la gestión de proyectos de construcción, debido a que participarán académicos de las universidades de Boulder (Colorado), Waterloo (Canadá) y Politécnica de Valencia (España), con las cuales existen convenios de doble doctorado. El cuadro de profesores que impartirán el seminario lo podéis encontrar en este enlace: http://web.ing.puc.cl/~seminariopro/relatores.html. Además, puedes visitar www.ing.puc.cl/Seminarioproyectos2014
Por mi parte, os dejo el programa por si os interesa. En caso de que no podáis asistir a estas jornadas, os dejaré información sobre cómo han transcurrido y sobre las posibilidades que podéis tener para cursar este doble doctorado.
La innovación abierta (Open Innovation) es una nueva estrategia de innovación que rompe con el paradigma tradicional de gestión de la innovación, según el cual las ideas deben nacer en el seno de la empresa. El nuevo concepto que vamos a divulgar en este post busca romper fronteras, llevar a las empresas más allá de los límites internos de su organización y fomentar la colaboración con profesionales y organizaciones externas. Se trata también de emplear tanto los canales internos como los externos de la empresa para poner en el mercado productos y tecnologías innovadoras.
El término «Open Innovation» fue acuñado por el profesor Henry Chesbrough. Open Innovation implica combinar el conocimiento interno con el conocimiento externo para sacar adelante los proyectos de estrategia y de I+D. En este contexto, universidades y centros de investigación ofrecen nuevas perspectivas y soluciones a las compañías que utilizan este modelo. Este tipo de innovación responde a la posibilidad de que ocurra lo que se conoce como inteligencia colectiva.
Nada mejor que acercarse al concepto de Open Innovation a través del profesor Chesbrough a través de un vídeo explicativo donde nos explica sus ideas. El video está en inglés, pero con la opción de youtube podéis añadirle subtítulos en inglés y traducción al castellano.
Instituto de Ciencia y Tecnología del Hormigón (ICITECH)
Creo que es interesante comentar en este post los resultados que estamos obteniendo de un proyecto de investigación financiado por el Ministerio de Ciencia e Innovación, que nuestro grupo de investigación llama HORSOST. Su nombre completo describe el contenido del trabajo que estamos desarrollando: «Diseño eficiente de estructuras con hormigones no convencionales basados en criterios sostenibles multiobjetivo mediante el empleo de técnicas de minería de datos«.
Se trata de un proyecto que iniciamos en 2012 y cuya finalización está prevista para finales de 2014. Nuestro grupo de investigación está formado por seis profesores y varios becarios de investigación del Instituto de Ciencia y Tecnología del Hormigón (ICITECH) de la Universidad Politécnica de Valencia. En dicho grupo me corresponde el papel de investigador principal. Espero que esta breve descripción os oriente sobre lo que estamos haciendo.
Este proyecto de investigación se encuentra relacionado con otros ya finalizados y otros en marcha, tanto de convocatorias competitivas como de convenios de transferencia tecnológica con empresas (constructoras, empresas de prefabricados, consultoras, etc.).
El objetivo fundamental del proyecto de investigación HORSOST consiste en establecer pautas de diseño eficiente de estructuras de hormigón no convencional, optimizadas heurísticamente mediante funciones multiobjetivo relacionadas con la sostenibilidad. Se pretende avanzar en el establecimiento de nuevos diseños que permitan extraer las ventajas que aportan los hormigones especiales, en particular hormigones de alta resistencia, hormigones con fibras, hormigones autocompactantes. Para ello, se utiliza el análisis del ciclo de vida de dichas estructuras (elaboración, transporte, procedimientos constructivos, mantenimiento, etc.), considerando aspectos energéticos, medioambientales, sociales y económicos. La optimización heurística permite evaluar los diseños más eficientes, comparar soluciones y generar bases de datos sobre las cuales aplicar herramientas procedentes de la minería de datos y del aprendizaje automático para extraer información no trivial que permita fórmulas de predimensionamiento. La posibilidad de análisis se debe a que las herramientas matemáticas empleadas son de carácter general. Se aplican técnicas como las redes neuronales o la teoría del valor extremo, además de otras herramientas más habituales, como la regresión lineal múltiple o el análisis por componentes principales.
INTRODUCCIÓN
Las evidencias del cambio climático actual, entre otras, han provocado una creciente preocupación por la sostenibilidad [1]. Ello ha impulsado la investigación en aspectos de sostenibilidad en el ámbito de la construcción. Así, se han desarrollado indicadores [2] y se han elaborado bases de datos que miden el impacto ambiental de los materiales [3,4], las cuales han servido en algunas investigaciones para reducir las emisiones de CO2 en estructuras [5,6]. Sin embargo, la sostenibilidad requiere considerar aspectos energéticos, medioambientales, sociales y económicos que deben abarcar todo el ciclo de vida de la estructura [7]. Un antecedente fue el Modelo Integrado de Cuantificación de Valor de un Proyecto Constructivo Sostenible: Aplicación a la Edificación Industrial y de Servicios (MIVES) y MIVES II, que abordaron la sostenibilidad mediante el análisis de valor aplicado a diversos ámbitos [8], y que fueron el punto de partida para el Anejo 13 de la actual EHE.
La disponibilidad de ordenadores de elevada potencia de cálculo, junto con el desarrollo de técnicas de análisis inteligente, ha permitido el avance en el diseño de estructuras óptimas [9-11]. Se ha insistido en la necesidad de optimizar estructuras reales, constatándose la escasez de optimización del hormigón estructural frente a las estructuras metálicas. La optimización [12] puede realizarse desde numerosos puntos de vista (geométricos, topológicos, seccionales, etc.). Además de los métodos basados en la programación matemática [13], el problema de optimización puede abordarse mediante técnicas metaheurísticas y bioinspiradas, tales como los algoritmos genéticos, el recocido simulado, las colonias de hormigas o las redes neuronales, entre otras [14,15]. Recientemente, el trabajo desarrollado por nuestro grupo ha reducido el coste de estructuras reales [16-28].
Sin embargo, la optimización ha requerido un intenso trabajo de investigación para extraer conclusiones aplicables a la realidad de las obras. Una forma que tiene el ingeniero para avanzar en el diseño de estructuras óptimas es difundir fórmulas de predimensionamiento [26,28]. Pues bien, para mejorar los diseños de las estructuras, es posible extraer información no trivial de bases de datos de estructuras óptimas mediante la inteligencia artificial.
El descubrimiento de conocimiento en bases de datos (“Knowledge Discovery from Databases”, KDD) constituye un área en la que se realizan muchos esfuerzos, tanto en metodología como en investigación. En este contexto, la minería de datos constituye un conjunto de herramientas empleadas para extraer información no trivial que reside implícitamente en los datos [29]. Mediante este tipo de técnicas se pueden solucionar problemas de predicción, clasificación y segmentación [30]. Algunas de sus herramientas más representativas son las redes neuronales, las máquinas de soporte vectorial, los árboles de decisión, los modelos estadísticos avanzados multivariantes y los diseños de experimentos y el agrupamiento o “clustering”. Estas herramientas construyen modelos abstractos a partir de datos basándose en métodos de aprendizaje automático “machine learning”.
Por otra parte, la investigación sobre hormigones no convencionales constituye una de las líneas de investigación relevantes relacionadas con los nuevos materiales de construcción. Sus propiedades permiten mejorar las prestaciones y la durabilidad, lo cual se relaciona con la sostenibilidad de su uso. Así, el refuerzo con fibras (HRF) reduce la fisuración y mejora la durabilidad al impedir el acceso de agua y de contaminantes [31]. Sin embargo, razones económicas han llevado al empleo de fibras sólo en casos puntuales, cuando existen beneficios adicionales relativos a la mano de obra, la durabilidad o la congestión del refuerzo [32]. El hormigón autocompactante (HAC) ha mejorado significativamente la tecnología del hormigón al conseguir estructuras más duraderas, mejorar la producción y los procesos constructivos, y facilitar el diseño de elementos complejos y los acabados. Ello se consigue mediante dosificaciones que modifican las propiedades mecánicas respecto al hormigón convencional [33]. Todo ello abre horizontes inexplorados, donde una simple optimización económica de las estructuras haría inviable el empleo de muchos hormigones especiales, pero donde una visión más amplia que contemple criterios de sostenibilidad y análisis del ciclo de vida puede cambiar la perspectiva respecto de su empleo.
Hipótesis de partida y objetivos del proyecto
El objetivo fundamental de HORSOST consiste en establecer criterios de diseño eficientes basados en el análisis del ciclo de vida de estructuras de hormigón no convencional, aplicando, para ello, técnicas procedentes de la inteligencia artificial y la minería de datos a amplios conjuntos de estructuras optimizadas heurísticamente bajo objetivos múltiples de sostenibilidad (ahorro energético y de recursos naturales, aspectos ambientales, sociales y económicos).
Hipótesis de partida
a) Es posible mejorar los diseños de las estructuras de hormigón mediante pautas de predimensionamiento solo disponibles para algunos proyectistas de gran experiencia.
b) Existen criterios de diseño que permiten compatibilizar las exigencias derivadas de la sostenibilidad con reducciones de coste, con aumentos en seguridad y constructibilidad. Sin embargo, estos criterios no son triviales.
c) Los hormigones no convencionales presentan propiedades que contribuyen a la sostenibilidad de las estructuras al analizar el ciclo de vida.
d) La inteligencia artificial y la minería de datos permiten aflorar relaciones no triviales cuando existen bases de datos lo suficientemente amplias.
e) La optimización heurística permite elaborar bases masivas de datos de estructuras optimizadas con múltiples objetivos basados en la sostenibilidad (huella ecológica, reducción de CO2, etc.).
Objetivos del proyecto
1. Desarrollar una metodología capaz de extraer información no trivial de bases de datos masivas de estructuras de hormigón no convencionales optimizadas con múltiples objetivos basados en la sostenibilidad.
2. Obtener reglas de predimensionamiento optimizadas para cada tipología estructural. La novedad y la relevancia radican en el uso de herramientas procedentes del “data mining” y del “machine learning”.
3. Comparar las reglas de diseño obtenidas para hormigones convencionales y no convencionales, así como con los criterios obtenidos de la práctica habitual de diseño y de la bibliografía existente.
4. Divulgar el conocimiento adquirido para que los proyectistas puedan utilizar estos criterios de predimensionamiento, de forma que se obtengan mejoras en la sostenibilidad a lo largo del ciclo de vida de las estructuras de hormigón no convencional.
Descripción de la metodología empleada en el proyecto
La metodología empleada consta de una secuencia iterativa de fases (Figura 1):
Integración y recopilación de datos, en la que se determinan las fuentes de información que pueden ser útiles y dónde conseguirlas.
Selección, limpieza y transformación de datos, en las que se eliminan o corrigen los datos incorrectos y se decide la estrategia a seguir para los datos incompletos.
Minería de datos, en la que se decide la tarea a realizar, ya sea la clasificación, la regresión, el agrupamiento o las reglas de asociación.
Evaluación e interpretación, en la que se evalúan los patrones y se analizan por el equipo de investigación, volviéndose a fases anteriores para nuevas iteraciones si fuera necesario.
Difusión, donde se hace uso del nuevo conocimiento adquirido y se hace partícipes de él a todos los posibles usuarios.
Figura 1 Extracción y difusión del conocimiento por contraste de criterios de diseño sostenible
Uno de los aspectos clave es la disponibilidad de datos utilizables, en cantidad y calidad suficientes, para aplicar las técnicas de “data mining”. Se trata de aplicar un procedimiento convergente para la generación de bases de datos (CGD, por sus siglas en inglés). A continuación se describe el fundamento y la forma de proceder de CGD.
Una estructura de hormigón puede representarse mediante una serie de variables y parámetros. Pues bien, la complejidad de un problema aumenta drásticamente con el número variables involucradas [34], efecto denominado como la “maldición de la dimensión” [35]. Para extraer información, como regla práctica [36], se necesita una muestra cuyo tamaño sea, al menos, 10 veces el número de variables independientes, siendo deseable que ese ratio sea mayor a 20. En el caso de un puente pretensado [37], el número de factores que son combinación lineal de las variables originales y que, además, sean independientes entre sí es de 4, por lo que se precisarían en torno a 40-80 casos para poder realizar inferencias lineales, lo cual no contemplaría relaciones cruzadas entre variables (ello implicaría una muestra mayor). Otras técnicas como las redes neuronales o las máquinas de soporte vectorial, que son capaces de inferir modelos no lineales e incluso discontinuos o discretos, requieren un número mayor de individuos. Además, se aconseja la reserva de un grupo de validación, que puede oscilar entre 1/3 y 1/4 de la muestra necesaria, para comprobar que las inferencias presentan una calidad adecuada.
Metaheurísticas empleadas en el desarrollo del proyecto
Desde los primeros años de la década de los 80, la investigación sobre los problemas de optimización se centra en el diseño de métodos aproximados basados en conceptos derivados de la inteligencia artificial, la evolución biológica y la mecánica estadística. En la Figura 2 se recoge una clasificación propuesta por Yepes [39] que debería complementarse con metaheurísticas híbridas que emplean, en mayor o menor medida, estrategias de unos grupos y otros. A continuación se describen algunas técnicas empleadas en HORSOST.
Figura 2 Taxonomía de estrategias empleadas en la resolución aproximada de problemas de optimización combinatoria [39]
Recocido simulado
El recocido simulado “Simulated Annealing” (SA) [40,41] se basa en la analogía entre la energía de un sistema termodinámico y la función de coste de un problema de optimización. Conceptualmente, es un algoritmo de búsqueda por entornos, donde una solución sustituye a la anterior si mejora a la anterior (D<0); en caso contrario, será aceptada con una probabilidad (e(-D/T), donde T es un parámetro denominado temperatura) decreciente con el aumento de D, la diferencia entre los costes de la solución candidata y la actual. La selección aleatoria de soluciones degradadas permite eludir los óptimos locales.
Aceptación por umbrales
La aceptación por umbrales “Threshold Accepting” (TA) [42] emplea un enfoque similar al de SA para eludir los óptimos locales, pero con una toma de decisiones más sencilla. Se autoriza el menoscabo de la calidad de las soluciones, siempre y cuando no se exceda, en cierta magnitud, la aptitud de la solución actual.
Sistema de colonia de hormigas
El sistema de colonia de hormigas “Ant System Optimization” (ACO) [43] se basa en la analogía con el comportamiento de estos insectos al encontrar el camino más corto entre la comida y su hormiguero. Tan pronto como un individuo encuentra una fuente de comida, evalúa su cantidad y calidad y transporta un poco al hormiguero. Durante el regreso, la hormiga deja por el camino feromonas para que las demás hormigas puedan seguirla. Después de un tiempo, el camino hacia el alimento se indicará por un rastro oloroso que crece con el número de hormigas que pasan por él y desaparece en caso contrario. El resultado final es la optimización del trabajo de todo el hormiguero en su búsqueda de comida.
Búsqueda local iterada
La idea de la búsqueda local iterada “Iterated Local Search” (ILS) [44] consiste en rastrear la solución entre los óptimos locales del subespacio definido por ellos. Dado que un algoritmo de búsqueda es capaz de transformar una solución s en otra s* que es un óptimo local, para pasar a otro óptimo local cercano, s’, se aplica una pequeña perturbación. Aplicando el algoritmo de búsqueda a s’ se encuentra otra solución s*’. La metaheurística acepta el paso de s* a s*’ según algún criterio, como el de máximo gradiente (si s*’ es mejor que s*, se acepta) o no (se puede pensar en un mecanismo TA o SA para evitar estancamientos dentro del subespacio de los óptimos locales s*).
Búsqueda en entornos variables
La búsqueda en entornos variables, “Variable Neighborhood Search” (VNS) [45], consiste en cambiar de operador de búsqueda cuando el anterior ha alcanzado un óptimo local. De este modo, VNS oscilará entre dos o más operadores con la esperanza de que los cambios en la estructura del entorno permitan escapar de muchos óptimos locales. Para que este principio funcione bien, los operadores empleados deberán ser lo suficientemente distintos respecto de la estructura del vecindario que generan.
Algoritmos genéticos
Los algoritmos genéticos, “Genetic Algorithms” (GA) [46], simulan el proceso de evolución de las especies que se reproducen sexualmente. Un nuevo individuo se genera a través del cruzamiento, que combina parte del patrimonio genético de cada progenitor para elaborar el del nuevo individuo, y de la mutación, que supone una modificación espontánea de esta información genética. Si los hijos heredan buenos atributos de sus padres, su probabilidad de supervivencia será mayor, reproduciéndose con mayor probabilidad.
Algoritmos meméticos
Los algoritmos meméticos “Memetic Algorithms” (MA) [47] derivan de GA, donde el uso de una población de soluciones se combina con heurísticas de búsqueda local. La idea consiste en recombinar la información de las soluciones provenientes del subespacio de óptimos locales. El éxito de estos métodos puede atribuirse a su equilibrio entre la búsqueda rápida y el mantenimiento de la diversidad, para evitar la convergencia prematura.
Otras técnicas empleadas en el proyecto
Regresión lineal múltiple
Los modelos de regresión lineal múltiple (RLM) se ajustan mediante mínimos cuadrados, de modo que la variable de respuesta esté explicada al máximo posible por las variables independientes. El proceso se inicia intentando explicar la respuesta en función de la variable con la que presenta la mayor correlación. El objetivo es aumentar el coeficiente de regresión agregando variables independientes explicativas, utilizando el método stepwise de pasos sucesivos [48].
Análisis por componentes principales
El análisis de componentes principales (ACP) examina la interdependencia entre variables para reducir su dimensión a un nuevo subconjunto de variables no observables. En síntesis, calcula unos factores que sean una combinación lineal de las variables originales y que, además, sean independientes entre sí. La primera componente principal se elige de modo que explique la mayor parte de la varianza posible, y así sucesivamente. Para facilitar la interpretación, se emplea una rotación ortogonal que minimiza el número de variables con saturaciones altas en cada factor [49].
Redes neuronales artificiales
Las redes neuronales artificiales “ArtificialNeural Networks” (ANN) simulan un sistema de procesamiento de la información altamente complejo, no lineal y en paralelo parecido al cerebro humano. McCulloch y Pitts [50] presentaron el primer modelo de neurona como un dispositivo no lineal multientrada con interconexiones “con peso”. La neurona suma las entradas ya ponderadas, les aplica una función no lineal y transmite una salida. La red puede ser preparada, utilizando ejemplos, para reconocer ciertas estructuras, como puede ser la clasificación de objetos por sus características o la inferencia a partir de los datos de entrada.
Teoría del valor extremo
Si se acepta que el óptimo local encontrado por un algoritmo de búsqueda estocástica puede considerarse una solución extrema de una muestra aleatoria simple formada por las soluciones visitadas, entonces se podría aplicar la teoría del valor extremo “Extreme Value Theory” (EVT) [51,52] para estimar el óptimo global del problema. Para ello se ha comprobado que los óptimos locales encontrados constituyen valores extremos que ajustan a una función Weibull de tres parámetros, siendo el de posición, γ, una estimación del óptimo global.
Tabla 1 Referencias del empleo de técnicas respecto a tipologías estructurales
SA
TA
ACO
ILS
VNS
GA
MA
EVT
ANN
ACP
RLM
Muros
[28]
[6]
[6]
Pórticos de edificación
[5,24]
[24]
Vigas de hormigón armado
[27]
[27]
[27]
Vigas pretensadas
[23]
Bóvedas de paso inferior
[16]
[16]
[17]
[17]
Marcos de paso inferior
[25]
[25,26]
Pilas de puente
[21]
[20,22]
[20]
Puentes de vigas artesa
[18]
[19]
Puentes losa postesados
[37]
[37]
Conclusiones
Como conclusiones generales del planteamiento del proyecto HORSOST se pueden citar las siguientes:
1) Existe una importante área de mejora en los diseños de estructuras de hormigón no convencional de forma que se obtenga un importante beneficio social si estos diseños maximizan la sostenibilidad en la construcción de estas estructuras considerando todo el ciclo de vida del producto.
2) Es posible emplear técnicas procedentes del descubrimiento de conocimiento en bases de datos (KDD) para extraer información no trivial de bases de datos de estructuras de hormigón generadas mediante optimización heurística multiobjetivo orientada a la sostenibilidad.
3) Los hormigones no convencionales presentan prestaciones que favorecen su durabilidad y, por ello, pueden contribuir a la sostenibilidad si se consideran aspectos medioambientales, sociales y económicos a lo largo de toda su vida útil. Por tanto, deben analizarse en detalle para comprobar su validez frente a los hormigones convencionales y ofrecer criterios de diseño aplicables para los proyectistas.
Agradecimientos
Los autores agradecen el aporte financiero realizado para este trabajo por el Ministerio de Ciencia e Innovación (Proyecto de Investigación BIA2011-23602) y por la Universitat Politècnica de València (Proyecto de Investigación PAID-06-12).
Referencias
[1] Baldasano, J.M. (2007). Evidencias del actual cambio climático, en Cambio climático y sus consecuencias. Generalitat Valenciana, pp. 43-56.
[2] Rodríguez, F.; Fernández, G. (2010). Ingeniería sostenible: nuevos objetivos en los proyectos de construcción. Revista Ingeniería de Construcción, 25(2), 147-160. [doi:10.4067/S0718-50732010000200001]
[3] Goedkoop, M.; Spriensma, R. (2001). The Ecoindicator 99: A damage oriented method for life cycle impact assessment. Methodology Report. Product Ecology Consultants, Amersfoort, Netherlands.
[4] Institut de Tecnologia de la Construcció de Catalunya (2009). BEDEC PR/PCT ITEC materials database. Available online at:http://www.itec.es/nouBedec.e/presentaciobedec.aspx
[5] Payá-Zaforteza I.; Yepes, V.; Hospitaler, A.; González-Vidosa, F. (2009). CO2-Efficient Design of Reinforced Concrete Building Frames. Engineering Structures, 31, 1501-1508. [doi.org/10.1016/j.engstruct.2009.02.034]
[6] Yepes, V.; González-Vidosa, F.; Alcalá, J.; Villalba, P. (2012). CO2-Optimization Design of Reinforced Concrete Retaining Walls based on a VNS-Threshold Acceptance Strategy. Journal of Computing in Civil Engineering ASCE, 26 (3), 378-386. [doi:10.1061/(ASCE)CP.1943-5487.0000140]
[7] Burón, M. (2007). La sostenibilidad de las construcciones de hormigón. Revista Técnica Cemento Hormigón, 897, 58-65.
[8] Aguado, A.; Alarcón, D.B.; Manga, R. (2008). Razón de ser del anejo ICES de la EHA y características del mismo. Revista Técnica Cemento Hormigón, 913, 16-23.
[9] Sriram, R.D. (2006). Artificial intelligence in engineering: personal reflections. Advanced Engineering Informatics, 20, 3-5. [doi:10.1016/j.aei.2005.12.002]
[10] Sarma, K.C.; Adeli, H. (1998). Cost optimization of concrete structures. ASCE Journal of Structural Engineering, 124(5), 570-578. [doi:10.1061/(ASCE)0733-9445(1998)124:5(570)]
[11] Cohn, M.Z.; Dinovitzer, A.S. (1994). Application of structural optimization. ASCE Journal of Structural Engineering, 120(2), 617-649. [doi:10.1061/(ASCE)0733-9445(1994)120:2(617)]
[12] Martínez, P.; Martí, P.; Querín, O.M. (2007). Growth method for size, topology, and geometry optimization of truss structures. Structural and Multidisciplinary Optimization, 33, 13-26. [doi:10.1007/s00158-006-0043-9]
[13] Hernández, S.; Fontan, A. (2002). Practical Applications of Design Optimization. WIT Press, Southampton.
[14] Adeli, H.; Sarma, K.C. (2006). “Cost optimization of structures. Fuzzy logic, genetic algorithms and parallel computing”, Wiley, Chichester.
[15] Dreo, J.; Petrowsky, A.; Siarry, P.; Taillard, E. (2006). Metaheuristics for hard optimization. Methods and case studies. Springer, Berlin Heidelberg.
[16] Carbonell, A.; González-Vidosa, F.; Yepes, V. (2011). Heuristic optimization of reinforced concrete road vault underpasses. Advances in Engineering Software, 42(4), 151-159. [doi:10.1016/j.advengsoft.2011.01.002]
[17] Carbonell, A.; Yepes, V.; González-Vidosa, F. (2012). Automatic design of concrete vaults using iterated local search and extreme value estimation. Latin American Journal of Solids and Structures, 9(6), 675-689.
[18] Martí, J.V.; González-Vidosa, F.; Yepes, V.; Alcalá, J. (2013). Design of prestressed concrete precast road bridges with hybrid simulated annealing. Engineering Structures, 48, 342-352. [doi:10.1016/j.engstruct.2012.09.014]
[19] Martí, J.V.; Yepes, V.; González-Vidosa, F.; Luz, A. (2013). Diseño automático de tableros óptimos de puentes de carretera de vigas artesa prefabricadas mediante algoritmos meméticos híbridos. Revista Internacional de Métodos Numéricos para Cálculo y Diseño en Ingeniería, (en prensa).
[20] Martínez-Martín, F.; González-Vidosa, F.; Hospitaler, A.; Yepes, V. (2010). Heuristic Optimization of RC Bridge Piers with Rectangular Hollow Sections. Computers & Structures, 88(5-6), 375-386. [doi:10.1016/j.compstruc.2009.11.009]
[21] Martínez-Martín, F.; González-Vidosa, F.; Hospitaler, A.; Yepes, V. (2012). Multi-objective optimization design of bridge piers with hybrid heuristic algorithms. Journal of Zhejiang University-SCIENCE A (Applied Physics & Engineering, 13(6), 420-432. [doi:10.1631/jzus.A1100304]
[22] Martínez-Martín, F.; González-Vidosa, F.; Hospitaler, A.; Yepes, V. (2013). A parametric study of optimum tall piers for railway bridge viaducts. Structural Engineering and Mechanics, 45(6), 723-740.
[23] Martí-Vargas, J.R.; Ferri, F.J.; Yepes, V. (2013). Prediction of the transfer length of prestressing strands with neural networks. Computers and Concrete, (in press).
[24] Payá-Zaforteza, I.; Yepes, V.; González-Vidosa, F.; Hospitaler, A. (2010). On the Weibull cost estimation of building frames designed by simulated annealing. Meccanica, 45(5), 693-704. [doi:10.1007/s11012-010-9285-0]
[25] Perea, C.; Alcalá, J.; Yepes, V.; González-Vidosa, F.; Hospitaler, A. (2008). Design of Reinforced Concrete Bridge Frames by Heuristic Optimization. Advances in Engineering Software, 39(8), 676-688. [doi:10.1016/j.advengsoft.2007.07.007]
[26] Perea, C.; Yepes, V.; Alcalá, J.; Hospitaler, A.; González-Vidosa, F. (2010). A parametric study of optimum road frame bridges by threshold acceptance. Indian Journal of Engineering & Materials Sciences, 17(6), 427-437.
[27] Torres-Machí, C.; Yepes, V.; Alcalá, J.; Pellicer, E. (2013). Optimization of high-performance concrete structures by variable neighborhood search. International Journal of Civil Engineering, Transaction A: Civil Engineering, 11(2), 90-99.
[28] Yepes, V.; Alcalá, J.; Perea, C.; González-Vidosa, F. (2008). A Parametric Study of Optimum Earth Retaining Walls by Simulated Annealing. Engineering Structures, 30(3), 821-830. [doi:10.1016/j.engstruct.2007.05.023]
[29] Fayyad, U.M. (1996). Data Mining and Knowlegde Discovery: Making Sense Out of Data. IEEE Expert, 11(5), 20-25. [doi:10.1109/64.539013]
[30] Hernández, J.; Ramírez, M.J.; Ferri, C. (2004). Introducción a la minería de datos. Pearson, Madrid.
[31] Rossi, P.; Chanvillard, G. (eds.) (2000). “Fibre-Reinforced Concretes (FRC)”. Proceedings of the 5th International RILEM Symposium (BEFIB 2000). RILEM Publications S.A.R.L., Cachan, France.
[32] Massicitte, B. (2000). Fiber Reinforce Concrete: a Structural Perspective, RILEM Proceedings 15, BEFIB 2000.
[33] Martí-Vargas, J.R.; Serna-Ros, P.; Arbeláez, C.A.; Rigueira-Víctor, J.W. (2006). Comportamiento adherente del hormigón autocompactante en transmisión y anclaje. Materiales de Construcción, 56(284), 27-42.
[34] Pettis, K.W.; Bailey, T.A.; Jain, A.K.; Dubes, R.C. (1979). An intrinsic dimensionality estimator from near-neighbor information. IEEE Transactions on pattern analysis and machine intelligence, 1, 25-37. [doi:10.1109/TPAMI.1979.4766873]
[35] Bellman, R.E. (1961). Adaptive Control Processes. Princeton University Press, Princeton, N.J.
[36] Fukunaga, M. (1990). Introduction to Statistical Pattern Recognition. 2nd Edition. Academic Press, San Diego, USA.
[37] Yepes, V.; Díaz, J.; González-Vidosa, F.; Alcalá, J. (2009). Caracterización estadística de tableros pretensados para carreteras. Revista de la Construcción, 8(2), 95-109.
[38] Ferri, J.; Diaz-Chito, K.; Diaz-Villanueva, W. (2010). Efficient dimensionality reduction on undersampled problems through incremental discriminative common vectors, ICDM’10 (OEDM Workshop), pp. 1159-1166.
[39] Yepes, V. (2002). Optimización heurística económica de redes de transporte del tipo VRPTW. Tesis doctoral, Universitat Politècnica de València.
[41] Cerny, V. (1985). Thermodynamical approach to the traveling salesman problem: An efficient simulation algorithm. Optimization Theory and Applications, 45, 41-51. [doi:10.1007/BF00940812]
[42] Dueck G, Scheuer T. (1990). Threshold accepting: a general purpose optimization algorithm superior to simulated annealing. Journal of Computational Physics, 90(1), 161–75. [doi:10.1016/0021-9991(90)90201-B]
[43] Dorigo, M.; Maniezzo, V.; Colorni, A. (1996). The ant system: optimization by a colony of cooperating agents. IEEE Transactions on Systems, Man, and Cybernetics-Part B, 26(1), 29-41. [doi:10.1109/3477.484436]
[44] Lourenço, H.R.; Martin, O.C.; Stülze, T. (2003). Iterated local search. In F.W. Glover and G.A. Kochenberger, edi-tors, Handbook of metaheuristics, pages 321-353, Boston, Dordrecht, London. Kluwer Academic Publishers.
[45] Mladenovic, N.; Hansen, P. (1997). Variable neighborhood search. Computers and Operations Research, 24(11), 1097-1100. [doi:10.1016/S0305-0548(97)00031-2]
[46] Holland, J.H. (1975). Adaptation in natural and artificial systems. University of Michigan Press, Ann Arbor.
[47] Moscato, P. On evolution, search, optimization, genetic algorithms and martial arts: Towards memetic algorithms. Technical Report Caltech Concurrent Computation Program Report 826, Caltech, Pasadena, California, USA.
[48] Hocking, R. (1976). The Analysis and Selection of Variables in Linear Regression. Biometrics, 32, 1-49.
[49] Kaiser H.F. (1958). The Varimax criterion for analytic rotation in factor analysis. Psychometrika, 23(3), 187-200. [doi:10.1007/BF02289233]
[50] McCulloch, W.; Pitts, W. (1943). A logical calculus of ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5, 115-133. [doi:10.1016/S0092-8240(05)80006-0]
[51] McRoberts, K. (1971). A search model for evaluating combinatorially explosive problems. Operations Research, 19(6), 1331-1349. [doi:10.1287/opre.19.6.1331]
[52] Golden, B.L.; Alt, F.B. (1979). Interval estimation of a global optimum for large combinatorial problems. Naval Research Logistics Quarterly, 26(1), 69-77. [doi: 10.1002/nav.3800260108]