Cuando nos enfrentamos a problemas de causalidad complejos y difíciles de articular o comprender, un enfoque habitual para su estudio es la aplicación de un modelo. El modelo DEMATEL (Decision Making Trial and Evaluation Laboratory) fue creado en el Instituto Battelle de Ginebra en 1971.
Se trata de un modelo especialmente útil para analizar las relaciones de causa y efecto entre los componentes de un sistema. Esta propuesta permite confirmar la interdependencia entre factores y ayudar a elaborar un mapa que refleje las relaciones relativas entre ellos, y puede utilizarse para investigar y resolver problemas complicados y entrelazados. Este método no solo convierte las relaciones de interdependencia en un grupo de causa y efecto mediante matrices, sino que también encuentra los factores críticos de un sistema de estructura compleja con la ayuda de un diagrama de relaciones de impacto.
DEMATEL, al igual que ANP (Analytic Network Process), se basa en las percepciones de los individuos (una persona o un grupo de personas). En todos los casos encontrados en la literatura, DEMATEL y ANP se utilizan para crear una supermatriz ponderada, que se potencia hasta el límite para obtener las prioridades de los factores/alternativas de decisión relevantes. Lo interesante es que DEMATEL presenta grandes ventajas al usarlo con ANP, pues identifica realimentaciones e interdependencias en la red y simplifica en gran manera el cálculo en red al sustituir las matrices de comparación pareada por una escala de cero a tres que permite plantear de inicio una matriz de relación directa. Ninguna influencia se puntúa como 0, 1 es la valoración para una influencia leve, 2 para una influencia fuerte y 3 para una influencia muy fuerte. No obstante, hay autores que proponen una escala de 0 a 4.
Los pasos necesarios para aplicar DEMATEL son los siguientes:
Construcción de la matriz de influencia directa
Normalización de la matriz de influencia directa
Encontrar la matriz de relación total
Producción de un diagrama causal
Obtención de la matriz de dependencia interna y el mapa de relación de impacto
En los siguientes vídeos del profesor Aznar se explican en detalle la mecánica de cálculo. Espero que os sean de interés. Para aquellos interesados, los vídeos forman parte de un pequeño curso gratuito MOOC al que podéis acceder en este enlace:
BERNAL, S.; NIÑO, D.A. (2018). Modelo multicriterio aplicado a la toma de decisiones representables en diagramas de Ishikawa. Universidad Distrital Francisco José de Caldas, Bogotá D.C., 137 pp.
FONTELA, E.; GABUS, A. (1974). DEMATEL, innovative methods, technical report no. 2, structural analysis of the world problematique. Battelle Geneva Research Institute, NY.
SAATY, T.L., VARGAS, L. G. (2013). Decision making with the analytic network process: economic, political, social and technological applications with benefits, opportunities, costs and risks (Vol. 195). Springer Science & Business Media
En un artículo anterior vimos que una de las limitaciones más importantes del método método AHP (Analytic Hierarchy Process) es que, de forma habitual, existen relaciones de interdependencia y realimentación entre los distintos criterios, subcriterios o alternativas. Para solucionar este inconveniente, en el año 1996 Saaty presentó el modelo ANP (Analytic Network Process) como una generalización de AHP. Se trata de un método discreto de análisis de decisiones multicriterio que permite capturar las relaciones de interdependencia y de realimentación entre elementos del sistema (criterios y alternativas), según se puede ver en la Figura 1.
Figura 1. Agrupación de elementos por característica común (mínimo un componente de criterios y uno de alternativas). Elaboración propia, basada en Aznar (2020)
Lo primero que llama la atención, por tanto, es que se pasa de una representación jerárquica, típica de AHP, a una representación mediante una red. La red la forman nodos o clústeres, comprendiendo cada uno de ellos una serie de elementos que pueden ser criterios o alternativas. Se denomina realimentación a la relación que existe entre los elementos de un mismo clúster y se denomina interdependencia a la relación que existe entre elementos de distintos clústeres. (Aznar y Guijarro, 2012).
Una de las bondades de ANP es que no se hacen suposiciones sobre la independencia de los elementos de un nivel superior respecto a los de uno inferior y sobre la independencias entre los elementos de un mismo nivel. Ello permite una estructura no lineal, con fuentes, ciclos y sumideros, y que prioriza no solo elementos, sino grupos o grupos de elementos, lo cual está en consonancia con la complejidad del mundo real.
Vamos a poner un ejemplo sencillo para ver las diferencias entre el AHP y ANP. Supongamos que estamos evaluando las características de tres candidatos a un puesto directivo. AHP preguntaría cuánto más importante es en liderazgo el candidato A respecto al candidato B, siendo el liderazgo uno de los criterios, que podría incluir otros como hablar idiomas o capacidad de aprendizaje. Pues bien, ANP haría, adicionalmente, la pregunta inversa, ¿cuánto más importante sería el liderazgo respecto a la capacidad de aprendizaje en el candidato A?
En la Figura 2 se puede ver una matriz con todos los elementos de ANP. Como puede observarse, hay relaciones entre todos los elementos y componentes entre sí.
Figura 2. Tabla con los elementos de ANP
El ANP se puede decir que consta de dos etapas fundamentales: la primera es la estructuración del problema (construcción de la red) y la segunda es el cálculo de las prioridades de los elementos. No obstante, de forma más detallada, los pasos para aplicar ANP son los que a continuación se enumerar. Dejamos los vídeos del profesor Aznar para una explicación pormenorizada de cada uno de estos pasos.
Identificación de los elementos de la red. Alternativas, criterios y construcción de la red.
Análisis de la red de influencias entre los elementos del sistema (criterios y alternativas). Matriz de dominación interfactorial.
Cálculo de las prioridades entre elementos. Supermatriz original (unweighted).
Cálculo de las prioridades entre clústeres. Supermatriz ponderada (weighted).
Cálculo de la supermatriz límite
No obstante, como cualquier otro método, ANP también presenta algunas limitaciones (Zhou et al., 2010):
Con un número elevado de relaciones y criterios, se complican los cálculos, aunque existen también otras metodologías de la toma de decisión que pueden ayudar en este punto
Hay que facilitar al decisor el uso de la metodología para que le resulte más fácil
Cuantas más relaciones entre elementos, más preguntas hay que hacer para definir las influencias entre todos los componentes y elementos de las matrices.
Veamos a continuación, en los vídeos del profesor Aznar, una explicación más en detalle del método y un ejemplo de aplicación. Espero que os sean de interés estos vídeos. Para aquellos interesados, los vídeos forman parte de un pequeño curso gratuito MOOC al que podéis acceder en este enlace:
AZNAR, J.; GUIJARRO, F. (2012). Nuevos métodos de valoración: modelos multicriterio. Editorial Universitat Politècnica de València.
BERNAL, S.; NIÑO, D.A. (2018). Modelo multicriterio aplicado a la toma de decisiones representables en diagramas de Ishikawa. Universidad Distrital Francisco José de Caldas, Bogotá D.C., 137 pp.
SAATY, T.L., VARGAS, L. G. (2013). Decision making with the analytic network process: economic, political, social and technological applications with benefits, opportunities, costs and risks (Vol. 195). Springer Science & Business Media
ZHU, Q., DOU, Y., SARKIS, J. (2010). A portfolio-based analysis for green supplier management using the analytical network process.Supply Chain Management: An International Journal, 15(4), 306-319. https://doi.org/10.1108/13598541011054670
Cuando el profesor Thomas Saaty dió a conocer el método AHP (Analytic Hierarchy Process) en la década de los 80, ya se dio cuenta de que este procedimiento presentaba algunas limitaciones que debía solucionar más adelante. En el año 1996 presentó el modelo ANP (Analytic Network Process) como una generalización de AHP. Este modelo permitió incluir relaciones de interdependencia y realimentación entre los elementos del sistema (criterios y alternativas).
En este artículo, nos centraremos en algunas limitaciones del AHP que conviene tener en cuenta a la hora de tomar decisiones. Este aspecto no es menor, ya que existen modelos basados en AHP que pueden verse afectados por alguna de estas limitaciones.
No obstante, no todo son inconvenientes, ni mucho menos. El profesor José María Moreno ya nos advierte, tal y como se desprende del artículo que os dejo al final de esta entrada, que hasta la fecha no se ha podido probar la supremacía de ningún método o escuela de pensamiento en lo referente al paradigma de la toma de decisiones multicriterio. De hecho, el método AHP ha basado su éxito en trasladar las percepciones humanas a valores numéricos evaluados en una escala de prioridades que permiten sintetizar lo tangible y lo intangible, lo objetivo y lo subjetivo, e incluso lo racional y lo emocional. Además, constituye un procedimiento fácil de utilizar, aplicable a numerosas situaciones reales donde se trata de elegir una alternativa, y donde se puede agregar la decisión individual y la de grupo. Y no menos importante, el AHP es una de las pocas técnicas multicriterio que ofrece una axiomática teórica. Pero veamos ahora en algunos de los inconvenientes de AHP que habrá que valorar siempre que usemos este método o algún otro basado en él.
El principal problema del AHP es que, por lo general, existen relaciones de interdependencia y realimentación entre los distintos criterios, subcriterios y alternativas (figura 2). El AHP es unidireccional, con relaciones de abajo hacia arriba entre los distintos elementos, lo que puede suponer una simplificación excesiva de la realidad. La condición de independencia y jerarquía subyacente en AHP es necesaria para que quien toma las decisiones pueda disponer de una función de valor aditiva. De hecho, AHP se basa en los axiomas de reciprocidad, homogeneidad y síntesis. Sin embargo, este último axioma, que implica que los juicios sobre las prioridades de los elementos en una jerarquía no dependen de los del nivel inferior, puede rebatirse cuando existe una dependencia entre la importancia de un objetivo y el nivel inferior.
Veamos un ejemplo concreto. Si se está analizando la sostenibilidad económica, ambiental y social de una estructura de hormigón, por ejemplo, uno de los subcriterios económicos podría ser el coste de la estructura y otro subcriterio ambiental, el consumo de recursos como la cantidad de hormigón o de acero utilizada. Es evidente que el coste depende de la cantidad de recursos consumidos. Este es un ejemplo muy sencillo, pero en el mundo real las interdependencias pueden ser sutiles o difíciles de ver a priori. No es fácil encontrar, en situaciones normales, criterios y subcriterios que sean independientes entre sí.
Figura 2. Relación entre elementos en ANP en la estructura jerárquica AHP (adaptado de Aznar, 2012)
Una de las objeciones al método es que, si la jerarquía AHP es incompleta, pueden distorsionarse los pesos. Otro problema adicional está relacionado con el número de criterios en cada nivel y con su ponderación relativa. Supongamos que hay dos criterios en el primer nivel y que uno tiene un peso del 75 % y el otro del 25 %. Esta ponderación condiciona de forma drástica las ponderaciones de todas las variables que dependen de ella. De esta manera, prácticamente se anula el interés de los subcriterios que dependen jerárquicamente del menos ponderado en el primer nivel. El profesor Aznar (2012) ilustra con ejemplos concretos cómo el uso de ANP frente a AHP provoca cambios significativos en la valoración final de cada una de las alternativas.
También hay que señalar que la escala de nueve puntos de Saaty (en la que los valores siempre están entre el 1 y el 9) es arbitraria a la hora de medir las preferencias de los responsables de la toma de decisiones. Esta escala puede plantear el siguiente problema, por ejemplo: si una alternativa A es cinco veces más importante que la alternativa B y esta, a su vez, es cinco veces más importante que la alternativa C, se produce un problema serio, ya que el método AHP no puede manejar el hecho de que la alternativa A es veinticinco veces más importante que la alternativa C. Esta deficiencia se observa en la Figura 3, donde se puede ver que la alternativa círculo rojo es mejor que el resto según la escala de Saaty: 5 para el triángulo, 7 para el rombo y 9 para el cuadrado. Si comparamos el triángulo verde con el resto, la valoración debería ser: 3 para el rombo y 5 para el cuadrado. Del mismo modo, el rombo presenta una valoración de 3 respecto al cuadrado. Con esta matriz pareada, el índice de consistencia es válido. Sin embargo, si se reajustan las valoraciones dividiendo por dos las comparaciones del triángulo, el rombo y el cuadrado, el índice de consistencia baja significativamente. En ese caso, los autovectores han cambiado, aunque se mantienen las prioridades.
Figura 3. Ratio de consistencia en función de las comparaciones pareadas. Elaboración propia
Pero los inconvenientes no terminan aquí. Como contrapartida a su simplicidad, el AHP no tiene en cuenta la incertidumbre asociada a la representación de la opinión en forma de número. Además, si se añade otra alternativa durante el proceso, las clasificaciones de las alternativas originales pueden cambiar, lo que rígidiza el método. Por otra parte, si se incrementa el número de alternativas o de criterios, se puede llegar a la inconsistencia de la matriz de comparaciones parejas. Además, el método es muy laborioso si se incrementa el número de alternativas o criterios.
Un inconveniente adicional del AHP es la normalización de las matrices de preferencias, que consiste en transformar las valoraciones planteadas en utilidades definidas en la escala (0, 1) mediante la obtención del vector propio de las mismas. Esto solo es estrictamente válido si los juicios reflejados en la matriz son completamente consistentes. En caso contrario, puede resultar complicada su interpretación.
Sin embargo, los problemas con AHP se agudizan cuando aparece una situación de conflicto en la que existen intereses contrapuestos entre los decisores y, además, las decisiones de cada uno dependen de las que tomen los demás para alcanzar sus propios objetivos. En este caso, la teoría de juegos o juegos de estrategia sería la forma más razonable de abordar el problema.
En resumen, estas reflexiones se deben a que, en muchas ocasiones, utilizamos métodos e incluso recogemos alguna normativa legal con la intención de dar cuerpo de ley a un conjunto de criterios para evaluar algún aspecto de especial interés. Es el caso del método AHP, empleado, por ejemplo, como parte de otros métodos como MIVES, que han dado lugar a un índice de contribución de la estructura a la sostenibilidad (anexo 2 del Código Estructural). En cualquier caso, para tranquilidad de muchos, la teoría AHP, si bien presenta ciertos problemas como los expuestos, parece conservar su condición de ser el método de toma de decisiones multicriterio más conocido y empleado.
También os dejo, por su interés, el artículo de José Luis Zanazzi sobre las críticas recibidas por AHP y su análisis.
Pero no todo van a ser noticias negativas en relación con el AHP. Os dejo, a continuación, el artículo del profesor José María Moreno donde explica el método AHP.
Figura 1. Toma de decisiones en grupo. https://conectia-psicologia.es/
Cuando se utiliza un modelo de toma de decisiones multicriterio tal y como el AHP (Proceso Analítico Jerárquico), una de las dudas que surgen es saber cómo agregar los juicios de todos los expertos de una forma razonable. Una solución sería la de buscar un consenso de grupo mediante un proceso interactivo con varias rondas de negociación entre los expertos. En este caso, un moderador que no participa en la discusión, sugiere a los responsables de la toma de decisiones que actualicen sus juicios. Sin embargo, a veces es difícil llegar a un acuerdo consensuado (Dong y Saaty, 2014).
En el caso de tener un grupo de expertos homogéneos (coincidencias en formación, trabajo profesional, finalidad de su trabajo, etc.), vamos a basarnos en la media geométrica para agregar los juicios. A pesar de que esta media es menos intuitiva que la aritmética, es una medida menos sensible a los valores extremos que la media de una muestra estadística. Además, la media geométrica es adecuada para calcular variables en porcentaje o índices. Los juicios de las comparaciones pareadas en AHP son ratios, sus valores siempre son positivos, mayores que cero, y algo no menos importante, la media geométrica cumple con satisfacción la propiedad recíproca de las matrices de comparación.
Un ejemplo muy sencillo permite comprobar la reciprocidad con la media geométrica, frente a la media aritmética. Supongamos que con la media aritmética la media de dos juicios con valores de 7 y 9 resultaría en 8, cuyo valor reciproco es 1/8, pero en el otro lado de la matriz obtendríamos un valor de (1/7 + 1/9)/2 = 8/63 lo que difiere del valor esperado de 1/8 para mantener la matriz recíproca. Dejamos al lector la comprobación de que con la media geométrica se mantiene la reciprocidad.
Existen dos formas de agregar los juicios individuales de un grupo de expertos homogéneos:
a) Agregación de prioridades individuales, que transforma vectores de prioridad individuales en un vector de prioridad del grupo (Figura 2).
Figura 2. Agregación de prioridades individuales (Bernal y Niño, 2014)
b) Agregación de juicios individuales, que transforma las matrices comparación por pares individuales en una grupal (Figura 3). En este caso, si las matrices individuales tienen una consistencia aceptable, la grupal también suele serlo (Dong y Saaty, 2014).
Figura 3. Agregación de juicios individuales (Bernal y Niño, 2014)
En ambos casos, hay que tener en cuenta que el vector propio resultante del grupo se debe normalizar.
Otro problema sería el de grupos heterogéneos de expertos, que pueden llegar a producir resultados bastante divergentes. En este caso, se suele resolver el problema mediante la Programación por metas extendida (Linares y Romero, 2002). Aunque también es posible acudir a otro tipo de métodos, como la lógica neutrosófica (Navarro et al., 2020; 2021).
A continuación ponemos un ejemplo de tres expertos homogéneos. En primer lugar vamos a agregar los juicios individuales de tres expertos (Figura 4) y, como método alternativo, agregaremos los vectores propios de cada experto (Figura 5), llegando, en este caso, a un vector propio normalizado que coincide en ambos casos.
Figura 4. Agregación de juicios individuales de tres expertos homogéneos
Figura 5. Agregación de prioridades individuales de tres expertos homogéneos
Referencias:
AZNAR, J.; GUIJARRO, F. (2012). Nuevos métodos de valoración: modelos multicriterio. Editorial Universitat Politècnica de València.
BERNAL, S.; NIÑO, D.A. (2018). Modelo multicriterio aplicado a la toma de decisiones representables en diagramas de Ishikawa. Universidad Distrital Francisco José de Caldas, Bogotá D.C., 137 pp.
DONG, Q.; SAATY, T. L. (2014). An analytic hierarchy process model of group consensus.Journal of Systems Science and Systems Engineering, 23(3), 362–374. https://doi.org/10.1007/s11518-014-5247-8
LINARES, P., ROMERO, C. (2002). Aggregation of preferences in an environmental economics context: A goal-programming approach.Omega, 30(2), 89–95. https://doi.org/10.1016/S0305-0483(01)00059-7
NAVARRO, I.J.; YEPES, V.; MARTÍ, J.V. (2020). Sustainability assessment of concrete bridge deck designs in coastal environments using neutrosophic criteria weights.Structure and Infrastructure Engineering, 16(7): 949-967. DOI:10.1080/15732479.2019.1676791
El Grupo DIH, (Grupo para la Difusión del Índice h) publica la clasificación de investigadores científicos residentes en España basados en el índice h. El ranking, que se elabora a partir de la base de datos sobre publicaciones científicas ISI Web of Knowledge, establece una clasificación específica para cada una de las disciplinas enmarcadas dentro de las diez áreas de conocimiento consideradas: agricultura, biología, ciencias de los materiales, ciencias de la salud, ciencias de la tierra, física, informática, ingeniería, matemáticas y química.
Según la metodología seguida, Fh es la relación entre el índice h del investigador y el valor medio de los h de los otros autores presentes en el ranking de su área. Si el autor aparece en varias áreas, Fhm es la media de estos valores.
A pesar de que pueden existir algunas críticas a la evaluación mediante el índice h, lo cierto es que permite una evaluación objetiva de la carrera investigadora, aunque no es tan buen indicador para el caso de investigadores jóvenes. De este tema ya hablé en un artículo anterior, por si os interesa ampliar detalles.
En el caso del área de ingeniería civil, la tabla actualizada a diciembre de 2021 es la que aparece a continuación. Tengo el honor de ocupar la tercera posición, compartida con Raúl Medina, teniendo por delante a dos verdaderos hitos en nuestro país como son Íñigo Losada y Enrique Castillo. No obstante, hay más ingenieros de caminos que están en los primeros puestos en la investigación de nuestro país, pero en otras áreas de investigación. Por ejemplo, Eugenio Oñate, del CIMNE, es el primer situado en el área de aplicaciones interdisciplinarias de matemáticas; Jaime Gómez, de nuestra universidad, está en los primeros puestos en el área de recursos hídricos; Antonio Aguado, de la UPC, está destacado en el área de tecnología de la construcción; o Alfredo García, también de nuestra universidad, en ciencia y tecnología del transporte. Pero seguro que me dejo a más ingenieros de caminos investigadores en la lista. Os recomiendo recorrerla y conocerlos a todos ellos.
Os dejo a continuación la grabación de la Conferencia Magistral que tuve la ocasión de presentar en el Congreso Nacional de Ingeniería Civil 2021. Dicho evento tuvo lugar en la modalidad virtual del 28 de junio al 02 de julio del 2021. El Congreso Nacional de Ingeniería Civil es el evento que reúne a profesionales, docentes, investigadores y empresarios del sector de la construcción en una jornada de capacitación acerca de las últimas innovaciones producto de las actividades de investigación en el sector de la construcción. Agradezco, una vez más, al Consejo Departamental de ICA del Colegio de Ingenieros del Perú – Capítulo de Ingeniería Civil, la deferencia que tuvo conmigo al invitarme a participar en su Congreso.
En este trabajo se estudia el potencial del metamodelado de kriging para optimizar el diseño estructural con múltiples objetivos mediante el uso de software de análisis de elementos finitos y normas de diseño. Se propone un método que incluye la sostenibilidad y la constructibilidad, y se aplica a un caso de cimentaciones de hormigón armado para aerogeneradores de un gran proyecto de parque eólico sueco. Se realizan análisis de sensibilidad para investigar la influencia del factor de penalización aplicado a las soluciones no viables y el tamaño de la muestra inicial generada por el muestreo de hipercubos latinos. A continuación, se realiza una optimización multiobjetivo para obtener soluciones óptimas para diferentes combinaciones de pesos para los cuatro objetivos considerados. Los resultados indican que los diseños obtenidos mediante kriging a partir de muestras de 20 superan a los mejores diseños de las muestras de 1000. Las soluciones óptimas obtenidas por el método propuesto tienen un impacto de sostenibilidad entre un 8 y un 15% menor que los desarrollados por métodos tradicionales.
El trabajo se enmarca dentro del proyecto de investigación HYDELIFE que dirijo como investigador principal en la Universitat Politècnica de València.
In this work, we study the potential of using kriging metamodelling to perform multi-objective structural design optimization using finite element analysis software and design standards while keeping the computational efforts low. A method is proposed, which includes sustainability and buildability objectives, and it is applied to a case study of reinforced concrete foundations for wind turbines based on data from a large Swedish wind farm project. Sensitivity analyses are conducted to investigate the influence of the penalty factor applied to unfeasible solutions and the size of the initial sample generated by Latin hypercube sampling. Multi-objective optimization is then performed to obtain the optimum designs for different weight combinations for the four objectives considered. Results show that the kriging-obtained designs from samples of 20 designs outperform the best designs in the samples of 1000 designs. The optimum designs obtained by the proposed method have a sustainability impact 8–15% lower than the designs developed by traditional methods.
La aparición del Código Estructural, aprobado por el Real Decreto 470/2021, de 29 de junio, supone ciertas novedades en el ámbito de la construcción de nuestro país. Independientemente de la pertinencia de esta nueva norma en un momento donde deberíamos converger rápidamente hacia los Eurocódigos, lo cierto es que permite integrar en un solo documento los aspectos relacionados con el hormigón estructural, el acero y las estructuras mixtas. En este nuevo contexto, vamos a revisar de forma somera cómo se trata la calidad de las estructuras. Para ello tengamos en cuenta que el Código Estructural presenta cuatro títulos: Bases generales, Estructuras de hormigón, Estructuras de Acero y Estructuras mixtas; además de 32 Anejos, un total de 1789 páginas del Boletín Oficial del Estado.
La palabra «calidad» aparece en el nuevo código un total de 458 veces, frente a las 213 apariciones que tuvo en la anterior Instrucción de Hormigón Estructural (EHE-08). Este aumento se debe a la inclusión de las estructuras de acero y mixtas en el nuevo código. No obstante, conviene recordar que el concepto de calidad no se circunscribe exclusivamente a lo que se entiende como «control de calidad», ya sea de recepción o de proceso, sino que va más allá, incluyendo aspectos relacionados con el aseguramiento de la calidad de las organizaciones. Con todo, si entendemos como calidad el enfoque técnico de Crosby como el cumplimiento de las especificaciones de un producto o servicio, entonces todo el Código sería objeto del concepto de calidad. Es por ello que vamos a restringir la perspectiva a aquellos aspectos al que la nueva norma se refiere cuando aparece el término calidad en su articulado.
Una lectura en diagonal del Código ya nos indica que hay una gran dispersión de los conceptos relacionados con la calidad. Nos encontramos aspectos relacionados con exigencias de calidad medioambiental en la ejecución mezclados con otros relacionados con las condiciones de suministro, las garantías de calidad y el control de la recepción. Se intercalan aspectos relacionados con la responsabilidad en la gestión de la calidad con otros relacionados con el control. Resulta evidente la confusión de conceptos como «gestión de la calidad», «garantía de la calidad» o «control de la calidad» a lo largo del texto. Hubiera sido interesante aclarar estos conceptos en el Capítulo 5 Bases generales para la gestión de la calidad de las estructuras. De todas formas, la Tabla 17.1 nos ilumina con cierto orden, al menos, en lo relacionado con la conformidad en el control del proyecto, de los productos, de la ejecución de la estructura y de la estructura terminada.
Tabla 17.1 Definición de tipos de conformidad
Sin entrar en más detalles, sí que se detecta un cambio en el control de calidad de la ejecución respecto a la EHE-08. Mejora la trazabilidad, modifica las condiciones de fabricación y armoniza diversas nomenclaturas españolas a las europeas. Estos cambios afectan a los propios lotes, los lotes de ensayos de resistencia, las unidades de inspección y su frecuencia, etc. Los cambios tratan de diferenciar mejor los elementos estructurales y sistemas constructivos. Destaca asimismo la diferencia de los puentes respecto al resto de estructuras y una atención especial a las estructuras de baja complejidad. Cabe destacar el Anejo 4 Documentación de suministro y control de los productos recibidos directamente en obra, que explica muy claramente toda la documentación para los productos recepcionados en obra antes, durante y al finalizar su suministro.
Por otra parte, se sustituyen las menciones a la Directiva 89/106/CEE del Consejo, de 21 de diciembre de 1988, relativas a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros sobre los productos de construcción, que se contenían en la reglamentación vigente, por las del Reglamento (UE) nº 305/2011 del Parlamento Europeo y del Consejo, de 9 de marzo de 2011, por el que se establecen condiciones armonizadas para la comercialización de productos de construcción y se deroga la Directiva 89/106/CEE del Consejo. También desaparece el concepto de idoneidad al uso de los productos con marcado CE y se sustituye por la presunción de veracidad de la declaración de prestaciones del producto por parte del fabricante. La declaración de prestaciones deberá cumplir las especificaciones del citado Reglamento (UE) nº 305/2011.
Resulta también de interés el refuerzo que hace el Código respecto a las consideraciones que deben aplicarse para los productos controlados en fábrica, entre los que se encuentran los prefabricados, con el añadido de la existencia de un organismo certificador externo que lo valide. Asimismo, se avanza en la posibilidad de que el fabricante pueda obtener de forma voluntaria un Distintivo de Calidad Oficialmente Reconocido (DCOR) que implique el cumplimiento de una serie de requisitos adicionales a los que establecen las normas armonizadas. Ello permite ventajas que ya venían de la EHE-08, entre las que destacan la máxima reducción posible de los coeficientes de seguridad de los materiales, hasta 1,35 en hormigón y hasta 1,10 en acero. Esto es de gran interés, por ejemplo, para prefabricados de hormigón certificados con un DCOR, siempre que se cumplan además otra serie de consideraciones.
Otro aspecto destacable es la estrecha relación que existe entre este nuevo Código Estructural y el Real Decreto 163/19, por el que se aprueba la Instrucción Técnica para la realización del control de producción de los hormigones fabricados en central, de forma que existe ahora una correcta correlación entre la producción y la puesta en obra del hormigón.
Os dejo a continuación una mapa conceptual, que utilizo yo en mis clases, y que simplifica de alguna forma los aspectos relacionados con la calidad de las estructuras.
Control de ejecución de las estructuras. Elaboración: V. Yepes
Os dejo un vídeo que os he grabado al respecto.
También os dejo unos vídeos explicativos del Colegio de Ingenieros Técnicos de Obras Públicas de Aragón sobre el tratamiento de la calidad en el nuevo Código Estructural. Espero que os sean de utilidad.
Figura 1. Entropía. https://concepto.de/leyes-de-la-termodinamica/
Un procedimiento algo similar al método CRITIC que vimos en un artículo anterior, es el método de la entropía. Es un procedimiento propuesto por Zeleny en 1982 para calcular de forma objetiva el peso de cada uno de los criterios empleados en la toma de decisiones.
En este caso, la importancia de un criterio se supone que es proporcional a la cantidad de información intrísecamente aportada por el conjunto de alternativas respecto a dicho criterio. Se trata de dar mayor peso a aquel criterio que es capaz de discriminar mejor a las alternativas, es decir, aquel criterio que presente mayor diversidad en las valoraciones de las alternativas. La diversidad es menor cuanto mayor es la entropía, y por tanto, esta es la base del método.
El método de entropía se puede resumir en los siguientes pasos:
Crear la matriz de decisión
Normalizar por la suma los valores de cada uno de los criterios
Calcular la entropía de cada criterio (se usan logaritmos en base 10)
Calcular la diversidad de cada criterio
Calcular el peso de cada criterio
En la Figura 2 se puede ver un esquema de cálculo con este método (Bernal y Niño, 2018).
Figura 2. Método de entropía (Bernal y Niño, 2018)
Para normalizar la valoración de cada alternativa respecto a cada criterio respecto a la suma, hay que distinguir si se trata de un valor que quiere interesa ser incrementado (por ejemplo, un beneficio), o bien se trata de un valor que se desea que sea el más bajo posible (por ejemplo, un coste). En la Figura 3 se puede ver cómo se podría realizar dicha normalización para el caso de valores que se incrementan. En caso de que disminuyan, se utiliza la inversa de dicho valor. Si hubieran valores negativos en los valores de las alternativas, antes de normalizar por suma, se añade una constante a cada una de las evaluaciones, de forma que sean mayores o iguales que cero.
Figura 3. Normalización por la suma (Bernal y Niño, 2018)
Supongamos que tenemos 5 alternativas para una estructura de hormigón que se va a evaluar respecto a 4 criterios: coste, beneficio, emisiones de CO2 y durabilidad. Si la matriz de decisión es la siguiente, invito al lector a calcular la mejor alternativa:
Coste
Beneficio
Emisiones
Durabilidad
Alternativa 1
346
623
67
32
Alternativa 2
623
665
44
44
Alternativa 3
823
1000
98
26
Alternativa 4
556
344
33
33
Alternativa 5
234
666
23
53
Los pesos calculados con la metodología anterior serían los siguientes: Coste: 0,342; Beneficio: 0,168; Emisiones: 0,384 y Durabilidad: 0,106.
La valoración normalizada de cada alternativa sería la siguiente: Alternativa 1: 0,181; Alternativa 2: 0,177; Alternativa 3: 0,133; Alternativa 4: 0,184 y Alternativa 5: 0,325.
Por tanto, la Alternativa 5 sería la primera en ser seleccionada, mientras que la Alternativa 3 sería la última. Se invita al lector a comprobar los resultados respecto al método CRITIC, visto en un artículo anterior. La mejor alternativa se mantiene, pero la peor cambia.
A continuación os dejo un vídeo explicativo del método realizado por el profesor Jerónimo Aznar Bellver, que espero que os sea de interés.
AZNAR, J.; GUIJARRO, F. (2012). Nuevos métodos de valoración: modelos multicriterio. Editorial Universitat Politècnica de València.
BERNAL, S.; NIÑO, D.A. (2018). Modelo multicriterio aplicado a la toma de decisiones representables en diagramas de Ishikawa. Universidad Distrital Francisco José de Caldas, Bogotá D.C., 137 pp.
ZELENY, M. (1982). Multiple Criteria Decision Making. Mc Graw Hill, New York, NY.
Dentro de los procedimientos de toma de decisiones multicriterio encontramos el método CRITIC (CRiteria Importance Through Intercriteria Correlation) propuesto por Diakoulaki, Mavrotas y Papayannakis en 1995. Se puede clasificar CRITIC dentro de los métodos comparativos. Con este método se obtienen pesos para cada uno de los criterios de forma que el peso es tanto mayor cuanta mayor sea su varianza (mayor desviación típica), y cuanta mayor información diferente a la de los otros criterios aporte (menor coeficiente de correlación entre criterios). Este método de ponderación de criterios se ha utilizado en diversos ámbitos como la valoración de empresas, inmuebles o jugadores de fútbol.
La metodología de CRITIC se puede resumir en los siguientes pasos:
Crear la matriz de decisión
Normalizar por el rango los valores de cada uno de los criterios
Calcular la desviación típica de cada criterio
Calcular la correlación entre cada par de criterios
Calcular el peso de cada criterio
En la Figura 2 se puede ver un esquema de cálculo con este método (Bernal y Niño, 2018).
Figura 2. Método CRITIC (Bernal y Niño, 2018)
Para normalizar la valoración de cada alternativa respecto a cada criterio respecto al rango, hay que distinguir si se trata de un valor que quiere interesa ser incrementado (por ejemplo, un beneficio), o bien se trata de un valor que se desea que sea el más bajo posible (por ejemplo, un coste). En la Figura 3 se puede ver cómo se podría realizar dicha normalización.
Figura 3. Normalización por el rango (Bernal y Niño, 2018)
Supongamos que tenemos 5 alternativas para una estructura de hormigón que se va a evaluar respecto a 4 criterios: coste, beneficio, emisiones de CO2 y durabilidad. Si la matriz de decisión es la siguiente, invito al lector a calcular la mejor alternativa:
Coste
Beneficio
Emisiones
Durabilidad
Alternativa 1
346
623
67
32
Alternativa 2
623
665
44
44
Alternativa 3
823
1000
98
26
Alternativa 4
556
344
33
33
Alternativa 5
234
666
23
53
Los pesos calculados con la metodología anterior serían los siguientes: Coste: 0,849; Beneficio: 1,565; Emisiones: 0,921 y Durabilidad: 0,710.
La valoración normalizada de cada alternativa sería la siguiente: Alternativa 1: 0,184; Alternativa 2: 0,213; Alternativa 3: 0,153; Alternativa 4: 0,133 y Alternativa 5: 0,316.
Por tanto, la Alternativa 5 sería la primera en ser seleccionada, mientras que la Alternativa 4 sería la última.
A continuación os dejo un vídeo explicativo del método realizado por el profesor Jerónimo Aznar Bellver, que espero que os sea de interés.
En este otro video se da un ejemplo de aplicación para valorar, en este caso, un apartamento.
BERNAL, S.; NIÑO, D.A. (2018). Modelo multicriterio aplicado a la toma de decisiones representables en diagramas de Ishikawa. Universidad Distrital Francisco José de Caldas, Bogotá D.C., 137 pp.
DIAKOULAKI, D.; MAVROTAS, G.; PAPAYANNAKIS, L. (1995). Determining objective weights in multiple criteria problems – The CRITIC method. Computers & Operations Research, 22(7):763-770.