La calidad en el Código Estructural

La aparición del Código Estructural, aprobado por el Real Decreto 470/2021, de 29 de junio, supone ciertas novedades en el ámbito de la construcción de nuestro país. Independientemente de la pertinencia de esta nueva norma en un momento donde deberíamos converger rápidamente hacia los Eurocódigos, lo cierto es que permite integrar en un solo documento los aspectos relacionados con el hormigón estructural, el acero y las estructuras mixtas. En este nuevo contexto, vamos a revisar de forma somera cómo se trata la calidad de las estructuras. Para ello tengamos en cuenta que el Código Estructural presenta cuatro títulos: Bases generales, Estructuras de hormigón, Estructuras de Acero y Estructuras mixtas; además de 32 Anejos, un total de 1789 páginas del Boletín Oficial del Estado.

La palabra «calidad» aparece en el nuevo código un total de 458 veces, frente a las 213 apariciones que tuvo en la anterior Instrucción de Hormigón Estructural (EHE-08). Este aumento se debe a la inclusión de las estructuras de acero y mixtas en el nuevo código. No obstante, conviene recordar que el concepto de calidad no se circunscribe exclusivamente a lo que se entiende como «control de calidad», ya sea de recepción o de proceso, sino que va más allá, incluyendo aspectos relacionados con el aseguramiento de la calidad de las organizaciones. Con todo, si entendemos como calidad el enfoque técnico de Crosby como el cumplimiento de las especificaciones de un producto o servicio, entonces todo el Código sería objeto del concepto de calidad. Es por ello que vamos a restringir la perspectiva a aquellos aspectos al que la nueva norma se refiere cuando aparece el término calidad en su articulado.

Una lectura en diagonal del Código ya nos indica que hay una gran dispersión de los conceptos relacionados con la calidad. Nos encontramos aspectos relacionados con exigencias de calidad medioambiental en la ejecución mezclados con otros relacionados con las condiciones de suministro, las garantías de calidad y el control de la recepción. Se intercalan aspectos relacionados con la responsabilidad en la gestión de la calidad con otros relacionados con el control. Resulta evidente la confusión de conceptos como «gestión de la calidad», «garantía de la calidad» o «control de la calidad» a lo largo del texto. Hubiera sido interesante aclarar estos conceptos en el Capítulo 5 Bases generales para la gestión de la calidad de las estructuras. De todas formas, la Tabla 17.1 nos ilumina con cierto orden, al menos, en lo relacionado con la conformidad en el control del proyecto, de los productos, de la ejecución de la estructura y de la estructura terminada.

Tabla 17.1 Definición de tipos de conformidad

Sin entrar en más detalles, sí que se detecta un cambio en el control de calidad de la ejecución respecto a la EHE-08. Mejora la trazabilidad, modifica las condiciones de fabricación y armoniza diversas nomenclaturas españolas a las europeas. Estos cambios afectan a los propios lotes, los lotes de ensayos de resistencia, las unidades de inspección y su frecuencia, etc. Los cambios tratan de diferenciar mejor los elementos estructurales y sistemas constructivos. Destaca asimismo la diferencia de los puentes respecto al resto de estructuras y una atención especial a las estructuras de baja complejidad. Cabe destacar el Anejo 4 Documentación de suministro y control de los productos recibidos directamente en obra, que explica muy claramente toda la documentación para los productos recepcionados en obra antes, durante y al finalizar su suministro.

Por otra parte, se sustituyen las menciones a la Directiva 89/106/CEE del Consejo, de 21 de diciembre de 1988, relativas a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros sobre los productos de construcción, que se contenían en la reglamentación vigente, por las del Reglamento (UE) nº 305/2011 del Parlamento Europeo y del Consejo, de 9 de marzo de 2011, por el que se establecen condiciones armonizadas para la comercialización de productos de construcción y se deroga la Directiva 89/106/CEE del Consejo. También desaparece el concepto de idoneidad al uso de los productos con marcado CE y se sustituye por la presunción de veracidad de la declaración de prestaciones del producto por parte del fabricante. La declaración de prestaciones deberá cumplir las especificaciones del citado Reglamento (UE) nº 305/2011.

Resulta también de interés el refuerzo que hace el Código respecto a las consideraciones que deben aplicarse para los productos controlados en fábrica, entre los que se encuentran los prefabricados, con el añadido de la existencia de un organismo certificador externo que lo valide. Asimismo, se avanza en la posibilidad de que el fabricante pueda obtener de forma voluntaria un Distintivo de Calidad Oficialmente Reconocido (DCOR) que implique el cumplimiento de una serie de requisitos adicionales a los que establecen las normas armonizadas. Ello permite ventajas que ya venían de la EHE-08, entre las que destacan la máxima reducción posible de los coeficientes de seguridad de los materiales, hasta 1,35 en hormigón y hasta 1,10 en acero. Esto es de gran interés, por ejemplo, para prefabricados de hormigón certificados con un DCOR, siempre que se cumplan además otra serie de consideraciones.

Otro aspecto destacable es la estrecha relación que existe entre este nuevo Código Estructural y el Real Decreto 163/19, por el que se aprueba la Instrucción Técnica para la realización del control de producción de los hormigones fabricados en central, de forma que existe ahora una correcta correlación entre la producción y la puesta en obra del hormigón.

Os dejo a continuación una mapa conceptual, que utilizo yo en mis clases, y que simplifica de alguna forma los aspectos relacionados con la calidad de las estructuras.

Control de ejecución de las estructuras. Elaboración: V. Yepes

Os dejo un vídeo que os he grabado al respecto.

También os dejo unos vídeos explicativos del Colegio de Ingenieros Técnicos de Obras Públicas de Aragón sobre el tratamiento de la calidad en el nuevo Código Estructural. Espero que os sean de utilidad.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.;

Cuando una «campaña experimental» se convierte en un desperdicio de tiempo y dinero

https://www.laensa.com/probetas-hormigon/

Reconozco abiertamente que me recorre cierto escalofrío cuando escucho por algún sitio que se está desarrollando una «campaña experimental«, a menudo en laboratorios donde, por desgracia, cada ensayo cuesta muchísimo tiempo y dinero. Me viene a la mente una campaña militar a gran escala donde, para conseguir un objetivo, se sacrifica lo que sea necesario. Cuando igual una pequeña fuerza de operaciones especiales sería suficiente.

Lo digo porque no es la primera vez que me encuentro con algún estudiante de máster o doctorado que quiere iniciar ensayos para cubrir, literalmente, las variaciones posibles en ciertos rangos, de un número de factores que influyen en un problema determinado. Y tampoco me es ajeno el típico estudiante que acude a mi despacho a pedirme consejo porque no sabe qué hacer con las montañas de datos generados, no siendo capaz de interpretar con herramientas estadísticas rigurosas.

Pero este problema no solo ocurre en determinados ámbitos científicos, sino que es habitual en empresas, procesos industriales y laboratorios de todo tipo. Cuento esto porque encuentro de vez en cuando a un doctorando que ha dedicado, por ejemplo, más de cinco años en recoger datos que luego, a la postre, se acumulan en hojas de cálculo y son difíciles de interpretar porque no se sabía exactamente cuál era la pregunta de investigación que se quería resolver.

También es muy típico encontrar en las empresas a técnicos expertos en un proceso determinado «con mucha experiencia», que realmente lo que ha hecho es aprender con los años, y sobre todo, de sufrir en sus carnes muchos errores. Este tipo de experiencia, basada en el error, no es la más barata, ni mucho menos.

Afortunadamente, cada vez son menos los que se enfrascan directamente a ensayar todas las combinaciones posibles en los valores de ciertas variables. Para eso disponemos de una rama del conocimiento denominada diseño de experimentos que permite no solo ahorrar recursos (tiempo, espacio de laboratorio, dinero, etc.), sino también es capaz de sacar muchísima más información de los datos cuando se dedica algo de tiempo a hacer un buen diseño experimental. No digo con esto que existan campañas experimentales bien diseñadas, sino que aún perviven prácticas que, por puro desconocimiento, son utilizadas aún en demasiadas ocasiones.

Veamos un ejemplo sencillo que nos permite aclarar las ideas. Imaginemos un proceso que solo depende de 4 factores. Si de cada factor queremos analizar 5 niveles, una «campaña experimental» exhaustiva nos obligaría a tomar 5^4 = 625 observaciones. Este número tan elevado puede ser inviable. ¿Cómo podemos reducir el número de observaciones? Se podría reducir el número de factores o el número de niveles a estudiar .

Un buen diseño de experimentos puede reducir muchísimo el número de observaciones necesarias ofreciendo, a su vez, información muy valiosa. Por ejemplo, un diseño factorial a dos niveles, ya sea completo o fraccionado, sería suficiente en la mayoría de los casos para estudiar los efectos, las interacciones entre los factores, etc. Invito al lector a revisar en este mismo blog algunos artículos que he escrito al respecto:

¿Qué es el diseño de experimentos?

Definiciones básicas del diseño de experimentos

Incluso, en el caso de que no exista una interacción entre los factores, por ejemplo un diseño en cuadrado grecolatino, para cuatro factores y cuatro niveles, podríamos obtener información valiosa con 16 observaciones en vez de las 256 que serían las necesarias para cubrir todas las combinaciones posibles. En este blog podéis encontrar muchos ejemplos resueltos buscando «diseño de experimentos» en la columna de la izquierda, donde aparece el buscador.

Resumiendo, estoy a favor de las «campañas experimentales», pero siempre que se basen en un diseño de experimentos previo. Pero mi consejo es que antes de hacer nada, tengamos muy clara la pregunta de investigación que queremos resolver. De hecho, la ciencia experimental trata de llegar a conclusiones generales con datos procedentes de casos particulares, y para eso necesitamos la estadística.

Parafraseando la frase que, según la tradición, estaba grabada a la entrada de la Academia de Platón, yo pondría el siguiente letrero a la puerta de cualquier laboratorio: «NO ENTRE NADIE QUE NO SEPA ESTADÍSTICA».

Os dejo una conferencia del profesor Xabier Barber de la Universidad Miguel Hernández que os aclarará muchas cosas. Espero que os guste.

Referencias:

  • Box, G.E.; Hunter, J.S.; Hunter, W.G. (2008). Estadística para investigadores. Diseño, innovación y descubrimiento. Segunda Edición, Ed. Reverté, Barcelona.
  • Gutiérrez, H.; de la Vara, R. (2003). Análisis y diseño de experimentos. McGraw-Hill, México.
  • Vicente, M.L.; Girón, P.; Nieto, C.; Pérez, T. (2005). Diseño de experimentos. Soluciones con SAS y SPSS. Pearson Educación, Madrid.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Se debe controlar el espesor de tongada y el número de pasadas en la compactación?

Compactador Bomag de rodillo con patas apisonadoras. https://www.interempresas.net/ObrasPublicas/Articulos/145132-Bomag-presenta-la-quinta-generacion-de-rodillos-autopropulsados.html

Suele ser habitual en este blog hacer preguntas como título al contenido de lo que se explica a continuación. La pregunta aquí expuesta tiene que ver con el control del proceso de la compactación de los suelos. En un artículo anterior ya hablamos del control de la calidad de la compactación, distinguiendo el control de recepción del control del proceso. En España el control de recepción parece que es el que prevalece para el cliente, mientras que la empresa constructora suele ocuparse del control del proceso para no incurrir en costes innecesarios. Pero esta forma de actuar no es común en todos los países, y menos con las nuevas tecnologías.

En efecto, atendiendo al control del proceso, hoy día la tecnología incorpora un control de la compactación automático que guía al conductor de la máquina a saber si ha cumplido con las especificaciones exigidas. Se trata de una compactación inteligente que evita un número de pasadas excesivo y, por tanto, aumenta el rendimiento y reduce el coste de esta unidad de obra. Por tanto, el control del proceso claramente se puede automatizar. Pero no siempre ha sido esto así.

En España, el «control de procedimiento» queda descrito en el Pliego de Prescripciones Técnicas Generales para Obras de Carreteras y Puentes (PG-3), que establece en su artículo 330 que “cuando lo indique el Proyecto o lo aconsejen las características del material o de la obra, y previa autorización del Director de las Obras, las determinaciones “in situ” de densidad, humedad, y módulo de deformación se complementarán por otras, como los ensayos de huella ejecutados según NLT 256 o el método de “Control de procedimiento” a partir de bandas de ensayo previas. En estas últimas deberán quedar definidas, para permitir su control posterior, las operaciones de ejecución, equipos de extendido y compactación, espesores de tongada, humedad del material y número de pasadas, debiendo comprobarse en esas bandas de ensayo que se cumplen las condiciones de densidad, saturación, módulo de deformación y relación de módulos que se acaban de establecer. En estas bandas o terraplenes de ensayo el número de tongadas a realizar será, al menos, de tres (3)”. Es decir, se trata de realizar un tramo de prueba donde poder determinar, para un material con unas condiciones determinadas, el espesor de tongada, la humedad del material y el número de pasadas.

Sin embargo, la determinación del espesor de capa y número de pasadas puede ser un quebradero de cabeza. En efecto, es posible que el espesor real sea muy diferente al previsto. Suele estar asociado a la elección del equipo de transporte y extensión de tierras. Esta variabilidad obliga a recalcular cada vez el número de pasadas necesario para cada capa. Evidentemente, esto complica la ejecución de la obra, y por ello, raramente se hace este cálculo. Además, la maquinaria puede realizar a la vez la extensión y la compactación, con lo que este control se vuelve poco realista.

Las recomendaciones francesas ofrecen una alternativa inteligente a este tipo de problema. Se trata de fijar un espesor máximo de tongada para cada tipo de suelo y de maquinaria empleada. Pero en vez de exigir un número de pasadas, se recurre al parámetro Q/S, donde Q es el volumen de suelo que se compacta durante un tiempo determinado y S es la superficie cubierta por el compactador para ese tiempo. El cuentakilómetros del compactador nos indica la distancia recorrida en el tiempo de referencia. Basta saber la anchura eficaz de compactación para conocer la superficie S cubierta, pues basta multiplicar dicha anchura eficaz por la distancia indicada.

El parámetro Q/S es más sencillo de medir y controlar que la determinación del número de pasadas. De hecho, Q/S tiene la ventaja de que no hay que realizar ajustes (al menos en primera aproximación), pues el esfuerzo de compactación al que corresponde una superficie S está relacionado con el volumen total Q, en vez de estar definido por tongada elemental, tal y como sucede en el caso en el que se indica el número de pasadas (Morilla, 2012).

Os dejo a continuación varios vídeos donde se explica la solución para el control automático de la compactación. Espero que os gusten.

Referencias:

MORILLA, I. (2012). Interpretación de los ensayos geotécnicos en suelos. 627 pp., Madrid.

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente n.º 97.439. Ed. Universitat Politècnica de València. 253 pág. ISBN: 84-7721-551-0.

YEPES, V. (2021). Procedimientos de construcción para la compactación y mejora del terreno. Colección Manual de Referencia, 1ª edición. Editorial Universitat Politècnica de València, 426 pp. Ref. 428. ISBN: 978-84-9048-603-0.

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442. ISBN: 978-84-1396-046-3

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

Cursos:

Curso de compactación superficial y profunda de suelos en obras de ingeniería civil y edificación.

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Es exacto el ensayo del equivalente de arena?

Figura 1. Altura de la arena, de la arcilla y del líquido en el ensayo de Equivalente de Arena

Recuerdo los quebraderos de cabeza que teníamos en mis primeras obras de carreteras cuando teníamos que aceptar determinadas zahorras por culpa del equivalente de arena. Se trata de un ensayo, muy sencillo en cuanto a su realización, que permite estimar la cantidad de finos presentes en un suelo poco plástico o en un árido fino. Este ensayo lo propuso F.N. Hveem para evaluar cualitativamente, de forma rápida, la cantidad y la actividad de los finos de un suelo. En apretada síntesis, se trata de evaluar la limpieza de un material que llega a una obra para utilizarlo como base granular, relleno drenante o incluso, en el caso de arenas, para su uso en hormigones o en aglomerados. Lo que se busca es un equivalente de arena alto, pues cuanto mayor es este valor, más alta sería la calidad del material.

Para realizar este ensayo debemos acudir a la norma UNE-EN 933-8: «Ensayos para determinar las propiedades de los áridos. Parte 8: Evaluación de los finos. Ensayo del equivalente de arena». También se puede recurrir a otras normas como la ASTM D2429. Este ensayo se aplica a la fracción arenosa de un suelo. Tras mezclar el suelo seco con un líquido floculante de la arcilla, se agita la mezcla y se deja reposar durante un tiempo para medir la altura que alcanza la parte arcillosa y la que tiene la parte arenosa. Para eso se utiliza una varilla especial. El Equivalente de Arena (EA) sería la relación entre la altura de la arena respecto a la altura de la arcilla multiplicada por 100, tal y como podemos ver en la Figura 1.

En este enlace la Escuela de Ingenieros de Caminos de Madrid tenéis una descripción del ensayo y unos vídeos explicativos que creo os pueden interesar: http://www2.caminos.upm.es/departamentos/ict/lcweb/ensayos_aridos/equivalente_arena.html

El Equivalente de Arena es un ensayo que puede poner en entredicho la calidad de un material usado en carreteras, tal y como os comenté en el caso de mis primeras obras en el entorno de Valencia. Así, por ejemplo, para una zahorra artificial el PG-3 exige un valor superior a 40 cuando se trata de un tráfico T00 a T1, mismo valor que el usado para el material usado para un gravacemento tipo GC20 o un riego de imprimación o curado. Para las mezclas bituminosas en caliente ya se exige un valor de 55 y en el caso de pavimentos de hormigón en zonas sometidas a heladas, el EA debe superar 80.

En el caso del hormigón estructural, el reciente «Código estructural» de 2021 indica que el EA no será inferior a 70 en el caso de hormigones usados en obras sometidas a la clase de exposición X0 o XC, mientras que será de 75 en el resto de los casos. No obstante, si las arenas proceden del machaqueo de rocas calizas o dolomías (rocas sedimentarias carbonáticas que contienen al menos un 70% de calcita, dolomita o de ambas) que no cumplan con el equivalente de arena, pueden aceptarse como válidas bajo determinadas condiciones usando el ensayo azul de metileno, según la norma UNE-EN 933-9.

Las decisiones que se toman con este ensayo son de gran calado. Podemos rechazar un material que sea el que tengamos a nuestra disposición, siendo inviable económicamente traer otro material alternativo. Por tanto, es procedente revisar la exactitud que tiene el ensayo.

En efecto, este ensayo debe tomarse como un control rápido que sustituya a un ensayo granulométrico, pues los resultados se encuentran muy influenciados por las características del fino presente (por ejemplo, si son limos o arcillas). Incluso si se trata de una arcilla, la composición mineralógica y su reacción al líquido floculante pueden influir en los resultados. No es lo mismo un fino calizo que otro silíceo, o una arcilla muy plástica o expansiva.

Por otra parte, si se realiza la agitación por parte de una persona que no siga escrupulosamente las instrucciones del ensayo, se pueden incrementar los errores. Por lo que se prefiere siempre una agitación mecánica normalizada.

Dicho esto, la recomendación es evidente. Cuando un material va sobrado en cuanto a su Equivalente de Arena, este ensayo rápido supone un control para evitar contaminación o problemas puntuales de calidad. Pero si estamos en una situación límite, lo que hay que hacer es buscar la correlación entre el Equivalente de Arena y el Ensayo Granulométrico para corregir las desviaciones que pudiesen haber. Siempre mandará el Ensayo Granulométrico en caso de duda.

En la Figura 2 se observa que, si bien hay cierta tendencia a que el menor contenido de finos tiende a presentar más altos de equivalente de arena, el coeficiente de determinación de dicha relación es bajo (el modelo explica algo menos del 25% de la variabilidad). No obstante, si el material tiene la misma procedencia, la variabilidad es mucho menor que en el caso de materiales diferentes. Sea como sea, no podemos rechazar directamente un material con un EA bajo sin tomar las precauciones debidas.

Figura 2. Valores de EA en función de la presencia de finos (ANEFA, 2018)

Os dejo a continuación un vídeo donde se explica el ensayo del Equivalente de Arena.

Referencias:

ANEFA (2018). Guía española de áridos reciclados procedentes de residuos de construcción y demolición (RCD), 292 pp.

Morilla, I. (2012). Interpretación de los ensayos geotécnicos en suelos. 627 pp., Madrid.

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Ejecución e interpretación de ensayos no destructivos de pilotes y pantallas «in situ»

A través del blog de Carlos Fernández Tadeo se puede acceder a la descarga gratuita de la monografía del Cedex denominada «Recomendaciones para la ejecución e interpretación de ensayos no destructivos para el control de la integridad de pilotes y pantallas in situ». Esta monografía también se puede descargar gratuitamente de la página de publicaciones de la web de Aetess. No obstante, la monografía se publicó en 2006, y si bien los conceptos básicos permanecen vigentes, la instrumentación y los equipos ha avanzado considerablemente. Os remito a Carlos Fernández Tadeo, gran especialista en este tema, para más información al respecto.

Pincha aquí para descargar

 

El ensayo que inventó Ralph R. Proctor, ¿por qué es tan importante?

Figura 1. Ralph Roscoe Proctor (1894-1962) https://www.eng.hokudai.ac.jp/labo/geomech/ISSMGE%20TC202/proctor.html

El peso específico seco es un índice que evalúa la eficiencia de un proceso de compactación, pero debido al diferente comportamiento de los distintos rellenos, suele utilizarse el denominado grado de compactación o porcentaje alcanzado respecto a un peso unitario patrón, obtenido con cada suelo en un ensayo normalizado.

El ingeniero Ralph Roscoe Proctor inició en 1929 una serie de trabajos, publicados en 1933, en los cuales se constató la relación entre humedad-peso específico seco y la influencia de la energía de compactación. Propuso un ensayo normalizado con el cual obtener la curva de ensayo Proctor correspondiente a una determinada energía, comunicada a una muestra del terreno mediante la caída desde altura fija de una pesa y un determinado número de veces. Por cierto, a pesar de que la palabra Proctor es llana y en castellano debería acentuarse, por respeto al apellido del autor, se mantiene este sin modificarlo. Esta es la tradición que han seguido los libros de texto españoles en carreteras en el ámbito universitario.

Con posterioridad, el Corps of Engineers de la U. S. Army propuso el Proctor Modificado, con una aplicación de energía unas cuatro veces y media superior al Proctor Normal. El ensayo Proctor Modificado consume una energía de 0,75 kWh/m3, mientras que el Proctor Normal equivale a 0,16 kWh/m3. Estos ensayos se encuentran normalizados en España por las normas UNE 103-500-94 y UNE 103-501-94 (ASTM D-698 o ASTM D-1557, en normas americanas).

Para realizar el ensayo, además del equipamiento de laboratorio común a muchos ensayos como son una báscula, una estufa de secado o pequeño material (bandejas, mazo de goma, palas, etc.), se requiere un equipamiento específico tal y como muestra la Figura 2.

Hay que hacer notar que el procedimiento para realizar tanto el Proctor Normal como el Proctor Modificado es el mismo, siendo sus diferencias principales los parámetros básicos del ensayo. En particular, las diferencias relevantes son el tipo de maza y molde de las probetas.

Figura 2. Molde del ensayo del Proctor Modificado

El experimento consiste en introducir capas sucesivas, con una humedad conocida, en el interior de un cilindro y golpear cada una con idéntico número de golpes mediante una maza que cae desde una altura normalizada. Se trata de medir el peso específico seco de la muestra y construir una curva para cada humedad diferente tomada. Son suficientes en general cuatro o cinco operaciones para trazar dicha curva y determinar el peso específico máximo y su humedad óptima correspondiente. No hay una relación definida entre las densidades máximas obtenidas en los ensayos Proctor Normal y Modificado, aunque a modo orientativo podemos decir que en éste último la densidad oscila entre el 5 y 10% de incremento según sean suelos granulares a cohesivos. Se debe considerar que las curvas Proctor obtenidas reutilizando el terreno ofrecen pesos específicos máximos algo superiores a las que se obtienen con muestras de terrenos nuevas.

Figura 3. Curva de compactación del Proctor Modificado. http://www2.caminos.upm.es/departamentos/ict/lcweb/ensayos_suelos/proctor_modificado.html

El ensayo Proctor origina una compactación por impacto, en tanto que en obra no siempre son habituales los compactadores de este estilo. Así existen otros ensayos en laboratorio, como NLT-311/96 que determina la densidad máxima y humedad óptima de compactación, mediante martillo vibrante, de materiales granulares con o sin productos de adición. Sería adecuado este ensayo cuando se utilizasen en obra rodillos vibratorios.

Las normas PG3 fijan como límites inferiores de la densidad máxima Proctor Normal 1,45 t/m3 para los suelos tolerables y 1,75 t/m3 para los suelos adecuados y seleccionados. En el lenguaje coloquial a veces se confunden pesos específicos con densidades, aunque son conceptos distintos. La unidad de masa común en laboratorio de 1 g/cm3 se debe multiplicar por la aceleración de 9,81 para convertirlo en kN/m3, que es la unidad correcta en el Sistema Internacional. A efectos prácticos suelen usarse indistintamente dichos conceptos, aunque es recomendable el uso del Sistema Internacional.

Raras veces de admite un peso específico seco inferior al 95% del máximo Proctor Normal obtenido en laboratorio, ya que un material suelto, sin apisonar, presenta un valor próximo al 85%. La normativa limita (ver Tabla 1) los valores para carreteras en función de la Intensidad Media Diaria (IMD) de vehículos pesados. De esta forma, para la zahorra artificial y tráficos T00 y T2, se exige un mínimo del 100% PM; para zahorra artificial y tráficos T3, T4 y arcenes, un mínimo del 98% PM. En cambio, para la zahorra natural, que suele colocarse en las capas inferiores (subbase), la densidad mínima es del 98% PM.

Es importante indicar que a veces es posible superar el 100% del Proctor correspondiente sin que por ello se pueda afirmar que la capa está suficientemente compactada. Ello es posible, entre otras posibles causas, cuando la capa ensayada presenta gran cantidad de gruesos cuyo elevado peso específico respecto al promedio del resto de la capa hace subir el valor del peso específico in situ. Tengamos presente que el ensayo en laboratorio se realiza sobre la fracción de suelo inferior a 20 mm. En estos casos es necesario realizar una corrección.

El proyecto (o Director de las obras) debe definir el ensayo de referencia: el ensayo Proctor Normal o Proctor Modificado. En la mayoría de los casos, el ensayo de referencia es el Proctor Modificado, pues puede reproducir con mayor fidelidad las condiciones de compactación de la obra, que emplea compactadores más pesados debido al aumento de la carga por eje experimentado por los vehículos. Sin embargo, en suelos expansivos se recomienda el Proctor Normal. Este ensayo también es más útil en compactaciones menores, como son las correspondientes a relleno de zanjas o ejecución de caminos.

Os dejo un vídeo elaborado por los alumnos de Ingeniería Civil de la Universidad de Granada donde nos cuentas cómo realizar el ensayo Proctor.

Aquí tenéis una explicación del profesor Agustín Rodríguez, que igual os puede complementar ideas.

Referencias:

ABECASIS, J. y ROCCI, S. (1987). Sistematización de los medios de compactación y su control. Vol. 19 Tecnología carreteras MOPU. Ed. Secretaría General Técnica MOPU. Madrid, diciembre.

ROJO, J. (1988): Teoría y práctica de la compactación. (I) Suelos. Ed. Dynapac. Impresión Sanmartín. Madrid.

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente nº 97.439. Ed. Universitat Politècnica de València. 253 pág. Depósito Legal: V-4598-1997. ISBN: 84-7721-551-0.

YEPES, V. (2015). Coste, producción y mantenimiento de maquinaria para construcción. Editorial Universitat Politècnica de València, 155 pp. ISBN: 978-84-9048-301-5. Ref. 402.

YEPES, V. (2021). Procedimientos de construcción para la compactación y mejora del terreno. Colección Manual de Referencia, 1ª edición. Editorial Universitat Politècnica de València, 426 pp. Ref. 428. ISBN: 978-84-9048-603-0.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Control de la mejora de un suelo con ensayos de penetración dinámica

Prueba de penetración dinámica superpesada. https://www.gtklaboratorio.com/prueba-de-penetracion-dinamica-superpesada-en-bilbao

Para comprobar la efectividad de un tratamiento de mejora de suelos, como la compactación dinámica, es necesario verificar que la mejora conseguida sea suficientemente buena como para alcanzar los objetivos del proyecto correspondiente. Una forma económica y sencilla de ensayar el terreno en profundidad consiste en hincar un varillaje con una punta metálica, de modo que, contabilizando el número de golpes necesarios para hacer avanzar dicha punta una longitud determinada, se pueda correlacionar dicho valor con las características geotécnicas del terreno. A este tipo de pruebas se les conoce como ensayos de penetración dinámica.

El ensayo de penetración estándar o SPT (Standard Penetration Test) es quizás uno de los ensayos más utilizados en sondeos de reconocimiento. De hecho, constituyen una fuente importante de datos sobre la resistencia del terreno. Se trata de medir el número de golpes necesario para que se introduzca una cuchara cilíndrica y hueca muy robusta que, además, permite extraer una muestra alterada de su interior. Tanto la cuchara como la masa y la altura a la que caen están normalizadas. La ventaja del SPT es que permite visualizar el terreno donde se ha realizado la prueba y su identificación, e incluso, si el terreno es cohesivo, determinar su humedad. Se trata de ensayos de bajo coste y alta representatividad, especialmente para suelos granulares y mixtos. La descripción del ensayo se encuentra recogida en la norma UNE 103-800-92. El valor obtenido se denomina resistencia a la penetración estándar N30spt.

Este ensayo nace en 1927 cuando un sondista de la Raymond Concrete Pile propuso a Terzaghi contar el número de golpes necesarios para hincar 1 pie el tomamuestras que se utilizaba para obtener muestras en terrenos no cohesivos. Tras realizar un gran número de ensayos, Terzaghi y Peck (1948) publican sus resultados en su libro “Mecánica de suelos en la ingeniería práctica”. Esta prueba se ha difundido internacionalmente y existen numerosos estudios que permiten relacionar empíricamente el valor N30SPT con las propiedades geotécnicas del terreno in situ. Sin embargo, gran parte de las correlaciones corresponden a terrenos arenosos, pues la presencia de gravas oscurece la interpretación de los resultados e incluso puede impedir la realización del ensayo. Por tanto, es un ensayo especialmente indicado para terrenos con una amplia fracción arenosa, y lo es aún menos cuando existe una mayor proporción de finos o de gravas.

Uto y Fijuki (1981) recomiendan corregir el valor estándar de la resistencia a la penetración cuando se ensaya a más de 20 metros de profundidad. Skempton (1986) propone factores de corrección de dicho valor en función de la profundidad del ensayo y del diámetro del sondeo, aunque estas correcciones se aplican a suelos granulares, ya que para los cohesivos dicha influencia es despreciable. Otras correcciones independientes del sistema de ensayo se refieren al nivel freático (Terzaghi y Peck, 1948) y a la presión de confinamiento (Gibbs y Holz, 1957), y son objeto de distintos estudios que están resumidos en Liao y Whitman (1985).

En cuanto a las correlaciones de Nspt con los parámetros geotécnicos del terreno, Terzaghi y Peck (1948) publicaron las primeras correlaciones con la densidad relativa de arenas cuarzíticas, que posteriormente fueron modificadas por Skempton (1986). Gibbs y Holtz (1957) comprobaron que era necesario introducir la presión de confinamiento en dichas relaciones, y luego Meyerhof (1956) las ajustó. Otras correlaciones relacionadas con el ángulo de rozamiento interno, la deformabilidad o el potencial de licuación pueden verse en Devicenzi y Frank (1995). Sin embargo, tal y como se comentó anteriormente, las correlaciones sobre terrenos cohesivos se han considerado meramente orientativas, debido a la dispersión de resultados. Sin embargo, hoy en día este criterio se cuestiona y se aceptan estas pruebas en todo tipo de terrenos.

Cuando se desea disponer de un registro continuo para caracterizar un suelo en profundidad, puede emplearse la prueba de penetración dinámica superpesada (DPSH, Dynamic Probing Super Heavy). Las características del ensayo son distintas de las del SPT. Aquí se utiliza una punta cónica perpendicular al eje de penetración, y se mide el golpeo necesario para profundizar 20 centímetros. Sin embargo, se ha tratado de establecer una correlación entre ambos ensayos que, en el caso de las arenas, el factor de conversión entre ambos ensayos es próximo a la unidad, siempre que estemos entre los 5 y 30 golpes, y siempre que estemos a un máximo de 10 – 15 m, pues a partir de aquí la dispersión aumenta debido al efecto de rozamiento de las varillas, que empieza a ser importante. En el caso de la correlación entre el ensayo Borros o DSPH y el SPT en arcillas, puede consultarse el trabajo de Dapena et al. (2000).

Son muchas las correlaciones observadas entre los ensayos de penetración dinámica. Las equivalencias entre los ensayos parten de una relación de semejanza entre la energía de hinca. Un resumen de los parámetros geomecánicos obtenidos a partir de estos ensayos, aplicado a suelos mixtos cohesivos-granulares, puede verse en Parra y Ramos (2006).

Todo ello nos lleva a la siguiente conclusión: no es muy fiable establecer correlaciones entre los distintos ensayos de penetración dinámica, especialmente cuando el suelo empieza a ser cohesivo. El tema se complica aún más cuando el terreno no es natural, sino un relleno antrópico heterogéneo. Ello obliga a realizar un estudio en profundidad para establecer dichas correlaciones, siendo aconsejable efectuar un penetrómetro de contraste junto con un sondeo SPT.

A continuación, os dejo varios vídeos sobre estos ensayos.

También os dejo la maniobra completa del ensayo SPT.

Referencias

  • Armijo, G.; Blanco, M.A. (2017). Diseño y verificación del tratamiento de mejora del terreno mediante compactación dinámica. Aplicación a un caso real. Interempresas.net.
  • Devincenzi, M.; Frank, N. (1995). “Ensayos Geotécnicos in situ”, Igeotest, Figueres, Girona.
  • Gibbs, H.J.; Holtz, W.G. (1957). “Research on Determining the Density of Sands by Spoon Penetration Testing”. Proc. 4th Conf. On SMFE, London.
  • Liao, S.; Whitman, R.V. (1986). “Overburden Correction Factors for SPT in Sand”, Journal of Geotechnical Engineering, ASCE, Vol 112, Nº 3.
  • Menard, L.; Broise Y. (1976). “Theoretical and practical aspects of dynamic consolidation”, Ground Treatment by deep compaction, Institution of Civil Engineers, LONDON, pp. 3-18.
  • Meyerhof, G.G. (1956). “Penetration Test and Bearing Capacity of Cohesionless Soils”. Journal of Geotechnical Engineering, ASCE, Vol. 91.
  • Parra, F.; Ramos, L.L. (2006). “Obtención de parámetros geomecánicos a partir de ensayos a penetración dinámica continua en suelos mixtos cohesivos-granulares”. Ingeopres: Actualidad técnica de ingeniería civil, minería, geología y medio ambiente, 145: pp. 20-24.
  • Skempton, A.W. (1986). “Standard Penetration Test Procedure and Effects in Sandsof Overburden Pressure, Relative Density, Particle Size, Ageing and Overconsolidation”. Geotechnique, 36, pp. 425-437.
  • Terzaghi, K.; Peck, R.B. (1948). “Soil Mechanics in Engineering Practice”. Ed. John Wiley and Sons, New York.
  • Uto, K.; Fuyuki, M. (1981). “Present and Future Trend on Penetration Testing in Japan”, Japanese Soc. SMFE.
  • Dapena, E.; Lacasa, J. García, A. (2000). “Relación entre los resultados de los ensayos de penetración dinámica Borros DPSH y el SPT en un suelo arcilloso”. Actas del Simp. sobre geotecnia de las infraestructuras lineales. Soc. Española de Mec. del Suelo e Ing. Geotécnica.
  • Yepes, V. (2020). Procedimientos de construcción de cimentaciones y estructuras de contención. Colección Manual de Referencia, 2ª edición. Editorial Universitat Politècnica de València, 480 pp. Ref. 328. ISBN: 978-84-9048-903-1.
  • Yepes, V. (2021). Procedimientos de construcción para la compactación y mejora del terreno. Colección Manual de Referencia, 1ª edición. Editorial Universitat Politècnica de València, 426 pp. Ref. 428. ISBN: 978-84-9048-603-0.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Diseño de experimentos en cuadrado grecolatino. Ejemplo aplicado al hormigón

Figura 1. Cuadrado grecolatino de orden cuatro. Wikipedia

Un cuadrado greco-latinocuadrado de Euler o cuadrados latinos ortogonales de orden n se denomina, en matemáticas, a la disposición en una cuadrícula cuadrada n×n de los elementos de dos conjuntos S y T, ambos con n elementos, cada celda conteniendo un par ordenado (st), siendo s elemento de S y t de T, de forma que cada elemento de S y cada elemento de T aparezca exactamente una vez en cada fila y en cada columna y que no haya dos celdas conteniendo el mismo par ordenado. Si bien los cuadrados grecolatinos eran una curiosidad matemática, a mediados del siglo XX Fisher demostró su utilidad para el control de experimentos estadísticos.

El diseño de experimentos en cuadrado grecolatino constituye una extensión del cuadrado latino. En este caso se eliminan tres fuentes extrañas de variabilidad, es decir, se controlan tres factores de bloques y un factor de tratamiento. Se trata de un diseño basado en una matriz de «n» letras latinas y «n» letras griegas, de forma que cada letra latina aparece solo una vez al lado de cada letra griega. Lo interesante de este diseño es que se permite la investigación de cuatro factores (filas, columnas, letras latinas y letras griegas), cada una con «n» niveles en solo «n2» corridas. Se llama cuadrado grecolatino porque los cuatro factores involucrados se prueban en la misma cantidad de niveles, de aquí que se pueda escribir como un cuadro. En la Figura 1 se presenta el aspecto de los datos del diseño de orden cuatro. El inconveniente de este modelo es que su utilización es muy restrictiva. El análisis de la varianza permite comprobar las hipótesis de igualdad de letras latinas (tratamientos), de las filas, de las columnas y de las letras griegas.

Si a un cuadrado latino p x p se le superpone un segundo cuadrado latino n x n en el que los tratamientos se denotan con letras griegas, entonces los dos cuadrados tienen la propiedad de que cada letra griega aparece una y sólo una vez con cada letra latina. Este diseño permite controlar sistemáticamente tres fuentes de variabilidad extraña. Ello permite la investigación de cuatro factores (filas, columnas, letras latinas y letras griegas), cada una con p niveles en sólo n2 ensayos.

Por tanto, el diseño de experimentos en cuadrado grecolatino se caracteriza por lo siguiente:

  • Es un diseño con cuatro factores a n niveles
  • Se asume que no hay interacciones entre los factores
  • Requiere de n2 observaciones
  • Cada nivel de un factor aparece una vez con cada nivel de los otros factores
  • Se trata de la superposición de dos cuadrados latinos (ver Figura 2)
Figura 2. Superposición de dos cuadrados latinos

En un diseño en cuadrado greco-latino la variable respuesta yij(hp) viene descrita por la siguiente ecuación:

A continuación os presento un caso para aclarar la aplicabilidad de este diseño de experimentos. Se trata de averiguar si la resistencia característica del hormigón a flexocompresión (MPa) varía con cuatro dosificaciones diferentes. Para ello se han preparado amasadas en cuatro amasadoras diferentes, se han utilizado cuatro operarios de amasadora y los ensayos se han realizado en cuatro laboratorios diferentes. Los resultados se encuentran en la tabla que sigue. Se quiere analizar el diseño de experimentos en cuadrado grecolatino realizado.

En el caso que nos ocupa, la variable de respuesta de la resistencia característica del hormigón a flexocompresión (MPa). El factor que se quiere estudiar es la dosificación a cuatro niveles (A, B, C y D). El bloque I es el tipo de amasadora, con cuatro niveles (α, β, γ y δ). El bloque II es el operario de la amasadora, con cuatro niveles (1, 2, 3 y 4). El bloque III es el laboratorio, con cuatro niveles (las filas). Se supone que no hay interacción entre el factor y los bloques entre sí.

Lo que se quiere averiguar es si hay diferencias significativas entre las dosificaciones (el factor a estudiar). De paso, se desea saber si hay diferencias entre los laboratorios, los operarios y las amasadoras (los bloques).

Os paso un pequeño vídeo donde se explica, de forma muy resumida, este caso, tanto para SPSS como para MINITAB.

Os dejo otro vídeo donde también se explica este tipo de diseño de experimentos.

Referencias:

  • Gutiérrez, H.; de la Vara, R. (2004). Análisis y Diseño de Experimentos. McGraw Hill, México.
  • Vicente, MªL.; Girón, P.; Nieto, C.; Pérez, T. (2005). Diseño de Experimentos. Soluciones con SAS y SPSS. Pearson, Prentice Hall, Madrid.
  • Pérez, C. (2013). Diseño de Experimentos. Técnicas y Herramientas. Garceta Grupo Editorial, Madrid.

 

Gestión de la innovación en las empresas constructoras

Tras la crisis financiera de 2008, que supuso una caída brutal de la contratación de obra pública en España, las empresas constructoras y consultoras tuvieron que internacionalizarse. Sin casi haber salido completamente de este trance, sobrevino la actual crisis sanitaria de la pandemia del coronavirus que ha acarreado una nueva recesión social y económica que, de momento, no se atisba su solución. Las consecuencias de esta nueva crisis, graves sin duda, aún no se sabe hasta dónde pueden alcanzar. Por tanto, el sector de la construcción vuelve a sufrir una convulsión de difícil pronóstico. Las nuevas tecnologías están teniendo un papel determinante en la forma de afrontar esta coyuntura, especialmente en el trabajo no presencial. Los cambios que podrían tardar décadas en llegar, nos han alcanzado de repente. La pregunta es la de siempre: ¿cómo afrontar la competitividad de las empresas en escenarios tan cambiantes como los actuales?

Parece evidente que la metáfora darwinista de la evolución podría aplicarse, con todas las cautelas necesarias, al mundo empresarial. Solo sobrevivirán aquellas organizaciones capaces de adaptarse rápidamente al nuevo entorno. Y para ello no es suficiente la mejora continua de nuestros procesos y productos, sino que se requiere un cambio radical, rupturista, basado en la innovación, capaz de crear un «océano azul» donde la competencia sea irrelevante.

A continuación os paso una clase que tuve que impartir en línea sobre la gestión de la innovación en las empresas constructoras. Se trata de una clase impartida en la asignatura «Gestión de la innovación en el sector de la construcción» del Máster Universitario en Planificación y Gestión en Ingeniería Civil (MAPGIC) de la Escuela Técnica Superior de Ingeniería de Caminos, Canales y Puertos de la Universitat Politècnica de València. La dejo en abierto para que la pueda ver quien esté interesado.

Tablas de contingencia aplicadas al hormigón

Figura 1. ¿Depende la calidad del hormigón de un proveedor determinado?

En ocasiones nos encontramos con un par de variables cualitativas que, a priori, no sabemos si están relacionadas entre sí o si pertenecen a una misma población estadística. Recordemos que las variables cualitativas son aquellas cuyo resultado es un valor o categoría de entre un conjunto finito de respuestas (tipo de defecto, nombre del proveedor, color, etc.).

En el ámbito del hormigón, por ejemplo, podríamos tener varios proveedores de hormigón preparado en central y un control del número de cubas-hormigonera aceptadas, aceptadas con defectos menores o rechazadas. Otro ejemplo sería contabilizar el tipo de incumplimiento de una tolerancia por parte de un equipo que está encofrando un muro de contención. En estos casos, se trata de determinar si existe dependencia entre los proveedores o los equipos de encofradores respecto de los defectos detectados. Esto sería interesante en el ámbito del control de la calidad para tomar medidas, como pudiese ser descartar a determinados proveedores o mejorar la formación de un equipo de encofradores.

Así, podríamos tener un problema como el siguiente: Teniendo en cuenta el punto 5.6 del Anejo 11 de la EHE, donde se definen las tolerancias de muros de contención y de sótano, se quiere comprobar si tres equipos de encofradores producen de forma homogénea en la ejecución de muros vistos, o, por el contrario, si unos equipos producen más defectos de un tipo que otro. Todos los equipos emplean el mismo tipo de encofrado. Las tolerancias que deben cumplirse son:

1. Desviación respecto a la vertical
2. Espesor del alzado
3. Desviación relativa de las superficies planas de intradós o de trasdós
4. Desviación de nivel de la arista superior del intradós, en muros vistos
5. Tolerancia de acabado de la cara superior del alzado, en muros vistos

Los equipos han estado trabajando durante un año ejecutando este tipo de unidad de obra. Durante este tiempo el número de defectos en relación con la tolerancia dimensional ha sido pequeño, pero se han contabilizado 375 defectos. El control de calidad ha dado como resultado el conteo de la tabla de la Figura 2.

Figura 2. Conteo de incumplimientos según el equipo de encofradores. En paréntesis figura el valor esperado.

En la Figura 2 se ha representado también la frecuencia esperada para cada uno de los casos. Por ejemplo, la fracción esperada del incumplimiento «1» es de 89/375, mientras que la fracción esperada de defectos del equipo A es de 150/375. Ello implica que el valor esperado de incumplimientos del tipo «1» para el equipo de encofradores «A» sería: (89/375)·(150/375)·375=89·150/375=35,60.

La pregunta que nos podríamos hacer es la siguiente: ¿Influye el tipo de proveedor en la calidad de la recepción del hormigón? Para ello plantearíamos la hipótesis nula: el tipo de proveedor no influye en la calidad de la recepción del hormigón. La hipótesis alternativa sería que sí existe dicha influencia o dependencia entre las variables cualitativas.

Para ello, necesitamos una prueba estadística; en este caso, la prueba χ². El fundamento de la prueba χ² es comparar la tabla de las frecuencias observadas respecto a la de las frecuencias esperadas (que sería la que esperaríamos encontrar si las variables fueran estadísticamente independientes o no estuvieran relacionadas). Esta prueba permite obtener un p-valor (probabilidad de equivocarnos si rechazamos la hipótesis nula) que podremos contrastar con el nivel de confianza que determinemos. Normalmente el umbral utilizado es de 0,05. De esta forma, si p < 0,05, se rechaza la hipótesis nula y, por tanto, diremos que las variables son dependientes. Dicho con mayor precisión, en este caso no existe un nivel de significación suficiente que respalde la independencia de las variables.

Las conclusiones que se obtienen de la prueba son sencillas de interpretar. Si no existe mucha diferencia entre los valores observados y los esperados, no hay razones para dudar de que las variables sean independientes.

No obstante, hay algunos problemas con la prueba χ², entre ellos el relacionado con el tamaño muestral. A mayor número de casos analizados, el valor de la χ² tiende a aumentar. Es decir, si la muestra es excesivamente grande, será más fácil que rechacemos la hipótesis nula de independencia, cuando a lo mejor podrían ser las variables independientes.

Por otra parte, cada una de las celdas de la tabla de contingencia debería contar con un mínimo de 5 observaciones esperadas. Si no fuera así, podríamos agrupar filas o columnas (excepto en tablas 2×2). También se podría eliminar la fila que muestra una frecuencia esperada menor que 5.

Por último, no hay que abusar de la prueba χ². Por ejemplo, podríamos tener una variable numérica, como la resistencia característica del hormigón, y agruparla en una variable categórica en grupos como 25, 30, 35, 40, 45 y 50 MPa. Lo correcto cuando tenemos una escala numérica es aplicar la prueba t de Student; es incorrecto convertirla en una escala ordinal o incluso binaria.

A continuación os dejo el problema anterior resuelto, tanto con el programa SPSS como con MINITAB.

Pincha aquí para descargar

Os dejo un par de vídeos explicativos, que espero os sean de interés.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.