Ejecución e interpretación de ensayos no destructivos de pilotes y pantallas “in situ”

A través del blog de Carlos Fernández Tadeo se puede acceder a la descarga gratuita de la monografía del Cedex denominada “Recomendaciones para la ejecución e interpretación de ensayos no destructivos para el control de la integridad de pilotes y pantallas in situ”. Esta monografía también se puede descargar gratuitamente de la página de publicaciones de la web de Aetess. No obstante, la monografía se publicó en 2006, y si bien los conceptos básicos permanecen vigentes, la instrumentación y los equipos ha avanzado considerablemente. Os remito a Carlos Fernández Tadeo, gran especialista en este tema, para más información al respecto.

Descargar (PDF, 7.06MB)

 

El ensayo que inventó Ralph R. Proctor, ¿por qué es tan importante?

Figura 1. Ralph Roscoe Proctor (1894-1962) https://www.eng.hokudai.ac.jp/labo/geomech/ISSMGE%20TC202/proctor.html

El peso específico seco es un índice que evalúa la eficiencia de un proceso de compactación, pero debido al diferente comportamiento de los distintos rellenos, suele utilizarse el denominado grado de compactación o porcentaje alcanzado respecto a un peso unitario patrón, obtenido con cada suelo en un ensayo normalizado.

El ingeniero Ralph Roscoe Proctor inició en 1929 una serie de trabajos, publicados en 1933, en los cuales se constató la relación entre humedad-peso específico seco y la influencia de la energía de compactación. Propuso un ensayo normalizado con el cual obtener la curva de ensayo Proctor correspondiente a una determinada energía, comunicada a una muestra del terreno mediante la caída desde altura fija de una pesa y un determinado número de veces. Por cierto, a pesar de que la palabra Proctor es llana y en castellano debería acentuarse, por respeto al apellido del autor, se mantiene este sin modificarlo. Esta es la tradición que han seguido los libros de texto españoles en carreteras en el ámbito universitario.

Con posterioridad, el Corps of Engineers de la U. S. Army propuso el Proctor Modificado, con una aplicación de energía unas cuatro veces y media superior al Proctor Normal. El ensayo Proctor Modificado consume una energía de 0,75 kWh/m3, mientras que el Proctor Normal equivale a 0,16 kWh/m3. Estos ensayos se encuentran normalizados en España por las normas UNE 103-500-94 y UNE 103-501-94 (ASTM D-698 o ASTM D-1557, en normas americanas).

Para realizar el ensayo, además del equipamiento de laboratorio común a muchos ensayos como son una báscula, una estufa de secado o pequeño material (bandejas, mazo de goma, palas, etc.), se requiere un equipamiento específico tal y como muestra la Figura 2.

Hay que hacer notar que el procedimiento para realizar tanto el Proctor Normal como el Proctor Modificado es el mismo, siendo sus diferencias principales los parámetros básicos del ensayo. En particular, las diferencias relevantes son el tipo de maza y molde de las probetas.

Figura 2. Molde del ensayo del Proctor Modificado

El experimento consiste en introducir capas sucesivas, con una humedad conocida, en el interior de un cilindro y golpear cada una con idéntico número de golpes mediante una maza que cae desde una altura normalizada. Se trata de medir el peso específico seco de la muestra y construir una curva para cada humedad diferente tomada. Son suficientes en general cuatro o cinco operaciones para trazar dicha curva y determinar el peso específico máximo y su humedad óptima correspondiente. No hay una relación definida entre las densidades máximas obtenidas en los ensayos Proctor Normal y Modificado, aunque a modo orientativo podemos decir que en éste último la densidad oscila entre el 5 y 10% de incremento según sean suelos granulares a cohesivos. Se debe considerar que las curvas Proctor obtenidas reutilizando el terreno ofrecen pesos específicos máximos algo superiores a las que se obtienen con muestras de terrenos nuevas.

Figura 3. Curva de compactación del Proctor Modificado. http://www2.caminos.upm.es/departamentos/ict/lcweb/ensayos_suelos/proctor_modificado.html

El ensayo Proctor origina una compactación por impacto, en tanto que en obra no siempre son habituales los compactadores de este estilo. Así existen otros ensayos en laboratorio, como NLT-311/96 que determina la densidad máxima y humedad óptima de compactación, mediante martillo vibrante, de materiales granulares con o sin productos de adición. Sería adecuado este ensayo cuando se utilizasen en obra rodillos vibratorios.

Las normas PG3 fijan como límites inferiores de la densidad máxima Proctor Normal 1,45 t/m3 para los suelos tolerables y 1,75 t/m3 para los suelos adecuados y seleccionados. En el lenguaje coloquial a veces se confunden pesos específicos con densidades, aunque son conceptos distintos. La unidad de masa común en laboratorio de 1 g/cm3 se debe multiplicar por la aceleración de 9,81 para convertirlo en kN/m3, que es la unidad correcta en el Sistema Internacional. A efectos prácticos suelen usarse indistintamente dichos conceptos, aunque es recomendable el uso del Sistema Internacional.

Raras veces de admite un peso específico seco inferior al 95% del máximo Proctor Normal obtenido en laboratorio, ya que un material suelto, sin apisonar, presenta un valor próximo al 85%. La normativa limita (ver Tabla 1) los valores para carreteras en función de la Intensidad Media Diaria (IMD) de vehículos pesados. De esta forma, para la zahorra artificial y tráficos T00 y T2, se exige un mínimo del 100% PM; para zahorra artificial y tráficos T3, T4 y arcenes, un mínimo del 98% PM. En cambio, para la zahorra natural, que suele colocarse en las capas inferiores (subbase), la densidad mínima es del 98% PM.

Es importante indicar que a veces es posible superar el 100% del Proctor correspondiente sin que por ello se pueda afirmar que la capa está suficientemente compactada. Ello es posible, entre otras posibles causas, cuando la capa ensayada presenta gran cantidad de gruesos cuyo elevado peso específico respecto al promedio del resto de la capa hace subir el valor del peso específico in situ. Tengamos presente que el ensayo en laboratorio se realiza sobre la fracción de suelo inferior a 20 mm. En estos casos es necesario realizar una corrección.

El proyecto (o Director de las obras) debe definir el ensayo de referencia: el ensayo Proctor Normal o Proctor Modificado. En la mayoría de los casos, el ensayo de referencia es el Proctor Modificado, pues puede reproducir con mayor fidelidad las condiciones de compactación de la obra, que emplea compactadores más pesados debido al aumento de la carga por eje experimentado por los vehículos. Sin embargo, en suelos expansivos se recomienda el Proctor Normal. Este ensayo también es más útil en compactaciones menores, como son las correspondientes a relleno de zanjas o ejecución de caminos.

Os dejo un vídeo elaborado por los alumnos de Ingeniería Civil de la Universidad de Granada donde nos cuentas cómo realizar el ensayo Proctor.

Aquí tenéis una explicación del profesor Agustín Rodríguez, que igual os puede complementar ideas.

Referencias:

ABECASIS, J. y ROCCI, S. (1987). Sistematización de los medios de compactación y su control. Vol. 19 Tecnología carreteras MOPU. Ed. Secretaría General Técnica MOPU. Madrid, diciembre.

ROJO, J. (1988): Teoría y práctica de la compactación. (I) Suelos. Ed. Dynapac. Impresión Sanmartín. Madrid.

YEPES, V. (1997). Equipos de movimiento de tierras y compactación. Problemas resueltos. Colección Libro Docente nº 97.439. Ed. Universitat Politècnica de València. 253 pág. Depósito Legal: V-4598-1997. ISBN: 84-7721-551-0.

YEPES, V. (2015). Coste, producción y mantenimiento de maquinaria para construcción. Editorial Universitat Politècnica de València, 155 pp. ISBN: 978-84-9048-301-5. Ref. 402.

YEPES, V. (2021). Procedimientos de construcción para la compactación y mejora del terreno. Colección Manual de Referencia, 1ª edición. Editorial Universitat Politècnica de València, 426 pp. Ref. 428. ISBN: 978-84-9048-603-0.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Control de la mejora de un suelo con ensayos de penetración dinámica

Prueba de penetración dinámica superpesada. https://www.gtklaboratorio.com/prueba-de-penetracion-dinamica-superpesada-en-bilbao

Para comprobar la efectividad de un tratamiento de mejora de suelos, tal y como pudiera ser la compactación dinámica, es necesario verificar que la mejora conseguida es suficientemente buena como para alcanzar los objetivos marcados por el proyecto correspondiente. Una forma económica y sencilla de ensayar el terreno en profundidad consiste en hincar un varillaje con una punta metálica, de forma que, contabilizando el número de golpes necesarios para hacer avanzar dicha punta una longitud determinada, se pudiese correlacionar dicho valor con las características geotécnicas del terreno. A este tipo de pruebas se les conoce con el nombre de ensayos de penetración dinámica.

El ensayo de penetración estándar o SPT (Standard Penetration Test) es quizás uno de los ensayos más frecuentes que se utiliza cuando se realizan sondeos de reconocimiento. De hecho, representan una importante fuente de datos acerca de la resistencia del terreno. Se trata de medir el número de golpes necesario para que se introduzca una cuchara cilíndrica y hueca muy robusta que, además, permite extraer una muestra alterada de su interior. Tanto la cuchara como la masa y la altura a la que caen están normalizadas. La ventaja del SPT es que se permite visualizar el terreno donde se ha realizado la prueba y permite su identificación, e incluso, si el terreno es cohesivo, obtener su humedad. Se trata de ensayos de bajo coste y de alta representatividad, especialmente para suelos granulares y mixtos. La descripción del ensayo se encuentra recogida en la norma UNE 103-800-92. El valor que se obtiene se denomina resistencia a la penetración estándar N30spt.

Este ensayo nace en 1927 cuando un sondista de la Raymond Concrete Pile propuso a Terzaghi contar el número de golpes necesarios para hincar 1 pie el tomamuestras que se utilizaba para obtener muestras en terrenos no cohesivos. Tras realizar un gran número de ensayos, Terzaghi y Peck (1948) publican sus resultados en su libro “Mecánica de suelos en la ingeniería práctica”. Esta prueba se ha difundido internacionalmente y existen numerosos estudios que permiten relacionar de forma empírica el valor N30SPT con las propiedades geotécnicas del terreno in situ. Sin embargo, gran parte de las correlaciones corresponden a terrenos arenosos, pues la presencia de gravas oscurece la interpretación de los resultados e incluso puede impedir la realización del ensayo. Por tanto, es un ensayo especialmente indicado para terrenos con una amplia fracción arenosa y lo es menos cuando existe una mayor proporción de finos o de gravas.

Uto y Fijuki (1981) recomiendan corregir el valor de la resistencia a penetración estándar cuando se ensaya a más de 20 metros de profundidad. Skempton (1986) propone factores de corrección a dicho valor en función de la profundidad del ensayo y del diámetro del sondeo, aunque estas correcciones se realizan para suelos granulares, puesto que para los cohesivos dicha influencia es despreciable. Otras correcciones independientes del sistema de ensayo se refieren al nivel freático (Terzaghi y Peck, 1948), a la presión de confinamiento (Gibbs y Holz, 1957), siendo objeto de distintos estudios que están resumidos en Liao y Whitman (1985).

En cuanto a las correlaciones de Nspt con los parámetros geotécnicos del terreno, Terzaghi y Peck (1948) publicaron las primeras correlaciones con la densidad relativa de arenas cuarzíticas, siendo modificadas posteriormente por Skempton (1986). Gibbs y Holtz (1957) comprobaron que se debía introducir la presión de confinamiento en dichas relaciones, y luego Meyerhof (1956) ajustó dichas relaciones. Otras correlaciones referidas al ángulo de rozamiento interno, deformabilidad o potencial de licuación pueden verse en Devicenzi y Frank (1995). Sin embargo, tal y como se comentó anteriormente, las correlaciones sobre terrenos cohesivos se han considerado meramente orientativas, debido a la dispersión de resultados. Sin embargo, hoy en día este criterio se está cuestionando y se están aceptando estas pruebas en todo tipo de terrenos.

Cuando lo que se quiere es disponer de un registro continuo para caracterizar un suelo en profundidad, se puede emplear la prueba de penetración dinámica superpesada o DPSH (Dynamic Probing Super Heavy). Las características del ensayo son distintas a las del SPT. Aquí se utiliza una punta cónica perpendicular al eje de penetración midiéndose el golpeo necesario para profundizar 20 centímetros. Sin embargo, se ha tratado de establecer una correlación entre ambos ensayos que, en el caso de las arenas, el factor de conversión entre ambos ensayos es próximo a la unidad, siempre que estemos entre los 5 y 30 golpes, y siempre que estemos a un máximo de 10 – 15 m, pues a partir de aquí la dispersión aumenta debido al efecto de rozamiento de las varillas, que empieza a ser importante. En el caso de la correlación entre el ensayo Borros o DSPH y el SPT en arcillas, se puede consultar el trabajo de Dapena et al (2000).

Son muchas las correlaciones que se han encontrado entre los ensayos a penetración dinámica. Las equivalencias entre los ensayos parten de una relación de semejanza entre la energía de hinca. Un resumen de los parámetros geomecánicos obtenidos a partir de estos ensayos aplicado a suelos mixtos cohesivos-granulares puede verse en Parra y Ramos (2006).

Todo ello nos lleva a la siguiente conclusión: no es muy fiable establecer correlaciones entre los distintos ensayos de penetración dinámica, especialmente cuando el suelo empieza a ser cohesivo. El tema se complica mucho más cuando el terreno no es natural, sino que se trata de un relleno antrópico heterogéneo. Ello obliga a realizar un estudio en profundidad para establecer dichas correlaciones, siendo aconsejable efectuar un penetrómetro de contraste al lado de un sondeo con SPT.

Os dejo a continuación varios vídeos al respecto de estos ensayos.

También os dejo la maniobra completa del ensayo SPT.

Referencias

  • Armijo, G.; Blanco, M.A. (2017). Diseño y verificación del tratamiento de mejora del terreno mediante compactación dinámica. Aplicación a un caso real. Interempresas.net.
  • Devincenzi, M.; Frank, N. (1995). “Ensayos Geotécnicos in situ”, Igeotest, Figueres, Girona.
  • Gibbs, H.J.; Holtz, W.G. (1957). “Research on Determining the Density of Sands by Spoon Penetration Testing”. Proc. 4th Conf. On SMFE, London.
  • Liao, S.; Whitman, R.V. (1986). “Overburden Correction Factors for SPT in Sand”, Journal of Geotechnical Engineering, ASCE, Vol 112, Nº 3.
  • Menard, L.; Broise Y. (1976). “Theoretical and practical aspects of dynamic consolidation”, Ground Treatment by deep compaction, Institution of Civil Engineers, LONDON, pp. 3-18.
  • Meyerhof, G.G. (1956). “Penetration Test and Bearing Capacity of Cohesionless Soils”. Journal of Geotechnical Engineering, ASCE, Vol. 91.
  • Parra, F.; Ramos, L.L. (2006). “Obtención de parámetros geomecánicos a partir de ensayos a penetración dinámica continua en suelos mixtos cohesivos-granulares”. Ingeopres: Actualidad técnica de ingeniería civil, minería, geología y medio ambiente, 145: pp. 20-24.
  • Skempton, A.W. (1986). “Standard Penetration Test Procedure and Effects in Sandsof Overburden Pressure, Relative Density, Particle Size, Ageing and Overconsolidation”. Geotechnique, 36, pp. 425-437.
  • Terzaghi, K.; Peck, R.B. (1948). “Soil Mechanics in Engineering Practice”. Ed. John Wiley and Sons, New York.
  • Uto, K.; Fuyuki, M. (1981). “Present and Future Trend on Penetration Testing in Japan”, Japanese Soc. SMFE.
  • Dapena, E.; Lacasa, J. García, A. (2000). “Relación entre los resultados de los ensayos de penetración dinámica Borros DPSH y el SPT en un suelo arcilloso”. Actas del Simp. sobre geotecnia de las infraestructuras lineales. Soc. Española de Mec. del Suelo e Ing. Geotécnica.
  • Yepes, V. (2020). Procedimientos de construcción de cimentaciones y estructuras de contención. Colección Manual de Referencia, 2ª edición. Editorial Universitat Politècnica de València, 480 pp. Ref. 328. ISBN: 978-84-9048-903-1.
  • Yepes, V. (2021). Procedimientos de construcción para la compactación y mejora del terreno. Colección Manual de Referencia, 1ª edición. Editorial Universitat Politècnica de València, 426 pp. Ref. 428. ISBN: 978-84-9048-603-0.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Diseño de experimentos en cuadrado grecolatino. Ejemplo aplicado al hormigón

Figura 1. Cuadrado grecolatino de orden cuatro. Wikipedia

Un cuadrado greco-latinocuadrado de Euler o cuadrados latinos ortogonales de orden n se denomina, en matemáticas, a la disposición en una cuadrícula cuadrada n×n de los elementos de dos conjuntos S y T, ambos con n elementos, cada celda conteniendo un par ordenado (st), siendo s elemento de S y t de T, de forma que cada elemento de S y cada elemento de T aparezca exactamente una vez en cada fila y en cada columna y que no haya dos celdas conteniendo el mismo par ordenado. Si bien los cuadrados grecolatinos eran una curiosidad matemática, a mediados del siglo XX Fisher demostró su utilidad para el control de experimentos estadísticos.

El diseño de experimentos en cuadrado grecolatino constituye una extensión del cuadrado latino. En este caso se eliminan tres fuentes extrañas de variabilidad, es decir, se controlan tres factores de bloques y un factor de tratamiento. Se trata de un diseño basado en una matriz de “n” letras latinas y “n” letras griegas, de forma que cada letra latina aparece solo una vez al lado de cada letra griega. Lo interesante de este diseño es que se permite la investigación de cuatro factores (filas, columnas, letras latinas y letras griegas), cada una con “n” niveles en solo “n2” corridas. Se llama cuadrado grecolatino porque los cuatro factores involucrados se prueban en la misma cantidad de niveles, de aquí que se pueda escribir como un cuadro. En la Figura 1 se presenta el aspecto de los datos del diseño de orden cuatro. El inconveniente de este modelo es que su utilización es muy restrictiva. El análisis de la varianza permite comprobar las hipótesis de igualdad de letras latinas (tratamientos), de las filas, de las columnas y de las letras griegas.

Si a un cuadrado latino p x p se le superpone un segundo cuadrado latino n x n en el que los tratamientos se denotan con letras griegas, entonces los dos cuadrados tienen la propiedad de que cada letra griega aparece una y sólo una vez con cada letra latina. Este diseño permite controlar sistemáticamente tres fuentes de variabilidad extraña. Ello permite la investigación de cuatro factores (filas, columnas, letras latinas y letras griegas), cada una con p niveles en sólo n2 ensayos.

Por tanto, el diseño de experimentos en cuadrado grecolatino se caracteriza por lo siguiente:

  • Es un diseño con cuatro factores a n niveles
  • Se asume que no hay interacciones entre los factores
  • Requiere de n2 observaciones
  • Cada nivel de un factor aparece una vez con cada nivel de los otros factores
  • Se trata de la superposición de dos cuadrados latinos (ver Figura 2)
Figura 2. Superposición de dos cuadrados latinos

En un diseño en cuadrado greco-latino la variable respuesta yij(hp) viene descrita por la siguiente ecuación:

A continuación os presento un caso para aclarar la aplicabilidad de este diseño de experimentos. Se trata de averiguar si la resistencia característica del hormigón a flexocompresión (MPa) varía con cuatro dosificaciones diferentes. Para ello se han preparado amasadas en cuatro amasadoras diferentes, se han utilizado cuatro operarios de amasadora y los ensayos se han realizado en cuatro laboratorios diferentes. Los resultados se encuentran en la tabla que sigue. Se quiere analizar el diseño de experimentos en cuadrado grecolatino realizado.

En el caso que nos ocupa, la variable de respuesta de la resistencia característica del hormigón a flexocompresión (MPa). El factor que se quiere estudiar es la dosificación a cuatro niveles (A, B, C y D). El bloque I es el tipo de amasadora, con cuatro niveles (α, β, γ y δ). El bloque II es el operario de la amasadora, con cuatro niveles (1, 2, 3 y 4). El bloque III es el laboratorio, con cuatro niveles (las filas). Se supone que no hay interacción entre el factor y los bloques entre sí.

Lo que se quiere averiguar es si hay diferencias significativas entre las dosificaciones (el factor a estudiar). De paso, se desea saber si hay diferencias entre los laboratorios, los operarios y las amasadoras (los bloques).

Os paso un pequeño vídeo donde se explica, de forma muy resumida, este caso, tanto para SPSS como para MINITAB.

Os dejo otro vídeo donde también se explica este tipo de diseño de experimentos.

Referencias:

  • Gutiérrez, H.; de la Vara, R. (2004). Análisis y Diseño de Experimentos. McGraw Hill, México.
  • Vicente, MªL.; Girón, P.; Nieto, C.; Pérez, T. (2005). Diseño de Experimentos. Soluciones con SAS y SPSS. Pearson, Prentice Hall, Madrid.
  • Pérez, C. (2013). Diseño de Experimentos. Técnicas y Herramientas. Garceta Grupo Editorial, Madrid.

 

Gestión de la innovación en las empresas constructoras

Tras la crisis financiera de 2008, que supuso una caída brutal de la contratación de obra pública en España, las empresas constructoras y consultoras tuvieron que internacionalizarse. Sin casi haber salido completamente de este trance, sobrevino la actual crisis sanitaria de la pandemia del coronavirus que ha acarreado una nueva recesión social y económica que, de momento, no se atisba su solución. Las consecuencias de esta nueva crisis, graves sin duda, aún no se sabe hasta dónde pueden alcanzar. Por tanto, el sector de la construcción vuelve a sufrir una convulsión de difícil pronóstico. Las nuevas tecnologías están teniendo un papel determinante en la forma de afrontar esta coyuntura, especialmente en el trabajo no presencial. Los cambios que podrían tardar décadas en llegar, nos han alcanzado de repente. La pregunta es la de siempre: ¿cómo afrontar la competitividad de las empresas en escenarios tan cambiantes como los actuales?

Parece evidente que la metáfora darwinista de la evolución podría aplicarse, con todas las cautelas necesarias, al mundo empresarial. Solo sobrevivirán aquellas organizaciones capaces de adaptarse rápidamente al nuevo entorno. Y para ello no es suficiente la mejora continua de nuestros procesos y productos, sino que se requiere un cambio radical, rupturista, basado en la innovación, capaz de crear un “océano azul” donde la competencia sea irrelevante.

A continuación os paso una clase que tuve que impartir en línea sobre la gestión de la innovación en las empresas constructoras. Se trata de una clase impartida en la asignatura “Gestión de la innovación en el sector de la construcción” del Máster Universitario en Planificación y Gestión en Ingeniería Civil (MAPGIC) de la Escuela Técnica Superior de Ingeniería de Caminos, Canales y Puertos de la Universitat Politècnica de València. La dejo en abierto para que la pueda ver quien esté interesado.

Tablas de contingencia aplicadas al hormigón

Figura 1. ¿Depende la calidad del hormigón de un proveedor determinado?

En ocasiones nos encontramos con un par de variables cualitativas que, a priori, no sabemos si se encuentran relacionadas entre sí, o si pertenecen a una misma población estadística. Recordemos que las variables cualitativas son aquellas cuyo resultado es un valor o categoría de entre un conjunto finito de respuestas (tipo de defecto, nombre del proveedor, color, etc.).

En el ámbito del hormigón, por ejemplo, podríamos tener varios proveedores de hormigón preparado en central y un control del número de cubas-hormigonera aceptadas, aceptadas con defectos menores o rechazadas. Otro ejemplo sería contabilizar el tipo de incumplimiento de una tolerancia por parte de un equipo que está encofrando un muro de contención. En estos casos, se trata de saber si existe dependencia entre los proveedores o los equipos de encofradores respecto a los defectos detectados. Esto sería interesante en el ámbito del control de la calidad para tomar medidas, como pudiese ser descartar a determinados proveedores o mejorar la formación de un equipo de encofradores.

Así, podríamos tener un problema como el siguiente: Teniendo en cuenta el punto 5.6 del Anejo 11 de la EHE, donde se definen las tolerancias de muros de contención y muros de sótano, se quiere comprobar si tres equipos de encofradores producen de forma homogénea en la ejecución de muros vistos, o por el contrario, unos equipos producen más defectos de un tipo que otro. Todos los equipos emplean el mismo tipo de encofrado. Las tolerancias que deben cumplirse son:

1. Desviación respecto a la vertical
2. Espesor del alzado
3. Desviación relativa de las superficies planas de intradós o de trasdós
4. Desviación de nivel de la arista superior del intradós, en muros vistos
5. Tolerancia de acabado de la cara superior del alzado, en muros vistos

Los equipos han estado trabajando durante año ejecutando este tipo de unidad de obra. Durante este tiempo el número de defectos en relación con la tolerancia dimensional ha sido pequeño, pero se han contabilizado 375 defectos. El control de calidad ha dado como resultado el conteo de la tabla de la Figura 2.

Figura 2. Conteo de incumplimientos según el equipo de encofradores. En paréntesis figura el valor esperado.

En la Figura 2 se ha representado también la frecuencia esperada para cada uno de los casos. Por ejemplo, la fracción esperada del incumplimiento “1” es de 89/375, mientras que la fracción esperada de defectos del equipo A es de 150/375. Ello implica que el valor esperado de incumplimientos del tipo “1” para el equipo de encofradores “A” sería: (89/375)·(150/375)·375=89·150/375=35,60.

La pregunta que nos podríamos hacer es la siguiente: ¿Influye el tipo de proveedor en la calidad de la recepción del hormigón? Para ello plantearíamos la hipótesis nula: El tipo de proveedor no influye en la calidad de la recepción del hormigón. La hipótesis alternativa sería que sí que existe dicha influencia o dependencia entre las variables cualitativas.

Para ello necesitamos una prueba estadística, en este caso es la prueba χ². El fundamento de la prueba χ² es comparar la tabla de las frecuencias observadas respecto a la de las frecuencias esperadas (que sería la que esperaríamos encontrar si las variables fueran estadísticamente independientes o no estuvieran relacionadas). Esta prueba permite obtener un p-valor (probabilidad de equivocarnos si rechazamos la hipótesis nula) que podremos contrastar con el nivel de confianza que determinemos. Normalmente el umbral utilizado es de 0,05. De esta forma, si p<0,05 se rechaza la hipótesis nula y, por tanto, diremos que las variables son dependientes. Dicho de forma más precisa, en este caso no existe un nivel de significación suficiente que soporte la independencia de las variables.

Las conclusiones que se obtienen de la prueba son sencillas de interpretar. Si no existe mucha diferencia entre los valores observados y los esperados, no hay razones para dudar de que las variables sean independientes.

No obstante, hay algunos problemas con la prueba χ², uno de ellos relacionado con el tamaño muestral. A mayor número de casos analizados, el valor de la χ² tiende a aumentar. Es decir, si la muestra es excesivamente grande, será más fácil que rechacemos la hipótesis nula de independencia, cuando a lo mejor podrían ser las variables independientes.

Por otra parte, cada una de las celdas de la tabla de contingencia debería tener un mínimo de 5 observaciones esperadas. Si no fuera así, podríamos agrupar filas o columnas (excepto en tablas 2×2). También se podría eliminar la fila que da una frecuencia esperada menor de 5.

Por último, no hay que abusar de la prueba χ². Por ejemplo, podríamos tener una variable numérica, como la resistencia característica del hormigón, y agruparla en una variable categórica en grupos tales como 25, 30, 35, 40, 45 y 50 MPa. Lo correcto cuando tenemos una escala numérica sería aplicar la prueba t-Student, siendo incorrecto convertir la escala numérica en una ordinal o incluso binaria.

A continuación os dejo el problema anterior resuelto, tanto con el programa SPSS como con MINITAB.

Descargar (PDF, 326KB)

Os dejo un par de vídeos explicativos, que espero os sean de interés.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Estimación puntual y por intervalos para una muestra de una población normal

El problema de la  estimación puntual y por intervalos para una muestra de una población normal es una actividad muy frecuente en el ámbito de la ingeniería y de la investigación. Supongamos que tenéis una muestra de 5 elementos extraída de una población normal (por ejemplo, de la resistencia a compresión simple de una probeta de hormigón a 28 días procedente de una misma amasada). El objetivo es establecer inferencias estadísticas usando un nivel de significación α=0.05. Deberíais ser capaces de realizar las siguientes actividades:

  1. Calcular el intervalo de confianza para la media, suponiendo que la desviación típica de la población es conocida y vale lo mismo que la desviación típica de la muestra. (Se empleará la distribución normal).
  2. Calcular el intervalo de confianza para la media, suponiendo que la desviación típica de la población es desconocida. (Se empleará la distribución t de Student).
  3. Calcular el intervalo de confianza para la desviación típica de la muestra. (Se empleará la distribución chi-cuadrado).

A continuación os dejo un pequeño tutorial para proceder al cálculo de dichos intervalos utilizando el paquete estadístico Minitab.

Os paso unos vídeos explicativos para que entendáis los conceptos. Espero que os gusten:

 

Premio Docencia en Red 2018-2019 al mejor curso MOOC

 

Estoy muy agradecido por haber recibido el Premio por la calidad del material del curso MOOC titulado “Introducción a los encofrados y las cimbras en obra civil y edificación“, correspondiente al curso 2018-2019. Este es un curso que ya va por su tercera edición y al que se han inscrito más de 7000 interesados de todas partes del mundo.

Como podéis ver en esta página oficial de la Universitat Politècnica de València: http://www.upv.es/contenidos/DOCENRED/infoweb/docenred/info/1085709normalc.html, solo se concede un premio en toda la UPV para los cursos MOOC y es el de mayor cuantía económica. Este premio se suma al que me concedieron el año pasado por la elaboración de un vídeo educativo (Polimedia).

Para mí, como profesor, es un orgullo que tu universidad premie la labor docente desarrollada. Si bien el profesor universitario tiene otras facetas (investigadora, gestión, etc.), la docente es, sin duda, la más vocacional. Muchas gracias a todos.

 

Descargar (PDF, 104KB)

Control de calidad en recepción. Planes de muestreo

En una entrada anterior resolvimos un problema concreto de un plan de muestreo por atributos. Sin embargo, para los que no estén familiarizados con la jerga y las definiciones de la estadística empleada en el control de calidad, me he decidido por subir unas transparencias que a veces utilizamos en clase para cuando tenemos que explicar los planes de muestreo.

Pero antes, voy a comentar brevemente algunos conceptos relacionados con el control de calidad, el control estadístico, el control de aceptación y el control del proceso, entre otros. Vamos a ello.

El control de calidad es la parte de la gestión de la calidad orientada al cumplimiento de los requisitos de los productos o los servicios. Se trata de un método de trabajo que permite medir las características de calidad de una unidad, compararlas con los estándares establecidos e interpretar la diferencia entre lo obtenido y lo deseado para poder tomar decisiones conducentes a la corrección de estas diferencias.

En el proceso proyecto-construcción, la comprobación de los requisitos exigibles de calidad se basa fundamentalmente en el control de la calidad. Los pliegos de condiciones técnicas definen, para cada unidad de obra, qué tipo de controles deben realizarse para dar por buena la correcta ejecución de una obra, atendiendo no sólo a los materiales, sino a su puesta en obra y terminación. La misma filosofía es aplicable a la propia redacción de los proyectos de construcción por parte de las empresas de consultoría.

Una forma de controlar la calidad se basa en la inspección o la verificación de los productos terminados. Se trata establecer un filtro sobre los productos antes que éstos lleguen al cliente, de forma que los que no cumplen se desechan o se reparan. Este control en recepción normalmente se realiza por personas distintas a las que realizan el trabajo de producción, en cuyo caso los costes pueden ser elevados y pueden no considerarse las actividades de prevención ni los planes de mejora. Se trata de un control final, situado entre el productor y el cliente, que presenta la ventaja de ser imparcial, pero que adolece de muchos inconvenientes como son el desconocimiento de las circunstancias de la producción, la no-responsabilización de producción por la calidad, la lentitud en el flujo de la información, etc.

Sin embargo, una inspección al 100% de todas las unidades producidas puede ser materialmente imposible cuando los ensayos a realizar son destructivos. En estos casos, se hace necesario tomar decisiones de aceptación o rechazo de un lote completo de producto en función de la calidad de una muestra aleatoria. Este control estadístico (Statistical Control) proporciona una menor información, e incluso presenta riesgos propios del muestreo, pero sin embargo resulta más económico, requiere menos inspectores, las decisiones se toman con mayor rapidez y el rechazo a todo el lote estimula a los proveedores a mejorar la calidad.

El control estadístico se asentó plenamente a partir de la Segunda Guerra Mundial, caracterizándose por la consideración de las características de calidad como variables aleatorias, por lo que se centra básicamente en la calidad de fabricación o de producción. Este tipo de control también se identifica con el interés en conocer las causas de variación y establecer, como consecuencia, procedimientos de eliminación sistemática de dichas causas para la mejora continua de la calidad.

El control estadístico puede aplicarse en el producto final, lo que sería el control de aceptación, o bien a lo largo del proceso de producción, lo cual comprende el control del proceso. El control estadístico de recepción supone el establecimiento de planes de muestreo con criterios de aceptación o rechazo claros sobre lotes completos en función de los ensayos realizados sobre una muestra aleatoria. Este control por muestreo puede realizarse por atributos basándose en la norma ISO-2859, o bien por variables según ISO-3951. En cuanto al control estadístico de procesos, herramientas como los gráficos de control (Quality Control Chart) permiten tomar decisiones cuando el proceso se encuentra fuera de control. Igualmente, los estudios de capacidad de los procesos permiten decidir la capacidad de éstos de producir dentro de los límites de las especificaciones de calidad contratadas.

Una empresa constructora debería reducir al mínimo los costes de una mala calidad asegurándose que el resultado de sus procesos cumplieran los requisitos pactados con el cliente. Por ello, para garantizar que el control de aceptación de los productos presenta éxito –el denominado control externo-, la empresa constructora debería organizar como una actividad propia, un conjunto de controles en su cadena de producción que garantizase la calidad de las unidades de obra –actividad que recibe el nombre de control interno-.

Tanto el control interno como el externo puede ser realizado por la propia empresa constructora, por el cliente o por una organización independiente contratada al efecto. Así, por ejemplo, el control del hormigón recibido por el contratista puede ser realizado por una entidad independiente, la ejecución de la ferralla puede controlarse por parte de la dirección facultativa, o bien, la propia empresa constructora puede realizar un control interno de la ejecución de la obra.

Os paso, por tanto, la presentación que he utilizado alguna vez en clase.

Descargar (PDF, 3.97MB)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Muestreo de aceptación por atributos. Ejemplo de caso resuelto.

El muestreo de aceptación constituye uno de los campos más amplios del control de calidad estadístico en recepción. Se trata de aceptar o rechazar un lote atendiendo a una serie de criterios establecidos. No se trata de determinar la calidad que presenta un lote, sino de determinar la forma de actuar. El muestreo de aceptación determina, por tanto, un procedimiento que si se aplica a una serie de lotes dará un riesgo especificado en cuanto a la aceptación de lotes de una calidad dada. Por tanto, el muestreo de aceptación proporciona un margen de seguridad en cuanto a la calidad.

Tampoco el muestreo de aceptación constituye un control de calidad propiamente dicho. Para ello tenemos otras herramientas como los diagramas de control, que pueden guiar al ingeniero en cuanto a la modificación de la producción con el objeto de mejorar los productos. Este punto debe tenerse muy en cuenta. Un muestreo de aceptación, tal y como hemos indicado antes, aceptará o rechazará lotes. Suponiendo que todos los lotes son de la misma calidad, aceptará unos y rechazará otros, sin que los aceptados sean mejores que los rechazados.

Sin embargo, esta práctica de muestreo proporciona un efecto indirecto muy importante. Si a un proveedor se le rechaza frecuentemente sus lotes, o cambia radicalmente su forma de producción, o el cliente buscará un nuevo proveedor.

A continuación os paso, totalmente resuelto, una práctica resuelta propuesta en clase de un muestreo de aceptación por atributos. En este caso, el producto es defectuoso o no lo es. Es evidente que, si se disponen de datos cuantitativos, sería mejor utilizar un muestreo de aceptación por variables, pero la filosofía y la estrategia es la misma.

En el caso del control de calidad en recepción por atributos, se han utilizado las tablas de la norma UNE 66-020 (actualmente la familia de normas vigentes son las UNE-ISO 2859), que proceden de la norma MIL-STD-105. Esta era una norma de defensa de los Estados Unidos que proporcionaba procedimientos y tablas para el muestreo por atributos basadas en las teorías de inspección de muestreo de Walter A. Shewhart, Harry Romig y Harold Dodge y fórmulas matemáticas.

Aunque el ejemplo trata de una producción industrial, el campo de aplicación podría extrapolarse a otros como la recepción de lotes en carreteras, que no deja de ser el resultado de un proceso de producción. En futuros artículos publicaré algunos ejemplos más. Por otra parte, para entender bien la resolución del problema, se recomienda al lector algún curso básico sobre estadística avanzada aplicada al control de calidad.

Descargar (PDF, 697KB)