Potencia de un test estadístico: Cómo evitar que nos la cuelen

https://neuromarketing.la/2018/12/riesgo-percibido-en-las-compras-online/

En un artículo anterior, “Jerga, falacias y encuestas electorales: Las hipótesis en la investigación científica“, expliqué lo que es una hipótesis de investigación y los errores estadísticos asociados. En aquel artículo se habló del nivel de significación α como la probabilidad de rechazar una hipótesis nula cuando es cierta. Por cierto, como curiosidad hay que decir que se llama “hipótesis nula” porque es la afirmación de una “ausencia de efecto” o de “no diferencia”.

Para simplificar, supongamos un test de embarazo. En este caso, la hipótesis nula es no estar embarazada. Si el test da positivo, no estando embarazada, a este error se le denomina Tipo I o falso positivo. Este error también ocurriría cuando se realiza una operación quirúrgica a un individuo sano, se condena a un inocente o se suspende a un alumno que ha estudiado mucho. También se suele llamar a esta error el RIESGO DEL FABRICANTE, pues es la probabilidad de que el comprador le rechace un lote de producto correcto.

Normalmente se acepta un umbral de α=0,05 , por debajo del cual se puede decir que existe una diferencia entre los resultados del estudio y la hipótesis nula, cuando realmente no hay ninguna diferencia. No obstante, dependiendo del tipo de test y su finalidad, los umbrales pueden ser diferentes a 0,05. Para simplificar la decisión, se utiliza el concepto de significación muestra de la hipótesis nula o “p-valor“, que es la probabilidad de que un resultado sea correcto bajo una hipótesis nula. Así, si el p-valor obtenido es inferior al nivel de significación exigido, se rechazará la hipótesis nula.

Sin embargo, en este artículo me interesa centrarme en un aspecto a veces olvidado, o al menos al que se le da menor importancia que al nivel de significación. Este aspecto es la potencia de un test estadístico, muy relacionado con los falsos negativos. Supongamos, por ejemplo, que a una mujer embarazada el test le dice que no lo está, que se declara inocente a un asesino, que no se opera a un enfermo con metástasis o que se aprueba a alumnos que no han estudiado. Está claro que aquí el test no ha tenido la potencia suficiente como para detectar que ha habido un efecto. Dicho de otra forma, la potencia estadística de un test debe distinguir la señal del ruido. El gran problema que planteamos es que deberíamos distinguir si realmente ha habido un efecto determinado o bien el test no ha sido capaz de detectarlo.

Para ello debemos definir el error Tipo II, β o falso negativo. Se trata del error cometido al aceptar la hipótesis nula cuando ésta no es cierta. Pues bien, la potencia de la prueba se define como 1-β. También se le llama RIESGO DEL COMPRADOR, pues indica la probabilidad de aceptar un lote defectuoso de un fabricante. ¿Qué porcentaje delincuentes voy a declarar culpables en un juicio? ¿Qué probabilidad es aceptable para decir que un fármaco realmente es útil para una enfermedad? Vemos que esos porcentajes, es decir, la potencia del test, puede ser variable. Aunque es habitual exigir entre un 80 y 90%.

El error Tipo I y Tipo II se encuentran relacionados. Si hay diferencias significativas, estos errores son bajos. https://es.wikipedia.org/wiki/Errores_de_tipo_I_y_de_tipo_II

Como podemos ver, no tiene la misma importancia un falso positivo que un falso negativo. Imaginemos una prueba que detecta contaminación letal en un alimento. No es lo mismo decir que el alimento está contaminado, cuando no lo está, que afirmar que no hay contaminación, cuando sí que la hay. El resultado final es que el falso negativo puede provocar muertes, mientra que el falso positivo no.

Pues bien, en una prueba estadística, el nivel de significación, la potencia y el tamaño muestral, se encuentran relacionados. La única forma de bajar los falsos positivos y falsos negativos es aumentar el tamaño muestral. No obstante, como la potencia de la prueba trata de distinguir el efecto del ruido, también se podría incrementar dicha potencia utilizando muestras lo más homogéneas posibles (disminuyendo su variabilidad), utilizando instrumentos de medida muy fiables o utilizando contrastes concretos, entre otros.

Eso explica que, en el caso de los exámenes a nuestros estudiantes, una forma de reducir los suspensos a los alumnos que han estudiado y de suspender al máximo de número de estudiantes que no han estudiado, consiste en aumentar el número de preguntas. Además, deberíamos diseñar el examen de forma que las preguntas permitan distinguir claramente si se conoce o no un concepto.

Os paso algunos vídeos que explican estos conceptos de potencia de una prueba. Espero que os sean útiles.

A continuación os resuelvo un pequeño problema con MINITAB al respecto. Se quiere saber qué tamaño de muestra deberemos elegir para detectar diferencias respecto a la media mayor de 2 MPa un 80% de las veces, suponiendo un nivel de confianza del 95%. Suponemos conocida la desviación típica, que es de 3 MPa.

Descargar (PDF, 139KB)

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Las dificultades asociadas a las vigas Vierendeel y su rotura frágil

Jules Arthur Vierendeel (1852-1940). https://es.wikipedia.org/wiki/Jules_Arthur_Vierendeel

Los entramados en bastidor, también llamados Vierendeel, surgieron de la patente de 1897 de una viga reticulada que lleva el nombre de su creador, el ingeniero belga Jules Arthur Vierendeel (1852-1940). La viga Vierendeel tiene una forma de celosía ortogonal que presenta la ventaja de prescindir de las tradicionales diagonales. Esta característica obliga a rigidizar fuertemente los nudos, estando sometidas sus barras a esfuerzos flectores y cortantes, además de los esfuerzos axiles. La tipología de la estructura presenta ventajas como la de permitir el paso a su través, ya sea de personas o de conducciones, facilitando también la colocación de carpinterías en edificación.

En el caso de los puentes, los de este tipo se hicieron muy populares en el primer tercio del siglo XX, existiendo un buen número de ejemplos en Bélgica y en el antiguo Congo Belga. El primer puente de estas características se construyó en Avelgem, Bélgica, en 1902. En España, por ejemplo, tenemos un ejemplo en Riera de Caldas, terminado en 1933.

 

Vigas Vierendeel en el teatro Alla Scala de Milán. https://www.e-zigurat.com/blog/es/ejemplos-estructurales-aplicacion-vigas-vierendeel/
Puente Hafe vu Léck. https://es.wikipedia.org/wiki/Puente_Vierendeel

Sin embargo, esta tipología no está exenta de dificultades relacionada con la tenacidad del acero y la mecánica de fractura. Un ejemplo es el colapso del puente Vierendeel de Hasselt, sobre el canal Alberto, en Bélgica, en 1938. Este desastre ocurrió con una temperatura de -20ºC. Se trataba de un puente metálico soldado donde, al desaparecer las diagonales de la celosía, se debía reforzar los cordones y montantes. Pero lo más importante, la ejecución de los nudos soldados requiere de una delicadeza y cuidado máximos. En efecto, estos nudos soldados fueron el origen de sonados desastres como el descrito debido a que con las bajas temperaturas del invierno y con cierta sobrecarga, se produce con cierta facilidad la rotura frágil del acero si no se concibe y ejecuta los innumerables detalles asociados a la soldadura.

Otra dificultad añadida es su deformabilidad frente a otras tipologías de celosías trianguladas. Por ejemplo, para una pasarela de 60 m, la flecha de una viga Vierendeel es unas 10 veces mayor que el resto. Aproximadamente del orden de Luz/100, mientras que en las celosías son menores que Luz/1000.

Sin embargo, hoy día existe cierta tendencia en arquitectura en utilizar este tipo de estructura sin informar claramente sobre las dificultades de esta tipología, muy tentadora, como nos comenta Javier Rui-Wamba en su libro “Teoría unificada de estructuras y cimientos. Una mirada transversal“.

Os dejo a continuación un vídeo sobre la construcción con vigas Vierendeel en el Centro Cultural Nestor Kirchner, en Buenos Aires (Argentina).

En este otro vídeo, donde unos estudiantes rompen un modelo reducido de viga Vierendeel, vemos la gran deformabilidad de esta estructura.

Un ejemplo arquitectónico singular fue la construcción de las Torres Gemelas, donde se recurrió a la viga Vierendeel y a un sistema invertido de estructura.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

De la regla de cálculo al ordenador: olvidarse de cómo se calculaba antes

Henry Petroski. https://es.wikipedia.org/wiki/Henry_Petroski

Henry Petroski, ingeniero civil estadounidense y profesor en la Universidad de Duke en Durham (Carolina del Norte) escribió un libro que recomiendo a mis estudiantes y a cualquier profesional de la ingeniería que se llama “La ingeniería es humana. La importancia del fallo en el éxito del diseño“. Este libro está editado en castellano por la editorial CINTER, traducido por María Eugenia Matamala Pérez y prologado por Robert Brufau.

Todos los capítulos son verdaderamente interesantes, pero me gustaría destacar el que se llama “De la regla de cálculo al ordenador: olvidarse de cómo se calculaba antes”. De este tema ya he hablado en mi blog en alguna ocasión: https://victoryepes.blogs.upv.es/2013/09/10/los-ingenieros-los-ordenadores-y-mil-un-indios/ y también cuando hablaba de las cifras significativas y los errores de precisión. Os remito a su lectura.

La conclusión es muy clara, un ingeniero debería saber de antemano el orden de magnitud del cálculo antes de calcularlo realmente. Dejar todo al libre albedrío del ordenador sin criterio para saber si el resultado final es aceptable o no, es un riesgo inaceptable. Eso explica el éxito de libros sobre “Números gordos” o bien cómo la investigación puede llevarnos a descubrir fórmulas de predimensionamiento útiles en la práctica (ver el artículo que escribí sobre cómo predimensionar un muro sin calculadora).

Pero no voy a ser “spoiler” de libro de Petroski. Simplemente os adjunto lo que la American Society of Civil Engineers (ASCE) indicó cuando anunció el Premio Mead (es un premio anual para estudiantes de ingeniería civil que otorga el ASCE  un trabajo sobre la ética profesional):

“Los ingenieros civiles han recurrido al ordenador en busca de mayor rapidez y productividad. Sin embargo, ¿se corre el riegos de comprometer la seguridad y el bienestar del usuario? Muchos han predicho que los fallos futuros de ingeniería se atribuirán al uso o el mal uso de los ordenadores. ¿Se está convirtiendo en habitual aceptar un proyecto cuando no se tiene experiencia simplemente porque se dispone de un paquete de software? ¿Cómo pueden garantizar los ingenieros civiles la precisión del programa del ordenador y que el ingeniero civil está cualificado para usarlo de manera apropiada?”

Os dejo estas preguntas para pensar. Es evidente que un ordenador no deja de ser más que una regla de cálculo electrónico o los cuadernos de cálculo de toda la vida. Muchas ventajas, pero mucha precaución en su empleo.

Referencia:

PETROSKY, H. (2007). La ingeniería es humana. La importancia del fallo en el éxito del diseño. Ed. CINTER, 320 pp.

 

Estimación puntual y por intervalos para una muestra de una población normal

El problema de la  estimación puntual y por intervalos para una muestra de una población normal es una actividad muy frecuente en el ámbito de la ingeniería y de la investigación. Supongamos que tenéis una muestra de 5 elementos extraída de una población normal (por ejemplo, de la resistencia a compresión simple de una probeta de hormigón a 28 días procedente de una misma amasada). El objetivo es establecer inferencias estadísticas usando un nivel de significación α=0.05. Deberíais ser capaces de realizar las siguientes actividades:

  1. Calcular el intervalo de confianza para la media, suponiendo que la desviación típica de la población es conocida y vale lo mismo que la desviación típica de la muestra. (Se empleará la distribución normal).
  2. Calcular el intervalo de confianza para la media, suponiendo que la desviación típica de la población es desconocida. (Se empleará la distribución t de Student).
  3. Calcular el intervalo de confianza para la desviación típica de la muestra. (Se empleará la distribución chi-cuadrado).

A continuación os dejo un pequeño tutorial para proceder al cálculo de dichos intervalos utilizando el paquete estadístico Minitab.

Os paso unos vídeos explicativos para que entendáis los conceptos. Espero que os gusten:

 

Cifras significativas y errores de medición

Diferencias entre la exactitud y la precisión de una medida

El uso de calculadoras electrónicas y ordenadores nos hace perder el orden de magnitud de un problema. Como ya comenté en un artículo anterior, el uso masivo de herramientas informáticas atrofian la capacidad intuitiva y de cálculo de los futuros profesionales. Un buen ingeniero o científico debería tener un “número gordo” del resultado antes, incluso, de resolver un problema.

Cuando se miden ciertas cantidades, lo valores medidos se conocen solo dentro de los límites de la incertidumbre experimental. Usamos el número de cifras significativas como una medición que sirve para expresar algo de dicha incertidumbre. De hecho, todas las cifras significativas importan información veraz de la medición, excepto la última, que es incierta.

Para conocer el número correcto de cifras significativas, se siguen las siguientes normas:

  • Los ceros situados en medio de números diferentes de cero son significativos, por ejemplo, 709 cm tiene tres cifras significativas.
  • Los ceros a la izquierda del primer número no son significativos, por ejemplo, 0,000057 presenta dos cifras significativas.
  • Para los números mayores que uno, los ceros escritos a la derecha de la coma decimal también cuentan como cifras significativas, por ejemplo 6,0 tiene dos cifras significativas.
  • En los números enteros, los ceros situados después de un dígito distinto de cero, pueden ser o no cifras significativas, por ejemplo 8000, puede tener una cifra significativa (el número 8), pero también cuatro. Para evitar el problema se puede usar la notación científica, indicando el número 8000 como 8·103 teniendo solo una cifra significativa (el número 8) o 8,0·103, tenemos dos cifras significativas (8,0).

Existen reglas empíricas que permiten conocer el número de cifras significativas en el caso de operaciones básicas:

  • Cuando se multiplican o dividen varias cifras, el resultado tiene el mismo número de cifras significativas que el número de menor cifras significativas
  • Cuando dos números se sumen o resten, el número de lugares decimales en el resultado debe ser igual al número más pequeño de lugares decimales de cualquier término en la suma

El error de medición se define como la diferencia entre el valor medido y el “valor verdadero”. Los errores de medición afectan a cualquier instrumento de medición y pueden deberse a distintas causas. Las que se pueden de alguna manera prever, calcular, eliminar mediante calibraciones y compensaciones, se denominan deterministas o sistemáticos y se relacionan con la exactitud de las mediciones. Los que no se pueden prever, pues dependen de causas desconocidas, o estocásticas se denominan aleatorios y están relacionados con la precisión del instrumento.

Sin embargo, para establecer el error en una medida, se debe disponer, junto con la medida de la magnitud, su error y la unidad de medida del Sistema Internacional. En este caso, se deben seguir las siguientes normas:

  • El error se da con una sola cifra significativa. Se trata del primer dígito comenzando por la izquierda distinto de cero, redondeando por exceso en una unidad si la segunda cifra es 5 o mayor de 5. Sin embargo, como excepción se dan dos cifras significativas para el error si la primera cifra significativa es 1, o bien siendo la primera un 2, la segunda no llega a 5.
  • La última cifra significativa en el valor de una magnitud física y su error, expresados en las mismas unidades, deben de corresponder al mismo orden de magnitud (centenas, decenas, unidades, décimas, centésimas).

Con una sola medida, se indica el error instrumental, que es la mitad de la menor división de la escala del instrumento usado. Sin embargo, con n medidas directas consecutivas, se considera el error cuadrático de la media (una desviación estándar de la población de las medias). A todo caso, se utilizará el mayor de ambos errores.

En este vídeo explico los aspectos básicos de los errores de medición:

Por otra parte, hay que conocer que los errores se propagan cuando hacemos operaciones matemáticas. Simplificando, cuando tenemos sumas o restas, las cotas de error absoluto se suman; cuando hay productos o divisiones, las cotas de error relativo se suman.

Pero mejor será que os deje un vídeo explicativo del profesor de la UPV, Marcos Herminio Jiménez Valentín. Espero que os aclare este tema.

Este otro vídeo también es de interés para conocer con mayor profundidad la propagación de los errores.

Os dejo también unos pequeños apuntes del profesor Antonio Miguel Posadas Chinchilla, de la Universidad de Almería, que os podéis descargar de este enlace: https://w3.ual.es/~aposadas/TeoriaErrores.pdf

Descargar (PDF, 173KB)

 

 

 

 

Medición del trabajo a través del procedimiento de observaciones instantáneas

Las observaciones instantáneas constituye un procedimiento de medición del trabajo que, junto con el cronometraje, permite determinar los tiempos improductivos y sus causas, eliminándolas mediante su análisis. Se emplea como auxiliar en el estudio de métodos para reducir el tiempo de trabajo. El cronometraje es más apropiado para trabajos muy sistematizados y repetitivos, realizados por una o pocas unidades de recurso. En cambio, las observaciones instantáneas se adaptan al resto de escenarios posibles, como trabajos poco sistematizados, con ciclos largos o realizados por muchos recursos.

Las observaciones instantáneas se basan en comprobar si, en un momento dado, un recurso se encuentra trabajando o parado. Se puede estimar el tiempo de trabajo y el de parada, así como su error estadístico basándose en la distribución binomial de probabilidad. Se puede ejecutar una pasada si observamos un conjunto de recursos y anotamos su situación de trabajo o parada para cada uno de ellos. Para planificar correctamente las observaciones, es necesario garantizar que todas las actividades se observen un número de veces proporcional a su duración.

Detengámonos un momento en el fundamento estadístico del método. Supongamos que p es la fracción del tiempo en el que un recurso presenta una característica. Por ejemplo, si p = 15 %, puede significar que, del tiempo total de actividad de una máquina en una obra, el 15 % del tiempo está parada. Si extraemos n elementos de la población infinita de posibilidades en las que una máquina puede estar parada en una proporción p en una obra, la probabilidad de que x máquinas se encuentren paradas sería la siguiente:

Si en la distribución binomial se cumple que n·p>15, entonces la distribución binomial —que es discontinua— se puede aproximar a la distribución normal —que es continua—.

Ahora lo que nos interesa es conocer el tamaño de la muestra n para proporciones en una población infinita. Para calcular este tamaño de muestra, antes debemos especificar el nivel de confianza con el que se desea realizar la estimación y el margen de error máximo tolerable D. De esta forma, se espera trabajar con una muestra que sea representativa y que las estimaciones sean consistentes. La expresión que utilizaremos será la siguiente:

Aquí os dejo una tabla que relaciona el nivel de confianza con los las variables utilizada en la fórmula anterior:

Nivel de confianza α Z α/2 (Z α/2)2
99% 0,01 2,576 6,636
95% 0,05 1,960 3,842
90% 0,10 1,645 2,706
80% 0,20 1,280 1,638
50% 0,50 0,674 0,454

 

También os dejo un vídeo explicativo y un problema resuelto.

Descargar (PDF, 100KB)

Referencia:

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442. ISBN: 978-84-1396-046-3

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Constructividad, constructibilidad, constructabilidad, ¿todo lo mismo?

Figura 1. Capacidad de influir en el coste durante el proceso proyecto-construcción (Serpell, 2002)

Todo el mundo está de acuerdo en que la industria de la construcción es un motor del desarrollo económico, ya que permite crear infraestructuras y viviendas que sostienen las actividades económicas. Sin embargo, para ello se requieren recursos intensivos, tanto públicos como privados, que en muchas ocasiones no se utilizan de forma efectiva. Se trata de un sector con un amplio margen de mejora en cuanto a productividad se refiere y que, por el momento y con carácter general, no aprovecha todas las oportunidades que brinda el desarrollo tecnológico.

Todos los agentes que participan en la industria de la construcción, desde proyectistas hasta suministradores de materiales y equipos, se ven abocados a utilizar de forma efectiva y eficiente todos los recursos a su alcance para mejorar la productividad y los resultados empresariales. Ello supone no solo emplear bien los recursos disponibles, sino también alcanzarlos con el fin de cumplir con los objetivos empresariales, que pasan por satisfacer las necesidades de los clientes en cuanto a calidad, costes y plazos.

En la Figura 1 se puede observar cómo, en el proceso proyecto-construcción, las primeras fases son las que presentan mayor capacidad de influencia en el coste final de un proyecto (Serpell, 2002). Sobre este asunto ya hablamos en un artículo anterior: La “Ley de los Cincos” de Sitter. Las estadísticas europeas señalan (ver Calavera, 1995) que el proyecto es el responsable del 35-45% de los problemas en construcción. A este respecto, Sitter (véase Rostman, 1992) ha introducido la llamada “Ley de los Cincos”, postulando que un dólar gastado en fase de diseño y construcción elimina costes de 5 dólares en mantenimiento preventivo, 25 dólares en labores de reparación y 125 en rehabilitación.

Por tanto, mejorar el diseño de un proyecto constructivo es clave, no solo para conseguir satisfacer los requerimientos del cliente, sino para mejorar los resultados de todos los agentes involucrados en el proceso proyecto-construcción. Sobre este aspecto, la bibliografía de origen anglosajón habla de Constructability o Buildability, que se ha traducido al español como “constructabilidad” o “constructibilidad”, incluso “constructividad”. Sin embargo, son palabras que no las recoge la Real Academia Española de la Lengua. Simplificando, podríamos hablar de que una obra puede construirse de forma más o menos fácil y efectiva. Ello va a depender de muchos factores, pero uno de los más importantes va a ser el propio proyecto constructivo. Por cierto, no vamos a utilizar aquí el concepto de “coeficiente de constructibilidad”, que en el ámbito del urbanismo, se refiere a un número que fija el máximo de superficie posible a construir en un ámbito determinado.

En la Figura 2 he elaborado un mapa conceptual para aclarar las ideas. Como puede verse, tanto la constructividad como la constructibilidad tienen como objetivo último satisfacer las necesidades del cliente en cuanto a calidad, costes, plazos, estética, etc., además de cumplir con otro tipo de objetivos relativos al contexto (requerimientos ambientales, sociales, legales, etc.), de forma que los agentes involucrados en la construcción sean capaces de mejorar sus resultados empresariales. Sin embargo, el enfoque de ambos conceptos es diferente. Veamos con algo de detalle las diferencias.

 

Figura 2. Mapa conceptual sobre constructividad y constructibilidad. Elaboración propia.

La constructividad define el grado con el cual un proyecto facilita el uso eficiente de los recursos para facilitar su construcción, satisfaciendo tanto los requerimientos del cliente como otros asociados al proyecto. Como se puede ver, se trata de un concepto directamente ligado a la fase del proyecto, y, por tanto, depende fuertemente del equipo encargado del diseño.

Por otra parte, la constructibilidad es un concepto relacionado con la gestión que involucra a todas las etapas del proyecto y que, en consecuencia, depende tanto de los proyectistas, de los gestores del proyecto y de los constructores. Aunque se trata de un concepto también relacionado con las etapas del diseño del proyecto, la diferencia estriba en la incorporación de personal en esta etapa preliminar de personal con experiencia y conocimiento en construcción con el fin de mejorar la aptitud constructiva de una obra.

Quizá un ejemplo sea clarificador. Supongamos un equipo de arquitectura que está proyectando un edificio complejo, como un hospital. Este equipo, con mayor o menor experiencia en obra, tratará de diseñar un edificio que se pueda construir. El proyecto se licitará y una empresa constructora se encargará de su ejecución. Resulta evidente que, en función de los problemas surgidos durante la obra, el proyecto podrá modificarse para adaptarse a problemas que no quedaron resueltos en él o a cambios no previstos durante la ejecución. Se trata de un ejemplo en el que los proyectistas han incorporado, en la medida de lo posible, aspectos relacionados con la constructividad.

Por otra parte, podría darse el caso de un concurso de proyecto y construcción, en el que el adjudicatario participara, a su riesgo, en el proceso de proyecto y construcción. En este caso, es muy probable que al equipo redactor del proyecto se incorporaran personas con amplia experiencia en la ejecución de este tipo de proyectos. Por ejemplo, jefes de obra o de producción de la empresa que hubiesen realizado proyectos similares podrían aportar conocimientos para mejorar el proyecto y hacer que fuera fácilmente construible con los medios disponibles de la propia empresa. En este caso, nos referimos a una gestión del proyecto en la que se incorporan aspectos relacionados con la constructibilidad.

Para terminar, tenemos ejemplos claros de la diferencia entre estos dos conceptos en los proyectos que nuestros estudiantes elaboran durante sus estudios, por ejemplo, en el Grado de Ingeniería Civil o en el Máster en Ingeniería de Caminos, Canales y Puertos (donde imparto docencia). Un alumno brillante puede desarrollar un proyecto formalmente correcto, pero es muy habitual encontrar detalles mal resueltos porque son difíciles de construir. No se debe a que haya aplicado mal sus conocimientos, sino a la falta de experiencia en obra que le impide plasmar en el proyecto soluciones que faciliten la construcción. Desgraciadamente, este problema se repite en numerosas empresas de proyectos, donde la falta de experiencia de los proyectistas en la ejecución de la obra supone problemas que ya se comentaron anteriormente cuando hablábamos de la regla de Sitter. La consecuencia de todo ello es clara: la importancia de que los proyectistas tengan experiencia dilatada en la ejecución de obra. La segunda derivada también es clara: los profesores de escuelas técnicas que forman a futuros ingenieros o arquitectos deberían tener cierta experiencia en obra real. Es hora de equilibrar la importancia de la investigación y la experiencia en el mundo real a la hora de evaluar el perfil de los profesores que se dedican a formar a los futuros técnicos. Pero ese es otro tema.

Os dejo algún vídeo al respecto para ampliar conceptos.

Referencias:

CALAVERA, J. (1995). Proyectar y controlar proyectos. Revista de Obras Públicas num. 3.346. Madrid, septiembre.

PELLICER, E., CATALÁ, J., SANZ, A.(2002). La administración pública y el proceso proyecto-construcción. Actas del VI Congreso Internacional de Ingeniería de Proyectos, Departamento de Proyectos de Ingeniería de la Universidad Politécnica de Cataluña y AEIPRO, Barcelona, página 35.

PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.

SERPELL, A. (2002). Administración de operaciones de construcción. Alfaomega, 292 pp.

ROSTMAN, S. (1992). Tecnología moderna de durabilidad. Cuadernos Intemac, 5.

YEPES, V. (1998). La calidad económica. Qualitas Hodie, 44: 90-92.

YEPES, V. (2003). Sistemas de gestión de la calidad y del medio ambiente en las instalaciones náuticas de recreo. Curso Práctico de Dirección de Instalaciones Náuticas de Recreo. Ed. Universidad de Alicante. Murcia, pp. 219-244.

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442. ISBN: 978-84-1396-046-3

YEPES, V.; PELLICER, E. (2003). ISO 10006 “Guidelines to quality in project management” application to construction. VII International Congress on Project Engineering. 10 pp. ISBN: 84-9769-037-0.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Las cinco S y los siete desperdicios

Las cinco S constituye una práctica de Calidad ideada en Japón referida al “Mantenimiento Integral” de la empresa, no solo de maquinaria, equipo e infraestructura, sino del mantenimiento del entorno de trabajo por parte de todos.  Se inició en Toyota en los años 1960 con el objetivo de lograr lugares de trabajo mejor organizados, más ordenados y más limpios de forma permanente para generar una mayor productividad y un mejor entorno laboral.

El método de las 5S utiliza una lista de cinco palabras japonesas que empiezan por S. La lista describe la forma de organizar un espacio de trabajo de un modo eficiente y eficaz mediante la identificación y almacenamiento de los componentes utilizados, la conservación adecuada de la zona de trabajo y los elementos almacenados, y el mantenimiento del nuevo estado.

El proceso de toma de decisiones suele surgir de un diálogo sobre la estandarización basado en una comprensión clara por parte de los empleados sobre cómo se debe trabajar. También se pretende involucrar a cada uno de los empleados en el proceso.

El beneficio más evidente del método es la mejora de la productividad, ya que todos los componentes están perfectamente localizados. Los operarios ya no tienen que perder tiempo buscando herramientas, piezas, documentos, etc., que es la forma más frustrante de pérdida de tiempo en cualquier empresa. Los elementos más necesarios se almacenan en el lugar más accesible y, una vez utilizados, se devuelven a la ubicación correcta.

Imagen1

 

La implementación de cada una de las 5S se lleva a cabo siguiendo cuatro pasos:

  • Preparación: formación respecto a la metodología y planificación de actividades.
  • Acción: búsqueda e identificación, según la etapa, de elementos innecesarios, desordenados, suciedad, etc.
  • Análisis de la mejora realizada.
  • Documentación de conclusiones en los estándares correspondientes.

El resultado se mide tanto en productividad como en satisfacción del personal respecto a los esfuerzos que han realizado para mejorar las condiciones de trabajo. La aplicación de esta técnica tiene un impacto a largo plazo.

Os dejo unos vídeos que explican estas técnicas relacionadas con la gestión de la calidad. Espero que os gusten.

Referencias:

PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.

YEPES, V. (2001). Garantía de calidad en la construcción. Tomo 1. Servicio de Publicaciones de la Universidad Politécnica de Valencia. SP.UPV-660. Depósito Legal: V-3150-2001.

YEPES, V. (2001). Garantía de calidad en la construcción. Tomo 2. Servicio de Publicaciones de la Universidad Politécnica de Valencia. SP.UPV-961. Depósito Legal: V-3151-2001.

YEPES, V. (2022). Gestión de costes y producción de maquinaria de construcción. Colección Manual de Referencia, serie Ingeniería Civil. Editorial Universitat Politècnica de València, 243 pp. Ref. 442. ISBN: 978-84-1396-046-3

Cursos:

Curso de gestión de costes y producción de la maquinaria empleada en la construcción.

Análisis de fallos: mecanismos, herramientas de análisis y ejemplos prácticos

b8iC6289smvQspSXybAFmTl72eJkfbmt4t8yenImKBVvK0kTmF0xjctABnaLJIm9¿Se pueden evitar las catástrofes en ingeniería? El error es humano. Es un dicho que no debe conformar al ingeniero que, a toda costa debe evitar estos fallos y, en caso de no hacerlo, aprender de los errores. Los fallos de estructuras civiles y componentes industriales pueden tener graves consecuencias económicas, medioambientales y, sobre todo, humanas. El Análisis de Fallos es, por lo tanto, una disciplina de la ingeniería de indudable trascendencia, pues solo desde el conocimiento de las causas de los fallos estructurales podrán evitarse fallos futuros.

Los principales modos de fallo que tienen su origen en el comportamiento mecánico del material (fractura, fatiga, fluencia, etc), las principales herramientas de las que dispone el ingeniero para el análisis (caracterización de materiales, microscopía, análisis tensional, integridad estructural, etc) y se mostrarán una serie de casos prácticos resueltos con una metodología común que permitirán obtener una visión general de la disciplina.

Os recomiendo un buen libro sobre el tema: “La ingeniería es humana”, de Henry Petrosky.

A continuación os paso un vídeo realizado por el Gabinete de Tele-educación de la Universidad Politécnica de Madrid donde el profesor Sergio Cicero, de la Universidad de Cantabria, expone una conferencia sobre análisis de fallos. Espero que os guste.

 

 

¿Qué es la calibración de un equipo de medida?

¿Estamos seguros de que cuando medimos lo hacemos correctamente? ¿No habéis tenido la sensación de que los resultados de un ensayo parece que son imposibles o son poco esperables? Es posible que os encontréis ante un equipo de medición mal calibrado. En este post continuamos con otros anteriores referidos a los errores de medición y a las unidades de medida y su materialización. Vamos a repasar, de forma muy sintética, algunos de los conceptos más importantes relacionados con la calibración de los equipos.

Se denomina calibración al conjunto de operaciones que establecen, en unas condiciones especificadas, la relación existente entre los valores indicados por un instrumento o sistema de medida o los valores representados por una medida materializada, y los correspondientes valores conocidos de una magnitud medida. Esta actividad, llevada a cabo por medios y procedimientos técnicos, permite determinar, por comparación con un patrón o con un material de referencia o por métodos absolutos, los valores de los errores de un medio o un instrumento de medida. El proceso de calibración comprende la medición del patrón o instrumento cuyo valor queremos determinar por comparación con un patrón de referencia, comprobar si el valor obtenido está dentro de los límites establecidos para la función a realizar, y en caso de estar fuera de los límites, efectuar el correspondiente ajuste o calibración del patrón o equipo de medición.

El certificado de calibración de un patrón deberá recoger el valor o los valores asignados como resultado de la calibración, así como la incertidumbre. A su vez, el certificado debe indicar la incertidumbre de los patrones o instrumentos empleados en la calibración, el número de reiteraciones efectuadas y los valores obtenidos, o un índice de su dispersión. El certificado de calibración de un instrumento deberá indicar los puntos del campo de medida calibrados, la incertidumbre del patrón o instrumento empleado en cada punto de calibración, la corrección de calibración obtenida en cada uno de ellos, el número de reiteraciones efectuadas en cada punto de calibración y su dispersión, y la incertidumbre asociada a la corrección de cada punto de calibración, para un factor de incertidumbre que también se indicará. Los patrones e instrumentos se calibran cuando salen de la línea de fabricación, pero es necesario un programa de calibración que de forma periódica asegure el mantenimiento de la exactitud. Los intervalos de calibración son función de la utilización de los equipos.

 

Los instrumentos de medida se clasifican en instrumentos de referencia y en instrumentos de trabajo, sirviendo los primeros para calibrar los últimos. Cada instrumento calibrado obtiene un certificado de calibración que garantiza la exactitud y trazabilidad, no debiendo incluir recomendación alguna sobre el intervalo de recalibración. El desgaste y envejecimiento de los equipos de medición son los que marcan los intervalos de calibración.  Cada instrumento de medición deberá tener visible una etiqueta de calibración, que indican si el mismo puede utilizarse, tiene limitaciones en su uso o si están fuera de servicio.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.