Las cinco S y los siete desperdicios

Las cinco S constituye una práctica de Calidad ideada en Japón referida al “Mantenimiento Integral” de la empresa, no sólo de maquinaria, equipo e infraestructura sino del mantenimiento del entrono de trabajo por parte de todos.  Se inició en Toyota en los años 1960 con el objetivo de lograr lugares de trabajo mejor organizados, más ordenados y más limpios de forma permanente para generar una mayor productividad y un mejor entorno laboral.

El método de las 5S utiliza una lista de cinco palabras japonesas que empiezan por S. La lista describe la forma de organizar un espacio de trabajo de un modo eficiente y eficaz mediante la identificación y almacenamiento de los componentes utilizados, la conservación adecuada de la zona de trabajo y los elementos almacenados, y el mantenimiento del nuevo estado.

El proceso de toma de decisiones por lo general proviene de un diálogo sobre la estandarización que se basa  en un claro entendimiento entre los empleados sobre cómo se debe trabajar. También se pretende involucrar en el proceso a cada uno de los empleados.

El beneficio más evidente del método es la mejora de la productividad dado que todos los componentes están perfectamente localizados. Los operarios ya no tienen que perder tiempo buscando herramientas, piezas, documentos, etc.; esta es la forma más frustrante de pérdida de tiempo en cualquier empresa. Los elementos más necesarios se almacenan en el lugar más accesible; la adopción correcta de la normalización implica que se devuelven a la ubicación correcta después de su uso.

Imagen1

 

La implementación de cada una de las 5S se lleva a cabo siguiendo cuatro pasos:

  • Preparación: formación respecto a la metodología y planificación de actividades.
  • Acción: búsqueda e identificación, según la etapa, de elementos innecesarios, desordenados, suciedad, etc.
  • Análisis de la mejora realizada.
  • Documentación de conclusiones en los estándares correspondientes.

El resultado se mide tanto en productividad como en satisfacción del personal respecto a los esfuerzos que han realizado para mejorar las condiciones de trabajo. La aplicación de esta técnica tiene un impacto a largo plazo.

Os dejo unos vídeos que explican estas técnicas relacionadas con la gestión de la calidad. Espero que os gusten.

Referencias:

PELLICER, E.; YEPES, V.; TEIXEIRA, J.C.; MOURA, H.P.; CATALÁ, J. (2014). Construction Management. Wiley Blackwell, 316 pp. ISBN: 978-1-118-53957-6.

YEPES, V. (2001). Garantía de calidad en la construcción. Tomo 1. Servicio de Publicaciones de la Universidad Politécnica de Valencia. SP.UPV-660. Depósito Legal: V-3150-2001.

YEPES, V. (2001). Garantía de calidad en la construcción. Tomo 2. Servicio de Publicaciones de la Universidad Politécnica de Valencia. SP.UPV-961. Depósito Legal: V-3151-2001.

YEPES, V. (2015). Coste, producción y mantenimiento de maquinaria para construcción. Editorial Universitat Politècnica de València, 155 pp. ISBN: 978-84-9048-301-5.

 

Análisis de fallos: mecanismos, herramientas de análisis y ejemplos prácticos

b8iC6289smvQspSXybAFmTl72eJkfbmt4t8yenImKBVvK0kTmF0xjctABnaLJIm9¿Se pueden evitar las catástrofes en ingeniería? El error es humano. Es un dicho que no debe conformar al ingeniero que, a toda costa debe evitar estos fallos y, en caso de no hacerlo, aprender de los errores. Los fallos de estructuras civiles y componentes industriales pueden tener graves consecuencias económicas, medioambientales y, sobre todo, humanas. El Análisis de Fallos es, por lo tanto, una disciplina de la ingeniería de indudable trascendencia, pues solo desde el conocimiento de las causas de los fallos estructurales podrán evitarse fallos futuros.

Los principales modos de fallo que tienen su origen en el comportamiento mecánico del material (fractura, fatiga, fluencia, etc), las principales herramientas de las que dispone el ingeniero para el análisis (caracterización de materiales, microscopía, análisis tensional, integridad estructural, etc) y se mostrarán una serie de casos prácticos resueltos con una metodología común que permitirán obtener una visión general de la disciplina.

Os recomiendo un buen libro sobre el tema: “La ingeniería es humana”, de Henry Petrosky.

A continuación os paso un vídeo realizado por el Gabinete de Tele-educación de la Universidad Politécnica de Madrid donde el profesor Sergio Cicero, de la Universidad de Cantabria, expone una conferencia sobre análisis de fallos. Espero que os guste.

 

 

¿Qué es la calibración de un equipo de medida?

¿Estamos seguros de que cuando medimos lo hacemos correctamente? ¿No habéis tenido la sensación de que los resultados de un ensayo parece que son imposibles o son poco esperables? Es posible que os encontréis ante un equipo de medición mal calibrado. En este post continuamos con otros anteriores referidos a los errores de medición y a las unidades de medida y su materialización. Vamos a repasar, de forma muy sintética, algunos de los conceptos más importantes relacionados con la calibración de los equipos.

Se denomina calibración al conjunto de operaciones que establecen, en unas condiciones especificadas, la relación existente entre los valores indicados por un instrumento o sistema de medida o los valores representados por una medida materializada, y los correspondientes valores conocidos de una magnitud medida. Esta actividad, llevada a cabo por medios y procedimientos técnicos, permite determinar por comparación con un patrón o con un material de referencia o por métodos absolutos, los valores de los errores de un medio o un instrumento de medida. El proceso de calibración comprende la medición del patrón o instrumento cuyo valor queremos determinar por comparación con un patrón de referencia, comprobar si el valor obtenido está dentro de los límites establecidos para la función a realizar, y en caso de estar fuera de los límites, efectuar el correspondiente ajuste o calibración del patrón o equipo de medición.

El certificado de calibración de un patrón deberá recoger el valor o los valores asignados como resultado de la calibración, así como la incertidumbre. A su vez, el certificado debe indicar la incertidumbre de los patrones o instrumentos empleados en la calibración, el número de reiteraciones efectuadas y los valores obtenidos, o un índice de su dispersión. El certificado de calibración de un instrumento deberá indicar los puntos del campo de medida calibrados, la incertidumbre del patrón o instrumento empleado en cada punto de calibración, la corrección de calibración obtenida en cada uno de ellos, el número de reiteraciones efectuadas en cada punto de calibración y su dispersión, y la incertidumbre asociada a la corrección de cada punto de calibración, para un factor de incertidumbre que también se indicará. Los patrones e instrumentos se calibran cuando salen de la línea de fabricación, pero es necesario un programa de calibración que de forma periódica asegure el mantenimiento de la exactitud. Los intervalos de calibración son función de la utilización de los equipos.

Los instrumentos de medida se clasifican en instrumentos de referencia y en instrumentos de trabajo, sirviendo los primeros para calibrar los últimos. Cada instrumento calibrado obtiene un certificado de calibración que garantiza la exactitud y trazabilidad, no debiendo incluir recomendación alguna sobre el intervalo de recalibración. El desgaste y envejecimiento de los equipos de medición son los que marcan los intervalos de calibración.  Cada instrumento de medición deberá tener visible una etiqueta de calibración, que indican si el mismo puede utilizarse, tiene limitaciones en su uso o si están fuera de servicio.

Os paso a continuación uno vídeos sobre el tema para aclarar las ideas. Espero que os gusten.

Licencia de Creative Commons
Este obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

El accidente durante la construcción del tercer depósito del Canal de Isabel II

24_089_560x0
Tercer depósito del Canal de Isabel II en Madrid: vista del muro divisorio y de la cubierta del cuarto compartimento, antes del derrumbe. Fuente: http://www.cehopu.cedex.es/hormigon/fichas/img_ficha.php?id_img=3

El hormigón armado tuvo unos inicios complicados en España debido al terrible accidente ocurrido durante la construcción del tercer depósito del Canal de Isabel II  para el abastecimiento de Madrid. Se produjeron 29 víctimas mortales y 60 heridos y que, además de suponer la mayor catástrofe ocurrida en España en las construcciones realizadas con el nuevo material, estuvo a punto de hacer desaparecer a la empresa de José Eugenio Ribera. La adopción de una solución de hormigón armado para las cubiertas por parte del Consejo Superior de Obras Públicas demostraba la aceptación del material por la Administración. Iba a ser, con más de 80.000 m², la principal construcción española de hormigón armado hasta la fecha y la mayor del mundo en su género.

El enorme depósito, con unas dimensiones en planta de 360 x 216 m2, que permite almacenar 461.000 m3 de capacidad lo proyectó el propio Ribera mediante un audaz diseño de pilares muy esbeltos sobre los que apoyaban, a través de una viga un forjado abovedado, todo ello de hormigón armado. El arriesgado planteamiento estructural de Ribera, aunque ya había sido probado en obras similares, como el depósito de aguas de Gijón, levantó suspicacias desde el primer momento. El depósito estaba sometido fundamentalmente a la importante carga permanente del relleno de tierras bajo el que debía quedar enterrado, por lo que las acciones de dos arcos adyacentes se compensaban horizontalmente, haciendo trabajar a los pilares eminentemente a compresión, de ahí la pequeña sección transversal diseñada por Ribera.

Esquema de funcionamiento estructural del depósito del Canal de Isabel II
Esquema de funcionamiento estructural del depósito del Canal de Isabel II

Sin embargo, durante la ejecución del relleno de las tierras se produjo un importante error que modificó las condiciones previstas de trabajo de la estructura, pues en lugar de proceder por capas de pequeño espesor extendidas en toda la superficie de la cubierta, se empezó a rellenar desde un extremo, lo que originó unos esfuerzos no previstos en los pilares.

Condiciones de carga no previstas en los pilares
Condiciones de carga no previstas en los pilares

Finalmente, en 1907 Ribera fue exonerado en el proceso judicial en que se vio envuelto a causa del accidente. En su defensa participaron muy activamente, entre otros, José Echegaray que, además de Ingeniero de Caminos, era muy conocido por su actividad política en la década de los 70 del XIX, y por su premio Nobel de literatura del año 1904.

Podéis consultar en versión online el libro El hundimiento del tercer depósito del Canal de Isabel II en 1905 en la biblioteca digital de la Fundación J. Turriano:  http://juaneloturriano.oaistore.es/opac/ficha.php?informatico=00000243MO&idpag=1556896482&codopac=OPJUA

Causas de variabilidad de un proceso

Image9245El enemigo de todo proceso es la variación, siendo la variabilidad inevitable. Cuando se fabrica un producto o se presta un servicio, es materialmente imposible que dos resultados sean exactamente iguales. Ello se debe a múltiples motivos, más o menos evitables. Por un lado existen múltiples causas comunes, aleatorias y no controlables que hacen que el resultado cambie siguiendo habitualmente una distribución de probabilidad normal. Se dice que dicho proceso se encuentra bajo control estadístico, siendo éste el enfoque que sobre el concepto de calidad propugna Deming y que vimos en un artículo anterior. Por otra parte, existen unas pocas causas asignables, que ocurren de forma fortuita y que podemos detectarlas y corregirlas. Ocurren de forma errática y, afortunadamente se solucionan fácilmente. Las causas comunes son difíciles de erradicar porque precisan de un cambio del proceso, de la máquina o del sistema que produce los resultados, siendo ese cambio una responsabilidad de la gerencia. Kaouru Ishikawa decía que el 85% de los problemas en un proceso son responsabilidad de la gerencia, siendo mal recibido dicho comentario por parte de la alta dirección de las empresas.

Para aclarar y entender estos conceptos, os dejo un Polimedia explicativo, de poco más de siete minutos, que espero os guste.

El desastre del embalse del Vajont (Italia)

El valle de Vajont tras el derrumbe del monte Toc que causó el desastre. Wikipedia

La presa de Vajont fue construida el año 1961 en los Pre-Alpes italianos a unos 100 kms al norte de Venecia, Italia. Era una de las presas más altas del mundo, con 262 m de altura, 27 m de grosor en la base y 3,4 m en la cima. Desde el principio, los técnicos ya detectaron problemas por corrimientos de tierras, por lo que recomendaban no llenar el embalse por encima de cierto nivel de agua. A las 22.39 h del día 9 de octubre de 1963, la combinación del tercer rellenado del depósito produjo un gigantesco deslizamiento de unos 260 millones de m3 de tierra y roca, que cayeron en el embalse, prácticamente lleno, a unos 110 km/h. El agua desplazada resultante produjo que 50 millones de m3 de agua sobrepasasen la presa en una ola de 90 m de altura. A pesar de eso, la estructura de la presa no recibió daños importantes. La tragedia podría haber sido aún mayor si la presa se hubiera derrumbado, vertiendo otros 50 millones de m3 que a pesar de todo permanecieron embalsados. El formidable tsunami consecuencia del deslizamiento destruyó totalmente el pueblo de Longarone y las pequeñas villas de Pirago, Rivalta, Villanova y Faè. Varios pueblos del territorio de Erto y Casso y el pueblo de Codissago, cerca de Castellavazzo, sufrieron daños de importancia. Unas 2.000 personas fallecieron. Los destrozos fueron producidos exclusivamente por el desplazamiento de aire al explotar la ola en los pueblos colindantes.

Animación del deslizamiento. Fuente: http://ireneu.blogspot.com.es

¿Cómo pudo suceder un desastre de tales proporciones? ¿Se pudo evitar? Es mucha la información en distintas webs sobre la tragedia de Vajont. Nos pone en guardia sobre los límites de la técnica y del sentido común. Desgraciadamente, se ha convertido en un ejemplo en el que el hombre decidió retar a la naturaleza y esta le avisó de lo que podía suceder, pero cuando los responsables decidieron mirar hacia otro lado, el desastre llegó con sus mayores consecuencias. Este es un buen ejemplo de estudio de caso, tanto desde el punto de vista técnico como ético.

En el siguiente enlace podéis descargaros un artículo del año 1964 de José Mª Valdés sobre algunas meditaciones de esta catástrofe. Se trata de una conferencia pronunciada el 24 de abril de ese año en el Centro de Estudios Hidrográficos de la Dirección General de Obras Públicas: http://ropdigital.ciccp.es/pdf/publico/1964/1964_tomoI_2991_01.pdf

En un documental emitido por el canal Historia, una de las víctimas relata que un ingeniero dijo a su abuela: “Recuerde que la presa no se caerá porque está muy bien hecha, pero la montaña cederá, y acabarán atrapados como ratas”. A continuación os dejo varios de estos vídeos al respecto para la reflexión.

¿Por qué no nos salen las cosas siempre “exactamente” igual?

Siempre que intentamos hacer algo nunca nos sale “exactamente” igual. Por ejemplo, si corremos 100 m lisos y tuviésemos un cronómetro que nos midiera hasta 100 decimales, sería muy improbable que hiciésemos dos series en igual tiempo. Este concepto universal de la variabilidad es muy importante en los procesos productivos y en la calidad. Demos un pequeño repaso al concepto.

El enemigo de todo proceso es la variación, siendo la variabilidad inevitable. Cuando se fabrica un producto o se presta un servicio, es materialmente imposible que dos resultados sean exactamente iguales. Ello se debe a múltiples motivos, más o menos evitables. Por un lado existen múltiples causas comunes, aleatorias y no controlables que hacen que el resultado cambie siguiendo habitualmente una distribución de probabilidad normal. Se dice que dicho proceso se encuentra bajo control estadístico, siendo éste el enfoque que sobre el concepto de calidad propugna Deming y que vimos en un artículo anterior. Por otra parte, existen unas pocas causas asignables, que ocurren de forma fortuita y que podemos detectarlas y corregirlas. Ocurren de forma errática y, afortunadamente se solucionan fácilmente. Las causas comunes son difíciles de erradicar porque precisan de un cambio del proceso, de la máquina o del sistema que produce los resultados, siendo ese cambio una responsabilidad de la gerencia. Kaouru Ishikawa decía que el 85% de los problemas en un proceso son responsabilidad de la gerencia, siendo mal recibido dicho comentario por parte de la alta dirección de las empresas.

Para aclarar y entender estos conceptos, os dejo un Polimedia explicativo, de poco más de siete minutos, que espero os guste.

Durabilidad en la fase de mantenimiento de los edificios

Durante la vida de servicio los edificios se deterioran y llegan a la obsolescencia, debido entre otras causas a los efectos del clima, la utilización y el desgaste (Esteve, 2015). El deterioro empieza en el mismo momento en el que termina su construcción. El mantenimiento y las reparaciones garantizan la prolongación de la vida útil, logrando evitar el deterioro y, finalmente, su destrucción. Por tanto, la vida útil está estrechamente ligada al mantenimiento de una edificación.

El British Standars Institute define el mantenimiento de un edificio como “el trabajo acometido para mantener, restaurar o mejorar cada parte del edificio, sus servicios y sus alrededores, con las normas actualmente aceptadas, y para sostener la utilidad y el valor del edificio”. En definitiva, el mantenimiento es el conjunto de operaciones y cuidados necesarios para que los edificios e instalaciones puedan seguir funcionando adecuadamente.

Los edificios pueden fallar por numerosas razones: fallos de diseño, fallos de construcción, fallos de mantenimiento, fallos de materiales o fallos de utilización. Aunque los fallos de mantenimiento,  se pueden descomponer en dos partes:

  • Mantenimiento que ha sido llevado a cabo incorrectamente.
  • No se ha realizado ningún mantenimiento durante toda la vida del edificio. Éste último es el más común.

En un estudio llevado a cabo en Hong Kong en el año 2000 por Lam (2009), se reveló que aproximadamente el 40% de los fallos de mantenimiento estaban relacionados con el diseño, el 30% estaban relacionados con la construcción o instalación y el 30% restante estaban relacionados con la gestión del mantenimiento.

Investigaciones como la de Chew et al. (2004) y Flores-Colen y J. Brito (2010) establecen que el proceso inevitable de deterioro se puede controlar y que la vida de servicio de los edificios puede extenderse si se mantienen adecuadamente. Las estrategias de mantenimiento son esenciales para controlar las primeras fases de degradación y para prevenir el fallo de los elementos del edificio. Además, la selección de las estrategias apropiadas y con mejor relación efectividad-coste pueden minimizar la disminución en el rendimiento de los edificios durante su ciclo de vida completo.

Para poder realizar adecuadamente la planificación de las tareas de mantenimiento, es necesario disponer de información fiable sobre la vida de servicio de los componentes de edificación. Si la durabilidad de los materiales se conoce, se puede identificar el intervalo de tiempo necesario para el mantenimiento y reparación de los componentes de las edificaciones. Según Straub (2011), faltan referencias fiables sobre la vida de servicio de los productos de construcción.

Por último, los costes de mantenimiento representan la mayor parte del coste total en la vida completa de un edificio. Según Griffin (1993), el coste inicial, correspondiente al diseño y construcción, podría representar únicamente alrededor del 25% del coste total, mientras que los costes de mantenimiento y operación supondrían del 50% al 80% del coste durante su vida de servicio.

Referencias:

  • Chew, M. Y. L., Tan, S. S., & Kang, K. H. (2004). Building maintainability – review of state of the art. Journal of Architectural Engineering, 10(3), 80-87.
  • Esteve, V.F. (2015). Estado del arte de los factores que afectan a la durabilidad de las edificaciones. Trabajo Fin de Máster. Máster en planificación y gestión de la ingeniería civil. Universitat Politècnica de València.
  • Flores-Colen, I., & De Brito, J. (2010). A systematic approach for maintenance budgeting of buildings faades based on predictive and preventive strategies. Construction and Building Materials, 24(9), 1718-1729.
  • Griffin, J. J. (1993). Life cycle cost analysis: A decision aid. Blackie Academic & Professional, London.
  • Lam, K. C. (2000). Quality assurance in management of building services maintenance. Building Services Engineering Department, The Hong Kong Polytechnic Univ.
  • Straub, A. (2011). To a new dutch service life database of building products. COBRA 2011 – Proceedings of RICS Construction and Property Conference, 135-145.

Aproximación al concepto de calidad en el proceso proyecto-construcción

En un post anterior comentamos los problemas de calidad que podía tener un proyecto, incluso se apuntó la posibilidad de utilizar una norma, la ISO 10006 para poder controlar dichos problemas. Pero, ¿sabemos de verdad lo que es la calidad en un proyecto de construcción? Vamos a dar un par de pinceladas al tema para aproximarnos a este tema tan importante. Espero que podáis aportar ideas al respecto.

Podemos definir un proyecto como la acción de “idear, trazar o proponer el plan y los medios para la ejecución de algo” (acepción 2ª de “proyectar” del Diccionario de la Lengua Española, en adelante D.R.A.E.). Esta definición es la más utilizada en ingeniería industrial así como en el mundo sajón (“project” o “project management”) y está muy ligada conceptualmente a la gestión de proyectos. Continue reading “Aproximación al concepto de calidad en el proceso proyecto-construcción”

¿Seis sigma en la gestión de la construcción?

En posts anteriores nos hemos referido a temas tan importantes como el despilfarro y los costes de calidad en las empresas. Seis Sigma constituye una metodología de gestión que ha significado para ciertas empresas una reducción drástica de sus fallos y costes de calidad. Si bien esta metodología se desarrolló fundamentalmente para disminuir la variabilidad de procesos repetitivos, también es verdad que la filosofía que subyace en Seis Sigma posiblemente pueda reducir significativamente el coste y el número de fallos debido a una calidad deficiente en el diseño y la ejecución de los proyectos de construcción. Veamos aquí, como siempre, con ánimo divulgativo, alguno de los aspectos más característicos de esta metodología.

La historia de Seis Sigma se inicia a mediados de los años 80 en Motorola cuando un ingeniero (Mikel Harry) comienza a estudiar la reducción en la variación de los procesos para mejorarlos. Esta herramienta tenía una fuerte base estadística y pretendía alcanzar unos niveles de calidad en los procesos y en los productos de la organización próximos a los cero defectos. Constituye una metodología sistemática para reducir errores, concentrándose en la mejora de los procesos, el trabajo en equipo y con una gran implicación por parte de la Dirección (de Benito, 2000; Membrado, 2004; Harry y Schroeder, 2004). Continue reading “¿Seis sigma en la gestión de la construcción?”