¿Por qué lo «perfecto» no existe? Claves sobre la capacidad de tus procesos

1. Introducción: El espejismo del resultado idéntico.

Para cualquier líder de operaciones, existe una frustración que roza lo existencial: el espejismo de un resultado idéntico. A pesar de contar con manuales de procedimientos exhaustivos y formación constante, la realidad se impone con una tozudez estadística.

Como veremos, la variabilidad es la fuerza invisible que define el éxito o el fracaso de una organización. Comprender que la perfección no es una meta, sino una asíntota, es el primer paso para pasar de una gestión basada en la intuición a otra basada en la excelencia estratégica.

2. La inevitabilidad de la diferencia: «Nunca dos salidas de un proceso son iguales».

La variabilidad no es un error del sistema, sino su huella dactilar. Un proceso es un conjunto de actividades interrelacionadas en las que interactúan los métodos, la mano de obra, las máquinas, la materia prima y el entorno. En esta danza de variables, la uniformidad absoluta es físicamente imposible.

Desde la perspectiva de W. Edwards Deming, la calidad no es una aspiración abstracta, sino «un grado predecible de uniformidad y fiabilidad, a bajo coste y adecuado a las necesidades del mercado». Desde esta óptica, el objetivo no es eliminar la variabilidad de forma ingenua, sino reducirla para aumentar la predictibilidad.

Es crucial distinguir aquí los llamados «procesos especiales», es decir, aquellos en los que no es posible verificar fácilmente y a un precio asequible la conformidad del resultado. En estos casos, la excelencia no se mide en el producto final, sino en un control férreo y anticipado de las entradas (especialmente de los métodos y la mano de obra), ya que cualquier desviación conlleva un riesgo financiero latente.

«Nunca dos resultados son exactamente iguales».

3. La regla del 90/10: ¿de quién es realmente la culpa?

Uno de los errores más costosos y moralmente desgastantes en la gestión es malinterpretar el origen de las desviaciones. Para liderar con integridad, es imperativo distinguir entre:

  • Causas comunes (o aleatorias): representan más del 90 % de los problemas de calidad. Se manifiestan de forma estable y son inherentes al diseño del sistema. Su corrección es responsabilidad exclusiva de la dirección, ya que requiere cambios estructurales. Intentar corregirlas mediante acciones locales es, matemáticamente, un ejercicio de futilidad.
  • Causas especiales (o asignables): representan menos del 10 % de los fallos. Tienen una distribución errática y esporádica. Estas causas sí corresponden al operario, quien debe actuar para devolver el proceso a su estado normal.

Culpar a un trabajador por un fallo derivado de una causa común es una injusticia estadística. Si el diseño del proceso es deficiente, ningún esfuerzo individual podrá rescatarlo.

4. Control frente a la capacidad: no basta con ser estable.

Un proceso puede ser perfectamente predecible y, al mismo tiempo, completamente inútil para el mercado. La estabilidad es una métrica interna, mientras que la capacidad es una métrica externa de supervivencia.

  • La realidad del proceso (6 sigma): representa lo que el sistema «sabe hacer». Se trata de su variabilidad natural bajo control estadístico, operando dentro de un modelo probabilístico predecible.
  • Las especificaciones son los límites (USL y LSL) que el mercado o la norma establece de forma voluntaria. Representa lo que el cliente está dispuesto a pagar.

La estabilidad es solo la mitad del camino. Un proceso estable, pero descentrado, o con una dispersión mayor que la especificada, es, en términos empresariales, una fábrica de desperdicios.

5. El arte de centrar: la solución más económica.

Ante un proceso «incapaz», la reacción visceral de muchos comités de dirección es aprobar inversiones masivas en nueva maquinaria. Sin embargo, el análisis de capacidad nos ofrece una alternativa estratégica: el centrado.

A menudo, un proceso no es eficaz porque sea errático, sino porque su valor medio no se alinea con el valor nominal del cliente. Identificar un proceso con baja variabilidad, pero descentrado, es como encontrar una mina de oro, ya que permite cumplir los requisitos con ajustes técnicos mínimos en lugar de recurrir a costosas adquisiciones de capital. La diferencia radica en gestionar con base en suposiciones o en datos.

6. Los números hablan: el veredicto del Cp y el Cpk.

Los índices de capacidad no son simples números, sino el veredicto financiero sobre la viabilidad de su operación. Convierten la estadística en decisiones de inversión:

  • Cp (capacidad potencial): revela lo que el proceso podría ser si estuviera perfectamente centrado. Mide si el «ancho» de su proceso se ajusta al del cliente.
  • Cpk (capacidad real): es el indicador honesto y pesimista. Tiene en cuenta el centrado actual y nos indica qué ocurre en este momento.

El análisis de estos índices dicta el camino a seguir.

  1. Si el índice es < 1, el proceso es incapaz. Es un drenaje financiero; genera defectos sistemáticos y requiere un cambio estructural inmediato o la compra de nuevos equipos.
  2. Si el índice es = 1, el proceso es justamente capaz. Es un equilibrio precario en el que cualquier mínima perturbación generará pérdidas.
  3. Si el índice es > 1, el proceso es capaz. Existe un margen de seguridad que garantiza la fiabilidad y el cumplimiento a bajo coste.

7. Conclusión: hacia una cultura de la variabilidad controlada.

La mejora de la calidad consiste, en esencia, en reducir de manera metódica la variabilidad. La estadística nos otorga el poder de la profecía, ya que nos permite garantizar el cumplimiento de las promesas hechas al cliente antes incluso de que la primera unidad salga de la línea de producción.

Como líderes, debemos aceptar que la variabilidad es inevitable, pero su descontrol es opcional. La próxima vez que su operación falle, antes de buscar un culpable en la planta, analice las cifras.

¿Está fallando su proceso por un error puntual o está simplemente diseñado para no poder ganar nunca?

En esta conversación puedes escuchar los conceptos más interesantes sobre este tema.

Este vídeo resume bien los aspectos relacionados con la capacidad de los procesos.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Definiciones básicas del diseño de experimentos

Entendemos por experimento el cambio en las condiciones de operación de un sistema o proceso, realizado con el objetivo de medir el efecto del cambio en una o varias variables del producto. Ello nos permite ampliar el conocimiento sobre el sistema o el proceso.

Asimismo, entendemos por “diseño de un experimento” la planificación de un conjunto de pruebas experimentales, de modo que los datos generados puedan analizarse estadísticamente para obtener conclusiones válidas y objetivas acerca del problema establecido.

En un experimento, es muy importante su reproducibilidad, es decir, poder repetirlo. Ello nos proporciona una estimación del error experimental y permite obtener una estimación más precisa del efecto medio de cualquier factor.

 

Veamos algunas definiciones importantes en el diseño de experimentos:

  • Unidad experimental: es la muestra de unidades que es necesario producir en una condición para obtener una medición o un dato representativo. Unidad a la cual se le aplica un solo tratamiento (puede ser una combinación de muchos factores) en una reproducción del experimento.
  • Variables de respuesta: son las características del producto cuyo valor interesa mejorar mediante el diseño de experimentos.
  • Factor: una variable independiente. En la mayoría de las investigaciones se trata con más de una variable independiente y con los cambios que ocurren en la variable independiente, cuando varía una o más de las variables independientes.
  • Factores controlables: son variables del proceso que se pueden fijar en un punto o en un nivel de operación.
  • Factores no controlables: son variables que no pueden controlarse durante la operación normal del proceso.
  • Factores estudiados: son las variables que se investigan en el experimento para observar cómo afectan a la variable de respuesta.
  • Confusión: Dos o más efectos se confunden en un experimento si es posible separarlos en el análisis estadístico posterior.
  • Error aleatorio: Es la variabilidad observada que no puede explicarse por los factores estudiados y se debe al pequeño efecto de los factores no estudiados y al error experimental.
  • Error experimental: componente del error aleatorio que refleja los errores del experimentador en la planificación y la ejecución del experimento.
  • Aleatorización: consiste en realizar experimentos en orden aleatorio; este principio aumenta la probabilidad de que el supuesto de independencia de los errores se cumpla. Asignación al azar del tratamiento a las unidades experimentales. Una suposición frecuente en los modelos estadísticos de diseño de experimentos en los que las observaciones o los errores en ellas están distribuidos de forma independiente. La aleatorización hace válida esta suposición.
  • Repetición: Es correr más de una vez un tratamiento o combinación de factores
  • Bloqueo: Es nulificar o considerar adecuadamente todos los factores que pueden afectar la respuesta observada. Distribución de las unidades experimentales en bloques, de manera que las unidades dentro de un bloqueo sean relativamente homogéneas; de esta manera, la mayor parte de la variación predecible entre las unidades queda confundida con el efecto de los bloques.
  • Tratamiento o combinación de tratamientos: conjunto particular de condiciones experimentales que deben imponerse a una unidad experimental dentro de los confines del diseño seleccionado.

El error aleatorio describe la situación de no llegar a resultados idénticos con dos unidades experimentales tratadas idénticamente y refleja:

  • Errores de experimentación
  • Errores de observación
  • Errores de medición
  • Variación del material experimental (esto es, entre unidades experimentales)
  • Efectos combinados de factores extraños que podrían influir en las características en estudio, pero respecto de los cuales no se ha llamado la atención en la investigación.

El error aleatorio puede reducirse:

  • Usando material experimental más homogéneo o mediante una estratificación cuidadosa del material disponible.
  • Utilizando información proporcionada por variables aleatorias relacionadas
  • Teniendo más cuidado al dirigir y desarrollar el experimento
  • Usando un diseño experimental muy eficiente.

Referencias:

  • Box, G.E.; Hunter, J.S.; Hunter, W.G. (2008). Estadística para investigadores. Diseño, innovación y descubrimiento. Segunda Edición, Ed. Reverté, Barcelona.
  • Gutiérrez, H.; de la Vara, R. (2003). Análisis y diseño de experimentos. McGraw-Hill, México.
  • Vicente, M.L.; Girón, P.; Nieto, C.; Pérez, T. (2005). Diseño de experimentos. Soluciones con SAS y SPSS. Pearson Educación, Madrid.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Qué es el diseño de experimentos?

En el campo de la ingeniería civil, el concepto de «diseño de experimentos» resulta extraño. Lo asociamos al campo del control de calidad y de los laboratorios, pero no tenemos en cuenta que muchas herramientas avanzadas de productividad, mejora de procesos, toma de decisiones y productividad empresarial se basan en el control estadístico de la calidad. Veamos en esta entrada una breve aproximación al concepto.

El diseño de experimentos (DOE) es una técnica estadística que permite identificar y cuantificar las causas de un efecto en un estudio experimental, de modo que, con el mínimo número de pruebas, se extraiga información útil para obtener conclusiones que permitan optimizar la configuración de un proceso o producto.

Aunque el diseño de experimentos comenzó a aplicarse en el campo de la agricultura, hoy en día tiene muchas aplicaciones en otros ámbitos, como la ingeniería civil. Por ejemplo, en el control de calidad, en el diseño de productos y de procesos industriales y en todo tipo de ciencias experimentales. Se puede decir que el diseño de experimentos desempeña un papel crucial tanto en la industria como en la investigación experimental en la actualidad.

En un diseño experimental se manipulan deliberadamente una o más variables, vinculadas a las causas, para medir el efecto que tienen en otra variable de interés. El diseño experimental prescribe una serie de pautas relativas a qué variables hay que manipular, de qué manera, cuántas veces hay que repetir el experimento y en qué orden, para poder establecer, con un grado de confianza predefinido, la necesidad de una presunta relación de causa-efecto.

Los pasos básicos a seguir en el diseño de experimentos son los siguientes:

  1. Fijar un cronograma que defina la lista de pruebas a realizar. También debemos definir nuestros objetivos, los cuales deben ser claros y acordes con una realidad alcanzable.
  2. Escoger los factores a analizar, es decir, aquellos parámetros que van a afectar tanto directa como indirectamente a nuestra actividad (el proceso o producto que queremos optimizar), siendo estos los que nos van a marcar los límites alcanzables.
  3. Diseñar el plan de pruebas: este variará en función del número de factores que hayamos considerado. En este punto hay que ser ambicioso y no descartar ningún experimento posible, por raro que parezca, pues puede que algunos de ellos estén comunicados entre sí y que su interacción deba considerarse a la hora de tomar decisiones.

Una vez realizadas las pruebas, los resultados obtenidos permiten extraer conclusiones sobre qué factores influyen más en los resultados y cómo debe configurarse nuestra actividad para alcanzar los objetivos propuestos. Además, si utilizamos herramientas informáticas, podremos obtener una función de regresión que relacione los resultados de la actividad con los factores considerados. Gracias a ella, podremos hacer interpolaciones y calcular virtualmente qué resultado tendrá nuestra actividad para cualquier combinación de factores posible.

Algunos de los tipos de diseños de experimentos son los siguientes:

  • Diseño unifactorial
  • Diseño por bloques aleatorizados
  • Diseño por cuadrados latinos
  • Diseños factoriales
  • Diseños anidados
  • Diseños cruzados anidados
  • Diseños factoriales 2^k

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.