¿Es real o es solo azar? 5 revelaciones del ANOVA para dominar tus datos

Introducción: El dilema de las medias engañosas.

Imagine que supervisa a tres profesores con métodos pedagógicos diferentes o que analiza la viscosidad de cinco lotes de producción. Al revisar los resultados, observa que las medias no son iguales. Entonces surge la pregunta crítica que separa a un gestor de un estratega: ¿esta diferencia indica una verdadera oportunidad operativa o es simplemente ruido estadístico?

Actuar basándose en el «ruido» genera una ineficiencia operativa masiva: se podría detener una línea de producción sin necesidad o ignorar un fallo sistémico costoso simplemente por falta de rigor. Para resolver este dilema, la estadística nos ofrece la herramienta «detective» definitiva: el ANOVA (Análisis de Varianza), diseñado para determinar si las diferencias entre tres o más grupos son lo suficientemente significativas como para justificar una decisión empresarial.

¿Por qué la prueba t no es suficiente?

Para comparar dos niveles (por ejemplo, hombres frente a mujeres), la prueba t de Student es adecuada. Sin embargo, cuando enfrentamos tres o más grupos, el ANOVA es obligatorio por una razón técnica crucial: la inflación del error alfa.

Si intentáramos comparar múltiples pares usando pruebas t individuales (lote 1 frente a lote 2, lote 2 frente a lote 3 y lote 1 frente a lote 3), el riesgo de error se acumularía. Cada prueba individual tiene una probabilidad del 5 % de detectar una «falsa diferencia» (falso positivo). Al encadenar pruebas, ese riesgo del 5 % crece exponencialmente, lo que nos lleva a conclusiones erróneas. El ANOVA neutraliza este riesgo al analizar todos los grupos simultáneamente bajo una premisa fundamental:

Hipótesis nula (H₀): todas las medias poblacionales son iguales (H₀: μ₁ = μ₂ = ⋯ = μk). El punto de partida estratégico consiste en asumir que el factor estudiado no tiene influencia real hasta que la varianza demuestre lo contrario.

La paradoja central: comparar medias al analizar la variabilidad.

El concepto más contraintuitivo del ANOVA es que, para saber si las medias son distintas, no estudiamos las medias, sino la varianza. El análisis descompone la variabilidad total en dos fuentes:

  • Variación entre grupos (factor): el efecto real del tratamiento o de la variable (por ejemplo, el impacto de un nuevo fertilizante).
  • Variación dentro de los grupos (error): el ruido aleatorio o las diferencias que no pueden explicarse por el azar.

Un estratega sénior no solo busca diferencias, sino que también cuantifica la variabilidad explicada. Usando la relación (SCE/SCT) × 100, podemos determinar qué porcentaje del «caos» de los datos corresponde a la responsabilidad directa del factor analizado. Si el lote explica, por ejemplo, el 44,95 % de la variación de la viscosidad, se trata de un hallazgo de alto impacto administrativo.

El valor p y la razón F: tu seguro contra la casualidad.

Si el ANOVA es un detective, la razón F es su lupa. Matemáticamente, es la relación entre la media de los cuadrados del factor y la media de los cuadrados del error (MCFactor/MCError). Si la razón F es significativamente mayor que 1, la «señal» del factor es más fuerte que el «ruido» del azar.

Esta potencia se traduce en el valor p, que es nuestra medida de riesgo. Consideremos el caso del gel adhesivo: tras las quejas de los clientes, se analizaron cinco lotes. El lote 3 mostró una media de 26,77, notablemente inferior al estándar de 30. El ANOVA arrojó un valor p de 0,0012, lo que constituye una prueba contundente para que la gerencia intervenga específicamente en ese lote.

Definición del valor p: probabilidad de observar una varianza en las medias muestrales por mero azar. Un valor p inferior a 0,05 indica que el riesgo de que se trate de un espejismo es lo suficientemente bajo como para actuar.

El ANOVA no es una brújula, sino una alarma.

Es un error común creer que el ANOVA señala al «culpable». En realidad, el ANOVA funciona como una alarma: confirma que «no todas las medias son iguales», pero no especifica cuál es la diferente.

Una vez que suena la alarma (p < 0,05), el estratega debe utilizar una «brújula»: las pruebas de comparación múltiple. Herramientas como la prueba de Tukey-Kramer o la HSD de Tukey permiten comparar pares de grupos para identificar exactamente dónde se encuentra la anomalía y realizar una inversión de recursos quirúrgicos de manera eficiente.

Resiliencia estadística: qué hacer cuando las reglas se rompen.

Para que un ANOVA tradicional sea fiable, los datos deben ser normales y presentar homocedasticidad, es decir, igualdad de varianzas. La prueba de Levene es el filtro crítico aquí.

  • Si el valor p de Levene es mayor que 0,05, las varianzas son iguales y el ANOVA es el camino seguro.
  • Si Levene es significativo (p < 0,05), las reglas se han roto y el ANOVA estándar pierde validez.

En este escenario de crisis de datos, el investigador recurre a la prueba de Welch. Se trata de una alternativa robusta que permite comparar medias con precisión, incluso cuando las varianzas son desiguales, y que preserva la investigación sin sacrificar el rigor científico.

Conclusión: del dato a la decisión inteligente.

El ANOVA transforma los datos brutos en pruebas de la influencia. Ya sea para validar si un medicamento reduce el tiempo de curación o si un cambio en la composición del hormigón aumenta su resistencia, esta técnica nos permite distinguir entre casualidad y causalidad.

En última instancia, la excelencia en la gestión no consiste en promedios simples, sino en comprender qué parte de los resultados se debe a la variabilidad explicada por las decisiones adoptadas y qué parte es ruido.

Reflexione sobre su operación de hoy: ¿qué variaciones observa en sus procesos que podrían validarse —o descartarse— mediante el rigor del ANOVA?

En esta conversación puedes escuchar algunas de las ideas más importantes sobre ANOVA.

Este vídeo resume bien el tema.

One_Way_ANOVA_Mastery

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Por qué lo «perfecto» no existe? Claves sobre la capacidad de tus procesos

1. Introducción: El espejismo del resultado idéntico.

Para cualquier líder de operaciones, existe una frustración que roza lo existencial: el espejismo de un resultado idéntico. A pesar de contar con manuales de procedimientos exhaustivos y formación constante, la realidad se impone con una tozudez estadística.

Como veremos, la variabilidad es la fuerza invisible que define el éxito o el fracaso de una organización. Comprender que la perfección no es una meta, sino una asíntota, es el primer paso para pasar de una gestión basada en la intuición a otra basada en la excelencia estratégica.

2. La inevitabilidad de la diferencia: «Nunca dos salidas de un proceso son iguales».

La variabilidad no es un error del sistema, sino su huella dactilar. Un proceso es un conjunto de actividades interrelacionadas en las que interactúan los métodos, la mano de obra, las máquinas, la materia prima y el entorno. En esta danza de variables, la uniformidad absoluta es físicamente imposible.

Desde la perspectiva de W. Edwards Deming, la calidad no es una aspiración abstracta, sino «un grado predecible de uniformidad y fiabilidad, a bajo coste y adecuado a las necesidades del mercado». Desde esta óptica, el objetivo no es eliminar la variabilidad de forma ingenua, sino reducirla para aumentar la predictibilidad.

Es crucial distinguir aquí los llamados «procesos especiales», es decir, aquellos en los que no es posible verificar fácilmente y a un precio asequible la conformidad del resultado. En estos casos, la excelencia no se mide en el producto final, sino en un control férreo y anticipado de las entradas (especialmente de los métodos y la mano de obra), ya que cualquier desviación conlleva un riesgo financiero latente.

«Nunca dos resultados son exactamente iguales».

3. La regla del 90/10: ¿de quién es realmente la culpa?

Uno de los errores más costosos y moralmente desgastantes en la gestión es malinterpretar el origen de las desviaciones. Para liderar con integridad, es imperativo distinguir entre:

  • Causas comunes (o aleatorias): representan más del 90 % de los problemas de calidad. Se manifiestan de forma estable y son inherentes al diseño del sistema. Su corrección es responsabilidad exclusiva de la dirección, ya que requiere cambios estructurales. Intentar corregirlas mediante acciones locales es, matemáticamente, un ejercicio de futilidad.
  • Causas especiales (o asignables): representan menos del 10 % de los fallos. Tienen una distribución errática y esporádica. Estas causas sí corresponden al operario, quien debe actuar para devolver el proceso a su estado normal.

Culpar a un trabajador por un fallo derivado de una causa común es una injusticia estadística. Si el diseño del proceso es deficiente, ningún esfuerzo individual podrá rescatarlo.

4. Control frente a la capacidad: no basta con ser estable.

Un proceso puede ser perfectamente predecible y, al mismo tiempo, completamente inútil para el mercado. La estabilidad es una métrica interna, mientras que la capacidad es una métrica externa de supervivencia.

  • La realidad del proceso (6 sigma): representa lo que el sistema «sabe hacer». Se trata de su variabilidad natural bajo control estadístico, operando dentro de un modelo probabilístico predecible.
  • Las especificaciones son los límites (USL y LSL) que el mercado o la norma establece de forma voluntaria. Representa lo que el cliente está dispuesto a pagar.

La estabilidad es solo la mitad del camino. Un proceso estable, pero descentrado, o con una dispersión mayor que la especificada, es, en términos empresariales, una fábrica de desperdicios.

5. El arte de centrar: la solución más económica.

Ante un proceso «incapaz», la reacción visceral de muchos comités de dirección es aprobar inversiones masivas en nueva maquinaria. Sin embargo, el análisis de capacidad nos ofrece una alternativa estratégica: el centrado.

A menudo, un proceso no es eficaz porque sea errático, sino porque su valor medio no se alinea con el valor nominal del cliente. Identificar un proceso con baja variabilidad, pero descentrado, es como encontrar una mina de oro, ya que permite cumplir los requisitos con ajustes técnicos mínimos en lugar de recurrir a costosas adquisiciones de capital. La diferencia radica en gestionar con base en suposiciones o en datos.

6. Los números hablan: el veredicto del Cp y el Cpk.

Los índices de capacidad no son simples números, sino el veredicto financiero sobre la viabilidad de su operación. Convierten la estadística en decisiones de inversión:

  • Cp (capacidad potencial): revela lo que el proceso podría ser si estuviera perfectamente centrado. Mide si el «ancho» de su proceso se ajusta al del cliente.
  • Cpk (capacidad real): es el indicador honesto y pesimista. Tiene en cuenta el centrado actual y nos indica qué ocurre en este momento.

El análisis de estos índices dicta el camino a seguir.

  1. Si el índice es < 1, el proceso es incapaz. Es un drenaje financiero; genera defectos sistemáticos y requiere un cambio estructural inmediato o la compra de nuevos equipos.
  2. Si el índice es = 1, el proceso es justamente capaz. Es un equilibrio precario en el que cualquier mínima perturbación generará pérdidas.
  3. Si el índice es > 1, el proceso es capaz. Existe un margen de seguridad que garantiza la fiabilidad y el cumplimiento a bajo coste.

7. Conclusión: hacia una cultura de la variabilidad controlada.

La mejora de la calidad consiste, en esencia, en reducir de manera metódica la variabilidad. La estadística nos otorga el poder de la profecía, ya que nos permite garantizar el cumplimiento de las promesas hechas al cliente antes incluso de que la primera unidad salga de la línea de producción.

Como líderes, debemos aceptar que la variabilidad es inevitable, pero su descontrol es opcional. La próxima vez que su operación falle, antes de buscar un culpable en la planta, analice las cifras.

¿Está fallando su proceso por un error puntual o está simplemente diseñado para no poder ganar nunca?

En esta conversación puedes escuchar los conceptos más interesantes sobre este tema.

Este vídeo resume bien los aspectos relacionados con la capacidad de los procesos.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Unidades experimentales y muestrales en el diseño de experimentos

La unidad experimental (UE) es el elemento central en el diseño y el análisis de experimentos comparativos. Se define como la entidad a la que se le puede asignar un tratamiento de forma independiente y sobre la cual se realizan las mediciones. La identificación correcta de la UE es fundamental, ya que la estimación de la variabilidad natural, conocida como error experimental, depende exclusivamente de la comparación entre unidades experimentales idénticas que reciben el mismo tratamiento.

Una unidad experimental puede contener múltiples unidades muestrales, subelementos que reciben obligatoriamente el mismo tratamiento que la UE a la que pertenecen. Por esta razón, la variabilidad entre estas unidades muestrales internas no resulta útil para estimar el efecto del tratamiento. Un diseño experimental sólido se basa en la capacidad de distinguir los efectos reales de los tratamientos del «ruido» natural del sistema, una distinción que solo es posible mediante la correcta cuantificación de la variabilidad entre las unidades experimentales completas.

Definiciones fundamentales

El marco de un experimento se define a través de sus componentes básicos, en los que la unidad experimental y la unidad muestral desempeñan funciones distintas, aunque interconectadas.

1. La unidad experimental (UE)

La unidad experimental es el pilar de cualquier ensayo comparativo. Su definición formal es la siguiente:

«El elemento sobre el que se realizan las mediciones y al que se puede asignar un tratamiento de forma independiente».

El conjunto de todas las unidades experimentales disponibles para un estudio se denomina material experimental. La definición de una UE es flexible y se adapta a los objetivos de la investigación.

Ejemplos prácticos:

  • Ensayo de resistencia del hormigón: la unidad experimental puede ser un bloque o un cilindro de hormigón elaborado con una mezcla específica. Las unidades muestrales serían las probetas o las muestras extraídas del mismo bloque para realizar ensayos de compresión o de flexión.
  • Prueba de rendimiento de pavimentos: la unidad experimental puede ser un tramo de vía construido con un diseño o material específico (por ejemplo, un segmento de 50 metros). Las unidades muestrales serían los puntos de medición dentro del tramo, por ejemplo, las deflexiones o la rugosidad.
  • Ensayo de estructuras a escala en laboratorio: la unidad experimental puede ser una viga o una columna, construida según un diseño específico. Las unidades muestrales serían los puntos de medición (deformaciones, desplazamientos o tensiones) registrados por sensores a lo largo de la estructura.

El criterio esencial para definir una UE es que sea capaz de recibir diferentes tratamientos de manera independiente de las demás unidades.

2. La unidad muestral.

Dentro de una unidad experimental pueden existir subelementos en los que se aplican las condiciones experimentales. A estos se les conoce como unidades muestrales.

La regla fundamental que las rige es que todas las unidades muestrales de una misma unidad experimental deben recibir el mismo tratamiento. Como consecuencia directa, la asignación del tratamiento a estas subunidades no es independiente entre sí, lo que tiene implicaciones críticas para el análisis estadístico.

El papel de la estimación en la variabilidad.

La distinción entre unidades experimentales y muestrales es crucial para inferir correctamente los efectos de un tratamiento, ya que incide directamente en la medición de la variabilidad del sistema.

a. El error experimental

Para evaluar si un tratamiento tiene un efecto real, es necesario conocer la variabilidad natural del material experimental. Esta variabilidad inherente se conoce como error experimental. Es la base contra la que se comparan las diferencias observadas entre los tratamientos.

b. Metodología de estimación

La estimación correcta del error experimental solo se logra a partir de las diferencias observadas entre unidades experimentales que, en principio, son idénticas y han recibido el mismo tratamiento.

  • Fuente de estimación válida: la variación entre unidades experimentales es la única que permite estimar correctamente el error experimental.
  • Fuente de estimación no válida: la variación entre las unidades muestrales dentro de una misma unidad experimental es, por lo general, muy pequeña y no proporciona información útil para estimar el efecto del tratamiento ni el error experimental.

La observación clave es que «solo la unidad experimental completa permite estimar correctamente el error experimental».

Tipología de variables en un experimento.

Los datos recopilados en un experimento se organizan en dos categorías principales de variables:

Tipo de variable Descripción
Variables de respuesta Son las mediciones obtenidas de las unidades experimentales. Sus valores reflejan tanto los efectos de los tratamientos como la variabilidad natural del sistema.
Variables explicativas (factores) Son las variables que se manipulan o controlan porque se cree que influyen en las variables de respuesta. Incluyen los factores de clasificación, que definen los niveles o categorías sobre los cuales se realizan las inferencias estadísticas.

Conclusión: el fundamento de un diseño sólido.

La estructura de un diseño experimental robusto se basa en comparar unidades experimentales similares. Este enfoque permite a los investigadores distinguir de manera fiable el efecto real de los tratamientos aplicados del «ruido» o de la variabilidad natural inherente al sistema experimental. Por tanto, la identificación precisa y la gestión adecuada de la unidad experimental no son meros detalles técnicos, sino requisitos indispensables para que las conclusiones científicas derivadas del experimento sean válidas y fiables.

En este documento tenéis un resumen de las ideas más importantes.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Homogeneidad en la fabricación del hormigón

Figura 1. Homogeneidad del hormigón. https://ingeniero-de-caminos.com/hormigon-homogeneidad/

Se considera que un hormigón es homogéneo cuando su composición es uniforme en todos sus puntos. Esto implica que el principio, la parte media y el final de la amasada mantienen la misma calidad. De esta manera, las amasadas sucesivas pueden considerarse idénticas. La homogeneidad se consigue mediante un buen amasado, un transporte cuidadoso y una colocación adecuada.

Un hormigón homogéneo implica que debe ser uniformemente heterogéneo, es decir, que sus componentes deben estar perfectamente mezclados y en la proporción prevista en la dosificación de la mezcla en cualquier parte de su masa. Las mezclas bien diseñadas y adecuadamente amasadas proporcionan una manejabilidad uniforme y óptima, independientemente de la ubicación de la muestra tomada en la mezcla, lo que permite obtener hormigones con resultados consistentes y poco dispersos.

Para garantizar la homogeneidad, es crucial mantener una proporción adecuada entre agua y cemento, así como asegurar una mezcla completa de los componentes para lograr la consistencia deseada. Tal y como indica el Código Estructural en su Artículo 51.3.3, los componentes se amasarán de forma que se consiga su mezcla íntima y homogénea, de modo que el árido debe quedar bien recubierto de pasta de cemento. La mejor forma de conseguirlo es introducir los componentes en una hormigonera o máquina amasadora, que se encarga de mezclarlos y están listos para su aplicación en la obra.

Figura 2. https://ich.cl/unidad/05-uso-del-hormigon-en-obra/

La calidad uniforme de los componentes y la precisión de los dosificadores son aspectos críticos para lograr esta homogeneidad en el hormigón. Si los componentes iniciales son uniformes y los dosificadores proporcionan las cantidades precisas, la variabilidad del hormigón la determina la calidad del proceso de mezclado. Por ello, es fundamental elegir adecuadamente el equipo de mezclado, ya que este garantiza la homogeneidad de los productos finales. El Código Estructural, en su artículo 51.3.2.1, indica que la dosificación de cemento, de los áridos y, en su caso, de las adiciones se realizará en peso. Además, se deberá vigilar el mantenimiento de la dosificación para garantizar una adecuada homogeneidad entre las amasadas.

La gravedad y las fuerzas de rozamiento obstaculizan el movimiento de los materiales durante la fase inicial del amasado. Se producen rozamientos superficiales entre la masa y las paredes, rozamientos internos debidos a la rugosidad de los áridos y rozamientos complejos causados por la variabilidad de la viscosidad en diferentes partes de la mezcla. Por tanto, para obtener un hormigón homogéneo, es esencial no solo reducir la influencia de estas fuerzas, sino también romper las fuerzas de unión que mantienen los granos unidos por el agua de la mezcla. Esto requiere un aporte significativo de energía, que debe distribuirse de manera óptima por los componentes de mezclado. En este sentido, los fabricantes investigan qué tipo de perfiles son los más adecuados para las paletas, su número y disposición en el equipo de amasado. Para lograr mezclas de calidad, es fundamental que los medios mecánicos empleados sean lo suficientemente potentes para permitir el desplazamiento de los componentes entre sí, sin favorecer a ciertos elementos según su tamaño o densidad.

El Código Estructural, en su Artículo 51.4.1 relativo al transporte del hormigón, indica que no deberán presentar desperfectos o desgastes en las paletas o en su superficie interior que puedan afectar a la homogeneidad del hormigón. Asimismo, el transporte podrá realizarse en amasadoras móviles, a la velocidad de agitación, o en equipos con o sin agitadores, siempre que tales equipos tengan superficies lisas y redondeadas y sean capaces de mantener la homogeneidad del hormigón durante el transporte y la descarga.

En la prefabricación de piezas de hormigón, se deben desmoldar lo antes posible, por lo que es importante contar con equipos de mezclado que garanticen una perfecta cohesión y una plasticidad constante en los hormigones producidos.

En ciertos tipos de equipos, como las hormigoneras, la densidad desempeña un papel fundamental, pues los componentes del hormigón son elevados y luego caen de nuevo en la mezcla. En el caso de las amasadoras, un exceso de energía contribuye a mejorar las propiedades de la mezcla.

La dislocación de la mezcla de hormigón, que es un error que afecta a la homogeneidad, puede ocurrir incluso cuando la mezcla inicial es adecuada. Durante el transporte, el vertido o el fraguado, los elementos del hormigón tienden a separarse y decantarse según su densidad y tamaño.

La segregación del hormigón consiste en que sus componentes se separan, lo que provoca una superficie de mala calidad con grietas o fisuras o un exceso de mortero que afecta a su resistencia y durabilidad. Por otro lado, si la mezcla es demasiado líquida, los áridos gruesos tienden a caer al fondo del molde o encofrado, mientras que el mortero queda en la superficie, lo que implica una pérdida de homogeneidad por decantación. La probabilidad de que ocurran estos fenómenos aumenta con el contenido de agua, el tamaño máximo del árido, las vibraciones o sacudidas durante el transporte y la colocación en obra en caída libre. Es importante señalar que un hormigón poco manejable tiende a segregarse, lo que provoca resistencias mecánicas inferiores a las previstas y superficies poco estéticas cuando se retira el encofrado.

La exudación del hormigón es otro tipo de segregación en la que el agua tiende a ascender hacia la superficie de la mezcla debido a la incapacidad de los áridos para retenerla durante la compactación. Esta agua forma una capa delgada, débil y porosa en la superficie del hormigón, que carece de resistencia y durabilidad.

La homogeneidad del hormigón se ve comprometida cuando se ve afectada la cohesión entre sus componentes. Esto puede ocurrir debido a una relación inadecuada entre los ingredientes, como en el caso de un hormigón demasiado seco o con demasiada agua. El hormigón seco con poca agua y componentes finos tiende a separar los áridos más gruesos, mientras que un exceso de agua aumenta el riesgo de segregación, de modo que el mortero se separa de los áridos. Por tanto, hay que cuidar la proporción de materiales y la humedad durante el mezclado para evitar la segregación y garantizar la homogeneidad.

La pérdida de homogeneidad en el hormigón está estrechamente ligada a su cohesividad: cuanto menor sea esta última, mayor será la pérdida de homogeneidad. Esto se debe a una relación inadecuada entre arena y grava, un tamaño máximo del árido excesivo, un contenido de agua excesivo, entre otros factores. Un hormigón debe ser manejable sin mostrar signos de segregación, lo que implica una adecuada cohesión.

Las mezclas más propensas a la segregación son las que son poco manejables o ásperas, extremadamente fluidas o secas, o aquellas que contienen una gran cantidad de arena. Además, incluso un hormigón muy manejable puede experimentar segregación si ha sido sometido a un tratamiento inadecuado o a operaciones mal ejecutadas.

Os dejo algún vídeo explicativo al respecto.

Referencias:

ACI COMMITTEE 304. Guide for Measuring, Mixing, Transporting, and Placing Concrete. ACI 304R-00.

CALAVERA, J. et al. (2004). Ejecución y control de estructuras de hormigón. Intemac, Madrid, 937 pp.

CORMON, P. (1979). Fabricación del hormigón. Editores Técnicos Asociados, Barcelona, 232 pp.

GALABRU, P. (1964). Tratado de procedimientos generales de construcción. Obras de fábrica y metálicas. Editorial Reverté, Barcelona, 610 pp.

MARTÍ, J.V.; YEPES, V.; GONZÁLEZ, F. (2014). Fabricación, transporte y colocación del hormigón. Apuntes de la Universitat Politècnica de València, 189 pp.

MONTERO, E. (2006). Puesta en obra del hormigón. Exigencias básicas. Consejo General de la Arquitectura Técnica de España, Madrid, 750 pp.

YEPES, V. (2020). Procedimientos de construcción de cimentaciones y estructuras de contención. Colección Manual de Referencia, 2ª edición. Editorial Universitat Politècnica de València, 480 pp. Ref. 328. ISBN: 978-84-9048-903-1.

YEPES, V. (2023). Maquinaria y procedimientos de construcción. Problemas resueltos. Colección Académica. Editorial Universitat Politècnica de València, 562 pp. Ref. 376. ISBN 978-84-1396-174-3

Cursos:

Curso de fabricación y puesta en obra del hormigón.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Cuántas respuestas son necesarias en una encuesta? Pues depende.

A veces me toca dirigir algún trabajo de investigación de mis estudiantes que trata de conocer la opinión sobre algún aspecto concreto. Normalmente se trata de temas relacionados con el sector de la construcción, aunque también suelo investigar si ha tenido éxito algún tipo de innovación educativa en mis clases. Para ello suelo aconsejar el uso de cuestionarios basados en escalas Likert, pues de esta forma facilito el análisis estadístico multivariante de los resultados.

El problema siempre es el mismo: ¿Profesor, tengo suficientes encuestas o tengo que enviar más encuestas? Y la respuesta siempre es la misma: depende del objeto de la encuesta. Vamos a analizar esto por partes.

Si se trata de describir los resultados obtenidos de un grupo de estudio, la muestra representa a la totalidad de la población, y por tanto no es necesario alcanzar un número de respuestas mínimo. Por ejemplo, si en una asociación de empresarios de la construcción el número de socios es de 30 y todos responden el cuestionario, es evidente que los resultados del estudio representan de forma exacta lo que opinan los 30 socios.

Sin embargo, lo habitual es encontrarse con un número de respuestas que forman una muestra de una población. Aquí se trata de saber si podemos extrapolar los resultados a la población que representa la muestra. Para ello nos debemos hacer dos preguntas: ¿Es la muestra representativa? ¿Cuál es el margen de error que cometemos?

Las técnicas de muestreo permiten extraer muestras representativas. Estos muestreos pueden ser probabilísticos o no probabilísticos. Entre los primeros podemos resaltar el muestreo aleatorio sistemático, el estratificado o el muestreo por conglomerados.  Entre los no probabilísticos, el muestreo por cuotas, por bola de nieve o el muestreo subjetivo por decisión razonada. Remito a los interesados a bibliografía específica, pues se escapa al objetivo de este artículo.

Aquí vamos a comentar brevemente lo relativo al error muestral. El error muestral se corresponde con el margen de error que estamos dispuestos a aceptar. Por ejemplo, si decimos que el 15% de la población está de acuerdo con algo y el error muestral es del 4%, realmente dicha opinión se encuentra entre el 11% y el 19% para un nivel de confianza determinado. Por eso, lo primero, será definir el nivel de confianza o riesgo de primera especie «z», que sería el riesgo que aceptamos de equivocarnos al presentar nuestros resultados. El nivel de confianza habitual es 1 – α = 95% o α = 5%. Se utiliza como «z», que es un valor de la distribución normal asociado a una determinada probabilidad de ocurrencia. Así, z=1,96 si 1 – α = 95%, z=2,00 si 1 – α = 95,5% y z=2,57 si 1 – α = 99%.

Otro factor a tener en cuenta es la variabilidad de las respuestas estimada en la población. Si sabemos que todos los sujetos piensan lo mismo, nos bastará preguntar a uno solo o a muy pocos. Pero si sabemos que habrá una gran diversidad de respuestas, hará falta una mayor número de sujetos en la muestra. Como lo normal es desconocer la variabilidad de las respuestas en la población, elegimos la mayor varianza posible p=q=50% (sería que el 50% respondiera que «sí» y el otro 50% lo contrario).

Las fórmulas que nos dan el error muestral, por tanto, dependen de los factores anteriores y también de conocer si la población es finita o infinita (más de 30.000 individuos ya se considera como infinita). En la figura se indican ambas fórmulas.

Fórmulas del error muestral, en función de si la población es finita o infinita

Si jugamos un poco con estas fórmulas, veremos que para un nivel de confianza del 95%, serían necesarias 96 respuestas en una población infinita y 95 respuestas en una población de un tamaño de 10.000 (casi coinciden) para un error muestral del 10%. Pero si queremos bajar el error al 5%, se eleva el número de respuestas a 384 en el caso de la población infinita y a 370 en el caso de una población finita de 10.000. Como vemos, se dispara el número de respuestas necesarias para reducir el error.

Por tanto, mi respuesta a mis estudiantes suele ser siempre la misma: vamos a intentar llegar a 100 respuestas para empezar a tener un error razonable.

En apretada síntesis, os quiero dar las siguientes consideraciones sobre el muestreo:

  • No solo es necesario que el tamaño de la muestra sea suficiente, sino también que la muestra sea representativa de la población que tratamos de describir
  • Una muestra de gran tamaño no garantiza que el margen de error sea pequeño, pues puede estar sesgada hacia segmentos de la población representados en exceso o poco representados
  • Si la población a estudiar es demasiado grande es recomendable segmentarla en estratos y valorar en cuáles de ellos pueden obtenerse muestras representativas, facilitando así una interpretación de los resultados más precisa
  • En general, el margen de error en cada estrato suele ser superior al margen de error de toda la muestra en conjunto. Es recomendable ser consciente de esta diferencia de precisión en la interpretación de resultados

Pues ahora una reflexión final: ¿Qué error tienen las encuestas que contestan los alumnos en relación con la calidad del profesor? ¿Es razonable tomar decisiones respecto a la continuidad o no de un profesor teniendo en cuenta estas encuestas? Tenéis las claves releyendo el artículo.

Aquí tenéis un vídeo sobre las técnicas de muestreo.

Os dejo a continuación un pequeño vídeo sobre el error de muestreo.

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Por qué no nos salen las cosas siempre «exactamente» igual?

Siempre que intentamos hacer algo, nunca nos sale exactamente igual. Por ejemplo, si corremos 100 metros lisos y tuviésemos un cronómetro que midiera con 100 decimales de precisión, sería muy improbable que hiciésemos dos series en el mismo tiempo. Este concepto universal de la variabilidad es muy importante en los procesos productivos y en la calidad. Veamos qué significa.

El enemigo de todo proceso es la variación, siendo la variabilidad inevitable. Cuando se fabrica un producto o se presta un servicio, es materialmente imposible que dos resultados sean exactamente iguales. Esto se debe a múltiples motivos, algunos evitables y otros no. Por un lado, existen múltiples causas comunes, aleatorias y no controlables, que hacen que el resultado cambie siguiendo habitualmente una distribución de probabilidad normal. Se dice que dicho proceso se encuentra bajo control estadístico, siendo este el enfoque que sobre el concepto de calidad propugna Deming y que vimos en un artículo anterior. Por otra parte, existen unas pocas causas asignables que ocurren de forma fortuita y que podemos detectar y corregir. Ocurren de forma errática y, por fortuna, se solucionan fácilmente. Las causas comunes son difíciles de erradicar porque requieren un cambio en el proceso, la máquina o el sistema que produce los resultados, y ese cambio es responsabilidad de la gerencia. Kaoru Ishikawa decía que el 85 % de los problemas en un proceso eran responsabilidad de la gerencia, comentario que fue mal recibido por parte de la alta dirección de las empresas.

Para aclarar y entender estos conceptos, os dejo un Polimedia explicativo, de poco más de siete minutos, que espero os guste.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.