Hormigón compactado con una pavimentadora. Ejemplo de un diseño factorial fraccionado resuelto con MINITAB

https://www.360enconcreto.com/blog/detalle/innovacion-y-tendencias/pavimentos-de-concreto-compactados-con-rodillo

En la asignatura de «Modelos predictivos y de optimización de estructuras de hormigón», del Máster en Ingeniería del Hormigón, se desarrollan laboratorios informáticos. En este caso, os traigo un ejemplo de aplicación de un diseño de experimentos. En este caso, un diseño factorial fraccionado resuelto con MINITAB.

Se quiere determinar la mejor forma de elaborar hormigón compactado con una pavimentadora. La variable de respuesta es el porcentaje de compactación, medido con un densímetro nuclear. Tras una tormenta de ideas con expertos, se ha realizado un diseño de experimentos con 5 factores: el porcentaje de aditivo, la pavimentadora (A antigua, B moderna), el operador de la pavimentadora (A con poca experiencia, y B con mucha), el tipo de mezcla de hormigón y la temperatura del hormigón. Se ha tenido que realizar un diseño fraccionado puesto que el presupuesto limita el número de experimentos a un máximo de 12. Se pide que se analicen los resultados, que fueron los de la tabla siguiente:

Los datos de este caso provienen de la siguiente publicación: Arias, C.; Adanaqué, I.; Buestán, M. Optimización del proceso de elaboración de hormigón compactado con pavimentadora. Escuela Superior Politécnica del Litoral, Ecuador. http://www.dspace.espol.edu.ec/handle/123456789/4754

Os paso la resolución de este laboratorio informático. Espero que os sea de interés.

Pincha aquí para descargar

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Diseño de experimentos en cuadrado grecolatino. Ejemplo aplicado al hormigón

Figura 1. Cuadrado grecolatino de orden cuatro. Wikipedia

Un cuadrado greco-latinocuadrado de Euler o cuadrados latinos ortogonales de orden n se denomina, en matemáticas, a la disposición en una cuadrícula cuadrada n×n de los elementos de dos conjuntos S y T, ambos con n elementos, cada celda conteniendo un par ordenado (st), siendo s elemento de S y t de T, de forma que cada elemento de S y cada elemento de T aparezca exactamente una vez en cada fila y en cada columna y que no haya dos celdas conteniendo el mismo par ordenado. Si bien los cuadrados grecolatinos eran una curiosidad matemática, a mediados del siglo XX Fisher demostró su utilidad para el control de experimentos estadísticos.

El diseño de experimentos en cuadrado grecolatino constituye una extensión del cuadrado latino. En este caso se eliminan tres fuentes extrañas de variabilidad, es decir, se controlan tres factores de bloques y un factor de tratamiento. Se trata de un diseño basado en una matriz de «n» letras latinas y «n» letras griegas, de forma que cada letra latina aparece solo una vez al lado de cada letra griega. Lo interesante de este diseño es que se permite la investigación de cuatro factores (filas, columnas, letras latinas y letras griegas), cada una con «n» niveles en solo «n2» corridas. Se llama cuadrado grecolatino porque los cuatro factores involucrados se prueban en la misma cantidad de niveles, de aquí que se pueda escribir como un cuadro. En la Figura 1 se presenta el aspecto de los datos del diseño de orden cuatro. El inconveniente de este modelo es que su utilización es muy restrictiva. El análisis de la varianza permite comprobar las hipótesis de igualdad de letras latinas (tratamientos), de las filas, de las columnas y de las letras griegas.

Si a un cuadrado latino p x p se le superpone un segundo cuadrado latino n x n en el que los tratamientos se denotan con letras griegas, entonces los dos cuadrados tienen la propiedad de que cada letra griega aparece una y sólo una vez con cada letra latina. Este diseño permite controlar sistemáticamente tres fuentes de variabilidad extraña. Ello permite la investigación de cuatro factores (filas, columnas, letras latinas y letras griegas), cada una con p niveles en sólo n2 ensayos.

Por tanto, el diseño de experimentos en cuadrado grecolatino se caracteriza por lo siguiente:

  • Es un diseño con cuatro factores a n niveles
  • Se asume que no hay interacciones entre los factores
  • Requiere de n2 observaciones
  • Cada nivel de un factor aparece una vez con cada nivel de los otros factores
  • Se trata de la superposición de dos cuadrados latinos (ver Figura 2)
Figura 2. Superposición de dos cuadrados latinos

En un diseño en cuadrado greco-latino la variable respuesta yij(hp) viene descrita por la siguiente ecuación:

A continuación os presento un caso para aclarar la aplicabilidad de este diseño de experimentos. Se trata de averiguar si la resistencia característica del hormigón a flexocompresión (MPa) varía con cuatro dosificaciones diferentes. Para ello se han preparado amasadas en cuatro amasadoras diferentes, se han utilizado cuatro operarios de amasadora y los ensayos se han realizado en cuatro laboratorios diferentes. Los resultados se encuentran en la tabla que sigue. Se quiere analizar el diseño de experimentos en cuadrado grecolatino realizado.

En el caso que nos ocupa, la variable de respuesta de la resistencia característica del hormigón a flexocompresión (MPa). El factor que se quiere estudiar es la dosificación a cuatro niveles (A, B, C y D). El bloque I es el tipo de amasadora, con cuatro niveles (α, β, γ y δ). El bloque II es el operario de la amasadora, con cuatro niveles (1, 2, 3 y 4). El bloque III es el laboratorio, con cuatro niveles (las filas). Se supone que no hay interacción entre el factor y los bloques entre sí.

Lo que se quiere averiguar es si hay diferencias significativas entre las dosificaciones (el factor a estudiar). De paso, se desea saber si hay diferencias entre los laboratorios, los operarios y las amasadoras (los bloques).

Os paso un pequeño vídeo donde se explica, de forma muy resumida, este caso, tanto para SPSS como para MINITAB.

Os dejo otro vídeo donde también se explica este tipo de diseño de experimentos.

Referencias:

  • Gutiérrez, H.; de la Vara, R. (2004). Análisis y Diseño de Experimentos. McGraw Hill, México.
  • Vicente, MªL.; Girón, P.; Nieto, C.; Pérez, T. (2005). Diseño de Experimentos. Soluciones con SAS y SPSS. Pearson, Prentice Hall, Madrid.
  • Pérez, C. (2013). Diseño de Experimentos. Técnicas y Herramientas. Garceta Grupo Editorial, Madrid.

 

Correlación y modelo de regresión lineal. Problema resuelto en puentes losa

Figura 1. Modelo lineal simple de un tablero de puente losa postesado macizo (Yepes et al., 2009)

Uno de los temas básicos que se estudia en la asignatura de estadística de cualquier grado de ingeniería es la inferencia y los modelos de regresión lineal (Figura 1). A pesar de su sencillez, muchos estudiantes y profesionales aplican, sin más, este tipo de regresiones para interpolar valores en múltiples campos de la ingeniería, la economía, la salud, etc. El conocimiento de algunas nociones básicas nos permitiría evitar errores de bulto. Uno de ellos es intentar forzar las predicciones más allá de las observaciones realizadas. Otro error es confundir la correlación con la regresión. Buscar relaciones donde no las hay (relación espuria, Figura 2). Y por último, uno de los aspectos más descuidados es la no comprobación de las hipótesis básicas que se deben cumplir para que un modelo de regresión lineal sea válido.

Figura 2. Relaciones espuria entre el consumo de chocolate y el número de premios Nobel

Dicho de otra forma, valorar la calidad del ajuste mediante el coeficiente de determinación no equivale a valorar el cumplimiento de las hipótesis básicas del modelo. Si las hipótesis del modelo no se cumplen, se pueden estar cometiendo graves errores en las conclusiones de las inferencias. Así, las hipótesis básicas del modelo de regresión son las siguientes:

  • Linealidad: los parámetros y su interpretación no tienen sentido si los datos no proceden de un modelo lineal
  • Normalidad de los errores: se asume que la distribución de los errores es normal
  • Homocedasticidad: la varianza del error es constante
  • Independencia de los errores: las variables aleatorias que representan los errores son mutuamente independientes
  • Las variables explicativas son linealmente independientes

Para aclarar las ideas, he analizado un caso de regresión lineal simple con datos reales procedentes de 26 puentes losa postesados macizos (Yepes et al., 2009). Se trata de conocer la relación que existe entre la luz principal de este tipo de puentes y el canto del tablero. Utilizaremos los programas siguientes: MINITAB, SPSS, EXCEL y MATLAB. También os dejo un vídeo explicativo, muy básico, pero que espero sea de interés. Dejo los detalles matemáticos aparte. Los interesados pueden consultar cualquier manual básico de estadística al respecto.

Pincha aquí para descargar

Referencias:

YEPES, V.; DÍAZ, J.; GONZÁLEZ-VIDOSA, F.; ALCALÁ, J. (2009). Statistical Characterization of Prestressed Concrete Road Bridge Decks. Revista de la Construcción, 8(2):95-109.

 

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Tablas de contingencia aplicadas al hormigón

Figura 1. ¿Depende la calidad del hormigón de un proveedor determinado?

En ocasiones nos encontramos con un par de variables cualitativas que, a priori, no sabemos si se encuentran relacionadas entre sí, o si pertenecen a una misma población estadística. Recordemos que las variables cualitativas son aquellas cuyo resultado es un valor o categoría de entre un conjunto finito de respuestas (tipo de defecto, nombre del proveedor, color, etc.).

En el ámbito del hormigón, por ejemplo, podríamos tener varios proveedores de hormigón preparado en central y un control del número de cubas-hormigonera aceptadas, aceptadas con defectos menores o rechazadas. Otro ejemplo sería contabilizar el tipo de incumplimiento de una tolerancia por parte de un equipo que está encofrando un muro de contención. En estos casos, se trata de saber si existe dependencia entre los proveedores o los equipos de encofradores respecto a los defectos detectados. Esto sería interesante en el ámbito del control de la calidad para tomar medidas, como pudiese ser descartar a determinados proveedores o mejorar la formación de un equipo de encofradores.

Así, podríamos tener un problema como el siguiente: Teniendo en cuenta el punto 5.6 del Anejo 11 de la EHE, donde se definen las tolerancias de muros de contención y muros de sótano, se quiere comprobar si tres equipos de encofradores producen de forma homogénea en la ejecución de muros vistos, o por el contrario, unos equipos producen más defectos de un tipo que otro. Todos los equipos emplean el mismo tipo de encofrado. Las tolerancias que deben cumplirse son:

1. Desviación respecto a la vertical
2. Espesor del alzado
3. Desviación relativa de las superficies planas de intradós o de trasdós
4. Desviación de nivel de la arista superior del intradós, en muros vistos
5. Tolerancia de acabado de la cara superior del alzado, en muros vistos

Los equipos han estado trabajando durante año ejecutando este tipo de unidad de obra. Durante este tiempo el número de defectos en relación con la tolerancia dimensional ha sido pequeño, pero se han contabilizado 375 defectos. El control de calidad ha dado como resultado el conteo de la tabla de la Figura 2.

Figura 2. Conteo de incumplimientos según el equipo de encofradores. En paréntesis figura el valor esperado.

En la Figura 2 se ha representado también la frecuencia esperada para cada uno de los casos. Por ejemplo, la fracción esperada del incumplimiento «1» es de 89/375, mientras que la fracción esperada de defectos del equipo A es de 150/375. Ello implica que el valor esperado de incumplimientos del tipo «1» para el equipo de encofradores «A» sería: (89/375)·(150/375)·375=89·150/375=35,60.

La pregunta que nos podríamos hacer es la siguiente: ¿Influye el tipo de proveedor en la calidad de la recepción del hormigón? Para ello plantearíamos la hipótesis nula: El tipo de proveedor no influye en la calidad de la recepción del hormigón. La hipótesis alternativa sería que sí que existe dicha influencia o dependencia entre las variables cualitativas.

Para ello necesitamos una prueba estadística, en este caso es la prueba χ². El fundamento de la prueba χ² es comparar la tabla de las frecuencias observadas respecto a la de las frecuencias esperadas (que sería la que esperaríamos encontrar si las variables fueran estadísticamente independientes o no estuvieran relacionadas). Esta prueba permite obtener un p-valor (probabilidad de equivocarnos si rechazamos la hipótesis nula) que podremos contrastar con el nivel de confianza que determinemos. Normalmente el umbral utilizado es de 0,05. De esta forma, si p<0,05 se rechaza la hipótesis nula y, por tanto, diremos que las variables son dependientes. Dicho de forma más precisa, en este caso no existe un nivel de significación suficiente que soporte la independencia de las variables.

Las conclusiones que se obtienen de la prueba son sencillas de interpretar. Si no existe mucha diferencia entre los valores observados y los esperados, no hay razones para dudar de que las variables sean independientes.

No obstante, hay algunos problemas con la prueba χ², uno de ellos relacionado con el tamaño muestral. A mayor número de casos analizados, el valor de la χ² tiende a aumentar. Es decir, si la muestra es excesivamente grande, será más fácil que rechacemos la hipótesis nula de independencia, cuando a lo mejor podrían ser las variables independientes.

Por otra parte, cada una de las celdas de la tabla de contingencia debería tener un mínimo de 5 observaciones esperadas. Si no fuera así, podríamos agrupar filas o columnas (excepto en tablas 2×2). También se podría eliminar la fila que da una frecuencia esperada menor de 5.

Por último, no hay que abusar de la prueba χ². Por ejemplo, podríamos tener una variable numérica, como la resistencia característica del hormigón, y agruparla en una variable categórica en grupos tales como 25, 30, 35, 40, 45 y 50 MPa. Lo correcto cuando tenemos una escala numérica sería aplicar la prueba t-Student, siendo incorrecto convertir la escala numérica en una ordinal o incluso binaria.

A continuación os dejo el problema anterior resuelto, tanto con el programa SPSS como con MINITAB.

Pincha aquí para descargar

Os dejo un par de vídeos explicativos, que espero os sean de interés.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Instrucciones básicas de Matlab para tratamiento estadístico de datos

Dejo a continuación una serie de instrucciones básicas que podéis utilizar en Matlab para realizar cálculos estadísticos básicos. Este post está dedicado a mis estudiantes de Modelos Predictivos y de Optimización de Estructuras de Hormigón, pero puede ser de interés, por lo que lo dejo en abierto.

Importar datos de un fichero Excel

>> datos=xlsread(‘Ejercicio 4’)

Número de filas y columnas

>> size(datos)

Dimensión más grande de una matriz

>> length(datos)

Ordena los elementos de forma ascendente

>> sort(datos)

Ordena los elementos de forma descendente

>> sort(datos,’descend’)

Suma de los datos

>> sum(datos)

Producto de los datos

>> prod(datos)

Vector de sumas acumuladas

>> cumsum(datos)

Vector de productos acumulados

>> cumprod(datos)

Calcular la media aritmética

>> mean(datos)

Calcular la mediana

>> median(datos)

Calcular la moda de la muestra

>> mode(datos)

Calcular la media aritmética omitiendo el 5% de datos de cada lado

>> trimmean(datos,10)

Calcular la media geométrica de una muestra

>> geomean(datos)

Calcular la media armónica de una muestra

>> harmmean(datos)

Calcular el sesgo de la muestra

>> skewness(datos)

Calcular la curtosis de los datos

>> kurtosis(datos)

Varianza muestral

>> var(datos)

Desviación estándar muestral

>> std(datos)

 

Rango de los datos

>> range(datos)

El menor valor

>> min(datos)

El mayor valor

>> max(datos)

Desviación absoluta respecto a la media

>> mad(datos)

Momento central de orden 3 respecto a la media

>> moment(datos,3)

Rango intercuartílico

>> iqr(datos)

Primer cuartil (percentil 25)

>> prctile(datos, 25)

Percentil del 5%

>> prctile(datos,5)

Dibujar un diagrama de caja

>> boxplot(datos)

Dibujar el histograma de datos

>> hist(datos)

Dibujar la distribución de frecuencia acumulada

>> cdfplot(datos)

Visualización de funciones de probabilidad

>> disttool

Ajuste de modelos de distribución a conjunto de datos

>> dfittool

Matriz 3×3 de números aleatorios entre 0 y 1

>> rand(3)

Matriz 3×2 de números aleatorios entre 0 y 1

>> rand(3,2)

Matriz 3×3 de números aleatorios normales de media 0 y varianza 1

>> randn(3)

Matriz 3×2 de números aleatorios normales de media 0 y varianza 1

>> randn(3,2)

Secuencia de 5 valores aleatorios normales de desviación estándar de 2,5 y media 3

>> rand(1,5)*2.5+3

 

Estimación puntual y por intervalos para una muestra de una población normal

El problema de la  estimación puntual y por intervalos para una muestra de una población normal es una actividad muy frecuente en el ámbito de la ingeniería y de la investigación. Supongamos que tenéis una muestra de 5 elementos extraída de una población normal (por ejemplo, de la resistencia a compresión simple de una probeta de hormigón a 28 días procedente de una misma amasada). El objetivo es establecer inferencias estadísticas usando un nivel de significación α=0.05. Deberíais ser capaces de realizar las siguientes actividades:

  1. Calcular el intervalo de confianza para la media, suponiendo que la desviación típica de la población es conocida y vale lo mismo que la desviación típica de la muestra. (Se empleará la distribución normal).
  2. Calcular el intervalo de confianza para la media, suponiendo que la desviación típica de la población es desconocida. (Se empleará la distribución t de Student).
  3. Calcular el intervalo de confianza para la desviación típica de la muestra. (Se empleará la distribución chi-cuadrado).

A continuación os dejo un pequeño tutorial para proceder al cálculo de dichos intervalos utilizando el paquete estadístico Minitab.

Os paso unos vídeos explicativos para que entendáis los conceptos. Espero que os gusten:

 

La cerveza, la estadística y Gosset

William Sealy Gosset, 1876-1937.

Hoy día se conoce ampliamente la distribución t de Student, que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Esta distribución permite realizar la denominada prueba t de Student a dos muestras para probar si existe o no diferencia entre las medias, pudiendo ser dichas muestras desaparejadas o en parejas. Sin embargo, poca gente conoce a este Student. Este fue el seudónimo que utilizó William S. Gosset (1876-1937) para publicar sus descubrimientos. En efecto, para evitar exposiciones de información confidencial, Guinness -que era la empresa donde Gosset trabajaba- prohibió a sus empleados la publicación de artículos independientemente de la información que contuviesen. De ahí el uso de su pseudónimo Student en sus publicaciones, para evitar que su empleador lo detectara.

Distribución t de Student

Gosset empezó a trabajar en 1899 como técnico en la fábrica de cerveza Guinness, justo después de licenciarse en la Universidad de Oxford. Allí empezó a realizar experimentos y comprendió la necesidad de utilizar la estadística para comprender sus resultados. En los inicios del siglo XX, los métodos de inferencia se reducían a un versión de las pruebas z para las medias, pues incluso entonces los intervalos de confianza eran desconocidos. El interés de Gosset en el cultivo de la cebada le llevó a pensar que el diseño de experimentos debería dirigirse no sólo a mejorar la producción media, sino también a desarrollar variedades poco sensibles a las variaciones en el suelo y el clima. Como los experimentos que realizaba eran con pocas observaciones, se dio cuenta que las conclusiones que obtenía con este tipo de inferencia no eran precisas. Con la nueva distribución t se pudo diseñar una prueba que identificó la mejor variedad de cebada y Guinness, rápidamente, adquirió toda la semilla disponible. Para que luego se ponga en duda la importancia de la investigación en las empresas y su rentabilidad económica.

Os dejo a continuación un vídeo explicativo de esta importante función de distribución.

 

Simulaciones de Monte Carlo en el Control de Calidad del hormigón

El método de Monte Carlo es un procedimiento numérico que permite aproximar la resolución de expresiones matemáticas complejas con las que resulta o bien difícil, o bien imposible (especialmente en el ámbito de la estadística) encontrar resultados exactos.  Con este método se puede, con la ayuda de una hoja de cálculo, llevar a cabo un ajuste del criterio de aceptación suficientemente preciso y fundado en los intereses de las partes interesadas expresados por los riesgos aceptados de común acuerdo.

Os paso un vídeo destinado a que los alumnos adquieran una visión no determinista del control de calidad de materiales de construcción. El profesor Antonio Garrido, de la Universidad Politécnica de Cartagena, hace un recorrido por las diferentes funciones de distribución que se aplican hoy en día en la generación de las variables aleatorias, destacando su propuesta personal basada en la distribución gaussiana o normal. Además, propone el empleo de la hoja de cálculo de Excel para realizar la simulación de Monte Carlo, tanto por su sencillez de manejo como por su amplia disponibilidad. Espero que os guste.

Referencias:

Garrido, A.; Conesa, E.M. (2009). Simulación por el método de Monte Carlo para generar criterios de aceptación en el control de calidad de productos de construcción. Informes de la Construcción, 61(515): 77-85. (link)

Jerga, falacias y encuestas electorales: Las hipótesis en la investigación científica

Muchas veces la jerga que utilizan determinados colectivos o profesiones confunden al común de los mortales. La creación de un lenguaje jergal propio es habitual en todo grupo humano muy cerrado, con contacto estrecho y prolongado entre sus integrantes, y con una separación muy nítidamente marcada entre “dentro” y “fuera”. Un ejemplo es la jerga médica, donde la precisión necesaria para describir una enfermedad requiere de una traducción simultánea al enfermo. Otras veces existen consultores que, escudándose en neologismos, tecnicismos o anglicismos, venden mejor sus ideas o productos. No menos confuso es el lenguaje estadístico, sobre todo cuando se trata de encuestas electorales. Este lenguaje confuso, y en numerosas ocasiones deliberadamente difícil de entender, oculta ideas o conceptos sencillos. Este es el caso de las hipótesis en la investigación científica y las pruebas de hipótesis empleadas en la estadística.

Todos esperamos de un jurado que declare culpable o inocente a un acusado. Sin embargo, esto no es tan sencillo. El acusado es inocente hasta que no se demuestre lo contrario, pero el dictamen final solo puede decir que no existen pruebas suficientes para declarar que el acusado sea culpable, lo cual no es equivalente a la inocencia. Además, es fácil intuir que el jurado no es infalible. Puede equivocarse culpando a un inocente y también absolviendo a un culpable. Lo mismo ocurre con un test de embarazo o de alcoholemia, puede dar un falso positivo o un falso negativo. ¿Qué significa que una encuesta afirma que el partido “A” va a ganar las elecciones? De esto trata una prueba de hipótesis, pero vayamos por partes.

B-DERsTIQAAgORN

Una hipótesis puede definirse como una explicación tentativa de un fenómeno investigado que se enuncia como una proposición o afirmación. A veces las hipótesis no son verdaderas, e incluso pueden no llegar a comprobarse. Pueden ser más o menos generales o precisas, y abarcar dos o más variables, pero lo que es común a toda hipótesis, es que necesita una comprobación empírica, es decir, se debe verificar con la realidad. Pero ahora viene el problema: ¿en cuántos casos necesitamos para verificar una hipótesis? Siempre quedará la duda de que el caso siguiente negará lo planteado en la hipótesis. Por tanto, nos encontramos ante un método inductivo donde el reto será generalizar una proposición partiendo de un conjunto de datos, que denominaremos muestra.

Este tipo de hipótesis son, en realidad, hipótesis de investigación o de trabajo. Pueden ser varias, y suelen denominarse como H1, H2, …, Hi. Se trata de proposiciones tentativas que pueden clasificarse en varios tipos:

a) Descriptivas de un valor o dato pronosticado

b) Correlacionales

c) De diferencia de grupos

d) Causales.

En estadística, se llaman hipótesis nulas aquellas que niegan o refutan la relación entre variables, denominándose como H0. Estas hipótesis sirven para refutar o negar lo que afirma la hipótesis de investigación. Por ejemplo, si lo que quiero comprobar es la relación existente entre la relación agua/cemento con la resistencia a compresión a 28 días de una probeta de hormigón, entonces la hipótesis nula es que no existe una relación entre ambas variables. La idea es demostrar mediante una muestra que no existen pruebas suficientemente significativas para rechazar la hipótesis nula que indica que no existe relación entre dichas variables. Sin embargo, en un lenguaje menos formal, lo que realmente queremos es verificar que existe dicha relación. Sin embargo, también existen hipótesis alternativas, que son posibilidades diferentes de las hipótesis de investigación y nula. Así, si nuestra hipótesis de investigación establece que “esta silla es roja”, la hipótesis nula es “esta silla no es roja”, pero las hipótesis alternativas pueden ser: “esta silla es verde”, “esta silla es azul”, etc. Realmente, la hipótesis alternativas no son más que otras hipótesis de investigación. Curiosamente, en investigación no hay una regla fija para la formulación de hipótesis. Hay veces que solo se incluye la hipótesis de investigación, en otras ocasiones se incluye la hipótesis nula y, en otras, también las alternativas.

Pero, ¿se puede afirmar que un partido va a ganar las elecciones según una encuesta?, o dicho de otro modo, ¿se puede probar que una hipótesis es, con toda rotundidad, verdadera o falsa? Desgraciadamente, no se puede realizar dicha afirmación. Lo único que se puede hacer es argumentar, a la vista de unos datos empíricos obtenidos de una investigación particular, que tenemos evidencias para apoyar a favor o en contra una hipótesis. Cuantas más investigaciones, más credibilidad tendrá, y ello solo será válido para el contexto en que se comprobó. De ahí la importancia de elegir una muestra que sea suficientemente representativa de la población total. Por tanto, solo podemos argumentar la validez de las hipótesis desde el punto de vista estadístico. Las pruebas de hipótesis sirven para este cometido.

A continuación os dejo una figura donde se describe, de forma muy resumida, lo que es una prueba de hipótesis. Me gustaría que os fijaseis en que en toda prueba de hipótesis existen dos tipos de errores, el falso positivo (mandar a un inocente a la cárcel) y el falso negativo (exculpar a un culpable). Estos errores deberían ser lo más bajos posibles, pero a veces no es sencillo. Para que ambos errores bajen de forma simultánea, no hay más remedio que aumentar el tamaño de la muestra. Por este motivo, para hacer un examen lo más justo posible, este debería aprobar a los que han estudiado y suspender a los que no. Lo mejor es que el número de preguntas sea lo más alto posible.

Por tanto, ojo cuando el titular de un periódico nos ofrezca una previsión electoral. Hay que mirar bien cómo se ha hecho la encuesta y, lo más importante, saber interpretar los resultados desde el punto de vista estadístico.

Test de hipótesis

Referencias:

Hernández, R.; Fernández, C.; Baptista, P. (2014). Metodología de la investigación. Sexta edición, McGraw-Hill Education, México.

Análisis de componentes principales y su aplicación a los puentes

¿Cuántas variables nos hace falta para definir completamente un puente losa? Las variables se encuentran relacionadas unas con otras, de forma que es posible determinar variables sintéticas subyacentes (llamadas componentes principales) capaces de explicar un elevado porcentaje de la variación de dichas variables. Como veremos en el artículo que os dejo, bastan tres componentes principales para explicar el 80,8% de la varianza de los datos de las losas macizas, y cuatro para modular el 79,0% en las aligeradas.

El análisis de componentes principales pretende transformar el conjunto de datos inicial (de variables correlacionadas) en un nuevo conjunto reducido de nuevas variables independientes, llamadas componentes principales. El análisis de componentes principales es un análisis estadístico que pertenece a los denominados métodos multivariantes. Se utiliza en multitud de disciplinas para interpretar los datos. A continuación os dejo un vídeo introductorio a este tipo de análisis, referenciándolo a datos de un puente losa postesado.

En este vídeo se realiza un ejemplo para la interpretación de datos de caracterización morfológica típicos de la conservación de recursos fitogenéticos. Autor: Fita Fernández, Ana María.

A continuación os dejo una explicación intuitiva del análisis de componentes principales del profesor José Luís Vicente Villardón, de la Universidad de Salamanca.

También os dejo un artículo científico donde utilizamos esta técnica en la caracterización de puentes losa postesados. Su referencia es:

YEPES, V.; DÍAZ, J.; GONZÁLEZ-VIDOSA, F.; ALCALÁ, J. (2009). Caracterización estadística de tableros pretensados para carreteras. Revista de la Construcción, 8(2):95-109.

Pincha aquí para descargar