La cerveza, la estadística y Gosset

William Sealy Gosset, 1876-1937.

Hoy día se conoce ampliamente la distribución t de Student, que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. Esta distribución permite realizar la denominada prueba t de Student a dos muestras para probar si existe o no diferencia entre las medias, pudiendo ser dichas muestras desaparejadas o en parejas. Sin embargo, poca gente conoce a este Student. Este fue el seudónimo que utilizó William S. Gosset (1876-1937) para publicar sus descubrimientos. En efecto, para evitar exposiciones de información confidencial, Guinness -que era la empresa donde Gosset trabajaba- prohibió a sus empleados la publicación de artículos independientemente de la información que contuviesen. De ahí el uso de su pseudónimo Student en sus publicaciones, para evitar que su empleador lo detectara.

Distribución t de Student

Gosset empezó a trabajar en 1899 como técnico en la fábrica de cerveza Guinness, justo después de licenciarse en la Universidad de Oxford. Allí empezó a realizar experimentos y comprendió la necesidad de utilizar la estadística para comprender sus resultados. En los inicios del siglo XX, los métodos de inferencia se reducían a un versión de las pruebas z para las medias, pues incluso entonces los intervalos de confianza eran desconocidos. El interés de Gosset en el cultivo de la cebada le llevó a pensar que el diseño de experimentos debería dirigirse no sólo a mejorar la producción media, sino también a desarrollar variedades poco sensibles a las variaciones en el suelo y el clima. Como los experimentos que realizaba eran con pocas observaciones, se dio cuenta que las conclusiones que obtenía con este tipo de inferencia no eran precisas. Con la nueva distribución t se pudo diseñar una prueba que identificó la mejor variedad de cebada y Guinness, rápidamente, adquirió toda la semilla disponible. Para que luego se ponga en duda la importancia de la investigación en las empresas y su rentabilidad económica.

Os dejo a continuación un vídeo explicativo de esta importante función de distribución.

 

Simulaciones de Monte Carlo en el Control de Calidad del hormigón

El método de Monte Carlo es un procedimiento numérico que permite aproximar la resolución de expresiones matemáticas complejas con las que resulta o bien difícil, o bien imposible (especialmente en el ámbito de la estadística) encontrar resultados exactos.  Con este método se puede, con la ayuda de una hoja de cálculo, llevar a cabo un ajuste del criterio de aceptación suficientemente preciso y fundado en los intereses de las partes interesadas expresados por los riesgos aceptados de común acuerdo.

Os paso un vídeo destinado a que los alumnos adquieran una visión no determinista del control de calidad de materiales de construcción. El profesor Antonio Garrido, de la Universidad Politécnica de Cartagena, hace un recorrido por las diferentes funciones de distribución que se aplican hoy en día en la generación de las variables aleatorias, destacando su propuesta personal basada en la distribución gaussiana o normal. Además, propone el empleo de la hoja de cálculo de Excel para realizar la simulación de Monte Carlo, tanto por su sencillez de manejo como por su amplia disponibilidad. Espero que os guste.

Referencias:

Garrido, A.; Conesa, E.M. (2009). Simulación por el método de Monte Carlo para generar criterios de aceptación en el control de calidad de productos de construcción. Informes de la Construcción, 61(515): 77-85. (link)

Jerga, falacias y encuestas electorales: Las hipótesis en la investigación científica

Muchas veces la jerga que utilizan determinados colectivos o profesiones confunden al común de los mortales. La creación de un lenguaje jergal propio es habitual en todo grupo humano muy cerrado, con contacto estrecho y prolongado entre sus integrantes, y con una separación muy nítidamente marcada entre “dentro” y “fuera”. Un ejemplo es la jerga médica, donde la precisión necesaria para describir una enfermedad requiere de una traducción simultánea al enfermo. Otras veces existen consultores que, escudándose en neologismos, tecnicismos o anglicismos, venden mejor sus ideas o productos. No menos confuso es el lenguaje estadístico, sobre todo cuando se trata de encuestas electorales. Este lenguaje confuso, y en numerosas ocasiones deliberadamente difícil de entender, oculta ideas o conceptos sencillos. Este es el caso de las hipótesis en la investigación científica y las pruebas de hipótesis empleadas en la estadística.

Todos esperamos de un jurado que declare culpable o inocente a un acusado. Sin embargo, esto no es tan sencillo. El acusado es inocente hasta que no se demuestre lo contrario, pero el dictamen final solo puede decir que no existen pruebas suficientes para declarar que el acusado sea culpable, lo cual no es equivalente a la inocencia. Además, es fácil intuir que el jurado no es infalible. Puede equivocarse culpando a un inocente y también absolviendo a un culpable. Lo mismo ocurre con un test de embarazo o de alcoholemia, puede dar un falso positivo o un falso negativo. ¿Qué significa que una encuesta afirma que el partido “A” va a ganar las elecciones? De esto trata una prueba de hipótesis, pero vayamos por partes.

B-DERsTIQAAgORN

Una hipótesis puede definirse como una explicación tentativa de un fenómeno investigado que se enuncia como una proposición o afirmación. A veces las hipótesis no son verdaderas, e incluso pueden no llegar a comprobarse. Pueden ser más o menos generales o precisas, y abarcar dos o más variables, pero lo que es común a toda hipótesis, es que necesita una comprobación empírica, es decir, se debe verificar con la realidad. Pero ahora viene el problema: ¿en cuántos casos necesitamos para verificar una hipótesis? Siempre quedará la duda de que el caso siguiente negará lo planteado en la hipótesis. Por tanto, nos encontramos ante un método inductivo donde el reto será generalizar una proposición partiendo de un conjunto de datos, que denominaremos muestra.

Este tipo de hipótesis son, en realidad, hipótesis de investigación o de trabajo. Pueden ser varias, y suelen denominarse como H1, H2, …, Hi. Se trata de proposiciones tentativas que pueden clasificarse en varios tipos:

a) Descriptivas de un valor o dato pronosticado

b) Correlacionales

c) De diferencia de grupos

d) Causales.

En estadística, se llaman hipótesis nulas aquellas que niegan o refutan la relación entre variables, denominándose como H0. Estas hipótesis sirven para refutar o negar lo que afirma la hipótesis de investigación. Por ejemplo, si lo que quiero comprobar es la relación existente entre la relación agua/cemento con la resistencia a compresión a 28 días de una probeta de hormigón, entonces la hipótesis nula es que no existe una relación entre ambas variables. La idea es demostrar mediante una muestra que no existen pruebas suficientemente significativas para rechazar la hipótesis nula que indica que no existe relación entre dichas variables. Sin embargo, en un lenguaje menos formal, lo que realmente queremos es verificar que existe dicha relación. Sin embargo, también existen hipótesis alternativas, que son posibilidades diferentes de las hipótesis de investigación y nula. Así, si nuestra hipótesis de investigación establece que “esta silla es roja”, la hipótesis nula es “esta silla no es roja”, pero las hipótesis alternativas pueden ser: “esta silla es verde”, “esta silla es azul”, etc. Realmente, la hipótesis alternativas no son más que otras hipótesis de investigación. Curiosamente, en investigación no hay una regla fija para la formulación de hipótesis. Hay veces que solo se incluye la hipótesis de investigación, en otras ocasiones se incluye la hipótesis nula y, en otras, también las alternativas.

Pero, ¿se puede afirmar que un partido va a ganar las elecciones según una encuesta?, o dicho de otro modo, ¿se puede probar que una hipótesis es, con toda rotundidad, verdadera o falsa? Desgraciadamente, no se puede realizar dicha afirmación. Lo único que se puede hacer es argumentar, a la vista de unos datos empíricos obtenidos de una investigación particular, que tenemos evidencias para apoyar a favor o en contra una hipótesis. Cuantas más investigaciones, más credibilidad tendrá, y ello solo será válido para el contexto en que se comprobó. De ahí la importancia de elegir una muestra que sea suficientemente representativa de la población total. Por tanto, solo podemos argumentar la validez de las hipótesis desde el punto de vista estadístico. Las pruebas de hipótesis sirven para este cometido.

A continuación os dejo una figura donde se describe, de forma muy resumida, lo que es una prueba de hipótesis. Me gustaría que os fijaseis en que en toda prueba de hipótesis existen dos tipos de errores, el falso positivo (mandar a un inocente a la cárcel) y el falso negativo (exculpar a un culpable). Estos errores deberían ser lo más bajos posibles, pero a veces no es sencillo. Para que ambos errores bajen de forma simultánea, no hay más remedio que aumentar el tamaño de la muestra. Por este motivo, para hacer un examen lo más justo posible, este debería aprobar a los que han estudiado y suspender a los que no. Lo mejor es que el número de preguntas sea lo más alto posible.

Por tanto, ojo cuando el titular de un periódico nos ofrezca una previsión electoral. Hay que mirar bien cómo se ha hecho la encuesta y, lo más importante, saber interpretar los resultados desde el punto de vista estadístico.

Test de hipótesis

Referencias:

Hernández, R.; Fernández, C.; Baptista, P. (2014). Metodología de la investigación. Sexta edición, McGraw-Hill Education, México.

Análisis de componentes principales y su aplicación a los puentes

¿Cuántas variables nos hace falta para definir completamente un puente losa? Las variables se encuentran relacionadas unas con otras, de forma que es posible determinar variables sintéticas subyacentes (llamadas componentes principales) capaces de explicar un elevado porcentaje de la variación de dichas variables. Como veremos en el artículo que os dejo, bastan tres componentes principales para explicar el 80,8% de la varianza de los datos de las losas macizas, y cuatro para modular el 79,0% en las aligeradas.

El análisis de componentes principales pretende transformar el conjunto de datos inicial (de variables correlacionadas) en un nuevo conjunto reducido de nuevas variables independientes, llamadas componentes principales. El análisis de componentes principales es un análisis estadístico que pertenece a los denominados métodos multivariantes. Se utiliza en multitud de disciplinas para interpretar los datos. A continuación os dejo un vídeo introductorio a este tipo de análisis, referenciándolo a datos de un puente losa postesado.

En este vídeo se realiza un ejemplo para la interpretación de datos de caracterización morfológica típicos de la conservación de recursos fitogenéticos. Autor: Fita Fernández, Ana María.

A continuación os dejo una explicación intuitiva del análisis de componentes principales del profesor José Luís Vicente Villardón, de la Universidad de Salamanca.

También os dejo un artículo científico donde utilizamos esta técnica en la caracterización de puentes losa postesados. Su referencia es:

YEPES, V.; DÍAZ, J.; GONZÁLEZ-VIDOSA, F.; ALCALÁ, J. (2009). Caracterización estadística de tableros pretensados para carreteras. Revista de la Construcción, 8(2):95-109.

Descargar (PDF, 1.08MB)

¿Qué es la metodología de la superficie de respuesta?

La Metodología de la Superficie de Respuesta (RSM) es un conjunto de técnicas matemáticas y estadísticas utilizadas para modelar y analizar problemas en los que una variable de interés es influenciada por otras.  El propósito inicial de estas técnicas es diseñar un experimento que proporcione valores razonables de la variable respuesta y, a continuación, determinar el modelo matemático que mejor se ajusta a los datos obtenidos. El objetivo final es establecer los valores de los factores que optimizan el valor de la variable respuesta. Esto se logra al determinar las condiciones óptimas de operación del sistema.

La diferencia entre (RSM) y un diseño experimental corriente estriba en que un diseño experimental por si solo tiene como objetivo localizar el tratamiento “ganador” entre todos aquellos que se han probado. En cambio, RSM pretende localizar las condiciones óptimas de operación del proceso. Ello supone un reto para el investigador, requiere una estrategia más completa e incluye la posibilidad de efectuar varios experimentos secuenciales y el uso de técnicas matemáticas más avanzadas.

Os dejo a continuación un vídeo explicativo que espero os aclare la metodología.

Otro vídeo complementario al anterior es el siguiente:

Referencias:

  • Box, G. E. P., Wilson, K. G. (1951), On the experimental attainment of optimum conditions,Journal of the Royal Statistical Society, B 13, 1-45
  • Cornell, John A. (1984), How to apply Response Surface Methodology, American Society for Quality Control, Milwaukee, WI.
  • Kuehl, Robert O. (2001) Diseño de Experimentos, 2a. Edición, Thomson Learning.
  • Melvin T. A. Response Surface Optimization using JMP Software, < http://www2.sas.com/proceedings/sugi22/STATS/PAPER265.PDF>
  • Montgomery, D. C. (2002), Diseño y Análisis de Experimentos, Editorial Limusa, Segunda Edición.
  • http://www.cicalidad.com/articulos/RSM.pdf
  • http://catarina.udlap.mx/u_dl_a/tales/documentos/lii/peregrina_p_pm/capitulo2.pdf

Diseño de experimentos en cuadrado latino

En el diseño en cuadrado latino se tienen cuatro fuentes de variabilidad que pueden afectar a la respuesta observada: los tratamientos, el factor de bloque I (columnas), el factor de bloque II (filas) y el error aleatorio. Se llama cuadrado latino porque se trata de un cuadrado que tiene la restricción adicional de que los tres factores involucrados se prueban en la misma cantidad de niveles, y es latino porque se utilizan letras latinas para denotar a los tratamientos o niveles de factor de interés.

Veamos un ejemplo práctico: se trata de averiguar si la resistencia característica del hormigón a compresión (MPa) varía con cuatro dosificaciones diferentes (D1, D2, D3, D4). Para ello se han preparado amasadas en 4 amasadoras diferentes y los ensayos se han realizado en 4 laboratorios diferentes. Los resultados obtenidos se han representado en la tabla que sigue.

TIPO DE AMASADORA
1 2 3 4
Laboratorio 1 26,7 (D3) 19,7 (D1) 28,0 (D2) 29,4 (D4)
Laboratorio 2 23,1 (D1) 20,7 (D2) 24,9 (D4) 29,0 (D3)
Laboratorio 3 28,3 (D2) 20,1 (D4) 29,0 (D3) 27,3 (D1)
Laboratorio 4 25,1 (D4) 17,4 (D3) 28,7 (D1) 34,1 (D2)

 

En este caso, la variable de respuesta es la resistencia característica del hormigón a compresión (MPa), el factor es la dosificación, y los bloques son las amasadoras y los laboratorios. Se supone que no existe interacción entre el factor y los bloques entre sí. El ANOVA trata de comprobar los efectos de los tratamientos (las dosificaciones).

Os dejo a continuación un videotutorial para resolver este diseño con el programa estadístico SPSS.

Referencias:

  • Gutiérrez, H.; de la Vara, R. (2004). Análisis y Diseño de Experimentos. McGraw Hill, México.
  • Vicente, MªL.; Girón, P.; Nieto, C.; Pérez, T. (2005). Diseño de Experimentos. Soluciones con SAS y SPSS. Pearson, Prentice Hall, Madrid.
  • Pérez, C. (2013). Diseño de Experimentos. Técnicas y Herramientas. Garceta Grupo Editorial, Madrid.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Caracterización estadística de tableros pretensados para carreteras

El presente artículo presenta una caracterización estadística de una muestra de 87 tableros reales de pasos superiores pretensados de canto constante para carreteras. El objetivo principal es encontrar fórmulas de predimensionamiento con el mínimo número de datos posible que permita mejorar el diseño previo de estas estructuras. Para ello se ha realizado un análisis exploratorio y otro multivariante de las variables geométricas determinantes, de las cuantías de materiales y del coste, tanto para tableros macizos como aligerados. Los modelos de regresión han permitido deducir que el canto y la armadura activa quedan bien explicados por la luz, mientras que la cuantía de hormigón lo es por el canto. La variable que mejor explica (71,3%) el coste por unidad de superficie de tablero en losa maciza es el canto, mientras que en las aligeradas es la luz (51,9%). Las losas macizas son económicas en vanos inferiores a los 19,24 m. La luz principal y los voladizos, junto con la anchura del tablero para el caso de losas macizas, o el aligeramiento interior en el caso de las aligeradas, bastan para predimensionar la losa, con errores razonables en la estimación económica.


Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Diseño de experimentos por bloques completos al azar

El diseño en bloques completos al azar trata de comparar tres fuentes de variabilidad: el factor de tratamientos, el factor de bloques y el error aleatorio. El adjetivo completo se refiere a que en cada bloque se prueban todos los tratamientos. La aleatorización se hace dentro de cada bloque.

Para ilustrar el diseño, supongamos que queremos determinar si cuatro laboratorios miden la misma resistencia característica del hormigón a compresión. Para ello se han considerado 5 amasadas diferentes que han sido analizadas por cada uno de los laboratorios. A los 28 días, se han roto las probetas a compresión simple y los resultados son los que hemos recogido en la tabla que sigue.

 

AMASADA
1 2 3 4 5
Laboratorio 1 63,5 63,2 62,3 65,6 65,0
Laboratorio 2 64,1 64,2 63,0 64,2 64,9
Laboratorio 3 65,9 65,0 63,9 66,0 65,8
Laboratorio 4 64,9 65,2 64,1 65,9 67,9

 

En este caso, la variable de respuesta es la resistencia característica del hormigón a compresión (MPa), el factor es el laboratorio (4 niveles), el bloque es la amasada (no son objeto directo de motivo del estudio). Por otra parte, se considera que no existe interacción entre el laboratorio y la amasada (factor y bloque).

En este tipo de experimento, la medición será el resultado del efecto del tratamiento (laboratorio) donde se encuentre, del efecto del bloque al que pertenece (amasada) y de cierto error que se espera que sea aleatorio. La hipótesis de que las medias son iguales se va a analizar con el análisis de la varianza (ANOVA), con dos criterios de clasificación.

A parte de los supuesto de normalidad, igualdad de varianzas y de independencia, aquí se añade otro que es que no existe interacción entre el factor y el bloque.

Para los curiosos, después de haber analizado los datos, diremos que en este caso, con una seguridad del 95%, se aprecian diferencias significativas entre las resistencias medidas por los laboratorios 1 y 3, entre los laboratorios 1 y 4,  y entre los laboratorios 2 y 4.

A continuación os dejo un vídeo donde os enseño cómo podemos analizar este problema con el programa estadístico SPSS. Espero que os sea útil.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

 

¿Podemos cumplir con las tolerancias exigidas en obra?

No es raro verse en una situación comprometida cuando vemos que nuestra planta de fabricación de hormigón o de aglomerado asfáltico empieza a no cumplir con las exigencias de calidad del producto terminado. Empezamos a buscar culpables por todos los sitios y no nos damos cuenta que el problema está en el procedimiento, las máquinas empleadas o las propias personas. En definitiva, nuestro proceso es incapaz de cumplir con las tolerancias solicitadas para nuestro producto. Hay que tener esta idea muy clara pues existe cierta variabilidad debida a causas comunes que sólo se podrá solucionar si se cambia la máquina o el proceso, lo cual implica una decisión por parte de la alta dirección. Este aspecto lo hemos explicado en un artículo anterior.

Después de comprobar que el proceso está bajo control, el siguiente paso es saber si es un proceso capaz, es decir, si cumple con las especificaciones técnicas deseadas, o lo que es lo mismo, comprobar si el proceso cumple el objetivo funcional. Se espera que el resultado de un proceso cumpla con los requerimientos o las tolerancias que ha establecido el cliente. El departamento de ingeniería puede llevar a cabo un estudio sobre la capacidad del proceso para determinar en que medida el proceso cumple con las expectativas.

La habilidad de un proceso para cumplir con la especificación puede expresarse con un solo número, el índice de capacidad del proceso o puede calcularse a partir de los gráficos de control. En cualquier caso es necesario tomar las mediciones necesarias para que el departamento de ingeniera tenga la certeza de que el proceso es estable, y que la media y variabilidad de este se pueden calcular con seguridad. El control de proceso estadístico define técnicas para diferenciar de manera adecuada entre procesos estables, procesos cuyo promedio se desvía poco a poco y procesos con una variabilidad cada vez mayor. Los índices de capacidad del proceso son solo significativos en caso de que el proceso sea estable (sometidos a un control estadístico).

Para aclarar estas ideas, o paso un Polimedia explicativo que espero os guste.

Definiciones básicas del diseño de experimentos

Entendemos por experimento al cambio en las condiciones de operación de un sistema o proceso, que se hace con el objetivo de medir el efecto del cambio en una o varias variables del producto. Ello nos permite aumentar el conocimiento acerca del sistema o del proceso.  Asimismo, entendemos por “diseño de un experimento” la planificación de un conjunto de pruebas experimentales, de forma que los datos generados puedan analizarse estadísticamente para obtener conclusiones válidas y objetivas acerca del problema establecido.

En un experimento es muy importante su reproducibilidad, es decir, poder repetir el experimento. Ello nos proporciona una estimación del error experimental y permite obtener una estimación más precisa del efecto medio de cualquier factor.

 

Veamos algunas definiciones importantes en el diseño de experimentos:

  • Unidad experimental: Es la muestra de unidades que es necesario producir en una condición para obtener una medición o dato representativo. Unidad a la cual se le aplica un solo tratamiento (que puede ser una combinación de muchos factores) en una reproducción del experimento.
  • Variables de respuesta: Es la característica del producto cuyo valor interesa mejorar mediante el diseño de experimentos.
  • Factor: Una variable independiente. En la mayoría de las investigaciones se trata con más de una variable independiente y con los cambios que ocurren en la variable independiente, cuando varia una o mas de las variables independientes.
  • Factores controlables: Son variables del proceso que se pueden fijar en un punto o en un nivel de operación.
  • Factores no controlables: Son variables que no se pueden controlar durante la operación normal del proceso.
  • Factores estudiados: Son las variables que se investigan en el experimento para observar cómo afectan o influyen en la variable de respuesta.
  • Confusión: Dos o más efectos se confunden en un experimento si es posible separar sus efectos, cuando se lleva a cabo el subsecuente análisis estadístico.
  • Error aleatorio: Es la variabilidad observada que no se puede explicar por los factores estudiados;  y resulta del pequeño efecto de los factores no estudiados y del error experimental.
  • Error experimental: Componente del error aleatorio que refleja los errores del experimentador en la planificación y ejecución del experimento.
  • Aleatorización: Consiste en hacer experimentos en orden aleatorio; este principio aumenta la posibilidad de que el supuesto de independencia de los errores se cumpla. Asignación al azar de tratamiento a las unidades experimentales. Una suposición frecuente en los modelos estadísticos de diseño de experimentos en que las observaciones o los errores en ellas están distribuidos independientemente. La aleatorización hace válida esta suposición.
  • Repetición: Es correr más de una vez un tratamiento o combinación de factores
  • Bloqueo: Es nulificar o tomar en cuenta en forma adecuada todos los factores que pueden afectar la respuesta observada. Distribución de las unidades experimentales en bloques, de manera que las unidades dentro de un bloqueo sean relativamente homogéneas, de esta manera, la mayor parte de la variación predecible entre las unidades queda confundida con el efecto de los bloques.
  • Tratamiento o combinación de tratamientos: Conjunto particular de condiciones experimentales que deben imponerse a una unidad experimental dentro de los confines del diseño seleccionado.

 

El error aleatorio describe la situación de no llegar a resultados idénticos con dos unidades experimentales tratadas idénticamente y refleja:

  • Errores de experimentación
  • Errores de observación
  • Errores de medición
  • Variación del material experimental (esto es, entre unidades experimentales)
  • Efectos combinados de factores extraños que pudieran influir las características en estudio, pero respecto a los cuales no se ha llamado la atención en la investigación.

 

El error aleatorio puede reducirse:

  • Usando material experimental más homogéneo o por estratificación cuidadosa del material disponible.
  • Utilizando información proporcionada por variables aleatorias relacionadas
  • Teniendo más cuidado al dirigir y desarrollar el experimento
  • Usando un diseño experimental muy eficiente.

 

Referencias:

  • Box, G.E.; Hunter, J.S.; Hunter, W.G. (2008). Estadística para investigadores. Diseño, innovación y descubrimiento. Segunda Edición, Ed. Reverté, Barcelona.
  • Gutiérrez, H.; de la Vara, R. (2003). Análisis y diseño de experimentos. McGraw-Hill, México.
  • Vicente, M.L.; Girón, P.; Nieto, C.; Pérez, T. (2005). Diseño de experimentos. Soluciones con SAS y SPSS. Pearson Educación, Madrid.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.