¿Qué es el diseño de experimentos?

En el campo de la ingeniería civil, el concepto de «diseño de experimentos» resulta extraño. Lo asociamos al campo del control de calidad y de los laboratorios, pero no tenemos en cuenta que muchas herramientas avanzadas de productividad, mejora de procesos, toma de decisiones y productividad empresarial se basan en el control estadístico de la calidad. Veamos en esta entrada una breve aproximación al concepto.

El diseño de experimentos (DOE) es una técnica estadística que permite identificar y cuantificar las causas de un efecto en un estudio experimental, de modo que, con el mínimo número de pruebas, se extraiga información útil para obtener conclusiones que permitan optimizar la configuración de un proceso o producto.

Aunque el diseño de experimentos comenzó a aplicarse en el campo de la agricultura, hoy en día tiene muchas aplicaciones en otros ámbitos, como la ingeniería civil. Por ejemplo, en el control de calidad, en el diseño de productos y de procesos industriales y en todo tipo de ciencias experimentales. Se puede decir que el diseño de experimentos desempeña un papel crucial tanto en la industria como en la investigación experimental en la actualidad.

En un diseño experimental se manipulan deliberadamente una o más variables, vinculadas a las causas, para medir el efecto que tienen en otra variable de interés. El diseño experimental prescribe una serie de pautas relativas a qué variables hay que manipular, de qué manera, cuántas veces hay que repetir el experimento y en qué orden, para poder establecer, con un grado de confianza predefinido, la necesidad de una presunta relación de causa-efecto.

Los pasos básicos a seguir en el diseño de experimentos son los siguientes:

  1. Fijar un cronograma que defina la lista de pruebas a realizar. También debemos definir nuestros objetivos, los cuales deben ser claros y acordes con una realidad alcanzable.
  2. Escoger los factores a analizar, es decir, aquellos parámetros que van a afectar tanto directa como indirectamente a nuestra actividad (el proceso o producto que queremos optimizar), siendo estos los que nos van a marcar los límites alcanzables.
  3. Diseñar el plan de pruebas: este variará en función del número de factores que hayamos considerado. En este punto hay que ser ambicioso y no descartar ningún experimento posible, por raro que parezca, pues puede que algunos de ellos estén comunicados entre sí y que su interacción deba considerarse a la hora de tomar decisiones.

Una vez realizadas las pruebas, los resultados obtenidos permiten extraer conclusiones sobre qué factores influyen más en los resultados y cómo debe configurarse nuestra actividad para alcanzar los objetivos propuestos. Además, si utilizamos herramientas informáticas, podremos obtener una función de regresión que relacione los resultados de la actividad con los factores considerados. Gracias a ella, podremos hacer interpolaciones y calcular virtualmente qué resultado tendrá nuestra actividad para cualquier combinación de factores posible.

Algunos de los tipos de diseños de experimentos son los siguientes:

  • Diseño unifactorial
  • Diseño por bloques aleatorizados
  • Diseño por cuadrados latinos
  • Diseños factoriales
  • Diseños anidados
  • Diseños cruzados anidados
  • Diseños factoriales 2^k

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

Líneas de investigación en gestión de playas turísticas

La Caleta, Cádiz
La Caleta, Cádiz

El pasado 15 de marzo de 2013 se defendió en la Universidad de Cádiz la tesis doctoral de Camilo-Mateo Botero Saltarén, titulada Evaluación de los esquemas de certificación de playas en América Latina y propuesta de un mecanismo para su homologación, en la que participé en el tribunal. Desde aquí quiero dar la enhorabuena al nuevo doctor y a sus directores de tesis, Ana María Macías Bedoya y Eduardo Peris Mora. También tuve la oportunidad de compartir ideas y experiencias con el resto del tribunal: Carlos M. P. Pereira, Eduard Ariza, Giorgio Anfuso y Pedro J. Arenas.

Me gustaría aquí transcribir, en palabras del propio Camilo, los últimos renglones de la tesis: “En el transcurso del esfuerzo científico realizado, se pudo corroborar que la gestión integrada de playas en América Latina es un tema de estudio cercano a su madurez teórica y metodológica. En este contexto, los Esquemas de Certificación de Playas se configuran como la herramienta más holística para su aplicación, siendo el mecanismo de homologación propuesto por el derrotero para su implementación efectiva en el subcontinente. La utilización de un enfoque científico en evolución, como son las ciencias de la complejidad, así como el despertar latinoamericano del conocimiento ancestral sobre su riqueza socio natural, permiten augurar un próspero camino en la investigación costera”.

Ana Mª Macías, Carlos Pereira y Eduard Ariza
Ana Mª Macías, Carlos Pereira y Eduard Ariza

Sin embargo, para no olvidarme de algunas de las reflexiones que me produjeron la lectura de la tesis y su defensa, voy a recoger aquí algunas líneas que considero de interés para avanzar en la investigación científica sobre la gestión de las playas. Serían las siguientes:

  • Incorporación de los modelos de excelencia de calidad (Calidad Total, TQM) en la gestión de las playas. Interesante incorporar la versión latinoamericana del modelo EFQM (European Foundation for Quality Management), en la que la sostenibilidad tiene una importancia decisiva.
  • Integrar conceptos de análisis del ciclo de vida de productos en la gestión del turismo basado en el “sol y playa” y cómo estos afectan a la gestión. De interés estudiar estrategias de rejuvenecimiento e innovación.
  • Analizar los conceptos modernos de “Gestión de riesgos” (Risk Management) aplicados a la gestión de playas.
  • Estudiar los conceptos de “Gestión de activos” (Asset Management) y el análisis de las políticas de inversión y mantenimiento de infraestructuras costeras, especialmente en las playas.
  • Aplicar el modelo SERVQUAL a la calidad del servicio en la gestión de las playas.
  • Sugerente es la aplicación del “Cuadro de Mando Integral” de Kaplan y Norton (Balanced Scorecard – BSC).
  • Analizar la implicación del “hinterland” de la costa: especialmente la influencia de los modelos urbanísticos y de ordenación del territorio en el turismo litoral (urbanismo horizontal vs. urbanismo vertical).
  • Incorporación de la teoría de la toma de decisiones multicriterio.
  • Aplicación de los modelos de gestión de la innovación a las playas (UNE 166000).
  • Estudiar, desde el punto de vista legislativo, la figura jurídica del consorcio como solución para la gestión integrada del litoral.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Qué es la calidad? Fácil de entender, difícil de explicar.

Este artículo está relacionado con otros en los que tratamos la evolución de la gestión de la calidad, los clientes o los problemas de calidad en los proyectos.  La calidad constituye un aspecto fundamental de la actividad de cualquier organización. Sin embargo, muchas veces el concepto de calidad se utiliza en su acepción más común y se considera algo subjetivo y, por tanto, difícil de implementar en las empresas. Sirva el presente vídeo como un aporte a la divulgación de las distintas perspectivas sobre la calidad. Me parece muy interesante la relación entre calidad y sostenibilidad, de la que se hace mención al final de este Polimedia.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Cómo se materializan y transfieren las unidades de medida?

¿Qué es el metro y dónde se encuentra? ¿Cómo puedo saber si lo que estoy midiendo es correcto? En un post anterior hicimos una pequeña incursión en los errores de medición. Vamos aquí a dar un somero repaso a las unidades de medida y a su materialización y transferencia. Empecemos, pues, con el Sistema Internacional de Unidades.

La existencia de varios sistemas de medida ha constituido un grave obstáculo para el comercio internacional. Durante el siglo XX se ha producido un acercamiento progresivo al sistema métrico por parte de los países que utilizaban el sistema inglés u otros sistemas. Fue en 1969 cuando se adoptó el Sistema Internacional de Unidades (SI), que es obligatorio en todo el territorio español y se basa en las Unidades Legales de Medida definidas por la Ley 3/1985, de 18 de marzo, de Metrología.

El sistema SI consta de unidades básicas, suplementarias y derivadas, así como de una terminología normalizada para los múltiplos y submúltiplos de todas las unidades de medida.

Se define el metro como la longitud del trayecto recorrido en el vacío por la luz durante un tiempo de 1/299 792 458 de segundo. Es una unidad básica cuyo símbolo es m.

Se define el kilogramo como la masa del prototipo internacional del kilogramo. Es la única unidad representada por un patrón material. Es una unidad básica cuyo símbolo es kg.

Se define el segundo como la duración de 9 192 631 770 periodos de la radiación correspondiente a la transición entre los dos niveles hiperfinos del estado fundamental del átomo de cesio 133. Es una magnitud básica cuyo símbolo es s.

Se define el amperio como la intensidad de una corriente que, manteniéndose en dos conductores paralelos, rectilíneos, de longitud infinita, de sección circular despreciable y situados a una distancia de 1 metro, uno de otro, en el vacío, produciría entre estos conductores una fuerza igual a 2*10^7 newton por metro de longitud. Es una unidad básica cuyo símbolo es A.

Se define el kelvin como la fracción 1/273,16 de la temperatura termodinámica del punto triple del agua. Es una unidad básica cuyo símbolo es K.

Se define el mol como la cantidad de sustancia de un sistema que contiene tantas entidades elementales como átomos hay en 0,012 kilogramos de carbono 12. Es una unidad básica cuyo símbolo es mol.

Se define la candela como la intensidad luminosa, en una dirección dada, de una fuente que emite una radiación monocromática de frecuencia 540*10^12 hertz y cuya intensidad energética en dicha dirección es 1/683 watt por estereorradián. Es una unidad básica cuyo símbolo es cd.

Se define como radián al ángulo plano comprendido entre dos radios de un círculo que, sobre la circunferencia de dicho círculo, interceptan un arco de longitud igual a la del radio. Es una unidad suplementaria cuyo símbolo es rad.

Se define como estereorradián al ángulo sólido que, teniendo su vértice en el centro de una esfera, intercepta sobre la superficie de dicha esfera un área igual a la de un cuadrado que tenga por lado el radio de la esfera. Es una unidad suplementaria cuyo símbolo es sr.

Las unidades derivadas se definen de forma que sean coherentes con las unidades básicas y suplementarias; es decir, se definen mediante expresiones algebraicas en forma de productos de potencias de las unidades SI básicas o suplementarias, con un factor numérico igual a 1. Algunas de estas unidades derivadas reciben un nombre especial y un símbolo particular, tal y como se indica en la Tabla 1.

Magnitud Nombre

S

Frecuencia hertz

Hz

Fuerza newton

N

Presión, tensión pascal

P

Energía, trabajo, cantidad de calor joule

J

Potencia, flujo radiante watt

W

Cantidad de electricidad, carga eléctrica coulomb

C

Tensión eléctrica, potencial eléctrico volt

V

Resistencia eléctrica ohm

o

Conductancia eléctrica siemens

S

Capacidad eléctrica farad

F

Flujo magnético, flujo de inducción magnética weber

W

Inductancia henry

H

Flujo luminoso lumen

l

Luminancia becquerel

B

TABLA 1. Unidades SI derivadas con nombres y símbolos especiales.

Los múltiplos y submúltiplos del sistema SI se forman por medio de prefijos, que designan los factores numéricos decimales por los que se multiplica la unidad, y que figuran en la Tabla 2:

Factor

Prefijo

Símbolo

10^24

yotta

Y

10^21

zetta

Z

10^18

exa

E

10^15

peta

P

10^12

tera

T

10^9

giga

G

10^6

mega

M

10^3

kilo

k

10^2

hecto*

h

10^1

deca*

da

10^-1

deci*

d

10^-2

centi*

c

10^-3

mili

m

10^-6

micro

m

10^-9

nano

n

10^-12

pico

p

10^-15

femto

f

10^-18

atto

a

10^-21

zepto

z

10^-24

yocto

y

* Su uso es desaconsejado

TABLA 2. Múltiplos y submúltiplos del sistema SI.

La materialización de las unidades y su transferencia.

La materialización de las definiciones de las unidades del Sistema Internacional en elementos físicos denominados patrones la realizan los llamados laboratorios primarios. Estos patrones primarios tienen un valor que, convencionalmente, se considera verdadero y se obtiene mediante intercomparaciones entre laboratorios, coordinados a través de organismos internacionales como la Agencia Internacional de Pesas y Medidas (BIPM).

A partir de los patrones primarios, se calibran otros patrones denominados secundarios o de transferencia, utilizados por los laboratorios de metrología acreditados para realizar calibraciones y emitir los certificados de calibración correspondientes. Con estos patrones de transferencia se calibran los llamados patrones de trabajo, cuya misión es calibrar los instrumentos y equipos de medición utilizados para controlar los procesos de fabricación y los productos. En cada escalón, la incertidumbre va incrementándose, por lo que se deben reducir en lo posible dichos escalones.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Qué es el error de medición?

En este artículo tratamos aspectos relacionados con la precisión y la exactitud que deben tener las magnitudes que manejamos los ingenieros. A veces se confunden estos conceptos y, en otras, no tenemos claro qué es un error. Vamos, pues, a dar unas breves definiciones y enlaces que permitan divulgar estas ideas.

Se puede definir la Metrología como la ciencia de la medida. Esta ciencia comprende la totalidad de los métodos sistemáticos que utilizamos para cuantificar características de calidad.

Medir es comparar una cantidad con su unidad correspondiente, con el fin de determinar cuántas veces la primera contiene a la segunda.

Los procedimientos de medición de una magnitud física consisten en la caracterización del estado o la intensidad de la misma, de manera repetible y suficientemente precisa, mediante un valor que la eleve por encima de la mera percepción subjetiva.

Un aparato de medida es cualquier instrumento capaz de facilitar indicaciones dentro de su campo de medida y división de escala, cuando se aplica sobre mesurando concretos.

Pero ¿qué es el error de medición?

Cualquier medición de una magnitud difiere del valor real, lo que produce una serie de errores que pueden clasificarse según las distintas fuentes de origen. El error experimental siempre existirá y depende básicamente del procedimiento elegido y de la tecnología disponible para realizar la medición.

El error de exactitud es la desviación entre la media de los valores observados y el valor real. Es un error sistemático que puede ser positivo o negativo, equivalente al valor que hay que corregir para calibrar el equipo, o sea, ajustarlo a su valor verdadero.

El error de precisión se calcula a partir de la realización de un número de mediciones en una misma pieza o patrón, las cuales variarán entre sí, por lo que este error es de tipo aleatorio. Esta dispersión es inherente a todos los equipos de medida, debido a las holguras de sus mecanismos, variaciones en la fuente de alimentación de un circuito eléctrico, etc. Se suele dar en función de la desviación típica, por lo que se necesita efectuar un mínimo de mediciones para que tenga un nivel de confianza.

La exactitud indica los resultados de la proximidad de la medición con respecto al valor verdadero, mientras que la precisión con refiere a la repetibilidad o reproductibilidad de la medida.

 Una vez efectuadas las correcciones de exactitud, las medidas deben presentarse con su incertidumbre, es decir, con el margen probable de error dentro del cual se estima que se encuentra el valor exacto. Según el acuerdo adoptado por EAL (European Cooperation for Accreditation of Laboratories), se ha decidido emplear un intervalo de incertidumbre de dos desviaciones típicas, que, en el caso de una distribución normal, corresponde a un nivel de confianza del 95,44%.

 Los errores pueden tener diversas fuentes conocidas, tales como la influencia del operador, la variación entre operadores, las diferencias entre las piezas a medir, la variación del equipo de medición y del método seguido, e incluso la variación entre laboratorios. Las medidas observadas son el resultado de todas las variaciones.

El error total puede calcularse en función de los tipos de error que influyen en la medición. Si los errores son independientes entre sí, la varianza del error combinado será la suma de las varianzas de los errores parciales. Si hay influencia entre ellos, habría que añadir sumandos teniendo en cuenta los coeficientes de correlación correspondientes.

Para entender estos conceptos y otros relacionados, como el de fiabilidad y validez de los datos, os dejo el siguiente vídeo de la Universidad de Murcia. Espero que os guste.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.