¿Por qué nada en la ciencia es exacto? Cómo entender y calcular el error experimental

Jorge Luis Borges imaginó una vez un imperio en el que el arte de la cartografía alcanzó tal perfección que el mapa de una sola provincia ocupaba toda una ciudad. Finalmente, los cartógrafos trazaron un mapa del imperio que tenía el mismo tamaño que este y coincidía punto por punto con él. Por supuesto, aquel mapa era inútil.

En ciencia sucede algo similar: medir no es replicar la realidad, sino crear un mapa de ella. Estamos obsesionados con la exactitud, pero en el laboratorio pronto aprendemos que la «medida exacta» es una quimera. Medir no consiste en capturar una verdad absoluta, sino en gestionar con elegancia la incertidumbre. Un dato sin su margen de error no es una medida, sino una simple expresión de deseos.

1. La ilusión de la exactitud: el error es inevitable.

En metrología, la humildad es una competencia técnica. Debemos aceptar que nuestros sentidos y nuestros instrumentos están limitados por definición. La teoría de los errores nos enseña que el «valor verdadero» es un ideal matemático al que solo podemos aproximarnos. El error no es una equivocación del científico, sino una propiedad inherente al acto de medir.

Existen dos fuerzas que distorsionan nuestro «mapa» de la realidad:

  • El error sistemático es un sesgo constante. Aparece cuando la metodología es inadecuada, los instrumentos están mal calibrados o los patrones de medición son dudosos. Se trata de un error predecible que desplaza todas nuestras mediciones en la misma dirección, alejándolas de la realidad.
  • El error accidental o aleatorio es el «ruido» del universo. Se debe al azar, a variaciones microscópicas y a factores incontrolables. Se manifiestan como pequeñas fluctuaciones al repetir una medición y, aunque no pueden eliminarse, la estadística es nuestra herramienta para controlarlas.

Para navegar por esta complejidad, distinguimos entre exactitud (cuán cerca está nuestra flecha del centro de la diana) y precisión (cuán cerca están las flechas entre sí, independientemente de dónde hayan caído).

«El error se define como la diferencia entre el valor verdadero y el obtenido experimentalmente».

2. El drama de los ceros: el límite de nuestro conocimiento.

En el lenguaje técnico, los números no solo indican cantidades, sino que también expresan confianza. No es lo mismo informar de un peso de «1,5 g» que de uno de «1,500 g». Las cifras significativas son los dígitos que realmente aportan información sobre la precisión de nuestra medición.

Para entenderlas, seguimos unas reglas claras:

  • Cualquier dígito distinto de cero es significativo.
  • Los ceros situados entre dígitos significativos (por ejemplo, 2,054) siempre cuentan.
  • Los ceros a la izquierda (por ejemplo, 0,076) son solo marcadores de posición decimal.
  • Los ceros situados a la derecha del punto decimal (por ejemplo, 0,0540) son fundamentales, ya que indican que el instrumento fue capaz de medir esa posición.

El número «1500» es el ejemplo clásico de ambigüedad: ¿es una aproximación a la centena o una medida exacta en gramos? La notación científica resuelve el misterio: 1,5 × 10^(3) indica dos cifras significativas, mientras que 1,500 × 10^(3) indica cuatro. Aquí reside una reflexión profunda: la última cifra significativa siempre es incierta. Es el límite de nuestra visión, el punto en el que nuestra capacidad de observación se desvanece en la duda.

3. La paradoja de la resta: el «caso más desfavorable».

Uno de los conceptos más fascinantes y contraintuitivos es la propagación de errores. Imaginemos que pesamos una tetera colocando pesas en un platillo. Si la masa de la tetera se obtiene restando la masa del plato de la masa total, podrías pensar que los errores también se restan. Sin embargo, la ciencia es conservadora por necesidad.

En metrología, trabajamos bajo la filosofía del caso más desfavorable. Si la medida A presenta un error por exceso y la medida B, por defecto, al restarlas (A – B) el error total resultante no disminuye, sino que aumenta. Las incertidumbres nunca se anulan; siempre se acumulan.

  • En sumas y restas, las cotas de error absoluto se suman.
  • En multiplicaciones y divisiones, lo que sumamos son los errores relativos.

Cuando multiplicamos, no solo añadimos «milímetros» de duda, sino que también multiplicamos la incertidumbre de la proporción misma, lo que amplía el margen de error de nuestro mapa original.

4. La regla de oro: la estética del rigor.

La honestidad metrológica tiene una regla estética: el error absoluto generalmente se expresa con una sola cifra significativa. No tiene sentido decir que una montaña mide 2000,432 metros, con un error de 12,45 metros. La duda en las decenas anula cualquier certeza en los milímetros.

Sin embargo, existen dos excepciones en las que se permiten dos cifras significativas en el error:

  • Si la primera cifra es un 1.
  • Si la primera cifra es un 2 seguido de una cifra menor que 5 (es decir, hasta 24).

La regla del redondeo es estricta: se redondea por exceso en una unidad si la segunda cifra es 5 o superior. Finalmente, el valor y su error deben tener el mismo número de decimales.

Corrección de estilo metrológico

5. El criterio de dispersión: ¿cuándo es suficiente?

¿Cuántas mediciones necesitamos para que nuestra media sea fiable? Si solo realizamos una medición, el error dependerá directamente del instrumento.

  • En los instrumentos digitales, el error se expresa como la sensibilidad (S).
  • En los instrumentos analógicos, el error es la mitad de la sensibilidad (S/2).

Pero cuando la precisión es crítica, recurrimos a la estadística. A continuación, comento un criterio usado en algunas publicaciones, como la de Fernando Senent, aunque también se pueden consultar otros criterios en este otro documento. En cualquier caso, el proceso siempre comienza con 3 medidas iniciales para calcular el criterio de dispersión (T):

Para series largas (N ≥ 15), utilizamos el error cuadrático medio (ECM). Este cálculo parte de la suposición de que nuestros datos siguen una distribución gaussiana (la famosa campana de Gauss), según la cual el 68,3 % de las medidas se encontrarán dentro de un margen de error cuadrático medio respecto a la media. Es el reconocimiento matemático de que el azar tiene una estructura.

Conclusión: la honestidad de la incertidumbre.

La ciencia no es el dominio de las verdades absolutas, sino el territorio de la incertidumbre controlada. Aceptar el error, nombrarlo y calcularlo no es una debilidad, sino la máxima expresión de la integridad técnica. Al acotar lo que no sabemos, protegemos la validez de lo que sí sabemos.

¿Cómo cambiaría nuestra percepción del mundo si aceptáramos que cada «dato real» que consumimos, desde las estadísticas económicas hasta los resultados de un análisis clínico, viene acompañado de un margen de error invisible? Quizás dejaríamos de buscar certezas absolutas y empezaríamos a valorar la honestidad de la duda bien calculada.

En esta conversación puedes escuchar las ideas más interesantes de este artículo.

Aquí tienes un resumen en formato de vídeo sobre los aspectos clave de la medición.

Por último, creo que este resumen puede resultar de interés.

Medición_y_error_La_guía_maestra

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Qué es la calibración de un equipo de medida?

¿Estamos seguros de que cuando medimos lo hacemos correctamente? ¿No habéis tenido la sensación de que los resultados de un ensayo parece que son imposibles o son poco esperables? Es posible que os encontréis ante un equipo de medición mal calibrado. En este post continuamos con otros anteriores referidos a los errores de medición y a las unidades de medida y su materialización. Vamos a repasar, de forma muy sintética, algunos de los conceptos más importantes relacionados con la calibración de los equipos.

Se denomina calibración al conjunto de operaciones que establecen, en unas condiciones especificadas, la relación existente entre los valores indicados por un instrumento o sistema de medida o los valores representados por una medida materializada, y los correspondientes valores conocidos de una magnitud medida. Esta actividad, llevada a cabo por medios y procedimientos técnicos, permite determinar, por comparación con un patrón o con un material de referencia o por métodos absolutos, los valores de los errores de un medio o un instrumento de medida. El proceso de calibración comprende la medición del patrón o instrumento cuyo valor queremos determinar por comparación con un patrón de referencia, comprobar si el valor obtenido está dentro de los límites establecidos para la función a realizar, y en caso de estar fuera de los límites, efectuar el correspondiente ajuste o calibración del patrón o equipo de medición.

El certificado de calibración de un patrón deberá recoger el valor o los valores asignados como resultado de la calibración, así como la incertidumbre. A su vez, el certificado debe indicar la incertidumbre de los patrones o instrumentos empleados en la calibración, el número de reiteraciones efectuadas y los valores obtenidos, o un índice de su dispersión. El certificado de calibración de un instrumento deberá indicar los puntos del campo de medida calibrados, la incertidumbre del patrón o instrumento empleado en cada punto de calibración, la corrección de calibración obtenida en cada uno de ellos, el número de reiteraciones efectuadas en cada punto de calibración y su dispersión, y la incertidumbre asociada a la corrección de cada punto de calibración, para un factor de incertidumbre que también se indicará. Los patrones e instrumentos se calibran cuando salen de la línea de fabricación, pero es necesario un programa de calibración que de forma periódica asegure el mantenimiento de la exactitud. Los intervalos de calibración son función de la utilización de los equipos.

 

Los instrumentos de medida se clasifican en instrumentos de referencia y en instrumentos de trabajo, sirviendo los primeros para calibrar los últimos. Cada instrumento calibrado obtiene un certificado de calibración que garantiza la exactitud y trazabilidad, no debiendo incluir recomendación alguna sobre el intervalo de recalibración. El desgaste y envejecimiento de los equipos de medición son los que marcan los intervalos de calibración.  Cada instrumento de medición deberá tener visible una etiqueta de calibración, que indican si el mismo puede utilizarse, tiene limitaciones en su uso o si están fuera de servicio.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Cómo se materializan y transfieren las unidades de medida?

¿Qué es el metro y dónde se encuentra? ¿Cómo puedo saber si lo que estoy midiendo es correcto? En un post anterior hicimos una pequeña incursión en los errores de medición. Vamos aquí a dar un somero repaso a las unidades de medida y a su materialización y transferencia. Empecemos, pues, con el Sistema Internacional de Unidades.

La existencia de varios sistemas de medida ha constituido un grave obstáculo para el comercio internacional. Durante el siglo XX se ha producido un acercamiento progresivo al sistema métrico por parte de los países que utilizaban el sistema inglés u otros sistemas. Fue en 1969 cuando se adoptó el Sistema Internacional de Unidades (SI), que es obligatorio en todo el territorio español y se basa en las Unidades Legales de Medida definidas por la Ley 3/1985, de 18 de marzo, de Metrología.

El sistema SI consta de unidades básicas, suplementarias y derivadas, así como de una terminología normalizada para los múltiplos y submúltiplos de todas las unidades de medida.

Se define el metro como la longitud del trayecto recorrido en el vacío por la luz durante un tiempo de 1/299 792 458 de segundo. Es una unidad básica cuyo símbolo es m.

Se define el kilogramo como la masa del prototipo internacional del kilogramo. Es la única unidad representada por un patrón material. Es una unidad básica cuyo símbolo es kg.

Se define el segundo como la duración de 9 192 631 770 periodos de la radiación correspondiente a la transición entre los dos niveles hiperfinos del estado fundamental del átomo de cesio 133. Es una magnitud básica cuyo símbolo es s.

Se define el amperio como la intensidad de una corriente que, manteniéndose en dos conductores paralelos, rectilíneos, de longitud infinita, de sección circular despreciable y situados a una distancia de 1 metro, uno de otro, en el vacío, produciría entre estos conductores una fuerza igual a 2*10^7 newton por metro de longitud. Es una unidad básica cuyo símbolo es A.

Se define el kelvin como la fracción 1/273,16 de la temperatura termodinámica del punto triple del agua. Es una unidad básica cuyo símbolo es K.

Se define el mol como la cantidad de sustancia de un sistema que contiene tantas entidades elementales como átomos hay en 0,012 kilogramos de carbono 12. Es una unidad básica cuyo símbolo es mol.

Se define la candela como la intensidad luminosa, en una dirección dada, de una fuente que emite una radiación monocromática de frecuencia 540*10^12 hertz y cuya intensidad energética en dicha dirección es 1/683 watt por estereorradián. Es una unidad básica cuyo símbolo es cd.

Se define como radián al ángulo plano comprendido entre dos radios de un círculo que, sobre la circunferencia de dicho círculo, interceptan un arco de longitud igual a la del radio. Es una unidad suplementaria cuyo símbolo es rad.

Se define como estereorradián al ángulo sólido que, teniendo su vértice en el centro de una esfera, intercepta sobre la superficie de dicha esfera un área igual a la de un cuadrado que tenga por lado el radio de la esfera. Es una unidad suplementaria cuyo símbolo es sr.

Las unidades derivadas se definen de forma que sean coherentes con las unidades básicas y suplementarias; es decir, se definen mediante expresiones algebraicas en forma de productos de potencias de las unidades SI básicas o suplementarias, con un factor numérico igual a 1. Algunas de estas unidades derivadas reciben un nombre especial y un símbolo particular, tal y como se indica en la Tabla 1.

Magnitud Nombre

S

Frecuencia hertz

Hz

Fuerza newton

N

Presión, tensión pascal

P

Energía, trabajo, cantidad de calor joule

J

Potencia, flujo radiante watt

W

Cantidad de electricidad, carga eléctrica coulomb

C

Tensión eléctrica, potencial eléctrico volt

V

Resistencia eléctrica ohm

o

Conductancia eléctrica siemens

S

Capacidad eléctrica farad

F

Flujo magnético, flujo de inducción magnética weber

W

Inductancia henry

H

Flujo luminoso lumen

l

Luminancia becquerel

B

TABLA 1. Unidades SI derivadas con nombres y símbolos especiales.

Los múltiplos y submúltiplos del sistema SI se forman por medio de prefijos, que designan los factores numéricos decimales por los que se multiplica la unidad, y que figuran en la Tabla 2:

Factor

Prefijo

Símbolo

10^24

yotta

Y

10^21

zetta

Z

10^18

exa

E

10^15

peta

P

10^12

tera

T

10^9

giga

G

10^6

mega

M

10^3

kilo

k

10^2

hecto*

h

10^1

deca*

da

10^-1

deci*

d

10^-2

centi*

c

10^-3

mili

m

10^-6

micro

m

10^-9

nano

n

10^-12

pico

p

10^-15

femto

f

10^-18

atto

a

10^-21

zepto

z

10^-24

yocto

y

* Su uso es desaconsejado

TABLA 2. Múltiplos y submúltiplos del sistema SI.

La materialización de las unidades y su transferencia.

La materialización de las definiciones de las unidades del Sistema Internacional en elementos físicos denominados patrones la realizan los llamados laboratorios primarios. Estos patrones primarios tienen un valor que, convencionalmente, se considera verdadero y se obtiene mediante intercomparaciones entre laboratorios, coordinados a través de organismos internacionales como la Agencia Internacional de Pesas y Medidas (BIPM).

A partir de los patrones primarios, se calibran otros patrones denominados secundarios o de transferencia, utilizados por los laboratorios de metrología acreditados para realizar calibraciones y emitir los certificados de calibración correspondientes. Con estos patrones de transferencia se calibran los llamados patrones de trabajo, cuya misión es calibrar los instrumentos y equipos de medición utilizados para controlar los procesos de fabricación y los productos. En cada escalón, la incertidumbre va incrementándose, por lo que se deben reducir en lo posible dichos escalones.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.

¿Qué es el error de medición?

En este artículo tratamos aspectos relacionados con la precisión y la exactitud que deben tener las magnitudes que manejamos los ingenieros. A veces se confunden estos conceptos y, en otras, no tenemos claro qué es un error. Vamos, pues, a dar unas breves definiciones y enlaces que permitan divulgar estas ideas.

Se puede definir la Metrología como la ciencia de la medida. Esta ciencia comprende la totalidad de los métodos sistemáticos que utilizamos para cuantificar características de calidad.

Medir es comparar una cantidad con su unidad correspondiente, con el fin de determinar cuántas veces la primera contiene a la segunda.

Los procedimientos de medición de una magnitud física consisten en la caracterización del estado o la intensidad de la misma, de manera repetible y suficientemente precisa, mediante un valor que la eleve por encima de la mera percepción subjetiva.

Un aparato de medida es cualquier instrumento capaz de facilitar indicaciones dentro de su campo de medida y división de escala, cuando se aplica sobre mesurando concretos.

Pero ¿qué es el error de medición?

Cualquier medición de una magnitud difiere del valor real, lo que produce una serie de errores que pueden clasificarse según las distintas fuentes de origen. El error experimental siempre existirá y depende básicamente del procedimiento elegido y de la tecnología disponible para realizar la medición.

El error de exactitud es la desviación entre la media de los valores observados y el valor real. Es un error sistemático que puede ser positivo o negativo, equivalente al valor que hay que corregir para calibrar el equipo, o sea, ajustarlo a su valor verdadero.

El error de precisión se calcula a partir de la realización de un número de mediciones en una misma pieza o patrón, las cuales variarán entre sí, por lo que este error es de tipo aleatorio. Esta dispersión es inherente a todos los equipos de medida, debido a las holguras de sus mecanismos, variaciones en la fuente de alimentación de un circuito eléctrico, etc. Se suele dar en función de la desviación típica, por lo que se necesita efectuar un mínimo de mediciones para que tenga un nivel de confianza.

La exactitud indica los resultados de la proximidad de la medición con respecto al valor verdadero, mientras que la precisión con refiere a la repetibilidad o reproductibilidad de la medida.

 Una vez efectuadas las correcciones de exactitud, las medidas deben presentarse con su incertidumbre, es decir, con el margen probable de error dentro del cual se estima que se encuentra el valor exacto. Según el acuerdo adoptado por EAL (European Cooperation for Accreditation of Laboratories), se ha decidido emplear un intervalo de incertidumbre de dos desviaciones típicas, que, en el caso de una distribución normal, corresponde a un nivel de confianza del 95,44%.

 Los errores pueden tener diversas fuentes conocidas, tales como la influencia del operador, la variación entre operadores, las diferencias entre las piezas a medir, la variación del equipo de medición y del método seguido, e incluso la variación entre laboratorios. Las medidas observadas son el resultado de todas las variaciones.

El error total puede calcularse en función de los tipos de error que influyen en la medición. Si los errores son independientes entre sí, la varianza del error combinado será la suma de las varianzas de los errores parciales. Si hay influencia entre ellos, habría que añadir sumandos teniendo en cuenta los coeficientes de correlación correspondientes.

Para entender estos conceptos y otros relacionados, como el de fiabilidad y validez de los datos, os dejo el siguiente vídeo de la Universidad de Murcia. Espero que os guste.

Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0 Internacional.