"Sensibilidad"
y "precisión" son dos conceptos muy distintos que toda persona con
una formación científica básica debería tener claros, pero que, sin embargo, se
encuentran mezclados y confundidos en el lenguaje cotidiano y en muchos textos
formales. Esperamos que este artículo sirva para aclarar esta confusión.
Imaginemos
que queremos conocer el tiempo que tarda un objeto, si lo soltamos desde cierta
altura, en llegar al suelo. El problema es sencillo, ya que, para ello, sólo
necesitamos realizar una medición
directa con un cronómetro, es decir, una comparación directa entre el tiempo que tarda el objeto en caer y lo
que dura un segundo. Pulsamos el cronómetro en el momento en el que
soltamos el objeto, y volvemos a pulsar cuando llega al suelo. Obtenemos:
3,31
s
Lo
primero en lo que tenemos que fijarnos es ¿qué habría ocurrido si, por el hecho
de estar en la cima de una montaña, en vez de a nivel del mar, repetimos el
experimento? La intensidad del campo gravitatorio allí es menor, con lo que el
objeto tardará más en caer. Pongamos por ejemplo que ese tiempo extra es de
0,002 s ¿Notaría nuestro cronómetro la diferencia? Es evidente que no. No es lo
suficientemente sensible para detectar una variación tan pequeña. La sensibilidad de un aparato de medida es
la mínima variación que es capaz de
detectar, 0,01 s en el caso de nuestro cronómetro. Hay quien prefiere
dividir esta cantidad entre dos, ya que uno en principio puede darse cuenta de
que hemos parado el cronómetro más cerca del 3,31 s que del 3,32 s. No es el
objetivo de este artículo entrar en esos detalles.
Por
ello, registramos el resultado de nuestra medida de la siguiente forma:
(3,31±0,01)
s
La sensibilidad de este termómetro de mercurio, la mínima variación que es capaz de detectar, es de 0,1ºC, mientras que la mínima cantidad que es capaz de medir es 35ºC. |
En
segundo lugar ¿nos fiamos de esta medida? ¿Tarda el objeto realmente 3,31 s en
caer? Es evidente que no nos fiamos. El sistema utilizado no es lo suficientemente preciso, ya que no nos
creemos que la persona encargada de poner en marcha y parar el cronómetro lo
haya hecho exactamente en los instantes adecuados. Esta falta de confianza en
el resultado obtenido se puede cuantificar, ya que podemos repetir el proceso
de medida varias veces en las mismas condiciones. Si el método utilizado es tan preciso que el error aleatorio que
cometemos por no pulsar el cronómetro en el instante adecuado está por debajo
de la sensibilidad del cronómetro, entonces debería
obtenerse siempre el mismo resultado, ya que el cronómetro no notaría la
diferencia. Repetimos la medida dos veces más y obtenemos:
3,31
s; 3,61 s; 3,09 s
Los
resultados obtenidos son tan distintos (el método utilizado es tan poco preciso)
que el número de medidas que deberíamos tomar es mucho mayor de tres. No
obstante, como lo que nos interesa aquí es aclarar los conceptos, nos vamos a
conformar con estas tres medidas. Tomando la media obtenemos
3,3367
s
Teniendo
en cuenta que la sensibilidad del aparato utilizado es 0,01 s, es claro que no
tiene sentido dar como respuesta tantas cifras significativas. Redondeando a
las centésimas, teniendo en cuenta que el 6 está más cerca del 10 que del 0, se
tiene
(3,34±0,01)
s
No
obstante, la incertidumbre experimental que estamos indicando aquí (0,01 s) no
es correcta. El método utilizado no es lo suficientemente preciso como para
asegurar que la incertidumbre experimental se debe sólo a la sensibilidad de
nuestro aparato. En este caso deberíamos poner como incertidumbre experimental
una cantidad que nos dé una idea de lo dispersos que han estado los resultados
al repetir la medida. Esta cantidad es la desviación típica con la corrección de Bessel. No obstante, en la discusión
simplificada de este artículo nos vamos a conformar con tomar la diferencia
entre el mayor y el menor resultado dividida entre dos:
(3,61-3,09)/2=0,26
s
Por
tanto, escribimos el resultado de nuestra medición como
(3,34±0,26)
s
Es
habitual redondear la incertidumbre
experimental con sólo una cifra significativa y, además, siempre hacia arriba (siempre que sea
mayor que 25, si no, se redondea con dos cifras significativas). Por tanto:
(3,34±0,3)
s
Por
otro lado, el resultado de la medición se
redondea en el mismo decimal que la incertidumbre experimental, es decir,
el 4 aquí no tiene sentido porque es una cifra que entra dentro del intervalo
de error experimental. Por tanto:
(3,3±0,3) s
A
la cantidad 100*0,3/3,3=9% se la
denomina error relativo. Es el cociente entre el error absoluto (la incertidumbre experimental) y el valor estimado de la magnitud, puesto en tantos por cien. El error
relativo obtenido en este ejemplo es grande, y se debe a que el método
utilizado era poco preciso.
Una
persona que no tenga clara la diferencia entre los conceptos de sensibilidad y
precisión podría cometer el error de proponer, para disminuir la incertidumbre
experimental del resultado obtenido, comprar un cronómetro mucho más sensible,
por ejemplo, uno cuya sensibilidad sea de una milésima de segundo, en vez de
una centésima:
3,308
s; 3,614 s; 3,088 s
Esto
nos da una media de:
3,3367
s
La
incertidumbre que viene de la sensibilidad del aparato utilizado es en este
caso
0,001
s
Y
la incertidumbre que viene de la precisión del método utilizado es
(3,614-3,088)/2=0,263
s
Como
hay que coger siempre la mayor de las dos
incertidumbres, tenemos
(3,3367±0,263)
s
Redondeando
la incertidumbre experimental con sólo una cifra significativa y hacia arriba:
0,3
s
y redondeando el resultado en la cifra donde nos indica la incertidumbre, se tiene:
(3,3±0,3)
s
Es
decir, obtenemos lo mismo. En conclusión, no
sirve de nada mejorar la sensibilidad del aparato de medida si el método de
medida que estamos utilizando es tan impreciso que posee errores aleatorios por
encima de la sensibilidad del aparato.
En
cambio, en este caso sí que sería útil cambiar el método de medida por otro más
preciso, por ejemplo, mediante la utilización de puertas fotoeléctricas que
indiquen automáticamente al cronómetro cuando arrancar y parar. Si al hacer
esto obtenemos:
3,34
s; 3,34 s; 3,34 s
entonces
estamos seguros de que los errores aleatorios debidos a que el sistema no es
totalmente preciso están por debajo de la sensibilidad del cronómetro y, por
tanto, no pueden ser detectados. En este caso, la incertidumbre experimental no
viene de la falta de precisión del método, sino de la sensibilidad del aparato
utilizado
(3,34±0,01)
s
y
sí que ahora sería útil, por tanto, comprar el cronómetro que es capaz de
"ver" las milésimas de segundo.
Nótese
que, sea cual sea el caso, es siempre imposible conseguir una incertidumbre
experimental de valor cero, es decir, nunca
podemos estar totalmente seguros de que hemos obtenido, al medir, el valor
verdadero. Lo único que podemos hacer es dar un intervalo el cual tenemos mucha
confianza incluye al valor correcto.
Sobre el autor: Sergio Montañez Naz es doctor en física y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.
Considero que la definición que da de sensibilidad no es la correcta, cuando menciona que la sensibilidad es la mínima dimensión que es capaz de detectar el aparato se esta refiriendo a la característica de resolución.
ResponderEliminarEl texto no dice "la mínima dimensión que es capaz de detectar" sino "la mínima variación que es capaz de detectar". Lo puede buscar en cualquier libro de cálculo de errores e incluso en el diccionario de la RAE. En el caso de un sensor a la sensibilidad también se le llama resolución y, en otros contextos, ambos términos se usan también con otros significados.
ResponderEliminarHola Sergio, muy buenas,
ResponderEliminarinteresantísimo el artículo, aunque me surge una duda:
a mayor precisión en el método de medida, tiene sentido utilizar un aparato de mayor sensibilidad, es decir, hablas de precisión pero en el método de medida, no de la precisión del aparato (cronómetro); lo digo porque he visto en Internet documentos que dan lugar a confusión, definiendo la precisión del aparato como la mínima variación de magnitud que puede medir, o sea, sensibilidad según tu artículo. Por ejemplo, se dice en Internet que un termómetro digital, puede tener una sensibilidad de 0,1 ºC y sin embargo su precisión ser de ± 0,2 ºC.
¿Tiene sentido hablar de precisión del cronómetro o de un aparato de medida y en caso afirmativo, cuál sería su relación con la sensibilidad del mismo?
Muchas gracias y un saludo
Hola.
EliminarPara saber si un método es preciso o no lo que tenemos que hacer es medir varias veces una misma magnitud y ver cómo de dispersos salen los resultados. El método de medida que utilizamos al hacer esto incluye todos los aparatos más el procedimiento paso a paso de qué se hace con todos ellos y cómo se anota y se procesa lo que estos aparatos nos indican. Por ello, el tamaño estimado de los errores aleatorios así obtenidos es una característica del conjunto de todos los elementos del proceso y no de un aparato concreto. Por eso no se debe hablar de "precisión de un aparato", sino de "precisión de todo el proceso".
La confusión viene porque hay quien llama "precisión" a la sensibilidad del aparato, y ésta sí que es una característica propia de cada aparato. El peligro no es usar una nomenclatura que nos guste más o menos, sino confundir a los estudiantes usando un mismo nombre para conceptos que son distintos, que es lo que hacen las fuentes que mencionas.
Saludos
Interesantísimo su artículo. Me contestó varias preguntas cuya respuesta no había encontrado en ningún lugar. Especificamente en lo relacionado al uso cotidiano del concepto "precisión" para referirse a la "sensibilidad" de una medida. Una pregunta, si me permite. Digamos que tengo una regla calibrada en 64 avos de pulgada y otra en 8 vos. La mayoría de la gente diría que la de 64 avos es más "precisa" que la de 8 vos, en referencia a que la mínima variación es menor en la de 64 avos, naturalmente. ¿Cuál sería la manera correcta de decirlo, que la de 64 avos de pulgada es más "sensible" que la de 8 vos? ¿Es eso correcto, o estoy cometiendo un error?
ResponderEliminarGracias
Juan
Muy buena pregunta.
EliminarUn cronómetro que es capaz de detectar variaciones de milésimas de segundo es, en principio, "mejor" que otro que solo detecte centésimas de segundo. La sensibilidad es más pequeña, y por eso es mejor. Por ello, para evitar confusiones, lo recomendable es decir "La sensibilidad del primer cronómetro es mejor que la del segundo".