21 sept. 2014

LA DIFERENCIA ENTRE SENSIBILIDAD Y PRECISIÓN

 por Sergio Montañez Naz
"Sensibilidad" y "precisión" son dos conceptos muy distintos que toda persona con una formación científica básica debería tener claros, pero que, sin embargo, se encuentran mezclados y confundidos en el lenguaje cotidiano y en muchos textos formales. Esperamos que este artículo sirva para aclarar esta confusión.
Imaginemos que queremos conocer el tiempo que tarda un objeto, si lo soltamos desde cierta altura, en llegar al suelo. El problema es sencillo, ya que, para ello, sólo necesitamos realizar una medición directa con un cronómetro, es decir, una comparación directa entre el tiempo que tarda el objeto en caer y lo que dura un segundo. Pulsamos el cronómetro en el momento en el que soltamos el objeto, y volvemos a pulsar cuando llega al suelo. Obtenemos:
3,31 s
Lo primero en lo que tenemos que fijarnos es ¿qué habría ocurrido si, por el hecho de estar en la cima de una montaña, en vez de a nivel del mar, repetimos el experimento? La intensidad del campo gravitatorio allí es menor, con lo que el objeto tardará más en caer. Pongamos por ejemplo que ese tiempo extra es de 0,002 s ¿Notaría nuestro cronómetro la diferencia? Es evidente que no. No es lo suficientemente sensible para detectar una variación tan pequeña. La sensibilidad de un aparato de medida es la mínima variación que es capaz de detectar, 0,01 s en el caso de nuestro cronómetro. Hay quien prefiere dividir esta cantidad entre dos, ya que uno en principio puede darse cuenta de que hemos parado el cronómetro más cerca del 3,31 s que del 3,32 s. No es el objetivo de este artículo entrar en esos detalles.
Por ello, registramos el resultado de nuestra medida de la siguiente forma:
(3,31±0,01) s
La sensibilidad de este termómetro de mercurio, la mínima variación que es capaz de detectar, es de 0,1ºC, mientras que la mínima cantidad que es capaz de medir es 35ºC.
En segundo lugar ¿nos fiamos de esta medida? ¿Tarda el objeto realmente 3,31 s en caer? Es evidente que no nos fiamos. El sistema utilizado no es  lo suficientemente preciso, ya que no nos creemos que la persona encargada de poner en marcha y parar el cronómetro lo haya hecho exactamente en los instantes adecuados. Esta falta de confianza en el resultado obtenido se puede cuantificar, ya que podemos repetir el proceso de medida varias veces en las mismas condiciones. Si el método utilizado es tan preciso que el error aleatorio que cometemos por no pulsar el cronómetro en el instante adecuado está por debajo de la sensibilidad del cronómetro, entonces debería obtenerse siempre el mismo resultado, ya que el cronómetro no notaría la diferencia. Repetimos la medida dos veces más y obtenemos:
3,31 s;  3,61 s;  3,09 s
Los resultados obtenidos son tan distintos (el método utilizado es tan poco preciso) que el número de medidas que deberíamos tomar es mucho mayor de tres. No obstante, como lo que nos interesa aquí es aclarar los conceptos, nos vamos a conformar con estas tres medidas. Tomando la media obtenemos
3,3367 s
Teniendo en cuenta que la sensibilidad del aparato utilizado es 0,01 s, es claro que no tiene sentido dar como respuesta tantas cifras significativas. Redondeando a las centésimas, teniendo en cuenta que el 6 está más cerca del 10 que del 0, se tiene
(3,34±0,01) s
No obstante, la incertidumbre experimental que estamos indicando aquí (0,01 s) no es correcta. El método utilizado no es lo suficientemente preciso como para asegurar que la incertidumbre experimental se debe sólo a la sensibilidad de nuestro aparato. En este caso deberíamos poner como incertidumbre experimental una cantidad que nos dé una idea de lo dispersos que han estado los resultados al repetir la medida. Esta cantidad es la desviación típica con la corrección de Bessel. No obstante, en la discusión simplificada de este artículo nos vamos a conformar con tomar la diferencia entre el mayor y el menor resultado dividida entre dos:
(3,61-3,09)/2=0,26 s
Por tanto, escribimos el resultado de nuestra medición como
(3,34±0,26) s
Es habitual redondear la incertidumbre experimental con sólo una cifra significativa y, además, siempre hacia arriba (siempre que sea mayor que 25, si no, se redondea con dos cifras significativas). Por tanto:
(3,34±0,3) s
Por otro lado, el resultado de la medición se redondea en el mismo decimal que la incertidumbre experimental, es decir, el 4 aquí no tiene sentido porque es una cifra que entra dentro del intervalo de error experimental. Por tanto:
(3,3±0,3) s
A la cantidad 100*0,3/3,3=9% se la denomina error relativo. Es el cociente entre el error absoluto (la incertidumbre experimental) y el valor estimado de la magnitud, puesto en tantos por cien. El error relativo obtenido en este ejemplo es grande, y se debe a que el método utilizado era poco preciso.
Una persona que no tenga clara la diferencia entre los conceptos de sensibilidad y precisión podría cometer el error de proponer, para disminuir la incertidumbre experimental del resultado obtenido, comprar un cronómetro mucho más sensible, por ejemplo, uno cuya sensibilidad sea de una milésima de segundo, en vez de una centésima:
3,308 s;  3,614 s;  3,088 s
Esto nos da una media de:
3,3367 s
La incertidumbre que viene de la sensibilidad del aparato utilizado es en este caso
0,001 s
Y la incertidumbre que viene de la precisión del método utilizado es
(3,614-3,088)/2=0,263 s
Como hay que coger siempre la mayor de las dos incertidumbres, tenemos
(3,3367±0,263) s
Redondeando la incertidumbre experimental con sólo una cifra significativa y hacia arriba:
0,3 s
y redondeando el resultado en la cifra donde nos indica la incertidumbre, se tiene:
(3,3±0,3) s
Es decir, obtenemos lo mismo. En conclusión, no sirve de nada mejorar la sensibilidad del aparato de medida si el método de medida que estamos utilizando es tan impreciso que posee errores aleatorios por encima de la sensibilidad del aparato.
En cambio, en este caso sí que sería útil cambiar el método de medida por otro más preciso, por ejemplo, mediante la utilización de puertas fotoeléctricas que indiquen automáticamente al cronómetro cuando arrancar y parar. Si al hacer esto obtenemos:
3,34 s;  3,34 s; 3,34 s
entonces estamos seguros de que los errores aleatorios debidos a que el sistema no es totalmente preciso están por debajo de la sensibilidad del cronómetro y, por tanto, no pueden ser detectados. En este caso, la incertidumbre experimental no viene de la falta de precisión del método, sino de la sensibilidad del aparato utilizado
(3,34±0,01) s
y sí que ahora sería útil, por tanto, comprar el cronómetro que es capaz de "ver" las milésimas de segundo.

Nótese que, sea cual sea el caso, es siempre imposible conseguir una incertidumbre experimental de valor cero, es decir, nunca podemos estar totalmente seguros de que hemos obtenido, al medir, el valor verdadero. Lo único que podemos hacer es dar un intervalo el cual tenemos mucha confianza incluye al valor correcto



Sobre el autor: Sergio Montañez Naz es doctor en física y profesor de secundaria de la enseñanza pública en la Comunidad de Madrid.

6 comentarios:

  1. Considero que la definición que da de sensibilidad no es la correcta, cuando menciona que la sensibilidad es la mínima dimensión que es capaz de detectar el aparato se esta refiriendo a la característica de resolución.

    ResponderEliminar
  2. El texto no dice "la mínima dimensión que es capaz de detectar" sino "la mínima variación que es capaz de detectar". Lo puede buscar en cualquier libro de cálculo de errores e incluso en el diccionario de la RAE. En el caso de un sensor a la sensibilidad también se le llama resolución y, en otros contextos, ambos términos se usan también con otros significados.

    ResponderEliminar
  3. Hola Sergio, muy buenas,
    interesantísimo el artículo, aunque me surge una duda:

    a mayor precisión en el método de medida, tiene sentido utilizar un aparato de mayor sensibilidad, es decir, hablas de precisión pero en el método de medida, no de la precisión del aparato (cronómetro); lo digo porque he visto en Internet documentos que dan lugar a confusión, definiendo la precisión del aparato como la mínima variación de magnitud que puede medir, o sea, sensibilidad según tu artículo. Por ejemplo, se dice en Internet que un termómetro digital, puede tener una sensibilidad de 0,1 ºC y sin embargo su precisión ser de ± 0,2 ºC.

    ¿Tiene sentido hablar de precisión del cronómetro o de un aparato de medida y en caso afirmativo, cuál sería su relación con la sensibilidad del mismo?
    Muchas gracias y un saludo

    ResponderEliminar
    Respuestas
    1. Hola.
      Para saber si un método es preciso o no lo que tenemos que hacer es medir varias veces una misma magnitud y ver cómo de dispersos salen los resultados. El método de medida que utilizamos al hacer esto incluye todos los aparatos más el procedimiento paso a paso de qué se hace con todos ellos y cómo se anota y se procesa lo que estos aparatos nos indican. Por ello, el tamaño estimado de los errores aleatorios así obtenidos es una característica del conjunto de todos los elementos del proceso y no de un aparato concreto. Por eso no se debe hablar de "precisión de un aparato", sino de "precisión de todo el proceso".
      La confusión viene porque hay quien llama "precisión" a la sensibilidad del aparato, y ésta sí que es una característica propia de cada aparato. El peligro no es usar una nomenclatura que nos guste más o menos, sino confundir a los estudiantes usando un mismo nombre para conceptos que son distintos, que es lo que hacen las fuentes que mencionas.
      Saludos

      Eliminar
  4. Interesantísimo su artículo. Me contestó varias preguntas cuya respuesta no había encontrado en ningún lugar. Especificamente en lo relacionado al uso cotidiano del concepto "precisión" para referirse a la "sensibilidad" de una medida. Una pregunta, si me permite. Digamos que tengo una regla calibrada en 64 avos de pulgada y otra en 8 vos. La mayoría de la gente diría que la de 64 avos es más "precisa" que la de 8 vos, en referencia a que la mínima variación es menor en la de 64 avos, naturalmente. ¿Cuál sería la manera correcta de decirlo, que la de 64 avos de pulgada es más "sensible" que la de 8 vos? ¿Es eso correcto, o estoy cometiendo un error?

    Gracias
    Juan

    ResponderEliminar
    Respuestas
    1. Muy buena pregunta.
      Un cronómetro que es capaz de detectar variaciones de milésimas de segundo es, en principio, "mejor" que otro que solo detecte centésimas de segundo. La sensibilidad es más pequeña, y por eso es mejor. Por ello, para evitar confusiones, lo recomendable es decir "La sensibilidad del primer cronómetro es mejor que la del segundo".

      Eliminar