5 votos

¿Cómo se combinan las incertidumbres independientes de repetibilidad y precisión de la misma cantidad en un valor de incertidumbre notificado?

Tengo un fotodiodo calibrado por el NIST con informe de $\pm$ 2% de incertidumbre en la calibración. He interpretado esto como la "incertidumbre de precisión", aunque pido disculpas si mi terminología induce a error.

Si mido la misma cantidad varias veces utilizando este fotodiodo, encuentro una desviación típica superior a $N$ mediciones de $\pm$ 0.5%. A esto lo he llamado "incertidumbre de repetibilidad".

¿Cómo conciliar estas incertidumbres en una medición? ¿Cuál es el método estándar para comunicar un valor de incertidumbre? Concretamente, cuando la misma cantidad medida tiene tanto una incertidumbre en la calibración (que puede no situarse sistemáticamente a un lado u otro de la media) como una incertidumbre derivada de la repetibilidad, ¿cómo pueden utilizarse las incertidumbres para predecir la incertidumbre global?

He aquí dos escenarios:

Escenario I

Utilizo el mismo dispositivo de medición para medir un valor relativo, por ejemplo, la intensidad luminosa delante y detrás de una óptica. Propongo que, al no basarme en el valor calibrado, puedo ignorar básicamente la incertidumbre de precisión y notificar la incertidumbre como \begin{equation} \sigma_{measurement} = \sqrt{\sigma_{input}^2+\sigma_{output}^2} = \sqrt{2}\sigma_{input} \end{equation}

Escenario II

Caracterizo un segundo dispositivo (muestra) para calibrar su rendimiento absoluto con respecto a la referencia calibrada. Cada medición (referencia calibrada y muestra) tiene la misma incertidumbre de repetibilidad, pero la referencia a los valores calibrados requiere dividir una vez por los valores con incertidumbre de exactitud notificada. No sé cómo proceder para determinar la incertidumbre global en el valor medido de la referencia calibrada en este caso en el que \begin{equation} \mathrm{Value\enspace of\enspace interest} = \frac{I_{\mathrm{sample}}}{I_{\mathrm{{reference}}} * f_{\mathrm{calibration, reference}}} \end{equation}

¿Es tan sencillo como \begin{equation} \sigma_{measurement} = \sqrt{\sigma_{\mathrm{sample}}^2+\sigma_{\mathrm{reference}}^2+\sigma_{\mathrm{calibration\enspace factor}}^2} \enspace \enspace \mathrm{?} \end{equation}

3voto

JRT Puntos 97

Me suena como si quisieras decir la diferencia entre un error sistemático y un error aleatorio .

En este caso, el error sistemático es del 2%, es decir, cuando se indica un valor absoluto de la intensidad luminosa, ese valor está sujeto a un error del 2%. Todas las mediciones tendrán el mismo error sistemático. Los errores aleatorios son las diferencias entre las mediciones individuales y serán diferentes para todas las mediciones.

No estoy seguro de poder afirmar que tengo un gran conocimiento de las convenciones actuales en materia de publicación, pero por lo general veo que los errores sistemáticos y aleatorios se notifican por separado en los artículos, es decir, se notificaría un error aleatorio del 0,5% y un error sistemático del 2%.

Desde luego, no puedes combinarlos como has hecho en tu última ecuación porque el error sistemático es constante para cualquier diiodo y no se distribuye aleatoriamente.

0 votos

Gracias @john por señalarme mi error de concepto respecto al error aleatorio distribuido y el sistemático o constante. La mayoría de las veces me he referido al error sistemático como un desplazamiento constante en una dirección constante. ¿Puedo interpretar tu respuesta en el sentido de que, en general, se trata de cualquier error constante independiente de la distribución aleatoria, independientemente de que esté desviado unidireccionalmente de la media?

0 votos

@CFlowers: Sí, creo que es una descripción bastante buena.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X