15 votos

Múltiples mediciones de la misma cantidad: combinación de incertidumbres

Tengo una serie de mediciones de la misma cantidad (en este caso, la velocidad del sonido en un material). Cada una de estas mediciones tiene su propia incertidumbre.

$$ v_{1} \pm \Delta v_{1} $$ $$ v_{2} \pm \Delta v_{2} $$ $$ v_{3} \pm \Delta v_{3} $$ $$ \vdots $$ $$ v_{N} \pm \Delta v_{N} $$

Como son medidas de la misma cantidad, todos los valores de $v$ son más o menos iguales. Puedo, por supuesto, calcular la media:

$$ v = \frac{\sum_{i=1}^N v_{i}}{N}$$

¿Cuál sería la incertidumbre en $v$ ¿ser? En el límite de que todos los $\Delta v_i$ son pequeños, entonces $\Delta v$ debe ser la desviación estándar del $v_i$ . Si el $\Delta v_i$ son grandes, entonces $\Delta v$ debería ser algo así como $\sqrt{\frac{\sum_i \Delta v_i^2}{N}}$ ¿verdad?

Entonces, ¿cuál es la fórmula para combinar estas incertidumbres? No creo que sea la que se da en esta respuesta (aunque puede que me equivoque) porque no parece que se comporte como yo esperaría en los límites anteriores (concretamente, si el $\Delta v_i$ son cero, entonces esa fórmula da $\Delta v = 0$ y no la desviación estándar del $v_i$ ).

7voto

Renaud Bompuis Puntos 10330

Cuando se combinan mediciones con diferentes incertidumbres, tomar la media no es lo correcto. (Bueno, es suficiente si las incertidumbres son casi iguales).

Lo correcto es el análisis de chi-cuadrado, que da un mayor peso a las medidas más precisas. Así es como se hace:

$$\chi^2 = \sum \frac{(\text{observed value} - \text{true value})^2}{\text{(uncertainty associated with that observation)}^2}$$

Se elige numéricamente el "valor verdadero" que minimiza $\chi^2$ . Esa es su mejor suposición.

A continuación, utilice la distribución chi-cuadrado para calcular el valor p (suponiendo que la mejor estimación sea correcta). (Los grados de libertad son uno menos que el número de observaciones.) Esto le dirá si sus incertidumbres eran razonables o si las subestimó. Por ejemplo, si una medición es $5.0 \pm 0.1$ y otra medida es $10.0 \pm 0.1$ Entonces es probable que hayas subestimado tus incertidumbres.

Si ha subestimado sus incertidumbres -lo que no es inusual en la práctica-, lo correcto es averiguar dónde se equivocó en su estimación de la incertidumbre y corregir el error. Pero también hay una alternativa más perezosa, que a menudo es suficiente si lo que está en juego es poco: se pueden aumentar todas las incertidumbres por el mismo factor hasta que se obtenga un valor razonable. $\chi^2$ valor p, digamos 0,5.

Bien, ahora tienes incertidumbres de medición plausibles, ya sea porque lo hiciste desde el principio o porque las escalaste. A continuación, intente variar el "valor verdadero" hasta que el valor p descienda por debajo de, por ejemplo, el 5%. Este procedimiento le proporciona barras de error de límite inferior y de límite superior en su medición final de mejor estimación.

Hace muchos años que no lo hago, perdón por los errores de memoria. Creo que se discute en Bevington&Robinson.

4voto

aceinthehole Puntos 1460

Parece que estás mezclando varios conceptos aquí.

En particular, te interesa el error sobre una media, te refieres al error sobre una suma (que necesitas en el camino hacia el error sobre una media), y hablas de la desviación estándar.

(todo funciona aquí en la versión ingenua asumiendo una correlación cero).

  • Error de una suma de cantidades inciertas: $X = \sum_i x_i$ y $\Delta X = \sqrt{ \sum_i \left(\Delta x_i\right)^2 }$

  • Error de la media de las cantidades inciertas: Divida la suma por el número de medidas. El número de mediciones es definitivamente , no está en absoluto seguro de cuántas cifras ha procesado, así que esto es sólo una división. $$\bar{x} = \frac{X}{N} = \frac{\sum_i x_i}{N} \quad ,$$ y $$\Delta \bar{x} = \frac{\Delta X}{N} = \frac{\sqrt{\sum_i \left( \Delta x_i\right)^2}}{N} \quad.$$ (Tenga en cuenta que más adelante encontrará la frase "error de la media" en el contexto de las muestras grandes. Eso es diferente).

    Si usted individualmente $\Delta x_i$ varían considerablemente, es mejor utilizar el e rror media ponderada .

  • Desviación estándar : Esta es una cifra que expresa la dispersión de ti $x_i$ s, y se calcula sin referencia a su $\Delta x_i$ s. Generalmente se representa con $\sigma$ y llamamos $\sigma^2$ la "varianza". $$ \sigma^2 = \frac{1}{N} \sum_i \left( x_i - \bar{x} \right)^2 \quad ,$$ con una pequeña corrección que si tiene que conseguir $\bar{x}$ de la misma lista (lo que se hace) se utiliza $$ \sigma^2 = \frac{1}{N-1} \sum_i \left( x_i - \bar{x} \right)^2 \quad .$$

Si ha estimado su $\Delta x_i$ s correctamente entonces debería haber una relación entre la desviación estándar y el error sobre la media, pero eso es para otro día.


Te quejas en tu pregunta de que el error de la media no llega a la desviación típica en el límite que $\Delta x_i = 0$ pero eso se debe a que representan conceptos diferentes. Es posible tener un experimento en el que las mediciones individuales se extraen de una amplia distribución pero se conocen muy bien (alta desviación estándar, pero bajas incertidumbres individuales) o en el que se vuelve a medir la misma cantidad subyacente con instrumentos pobres (desviación estándar cero, pero grandes $\Delta x_i$ s). En muchos aspectos, los casos pueden tratarse con las mismas matemáticas, pero son diferentes.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X