4 votos

Llevar la precisión de los equipos a la desviación estándar

Tengo un conjunto de $n$ medidas, $x_i$ El problema es que no sé cómo tener en cuenta la precisión del equipo de medición en la ecuación.

La precisión del equipo de medición viene dada por el productor, digamos $\sigma_p$ por lo que cada medición tiene una incertidumbre: $x_i \pm \sigma_p$

Al calcular la media, hago lo siguiente:

$\mu = \frac{1}{n} \sum_{i=1}^n (x_i \pm \sigma_p) = \frac{x_i}{n} \pm \sigma_p$

pero no estoy seguro de si $\sigma_p$ en la ecuación o cómo interpretarla. Además, necesito calcular la desviación típica, que suele ser

$\sigma_x = \sqrt{\frac{1}{n-1} \sum_{i = 1}^n (x_i - \bar{x})^2}$ ,

pero si sustituyo mis cálculos obtengo

$\sigma_x = \sqrt{\frac{1}{n-1} \sum_{i = 1}^n (x_i \pm\sigma_p - (\bar{x}\pm \sigma_p))^2}$ ,

que no sé cómo manipular más. ¿Hace el $+\pm\sigma_p$ y $-\pm\sigma_p$ ¿se anulan o se suman?

¿Debería sumar las dos cosas? Es decir

$\sigma_x^2 = \sigma_p^2 + \frac{1}{n-1}\sum_{i = 1}^n (x_i - \bar{x})^2$ ,

donde la media se calcula como normalmente,

$\bar{x} = \frac{1}{n} \sum x_i$

Agradecemos cualquier ayuda.

2voto

gregory_britten Puntos 743

La hipótesis principal (que suele ser muy razonable) es que los errores de medición son independientes, se distribuyen de forma idéntica y son condicionalmente independientes del valor real de la variable de interés. En el caso de los dispositivos electrónicos, suele ser así.

Así pues, denotemos la variable de distancia "verdadera $X_d$ la variable aleatoria de error de medición $X_p$ y se observa una variable conjunta, $X_x=X_d+X_p$ . Solicita una estimación de $X_d$ que está corrompido por el error de medición. Así que $\mu_x=\mu_d+\mu_p$ cuyo valor esperado es $E[X_x]=E[X_d + X_p] = E[X_d]+E[X_p]$ bajo la independencia. Si su error de medición está centrado en cero (es decir, la medición es insesgada) entonces $E[X_p]=0$ Por lo tanto $E[X_x]=E[X_d]$ y su mejor estimación es $\hat{X_d}=\hat{X_x}= \frac{1}{n}\sum{x_x^i}$ . Así que, básicamente, si se pueden asumir errores de medición independientes y centrados en cero, la mejor estimación de $\mu_d$ es la media de sus mediciones.

Además, la varianza de dos variables aleatorias independientes es la suma de las dos varianzas individuales. Puede pensar en la varianza de sus datos como si representara $\hat{\sigma_x^2}=\frac{1}{n-1}\sum{(x_x^i-\bar{x})^2}$ . Ahora sabemos $\sigma_x^2 = \sigma_p^2+\sigma_d^2 \to \sigma_d^2=\sigma_x^2-\sigma_p^2$ . Tenemos el estimador $\hat{\sigma_x^2}$ y sabemos $\sigma_p^2$ por lo que nuestro estimador $\hat{\sigma_d^2}=\hat{\sigma_x^2}-\sigma_p^2$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X