4 votos

¿Notación para$X - \mathbb{E}(X)$?

Deje que$X$ sea una variable aleatoria con un valor de expectativa$\mathbb{E}(X)=\mu$.

¿Hay una notación (razonablemente estándar) para denotar la variable aleatoria "centrada"$X - \mu$?

Y, mientras lo hago, si$X_i$ es una variable aleatoria,$\forall\,i \in \mathbf{n} \equiv \{0,\dots,n-1\}$, y si$\overline{X} = \frac{1}{n}\sum_{i\in\mathbf{n}} X_i$, ¿hay una notación para la variable aleatoria$X_i - \overline{X}$? (Esta segunda pregunta es "secundaria". Siéntase libre de ignorarla).

3voto

Reto Meier Puntos 55904

Nunca he visto ninguna notación específica para estos. Son expresiones tan simples que no habría mucho que ganar al abreviarlas aún más. Si crees que debes hacerlo, puedes inventar el tuyo o simplemente decir "dejar$Y = X - \mu$".

Una forma en que las personas a menudo evitan escribir$X - \mu$ es mediante una afirmación como "sin pérdida de generalidad, podemos asumir$E[X] = 0$" (siempre que podamos).

2voto

Michael Hardy Puntos 128804

En algunos contextos, $\varepsilon_i = X_i-\mu$ se llama un "error" y $\hat\varepsilon_i=X_i-\bar X$ se llama un "residual".

Observe que si $X_1,\ldots,X_n$ son yo.yo.d. a continuación, los errores de $\varepsilon_i=X_i-\mu$ son independientes y los residuos $\hat\varepsilon_i=X_i-\bar X$ no (ya que están obligados a sumar a $0$, por lo que se correlacionó negativamente).

En la regresión lineal simple problema en que $\mathbb E(X_i) = \alpha+\beta w_i$, los errores de $\varepsilon_i = X_i - (\alpha+\beta w_i)$ se toman a menudo para ser independiente, pero los residuos de $\hat\varepsilon_i=X_i - (\hat\alpha+\hat\beta w_i)$ donde $\hat\alpha$ $\hat\beta$ son de mínimos cuadrados que se estima que dependen $X_i$ y $w_i$, $i=1,\ldots, n$, están obligados a cumplir las dos igualdades $\hat\varepsilon_1+\cdots+\hat\varepsilon_n=0$$\hat\varepsilon_1 w_1+\cdots+\hat\varepsilon_n w_n=0$. La correlación entre el $\hat\varepsilon_i$ $\hat\varepsilon_j$ depende de $w_1,\ldots,w_n$ y en $i$$j$. (Específicamente, si los errores tienen todos la misma varianza---un supuesto llamado homscedasticity---y no están correlacionadas, y cada entrada en la primera columna de $M\in\mathbb R^{n\times 2}$ $1$ y la segunda columna es$w_1,\ldots,w_n$, $\operatorname{var}(\varepsilon)(I_n-M(M^TM)^{-1}M^T)$ es la matriz cuyas $i,j$ entrada $\operatorname{cov}(\hat\varepsilon_i,\hat\varepsilon_j)$.)

Consulte este artículo: http://en.wikipedia.org/wiki/Errors_and_residuals_in_statistics

1voto

Davide Giraudo Puntos 95813

A veces, podemos encontrar la notación$\overset{\circ}X$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X