Se define la varianza de una variable aleatoria $X$ $E[(x-\mu )^2]$. Por qué no se puede definir como $E[|x-\mu |]$. es decir, cuál es la idea básica detrás de esta definición. Gracias.
Respuestas
¿Demasiados anuncios?Intuitivamente, no existe una gran diferencia en cómo definir una variación de la media. Sin embargo, tomar un cuadrado de la distancia tiene varias características interesantes.
Aquí está un ejemplo de un punto de vista estadístico. También me gustaría destacar la medida de las ventajas teóricas de los clásicos de la varianza que es una expectativa de que el cuadrado de la diferencia.
Tiene un argmin a la expectativa, es decir, si $$ \mathsf E[(\xi-x)^2]\a\min_x $$ a continuación, $x^*:=\mathsf E\xi$ es una solución,
Se introduce un $L^2$ norma para que usted obtenga un espacio de Hilbert, que más puñado propiedades que el espacio de Banach $L^1$. Por ejemplo, es consistente con un producto interior $$ \langle\xi\eta \rangle = \mathrm{Cov}(\xi\eta) $$
$\newcommand{\var}{\operatorname{var}}$
Esta parece ser una pregunta recurrente.
Tal vez la parte más importante de la respuesta es que con el convencional de definición de la varianza, si $X_1,\ldots,X_n$ son independientes de las variables aleatorias, entonces $$ \var(X_1+\cdots+X_n) = \var(X_1)+\cdots+\var(X_n). $$
Esto hace que sea posible saber cuál es la varianza del número de cabezas que el resultado de lanzar una moneda $20000$ veces (o de cualquier otra suma de (i).yo.d. variables aleatorias), y por lo tanto el uso del teorema del límite central para encontrar cosas como la probabilidad de que el número de cabezas se entre $10,000\pm60$.
$E[(x-\mu )^2]$ se prefiere de $E[|x-\mu |]$ porque el primero tiene buena propiedad matemática que es útil en el estudio estadístico más alto.
Otra vez algún estadístico no como medida de dispersión que depende de la medida de tendencia central (aquí $\mu$). Así que usan el coeficiente de Gini de concentración.
$$G=\frac{1}{n^2}\sum_{i=1}^{n}\sum_{j=1}^{n}(x_i-x_j)^2=2.\frac{1}{n}\sum_{i=1}^{n}[x_i- \bar x]^2 $$ Here variance is a function of mutual differences. This is from descriptive statistics. For probabilistic approach $\sum$ can be replaced by $E$.
Por lo tanto, esta es la razón por qué nosotros preferimos $E[(x-\mu )^2]$.
Eso es todo de mí.