Para estandarizar una variable aleatoria que se distribuye normalmente, tiene sentido absoluto restar el valor esperado $\mu$ de cada valor que puede asumir la variable aleatoria, desplaza todos los valores de forma que el valor esperado se centre en el origen. Pero, ¿cómo juega la división por la desviación estándar en la estandarización de una variable aleatoria? Esa parte no me resulta tan intuitiva como la de restar $\mu$ .
Respuestas
¿Demasiados anuncios?Dejemos que $X \sim N(\mu,\sigma^2)$ .
Dejemos que $Y = \large\frac{X-\mu}{\sigma}$ .
$E[Y] = \large\frac{E[X] - \mu}{\sigma} = \large\frac{\mu-\mu}{\sigma} = 0$
$\text{Var}(Y) = \large\frac{1}{\sigma^2}\text{Var}(X) = \large\frac{1}{\sigma^2}\sigma^2 = 1$ .
Así que $Y \sim N(0,1)$ .
Precisamente por eso restamos la media y dividimos por la desviación estándar.
Recordemos que $\operatorname{Var}{X}=E(X-\mu)^2$ , donde $\mu$ es la media de $X$ . Así que $\operatorname{Var}(X)$ es una media de cuadrados . Por lo tanto, si escalamos $X$ por un factor $\rho$ entonces la varianza se multiplica por $\rho^2$ .
Para tener una idea de esto, recuerda que si escalamos una figura geométrica, como un cuadrado o un triángulo, por el factor $\rho$ entonces el área se escala por un factor de $\rho^2$ .
Supongamos ahora que la varianza de $X$ es $\sigma^2$ . Entonces debemos escalar $X$ por el factor $\dfrac{1}{\sigma}$ para llevar la variación a $1$ .