Supongamos que $X$ es una variable aleatoria que sigue una distribución normal estándar, entonces ¿cómo es $KX$ ( $K$ es constante) definida. ¿Por qué sigue una distribución normal con media $0$ y varianza $K^2$ . Gracias.
Respuestas
¿Demasiados anuncios?Para una variable aleatoria $X$ con primer y segundo momentos finitos (es decir, que la expectativa y la varianza existen) se cumple que $\forall c \in \mathbb{R}: E[c \cdot X ] = c \cdot E[X]$ y $ \mathrm{Var}[c\cdot X] = c^2 \cdot \mathrm{Var} [ X]$
Sin embargo, el hecho de que $c\cdot X$ sigue la misma familia de distribuciones que $X$ no es trivial y debe demostrarse por separado. (No es cierto, por ejemplo, para la distribución Beta, que también pertenece a la familia exponencial). Puedes verlo si observas la función característica del producto $c\cdot X$ : $ \exp\{i\mu c t - \frac{1}{2} \sigma^2 c^2 t^2\}$ que es la función característica de una distribución normal con $\mu'= \mu\cdot c$ y $\sigma' = \sigma \cdot c$ .
Otra forma de caracterizar la distribución de una variable aleatoria es por su función de distribución, es decir, si dos variables aleatorias tienen la misma función de distribución entonces son iguales.
En nuestro caso, dejemos que $X \sim N(\mu,\sigma^2)$ a continuación, establezca $Y = c X$ con $c > 0$ y llame a $F$ la función de distribución de $X$ y $G$ la función de distribución de $Y$ . Entonces:
$G(y) = P[Y \le y] = P[cX \le y] = P\Big[X \le \frac yc\Big] = F\Big(\frac yc\Big)$
Ahora diferenciamos y obtenemos:
$g(y) = f(\frac yc) \frac1c$
donde $g$ es la función de densidad de $Y$ y $f$ es la función de densidad de $X$ . Entonces sólo tratamos de expresar esto como una densidad normal:
$g(y) = f(\frac yc ) \frac1c = \frac{1}{\sqrt{2\pi}(c\sigma)} e^{\frac{-(cx-c\mu)^2}{2(c\sigma)^2}} = \frac{1}{\sqrt{2\pi}(c\sigma)} e^{\frac{-(y-c\mu)^2}{2(c\sigma)^2}}$
Pero esto último es la densidad de un $N(c\mu,(c\sigma)^2)$
Esta es una formulación calmada de lo que Dilip Sarwate señaló en los comentarios anteriores.
El caso c < 0
$G(y) = P[Y \le y] = P[cX \le y] = P\Big[X \ge \frac yc\Big] = 1 - F\Big(\frac yc\Big)$
diferenciador:
$g(y) = -f(\frac yc) \frac1c = f(\frac yc) \frac{1}{|c|} = \frac{1}{\sqrt{2\pi}(|c|\sigma)} e^{\frac{-(y-c\mu)^2}{2(c\sigma)^2}}$
Tenga en cuenta que esto no plantea dificultades, ya que $\sqrt{(c \sigma)^2} = |c| \sigma$ .
Intentaré presentarlo de forma relativamente intuitiva, pero manteniendo cierto rigor matemático.
Sea $Y=kX$ donde X ~ $N(0,1)$ .
Ahora, podemos ver $Y=X+X+X.......k$ veces. Así, podemos obtener el valor esperado de Y y la varianza de Y utilizando la linealidad.
$E(Y)=E(X+X+X...)=E(X)+E(X)+....k$ veces $=k\mu$ (utilizando la linealidad de la expectativa).
To, podemos obtener $Var(Y)=Var(kX)=E((kX)^2)-(E(kX))^2$ (por definición de Varianza)
Así que.., $Var(Y)= E(k^2X^2)-(E(kX))^2=k^2(E(X^2))-(k.E(X))^2$ (utilizando el resultado demostrado anteriormente para $E(kX)$ )
Reescritura, $Var(Y)= k^2E(X^2)-k^2(E(X))^2=k^2(E(X^2)-(E(X))^2)=k^2Var(X)$
Por lo tanto, ahora tenemos $E(Y)$ y $Var(Y)$ . También sabemos que la suma de variables independientes normalmente distribuidas se distribuye normalmente, por lo que Y debe ser normal ya que Y es una suma de variables normalmente distribuidas.
Así que, básicamente sabes que tienes tanto la E como la Var de una variable distribuida normalmente, lo que te indica la distribución.
$Y$ ~ $N(k\mu,k^2\sigma)$ donde $\mu=Mean(X)$ y $\sigma=Var(X)$ .
En tu caso, $\mu=0$ . Espero que le sirva de ayuda.
6 votos
Veo que es usted un nuevo miembro de MSE. Una cordial bienvenida!. Por favor, tome nota de aceptar (si es aceptable para usted) las respuestas a sus preguntas anteriores. Esto motiva (sobre todo) MSE para ayudarle más.