9 votos

Dejemos que $X_{(1)}\leq X_{(2)}$ sean las estadísticas de los pedidos. Evaluar $\operatorname{Var}(X_{(j)})$ , $\operatorname{Cov}(X_{(1)},X_{(2)})$

Dejemos que $X_{(1)}\leq X_{(2)}$ sea la estadística de orden para una muestra aleatoria de tamaño $2$ de una distribución normal con media $\mu$ y la varianza $\sigma ^{2}$ .

Evaluar $\operatorname{E}(X_{(1)})$ , $\operatorname{E}(X_{(2)})$ , $\operatorname{Var}(X_{(1)})$ , $\operatorname{Var}(X_{(2)})$ y $\operatorname{Cov}(X_{(1)},X_{(2)})$ .

Mi intento: En general, para una muestra aleatoria de tamaño $2$ con función de distribución $F$ y la función de densidad $f$ Sé que la función de densidad conjunta de $X_{(j)}$ viene dada por $$f_{X_{(j)}}(t)=\frac{n!}{(j-1)!(n-j)!}\left[F(t)\right]^{j-1}\left[1-F(t)\right]^{n-j}f(t) \qquad -\infty<t<\infty .$$ En concreto, tras varios cálculos, en nuestro caso tenemos

$$f_{X_{(j)}}(t)=\left\{\begin{array}{ll}\frac{1}{\sigma \sqrt{2\pi}}\left[1-\mathrm{erf}\left(\frac{t-\mu}{\sigma \sqrt{2}}\right)\right]e^{-\left(\frac{t-\mu}{\sigma \sqrt{2}}\right)^{2}} & \mbox{If }j=1 \\ \frac{1}{\sigma \sqrt{2\pi}}\left[1+\mathrm{erf}\left(\frac{t-\mu}{\sigma \sqrt{2}}\right)\right]e^{-\left(\frac{t-\mu}{\sigma \sqrt{2}}\right)^{2}} & \mbox{If }j=2 \end{array}\right. .$$ para $-\infty<t<\infty$ .

Por lo tanto, la expectativa es

$$E(X_{(j)})=\left\{\begin{array}{ll}\frac{1}{\sigma \sqrt{2\pi}}{\displaystyle \int_{-\infty}^{\infty} t\left[1-\mathrm{erf}\left(\frac{t-\mu}{\sigma \sqrt{2}}\right)\right]e^{-\left(\frac{t-\mu}{\sigma \sqrt{2}}\right)^{2}}dt} & \mbox{If }j=1 \\ \frac{1}{\sigma \sqrt{2\pi}}{\displaystyle \int_{-\infty}^{\infty} t\left[1+\mathrm{erf}\left(\frac{t-\mu}{\sigma \sqrt{2}}\right)\right]e^{-\left(\frac{t-\mu}{\sigma \sqrt{2}}\right)^{2}}dt} & \mbox{If }j=2 \end{array}\right. .$$

Los problemas comienzan cuando quiero calcular $\operatorname{Var}(X_{(1)})$ , $\operatorname{Var}(X_{(2)})$ y $\operatorname{Cov}(X_{(1)},X_{(2)})$ porque no conozco la función de densidad de las variables aleatorias de $X_{(j)}^{2}$ para $j=1,2$ y $X_{(1)}X_{(2)}$ , no he podido calcular estas densidades, que es básicamente lo que necesito, aunque no sé si hay otra forma de hacer todo esto sin tener que calcular estas densidades.

2 votos

¡Bienvenido a stats.SE! Tómese un momento para ver nuestro tour . Su pregunta se lee como si se tratara de un problema de deberes. Si ese es el caso, por favor, lea nuestro wiki relacionados con el autoaprendizaje y añadir el autoestudio etiqueta a su pregunta.

0 votos

Creo que esto es un paso en la dirección correcta stats.stackexchange.com/questions/61080/ pero habría que trabajar un poco para aplicar los resultados aquí.

6voto

jldugger Puntos 7490

Cuando dos variables $(X_1,X_2)$ se distribuyen idénticamente con una distribución continua con densidad $f$ la PDF conjunta de sus estadísticas de orden $(X_{(1)}, X_{(2)})$ es

$$2 f(x_1) f(x_2) \mathcal{I}(x_2 \gt x_1).\tag{1}$$

Sabemos que los momentos dependen de los parámetros de localización $\mu$ y parámetros de escala $\sigma$ por lo que basta con resolver el problema para $\mu=0$ y $\sigma=1$ .

Contour plots of the density functions

Estas cifras ilustran el siguiente análisis. A la izquierda, un gráfico de contorno de la densidad conjunta de $(X_1,X_2)$ . En el centro hay un gráfico de contorno de la densidad conjunta de las estadísticas de orden $(1)$ (su aspecto es idéntico al del gráfico de la izquierda, pero se limita a la región $x_{(2)}\ge x_{(1)}$ (también se han duplicado todos los valores de los contornos), junto con los vectores que representan las nuevas variables $(U,V)$ . A la derecha se muestra la densidad conjunta en $(u,v)$ coordenadas, junto con vectores que representan las estadísticas de orden $(X_{(1)}, X_{(2)})$ . Cálculo de los momentos en $(u,v)$ coordenadas es fácil. Unas fórmulas sencillas conectan estos momentos con los momentos de la estadística de orden original.

Supongamos que $f$ es simétrica (como todas las distribuciones normales). Dado que $X_1 + X_2 = X_{(1)} + X_{(2)}$ y $(-X_{(2)}, -X_{(1)})$ tiene la misma distribución, $$-\mathbb{E}(X_{(1)}) = \mathbb{E}(X_{(2)}) = \nu,$$ decir, y obviamente $$\operatorname{Var}(X_{(1)})= \operatorname{Var}(X_{(2)}) = \tau^2,$$ decir.

En este punto vamos a explotar algunas propiedades especiales de las distribuciones normales. Al girar $(X_{(1)}, X_{(2)})$ en el sentido de las agujas del reloj por $\pi/4$ a $U=(X_{(1)}+X_{(2)})/\sqrt{2}$ y $V=(X_{(2)}-X_{(1)})/\sqrt{2}$ se convierte en la densidad de una variable normal bivariante $(U,V)$ que se ha truncado en el dominio $V \gt 0$ . Es inmediato que $U$ tiene una distribución Normal estándar y $V$ tiene una distribución medio normal. En consecuencia,

$$\mathbb{E}(U)=0, \ \mathbb{E}(V) = \sqrt{\frac{1}{\pi}},\ \operatorname{Var}(U)=1,\ \text{and}\ \operatorname{Var}(V) = 1 - \mathbb{E}(V)^2 = 1 - \frac{1}{\pi}.$$

Al relacionarlas con las variables originales se obtiene

$$\cases{ 1 = \operatorname{Var}(U) = \operatorname{Var}\left(\frac{1}{\sqrt{2}}\left(X_1+X_2\right)\right) = \frac{1}{2}\left(\tau^2 + \tau^2+2\operatorname{Cov}(X_1,X_2)\right) \\ 1 - \frac{1}{\pi} = \operatorname{Var}(U) = \cdots = \frac{1}{2}\left(\tau^2 + \tau^2-2\operatorname{Cov}(X_{(1)},X_{(2)})\right). }$$

La solución de estas ecuaciones lineales simultáneas es

$$\tau^2 = 1 - \frac{1}{\pi},\ \operatorname{Cov}(X_{(1)},X_{(2)}) = \frac{1}{2\pi}.$$

Del mismo modo, al expresar las expectativas de $U$ y $V$ en términos de los de $X_{(1)}$ y $X_{(2)}$ da ecuaciones para $\nu$ cuya solución es $\nu = \sqrt{1/\pi}$ .

Volviendo a la pregunta original, en la que las variables se escalan por $\sigma$ y desplazado por $\mu$ Por lo tanto, las respuestas deben ser

$$\mathbb{E}(X_{(i)}) = \mu + (-1)^i \sigma \sqrt{\frac{1}{\pi}}$$

y

$$\operatorname{Var}\left(X_{(1)}, X_{(2)}\right) = \sigma^2\pmatrix{1-\frac{1}{\pi} & \frac{1}{\pi} \\ \frac{1}{\pi} & 1 - \frac{1}{\pi}}.$$

0 votos

¿La última expresión se refiere a la "covarianza" o a la "varianza"? En cualquier caso, ¿por qué no es un número? ¿Por qué es una matriz?

0 votos

La varianza de una variable aleatoria vectorial es la matriz completa de "varianza-covarianza". Contiene todas las varianzas y covarianzas de los componentes de la variable.

0 votos

W Huber, $E(X_{(1)}) = \mu - \sigma \sqrt{1/\pi}$ no $-E(X_{(2)}) = -\mu - \sigma \sqrt{1/\pi}$

3voto

Dilip Sarwate Puntos 16161

He aquí una respuesta de fuerza bruta que carece de la elegancia de los cálculos de Whuber, pero que llega a las mismas conclusiones.

Con $X_i, i = 1, 2,$ denotando variables aleatorias estándar independientes y $$(W,Z) = \left(\min(X_1,X_2),\max(X_1,X_2)\right) = \left (X_{(1)},X_{(2)}\right),$$ tenemos que $f_{X_1,X_2}(x,y)= \phi(x)\phi(y)$ y $f_{W,Z}(w,z)= \displaystyle \begin{cases}\displaystyle 2\phi(x)\phi(y), & z>w,\\ \ \\ 0, & z<w, \end{cases}$

donde $\phi(\cdot)$ denota la función de densidad normal estándar. Ahora, \begin{align} E[W] &= \int_{-\infty}^\infty \int_{-\infty}^\infty w\cdot f_{W,Z}(w,z)\, \mathrm dz\, \mathrm dw\\ &= \int_0^\infty \int_{\pi/4}^{5\pi/4} r\cos(\theta)\cdot \frac{1}{\pi} \exp\left(\frac{-r^2}{2}\right)\, r\,\mathrm d\theta \, \mathrm dr &\scriptstyle{\text{change to polar coordinates}}\\ &= \left. \int_0^\infty \sin(\theta)\right|_{\pi/4}^{5\pi/4} \cdot \frac{1}{\pi} r^2 \exp\left(\frac{-r^2}{2}\right) \, \mathrm dr\\ &= -\frac{\sqrt 2}{\pi}\int_0^\infty r^2 \exp\left(\frac{-r^2}{2}\right) \, \mathrm dr &\scriptstyle{\text{now re-write the constant}}\\ &= -\frac{1}{\sqrt \pi}\int_{-\infty}^\infty r^2 \frac{1}{\sqrt{2\pi}}\exp\left(\frac{-r^2}{2}\right) \, \mathrm dr &\scriptstyle{\text{and recognize the integral}}\\ &= -\frac{1}{\sqrt \pi}, \end{align} y como $W+Z = X_{(1)}+X_{(2)} = X_1+X_2$ deducimos que $$E[Z] = E[X_{1}+X_{2}]-E[W] = 0 - \left(-\frac{1}{\sqrt \pi}\right) = \frac{1}{\sqrt \pi}.$$ De la misma manera, \begin{align} E[W^2] &= \int_{-\infty}^\infty \int_{-\infty}^\infty w^2\cdot f_{W,Z}(w,z)\, \mathrm dz\, \mathrm dw\\ &= \int_0^\infty \int_{\pi/4}^{5\pi/4} r^2\cos^2(\theta)\cdot \frac{1}{\pi} \exp\left(\frac{-r^2}{2}\right)\, r\,\mathrm d\theta \, \mathrm dr &\scriptstyle{\text{change to polar coordinates}}\\ &= \left. \int_0^\infty \frac{2\theta+\sin(2\theta)}{4}\right|_{\pi/4}^{5\pi/4} \cdot \frac{1}{\pi} r^3 \exp\left(\frac{-r^2}{2}\right) \, \mathrm dr\\ &= \frac{1}{2}\int_0^\infty r^3 \exp\left(\frac{-r^2}{2}\right) \, \mathrm dr &\scriptstyle{\text{now set }r^2/2 = t}\\ &= \int_0^\infty t \exp\left(-t\right) \, \mathrm dt \\ &= 1, \end{align} y como $W^2+Z^2 = X_{(1)}^2+X_{(2)}^2 = X_1^2+X_2^2$ tenemos que $$E[W^2+Z^2]= 1+E[Z^2]=E[X_1^2+X_2^2]=2 \implies E[Z^2] = E[W^2]=1.$$ De ello se desprende que $\operatorname{var}(W) = \operatorname{var}(Z) = 1-\frac{1}{\pi}.$

Finalmente, \begin{align} \operatorname{cov}(X_{(1)},X_{(2)})&= \operatorname{cov}(W,Z)\\ &= E[WZ] - E[W]E[Z]\\ &= E[X_1X_2] + \frac{1}{\pi}\\ &= E[X_1]E[X_2] + \frac{1}{\pi}&\scriptstyle{\text{because }X_1~\text{and }X_2~\text{are independent}}\\ &= \frac{1}{\pi} \end{align}


Si $X_1$ y $X_2$ se escalan por $\sigma$ y traducido por $\mu$ a iid $N(\mu,\sigma^2)$ Entonces estamos listos para conseguir que $$E[X_{(1)}] = \mu - \frac{\sigma}{\sqrt{\pi}}, \quad E[X_{(2)}] = \mu + \frac{\sigma}{\sqrt{\pi}}\\ \operatorname{var}(X_{(1)}) = \operatorname{var}(X_{(2)}) = \sigma^2\left(1-\frac{1}{\pi}\right)\\ \operatorname{cov}(X_{(1)},X_{(2)}) = \frac{\sigma^2}{\pi}.$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X