Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

9 votos

Dejemos que X(1)X(2) sean las estadísticas de los pedidos. Evaluar Var(X(j)) , Cov(X(1),X(2))

Dejemos que X(1)X(2) sea la estadística de orden para una muestra aleatoria de tamaño 2 de una distribución normal con media μ y la varianza σ2 .

Evaluar E(X(1)) , E(X(2)) , Var(X(1)) , Var(X(2)) y Cov(X(1),X(2)) .

Mi intento: En general, para una muestra aleatoria de tamaño 2 con función de distribución F y la función de densidad f Sé que la función de densidad conjunta de X(j) viene dada por fX(j)(t)=n!(j1)!(nj)![F(t)]j1[1F(t)]njf(t)<t<. En concreto, tras varios cálculos, en nuestro caso tenemos

fX(j)(t)={1σ2π[1erf(tμσ2)]e(tμσ2)2If j=11σ2π[1+erf(tμσ2)]e(tμσ2)2If j=2. para <t< .

Por lo tanto, la expectativa es

E(X(j))={1σ2πt[1erf(tμσ2)]e(tμσ2)2dtIf j=11σ2πt[1+erf(tμσ2)]e(tμσ2)2dtIf j=2.

Los problemas comienzan cuando quiero calcular Var(X(1)) , Var(X(2)) y Cov(X(1),X(2)) porque no conozco la función de densidad de las variables aleatorias de X2(j) para j=1,2 y X(1)X(2) , no he podido calcular estas densidades, que es básicamente lo que necesito, aunque no sé si hay otra forma de hacer todo esto sin tener que calcular estas densidades.

2 votos

¡Bienvenido a stats.SE! Tómese un momento para ver nuestro tour . Su pregunta se lee como si se tratara de un problema de deberes. Si ese es el caso, por favor, lea nuestro wiki relacionados con el autoaprendizaje y añadir el autoestudio etiqueta a su pregunta.

0 votos

Creo que esto es un paso en la dirección correcta stats.stackexchange.com/questions/61080/ pero habría que trabajar un poco para aplicar los resultados aquí.

6voto

jldugger Puntos 7490

Cuando dos variables (X1,X2) se distribuyen idénticamente con una distribución continua con densidad f la PDF conjunta de sus estadísticas de orden (X(1),X(2)) es

2f(x1)f(x2)I(x2>x1).

Sabemos que los momentos dependen de los parámetros de localización μ y parámetros de escala σ por lo que basta con resolver el problema para μ=0 y σ=1 .

Contour plots of the density functions

Estas cifras ilustran el siguiente análisis. A la izquierda, un gráfico de contorno de la densidad conjunta de (X1,X2) . En el centro hay un gráfico de contorno de la densidad conjunta de las estadísticas de orden (1) (su aspecto es idéntico al del gráfico de la izquierda, pero se limita a la región x(2)x(1) (también se han duplicado todos los valores de los contornos), junto con los vectores que representan las nuevas variables (U,V) . A la derecha se muestra la densidad conjunta en (u,v) coordenadas, junto con vectores que representan las estadísticas de orden (X(1),X(2)) . Cálculo de los momentos en (u,v) coordenadas es fácil. Unas fórmulas sencillas conectan estos momentos con los momentos de la estadística de orden original.

Supongamos que f es simétrica (como todas las distribuciones normales). Dado que X1+X2=X(1)+X(2) y (X(2),X(1)) tiene la misma distribución, E(X(1))=E(X(2))=ν, decir, y obviamente Var(X(1))=Var(X(2))=τ2, decir.

En este punto vamos a explotar algunas propiedades especiales de las distribuciones normales. Al girar (X(1),X(2)) en el sentido de las agujas del reloj por π/4 a U=(X(1)+X(2))/2 y V=(X(2)X(1))/2 se convierte en la densidad de una variable normal bivariante (U,V) que se ha truncado en el dominio V>0 . Es inmediato que U tiene una distribución Normal estándar y V tiene una distribución medio normal. En consecuencia,

E(U)=0, E(V)=1π, Var(U)=1, and Var(V)=1E(V)2=11π.

Al relacionarlas con las variables originales se obtiene

{1=Var(U)=Var(12(X1+X2))=12(τ2+τ2+2Cov(X1,X2))11π=Var(U)==12(τ2+τ22Cov(X(1),X(2))).

La solución de estas ecuaciones lineales simultáneas es

τ2=11π, Cov(X(1),X(2))=12π.

Del mismo modo, al expresar las expectativas de U y V en términos de los de X(1) y X(2) da ecuaciones para ν cuya solución es ν=1/π .

Volviendo a la pregunta original, en la que las variables se escalan por σ y desplazado por μ Por lo tanto, las respuestas deben ser

E(X(i))=μ+(1)iσ1π

y

Var(X(1),X(2))=σ2(11π1π1π11π).

0 votos

¿La última expresión se refiere a la "covarianza" o a la "varianza"? En cualquier caso, ¿por qué no es un número? ¿Por qué es una matriz?

0 votos

La varianza de una variable aleatoria vectorial es la matriz completa de "varianza-covarianza". Contiene todas las varianzas y covarianzas de los componentes de la variable.

0 votos

W Huber, E(X(1))=μσ1/π no E(X(2))=μσ1/π

3voto

Dilip Sarwate Puntos 16161

He aquí una respuesta de fuerza bruta que carece de la elegancia de los cálculos de Whuber, pero que llega a las mismas conclusiones.

Con Xi,i=1,2, denotando variables aleatorias estándar independientes y (W,Z)=(min tenemos que f_{X_1,X_2}(x,y)= \phi(x)\phi(y) y f_{W,Z}(w,z)= \displaystyle \begin{cases}\displaystyle 2\phi(x)\phi(y), & z>w,\\ \ \\ 0, & z<w, \end{cases}

donde \phi(\cdot) denota la función de densidad normal estándar. Ahora, \begin{align} E[W] &= \int_{-\infty}^\infty \int_{-\infty}^\infty w\cdot f_{W,Z}(w,z)\, \mathrm dz\, \mathrm dw\\ &= \int_0^\infty \int_{\pi/4}^{5\pi/4} r\cos(\theta)\cdot \frac{1}{\pi} \exp\left(\frac{-r^2}{2}\right)\, r\,\mathrm d\theta \, \mathrm dr &\scriptstyle{\text{change to polar coordinates}}\\ &= \left. \int_0^\infty \sin(\theta)\right|_{\pi/4}^{5\pi/4} \cdot \frac{1}{\pi} r^2 \exp\left(\frac{-r^2}{2}\right) \, \mathrm dr\\ &= -\frac{\sqrt 2}{\pi}\int_0^\infty r^2 \exp\left(\frac{-r^2}{2}\right) \, \mathrm dr &\scriptstyle{\text{now re-write the constant}}\\ &= -\frac{1}{\sqrt \pi}\int_{-\infty}^\infty r^2 \frac{1}{\sqrt{2\pi}}\exp\left(\frac{-r^2}{2}\right) \, \mathrm dr &\scriptstyle{\text{and recognize the integral}}\\ &= -\frac{1}{\sqrt \pi}, \end{align} y como W+Z = X_{(1)}+X_{(2)} = X_1+X_2 deducimos que E[Z] = E[X_{1}+X_{2}]-E[W] = 0 - \left(-\frac{1}{\sqrt \pi}\right) = \frac{1}{\sqrt \pi}. De la misma manera, \begin{align} E[W^2] &= \int_{-\infty}^\infty \int_{-\infty}^\infty w^2\cdot f_{W,Z}(w,z)\, \mathrm dz\, \mathrm dw\\ &= \int_0^\infty \int_{\pi/4}^{5\pi/4} r^2\cos^2(\theta)\cdot \frac{1}{\pi} \exp\left(\frac{-r^2}{2}\right)\, r\,\mathrm d\theta \, \mathrm dr &\scriptstyle{\text{change to polar coordinates}}\\ &= \left. \int_0^\infty \frac{2\theta+\sin(2\theta)}{4}\right|_{\pi/4}^{5\pi/4} \cdot \frac{1}{\pi} r^3 \exp\left(\frac{-r^2}{2}\right) \, \mathrm dr\\ &= \frac{1}{2}\int_0^\infty r^3 \exp\left(\frac{-r^2}{2}\right) \, \mathrm dr &\scriptstyle{\text{now set }r^2/2 = t}\\ &= \int_0^\infty t \exp\left(-t\right) \, \mathrm dt \\ &= 1, \end{align} y como W^2+Z^2 = X_{(1)}^2+X_{(2)}^2 = X_1^2+X_2^2 tenemos que E[W^2+Z^2]= 1+E[Z^2]=E[X_1^2+X_2^2]=2 \implies E[Z^2] = E[W^2]=1. De ello se desprende que \operatorname{var}(W) = \operatorname{var}(Z) = 1-\frac{1}{\pi}.

Finalmente, \begin{align} \operatorname{cov}(X_{(1)},X_{(2)})&= \operatorname{cov}(W,Z)\\ &= E[WZ] - E[W]E[Z]\\ &= E[X_1X_2] + \frac{1}{\pi}\\ &= E[X_1]E[X_2] + \frac{1}{\pi}&\scriptstyle{\text{because }X_1~\text{and }X_2~\text{are independent}}\\ &= \frac{1}{\pi} \end{align}


Si X_1 y X_2 se escalan por \sigma y traducido por \mu a iid N(\mu,\sigma^2) Entonces estamos listos para conseguir que E[X_{(1)}] = \mu - \frac{\sigma}{\sqrt{\pi}}, \quad E[X_{(2)}] = \mu + \frac{\sigma}{\sqrt{\pi}}\\ \operatorname{var}(X_{(1)}) = \operatorname{var}(X_{(2)}) = \sigma^2\left(1-\frac{1}{\pi}\right)\\ \operatorname{cov}(X_{(1)},X_{(2)}) = \frac{\sigma^2}{\pi}.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X