Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

7 votos

Tratando de entender el comportamiento de i.i.d.

En un curso de introducción a la probabilidad teorema estamos cubriendo ahora yo.yo.d. (independientes e idénticamente distribuidas variables aleatorias). Ya sé que cuando las dos variables son independientes: X,Y son independientes si P(Xa,Yb)=P(Xa)P(Yb) para todas las opciones posibles de a,b.

La siguiente definición viene de la Wikipedia:

En la teoría de la probabilidad y de la estadística, una secuencia o de otra colección de variables aleatorias es independiente e idénticamente distribuidas (me.yo.d.) si cada variable aleatoria tiene la misma distribución de probabilidad como los otros y todos son mutuamente independientes.

¿Qué significa "la misma distribución de probabilidad"? Que P(Xa)=P(ya) (suponiendo que estamos interesados en sólo dos variables aleatorias, XY)? Lo que son (no es necesario interesante) ejemplos de yo.yo.d. las variables, que no son discretos?

Este ejercicio ha dado lugar a serias dudas con respecto a la comprensión de las variables aleatorias:

14. Deje X,Y tienen la misma distribución de probabilidad. Es cierto que E[XX+Y]=E[YX+Y]?

Al principio pensé que la respuesta afirmativa si, pero he escuchado que hay un contraejemplo (que no encuentro). Si es negativo, lo que está mal con mi intuición detrás de estas igualdades?

3voto

Robert Christie Puntos 7323

Muy buenas preguntas.

Si X Y tienen la misma distribución de probabilidad, que para cada z, Pr A continuación, X Y son idénticamente distribuidas. Tenga en cuenta que esto no implica la independencia. Un ejemplo clásico sería binormally distribuido vector de (X,Y) \sim \mathcal{BN}\left(\rho\right): f_{X,Y}\left(x,y\right) = \frac{1}{2\pi} \frac{1}{\sqrt{1-\rho^2}} \exp\left(-\frac{1}{2} \frac{x^2+y^2 + 2 \rho x y}{1-\rho^2}\right) Es sencillo mostrar que f_X(z) = f_Y(z) = \frac{1}{2\pi}\exp\left(-\frac{1}{2} z^2\right), sin embargo, X Y no son independientes, de hecho \mathbb{E}\left(X Y\right) = \rho \= \mathbb{E}\left(X\right) \mathbb{E}\left Y\right) = 0 a menos \rho = 0.

Respecto a su segunda pregunta, la igualdad de \mathbb{E}\left(\frac{X}{X+Y}\right) = \mathbb{E}\left(\frac{Y}{X+Y}\right) requiere de intercambiabilidad, es decir, f_{X,Y}\left(x,y\right) = f_{X,Y}\left(y,x\right) todos los xy, que no sigue a partir de las distribuciones idénticas de XY.

He utilizado Mathematica para construir un contra-ejemplo. Deje (X,Y) ser un par de discretas variables aleatorias de 1 a 3, con la siguiente función de masa de probabilidad:

p_{X,Y}\left(x,y\right) = \begin{cases} \frac{1}{17} & (x=2\land y=2)\lor (x=2\land y=1) \\ \frac{14}{51} & (x=2\land y=3)\lor (x=3\land y=1) \\ \frac{1}{3} & x=1\land y=2 \end{casos}

Aquí está cómo lo hice (código para esto puede ser recuperado a partir de pastebin).

En primer lugar, defina una costumbre de distribución de más de tuplas de números enteros de 1 a 3:

p = EmpiricalDistribution[Array[pr, 3^2] -> Tuples[Range[3], 2]];

Ahora, la solicitud de que marginal Cdf son el mismo, y, sin embargo, las expectativas son diferentes:

In[58]:= {inst} = 
 FindInstance[
  sol = Reduce[
    ForAll[x, 
      CDF[MarginalDistribution[dist, 1], x] == 
       CDF[MarginalDistribution[dist, 2], x]] && 
     DistributionParameterAssumptions[dist] && 
     Array[0 <= pr[#] <= 1 &, 3^2, 1, And] && 
     Expectation[x/(x + y), {x, y} \[Distributed] dist] != 
      Expectation[y/(x + y), {x, y} \[Distributed] dist], Reals], 
  Array[pr, 3^2]]

Out[58]= {{pr[1] -> 0, pr[2] -> 1, pr[3] -> 0, pr[4] -> 3/17, 
  pr[5] -> 3/17, pr[6] -> 14/17, pr[7] -> 14/17, pr[8] -> 0, 
  pr[9] -> 0}}

Mostrar la función de masa de probabilidad:

In[62]:= PiecewiseExpand[PDF[counterExampleDist = dist /. inst, {x, y}]]

Out[62]= Piecewise[{{1/
    17, (x == 2 && y == 2) || (x == 2 && y == 1)}, {14/
    51, (x == 2 && y == 3) || (x == 3 && y == 1)}, {1/3, 
   x == 1 && y == 2}}, 0]

Ahora compruebe:

In[63]:= {CDF[MarginalDistribution[counterExampleDist, 1], x], 
 CDF[MarginalDistribution[counterExampleDist, 2], x]}

Out[63]= {1/3 Boole[1 <= x] + 20/51 Boole[2 <= x] + 
  14/51 Boole[3 <= x], 
 1/3 Boole[1 <= x] + 20/51 Boole[2 <= x] + 14/51 Boole[3 <= x]}

In[64]:= {Expectation[x/(
  x + y), {x, y} \[Distributed] counterExampleDist], 
 Expectation[y/(x + y), {x, y} \[Distributed] counterExampleDist]}

Out[64]= {379/765, 386/765}

enter image description here

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X