4 votos

Acondicionado en la información acerca de los momentos de una variable aleatoria es trivial

Decir que tiene cierta variable aleatoria, $X$. Es siempre trivial a condición de en la información sobre los momentos de $X$?

Por ejemplo, supongamos que sabemos que $\mathbb{E}(X)$ es positivo. Pero $\mathbb{E}\left(X|\mathbb{E}(X)>0\right)=\mathbb{E}(X)$ desde el cosa que en el condicionamiento conjunto es sólo un genérico de hecho se trata de una constante.

Mismo es cierto para $X,Y$ tienen algunos de distribución conjunta. $\mathbb{E}(X|\mathbb{E}(X)>\mathbb{E}(Y))=\mathbb{E}(X)$.

2voto

palehorse Puntos 8268

Para empezar, su enfoque no tiene mucho sentido, porque -como Eupraxis1981'says - no está acondicionado en un evento al azar.

De manera informal: ¿qué sabe usted acerca de la variable aleatoria ocurrencia (es decir, algo sobre el valor de $X$) es una cosa, lo que usted sabe acerca de la probabilidad de la ley de $X$ (es decir, algo acerca de la densidad de $f_X(\cdot)$) es otra cosa completamente diferente, y que no se pueden mezclar. Cuando usted escribe $E(X)$, por ejemplo, se está suponiendo implícitamente que usted no sabe nada acerca de (el valor de esta "realización" de) $X$, pero que usted sabe todo acerca de la probabilidad de la ley de $X$ (es decir, $f_X(X)$ ir $F_X(x)$). Por lo tanto, no tiene sentido añadir un poco de "condición" en la $E(X|A)$ donde $A$ es un suceso que nos da información acerca de $f_X()$: nosotros ya lo sabía.

Una vez que usted entiende que la información anterior es verdadera sólo entonces usted puede tomar el siguiente paso hacia la probabilidad Bayesiana, y aprender que la de arriba es tal vez no es tan cierto :-) me refiero a que en ese enfoque, usted puede mezclar (hacer la mezcla) de la variable aleatoria con los parámetros de su pdf (función de densidad de probabilidad). Porque aquí uno se refiere a los parámetros de un archivo pdf como variables aleatorias a sí mismos, y por lo $E(X | \mu >0)$ podría tener algún sentido. Pero esto requiere una cierta comprendiendo y consideración.

Por ejemplo: supppose "sabemos" (esta palabra se convierte en algo complicado en el Bayesiano) que una variable $X$ sigue una Gaussiana pdf con la unidad de la varianza; pero no sabemos la media de $\mu$, sólo "saber" (que"a priori") $\mu$ puede tomar cualquier valor en $[-5,5]$ (más formalmente $p(\mu) \approx U(-5,5)$) Esto es para decir que lo que sigue una distribución de Gauss es, en realidad, no $X$ solo, sino $X$ "(condicionado a) el valor de $\mu$". Pero $p(x)$ sí no es gaussiana; en realidad se pueden calcular como $p(X) = \int p(X |\mu) p(\mu) d\mu=\frac{1}{10} \int p(X |\mu) d\mu$ y a partir de esto podemos calcular el "incondicionado" expectativa $E(X)$ (que en nuestro ejemplo, por simetría, sería 0).

Ahora, si se nos da (además de la de arriba) la información $I \equiv\mu >0$, entonces nuestro nuevo $p(\mu | I)$ es un truncado de la densidad, que en nuestro caso es uniforme en $[0,5]$. Y ahora tendríamos un nuevo $p(X|I)$ $E(X|I)>0$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X