Para empezar, su enfoque no tiene mucho sentido, porque -como Eupraxis1981'says - no está acondicionado en un evento al azar.
De manera informal: ¿qué sabe usted acerca de la variable aleatoria ocurrencia (es decir, algo sobre el valor de $X$) es una cosa, lo que usted sabe acerca de la probabilidad de la ley de $X$ (es decir, algo acerca de la densidad de $f_X(\cdot)$) es otra cosa completamente diferente, y que no se pueden mezclar. Cuando usted escribe $E(X)$, por ejemplo, se está suponiendo implícitamente que usted no sabe nada acerca de (el valor de esta "realización" de) $X$, pero que usted sabe todo acerca de la probabilidad de la ley de $X$ (es decir, $f_X(X)$ ir $F_X(x)$).
Por lo tanto, no tiene sentido añadir un poco de "condición" en la $E(X|A)$ donde $A$ es un suceso que nos da información acerca de $f_X()$: nosotros ya lo sabía.
Una vez que usted entiende que la información anterior es verdadera sólo entonces usted puede tomar el siguiente paso hacia la probabilidad Bayesiana, y aprender que la de arriba es tal vez no es tan cierto :-) me refiero a que en ese enfoque, usted puede mezclar (hacer la mezcla) de la variable aleatoria con los parámetros de su pdf (función de densidad de probabilidad). Porque aquí uno se refiere a los parámetros de un archivo pdf como variables aleatorias a sí mismos, y por lo $E(X | \mu >0)$ podría tener algún sentido. Pero esto requiere una cierta comprendiendo y consideración.
Por ejemplo: supppose "sabemos" (esta palabra se convierte en algo complicado en el Bayesiano) que una variable $X$ sigue una Gaussiana pdf con la unidad de la varianza; pero no sabemos la media de $\mu$, sólo "saber" (que"a priori") $\mu$ puede tomar cualquier valor en $[-5,5]$ (más formalmente $p(\mu) \approx U(-5,5)$) Esto es para decir que lo que sigue una distribución de Gauss es, en realidad, no $X$ solo, sino $X$ "(condicionado a) el valor de $\mu$". Pero $p(x)$ sí no es gaussiana; en realidad se pueden calcular como $p(X) = \int p(X |\mu) p(\mu) d\mu=\frac{1}{10} \int p(X |\mu) d\mu$ y a partir de esto podemos calcular el "incondicionado" expectativa $E(X)$ (que en nuestro ejemplo, por simetría, sería 0).
Ahora, si se nos da (además de la de arriba) la información $I \equiv\mu >0$, entonces nuestro nuevo $p(\mu | I)$ es un truncado de la densidad, que en nuestro caso es uniforme en $[0,5]$. Y ahora tendríamos un nuevo $p(X|I)$ $E(X|I)>0$