4 votos

Valor esperado del error de medición para el máximo.

Supongamos que tenemos $n$ independiente e idénticamente distribuidas variables $X_1, \cdots, X_n$ , que observamos con cero significa que el error de medición. Más precisamente, observamos $X^*_i = X_i + U_i$ donde los errores $U_1, \cdots, U_n$ son de forma independiente e idénticamente distribuidas, $E[U_i] = 0$ y cada una de las $U_i$ es independiente de todos los $X_i$. Necesito mostrar que $$E[U_i \mid X^*_i \geq X^*_j \hspace{0.1cm}\forall j] \geq 0.$$

Intuitivamente, esto es obvio: una razón por la $X_i + U_i$ podría ser máxima es que $U_i$ es alto, lo que a su vez sugiere que el valor esperado de $U_i$ es elevado dado que $X_i + U_i$ es máxima. Sin embargo, estoy luchando para mostrar esta formalmente y agradecería algo de ayuda.

Aquí está mi "progreso" hasta ahora (puede que se me han complicado en exceso asuntos, si es así por favor me apunte hacia un mejor camino a seguir):

  1. En primer lugar, quiero señalar que por el teorema de Bayes, podemos escribir la densidad de $U$ dado que $X + U$ toma algún valor particular $c$:\begin{align*} f_{U \mid U+X=c}(u) &= \frac{f_{U+X}(c \mid U=u)f_U(u)}{f_{U+X}(c)} = \frac{f_{X}(c-u)f_U(u)}{f_{U+X}(c)}\\ &= \frac{f_X(c-u)f_U(u)}{\displaystyle \int_{-\infty}^{\infty}f_U(k)f_X(c-k)\,\mathrm{d}k}. \end{align*}

  2. A partir de esto, puedo obtener el valor esperado de $U$ dado que $X+U=c$: $$E[U \mid U+X=c]= \int_{\underline{u}}^{\bar{u}}f_{U \mid U+X=c}(u)u\,\mathrm{d}u = \int_{\underline{u}}^{\bar{u}}\frac{f_X(c-u)f_U(u)}{\displaystyle\int_{-\infty}^{\infty}f_U(k)f_X(c-k)\,\mathrm{d}k}(u)u\,\mathrm{d}u,$$ donde $\bar{u}$ e $\underline{u}$ enlazado con el apoyo de $U$ (voy a suponer que un número finito de apoyo, pero es de suponer que el argumento pasa a través sin esta suposición?)

  3. Esto nos dice que el valor esperado de $U_i$ dado que $X_i + U_i = c$. Sin embargo, quería saber el valor esperado de $U_i$ dado que $X_i + U_i$ es máxima. Afortunadamente, sabemos que la distribución de $X_i + U_i$ dado que es maximal, es decir, la distribución de la más alta orden de estadística " de $X_i + U_i$: $$f_{X + U \mid X + U \text{ is maximal}}(c) = \left(\int_{-\infty}^{\infty}f_U(k)f_X(c-k)\,\mathrm{d}k\right)^n.$$

  4. Por la ley de expectativas iteradas, obtenemos así:\begin{align*} &\mathrel{\phantom{=}}{} E[U_i \mid X^*_i \geq X^*_j\ \forall j]\\ &= \int{E[U \mid U+X=c]}f_{X+U \mid X + U \text{ is maximal}}(c)\,\mathrm{d}c\\ &= \int\Biggl(\int_{\underline{u}}^{\bar{u}}\frac{f_X(c-u)f_U(u)}{\displaystyle\int_{-\infty}^{\infty}f_U(k)f_X(c-k)\,\mathrm{d}k}u\,\mathrm{d}u\Biggr)\left(\int_{-\infty}^{\infty}f_U(k)f_X(c-k)\,\mathrm{d}k\right)^n \,\mathrm{d}c \end{align*}

Por ello, parece que he encontrado la expresión, yo después. Sin embargo, al mirar esta bastante complicado expresión, veo que no hay manera de demostrar que no es negativo (el punto central de todo el ejercicio!) Si usted puede ver un camino, o se puede pensar en un enfoque más sencillo que el que he adoptado, por favor hágamelo saber.

Gracias de nuevo por adelantado!

1voto

Alex Franko Puntos 89

$\def\Ω{{\mit Ω}}\def\aseq{\stackrel{\mathrm{a.s.}}{=}}\def\d{\mathrm{d}}$Lema 1: Dado que $X, Y: (\Ω, \mathscr{F}, P) → (\mathbb{R}, \mathscr{B}(\mathbb{R}))$ son independientes. Para cualquier $C \in \mathscr{B}(\mathbb{R}^2)$, definir $g(x) = E(I_C(x, Y)) = P((x, Y) \in C)\ (x \in \mathbb{R})$, entonces$$ P((X, Y) \in C \mid X) = E(I_C(X, Y) \mid X) \aseq g(X). $$

Prueba: Definir $\mathscr{G} = \{C \in \mathscr{B}(\mathbb{R}^2) \mid \text{If } g(x) = E(I_C(x, Y)) \text{, then } E(I_C(X, Y) \mid X) \aseq g(X)\}$. Para cualquier $A, B \in \mathscr{B}(\mathbb{R})$, debido a $I_B(Y) = I_{\{Y \in B\}}$ es independiente de $X$, entonces$$ E(I_{A × B}(X, Y) \mid X) = E(I_A(X) I_B(Y) \mid X) \aseq I_A(X) E(I_B(Y) \mid X) \aseq I_A(X) E(I_B(Y)). $$ Para $x \in \mathbb{R}$, tenga en cuenta que $I_A(x)$ es una constante, por lo tanto$$ E(I_{A × B}(x, Y)) = E(I_A(x) I_B(Y)) = I_A(x) E(I_B(Y)). $$ Por lo tanto, $A × B \in \mathscr{G}$. Tenga en cuenta que $σ(\mathscr{B}(\mathbb{R}) × \mathscr{B}(\mathbb{R})) = \mathscr{B}(\mathbb{R}^2)$, y es fácil comprobar que $\mathscr{G}$ es una sigma-álgebra, lo $\mathscr{B}(\mathbb{R}) × \mathscr{B}(\mathbb{R}) \subseteq \mathscr{G}$ implica que $\mathscr{G} = \mathscr{B}(\mathbb{R}^2)$.

Lema 2: Si la variable aleatoria $X$ satisface $E(X) = 0$ e $g$ es una función creciente, a continuación, $E(X g(X)) \geqslant 0$.

Prueba: Bajo las condiciones dadas,\begin{align*} E(X g(X)) &= \int\limits_{\Ω} X g(X) \,\d P = \int\limits_{\{X > 0\}} X g(X) \,\d P - \int\limits_{\{X < 0\}} (-X) g(X) \,\d P\\ &\geqslant \int\limits_{\{X > 0\}} X g(0) \,\d P - \int\limits_{\{X < 0\}} (-X) g(0) \,\d P = g(0) E(X) = 0. \end{align*}

Ahora, de vuelta al problema. Suponga que en lugar de que $X_1, \cdots, X_n$ son independientes (no necesariamente yo.yo.d.), $U_1, \cdots, U_n$ son independientes (de nuevo, no necesariamente yo.yo.d.) con $E(U_k) = 0$ para $1 \leqslant k \leqslant n$, e $σ(X_1, \cdots, X_n)$ e $σ(U_1, \cdots, U_n)$ son independientes.

Tenga en cuenta que$$ A_i := \{X_i + U_i = \max\limits_{1 \leqslant j \leqslant n} (X_j + U_j)\} = \{X_i + U_i \geqslant \max\limits_{j ≠ i} (X_j + U_j)\}. $$ Definir$$ g(u) = P(X_i + u \geqslant \max\limits_{j ≠ i} (X_j + U_j)), $$ a continuación, $g$ es cada vez mayor. Por el lema 1 y el lema 2,$$ E(U_i I_{A_i}) = E(E(U_i I_{A_i} \mediados de U_i)) = E(U_i E(I_{A_i} \mediados de U_i)) = E(U_i g(U_i)) \geqslant 0, $$ por lo tanto $E(U_i \mid A_i) = \dfrac{E(U_i I_{A_i})}{P(A_i)} \geqslant 0$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X