18 votos

¿Valor esperado es un operador lineal? ¿Bajo qué condiciones mediana también es un operador lineal?

Siempre he dado por sentado que el valor esperado es un operador lineal. Para cualquier variables aleatorias$X$ y$Y$:$E(aX + bY) = aE(X) + bE(Y)$. ¿Alguien puede apuntar a una prueba rigurosa de esto?

Además, sé que por lo general la mediana$Med()$ no es un operador lineal, es decir,$Med(aX + bY)$ podría no ser igual al$a Med(X) + b Med(Y)$. ¿Existen criterios de absoluta / reglas cuando$Med$ es un operador lineal, y cuando no lo es?

15voto

Anderson Imes Puntos 18093

Primera pregunta: Por definición, en un espacio de probabilidad ($\Omega,\mathcal{F},P$), el valor esperado de una variable aleatoria$X:\Omega\to \mathbb{R}$ se define como$$E(X)=\int_\Omega X(\omega) dP(\omega).$$ Note that it is only well-defined if the integral converges absolutely, i.e. $$\int_\Omega |X(\omega)| dP(\omega)<\infty$ $

(Las integrales anteriores son las integrales de Lebesgue. Si$X$ es discreta,$P$ es la medida de punto y esta integral se convierte en una suma.)

Por lo tanto, si existen los valores esperados de ambas$X$ y$Y$, entonces$E(X+Y)$ existe (desigualdad triangular) y, por$a,b\in \mathbb{R}$, podemos usar la linealidad de la integral de Lebesgue para concluir$$E(aX+bY)=\int_\Omega aX +bYdP=a\int_\Omega X dP+b\int_\Omega YdP=aE(X)+bE(Y).$ $

5voto

Una interfaz intuitiva y muy informal (no mires para matemáticas rigor aquí) argumento de la linealidad de la expectativa de operador, inspirado en gran medida por la formulación de Meyer y Rubinmdld y de alguna manera la reformulación de Troya del argumento en términos discretos.

  • Supongamos que tenemos un conjunto de estados posibles del mundo,$S$.
  • Vamos a tener una asignación de $Pr : S \rightarrow [0,1]$, que se asocian a cada estado del mundo,$s\in S$, con una probabilidad de $Pr(s)$ (con condiciones normales en la probabilidad de asignaciones de la aplicación de a $Pr(\cdot)$).
  • Deje $R_1$ $R_2$ ser variables aleatorias, que toman valores reales en cada estado del mundo,$s\in S$.
  • Deje $T$, otra variable aleatoria toma valores en $s\in S$, a ser definido por la $T = R_1 + R_2$ .

Entonces tenemos:

$$E[T] = \sum_{s\in S} T(s) Pr(s)$$ $$~~~~~~~~~~~~~~~~~~~~~~~~~~= \sum_{s\in S} [R_1(s) + R_2(s)] Pr(s)$$ $$~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~= \sum_{s\in S} [R_1(s) Pr(s)] + \sum_{s\in S} [R_2(s) Pr(s)]$$ $$~~~~~~~~~~~~= E[R_1] + E[R_2]$$

4voto

Mingo Puntos 126

EXTENDED/REVISADO RESPUESTA

Algunos puntos generales en cuanto a la segunda pregunta. Por definición, $m$ es una media de $X$ si ${\rm P}(X \ge m) \geq 1/2$${\rm P}(X \le m) \geq 1/2$. Mientras que la mediana se determina únicamente para cualquier ejemplo común de una variable aleatoria continua, no se determina únicamente en general. Por ejemplo, cualquier número $m \in [-1,1]$ es un medio para la variable aleatoria $X$${\rm P}(X=1) = {\rm P}(X=-1) = 1/2$. De ahí mi anterior respuesta a esta pregunta (ver más abajo), donde supuse que $m(X)=0$ desde $X$ es simétrica, debe ser revisado. Esto se hace simplemente de la siguiente manera. Definimos $X$ $Y$ exactamente igual que antes, e introducir otra variable aleatoria $\tilde X$ definida para ser igual a $X$ con una probabilidad de $1-1/n$ $0$ con una probabilidad de $1/n$. Es inmediato comprobar que el simétrico de variables aleatorias $\tilde X$ $Y$ tienen una mediana igual a $0$. Por lo tanto $m(\tilde X) + m(Y) = 0$, según se requiera. Por otro lado, se comprueba que ${\rm P}(\tilde X + Y = 1) \to 3/4$ $n \to \infty$ (cf. mi respuesta anterior), lo que implica que $\tilde X + Y$ tiene un único mediana, igual a $1$. Por eso, $m(\tilde X + Y) \neq m(\tilde X) + m(Y)$, según se requiera.

En vista de este ejemplo, podemos ahora dar un contraejemplo para el caso de que $X$ $Y$ son independientes. Deje $X$ $Y$ ser yo.yo.d. variables aleatorias con el común de la función de masa de probabilidad dada por $p(2)= p(-1) = \frac{1}{2}(1 - \frac{1}{n})$, $p(0) = \frac{1}{n}$. A continuación, $X$ $Y$ tienen una mediana igual a $0$. Por otro lado, se verifica que tanto ${\rm P}(X+Y \geq 1)$ ${\rm P}(X+Y \leq 1)$ tienden a $3/4$$n \to \infty$; por lo tanto, $X + Y$ tiene un único mediana, igual a $1$. Por eso, $m(X + Y) \neq m(X) + m(Y)$, según se requiera.

En vista de los ejemplos anteriores, finalmente, considere el caso donde $X$ $Y$ son simétricas e independiente. Suponiendo que ambos $X$ $Y$ tiene un único mediana, que obviamente debe ser igual a $0$. Para cualquier número fijo $a$ y $b$, $aX + bY$ también es simétrica. Por otra parte, $aX + bY$ tiene un único mediana, igual a $0$. Esto puede llevarse a cabo de forma directa, al observar que el ${\rm P}(X \in (-\varepsilon,\varepsilon), Y \in (-\varepsilon,\varepsilon)) > 0$ cualquier $\varepsilon > 0$. Por lo tanto, $m(aX+bY)=am(X)+bm(Y)=0$. A partir de esto, es fácil establecer la siguiente generalización. Supongamos que $X$ $Y$ son independientes y simétrica alrededor de puntos arbitrarios, decir $m_1$$m_2$, respectivamente. Se supone que ambas $X$ $Y$ tiene un único mediana (estos medianas son necesariamente dado por $m(X)=m_1$$m(Y)=m_2$). Entonces, para cualquier número fijo $a$ y $b$, $m(aX+bY)$ tiene un único mediana, igual a $am(X)+bm(Y)=am_1+bm_2$.

RESPUESTA ANTERIOR

Para la segunda pregunta, vamos a mostrar que, incluso si $X$ $Y$ son simétricas variables aleatorias, a continuación, $m(X+Y)$ puede ser diferente de la $m(X)+m(Y)$ (donde $m$ denota la mediana). Supongamos que ${\rm P}(X=1) = {\rm P}(X=-1) = 1/2$; por lo tanto $X$ es simétrica. Definir $Y$ como sigue: si $X=1$$Y=0$, mientras que si $X=-1$ $Y=2$ o $-2$ con una probabilidad de $1/2$ cada uno. Entonces, ${\rm P}(Y=0)=1/2$, ${\rm P}(Y=2)=1/4$, y ${\rm P}(Y=-2)=1/4$. Por lo tanto $Y$ es simétrica y, a su vez, $m(X)+m(Y)=0+0=0$. Sin embargo, ${\rm P}(X+Y=1) = 3/4$ (e ${\rm P}(X+Y=-3) = 1/4)$. En particular, $m(X+Y)=1$ (desde ${\rm P}(X+Y=1) \geq 1/2$).

3voto

Mingo Puntos 126

Intuitiva (y algo informal) justificación de la linealidad de las expectativas. Suponga que las variables aleatorias $X$ $Y$ tiene la expectativa ${\rm E}(X)$${\rm E}(Y)$, respectivamente. Supongamos también que $(X_n,Y_n)$ es una secuencia de yo.yo.d. al azar vectores que tengan el (conjunta) de distribución de $(X,Y)$. Entonces, en particular,, $X_n$, $Y_n$, y $aX_n + bY_n$ son secuencias de yo.yo.d. variables aleatorias tener la distribución de $X$, $Y$, y $aX + bY$, respectivamente. Así, a partir de $$ un{\rm E}(X) + b{\rm E}(Y) \stackrel{{\rm una.s.}}{ = }\mathop {\lim }\limits_{n \to \infty } \frac{{\sum\nolimits_{i = 1}^n {X_i } }}{n} + b\mathop {\lim }\limits_{n \to \infty } \frac{{\sum\nolimits_{i = 1}^n {Y_i } }}{n}, $$ llegamos a la conclusión de que $$ {\rm E}(aX + bY) \stackrel{{\rm una.s.}}{=} \mathop {\lim }\limits_{n \to \infty } \frac{{\sum\nolimits_{i = 1}^n {(aX_i + bY_i )} }}{n} \stackrel{{\rm una.s.}}{=} un{\rm E}(X) + b{\rm E}(Y), $$
donde $\stackrel{{\rm a.s.}}{=}$ es sinónimo de "casi seguramente igual', y donde hemos utilizado el fuerte de la ley de los grandes números, es decir, si $Z_n$ es una secuencia de yo.yo.d. variables aleatorias tener la distribución de una variable aleatoria $Z$ finitos expectativa,${\rm E}(Z) \stackrel{{\rm a.s.}}{=} \mathop {\lim }\limits_{n \to \infty } \frac{{\sum\nolimits_{i = 1}^n {Z_i } }}{n}$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X