3 votos

Proporción esperada de variables aleatorias

En el caso de variables aleatorias no negativas $X_i$ son i.i.d tenemos $$\mathbb{E}\frac{X_i}{X_1+\dots+X_n} = \frac{1}{n}.$$ ¿Qué puede decirse en el caso no idéntico? En concreto, si $X_i\geq 0$ son independientes (pero no idénticamente distribuidos), ¿podemos decir que $$\mathbb{E}\frac{X_i}{X_1+\dots+X_n}$$ está cerca de $$\frac{\mathbb{E}X_i}{\mathbb{E}X_1 + \dots + \mathbb{E}X_n}$$ en, digamos, valor absoluto (donde esto podría depender de la varianza del $X_i$ )? Tenga en cuenta que si $X_i\sim\text{Gamma}(\alpha_i,1)$ esto se cumple con igualdad.

3voto

Mike Puntos 71

Para $\epsilon,K>0$ deje $$ X_1 = \begin{cases} 2 & \text{with prob. } \tfrac{1}{2},\\ 2\epsilon & \text{with prob. } \tfrac{1}{2}, \end{cases}\qquad X_2 = \begin{cases} K & \text{with prob. } \tfrac{1+\epsilon}{K},\\ 0 & \text{otherwise.} \end{cases} $$ Entonces $\mathbb{E} X_1 = \mathbb{E} X_2 = 1+\epsilon$ pero $$ \biggl|\mathbb{E}\frac{X_1}{X_1 + X_2} - \frac{\mathbb{E}X_1}{\mathbb{E}X_1 + \mathbb{E}X_2}\biggr| \geq \bigl|\tfrac{1}{2} - \tfrac{1+\epsilon}{K}\bigr| \to \frac{1}{2} $$ como $K\to\infty$ .

0voto

Yusuf Puntos 106

$\newcommand\E{\mathbb{E}}$ Denote $\sigma_i = \E|X_i - \E X_i|$ , $X_{-k} = X_1 + \dots + X_{k-1} + X_{k+1} + \dots + X_n$ y asumir $X_i>0$ casi seguro. Podemos demostrar la siguiente desigualdad parecida a la de Efron-Stein, con límites más agradables si se nos garantiza $X_i\geq m>0$ casi seguro: $$ \biggl|\E\biggl[\frac{X_i}{X_1+\dots+X_n}\biggr] - \frac{\E X_i}{\E X_1 + \dots + \E X_n}\biggr| \leq \sum_{j=1}^n \E\frac{\sigma_j}{X_{-j}} \leq \frac{1}{(n-1)m}\sum_{j=1}^n\sigma_j $$ y un poco más ajustado $\ell^1$ para el vector simplex correspondiente $$ \biggl\|\E\biggl[\frac{X_i}{X_1+\dots+X_n}\biggr] - \frac{\E X_i}{\E X_1 + \dots + \E X_n}\biggr\|_1 \leq 2\sum_{j=1}^n \E\frac{\sigma_j}{X_{-j}} \leq \frac{2}{(n-1)m}\sum_{j=1}^n\sigma_j $$ Esperemos que alguien pueda delimitar esto en términos de $\E X_j$ en lugar del recíproco esperado, así que no lo aceptaré durante un tiempo.

Prueba. Compute $$ \begin{align*} \E\biggl[\frac{X_i}{X_1+\dots+X_n}\biggr] - \frac{\E X_i}{\E X_1 + \dots + \E X_n} &= \E\biggl[\frac{X_i(\E X_1+\dots + \E X_n) - (X_1+\dots+X_n)\E X_i}{(X_1+\dots+X_n)(\E X_1 + \dots + \E X_n)}\biggr]\\ &= \E\biggl[\frac{\sum_{j\neq i}X_i\E X_j - X_j\E X_i}{(X_1+\dots+X_n)(\E X_1 + \dots + \E X_n)}\biggr]\\ &= \frac{1}{\E X_1 + \dots + \E X_n}\sum_{j\neq i} \E\biggl[\frac{X_i\E X_j - X_j \E X_i} {X_1 + \dots + X_n}\biggr]. \end{align*} $$ Utilizando Jensen podemos acotar $$ \begin{align*} \biggl|\E\frac{X_i\E X_j - X_j \E X_i}{X_1 + \dots + X_n}\biggr| &\leq \E\frac{|X_i\E X_j - X_j \E X_i|}{X_1 + \dots + X_n}\\ &\leq \E\frac{|X_i - \E X_i|\E X_j + |X_j - \E X_j|\E X_i}{X_1 + \dots + X_n} \end{align*} $$ y, por no negatividad e independencia, $$ \begin{align*} \E\frac{|X_i - \E X_i|\E X_j}{X_1 + \dots + X_n} &\leq \E\frac{|X_i - \E X_i|\E X_j}{X_1 + \dots + X_{i-1} + X_{i+1} + \dots + X_n}\\ &= \E\frac{\E |X_i - \E X_i| \E X_j}{X_1 + \dots + X_{i-1} + X_{i+1} + \dots + X_n}\\ &= \E\frac{\sigma_i \E X_j}{X_1 + \dots + X_{i-1} + X_{i+1} + \dots + X_n}. \end{align*} $$ Por lo tanto $$ \begin{align*} \biggl|\E\biggl[\frac{X_i}{X_1+\dots+X_n}\biggr] - \frac{\E X_i}{\E X_1 + \dots + \E X_n}\biggr| \leq \E\frac{\sigma_i}{X_{-i}} + \frac{\E X_i}{\E X_1 + \dots + \E X_n}\sum_{j\neq i} \E\frac{\sigma_j}{X_{-j}}\leq \sum_{j=1}^n \E\frac{\sigma_j}{X_{-j}}. \end{align*} $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X