3 votos

Tomando el promedio después de noquear al azar a los miembros

Estoy buscando a una variable aleatoria que toma los vectores $\newcommand{\vv}{\mathbf{v}} \vv_1, \dotsc, \vv_n \in \mathbb{R}^d$ y calcula su promedio, después de aplicar el "blankout" ruido para ellos. Así que hemos de Bernoulli independientes variables aleatorias $\xi_1, \dotsc, \xi_n$ con los parámetros de $p(\xi_i = 1) = p_i$. Me multiplicar el $\newcommand{\vv}{\mathbf{v}} \vv_i$ $\xi_i$ y tomar el promedio de los que se mantienen:

$$\newcommand{\vv}{\mathbf{v}} \frac{\xi_1 \vv_1 + \dotsb + \xi_n \vv_n}{\xi_1 + \dotsb + \xi_n}.$$

Esto podría molestarme porque me gustaría estar en la división por cero en el caso trivial en el que tomar el promedio de ninguno de ellos. Supongo que me podría solucionarlo mediante la adición de un maniquí plazo para el denominador que sólo se muestran si todos los $\xi_i$ son cero.

$$\newcommand{\vv}{\mathbf{v}} \frac{\xi_1 \vv_1 + \dotsb + \xi_n \vv_n}{\xi_1 + \dotsb + \xi_n + \prod_i(1 - \xi_i)}.$$

  1. Es allí una manera limpia para calcular la media y la varianza de una cosa*? (Podríamos salir de la $\prod$ plazo, si queremos, y agregar alguna otra revisión.)
  2. Existe una mejor (quizás estándar) de manera de lograr esto? Por ejemplo, puede utilizar las constantes de $a_i>0$ tal que $\mathbb{E}(a_i\xi_i) = \frac1n$, y escribo como

$$\texttt{Avg} \approx \newcommand{\vv}{\mathbf{v}} a_1\xi_1 \vv_1 + \dotsb + a_n \xi_n \vv_n?$$

(Esta cosa tendría fácil media/desviación.)


*Aquí me refiero a la media/varianza tomado a través de la distribución conjunta de las $\xi_i$.)

2voto

Michael Puntos 5270

El "hermoso" los resultados son cuando se los considere el $p_i=p$ todos los $i \in \{1, ..., n\}$ (como en mi comentario anterior), o si consideramos heterogéneo $p_i$ valores pero vamos a $n\rightarrow \infty$. Aquí hay una respuesta que considera $n\rightarrow \infty$.


Reclamo:

Supongamos que $\{\xi_i\}_{i=1}^{\infty}$ es una secuencia de variables aleatorias de Bernoulli independientes con $p_i = P[\xi_i=1]$$i \in \{1, 2, 3, ...\}$, y $$ \liminf_{n\rightarrow\infty} \frac{1}{n}\sum_{i=1}^n p_i > 0$$ Supongamos $\{v_i\}_{i=1}^{\infty}$ es un determinista de la secuencia de vectores en $\mathbb{R}^n$. Supongamos que todos los vectores son limitadas, así que hay un $B\geq 0$ tal que $||v_i||\leq B$ todos los $i \in \{1, 2, 3, ...\}$. Entonces

$$ \lim_{n\rightarrow\infty}\left| \frac{\sum_{i=1}^n\xi_iv_i}{\sum_{i=1}^n \xi_i}-\frac{\sum_{i=1}^{n}p_iv_i}{\sum_{i=1}^np_i} \right| = 0 \quad \mbox{(with prob 1)} $$ En particular, $$ \lim_{n\rightarrow\infty} \frac{\sum_{i=1}^n\xi_iv_i}{\sum_{i=1}^n \xi_i} = \lim_{n\rightarrow\infty} \frac{\sum_{i=1}^{n}p_iv_i}{\sum_{i=1}^np_i} \quad \mbox{(with prob 1)}$$ cuando la derecha del lado del límite existe.


Esto puede ser demostrado con la ayuda de la siguiente lema.

Lema:

Deje $\{Y_i\}_{i=1}^{\infty}$ ser independiente de las variables aleatorias que son, sin duda, acotado por una constante $b\geq 0$, por lo que el $|Y_i|\leq b$ todos los $i \in \{1, 2, 3, ...\}$. Entonces $$ \lim_{n\rightarrow\infty} \left|\frac{1}{n}\sum_{i=1}^n (Y_i-E[Y_i]) \right| = 0 \quad \mbox{(with prob 1)} $$


Prueba de reclamación:

Tanto en $\{\xi_i\}_{i=1}^{\infty}$ $\{\xi_i v_i\}_{i=1}^{\infty}$ son secuencias de independiente delimitadas las variables y por tanto, por el lema (aplicando el lema componente de sabios para el caso de que el vector de secuencia $\{\xi_i v_i\}_{i=1}^{\infty}$): \begin{align} \epsilon_n &:= \frac{1}{n}\sum_{i=1}^n (\xi_iv_i - p_iv_i) \rightarrow 0 \quad \mbox{(with prob 1)} \\ \delta_n &:= \frac{1}{n}\sum_{i=1}^n (\xi_i-p_i) \rightarrow 0 \quad \mbox{(with prob 1)} \end{align} Por lo tanto \begin{align} \left| \frac{\sum_{i=1}^n\xi_iv_i}{\sum_{i=1}^n \xi_i}-\frac{\sum_{i=1}^{n}p_iv_i}{\sum_{i=1}^np_i} \right| &= \left|\frac{\frac{1}{n}\sum_{i=1}^n\xi_iv_i}{\frac{1}{n}\sum_{i=1}^n \xi_i}-\frac{\frac{1}{n}\sum_{i=1}^{n}p_iv_i}{\frac{1}{n}\sum_{i=1}^np_i} \right|\\ &=\left|\frac{\epsilon_n + \frac{1}{n}\sum_{i=1}^np_iv_i}{\delta_n + \frac{1}{n}\sum_{i=1}^n p_i}-\frac{\frac{1}{n}\sum_{i=1}^{n}p_iv_i}{\frac{1}{n}\sum_{i=1}^np_i} \right|\\ &=\frac{|\epsilon_n(\frac{1}{n}\sum_{i=1}^np_i) -\delta_n(\frac{1}{n}\sum_{i=1}^np_iv_i) |}{|(\delta_n + \frac{1}{n}\sum_{i=1}^n p_i)(\frac{1}{n}\sum_{i=1}^np_i)|} \rightarrow 0 \quad \mbox{(with prob 1)} \end{align} donde hemos utilizado el hecho de que el denominador es positivo y apartó desde cero (con prob 1), los términos de $\frac{1}{n}\sum_{i=1}^np_i$ $\frac{1}{n}\sum_{i=1}^np_iv_i$ son acotados, y $\epsilon_n\rightarrow 0$, $\delta_n\rightarrow 0$ con prob 1. $\Box$

2voto

Michael Puntos 5270

Para los fijos $n$ , asuma que $\{v_1, ..., v_n\}$ son vectores en $\mathbb{R}^d$ (para algún número entero positivo $d$ ) con componentes no negativos. Sean variables Bernoulli independientes con $\{\xi_i\}_{i=1}^n$ $p_i=P[\xi_i=1]$ y definir: $$V_n= \left\{ \begin{array}{ll} \frac{\sum_{i=1}^n \xi_i v_i}{\sum_{i=1}^n \xi_i}&\mbox{ if $\sum_ {i=1}^n \xi_i >0 $} \\ 0 & \mbox{ otherwise} \end{array} \right.$$ Definir $K=\sum_{i=1}^n \xi_i$ y $K_i = \sum_{m\in \{1, …, n\}, m \neq i} \xi_m$ para $i \in \{1, ..., n\}$ . Entonces \begin {align} E[V_n] &= \sum_ {k=1}^n E[V_n|K=k]P[K=k] \\ &= \sum_ {k=1}^n \sum_ {i=1}^n \frac {v_i}{k} E[ \xi_i | K=k]P[K=k] \\ &= \sum_ {k=1}^n \sum_ {i=1}^n \frac {v_i}{k}P[ \xi_i =1|K=k]P[K=k] \\ &= \sum_ {k=1}^n \sum_ {i=1}^n \frac {v_i}{k}P[K=k| \xi_i =1]p_i \\ &= \sum_ {i=1}^n p_i v_i \left ( \sum_ {k=1}^n \frac {1}{k}P[K_i=k-1] \right ) \\ &= \sum_ {i=1}^n p_i v_i E \left [ \frac {1}{1+K_i} \right ] \\ & \geq \sum_ {i=1}^n p_i v_i \frac {1}{1+E[K_i]} \quad \mbox {(desigualdad de Jensen)} \\ &= \sum_ {i=1}^n \frac {p_i v_i}{1 + \sum_ {m \in 1, n\\Nde la misma manera, m \neq i} p_m} \end {align} El límite inferior es interesante porque tiene una forma similar a: $$ r_n := \frac{\sum_{i=1}^n p_iv_i}{\sum_{i=1}^n p_i}$$ y sabemos por la otra respuesta que, bajo suposiciones leves, $\lim_{n\rightarrow\infty} V_n = \lim_{n\rightarrow\infty}r_n$ con probabilidad 1. De hecho, bajo esos mismos supuestos suaves, el límite inferior también converge a $\lim_{n\rightarrow\infty} r_n$ y por lo tanto el límite inferior es asintóticamente exacto.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X