59 votos

Sorprendentes aplicaciones de la linealidad de las expectativas

La linealidad de la expectativa es una afirmación muy simple y "obvia", pero tiene muchas aplicaciones no triviales, por ejemplo, para analizar algoritmos aleatorios (por ejemplo, el el problema del coleccionista de cupones ), o en algunas pruebas en las que tratar con variables aleatorias no independientes haría que cualquier cálculo resultara desalentador.

¿Cuáles son las aplicaciones más limpias, elegantes o llamativas de la linealidad de las expectativas que ha encontrado?

44voto

jlammy Puntos 21

La aguja de Buffon: gobernar una superficie con líneas paralelas a una distancia $d$ aparte. ¿Cuál es la probabilidad de que una aguja de longitud $\ell\leq d$ cruza una línea?

Considere la posibilidad de abandonar cualquier curva (continua) de longitud $\ell$ en la superficie. Imagina dividir la curva en $N$ segmentos de línea recta, cada uno de longitud $\ell/N$ . Sea $X_i$ sea el indicador del $i$ -ésimo segmento que cruza una línea. Entonces, si $X$ es el número total de veces que la curva cruza una línea, $$\mathbb E[X]=\mathbb E\left[\sum X_i\right]=\sum\mathbb E[X_i]=N\cdot\mathbb E[X_1].$$ Es decir, el número esperado de cruces es proporcional a la longitud de la curva (e independiente de la forma).

Ahora tenemos que fijar la constante de proporcionalidad. Tomemos la curva como un círculo de diámetro $d$ . Casi con toda seguridad, esta curva cruzará una línea dos veces. La longitud del círculo es $\pi d$ por lo que una curva de longitud $\ell$ cruza una línea $\frac{2\ell}{\pi d}$ veces.

Ahora observa que una aguja recta de longitud $\ell\leq d$ puede cruzar una línea $0$ o $1$ veces. Así que la probabilidad de que cruce una línea es precisamente este valor de expectativa $\frac{2\ell}{\pi d}$ .

24voto

Clement C. Puntos 16603

En lulu mencionado en un comentario, el hecho de que una permutación uniformemente aleatoria $\pi\colon\{1,2,\dots,n\}\to\{1,2,\dots,n\}$ tiene en expectativa un punto fijo es una afirmación bastante sorprendente, con una demostración de una sola línea.

Sea $X$ es el número de puntos fijos de tal aleatorio uniforme $\pi$ . Entonces $X=\sum_{k=1}^n \mathbf{1}_{\pi(k)=k}$ y, por tanto $$ \mathbb{E}[X] = \mathbb{E}\left[\sum_{k=1}^n \mathbf{1}_{\pi(k)=k}\right] = \sum_{k=1}^n \mathbb{E}[\mathbf{1}_{\pi(k)=k}] = \sum_{k=1}^n \mathbb{P}\{\pi(k)=k\} = \sum_{k=1}^n \frac{1}{n} = 1\,. $$

8voto

SJ Reddy Puntos 147

Puedes demostrar la fórmula de la suma de colas para la expectativa utilizando la linealidad de la expectativa. Sólo se demostrará en el caso discreto. Sea $X$ sea un V.R. discreto no negativo, y obsérvese que

$$X = \mathbb{I}\{X \ge 1\} + \mathbb{I}\{X \ge 2\} + \ldots$$

Utiliza la linealidad de la expectativa en lo anterior y ya está.

De forma un tanto circular, se recupera la definición de expectativa a partir de una propiedad de la expectativa.

7voto

oliverjones Puntos 651

Una que me gusta es:

Enumerar $n$ -muchas bolas, colocar en una urna y sacar $k$ -muchos al azar sin reemplazo. Sea $S = X_1+ \ldots X_k$ sea su suma donde $X_i$ es el valor de $i^{th}$ pelota. Entonces por linealidad de la expectativa tenemos

$\displaystyle E[S]= E \bigg [ \sum_{j = 1}^k X_j \bigg ] = \sum_{j = 1}^k E[X_j] = k \cdot E[X_j] = k \cdot \frac{n+1}{2}$ .

Y como dibujamos sin reemplazo no tenemos independencia.

cf. Expectativa de la suma de bolas numeradas

5voto

Antonio Puntos 126

Acabo de ver una bonita aplicación en una conferencia 1 que encaja perfectamente con el caso de variables aleatorias no independientes que mencionaste - dejemos que $S = \{(x_1, \ldots, x_n) \in \{0, 1\}^n | \sum_i x_i \leq k\}$ . Si $k \leq \frac{n}{2}$ entonces $|S| \leq 2^{n \cdot H_b\left(\frac{k}{n}\right)}$ donde $H_b(p)$ es la función de entropía binaria.

Esto se demuestra dejando que $(X_1, \ldots, X_n)$ se distribuyan uniformemente en $S$ . Entonces $H(X_1, \ldots, X_n) = \log |S|$ . Al darse cuenta de que el $X_i$ están idénticamente distribuidos: $$H(X_1, \ldots, X_n) \leq H(X_1) + \ldots + H(X_n) = n \cdot H(X_1)$$

$X_1$ toma valores en $\{0, 1\}$ por lo que podríamos calcular $H(X_1) = H_b(\mathbb{E}[X_1])$ y terminar esto si podemos atar $\mathbb{E}[X_1]$ . Ahora viene el uso de la linealidad de la expectativa: tenemos $$n \cdot \mathbb{E}[X_1] = \mathbb{E}[X_1] + \ldots + \mathbb{E}[X_n] = \mathbb{E}[X_1 + \ldots + X_n] \leq k$$ así que $\mathbb{E}[X_1] \leq \frac{k}{n}$ . En $\frac{k}{n} \leq \frac{1}{2}$ y $H_b(p)$ aumenta en $[0, \frac{1}{2}]$ tenemos $H(X_1) \leq H_b\left(\frac{k}{n}\right)$ terminando la prueba.

1: De https://ttic.uchicago.edu/~madhurt/cursos/infoteoría2017/l2.pdf

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X