4 votos

Intervalo de confianza de una variable aleatoria con infinito decir. (San Petersburgo paradoja)

Deje $X_i$ aleatorios (independiente) variables discretas tales que $$\forall k\ge 0 \quad P(X_i=2^k)=2^{-(k+1)}$$

$$\begin{array}{c||ccccccc} v & 1 & 2 & 4 & 8 & 16 & 32 & \dots \\ \hline P(X_i=v) & \frac{1}{2}& \frac{1}{4}& \frac{1}{8}& \frac{1}{16}& \frac{1}{32}& \frac{1}{64} &\dots \end{array} $$

De curso $E(X_i)=\infty$.

Deje $S_n$ la media de la primera $n$ $X_i$$$S_n=\frac{1}{n}\sum_{i=1}^{n}X_i$$

Sean p, un real tal que $0<p<0.5$

Quiero calcular $a_p(n)$ $b_p(n)$ (o, al menos, una aproximación asintótica al $n\rightarrow\infty$) tales que $$\forall n \quad P(S_n<a_p(n))=P(S_n>b_p(n))=p $$

Cómo ?

Esta pregunta se relaciona con la paradoja de San Petersburgo.

2voto

Tim Puntos 3803

No se puede calcular el $a_p$ $b_p$ directamente, pero se puede mostrar que tanto $a_p(n) - log_2 n$ $b_p(n) - log_2 n$ convergen como $n\to\infty$. Por otra parte, usted puede conseguir un razonable aproximaciones.

La técnica precisa declaración es$\dots$

Para $\lambda > 0$ deje $\Lambda$ ser una variable aleatoria de Poisson media de $\lambda$. Existe una distribución de probabilidad $Z_\lambda$, con una media de $0$ y la varianza $\frac 1\lambda$ tal que

$$S_n - \log_2 n \to Z_\lambda + \frac 1\lambda\sum_{i=1}^\Lambda X_i - \log_2 \lambda$$ en la probabilidad como $n\to \infty$.

$$ $$ $$ $$ $$ $$ $$ $$

Para ver esto, elegir algunos $\lambda>0$ y deje $N_i$ ser una secuencia de variables aleatorias de Poisson media de $\lambda \cdot2^i$ y el conjunto de

$$Z_i = \sum_{j=1}^i 2^{-i}N_i$$ $$Z = lim_{i\to\infty} (Z_i-\lambda i)$$

Ahora $X$ es la suma de variables aleatorias independientes con una media de $0$ y las varianzas de las $\lambda\cdot 2^{-i}$ $Z$ es un extraño pero bien definido de la variable aleatoria con una media de $0$ y la varianza $\lambda$.

Ahora a arreglar algunos grandes $k$ y deje $N$ ser una variable aleatoria de Poisson media de $\lambda\cdot 2^{k+1}$.

Elegir iid San Petersburgo variables aleatorias $\{X_i:i=1\dots N\}$ como en la pregunta y deje $N_i$ ser la cardinalidad del conjunto de $\{j\leq N : X_j = 2^{k-i}\}$.

Es un hecho fundamental acerca de Poisson variables aleatorias que $\{N_i:i\leq k\}$ se distribuyen como independiente de variables aleatorias de Poisson con una media de $\lambda\cdot 2^{i}$. Observe que $N_i$ está definido para todos los negativos $i$.

ahora tenemos $$2^{-k}\sum_{i=1}^N X_i = \sum_{i=1}^k 2^{-i} N_i + \sum_{i=0}^\infty 2^{i} N_{-i}$$

Podemos lidiar con el término $\sum_{i=0}^\infty 2^{i} N_{-i}$. Esta es sólo la suma de ${X_i}\cdot 2^{-k}$$X_i\geq 2^k$. Es fácil ver que este se distribuye como una suma de $\Lambda$ copias de $X_i$ de Poisson $\Lambda$ la media de $\lambda$.

La suma de $\sum_{i=1}^k 2^{-i} N_i$ se distribuye de la $Z_k$ y la distribución de $Z_k - \lambda k$ converge como $k\to\infty$. Dividiendo por $N$ hemos

$$S_N - k \sim \frac{2^k\lambda}{N}\left(\frac Z\lambda + \frac 1\lambda\sum_{i=1}^\Lambda X_i\right).$$

Además $\frac{2^k\lambda}{N}$ converge a $1$ casi seguramente, y tomando los registros de $\log_2 N\to k+\log_2\lambda$. Como la distribución de $Z$ depende de $\lambda$, $Z_\lambda = \frac Z\lambda$ y hemos

$$S_n - \log_2 n \to Z_\lambda + \frac 1\lambda\sum_{i=1}^\Lambda X_i - \log_2\lambda$$ en la distribución.

0voto

Kuzon Puntos 1

Con el fin de obtener los intervalos de confianza, el estocástico variable debe tener una varianza.

Si el primer momento (es decir,$E(X)$) no existe, el segundo momento (es decir,$V(X)$) no existe.

Esto está relacionado con el problema de que su aproximar el valor esperado $S_n$ será igual a infinito cuando $n$ va al infinito. Por lo tanto, es imposible de resolver, es decir, encontrando $a_p$$b_p$$n \rightarrow \infty$.

Ver más en http://en.wikipedia.org/wiki/Moment_(matemáticas)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X