5 votos

Equivalencia entre las condiciones para la convergencia

Deje $(X_k)$ ser independiente de variables aleatorias tales que $X_k\sim\mathcal{P}(p_k)$ (distribución de Poisson con parámetro de $p_k$). Así, en particular, tenemos $ \sum_{n=1}^NX_k \sim \mathcal{P}(\sum _{n=1}^Np_k)$$\mathbb{E}(X_k)=p_k$. Por hipótesis de $np_n\to \infty$ y se puede escribir : $p_n=b(n)/n$ donde $b(n)$ es lenta variación de la función.

Una función de $f$ definido en $\mathbb{R}$ es una lenta variación de la función si para cada $\delta >0$, $n^{\delta }f(n)$ está aumentando y $n^{\delta }f(n)$ es decreciente si $n$ es lo suficientemente grande. Así, en particular, tenemos $p_n\to 0$.

Quiero mostrar la equivalencia entre las condiciones siguientes :

i).s. $\forall t \neq 0 \in \mathbb{T}, \, \sum_{k=1}^N\mathbf{1}_{\{ X_k>0\}}e^{2i\pi kt}=o( \sum_{k=1}^N\mathbf{1}_{\{ X_k>0\}})$ al $N\to \infty$.

ii).s. $\forall t \neq 0 \in \mathbb{T}, \, \sum_{k=1}^NX_ke^{2i\pi kt}=o( \sum_{k=1}^NX_k)$ al $N\to \infty$.

iii).s. $\forall t \neq 0 \in \mathbb{T}, \, \sum_{k=1}^NX_ke^{2i\pi kt}=o( \sum_{k=1}^Np_k)$ al $N\to \infty$.

La notación $\sum_{k=1}^N\mathbf{1}_{\{ X_k>0\}}e^{2i\pi kt}=o( \sum_{k=1}^N\mathbf{1}_{\{ X_k>0\}})$ significa que $$ \frac{\sum_{k=1}^N\mathbf{1}_{\{ X_k>0\}}e^{2i\pi kt}}{\sum_{k=1}^N\mathbf{1}_{\{ X_k>0\}}}\to 0$$ when $N\to \infty$.

El toro será denotado por $\mathbb{T}=[0,1)=\mathbb{R}\setminus \mathbb{Z}$.

Primero observar que $\sum _k p_k=\infty $. Pero podemos obtener una estimación más precisa : $\sum _k^N p_k=a_N\log (N)$ donde $a_N\to \infty$ al $N\to \infty$.
Así, mediante el uso Chernoff obligado podemos mostrar (cf Mickael la respuesta) que $ii)\implies iii)$ desde $ \sum _k X_k\leq M \sum _k p_k$ con probabilidad uno. El mismo argumento se puede utilizar para mostrar que con probabilidad uno $ \sum _k p_k\leq m \sum _k X_k$. Por lo $ii)\Leftrightarrow iii)$.

Queda por demostrar la equivalencia entre el$i)$$ii)$$iii)\implies ii)$. Sugiero el siguiente argumento.

Vamos $Y_k=X_k-\mathbf{1}_{\{ X_k>0\}}$, $\mathbb{P}(Y_k>0)=e^{-p_k}\sum _{n\geq 2}\frac{p_k^n}{n!}$. Por lo $\sum _k\mathbb{P}(Y_k>0)<\sum _n \sum _k \frac{p_k^2}{n!}<+\infty $ (podemos suponer que $0<p_k<1$ y por hipótesis de $\sum p_k^2=\sum b(k)^2/k^2<+\infty$). Por Borel-Cantelli lema $Y_k=0$.s. por lo suficientemente grande $k$. Desde $\sum _k X_k \to \infty$ el resultado de la siguiente manera.

3voto

Michael Puntos 5270

Algunos resultados relacionados con: Definir $\lambda_n = p_n = E[X_n]$.

Reivindicación 1: Si $\sum_{n=1}^{\infty} \lambda_n < \infty$, $\sum_{n=1}^{\infty} X_n < \infty$ con prob. 1.

Prueba: Supongamos $\sum_{n=1}^{\infty} \lambda_n < \infty$. Entonces: \begin{align} \sum_{n=1}^{\infty} Pr[X_n>0] &= \sum_{n=1}^{\infty} [1-e^{-\lambda_n}] \leq \sum_{n=1}^{\infty} \lambda_n < \infty \end{align} y por lo tanto (con prob 1) $X_n=0$ para todos lo suficientemente grande $n$. Por lo $\sum_{n=1}^{\infty} X_n < \infty$ con prob 1. $\Box$

Reivindicación 2: Para todos los $z>0$ y todos los enteros positivos $K$ tenemos: $$Pr\left[\frac{\sum_{n=1}^K X_n}{\sum_{n=1}^{K} \lambda_n} \geq z\right] \leq e^{-(z+1-e)\sum_{n=1}^K\lambda_n}$$

Prueba: Por la Chernov obligado tenemos: \begin{align} Pr\left[\sum_{n=1}^K X_n \geq z\sum_{n=1}^K\lambda_n\right] &\leq E[e^{\sum_{n=1}^KX_n}]e^{-z\sum_{n=1}^K\lambda_n}\\ &=\left(\prod_{n=1}^KE[e^{X_n}]\right)e^{-z\sum_{n=1}^K\lambda_n}\\ &= \left(\prod_{n=1}^K e^{\lambda_n(e-1)} \right) e^{-z\sum_{n=1}^K\lambda_n}\\ &= e^{-(z+1-e)\sum_{n=1}^K\lambda_n} \end{align} $\Box$

Por ejemplo, el uso de $z=2$ en la Reivindicación 2 da para todos los enteros positivos $K$:

$$ Pr\left[ \frac{\sum_{n=1}^KX_n}{\sum_{n=1}^K\lambda_n} \geq 2 \right] \leq e^{-(3-e)\sum_{n=1}^K\lambda_n} $$

y si $\sum_{n=1}^{\infty}\lambda_n=\infty$, entonces la probabilidad en el lado izquierdo va a$0$$K\rightarrow\infty$.

Reivindicación 3: Si hay una constante $c>0$ tal que $\sum_{n=1}^K \lambda_n \geq c\log(K)$ para todos los enteros positivos $K$, luego con prob 1 sabemos $\sum_{n=1}^K X_n \leq \left(e-1+\frac{2}{c}\right)\sum_{n=1}^K\lambda_n$ para todos lo suficientemente grande $K$. Por lo tanto, con prob 1 tenemos $\sum_{n=1}^KX_n \leq \Theta(\sum_{n=1}^K \lambda_n)$.

Prueba: Definir $z = e-1 + 2/c$. Por la Reivindicación 2, tenemos: \begin{align} Pr\left[\sum_{n=1}^KX_n \geq z\sum_{n=1}^K \lambda_n\right] &\leq e^{-(z+1-e)\sum_{n=1}^{K}\lambda_n}\\ &\leq e^{-(z+1-e)c\log(K)}\\ &= e^{-2\log(K)} \\ &= 1/K^2 \end{align} Desde $1/K^2$ es summable, de la siguiente manera (con prob 1) $\sum_{n=1}^KX_n \leq z\sum_{n=1}^K\lambda_n$ lo suficientemente grande para todos $K$. $\Box$

De la misma manera, si hay una constante $d>0$ tal que $\sum_{K=1}^{\infty} e^{-d\sum_{n=1}^K\lambda_n} < \infty$, luego con prob 1 tenemos $\sum_{n=1}^KX_n \leq \Theta(\sum_{n=1}^K\lambda_n)$. Esto se sigue inmediatamente de la Reivindicación 2 por definir $z$ tal que $z+1-e=d$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X