Deje $(X_k)$ ser independiente de variables aleatorias tales que $X_k\sim\mathcal{P}(p_k)$ (distribución de Poisson con parámetro de $p_k$). Así, en particular, tenemos $ \sum_{n=1}^NX_k \sim \mathcal{P}(\sum _{n=1}^Np_k)$$\mathbb{E}(X_k)=p_k$. Por hipótesis de $np_n\to \infty$ y se puede escribir : $p_n=b(n)/n$ donde $b(n)$ es lenta variación de la función.
Una función de $f$ definido en $\mathbb{R}$ es una lenta variación de la función si para cada $\delta >0$, $n^{\delta }f(n)$ está aumentando y $n^{\delta }f(n)$ es decreciente si $n$ es lo suficientemente grande. Así, en particular, tenemos $p_n\to 0$.
Quiero mostrar la equivalencia entre las condiciones siguientes :
i).s. $\forall t \neq 0 \in \mathbb{T}, \, \sum_{k=1}^N\mathbf{1}_{\{ X_k>0\}}e^{2i\pi kt}=o( \sum_{k=1}^N\mathbf{1}_{\{ X_k>0\}})$ al $N\to \infty$.
ii).s. $\forall t \neq 0 \in \mathbb{T}, \, \sum_{k=1}^NX_ke^{2i\pi kt}=o( \sum_{k=1}^NX_k)$ al $N\to \infty$.
iii).s. $\forall t \neq 0 \in \mathbb{T}, \, \sum_{k=1}^NX_ke^{2i\pi kt}=o( \sum_{k=1}^Np_k)$ al $N\to \infty$.
La notación $\sum_{k=1}^N\mathbf{1}_{\{ X_k>0\}}e^{2i\pi kt}=o( \sum_{k=1}^N\mathbf{1}_{\{ X_k>0\}})$ significa que $$ \frac{\sum_{k=1}^N\mathbf{1}_{\{ X_k>0\}}e^{2i\pi kt}}{\sum_{k=1}^N\mathbf{1}_{\{ X_k>0\}}}\to 0$$ when $N\to \infty$.
El toro será denotado por $\mathbb{T}=[0,1)=\mathbb{R}\setminus \mathbb{Z}$.
Primero observar que $\sum _k p_k=\infty $. Pero podemos obtener una estimación más precisa : $\sum _k^N p_k=a_N\log (N)$ donde $a_N\to \infty$ al $N\to \infty$.
Así, mediante el uso Chernoff obligado podemos mostrar (cf Mickael la respuesta) que $ii)\implies iii)$ desde $ \sum _k X_k\leq M \sum _k p_k$ con probabilidad uno. El mismo argumento se puede utilizar para mostrar que con probabilidad uno $ \sum _k p_k\leq m \sum _k X_k$. Por lo $ii)\Leftrightarrow iii)$.
Queda por demostrar la equivalencia entre el$i)$$ii)$$iii)\implies ii)$. Sugiero el siguiente argumento.
Vamos $Y_k=X_k-\mathbf{1}_{\{ X_k>0\}}$, $\mathbb{P}(Y_k>0)=e^{-p_k}\sum _{n\geq 2}\frac{p_k^n}{n!}$. Por lo $\sum _k\mathbb{P}(Y_k>0)<\sum _n \sum _k \frac{p_k^2}{n!}<+\infty $ (podemos suponer que $0<p_k<1$ y por hipótesis de $\sum p_k^2=\sum b(k)^2/k^2<+\infty$). Por Borel-Cantelli lema $Y_k=0$.s. por lo suficientemente grande $k$. Desde $\sum _k X_k \to \infty$ el resultado de la siguiente manera.