Para llegar a la conclusión inmediatamente, el "impulso" no cambia el hecho de que la distribución normal es una aproximación asintótica de la distribución del paseo aleatorio, pero la varianza cambia de $4np(1-p)$ a $np/(1-p)$ . Esto puede derivarse por consideraciones relativamente elementales en este caso especial. No es terriblemente difícil generalizar los argumentos que se exponen a continuación a un CLT para cadenas de Markov de espacio de estado finito, por ejemplo, pero el mayor problema es en realidad el cálculo de la varianza. Para el problema particular puede y es de esperar que los argumentos que se exponen a continuación puedan convencer al lector de que se trata de la varianza correcta.
Utilizando la visión que Cardinal proporciona en un comentario, el paseo aleatorio se da como $$S_n = \sum_{k=1}^n X_k$$ donde $X_k \in \{-1, 1\}$ y el $X_k$ forman una cadena de Markov con una matriz de probabilidad de transición $$ \left(\begin{array}{cc} p & 1-p \\ 1-p & p \end{array}\right). $$ Para las consideraciones asintóticas cuando $n \to \infty$ la distribución inicial de $X_1$ no juega ningún papel, así que vamos a arreglar $X_1 = 1$ en aras del siguiente argumento, y asumiendo también que $0 < p < 1$ . Una técnica hábil consiste en descomponer la cadena de Markov en ciclos independientes. Sea $\sigma_1$ denota la primera vez, después del tiempo 1, que la cadena de Markov vuelve a 1. Es decir, si $X_2 = 1$ entonces $\sigma_1 = 2$ y si $X_2 = X_3 = -1$ y $X_4 = 1$ entonces $\sigma_1 = 4$ . En general, dejemos que $\sigma_i$ denotan el $i$ a 1 y dejar que $\tau_i = \sigma_i - \sigma_{i-1}$ denotan el tiempos intermedios (con $\sigma_0 = 1$ ). Con estas definiciones, tenemos
- Con $U_i = \sum_{k = \sigma_{i-1}+1}^{\sigma_i} X_k$ entonces $$S_{\sigma_n} = X_1 + \sum_{i=1}^n U_i.$$
- Desde $X_k$ toma el valor $-1$ para $k = \sigma_{i-1}+1, \ldots, \sigma_{i}-1$ y $X_{\sigma_i} = 1$ sostiene que $$U_i = 2 - \tau_i.$$
- Los tiempos intermedios, $\tau_i$ para una cadena de Markov son i.i.d. (formalmente debido a la propiedad de Markov fuerte) y en este caso con media $E(\tau_i) = 2$ y la varianza $V(\tau_i) = 2\frac{p}{1-p}$ . A continuación se indica cómo calcular la media y la varianza.
- La CLT ordinaria para variables i.i.d. da como resultado que $$S_{\sigma_n} \overset{\text{asymp}}{\sim} N\left(0, \frac{2np}{1-p}\right).$$
- Lo último que hay que tener en cuenta, y que requiere un pequeño salto de fe, porque omito los detalles, es que $\sigma_n = 1 + \sum_{i=1}^n \tau_i \sim 2n$ , lo que da como resultado que $$S_{n} \overset{\text{asymp}}{\sim} N\left(0, \frac{np}{1-p}\right).$$
Para calcular los momentos de $\tau_1$ se puede observar que $P(\tau_1 = 1) = p$ y para $m \geq 2$ , $P(\tau_1 = m) = (1-p)^2p^{m-2}$ . A continuación, se pueden aplicar técnicas similares a las utilizadas para calcular los momentos de la distribución geométrica. Alternativamente, si $X$ es geométrico con probabilidad de éxito $1-p$ y $Z = 1(\tau_1 = 1)$ entonces $1 + X(1-Z)$ tiene la misma distribución que $\tau_1$ y es fácil calcular la media y la varianza de esta última representación.