Para llegar a la conclusión inmediatamente, el "impulso" no cambia el hecho de que la distribución normal es una aproximación asintótica de la distribución del paseo aleatorio, pero la varianza cambia de 4np(1−p)4np(1−p) a np/(1−p) . Esto puede derivarse por consideraciones relativamente elementales en este caso especial. No es terriblemente difícil generalizar los argumentos que se exponen a continuación a un CLT para cadenas de Markov de espacio de estado finito, por ejemplo, pero el mayor problema es en realidad el cálculo de la varianza. Para el problema particular puede y es de esperar que los argumentos que se exponen a continuación puedan convencer al lector de que se trata de la varianza correcta.
Utilizando la visión que Cardinal proporciona en un comentario, el paseo aleatorio se da como Sn=n∑k=1Xk donde Xk∈{−1,1} y el Xk forman una cadena de Markov con una matriz de probabilidad de transición (p1−p1−pp). Para las consideraciones asintóticas cuando n→∞ la distribución inicial de X1 no juega ningún papel, así que vamos a arreglar X1=1 en aras del siguiente argumento, y asumiendo también que 0<p<1 . Una técnica hábil consiste en descomponer la cadena de Markov en ciclos independientes. Sea σ1 denota la primera vez, después del tiempo 1, que la cadena de Markov vuelve a 1. Es decir, si X2=1 entonces σ1=2 y si X2=X3=−1 y X4=1 entonces σ1=4 . En general, dejemos que σi denotan el i a 1 y dejar que τi=σi−σi−1 denotan el tiempos intermedios (con σ0=1 ). Con estas definiciones, tenemos
- Con Ui=∑σik=σi−1+1Xk entonces Sσn=X1+n∑i=1Ui.
- Desde Xk toma el valor −1 para k=σi−1+1,…,σi−1 y Xσi=1 sostiene que Ui=2−τi.
- Los tiempos intermedios, τi para una cadena de Markov son i.i.d. (formalmente debido a la propiedad de Markov fuerte) y en este caso con media E(τi)=2 y la varianza V(τi)=2p1−p . A continuación se indica cómo calcular la media y la varianza.
- La CLT ordinaria para variables i.i.d. da como resultado que Sσnasymp∼N(0,2np1−p).
- Lo último que hay que tener en cuenta, y que requiere un pequeño salto de fe, porque omito los detalles, es que σn=1+∑ni=1τi∼2n , lo que da como resultado que Snasymp∼N(0,np1−p).
Para calcular los momentos de τ1 se puede observar que P(τ1=1)=p y para m≥2 , P(τ1=m)=(1−p)2pm−2 . A continuación, se pueden aplicar técnicas similares a las utilizadas para calcular los momentos de la distribución geométrica. Alternativamente, si X es geométrico con probabilidad de éxito 1−p y Z=1(τ1=1) entonces 1+X(1−Z) tiene la misma distribución que τ1 y es fácil calcular la media y la varianza de esta última representación.