Voy a seguir el esquema que he descrito en mi primer comentario. Vamos a empezar con la caminata aleatoria. Fix $\alpha \in \mathbf{R}$ y considerar el proceso de $(M_j)$ se define como
$$M_j = (\cosh{\alpha})^{-j}\cosh{(\alpha S_j)}$$
Queremos mostrar que $(M_j)$ es una martingala con respecto a los procesos naturales de filtración $(\mathcal{F}_j)$ generado por el constituyente de variables aleatorias en $S$. Por eso me refiero a $\mathcal{F_j} = \sigma(X_1,\ldots, X_j)$$S_j = X_1 + \cdots + X_j$. Me tomé la libertad de asumir que $P\{X_i = 1\} = P\{X_i = -1\} = \frac{1}{2}$ y definidas $S_0 = 0$. De curso $X_1,X_2,\ldots$ es un ALCOHOLÍMETRO de la secuencia.
\begin{align}E[M_j\mid \mathcal{F}_{j-1}] =& (\cosh{\alpha})^{-j}E[\cosh{(\alpha S_j)}\mid \mathcal{F}_{j-1}]\\
=& \frac{1}{2}(\cosh{\alpha})^{-j}E[\exp{(\alpha S_j)}+\exp{(-\alpha S_j)}\mid \mathcal{F}_{j-1}]\\
=&\frac{1}{2}(\cosh{\alpha})^{-j}E[\exp{(\alpha S_{j-1} + \alpha X_j)}+\exp{(-\alpha S_{j-1} -\alpha X_j)}\mid \mathcal{F}_{j-1}]\\
=&\frac{1}{2}(\cosh{\alpha})^{-j}\left(\exp{(\alpha S_{j-1})} E[\exp{(\alpha X_j)}]+\exp{(-\alpha S_{j-1})} E[\exp{(-\alpha X_j)}]\right)\\
=&\frac{1}{2}(\cosh{\alpha})^{-j}\left(\exp{(\alpha S_{j-1})}\cosh{\alpha}+\exp{(-\alpha S_{j-1})}\cosh{\alpha}\right)\\
=&(\cosh{\alpha})^{-(j-1)}\cosh{(\alpha S_{j-1})} =: M_{j-1} \end{align}
Queremos dejar este proceso en el bateo tiempo $\tau_n:=\inf{\{j: \lvert S_j\rvert = n\}}$, que es un tiempo de paro. Además, es casi seguro finito para cada una de las $n$. No voy a probar estos hechos aquí. Fix $n$. Doob opcional de frenado teorema da
$$E[M_{\tau_n\wedge j}] = E[M_0] = 1$$
Desde $\tau_n$ es una.s. finito, $M_{\tau_n\wedge j} \rightarrow M_{\tau_n}$.s.
Además, $M_{\tau_n\wedge j} \leq \cosh{(\alpha n)}$. Desde $E[\cosh{(\alpha n)}] < \infty$, el teorema de convergencia dominada se puede aplicar para obtener
$$E[M_{\tau_n}] = 1$$
Desde $\tau_n$ es una.s. finito $\lvert S_{\tau_n}\rvert = n$. Esto implica $M_{\tau_n} = (\cosh{\alpha})^{-\tau_n}\cosh{(\alpha S_{\tau_n})} = (\cosh{\alpha})^{-\tau_n}\cosh{(\alpha n)}$ debido a que el hiperbólico coseno es una función par. Por lo tanto
$$E\left[\left(\frac{1}{\cosh{\alpha}}\right)^{\tau_n}\right] = \frac{1}{\cosh{(\alpha n)}}$$
Ahora defina $\lambda \geq 0$ tal que $\exp{(-\frac{\lambda}{n^2})} = \frac{1}{\cosh{\alpha}}$. A continuación, obtenemos
$$E[e^{-\lambda\frac{\tau_n}{n^2}}] = \frac{1}{\cosh{(n\cosh^{-1}{(e^{\frac{\lambda}{n^2}})})}}$$
Para el coseno hiperbólico inverso no importa que valor (positivo o negativo), ya que está dentro de otra función coseno hiperbólico. Por lo que hemos encontrado en el momento de generación de la función de $\frac{\tau_n}{n^2}$. Yo aquí engañar un poco y usar una herramienta en línea para calcular el límite de$\frac{1}{\cosh{(n\cosh^{-1}{(e^{\frac{\lambda}{n^2}})})}}$$n\rightarrow\infty$. La respuesta es
$$\lim_{n\rightarrow\infty}\frac{1}{\cosh{(n\cosh^{-1}{(e^{\frac{\lambda}{n^2}})})}} = \frac{1}{\cosh{(\sqrt{2\lambda})}}$$
Así que la próxima nos fijamos en el bateo de tiempo para el movimiento Browniano. El procedimiento es exactamente el mismo. Iniciar con el proceso de $X_t = \cosh{(\alpha B_t)}\exp{(-\alpha^2\frac{t}{2})}$ e ir a través de exactamente los mismos pasos que el anterior. Para el golpear de tiempo $\sigma := \inf{\{t\geq 0: \lvert B_t \rvert = 1 \}}$ hemos
$$E[e^{-\lambda\sigma}] = \frac{1}{\cosh{(\sqrt{2\lambda})}}$$
Así, en el momento de generación de la función de escalado de golpear tiempo de caminata aleatoria converge al momento de generar la función para golpear tiempo de movimiento Browniano. Puesto que el último es continua en todas partes, la convergencia en la distribución de la siguiente manera. Esto completa la prueba.
P. S.
Para el cálculo del límite me hizo uso de los siguientes:
https://www.wolframalpha.com/input/?i=limit+1%2Fcosh%28n*sqrt%28lambda%29*arccosh%28exp%281%2Fn^2%29%29%29+as+n-%3Einfinity
P. P. S
Aquí es un cálculo del límite. Es suficiente para demostrar
$$\lim_{x\rightarrow\infty}x\cosh^{-1}{(\exp{(\frac{\lambda}{x^2})})} = \sqrt{2\lambda}$$
Primer sustituto $u = \frac{\lambda}{x^2}$. Entonces, el límite anterior es igual a
$$\lim_{u\rightarrow 0}\sqrt{\frac{\lambda}{u}}\cosh^{-1}{(e^u)}$$
De l'Hospital de la regla se aplica aquí. La diferenciación, tanto en el numerador y el denominador con respecto a $u$ (y hacer algunas manipulaciones algebraicas), llegamos a la
$$\lim_{u\rightarrow 0}\sqrt{\frac{\lambda}{u}}\cosh^{-1}{(e^u)} = 2\sqrt{\lambda}\lim_{u\rightarrow 0}\sqrt{u + \frac{u}{e^{2u}-1}} = 2\sqrt{\lambda}\frac{1}{\sqrt{2}} = \sqrt{2\lambda}$$