Creo que debe quedar claro que "la CLT enfoque" da la respuesta correcta.
Vamos a precisar exactamente donde el "LLN enfoque" va mal.
Comenzando con el finito de instrucciones, es claro que podemos, equivalentemente, restar $\sqrt{n}$ desde ambos lados, o multliply ambos lados por $1/\sqrt{n}$. Tenemos
$$\mathbb{P}\left(\frac{1}{\sqrt{n}} \sum_{i=1}^n X_i \leq \sqrt{n}\right)=\mathbb{P}\left(\frac{1}{\sqrt{n}} \sum_{i=1}^n(X_i-1) \leq 0\right) = \mathbb{P}\left(\frac{1}{n} \sum_{i=1}^nX_i \leq 1\right)$$
Así que si el límite existe, será idéntico. Establecimiento $Z_n = \frac{1}{\sqrt{n}} \sum_{i=1}^n(X_i-1)$, utilizando funciones de distribución
$$\mathbb{P}\left(\frac{1}{\sqrt{n}} \sum_{i=1}^n X_i \leq \sqrt{n}\right)= F_{Z_n}(0) = F_{\bar X_n}(1)$$
...y es cierto que $\lim_{n\to \infty}F_{Z_n}(0)= \Phi(0) = 1/2$.
El pensar en la "LLN enfoque" va como sigue: "sabemos de la LLN que $\bar X_n$ converge en probabililty a una constante. Y también sabemos que "la convergencia en probabilidad implica la convergencia en distribución". Por eso, $\bar X_n$ converge en distribución a una constante". Hasta aquí estamos en lo correcto.
Entonces podemos decir: "por lo tanto, limitar las probabilidades de $\bar X_n$ están dadas por la función de distribución de la constante en $1$ variable aleatoria",
$$F_1(x) = \cases {1 \;\;\;\;x\geq 1 \\ 0 \;\;\;\;x<1} \implies F_1(1) = 1$$
... por lo $\lim_{n\to \infty} F_{\bar X_n}(1) = F_1(1) = 1$...
...y acabamos de hacer nuestro error. Por qué? Porque, como @AlexR. respuesta señaló, "la convergencia en distribución" cubre solamente los puntos de continuidad de la limitación de la función de distribución. Y $1$ es un punto de discontinuidad para $F_1$. Esto significa que $\lim_{n\to \infty} F_{\bar X_n}(1)$ puede ser igual a$F_1(1)$, pero puede ser que no, sin negar la "convergencia en distribución a una constante" implicación de la LLN.
Y puesto que a partir de la CLT enfoque sabemos lo que el valor del límite debe de ser de ($1/2$). No conozco una forma de demostrar directamente que $\lim_{n\to \infty} F_{\bar X_n}(1) = 1/2$.
Qué hemos aprendido algo nuevo?
Yo hice. La LLN afirma que
$$\lim_{n \rightarrow \infty} \mathbb{P} \Big( |\bar{X}_n - 1| \leqslant \varepsilon \Big) = 1 \quad \quad \text{for all } \varepsilon > 0$$
$$\implies \lim_{n \rightarrow \infty} \Big[ \mathbb{P} \Big( 1-\varepsilon <\bar{X}_n \leq 1\Big) + \mathbb{P} \Big( 1 <\bar{X}_n \leq 1+\varepsilon\Big)\Big] = 1$$
$$\implies \lim_{n \rightarrow \infty} \Big[ \mathbb{P} \Big(\bar{X}_n \leq 1\Big) + \mathbb{P} \Big( 1 <\bar{X}_n \leq 1+\varepsilon\Big)\Big] = 1$$
La LLN no dice cómo es la probabilidad de que se asignen en el $(1-\varepsilon, 1+\varepsilon)$ intervalo. Lo que he aprendido es que, en esta clase de convergencia de los resultados, la probabilidad está en el límite asignado por igual en los dos lados del punto central de la caída de intervalo.
La declaración general aquí es, asumir
$$X_n\to_p \theta,\;\;\; h(n)(X_n-\theta) \to_d D(0,V)$$
donde $D$ es algo de rv con función de distribución de $F_D$. Entonces
$$\lim_{n\to \infty} \mathbb P[X_n \leq \theta] = \lim_{n\to \infty}\mathbb P[h(n)(X_n-\theta) \leq 0] = F_D(0)$$
...que puede no ser igual a $F_{\theta}(0)$ (la función de distribución de la constante rv).
También, este es un buen ejemplo de que, cuando la función de distribución de la limitante de la variable aleatoria tiene discontinuidades, a continuación, "la convergencia en distribución para una variable aleatoria" puede describir una situación en la que "la limitación de la distribución" puede estar en desacuerdo con la "distribución de la limitante de la variable aleatoria" en los puntos de discontinuidad.
Estrictamente hablando, la limitación de la distribución para la continuidad de los puntos es el de la constante de la variable aleatoria. Para los puntos de discontinuidad que puede ser capaz de calcular el límite de la probabilidad, como "independiente" de las entidades.