En resumen: No.
Un poco más: La convergencia en la distribución no implica directamente, de ninguna manera, la convergencia casi segura.
Mucho más tiempo:
Dado un vector aleatorio $X$ cuyos componentes son independientes e idénticamente distribuidos y sus dos primeros momentos son finitos - entonces la CLT dice que asintóticamente, la media muestral $\bar{X}_n$ converge a $\mu$ con tasa $\sqrt{n}$ y la distribución asintótica $N(0,\sigma^2)$ . Eso es convergencia en la distribución . Esto significa que el CLT nos proporciona información sobre la tasa en la que la media de la muestra converge débilmente a la media de la población a medida que aumenta el tamaño de la muestra.
La LLN débil dice que la media muestral de un vector con un primer momento finito, converge en la probabilidad a la media de la población. Es decir, $\lim_{n\rightarrow\infty}P(\left| \bar{X}_n-\mu \right|>\epsilon)=0$ . Esto significa que por muy pequeño que sea el margen no nulo $\epsilon$ que tomamos, una muestra suficientemente grande haría que la diferencia entre la media de la muestra y la media de la población estuviera dentro de este margen. Como puede ver aquí es posible (bajo varias condiciones) que el CLT implique el WLLN.
El LLN fuerte dice que la media de la muestra converge casi seguramente a la media de la población. Es decir, $P\left(\lim_{n\rightarrow\infty}\bar{X}_n=\mu \right)=1$ . Esto significa que para un tamaño de muestra suficientemente grande, la probabilidad de $\bar{X}_n$ no convergen a $\mu$ es 0. Esa es una forma de convergencia sustancialmente más fuerte, y no puede ser implicada directamente desde el CLT.