Pensé que el siguiente que haría un buen ejercicio, pero no estoy seguro de cómo evaluar su dificultad ya que me suelen faltar a la escuela primaria de soluciones. Cómo sobre usted responder? Sería genial tener varias pruebas.
Deje $m$ ser un entero positivo y $p \in (0,1)$. Demostrar que $\displaystyle \lim_{n\to\infty}\underset{m\mediados de k}{\sum_{0 \leq k \leq n}} \binom{n}{k}p^{k}(1-p)^{n-k} = \frac{1}{m}$.
Doy dos pruebas de este límite por debajo, pero todavía estoy interesado en la escuela primaria de las pruebas.
Edición 1. Como se nota por @rlgordonma, la suma es $\lim_{n \rightarrow \infty} \sum_{\ell = 0}^{\lfloor \frac{n}{m} \rfloor} \binom{n}{\ell m} p^{\ell m} (1-p)^{n - \ell m} = \frac{1}{m}$. Tal vez lo que hace las cosas más claras, como que.
Edit2. Gracias por su participación. Ahora voy a dar dos pruebas de este límite (uno de ellos siendo una reformulación de vonbrand de la solución). De hecho, voy a probar un poco más:
$$\forall r \in \{0,\dots,m-1\},\qquad\lim_{n\to\infty} \sum_{\substack{0 \leq k \leq n\\ k \equiv r\; [m]}} \binom{n}{k}p^k(1-p)^k = \frac{1}{m}$$
Paso 1 (probabilística de la interpretación).
Este paso no es necesario, pero creo que trae una mejor visión. Deje $X_1,X_2,\dots$ ser una secuencia de variables aleatorias de Bernoulli independientes con el parámetro $0 < p <1$$P(X_i=1)=1-P(X_i=0)=p$.
A continuación, $S_n = X_1 + \dots+ X_n$ es una variable aleatoria Binomial con parámetros de $(n,p)$, y la suma que nos interesa es simplemente: $$\sum_{\substack{0 \leq k \leq n\\ k \equiv r\; [m]}} \binom{n}{k}p^k(1-p)^k = P(S_n \equiv r\;[m]).$$ La secuencia de $(S_n)$ es una caminata aleatoria sobre$\mathbb{Z}$, pero dado que sólo estamos interesados en sus residuos modulo $m$ será mejor que lo vea como una caminata aleatoria sobre $\mathbb{Z}/m\mathbb{Z}$ (con un abuso de notación, vamos a escribir $S_n$ de este residuo).
Paso 2 (límite de comportamiento de la caminata al azar). Versión rápida, con Cadenas de Markov
El paseo aleatorio $(S_n)$ es una irreductible (y aperiódica) de la Cadena de Markov sobre el estado finito espacio de $\mathbb{Z}/m\mathbb{Z}$ con la matriz de transición dada por $Q(i,i)=1-p$$Q(i,i+1)=p$$i \in \mathbb{Z}/m\mathbb{Z}$. Se admite que la distribución uniforme como un stationnary de distribución, por lo tanto converge a esta distribución. QED
Paso 2 (bis). Sin Las Cadenas De Markov
El siguiente resultado (la inversión de la fórmula de la transformada de Fourier discreta) es una generalización de @vonbrand del truco:
Nota:$S = \{0,\dots,m-1\}$$\omega=\exp\left(i2\pi/m\right)$. Para cada función de $f \colon S\to \mathbb{C}$ y cada una de las $x \in S$, $$ f(x) = \sum_{k = 0}^{m-1} \widehat{f}(k)\,\omega^{kx},\qquad\text{donde}\quad \widehat{f}(k) = \frac{1}{m}\sum_{x=0}^{m-1}f(x)\omega^{-kx}. $$
En particular, hemos $$ E(f(S_n)) = \sum_{k=0}^{m-1}\widehat{f}(k)\,E\left[\omega^{k S_n}\right] $$ La secuencia de $X_1,X_2,\dots$ siendo yo.yo.d., $$ E\left[\omega^{k S_n}\right] = \left(E\left[\omega^{k X_1}\right] \right)^n = ((1-p)+p\omega^k)^n \xrightarrow[n\to\infty]{}\begin{cases}1 & \text{if } k=0\\0 & \text{else}\end{casos} $$ Por lo tanto, $\lim_{n\to\infty} E[f(S_n)] = \widehat{f}(0)$. Tomando $f(x) = 1_{\{x = r\}}$ se obtiene el resultado.