7 votos

límite de suma de binomio doble

Demostrar que

$$\lim_{\max(M,N) \to \infty} \frac{\sum_{i=0}^{M-1} \sum_{j=0}^{N-1} p^{i} (1-p)^{j} {i+j \choose i}}{\min (\frac{M}{p}, \frac{N}{1-p})} = 1 $$

donde $0<p<1$ y $M, N$ son números enteros positivos.

Lo hice para el caso de que uno de los $M, N$ se fija mediante el uso de la diferenciación de la serie de energía representación de $\frac{1}{1-p}$, pero no tengo ni idea sobre el caso restante - tanto de $M, N$ ir hasta el infinito.


Mi trabajo - prueba para el caso especial donde $N$ es finito:

El problema original se convierte en $$\lim_{M \to \infty} \sum_{i=0}^{M-1} \sum_{j=0}^{N-1} p^{i} (1-p)^{j} {i+j \choose i} = \frac{N}{1-p}. $ $

Al ver esto, cada $j$,

$$(1-p)^{j} \sum_{i=0}^{\infty} p^{i} {i+j \choose i} = (1-p)^{j} \frac{1}{j!} \frac{d^{j}}{dp^{j}} \big( \frac{1}{1-p} \big) = \frac{(1-p)^{j}}{(1-p)^{j+1}} = \frac{1}{1-p}, $$

donde

$$\lim_{M \to \infty} \sum_{i=0}^{M-1} \sum_{j=0}^{N-1} p^{i} (1-p)^{j} {i+j \choose i} = N \cdot \frac{1}{1-p} = \frac{N}{1-p}. $$

4voto

Milo Brandt Puntos 23147

Ya que esto se ve como un problema combinatorio (con todas aquellas sumas y binomios), tiene sentido para tratar de encontrar una combinatoria de interpretación de los valores. En particular, definir: $$f(M,N)=\sum_{i=0}^{M-1}\sum_{j=0}^{N-1}p^i(1-p)^j{i+j\choose i}$$ Antes de entrar en lo que esto significa, podemos notar una calidad útil de esta función: $$f(M,N)=1+pf(M-1,N)+(1-p)f(M,N-1)$$ que puede ser probada, ya que se expande a: $$f(M,N)=1+\left(\sum_{i=0}^{M-2}\sum_{j=0}^{N-1}p^{i+1}(1-p)^{j}{i+j\choose i}\right)+\left(\sum_{i=0}^{M-1}\sum_{j=0}^{N-2}p^{i}(1-p)^{j+1}{i+j\choose i}\right)$$ que, después de jigger con la suma de los límites se convierte en $$f(M,N)=1+\left(\sum_{i=1}^{M-1}\sum_{j=0}^{N-1}p^{i}(1-p)^{j}{i+j-1\choose i-1}\right)+\left(\sum_{i=0}^{M-1}\sum_{j=1}^{N-1}p^{i}(1-p)^{j}{i+j-1\choose i}\right)$$ y la combinación de las sumas donde $M,N\geq 1$, la división de las sumas donde $i=0$ o $j=0$ por separado, y el uso de la identidad que ${i+j-1\choose i-1}+{i+j-1\choose i}={i+j\choose i}$ da $$f(M,N)=1+\left(\sum_{i=1}^{M-1}p^{i}(1-p)^{0}{i+0-1\elegir i-1}\right)+\left(\sum_{j=1}^{N-1}p^{0}(1-p)^{j}{0+j-1\elegir 0}\right)+\left(\sum_{i=1}^{M-1}\sum_{j=1}^{N-1}p^{i}(1-p)^{j}{i+j\elegir i}\right) $$ pero desde ${i+0-1\choose i-1}=1={i+0\choose i}$${0+j-1\choose 0}=1={0+j\choose 0}$$1=p^0(1-p)^0{0\choose 0}$, por encima de todo se derrumba a $$f(M,N)=\sum_{i=0}^{M-1}\sum_{j=0}^{N-1}p^i(1-p)^j{i+j\choose i}$$ como era de esperar. Todo esto va a garantizar que tengamos la identidad $$f(M,N)=1+pf(M-1,N)+(1-p)f(M,N-1).$$

¿Por qué es esto importante? Bien, yo interpreto $f$ como sigue:

Si una persona comienza en la posición $(M,N)$ y decide caminar a la izquierda (disminución de la $x$-coordinar por $1$) con una probabilidad de $p$ o abajo (la disminución de la $y$-coordinar) con probabiliy $(1-p)$, $f(M,N)$ es el número esperado de pasos antes de que una de las coordenadas es $0$.

Esto es evidente a partir de la definición recursiva - la suma se puede leer que la persona se tome $1$ paso (de ahí el $1+\ldots$ plazo) y luego, con una probabilidad de $p$ en el estado $(M-1,N)$ y con una probabilidad de $(1-p)$ en el estado $(M,N-1)$.

Una forma intuitiva de ver todo lo anterior es que el $p^i(1-p)^j{i+j\choose j}$ es la probabilidad de que la persona que iba a pie a través de $(0,0)$ si comenzó a $(i,j)$ - o, equivalentemente, que es el número esperado de veces que tendrían que caminar a través de $(M-i,N-j)$ si comenzó a $(M,N)$. Si sumamos todos estos valores esperados, obtenemos el número esperado de pasos que la persona que iba a gastar la marcha antes de llegar a la $x$ o $y$ ejes.

Para aclarar aún más el problema, definir dos variables aleatorias $T_x$$T_y$, que representa el número de medidas adoptadas antes de la $x$ $y$ coordenadas, respectivamente, se $0$, dado que la persona comienza a $(M,N)$. Entonces, podemos escribir tres sugerentes relaciones con estos (donde $\mathbb{E}$ es la expectativa de operador): $$\mathbb{E}(T_x)=\frac{M}p$$ $$\mathbb{E}(T_y)=\frac{N}{1-p}$$ $$\mathbb{E}(\min(T_x,T_y))=f(M,N)$$ donde el último es debido a que la condición de la persona que tiene un cero de coordenadas se produce cuando cualquiera de $T_x$ o $T_y$. Estamos esencialmente se pide demostrar que, en este caso $$\mathbb{E}(\min(T_x,T_y))\text{ is asymptotic to }\min(\mathbb{E}(T_x),\mathbb{E}(T_y)).$$ Lo que resulta evidente de esto es que, desde el mínimo de dos variables debe tener el valor esperado menor de variables, obtenemos $$f(M,N)\leq \min\left(\frac{M}p,\frac{N}{1-p}\right).$$ Si podemos demostrar que, para cualquier $\varepsilon$ y todos lo suficientemente grande como $M$$N$, que $$(1-\varepsilon)\min\left(\frac{M}p,\frac{N}{1-p}\right)\leq f(M,N)$$ a continuación, hemos demostrado que el límite converge a $1$, como se esperaba.

Para ello, tenga en cuenta la probabilidad de que, de fijo, $\lambda_1$ de $$P\left(T_x \leq (1-\lambda_1)\frac{M}p\right)$$ que es que el $x$ coordinar llega a $0$ por un factor constante más rápido de lo esperado. Fácilmente se puede demostrar que esto es lo mismo que decir la probabilidad como la probabilidad de que, después de$(1-\lambda_1)\frac{M}p$, $x$ coordenadas de la persona es $0$ o menos - ahora, el $x$-coordinar está distribuido de acuerdo a una traducción de la distribución binomial con media de $\lambda_1 M$ y la probabilidad de que esto está a menos de $0$ claramente que la reducción a $0$ $M$ aumenta hasta el infinito (como una consecuencia del teorema del límite central). Así, para cualquier $\lambda_2>0$, se puede elegir $M$ lo suficientemente grande como para que $P\left(T_x \leq (1-\lambda_1)\frac{M}p\right)<\lambda_2$. Por un argumento similar, podemos optar $N$ lo suficientemente grande como para que $P\left(T_y \leq (1-\lambda_1)\frac{N}(1-p)\right)<\lambda_2$.

Qué vamos a hacer con este conocimiento? Bueno, esto significa que $$p=P\left(\min(T_x,T_y)\leq (1-\lambda_1)\min\left(\frac{M}p,\frac{N}{1-p}\right)\right)<2\lambda_2$$ dado que al menos uno de los antes de que las condiciones deben poseer para que esto se sostenga. Sin embargo, tenga en cuenta que desde $\min(T_x,T_y)>0$ sabemos que la función $$r(x)=\begin{cases}0&&\text{if }x\leq (1-\lambda_1)\min\left(\frac{M}p,\frac{N}{1-p}\right)\\(1-\lambda_1)\min\left(\frac{M}p,\frac{N}{1-p}\right)&&\text{if }x>(1-\lambda_1)\min\left(\frac{M}p,\frac{N}{1-p}\right)\end{cases}$$ le ronda cada valor de $\min(T_x,T_y)$ a la baja lo que implica: $$f(M,N)=\mathbb{E}(\min(T_x,T_y))\geq\mathbb{E}(r(\min(T_x,T_y)))$$ pero desde $r$ $0$ con una probabilidad de $p$ y sería $(1-\lambda_1)\min\left(\frac{M}p,\frac{N}{1-p}\right)$ con una probabilidad de $(1-p)$, esto produce que $$\begin{align*}\mathbb{E}(r(\min(T_x,T_y)))&=(1-p)(1-\lambda_1)\min\left(\frac{M}p,\frac{N}{1-p}\right)\\&>(1-2\lambda_2)(1-\lambda_1)\min\left(\frac{M}p,\frac{N}{1-p}\right)\end{align*}$$ Elija $\lambda_1$ $\lambda_2$ tal que $(1-2\lambda_2)(1-\lambda_1)>(1-\varepsilon)$ y ya hemos demostrado que, para suficientemente grande $M$$N$, el valor de $f(M,N)$ es mayor que el anterior. Esto significa que su límite hace, en efecto, convergen a $1$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X