Ya que esto se ve como un problema combinatorio (con todas aquellas sumas y binomios), tiene sentido para tratar de encontrar una combinatoria de interpretación de los valores. En particular, definir: $$f(M,N)=\sum_{i=0}^{M-1}\sum_{j=0}^{N-1}p^i(1-p)^j{i+j\choose i}$$
Antes de entrar en lo que esto significa, podemos notar una calidad útil de esta función:
$$f(M,N)=1+pf(M-1,N)+(1-p)f(M,N-1)$$
que puede ser probada, ya que se expande a:
$$f(M,N)=1+\left(\sum_{i=0}^{M-2}\sum_{j=0}^{N-1}p^{i+1}(1-p)^{j}{i+j\choose i}\right)+\left(\sum_{i=0}^{M-1}\sum_{j=0}^{N-2}p^{i}(1-p)^{j+1}{i+j\choose i}\right)$$
que, después de jigger con la suma de los límites se convierte en
$$f(M,N)=1+\left(\sum_{i=1}^{M-1}\sum_{j=0}^{N-1}p^{i}(1-p)^{j}{i+j-1\choose i-1}\right)+\left(\sum_{i=0}^{M-1}\sum_{j=1}^{N-1}p^{i}(1-p)^{j}{i+j-1\choose i}\right)$$
y la combinación de las sumas donde $M,N\geq 1$, la división de las sumas donde $i=0$ o $j=0$ por separado, y el uso de la identidad que ${i+j-1\choose i-1}+{i+j-1\choose i}={i+j\choose i}$ da
$$f(M,N)=1+\left(\sum_{i=1}^{M-1}p^{i}(1-p)^{0}{i+0-1\elegir i-1}\right)+\left(\sum_{j=1}^{N-1}p^{0}(1-p)^{j}{0+j-1\elegir 0}\right)+\left(\sum_{i=1}^{M-1}\sum_{j=1}^{N-1}p^{i}(1-p)^{j}{i+j\elegir i}\right)
$$
pero desde ${i+0-1\choose i-1}=1={i+0\choose i}$${0+j-1\choose 0}=1={0+j\choose 0}$$1=p^0(1-p)^0{0\choose 0}$, por encima de todo se derrumba a
$$f(M,N)=\sum_{i=0}^{M-1}\sum_{j=0}^{N-1}p^i(1-p)^j{i+j\choose i}$$
como era de esperar. Todo esto va a garantizar que tengamos la identidad
$$f(M,N)=1+pf(M-1,N)+(1-p)f(M,N-1).$$
¿Por qué es esto importante? Bien, yo interpreto $f$ como sigue:
Si una persona comienza en la posición $(M,N)$ y decide caminar a la izquierda (disminución de la $x$-coordinar por $1$) con una probabilidad de $p$ o abajo (la disminución de la $y$-coordinar) con probabiliy $(1-p)$, $f(M,N)$ es el número esperado de pasos antes de que una de las coordenadas es $0$.
Esto es evidente a partir de la definición recursiva - la suma se puede leer que la persona se tome $1$ paso (de ahí el $1+\ldots$ plazo) y luego, con una probabilidad de $p$ en el estado $(M-1,N)$ y con una probabilidad de $(1-p)$ en el estado $(M,N-1)$.
Una forma intuitiva de ver todo lo anterior es que el $p^i(1-p)^j{i+j\choose j}$ es la probabilidad de que la persona que iba a pie a través de $(0,0)$ si comenzó a $(i,j)$ - o, equivalentemente, que es el número esperado de veces que tendrían que caminar a través de $(M-i,N-j)$ si comenzó a $(M,N)$. Si sumamos todos estos valores esperados, obtenemos el número esperado de pasos que la persona que iba a gastar la marcha antes de llegar a la $x$ o $y$ ejes.
Para aclarar aún más el problema, definir dos variables aleatorias $T_x$$T_y$, que representa el número de medidas adoptadas antes de la $x$ $y$ coordenadas, respectivamente, se $0$, dado que la persona comienza a $(M,N)$. Entonces, podemos escribir tres sugerentes relaciones con estos (donde $\mathbb{E}$ es la expectativa de operador):
$$\mathbb{E}(T_x)=\frac{M}p$$
$$\mathbb{E}(T_y)=\frac{N}{1-p}$$
$$\mathbb{E}(\min(T_x,T_y))=f(M,N)$$
donde el último es debido a que la condición de la persona que tiene un cero de coordenadas se produce cuando cualquiera de $T_x$ o $T_y$. Estamos esencialmente se pide demostrar que, en este caso
$$\mathbb{E}(\min(T_x,T_y))\text{ is asymptotic to }\min(\mathbb{E}(T_x),\mathbb{E}(T_y)).$$
Lo que resulta evidente de esto es que, desde el mínimo de dos variables debe tener el valor esperado menor de variables, obtenemos
$$f(M,N)\leq \min\left(\frac{M}p,\frac{N}{1-p}\right).$$
Si podemos demostrar que, para cualquier $\varepsilon$ y todos lo suficientemente grande como $M$$N$, que
$$(1-\varepsilon)\min\left(\frac{M}p,\frac{N}{1-p}\right)\leq f(M,N)$$
a continuación, hemos demostrado que el límite converge a $1$, como se esperaba.
Para ello, tenga en cuenta la probabilidad de que, de fijo, $\lambda_1$ de
$$P\left(T_x \leq (1-\lambda_1)\frac{M}p\right)$$
que es que el $x$ coordinar llega a $0$ por un factor constante más rápido de lo esperado. Fácilmente se puede demostrar que esto es lo mismo que decir la probabilidad como la probabilidad de que, después de$(1-\lambda_1)\frac{M}p$, $x$ coordenadas de la persona es $0$ o menos - ahora, el $x$-coordinar está distribuido de acuerdo a una traducción de la distribución binomial con media de $\lambda_1 M$ y la probabilidad de que esto está a menos de $0$ claramente que la reducción a $0$ $M$ aumenta hasta el infinito (como una consecuencia del teorema del límite central). Así, para cualquier $\lambda_2>0$, se puede elegir $M$ lo suficientemente grande como para que $P\left(T_x \leq (1-\lambda_1)\frac{M}p\right)<\lambda_2$. Por un argumento similar, podemos optar $N$ lo suficientemente grande como para que $P\left(T_y \leq (1-\lambda_1)\frac{N}(1-p)\right)<\lambda_2$.
Qué vamos a hacer con este conocimiento? Bueno, esto significa que
$$p=P\left(\min(T_x,T_y)\leq (1-\lambda_1)\min\left(\frac{M}p,\frac{N}{1-p}\right)\right)<2\lambda_2$$
dado que al menos uno de los antes de que las condiciones deben poseer para que esto se sostenga. Sin embargo, tenga en cuenta que desde $\min(T_x,T_y)>0$ sabemos que la función
$$r(x)=\begin{cases}0&&\text{if }x\leq (1-\lambda_1)\min\left(\frac{M}p,\frac{N}{1-p}\right)\\(1-\lambda_1)\min\left(\frac{M}p,\frac{N}{1-p}\right)&&\text{if }x>(1-\lambda_1)\min\left(\frac{M}p,\frac{N}{1-p}\right)\end{cases}$$
le ronda cada valor de $\min(T_x,T_y)$ a la baja lo que implica:
$$f(M,N)=\mathbb{E}(\min(T_x,T_y))\geq\mathbb{E}(r(\min(T_x,T_y)))$$
pero desde $r$ $0$ con una probabilidad de $p$ y sería $(1-\lambda_1)\min\left(\frac{M}p,\frac{N}{1-p}\right)$ con una probabilidad de $(1-p)$, esto produce que
$$\begin{align*}\mathbb{E}(r(\min(T_x,T_y)))&=(1-p)(1-\lambda_1)\min\left(\frac{M}p,\frac{N}{1-p}\right)\\&>(1-2\lambda_2)(1-\lambda_1)\min\left(\frac{M}p,\frac{N}{1-p}\right)\end{align*}$$
Elija $\lambda_1$ $\lambda_2$ tal que $(1-2\lambda_2)(1-\lambda_1)>(1-\varepsilon)$ y ya hemos demostrado que, para suficientemente grande $M$$N$, el valor de $f(M,N)$ es mayor que el anterior. Esto significa que su límite hace, en efecto, convergen a $1$.