El problema de la ruina del jugador plantea lo siguiente: supongamos que un jugador comienza con $k$ unidades de dinero, $0<k<N$ . Cada turno lanza una moneda y gana una unidad de dinero con probabilidad $p$ o pierde una unidad de dinero con probabilidad $1-p$ . El juego termina cuando alcanza $N$ y gana o $0$ en cuyo caso pierde el juego. ¿Cuál es la probabilidad de perder?
La solución habitual, que puede encontrar por ejemplo en http://en.wikipedia.org/wiki/Gambler%27s_ruin o en Grimmett & Stirzaker - Probabilidad y procesos aleatorios, página 17, procede a construir una ecuación de diferencia lineal utilizando el hecho (usando la notación de wikipedia) de que $P(R_n|H)=P(R_{n+1})$ donde $R_n$ es el evento "que el jugador se arruina habiendo comenzado con $n$ unidades de dinero" y $H$ es el evento "de ganar la primera vuelta".
¿Qué evento es exactamente $R_n$ ? ¿Es correcto considerar $H$ ser un solo evento o debemos tomar un evento separado para cada lanzamiento de moneda?
El enfoque adoptado por Grimmett y Stirzaker parece conceptualmente el mismo, pero en lugar de utilizar una única medida de probabilidad, utilizan $P_k$ - las probabilidades calculadas en relación con el punto de partida $k$ . Entonces utilizan la ecuación $P_k(A) = P_k(A|B)P(B) + P_k(A|B^C)P(B^C)$ donde A es el evento de perder el juego y B es el evento de ganar el primer lanzamiento. No estoy completamente seguro de lo que quieren decir con $P$ mi mejor opinión es que porque la probabilidad de $B$ es independiente de $k$ , simplemente dejan caer el índice. A continuación, utilizan el hecho de que $P_k(A|B) = P_{k+1}(A)$ que parece expresar esencialmente la misma relación que la ecuación con $R_n$ antes.
De todos modos, no he podido justificar completamente esta relación de forma teórica, así que aquí viene mi pregunta principal:
¿Cómo justificamos exactamente $P(R_n|H)=P(R_{n+1})$ y $P_k(A|B) = P_{k+1}(A)$ ?
He intentado traducir este problema a un lenguaje más familiar de la teoría de la medida, utilizando $\Omega = \lbrace-1,1\rbrace^\mathbb{N}$ como el espacio muestral subyacente y definiendo $M:\lbrace-1,1\rbrace^\mathbb{N}\times\mathbb{Z}\to\mathbb{N}\cup\lbrace\infty\rbrace,$ $M(f,k) = \min\lbrace m\in\mathbb{N}|\sum_{i=1}^m f(i) = k \rbrace$ (donde $\min\emptyset := \infty$ ), lo que nos permite definir $R_n = \lbrace f\in\Omega|M(f,-n) < M(f,N-n)\rbrace$ y $H = \lbrace f\in\Omega|f(1) = 1\rbrace,$ pero esto no me ha dado ninguna intuición nueva y puede que ni siquiera sea la formalización correcta.
Cada vez parece más probable que se me escape algún supuesto implícito en el enunciado del problema que es obvio para los probabilistas pero no tanto para mí... En este caso:
¿En qué consiste exactamente esta suposición?