4 votos

¿Cómo justificamos ciertos pasos en la solución de la ruina del jugador?

El problema de la ruina del jugador plantea lo siguiente: supongamos que un jugador comienza con $k$ unidades de dinero, $0<k<N$ . Cada turno lanza una moneda y gana una unidad de dinero con probabilidad $p$ o pierde una unidad de dinero con probabilidad $1-p$ . El juego termina cuando alcanza $N$ y gana o $0$ en cuyo caso pierde el juego. ¿Cuál es la probabilidad de perder?

La solución habitual, que puede encontrar por ejemplo en http://en.wikipedia.org/wiki/Gambler%27s_ruin o en Grimmett & Stirzaker - Probabilidad y procesos aleatorios, página 17, procede a construir una ecuación de diferencia lineal utilizando el hecho (usando la notación de wikipedia) de que $P(R_n|H)=P(R_{n+1})$ donde $R_n$ es el evento "que el jugador se arruina habiendo comenzado con $n$ unidades de dinero" y $H$ es el evento "de ganar la primera vuelta".

¿Qué evento es exactamente $R_n$ ? ¿Es correcto considerar $H$ ser un solo evento o debemos tomar un evento separado para cada lanzamiento de moneda?

El enfoque adoptado por Grimmett y Stirzaker parece conceptualmente el mismo, pero en lugar de utilizar una única medida de probabilidad, utilizan $P_k$ - las probabilidades calculadas en relación con el punto de partida $k$ . Entonces utilizan la ecuación $P_k(A) = P_k(A|B)P(B) + P_k(A|B^C)P(B^C)$ donde A es el evento de perder el juego y B es el evento de ganar el primer lanzamiento. No estoy completamente seguro de lo que quieren decir con $P$ mi mejor opinión es que porque la probabilidad de $B$ es independiente de $k$ , simplemente dejan caer el índice. A continuación, utilizan el hecho de que $P_k(A|B) = P_{k+1}(A)$ que parece expresar esencialmente la misma relación que la ecuación con $R_n$ antes.

De todos modos, no he podido justificar completamente esta relación de forma teórica, así que aquí viene mi pregunta principal:

¿Cómo justificamos exactamente $P(R_n|H)=P(R_{n+1})$ y $P_k(A|B) = P_{k+1}(A)$ ?

He intentado traducir este problema a un lenguaje más familiar de la teoría de la medida, utilizando $\Omega = \lbrace-1,1\rbrace^\mathbb{N}$ como el espacio muestral subyacente y definiendo $M:\lbrace-1,1\rbrace^\mathbb{N}\times\mathbb{Z}\to\mathbb{N}\cup\lbrace\infty\rbrace,$ $M(f,k) = \min\lbrace m\in\mathbb{N}|\sum_{i=1}^m f(i) = k \rbrace$ (donde $\min\emptyset := \infty$ ), lo que nos permite definir $R_n = \lbrace f\in\Omega|M(f,-n) < M(f,N-n)\rbrace$ y $H = \lbrace f\in\Omega|f(1) = 1\rbrace,$ pero esto no me ha dado ninguna intuición nueva y puede que ni siquiera sea la formalización correcta.

Cada vez parece más probable que se me escape algún supuesto implícito en el enunciado del problema que es obvio para los probabilistas pero no tanto para mí... En este caso:

¿En qué consiste exactamente esta suposición?

7voto

Joe Lencioni Puntos 4642

$R_n$ es simplemente el caso de que el jugador comience con $n$ unidades de dinero, juega el juego y pierde (es decir, pierde todo su dinero). $H$ es, en efecto, el caso de que el jugador gane en el primer lanzamiento, aumentando así su fortuna en 1 (y permitiéndole seguir jugando).

Esta es la razón por la que $P(R_n|H)=P(R_{n+1})$ . Dado el evento $H$ el jugador aumenta su fortuna en 1; y en este punto, es como si acabara de empezar a jugar con una fortuna de $n+1$ unidades de dinero. Por lo tanto, la probabilidad de que pierda el juego empezando con $n$ unidades de dinero, dado que gana la primera tirada, es exactamente la misma que la probabilidad de que pierda el juego empezando con $n+1$ unidades de dinero.

No estoy muy seguro de lo que $P_k$ representa (¿qué quiere decir con "relativo al punto de partida"?), pero sospecho que un razonamiento similar establecerá su fórmula.

5voto

Zombies Puntos 240

David ofrece la perspectiva probabilística, que es la forma más útil de pensar en problemas como éste una vez que se está seguro de que se puede razonar sobre ellos formalmente. El excelente libro de Terence Tao revisión de la teoría de la probabilidad discute la "forma de pensar probabilística" (y contiene muchas otras bondades).

Tu formalización funciona (sólo falta definir una medida para que esté completa).

¿Cómo justificamos exactamente $P(R_n|H)=P(R_{n+1})$ y $P_k(A|B)=P_{k+1}(A)$ ?

Si fuéramos línea por línea, se vería así:

$\begin{align} \mathbb{P}[R_n|H] &= \mathbb{P}[\lbrace f\in\Omega|M(f,-n) < M(f,N-n)\}|f(1)=1]\\ &= \mathbb{P}[\lbrace f\in\Omega|\min\{m\in\mathbb{N}|\sum_{i=2}^m f(i)=-n-1\} < \min\{m\in\mathbb{N}|\sum_{i=2}^m f(i)=N-n-1\}| f(1)=1]\\ &= \mathbb{P}[\lbrace f\in\Omega|\min\{m\in\mathbb{N}|\sum_{i=2}^m f(i)=-n-1\} < \min\{m\in\mathbb{N}|\sum_{i=2}^m f(i)=N-n-1\}]\\ \end{align}$

ya que $f(1)=1$ y $\lbrace f\in\Omega|\min\{m\in\mathbb{N}|\sum_{i=2}^m f(i)=-n-1\} < \min\{m\in\mathbb{N}|\sum_{i=2}^m f(i)=N-n-1\}$ son eventos independientes.

$\begin{align} \mathbb{P}[R_n|H]&= \mathbb{P}[M((f(2),f(3),\cdots),-n-1)<M((f(2),f(3),\cdots),N-n-1)]\\ &= \mathbb{P}[M((f(1),f(2),\cdots),-(n+1)) < M((f(1),f(2),\cdots),N-(n+1))]\\ &=\mathbb{P}[R_{n+1}] \end{align} $

La penúltima línea sigue porque las secuencias $(f(1),f(2),\cdots)$ y $(f(2),f(3),\cdots)$ tienen la misma distribución.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X