La pregunta original:
Alice y Bob jugar a un juego. Para ganar el juego, Alice necesidades de $a$ puntos, y Bob necesidades de $1$ punto de ($a$ es fijo para cada juego). En cada ronda del juego, Alice elige un número real $x$. A continuación, una moneda, se voltea, y Alice se concede $x$ puntos si la moneda sale cara, y Bob se concede $x$ puntos si la moneda sale de la cola. Supongamos que Alice siempre juega de manera óptima. Su tarea es encontrar la probabilidad de que Alicia gana dado que ella está usando la mejor estrategia.
Este problema es un poco difícil de formalizar, así que voy a ofrecer la siguiente formalización. En primer lugar, tenga en cuenta que al principio de cada ronda, se puede normalizar el juego, así que Bob necesita exactamente $1$ punto más. Vamos a definir una estrategia de $s:\mathbb{R^+}\to\mathbb{R^+}$ como una función que toma como entrada el número de puntos de Alice necesidades, y las salidas de su elección $x$. Definir $p_s(a)$ a la probabilidad de que Alicia gana el juego necesita $a$ puntos y estrategia de juego $s$. Deje $S$ ser el conjunto de todas las estrategias. Encontrar $$p, p(a)=\sup_{s \in S}p_s(a).$$
En primer lugar, tomamos nota de que $p(a) = 1$ si $a = 1 - \epsilon < 1$, como Alice puede elegir una lo suficientemente pequeño $x$ y jugar varias veces hasta que ella gana. He incluido una prueba formal de abajo.
Segundo, se nota que $p(1)$ sigue siendo igual a $1$. Pick $\epsilon, 2\epsilon, 4\epsilon, 8\epsilon, \dots$ hasta ella ha ganado uno de estos. Por lo suficientemente pequeño $\epsilon$, esto siempre va a pasar antes de que ella es derrotado por Bob. En este punto, ella está por delante de Bob por $\epsilon$, y el argumento de $a < 1$ se aplica. De nuevo, he incluido una prueba formal de abajo
Claramente esto también implica que $\lim_{a \to 1^+}p(a)=1$.
Estos son fáciles de casos. Ahora, la intuición sugiere que $\lim_{a \to \infty}p(a)=\frac 12$ (se ve forzada a elegir a$x=a$ cuando $a$ es lo suficientemente grande). No he tratado de probar esto, pero no parece demasiado difícil.
Finalmente, puedo demostrar que $p(2) \geq \frac 34$. Esto se hace fácilmente por tener la primera Alice elige $x=1-\epsilon$ para suficientemente pequeño $\epsilon$. Si gana los puntos, invocar la $\lim_{a \to 1^+}$ caso de ganar con una probabilidad de $1$, y si no, a continuación, elija $x=2$ ganar con una probabilidad de $\frac 12$. Esta estrategia puede ser ampliado a cualquier $n \in \mathbb{N}$ simplemente recoger $1-\epsilon$ repetidamente, $n-1$ veces. Esto demuestra que $p(n) \geq \frac 12 + 2^{-n+1}$ para los números naturales $n$.
Pregunta: ¿Puede esta obligado a ser mejorado, demostrado ser apretado, o se extiende a todos los números reales?
La prueba de una < 1: Considerar el juego en el que Bob necesidades de $1$ punto de Alice y necesidades de $1-\epsilon, \epsilon > 0$ puntos. Vamos a mostrar que para cada $\delta > 0$, existe una estrategia que permite a Alice para ganar con una probabilidad de al menos $1-\delta$.
La estrategia es simple: Alice repetidamente elija $x=k$, donde $k=\frac{\epsilon^2}{8(2-\epsilon)\log \delta}$. Tomamos nota de que una vez $2-\epsilon$ puntos han sido premiados, uno de los dos jugadores debe haber ganado. Como resultado, uno de los dos jugadores que siempre han ganado después de $\frac{2-\epsilon}{k}$ rondas se han jugado. Deje $X_i, 1 \leq i \leq \frac{2-\epsilon}{k}$ ser el indicador de la variable aleatoria que es $1$ si Bob gana la ronda $i$ e $0$ lo contrario, y deje $X=\sum X_i$. Entonces es claro que Bob se ha otorgado un total de $Xk$ puntos, y así se gana sólo si $X \geq \frac 1k.$a Continuación, $$\begin{aligned} \Pr [\text{Bob wins}] =& \text{Pr }\left[X \geq \frac 1k\right] \\ =& \Pr \left[X \geq \frac 1k - \frac \epsilon {2k} + \frac \epsilon {2k}\right] \\ =& \Pr \left[X \geq \mathbb{E} [X] + \frac{\epsilon}{2k}\right] \\ =& \Pr \left[X \geq \mathbb{E} [X] \left(1+ \frac{\epsilon}{2-\epsilon}\right)\right] \\ \leq & \text{exp }\left(-\frac{2-\epsilon}{8k}\left(\frac{\epsilon}{2-\epsilon}\right)^2\right) \hspace{20 px} (*)\\ = & \delta \end{aligned}$$ donde $(*)$ es debido a Chernoff Límites.
Prueba para a=1: vamos a describir un conjunto de estrategias que permiten a Alice para ganar el juego en el que tanto ella y Bob $1$ punto con probabilidad de $\geq 1-\delta$ cualquier $\delta > 0$.
Deje $\delta ' = \frac \delta 2$, e $r=\frac{\delta '}2$. Alice va a comenzar por la elección de $x=r, 2r, 4r, 8r, \dots$ hasta Bob gana el juego, o hasta que Alice gana alguno de estos coin flips. Es fácil comprobar de forma algebraica que la probabilidad de que Bob gana en esta etapa es $\leq \delta '$. Una vez que Alice gana en cualquier tirón de la moneda, ella está por delante de Bob por exactamente $r$ puntos. En este punto, se puede abandonar su actual esquema de apuestas, normalizar Bob puntos y jugar una estrategia para $a<1$ que le da una oportunidad de ganar de $1-\delta '$. Por la unión de obligado, la probabilidad de Bob ganar es entonces $\leq 2\delta ' = \delta$, como se desee.