6 votos

Qué fracción de los fondos de una apuesta?

Digamos que tenemos un jugador que hace dinero a través de las apuestas deportivas. Mi objetivo es desarrollar un modelo para ayudar a nuestro jugador maximizar sus ganancias y minimizar las pérdidas.

En mi modelo, en lugar de apostar una cantidad fija de dinero, el jugador apuesta una cierta fracción de $0 < r < 1$ de su actual apuesta del fondo. Él continúa apostando a que la fracción como su fondo de apuestas aumenta o disminuye hasta que se retira después de un cierto número de sesiones de $n$.

El jugador inicial del fondo deberá ser $F_0$. Su fondo después de $i$ sesiones deberá ser $F_i$.

Su probabilidad de hacer una predicción correcta deberá ser $0 < p < 1$. Si nuestro jugador tenía un $p$ $0$ o $1$, la modelo sería inútil.

El promedio de las probabilidades con las que nuestro jugador se ocupa es $a > 1$.

El jugador del mínimo de ganancia deseado sobre el dinero en efectivo es $T$.

$$T \le F_n - F_0 \tag{1}$$

Si expresamos todo como un múltiplo de $F_0$, $(1)$ puede ser reescrita como:

$$T \le F_n - 1 \tag{1.1}$$

De ello se desprende que los siguientes son conocidos: $T$, $a$, $F_0$, $p$.

Debería de ser nuestro jugador pierde una particular sesión de decir $i+1$,

$$F_{i+1} = (1-r)F_i \tag{2.1}$$

Él debe ganar esa sesión en concreto

$$F_{i+1} = F_i(1-r + ra) \tag{2.2}$$

Dado que el jugador juega $n$ sessioms antes de cobrar.

Su número esperado de la gana = $p*n$ $(3.1)$

Su número esperado de pérdidas = $(1-p)*n$ $(3.2)$

Ahora hay muchas maneras diferentes para distribuir el jugador las pérdidas y las ganancias{$n \Bbb P pn$} y mientras que el cálculo de todos los escenarios y encontrar promedio de $F_n$ puede ser ideal, es computacionalmente muy costoso. Así que me decidí a la mierda, me voy a modelar el problema suponiendo que las pérdidas que tienen lugar en la peor manera posible( espalda con espalda en el comienzo del partido).

El jugador de los ingresos después de $n$ partidos está dado por la fórmula:

$F_n = (1-r)^{(1-p)n}\{(1-r)+ra\}^{pn}$ $(4)$

Ahora sabemos que nuestro jugador quiere hacer un beneficio mínimo de $T$ así que transformar $(4)$ en una desigualdad en el uso de $(1.1)$

Obtenemos:

$(1-r)^{(1-p)n}\{(1-r)+ra\}^{pn}$ $ \ge T + 1$ $(4.1)$

Tomando el logaritmo Natural de ambos lados, me sale:

$ln(1-r)*(1-p)(n) + ln(1-r + ra)*pn \ge ln(T+1)$ $(4.2)$

$n\{ln(1-r)(1-p) + ln(r(a-1)+1)(p) \} \ge ln(T+1)$ $(4.3)$

Dar las restricciones sobre las variables y constantes, quiero determinar el valor mínimo de $n$ y el valor máximo de $r$ que satisface $(4.1) / (4.3)$ (lo que es más fácil de resolver) para cualquier $T$, $a$, $p$.

EDICIÓN PRINCIPAL

Gracias a @Rodrigo de Azevedo, descubrí el Criterio de Kelly. Yo estaba vendido, y decidió ponerlo en práctica en mi método de juego de azar.

Para los fines de mi método de Kelly criterio está dado por:

$r_i = p - $ ${1 - p}\over{a_i - 1}$ $(5)$

Donde:

$r_i$ es la proporción en la sesión de $i$

$a_i$ es las probabilidades en sesión de $i$

Ahora $r: 0 \lt r \lt 1$ $(5.1)$

La aplicación de $(5.1)$ $(5)$obtenemos:

${p(a - 1) - (1 -p)}\over{a - 1}$ $ \gt \frac{0}{1}$

Cruz de multiplicar.

$p(a-1) - (1 - p) \gt 0(a-1)$

$pa - p - 1 + p \gt 0$

$pa - 1 > 0$

$pa > 1$

$p > 1/a$ $(5.2)$

Ahora que eso está fuera de la forma, todavía tenemos el problema de la determinación de mínimo $n$ de tal manera que podamos obtener un beneficio $ \ge T$.

Con el fin de hacer esto, vamos a asumir una "media" valor de$a$, a continuación, encontrar el mínimo valor de $n$ que satisface $(4.1)$

Debido al hecho de que no se conocen las probabilidades de los partidos por adelantado, la media de las probabilidades en $i$ dice $a_{\mu i}$ no puede ser la media de las probabilidades en $n$ $a_{\mu n}$. Con el fin de proteger en contra de esto(y porque no soy un gran tomador de riesgo), voy a asumir un valor de $a_{\mu}$, que es menor que $a_{\mu}$ llama $a_{det}$.

$a_{det} = a_{\mu} - k\sigma$

Donde $a_{\mu}$ es la Media Geométrica frente a la media aritmética de las probabilidades y $\sigma$ asociados S. D

Usando la Desigualdad de Chebyshev, al menos $k^{2} - 1 \over k^2$ de la distribución de las probabilidades se encuentran por encima de $a_{det}$.

Escoger un $k$ $2.5$

$2.5^{2}-1\over 2.5^{2}$

$0.84$

Así que nuestro $a_{det}$ es inferior al menos $84$% de la distribución de las probabilidades. Esto es lo suficientemente seguro para mí.

$a_{det} = a_{\mu} - 2.5\sigma$

El uso de $a_{det}$, vamos a calcular el mínimo de la $n$ que satisface $(4.1)$

Subbing $5$ $a_{det}$ a $(4.1)$ obtenemos:

$\left(1-\left(p - \frac{1-p}{a_{det}-1} \right) \right)^{n - np} \cdot \left(\left(p - \frac{1-p}{a_{det}-1} \right)\cdot(a_{det} - 1)\right)^{np}$ $ \ge T + 1$ $(6.0)$

Esto se puede simplificar más: $\left({a_{det}-1-(pa_{det}-1)}\over{a_{det}-1}\right)^{n(1-p)}\cdot\left(pa_{det}-1+1\right)^{np}$

$\left({a_{det}-pa_{det}}\over{a_{det}-1}\right)^{n(1-p)}\cdot\left(pa_{det}\right)^{np}$

$\left(\left(\frac{a_{det}*(1-p)}{a_{det}-1}\right)^{n(1-p)}\cdot\left(pa_{det}\right)^{np}\right)$ $(6.1)$

P. S debido a mi particularmente baja $a_{det}$ estamos más probable es que hacen mucho más beneficios que la $T$, pero que la carga mejor que la elección de un superior $a_{det}$ y de hacer menos.

4voto

Dado

  • odds $\omega_1, \omega_2, \dots, \omega_n > 1$.
  • las probabilidades de ganar $p_1, p_2, \dots, p_n \in [0,1]$.

vamos

  • $X_0, X_1, \dots, X_n$ ser variables aleatorias que denotan el fondo del tamaño de paso $k$.
  • $u_k \in [0,1]$ ser la fracción del fondo que se ponen en juego en el paso $k$. Deje $u_k$ dependen exclusivamente de los $\omega_k$$p_k$, y no en $X_{k-1}$. Por lo tanto, $u_k$ es no una variable aleatoria.

Por lo tanto, tenemos el tiempo discreto proceso estocástico

$$X_k = \begin{cases} (1 + (\omega_k - 1) \, u_k) \, X_{k-1} & \text{with probability } p_k\\\\ (1 - u_k) \, X_{k-1} & \text{with probability } 1-p_k\end{cases}$$


Maximizing the expected return

The return at step $k$ is, thus,

$$R_k := \frac{X_k - X_{k-1}}{X_{k-1}} = \frac{X_k}{X_{k-1}} - 1 = \begin{cases} (\omega_k - 1) \, u_k & \text{with probability } p_k\\\\ - u_k & \text{with probability } 1 - p_k\end{cases}$$

Taking the expected value of the return, we obtain

$$\mathbb E (R_k) = (\omega_k - 1) \, u_k \, p_k - u_k \, (1 - p_k) = (\omega_k \, p_k - 1) \, u_k$$

Maximizing the expected value of the return,

$$\bar{u}_k := \arg \max_{u_k \in [0,1]} \mathbb E \left( R_k \right) = \arg \max_{u_k \in [0,1]} (\omega_k \, p_k - 1) \, u_k = \begin{cases} 1 & \text{if } \omega_k \, p_k - 1 > 0\\ 0 & \text{if } \omega_k \, p_k - 1 \leq 0\end{cases}$$

where $\omega_k \, p_k - 1$ is the expected profit per unit bet at step $k$. Thus, the optimal betting policy, $\bar{u}_k = \pi\omega_k, p_k)$, is

$$\boxed{\pi (\omega, p) := \begin{cases} 1 & \text{if } \omega \, p > 1\\ 0 & \text{if } \omega \, p \leq 1\end{cases}}$$

En palabras,

  • cuando el beneficio esperado es no positivo, se apuesta nada.
  • cuando el beneficio esperado es positivo, vamos todos en.

Huelga decir que esta es una muy agresiva política de juego. Sería sabio para maximizar la otra de la función objetivo.


La maximización de la esperada de crecimiento logarítmico

Tomando el valor esperado del logaritmo del crecimiento en el paso $k$,

$$\mathbb E \left[ \log \left( \frac{X_k}{X_{k-1}} \right) \right] = \mathbb E \left[\log (1 + R_k)\right] = p_k \log \left( 1 + (\omega_k - 1) \, u_k \right) + (1 - p_k) \log \left( 1 - u_k \right)$$

Using SymPy to find where the derivative with respect to $u_k$ vanishes,

>>> from sympy import *
>>> p, u, w = symbols('p u w')
>>> f = p * log(1 + (w-1) * u) + (1 - p) * log(1 - u) 
>>> diff(f,u)
  p*(w - 1)     -p + 1
------------- - ------
u*(w - 1) + 1   -u + 1
>>> solve(diff(f,u),u)
 p*w - 1 
[-------]
  w - 1  

Hence,

$$\bar{u}_k := \arg \max_{u_k \in [0,1]} \mathbb E \left[ \log \left( \frac{X_k}{X_{k-1}} \right) \right] = \begin{cases} \dfrac{\omega_k \, p_k - 1}{\omega_k - 1} & \text{if } \omega_k \, p_k - 1 > 0\\\\ 0 & \text{if } \omega_k \, p_k - 1 \leq 0\end{cases}$$

where $\omega_k \, p_k - 1$ is the expected profit per unit bet at step $k$. This is the Kelly betting policy [0]

$$\boxed{\pi (\omega, p) := \begin{cases} \dfrac{\omega \, p - 1}{\omega - 1} & \text{if } \omega \, p > 1\\\\ 0 & \text{if } \omega \, p \leq 1\end{cases}}$$

We again bet nothing when the expected profit is non-positive, but we no longer go all in when the expected profit is positive. Note that

$$\dfrac{\omega \, p - 1}{\omega - 1} = 1 - \left(\frac{\omega}{\omega - 1}\right) (1 - p) \leq 1$$


Referencia

[0] Edward O. Thorp, El Criterio de Kelly en el Blackjack, las Apuestas Deportivas, y el Mercado de valores, La 10ª Conferencia Internacional sobre los juegos de Azar y la Toma de Riesgos, Montreal, junio de 1997.

0voto

Tobi Alafin Puntos 51

Para encontrar el mínimo de $n$ que satisface $(6.1)$.

$\left(\left(\frac{a_{det}∗(1−p)}{a_{det}−1}\right)^{n(1−p)}\cdot\left(pa_{det}\right)^{np}\right) \ge T+1$ $(6.1)$

En el lado izquierdo, $n$ es un exponente común. Tomar el logaritmo natural de ambos lados

$ln\left(\frac{a_{det}∗(1−p)}{a_{det}−1}\right)\cdot{n(1−p)} + ln\left(pa_{det}\right)\cdot{np} \ge ln(T+1)$

Factorise LHS con $n$.

$n\left(ln\left(\frac{a_{det}∗(1−p)}{a_{det}−1}\right)\cdot(1−p) + ln\left(pa_{det}\right)\cdot p\right) \ge ln(T+1)$ $(6.2)$

La reescritura de $(6.2)$

$n \ge \left({ln(T+1)}\over{ln\left(\frac{a_{det}∗(1−p)}{a_{det}−1}\right)\cdot(1−p) + ln\left(pa_{det}\right)\cdot p}\right)$ $(6.3)$

Presto.

Me di cuenta de esto funcionó porque Kelly criterio objetivo para maximizar el rendimiento esperado de crecimiento logarítmico.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X