27 votos

Media de bateo bayesiana a priori

Quería hacer una pregunta inspirada en una excelente respuesta a la pregunta sobre la intuición de la distribución beta. Quería entender mejor la derivación de la distribución a priori para el promedio de bateo. Parece que David está retrocediendo los parámetros de la media y el rango.

Bajo el supuesto de que la media es $0.27$ y la desviación estándar es $0.18$ ¿Puedes echarte atrás? $\alpha$ y $\beta$ resolviendo estas dos ecuaciones: \begin{equation} \frac{\alpha}{\alpha+\beta}=0.27 \\ \frac{\alpha\cdot\beta}{(\alpha+\beta)^2\cdot(\alpha+\beta+1)}=0.18^2 \end{equation}

28voto

mdahlman Puntos 5700

Fíjate en eso:

\begin{equation} \frac{\alpha\cdot\beta}{(\alpha+\beta)^2}=(\frac{\alpha}{\alpha+\beta})\cdot(1-\frac{\alpha}{\alpha+\beta}) \end{equation}

Esto significa que la varianza puede expresarse en términos de la media como

\begin{equation} \sigma^2=\frac{\mu\cdot(1-\mu)}{\alpha+\beta+1} \\ \end{equation}

Si quiere una media de $.27$ y una desviación estándar de $.18$ (variación $.0324$ ), simplemente calcula:

\begin{equation} \alpha+\beta=\frac{\mu(1-\mu)}{\sigma^2}-1=\frac{.27\cdot(1-.27)}{.0324}-1=5.083333 \\ \end{equation}

Ahora que sabes el total, $\alpha$ y $\beta$ son fáciles:

\begin{equation} \alpha=\mu(\alpha+\beta)=.27 \cdot 5.083333=1.372499 \\ \beta=(1-\mu)(\alpha+\beta)=(1-.27) \cdot 5.083333=3.710831 \end{equation}

Puedes comprobar esta respuesta en R:

> mean(rbeta(10000000, 1.372499, 3.710831))
[1] 0.2700334
> var(rbeta(10000000, 1.372499, 3.710831))
[1] 0.03241907

4voto

tykho Puntos 26

Quería añadir esto como comentario a la excelente respuesta pero se me hizo largo y quedará mejor con el formato de la respuesta.

Hay que tener en cuenta que no todos los $(\mu, \sigma^2)$ son posibles. Está claro que $\mu \in [0,1]$ pero no están tan claras las limitaciones para $\sigma^2$ .

Utilizando el mismo razonamiento que David, podemos expresar

$$ \sigma^2(\alpha, \mu) = \frac{\mu^2 (1-\mu)}{\alpha + \mu} $$

Esto disminuye con respecto a $\alpha$ , por lo que el mayor $\sigma^2$ puede ser para un determinado $\mu$ es:

$$\lim_{\alpha \rightarrow 0}\sigma^2(\alpha, \mu) = \mu(1-\mu)$$

Esto es sólo un supremacía, ya que el conjunto de los válidos $\alpha$ es abierto (es decir, para Beta, debemos tener $\alpha > 0$ ); este límite se maximiza a su vez en $\mu = \frac12$ .

Obsérvese la relación con la correspondiente RV de Bernoulli. La distribución Beta con media $\mu$ al estar obligado a tomar todos los valores entre 0 y 1, debe ser menos disperso (es decir, tener menor varianza) que el VR de Bernoulli con la misma media (que tiene toda su masa en los extremos del intervalo). De hecho, al enviar $\alpha$ a 0 y fijando $\beta = \frac{1-\mu}{\mu} \alpha$ equivale a situar cada vez más la masa de la FDP cerca de 0 y 1, es decir, a acercarse a una distribución Bernoulli, por lo que el sumo de la varianza es exactamente la varianza Bernoulli correspondiente.

En conjunto, este es el conjunto de medias y varianzas válidas para Beta:

enter image description here

(De hecho, esto se observa en el Página de Wikipedia para Beta )

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X