6 votos

Orden en una moneda sesgada

Situación: Considere el clásico experimento de lanzar una moneda. Queremos explorar si la moneda está sesgada. Moneda 1: Se lanza la moneda $50$ tiempos. Recibimos $20$ T y luego $30$ H, en esa secuencia Moneda 2: Se lanza la moneda $50$ tiempos. Recibimos $4$ T $6$ H, $4$ T $6$ H, $4$ T $6$ H, $4$ T $6$ H, $4$ T $6$ H en esa secuencia.

P1 : ¿Es la probabilidad de que la moneda 1 y la moneda 2 estén sesgadas es la misma? Mi intuición me dice que sí, porque cada evento es independiente, así que el orden de los eventos no importa en absoluto.

P2: Tengo un lanzamiento de moneda donde las observaciones no son independientes. P(H | Lanzamiento anterior es cola) = $0.6$ y P(T | Cabeza anterior) = $0.5$ ¿Qué tipo de prueba estadística puedo utilizar para comprobar la probabilidad de que la moneda esté sesgada?

0 votos

Para 1, basta con calcular la probabilidad de cada uno de los resultados específicos. Para la 2, ¿cuál es su definición de sesgo teniendo en cuenta la correlación? Tienes las probabilidades específicas. La moneda no me parece sesgada debido a la simetría. A la larga, deberías obtener la mitad de caras y la mitad de colas. Las rachas largas de cara y cruz deberían ser más comunes que con una moneda en la que los lanzamientos son independientes.

0 votos

Gracias Ross, he editado la Q2

0 votos

Ahora puedes dar la vuelta un montón de veces. Calcula la fracción media a largo plazo de caras y colas. No será $0.5$ cada uno.

2voto

Ben Puntos 236

Su objetivo aquí es probar la probabilidad marginal de una cabeza en sus monedas. Sin embargo, debes tener cuidado con tus suposiciones. Dices en tu pregunta que los lanzamientos de las monedas son independientes, pero los datos de las monedas lo falsifican claramente. El modelo estándar de lanzamiento de monedas con resultados independientes se basa en una suposición de intercambiabilidad de los resultados, que puede comprobarse mediante una prueba de permutación (por ejemplo, una prueba de carreras). Para un proceso binario con veinte colas y treinta cabezas observadas, la distribución del número de ejecuciones se muestra en el siguiente gráfico ( R código de este gráfico más abajo).

enter image description here

En sus datos, la Moneda 1 tiene dos carreras y la Moneda 2 tiene diez carreras. Dos ejecuciones está tan lejos en las colas que no obtenemos una sola generación aleatoria de esto en $10^6$ simulaciones, lo que arroja un valor p simulado de cero. Diez ejecuciones están tan lejos en las colas que obtenemos un valor tan o más extremo que éste sólo siete veces en $10^6$ simulaciones, lo que arroja un valor p simulado cercano a cero. En resumen, para ambas monedas (pero especialmente la primera), hay extremadamente una fuerte evidencia de que la intercambiabilidad no se mantiene, por lo que los lanzamientos no son independientes (incluso cuando condicionamos la probabilidad marginal de una cabeza).

Dado que sus lanzamientos de moneda muestran evidencia de no intercambiabilidad, necesita basar su análisis en algún tipo de modelo más general (por ejemplo, un modelo de auto-regresión binaria (BAR)). Ahora bien, es posible que siga encontrando que la evidencia de la probabilidad marginal de salir cara es la misma en ambos casos, bajo un modelo más general. Sin embargo, no puede basarse en una suposición de independencia de los lanzamientos, que está claramente falsificada por los datos observados.


Código R para este gráfico:

#Define a function to calculate the runs for an input vector
RUNS <- function(x) { n <- length(x);
                      R <- 1;
                      for (i in 2:n) { if(x[i] != x[i-1]) { R <- R+1; } }
                      R }

#Simulate the runs statistic for k permutations
k <- 10^6;
set.seed(12345);
RR <- rep(0, k);
for (i in 1:k) { x_perm <- sample(x, length(x), replace = FALSE);
                 RR[i] <- RUNS(x_perm); }

#Generate the frequency table for the simulated runs
FREQS <- as.data.frame(table(RR));

#Plot estimated distribution of runs
library(ggplot2);
ggplot(data = FREQS, aes(x = RR, y = Freq/k, colour = 'Red', fill = 'Red')) +
       geom_bar(stat = 'identity') +
       theme(legend.position = 'none') +
       labs(title ='Plot of Distribution of Runs',
       subtitle = '(Simulation using 1,000,000 generated values)',
       x = 'Runs', y = 'Estimated Probability');

0 votos

Ben, gracias por esta respuesta. ¿Puedo aclarar qué quieres decir con que la moneda 1 tiene 2 tiradas y la moneda 2 tiene 10 tiradas? Ambas tienen 50 lanzamientos

0 votos

Para una secuencia binaria, el número de "carreras" se define como el número de series del mismo valor. Así, para la primera moneda se tiene una "serie" inicial de veinte colas, y luego una segunda "serie" de treinta caras. Para la segunda moneda, tienes diez "tiradas" que consisten en secuencias de cuatro colas, luego seis cabezas, etc.

2voto

JiminyCricket Puntos 143

Ya se ha dado una respuesta detallada bajo el supuesto de que se cuestiona la independencia de los lanzamientos de moneda. He interpretado la pregunta en el sentido de que la hipótesis de la independencia se mantiene y que usted sólo quiere considerar la posibilidad de que la moneda esté sesgada para alejarse de la distribución uniforme para $p=\frac12$ .

En este caso, la respuesta a la pregunta $1$ es afirmativa. En este experimento, el número de cabezas es un estadística suficiente para el parámetro $p$ de interés, la probabilidad de que la moneda salga cara. Es decir, contiene toda la información sobre este parámetro que contiene toda la serie de datos. Formalmente, la probabilidad del parámetro condicionada al estadístico es la misma que la probabilidad del parámetro condicionada a la totalidad de los datos. Por lo tanto, el orden en el que se producen los resultados no supone ninguna diferencia en sus creencias posteriores sobre el parámetro.

0 votos

Gracias por la respuesta. Esto también significaría que el orden será importante si las observaciones no fueran independientes. ¿Qué tipo de estadística se debe utilizar en ese caso y qué tipo de prueba se puede utilizar para comprobar la significación estadística?

0 votos

@Penrose: No sé mucho de ese tipo de cosas -- pero me da la impresión de que Ben (el autor de la otra respuesta) sí.

1voto

Omegatron Puntos 101

Supongamos que tengo n ensayos Bernoulli independientes que se pueden simular con la distribución Binomial. Es decir, tengo una variable aleatoria $X \sim Bin(n,p)$ . El pmf para esto viene dado por $f(k,n,p) = \binom{n}{k} (p)^{k}(1-p)^{n-k} $

Ahora...si quiero simular digamos 50 lanzamientos de monedas...déjame hacer eso...en digamos Python como lo siguiente...

importar numpy como np importar random

random.seed(42)

n_flips = 25
p =.50
coin_flips = np.random.choice([0,1],n_flips,[(1-p),p])

cómo se ve esto

Out[6]: 
array([0, 0, 0, 1, 1, 0, 0, 0, 1, 1, 1, 1, 1, 0, 1, 0, 1, 0, 0, 0, 1, 1,
       1, 1, 1])

Por suerte para nosotros sabemos algo sobre la media de la distribución binomial.

$$ E(X) = np$$

Así que si tengo la hipótesis de que esta es una moneda justa. ¿Cómo podemos usarla para probarla? Si la moneda está sesgada entonces podríamos observar que la media es diferente en promedio. Por lo tanto, si tenemos dos monedas, si restamos las dos medias, observaremos que la diferencia es mayor de lo que cabría esperar. Entonces se compara esto con un valor p. Generalmente se denomina test A/B

0 votos

Esto es válido para la observación independiente. ¿Será válida cuando las observaciones no sean independientes?

0 votos

@Penrose esta supuesta independencia. Las reglas de Bayes siempre me dieron problemas. Pero sería una regla de Bayes para hacer algún tipo de prueba condicional. Tendría que revisar mi libro. Alguien más inteligente que yo podría explicarlo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X