4 votos

No se pudo reproducir la simulación en un artículo reciente de Hot Hands

Recientemente, he visto varios artículos de noticias (por ejemplo, el New York Times), refiriéndose al artículo Sorprendido por la Gamber y la Mano Caliente Falacias? Una Verdad en la Ley de los Pequeños Números por Miller y Sanjurjo. En ella escriben los autores

Jack toma una moneda de su bolsillo y decide que él va a darle la vuelta 4 veces en una fila, escribir el resultado de cada flip en un trozo de papel. Después de que él se hace voltear, que va a mirar en el volteretas que siguió inmediatamente un resultado de los jefes, y calcular la frecuencia relativa de caras en los lanzamientos. Porque la moneda es justo, Jack de curso se espera que este empírica de la probabilidad de que los cabezales de ser igual a la verdadera probabilidad de obtener cara en la moneda: 0.5. Sorprendentemente, Jack está mal. Si él se muestra a un millón de monedas justas y voltear cada moneda 4 veces, observando el condicional de la frecuencia relativa para cada una de las monedas, en promedio, la frecuencia relativa sería aproximadamente de 0.4.

Yo no entiendo como llegan a 0.4. Por el siguiente experimento, 0.5 parece correcto. También he publicado el código en github. Sospecho que mi confusión es más acerca de intrepreting lo que "Jack" es la medición que mi código. Mi código representa mi comprensión de lo que están tratando de simular Cualquier ayuda compensación a esto se agradece.

    ncoins<-1000000
    nflips<-4
    flips<-matrix(rbinom(ncoins*nflips,1,0.5),nrow=ncoins,ncol=nflips)
    results<-matrix(NA,nrow=nflips,ncol=3)
    row.names(results)=paste("Flip ",seq(1,nflips))
    row.names(results)[nflips]="Total"
    colnames(results)<-c("NSuccess","NConsecSuccess","Percent")

    eval_flips<-function(flips,i){
        out<-list()
        idx<-flips[,i]==1
        out$nsuccess<-sum(idx)
            out$nconsecsuccess<-sum(flips[idx,i+1])
        return(out)
    }

    for (i in 1:(nflips-1)){
        flip.result<-eval_flips(flips,i)
        results[i,"NSuccess"]<-flip.result$nsuccess
            results[i,"NConsecSuccess"]<-flip.result$nconsecsuccess
    }
    results<-data.frame(results)
    results[nflips,1]<-sum(results[1:(nflips-1),1])
    results[nflips,2]<-sum(results[1:(nflips-1),2])
    results$Percent<-results$NConsecSuccess/results$NSuccess
    results

            NSuccess NConsecSuccess   Percent
    Flip  1   499862         249956 0.5000500
    Flip  2   499900         249809 0.4997179
    Flip  3   500288         250374 0.5004597
    Total    1500050         750139 0.5000760

3voto

Cliff AB Puntos 3213

Mi comprensión de lo que están haciendo de manera diferente es que en el papel, que están tomando un promedio de los promedios (es decir, para cada conjunto de 4)...independientemente de cómo muchas de las muestras (es decir, cómo muchos de los principales H).

Para demostrar la diferencia: supongamos que usted vio a estos dos secuencias:

HHHH

HTTT

La forma en que usted está contando (creo que sólo desnatada en su código), sería de 4 H que tienes un flip, 3 de los cuales tienen un siguiente H,$\hat p = 0.75$.

Pero a mi entender, se podría calcular esta como el primer ensayo tuvo 3 H, con un flip, todos de los cuales son seguidos por una H, $\hat p_1 = 1$ y en el próximo juicio, es una H, seguido por una T, por lo $\hat p_2 = 0$ $\hat p_. = 0.5$ donde $\hat p_.$ el (no ponderado) promedio de los promedios.

Supongo que si se tomó un promedio ponderado de las $\hat p_i$'s, la respuesta probablemente sería el mismo. Pero que la sensación de la tripa, no tener realmente se sentó a trabajar.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X