5 votos

¿Es "una moneda justa lanzada $n$ veces" lo mismo que " $n$ ¿se lanzan monedas justas una vez?

Esta es posiblemente una pregunta de seguimiento de esta:

diferentes espacios de probabilidad para $P(X=k)=\binom{n}{k}p^k\big(1-p\big)^{ n-k}$ ?

Considere los dos modelos del título:

  • una moneda justa lanzada al aire $n$ veces
  • $n$ monedas justas que se lanzan una vez

y calcular la probabilidad en cada modelo de que aparezca(n) la(s) "cabeza(s)" $k~ (0\leq k\leq n)$ veces. Entonces uno puede llegar a la misma respuesta que $$ P(\text{"head" appear(s)} ~k~ \text{times}) = \binom{n}{k}p^k\big(1-p\big)^{n-k} $$

Sin embargo, la primera puede considerarse como una proceso aleatorio donde el espacio de probabilidad subyacente es $\Omega = \{0,1\}$ ( $1$ denota "cabeza" y $0$ por "cola") y el tiempo establecido $T=\{1,2,\cdots,n\}$ . Mientras que en el segundo, el espacio de probabilidad subyacente es $\Omega = \{0,1\}^n$ .

Estas son mis preguntas:

  • ¿Cómo puedo llegar a la mismo fórmula con estos dos diferentes ¿puntos de vista?
  • ¿Son estos dos modelos esencialmente iguales?

5voto

Adam Kahtava Puntos 383

Los modelos son esencialmente los mismos. Creo que esto también responde automáticamente a su primera pregunta.

Se puede considerar que ambos intercambian una dimensión espacial por una dimensión temporal.

0voto

André Caldas Puntos 2775

Ambos modelos son básicamente una forma de poner una probabilidad en $\{0,1\}^n$ .

Por lo general, se le dará una distribución de probabilidad en $\{0,1\}$ , y tratar de extenderlo a una probabilidad en $\{0,1\}^n$ según a alguna suposición adicional.

Si un experimento (lanzar una moneda) no influye en el otro (lanzarla de nuevo, o lanzar otra moneda), entonces, tendrás el modelo que describes.

La cuestión es que cuando se habla de un proceso aleatorio normalmente se permite que el resultado de un experimento (lanzar una moneda) puede influir en el resultado del siguiente (lanzarla de nuevo). Cambiando esta condición, se puede obtener una probabilidad diferente distribución de probabilidad en $\{0,1\}^n$ .

Por ejemplo, se puede suponer que cuando el resultado es $1$ , entonces las probabilidades para el siguiente resultado se invierten, es decir $p$ se convierte en $1-p$ . Un ejemplo más concreto es la probabilidad de que una determinada letra aparezca en un texto. Después de una consonante, será probable que la siguiente letra sea una boga. Después de una "p", no será probable que aparezca una "x" o una "w".

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X