4 votos

Probabilidad conjunta de variables aleatorias correlacionadas con distribución Bernoulli

Tengo una fuente Bernoulli que genera N bits (1/0) con parámetro p .
Quiero encontrar la probabilidad conjunta de tener como máximo 1 bits = 1 en cada m bits consecutivos.

Por ejemplo, si la secuencia de bits siguiente se generó a partir de una distribución Bernoulli con parámetro p suponiendo m=3 y N=10. Sabiendo que b1,..b10 son bits que pueden tomar el valor 1 o 0 según la distribución Bernoulli fueron independientes conjuntamente.

b1 b2 b3 b4 b5 b6 b7 b8 b9 b10 

Quiero encontrar la fórmula general de la probabilidad

$P(b_1+b_2+b_3\le1\ \&\ b_2+b_3+b_4\le1\ \&\ b_3+b_4+b_5\le1\ \&\ b_4+b_5+b_6\le1\ \&\ b_5+b_6+b_7\le1\ \&\ b_6+b_7+b_8\le1\ \&\ b_7+b_8+b_9\le1\ \&\ b_8+b_9+b_{10}\le1)$

0 votos

¿Son los bits independientes conjuntamente?

0 votos

@AlecosPapadopoulos Sí, los bits son independientes conjuntamente

3voto

jldugger Puntos 7490

Que el acontecimiento $E_m(n,k)$ consisten en toda la longitud- $n$ cadenas $\text{s}$ sobre el alfabeto $\{\text{0}, \text{1}\}$ para lo cual

  • $\text{s}$ tiene peso $k$ : contiene exactamente $k$ unos y

  • $\text{s}$ es $m$ -escaso: toda la longitud- $m$ subcadenas de $\text{s}$ contienen como máximo una $\text{1}$ .

Por ejemplo, con $m=3$ y $n=5$ , $$E_3(5,0) = \{\text{00000}\},$$ $$E_3(5,1) = \{\text{10000},\text{01000},\text{00100},\text{00010},\text{00001}\},$$ $$E_3(5,2) = \{\text{10010},\text{10001},\text{01001}\}.$$

$E_3(5,k)$ está vacío para $k\gt 2 = \lceil5/3\rceil$ .

La pregunta se refiere a la probabilidad $f_p(n,m)$ de $E_m(n) = \cup_{k=0}^n E_m(n,k)$ cuando las cadenas son creadas aleatoriamente por $n$ extracciones independientes de un Bernoulli $(p)$ variable. Para averiguarlo, contemos los $E_m(n,k)$ escribir $e_m(n,k) = |E_m(n,k)|$ para las cardinalidades.

Considere una $m$ -cadena dispersa $\text{s}$ de peso $k$ . O bien

  1. $\text{s}[n]$ el último carácter de $\text{s}$ es $\text 0$ . Entonces el $n-1$ prefijo de $\text{s}$ (compuesto por el primer $n-1$ caracteres en $\text{s}$ ) tiene peso $k$ y ya está $m$ -escaso; o

  2. $\text{s}[n]$ es $\text 1$ . Esto implica que el último $m$ caracteres de $\text{s}$ son $\text{00}\ldots\text{01}$ de donde el $n-m$ prefijo es $m$ -espeso y tiene peso $k-1$ .

En consecuencia

$$e_m(n,k) = e_m(n-1,k) + e_m(n-m,k-1)$$

para $k \ge 0$ , $m \ge 1$ y $n-m \ge 0$ . Además,

  • $e_m(n,0) = 1$ cuando $n\ge 0$ porque $E_m(n,0) = \{\text{00}\ldots \text{0}\}$ .
  • $e_m(n,k) = 0$ cuando $n\le 0$ y $k\gt 0$ porque no existen tales cadenas.

Estas condiciones iniciales y la relación de recurrencia determinan completamente $e(n,k)$ . La recurrencia se parece sospechosamente a la recurrencia $\binom{n}{k}=\binom{n-1}{k}+\binom{n-1}{k-1}$ de coeficientes binomiales: la única diferencia es el cambio de $n-1$ a $n-k$ en la segunda legislatura. El efecto es que el $e_m(n,k)$ en realidad igual a los coeficientes binomiales, pero con una indexación diferente:

$$e_m(n,k) = \binom{n-(m-1)(k-1)}{k}$$

proporcionado $e_m(n,k)\ne 0$ es decir, siempre que $m \ge 1$ y $0 \le k \le \lceil n/m \rceil$ . La demostración es inmediata a partir de la recursión para los coeficientes binomiales.

Condicional en $k$ la probabilidad de que una cadena concreta $E_m(n,k)$ es $p^k(1-p)^{n-k}$ . Por lo tanto, la probabilidad de $E_m(n,k)$ es

$$e_m(n,k)p^k(1-p)^{n-k}.$$

Sumando sobre la partición de $E_m(n)$ produce

$$f_p(n,m) = \sum_{k=0}^{\lceil n/m \rceil} \binom{n-(m-1)(k-1)}{k}p^k(1-p)^{n-k}.$$

Por ejemplo,

$$f_p(10,3) = p^4 (1-p)^6+20 p^3 (1-p)^7+28 p^2 (1-p)^8+10 p (1-p)^9 +(1-p)^{10} \\ = 1 - 17p^2 + 36 p^3 + 15 p^4 - 146 p^5 + 225 p^6 - 168 p^7 + 64 p^8 - 10 p^9.$$

(La expansión en potencias de $p$ que alterna de signo, no es una buena forma de calcular $f_p$ .)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X