1 votos

Eventos totalmente independientes y sus complementos

Supongamos que los eventos $A_1, ..., A_n$ son totalmente independientes, es decir, $P(A_1 \cap ... \cap A_k) = P(A_1)...P(A_k)$ para todos $k$ entre 2 y $n$ . ¿Significa esto que los eventos complementarios son también totalmente independientes: $P(A_1^c \cap ... \cap A_k^c) = P(A_1^c)...P(A_k^c)$ para todo k?

Sé que esto es así si $k = 2$ pero quiero saberlo en general.

He intentado probarlo por inducción, pero parece un trabajo duro...

5voto

Oli Puntos 89

Demostramos que bajo la definición no estándar de eventos totalmente independientes dada en el post, el resultado deseado no es cierto. A continuación, damos una definición estándar de sucesos totalmente independientes, y mostramos que bajo esta definición el resultado deseado es Es cierto.

Un contraejemplo : Lanzamos una moneda justa. Supongamos que los posibles eventos son $A_1$ la moneda rueda eternamente (probabilidad $0$ ), $A_2$ obtenemos una cabeza (probabilidad $1/2$ ) y $A_3$ obtenemos una cola (probabilidad $1/2$ ). Es fácil comprobar que bajo la definición de totalmente independiente dada en el post, la secuencia $A_1, A_2, A_3$ es totalmente independiente. Pero $A_2^c$ y $A_3^c$ no son independientes, ya que $P(A_2^c\cap A_3^c)=0$ pero $P(A_2^c)P(A_3^c)=1/4$ . También es fácil comprobar que la secuencia $A_1^c, A_2^c, A_3^c$ no es totalmente independiente.

Una prueba : En primer lugar, damos una definición estándar de la independencia total. Los eventos $A_1,A_2,\dots, A_n$ son totalmente independiente si, siempre que $B_1, B_2, \dots B_k$ son distinto $A_i$ , $$P(B_1\cap B_2 \cap \cdots \cap B_k)=P(B_1)P(B_2)\cdots P(B_k).$$ Demostramos que si $A_1, A_2, \dots, A_n$ son totalmente independientes, entonces también lo son $A_1^c,A_2^c,\dots, A_n^c$ .

Hay una prueba no difícil por inducción. Sin embargo, preferimos evitar la inducción formal, para obtener una prueba que tenga más simetría. Tenemos que demostrar que si $B_1, B_2, \dots B_k$ son distinto $A_i$ entonces $$P(B_1^c\cap B_2^c \cap \cdots \cap B_k^c)=P(B_1^c)P(B_2^c)\cdots P(B_k^c).$$

Para ahorrar espacio, dejemos $b_i=P(B_i)$ . Así que queremos demostrar que $$P(B_1^c\cap B_2^c \cap \cdots \cap B_k^c)=(1-b_1)(1-b_2)\cdots (1-b_k).$$

Dejemos que $p$ sea la probabilidad de la izquierda. Entonces $$1-p=P(B_1\cup B_2 \cup \cdots \cup B_k).$$ Así, por el Principio de Inclusión/Exclusión, $$1-p=\sum_{i=1}^k b_i -\sum_{1 \le i <j}b_ib_j+\sum_{1 \le i <j<k}b_ib_jb_k-\cdots$$ y por lo tanto $$p=1 -\sum_{i=1}^k b_i +\sum_{1 \le i <j}b_ib_j-\sum_{1 \le i <j<k}b_ib_jb_k+\cdots.$$ El lado derecho es simplemente $(1-b_1)(1-b_2)\cdots (1-b_k)$ . Esto completa la prueba.

5voto

Did Puntos 1

Como han señalado otros, lo que escribe es NO la definición de la independencia de $(A_1,A_2,\ldots,A_n)$ . Debe pedir que $\mathrm P(A_{k_1}\cap A_{k_2}\cap\cdots \cap A_{k_i})=\mathrm P(A_{k_1})\mathrm P(A_{k_2})\cdots \mathrm P(A_{k_i})$ para cada elección de todos los índices distintos $k_j$ en $\{1,2,\ldots,n\}$ .

Dejando de lado este punto, permítanme mencionar que una estrategia que podría ayudar a evitar cierto tedio en dicho contexto es traducir todo en términos de variables aleatorias . Lo sé, se supone que las variables aleatorias son siempre más complicadas que los eventos, pero de hecho, lo contrario ocurre con bastante frecuencia (¿alguien acaba de decir linealidad ?), y la presente pregunta es un buen ejemplo del fenómeno.

En primer lugar, hacemos la observación general, aparentemente impar, de que, para cada evento $A$ , $$ \mathrm P(A)=\int_\Omega\mathbf 1_A\mathrm dP=\mathrm E(\mathbf 1_A), $$ donde $\mathbf 1_A$ denota la función indicadora de $A$ definido por $\mathbf 1_A(\omega)=1$ si $\omega\in A$ y $\mathbf 1_A(\omega)=0$ si $\omega\in\Omega\setminus A$ .

Volviendo a la pregunta, elijamos $k$ eventos de la $n$ eventos $A_1$ , $A_2$ , ..., $A_n$ , todos diferentes, renómbralos como $B_1$ , $B_2$ , ..., $B_k$ e introducir $B=\bigcap\limits_{i=1}^k(B_i)^c$ . Se sabe que la función indicadora de un complemento es $1$ menos la función indicadora original y que la función indicadora de una intersección es el producto de las funciones indicadoras, por lo que $$ \mathbf 1_B=\prod\limits_{i=1}^k(1-\mathbf 1_{B_i})=Q_k(\mathbf 1_{B_1},\mathbf 1_{B_2},\ldots,\mathbf 1_{B_k}), $$ donde $Q_k$ denota el polinomio $$ Q_k(x_1,x_2,\ldots,x_k)=\prod\limits_{i=1}^k(1-x_i). $$ Como todo polinomio, $Q_k(x_1,x_2,\ldots,x_k)$ puede expandirse en una suma de monomios en las incógnitas $x_1$ , $x_2$ , ..., $x_k$ . Dado que el grado (parcial) de $Q_k$ en cada $x_i$ es $1$ la expansión de $Q_k$ implica sólo monomios de la forma $x_{i_1}x_{i_2}\cdots x_{i_\ell}$ para algunos índices distintos $i_j$ . En otras palabras, $$ Q_k(x_1,x_2,\ldots,x_k)=\sum_Iq_I\prod_{i\in I}x_i, $$ donde la suma corre sobre el $2^k$ subconjuntos $I$ de $\{1,2,\ldots,k\}$ para algunos coeficientes $q_I$ cuyos valores no serán relevantes. (Sin embargo, el lector interesado puede observar que $q_\varnothing=1$ y $q_{\{1,2,\ldots,k\}}=(-1)^k$ y el motivado podría mostrar que $q_I=(-1)^{|I|}$ por cada $I\subseteq\{1,2,\ldots,k\}$ .)

Subrayamos que esta relación se mantiene entre polinomios, por lo que toda elección de las variables $x_i$ produce una igualdad, ya sean números o funciones. En particular, evaluando ambos lados en las funciones $\mathbf 1_{B_i}$ produce $$ \mathbf 1_B=\sum\limits_Iq_I\prod\limits_{i\in I}\mathbf 1_{B_i}. $$ Por cada $I$ , tenga en cuenta que $$ \prod\limits_{i\in I}\mathbf 1_{B_i}=\mathbf 1_{B_I},\quad \mbox{where}\ B_I=\bigcap\limits_{i\in I}B_i, $$ y que la independencia de los acontecimientos $(B_i)_{i\in I}$ produce $$ \mathrm E(1_{B_I})=\mathrm P(B_I)=\prod\limits_{i\in I}\mathrm P(B_i). $$ Sumando esto a cada $I$ produce $$ \mathrm P(B)=\mathrm E(\mathbf 1_B)=\sum\limits_Iq_I\mathrm P(B_I)=\sum\limits_Iq_I\prod\limits_{i\in I}\mathrm P(B_i)=Q_k(\mathrm P(B_1),\mathrm P(B_2),\ldots,\mathrm P(B_k)), $$ donde la última igualdad proviene de la propia definición de $Q_k$ evaluado en los números reales $\mathrm P(B_i)$ . Pero uno sabe el valor de $Q_k$ en cada punto, en particular en $(\mathrm P(B_1),\mathrm P(B_2),\ldots,\mathrm P(B_k))$ que es $$ \mathrm P(B)=\prod\limits_{i=1}^k(1-\mathrm P(B_i))=\prod\limits_{i=1}^k\mathrm P((B_i)^c), $$ y la prueba ha terminado. Para concluir, nótese una vez más que hemos utilizado el polinomio $Q_k$ dos veces, una para las funciones y la otra para los números reales.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X