1 votos

Es o cuando es $\mathbb{P}(X_1 \in A_1, ... X_n \in A_n)$ equivalente a $\mathbb{P}(A_1 \bigcap ... \bigcap A_n)$ ?

En el contexto de la independencia:

Es $\mathbb{P}(X_1 \in A_1, ... X_n \in A_n)$ equivalente a $\mathbb{P}(A_1 \bigcap ... \bigcap A_n)$ ?

$X_i$ s son variables aleatorias, $A_i \subset \Omega$ (el espacio de la muestra)

I leer (Independencia) que esto podría ser posible utilizando funciones indicadoras $\mathbb{1}_{A_i}$ que se afirma que convierte

$$\mathbb{P}(X_1 \in A_1, ... X_n \in A_n)=\mathbb{P}(X_1 \in A_1)...\mathbb{P}(X_n \in A_n)$$

en

$$\mathbb{P}(A_1 \bigcap ... \bigcap A_n)=\mathbb{P}(A_1)...\mathbb{P}(A_n)$$

¿Es cierto?

Por ejemplo:

¿Se puede, por ejemplo, construir el argumento (el de $S = \{1,2,3,4\}$ ) en la página 13 aquí utilizando $X_i \in A_i$ en lugar de $ A_i \bigcap A_j$ .

4 votos

Una cosa a tener en cuenta - en $P(A)$ tenemos $A \subset \Omega$ mientras que para $P(X \in A)=P(\{\omega \in \Omega : X(\omega) \in A\})$ tenemos $A \subset \mathbb R$ .

4voto

eldering Puntos 3814

No en general.

Consideremos, por ejemplo, el caso de un índice, con espacio de probabilidad el intervalo $[-1, 1]$ manteniendo la medida uniforme.

Dejemos que $Z$ sea la variable de coordenadas, $X = Z^2$ y $A = [0.5, 1]$ . Entonces:

$$ P(X \in A) = P([-1, -\sqrt{0.5}] \cup [\sqrt{0.5}, 1]) \approx 0.293$$

mientras que

$ P(A) = 0.25$

Me pregunto por qué veo dos definiciones de independencia. Algunos utilizan las intersecciones y otros las inclusiones. ¿O se trata de diferentes variaciones de la independencia (he oído el término "mutuamente independiente")?

Ahora tengo algo de tiempo para elaborar más mi comentario.

Hay que distinguir entre independencia de sucesos e independencia de variables aleatorias.

Dar un espacio de probabilidad $\Omega$ (también conocido como espacio muestral, si ese es su término preferido), un subconjunto $A$ al que se le puede asignar una probabilidad (también llamado conjunto medible) se denomina suceso. Dos sucesos $A_1, A_2 \subset \Omega$ se dice que son independiente cuando

$$ P(A_1 \cap A_2) = P(A_1) P(A_2) $$

Ahora, si tenemos una variable aleatoria en el espacio de probabilidad $X: \Omega \rightarrow R$ entonces cualquier subconjunto del rango de $X$ determina un evento, podemos llamarlo evento de preimagen. En concreto, para un intervalo $[y_1, y_2]$ en el rango, podemos asociar el evento

$$ \{\omega \in \Omega : X(\omega) \in [y_1, y_2] \} $$

Para ahorrar pulsaciones, podemos abreviar este evento

$$ X \in [y_1, y_2] $$

o para un general $A \subset R$

$$X \in A$$

Ahora podemos definir independencia de dos variables aleatorias $X_1, X_2$ en términos de estos eventos previos a la imagen. Dos variables aleatorias son independientes si, para dos subconjuntos cualesquiera $A_1, A_2$ de $R$ (nótese el cambio en el espacio de la $A$ s son un subconjunto de, que @Chaconne aludió en el comentario de e)

$$ P(X_1 \in A_1, X_2 \in A_2) = P(X_1 \in A_1) P(X_2 \in A_2) $$

La coma aquí es una abreviatura de y Se ve mejor en el papel que el posiblemente más pedante

$$ P(X_1 \in A_1 \cap X_2 \in A_2) = P(X_1 \in A_1) P(X_2 \in A_2) $$

He leído (Independencia) que esto podría ser posible utilizando funciones de indicador $1_A$ .

Ahora podemos darle sentido a esto. A cualquier evento $A \subset \Omega$ podemos asociar la función indicadora $1_A: \Omega \rightarrow \{0, 1\} \subset R$ . Se define por las dos relaciones $\omega \in A \Rightarrow 1_A(\omega)=1$ y la complementaria $\omega \notin A \Rightarrow 1_A(\omega)=0$ . Como esta función indicadora está definida en un espacio de probabilidad, es una variable aleatoria.

Si tiene dos eventos de este tipo, dando indicadores $1_{A_1}$ y $1_{A_2}$ Al repasar las definiciones anteriores, verás que la independencia de estas variables aleatorias es equivalente a la independencia de los hechos subyacentes.

0 votos

Me pregunto por qué veo dos definiciones de independencia. Algunos utilizan las intersecciones y otros las inclusiones. ¿O se trata de diferentes variaciones de la independencia (he oído el término "mutuamente independiente")?

1 votos

Hay que distinguir entre la independencia de los acontecimientos y la independencia de las variables aleatorias. La independencia de las variables aleatorias se define en términos de independencia de los sucesos, utilizando los sucesos $X \in A$ .

0 votos

Supongo que ese es el problema que tengo. Creo que vi un teorema que afirmaba que "los eventos son independientes $\implies$ ¿las variables aleatorias son independientes? ¿Es $\implies$ $\iff$ ¿pero?

1voto

tony_sid Puntos 3842

No es cierto que $P(\bigcap_n X_n \in A_n) = P(\bigcap_n A_n)$ incluso si incluimos el hecho de que $X_n$ 's o $A_n$ son independientes. Ni siquiera estoy seguro de que esa ecuación tenga sentido.

Tal vez lo que querías hacer es definir los eventos $B_n := (X_n \in A_n)$ . Entonces podemos decir que:

$$P(\bigcap_n X_n \in A_n) = P(\bigcap_n B_n)$$

Tenga en cuenta que el $A_n$ no son eventos sino conjuntos de Borel, mientras que los $B_n$ son eventos.

Consideremos un lanzamiento de moneda que paga 1 si sale cara y -1 si no. Podemos denotar el resultado como una variable aleatoria $X$ .

Tenga en cuenta que el evento $(X \in (0,2))$ es igual al evento $H$ .

No tenemos eso $P(X \in (0,2)) = P(0,2)$ porque en primer lugar $P(0,2)$ no se define porque $(0,2)$ no es un evento.


Supongo que podemos considerar el caso de que los conjuntos de Borel sean también medibles. Sigue sin ser cierto.

Considere el espacio de probabilidad $(\mathbb R, \mathscr B(\mathbb R), \lambda)$ .

Así, los acontecimientos $B \in \mathscr B(\mathbb R)$ también son conjuntos de Borel.

Consideremos la variable aleatoria $X := 2 \times 1_{(0,1)}$ el evento y el conjunto de Borel $B = (0,1)$ y $\omega = 0.5$ . Entonces $X(\omega) = 2$ . Está claro que no tenemos esa

$$X(\omega) \in B \iff \omega \in B$$


En independencia :


  1. Dos eventos $E$ y $F$ se dice que son independientes si $P(E\cap F)=P(E)P(F)$ sostiene. En general, los acontecimientos $E_1,E_2,\dots$ se dice que son independientes si, para cada subconjunto $E_{n_1},E_{n_2},\dots,E_{n_r},r \in \mathbb{N}$ de estos eventos, $$P\left(\bigcap_{i=1}^rE_{n_i}\right) =\prod_{i=1}^rP(E_{n_i})$$

  1. Dos colecciones de eventos (por ejemplo $\sigma$ -algebras) $\mathscr F$ y $\mathscr E$ se dice que son independientes si $\forall F \in \mathscr F$ y $\forall E \in \mathscr E$ , $P(E\cap F)=P(E)P(F)$ . En general, las colecciones $\mathscr E_1,\mathscr E_2,\dots$ se dice que son independientes si, $\forall E_{n_1} \in \mathscr E_{n_1}, \forall E_{n_2} \in \mathscr E_{n_2}, \dots, \forall E_{n_r} \in \mathscr E_{n_r}, r \in \mathbb{N}$ , $$P\left(\bigcap_{i=1}^rE_{n_i}\right) =\prod_{i=1}^rP(E_{n_i})$$

  1. Dos variables aleatorias $X$ y $Y$ se dice que son independientes si sus $\sigma$ -algebras, $\sigma(X)$ y $\sigma(Y)$ son independientes. Más generalmente, las variables aleatorias $X_1,X_2,\dots$ se dice que son independientes si, para cada índice distinto $n_1,n_2,\dots,n_r,r \in \mathbb{N}$ , $$\sigma(X_{n_1}), \sigma(X_{n_2}), \dots, \sigma(X_{n_r}) \ \text{are independent}$$

  1. La independencia mutua es lo mismo que la independencia. Independiente por pares significa que para algunos sucesos, colecciones de sucesos o variables aleatorias denotadas por $A_1, A_2, ...$ y distintos índices $m, n \in \mathbb N$ , $A_m$ y $A_n$ son independientes.

  1. Los acontecimientos $E_1, E_2, ...$ son independientes si y sólo si las variables aleatorias $1_{E_1}, 1_{E_2}, ...$ son independientes porque $\sigma(1_{E_i}) = \sigma(E_i)$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X