No en general.
Consideremos, por ejemplo, el caso de un índice, con espacio de probabilidad el intervalo $[-1, 1]$ manteniendo la medida uniforme.
Dejemos que $Z$ sea la variable de coordenadas, $X = Z^2$ y $A = [0.5, 1]$ . Entonces:
$$ P(X \in A) = P([-1, -\sqrt{0.5}] \cup [\sqrt{0.5}, 1]) \approx 0.293$$
mientras que
$ P(A) = 0.25$
Me pregunto por qué veo dos definiciones de independencia. Algunos utilizan las intersecciones y otros las inclusiones. ¿O se trata de diferentes variaciones de la independencia (he oído el término "mutuamente independiente")?
Ahora tengo algo de tiempo para elaborar más mi comentario.
Hay que distinguir entre independencia de sucesos e independencia de variables aleatorias.
Dar un espacio de probabilidad $\Omega$ (también conocido como espacio muestral, si ese es su término preferido), un subconjunto $A$ al que se le puede asignar una probabilidad (también llamado conjunto medible) se denomina suceso. Dos sucesos $A_1, A_2 \subset \Omega$ se dice que son independiente cuando
$$ P(A_1 \cap A_2) = P(A_1) P(A_2) $$
Ahora, si tenemos una variable aleatoria en el espacio de probabilidad $X: \Omega \rightarrow R$ entonces cualquier subconjunto del rango de $X$ determina un evento, podemos llamarlo evento de preimagen. En concreto, para un intervalo $[y_1, y_2]$ en el rango, podemos asociar el evento
$$ \{\omega \in \Omega : X(\omega) \in [y_1, y_2] \} $$
Para ahorrar pulsaciones, podemos abreviar este evento
$$ X \in [y_1, y_2] $$
o para un general $A \subset R$
$$X \in A$$
Ahora podemos definir independencia de dos variables aleatorias $X_1, X_2$ en términos de estos eventos previos a la imagen. Dos variables aleatorias son independientes si, para dos subconjuntos cualesquiera $A_1, A_2$ de $R$ (nótese el cambio en el espacio de la $A$ s son un subconjunto de, que @Chaconne aludió en el comentario de e)
$$ P(X_1 \in A_1, X_2 \in A_2) = P(X_1 \in A_1) P(X_2 \in A_2) $$
La coma aquí es una abreviatura de y Se ve mejor en el papel que el posiblemente más pedante
$$ P(X_1 \in A_1 \cap X_2 \in A_2) = P(X_1 \in A_1) P(X_2 \in A_2) $$
He leído (Independencia) que esto podría ser posible utilizando funciones de indicador $1_A$ .
Ahora podemos darle sentido a esto. A cualquier evento $A \subset \Omega$ podemos asociar la función indicadora $1_A: \Omega \rightarrow \{0, 1\} \subset R$ . Se define por las dos relaciones $\omega \in A \Rightarrow 1_A(\omega)=1$ y la complementaria $\omega \notin A \Rightarrow 1_A(\omega)=0$ . Como esta función indicadora está definida en un espacio de probabilidad, es una variable aleatoria.
Si tiene dos eventos de este tipo, dando indicadores $1_{A_1}$ y $1_{A_2}$ Al repasar las definiciones anteriores, verás que la independencia de estas variables aleatorias es equivalente a la independencia de los hechos subyacentes.
4 votos
Una cosa a tener en cuenta - en $P(A)$ tenemos $A \subset \Omega$ mientras que para $P(X \in A)=P(\{\omega \in \Omega : X(\omega) \in A\})$ tenemos $A \subset \mathbb R$ .