Sea $X1,X2$ sean variables aleatorias independientes con $P[Xi = 0] = P[Xi = 1] = \frac{1}{2}$ para $i = 1, 2$ . ¿Cuál es el conjunto de variables aleatorias $A1 = \{X1 = X2\}$ ¿Qué quieres decir? He encontrado esta representación en el libro, pero no estoy seguro de lo que significa.
Respuestas
¿Demasiados anuncios?Aunque esta pregunta pueda parecer muy sencilla, no lo es comprenderla plenamente. A efectos generales, doy la siguiente respuesta elaborada.
En general, si $X_1$ et $X_2$ son dos variables aleatorias cualesquiera en un espacio de probabilidad común $(\Omega,\mathcal{F},{\rm P})$ entonces $\lbrace X_1 = X_2 \rbrace$ es una abreviatura del acontecimiento $\lbrace \omega \in \Omega : X_1 {(\omega)} = X_2 {(\omega)} \rbrace$ . Para su ejemplo concreto, podemos definir $(\Omega,\mathcal{F},{\rm P})$ como sigue: $\Omega = \lbrace (0,0),(0,1),(1,0),(1,1) \rbrace$ , $\mathcal{F}=2^\Omega$ (el conjunto de potencias de $\Omega$ ), y, para cualquier $\omega = (i,j) \in \Omega$ , ${\rm P}(\lbrace \omega \rbrace) = 1/4$ . Obsérvese que, por aditividad, esto determina (la medida de probabilidad) ${\rm P}$ en $\mathcal{F}$ por ejemplo, $$ {\rm P}(\lbrace (0,0),(1,0),(1,1)\rbrace) = {\rm P}(\lbrace (0,0)\rbrace) + {\rm P}(\lbrace (1,0)\rbrace) + {\rm P}(\lbrace (1,1)\rbrace) = 3/4. $$ Ahora, podemos definir las variables aleatorias $X_1$ et $X_2$ como sigue. Para cualquier $\omega = (i,j) \in \Omega$ , $X_1 {(\omega)} = i$ et $X_2 {(\omega)} = j$ . Así, $$ {\rm P}(X_1 = 0) := {\rm P}(\lbrace \omega \in \Omega : X_1 {(\omega)} = 0 \rbrace) = {\rm P}(\lbrace (0,0),(0,1) \rbrace) = 1/2 $$ y $$ {\rm P}(X_1 = 1) := {\rm P}(\lbrace \omega \in \Omega : X_1 {(\omega)} = 1 \rbrace) = {\rm P}(\lbrace (1,0),(1,1) \rbrace) = 1/2, $$ y análogamente para $X_2$ . En cuanto al acontecimiento en cuestión, $$ \lbrace X_1 = X_2 \rbrace : = \lbrace \omega \in \Omega : X_1 {(\omega)} = X_2 {(\omega)} \rbrace = \lbrace (0,0),(1,1) \rbrace, $$ y así $$ {\rm P}(X_1 = X_2) := {\rm P}(\lbrace \omega \in \Omega : X_1 {(\omega)} = X_2 {(\omega)} \rbrace) = {\rm P}(\lbrace (0,0),(1,1) \rbrace) = 1/2. $$ Por último, veamos que $X_1$ et $X_2$ son efectivamente independientes (esto debería quedar claro a partir de nuestra construcción). Esto equivale a demostrar que, para cualquier $i,j \in \lbrace 0,1 \rbrace$ , $$ {\rm P}(X_1 = i, X_2 = j) = {\rm P}(X_1 = i) {\rm P}(X_2 = j), $$ es decir, $$ {\rm P}(\lbrace \omega \in \Omega : X_1 {(\omega)} = i, X_2 {(\omega)} = j \rbrace) = {\rm P}(\lbrace \omega \in \Omega : X_1 {(\omega)} =i \rbrace ){\rm P}(\lbrace \omega \in \Omega : X_2 {(\omega)} =j \rbrace ). $$ Efectivamente, ambos lados son iguales a $1/4$ .
Como complemento a la respuesta de Shai Covo, cabe señalar que la convención de escribir algo como $\{X_1 = X_2\}$ para $\{\omega \in \Omega : X_1(\omega) = X_2(\omega)\}$ esencialmente "suprimiendo la $\omega$ s", es muy común en probabilidad, y lo verás mucho a medida que continúes tus estudios. Esencialmente, cualquier "afirmación" escrita entre llaves debe interpretarse como el conjunto de todas las $\omega$ para el que la afirmación (que generalmente es algo en términos de variables aleatorias, que en realidad son funciones de $\omega$ ) es verdadera. Otros ejemplos comunes son cosas como $\{X_n \to X\}$ que es el conjunto de todos los $\omega$ para lo cual $X_n(\omega)$ converge a $X(\omega)$ . Al principio puede resultarle útil "rellenar el $\omega$ s" al leer.
Sin embargo, por intuición, a menudo es fácil entender tales expresiones. Si estás haciendo un experimento en el que lanzas dos monedas, con caras y tablas etiquetadas como 0 y 1, $\{X_1 = X_2\}$ es sólo el caso de que las dos monedas salgan iguales.