14 votos

El papel del espacio de probabilidad "oculto" en el que se definen las variables aleatorias

En un curso de probabilidad se aprende que una variable aleatoria (real) es un mapeo medible de algún espacio de probabilidad $(\Omega,\mathcal{A},\mathbf{P})$ en $(\mathbb{R},\mathcal{B}(\mathbb{R}))$ . Pero en cuanto se entra en temas un poco más avanzados, el espacio $(\Omega,\mathcal{A},\mathbf{P})$ no se menciona a menos que sea absolutamente necesario. Después de mucho tiempo de frustración, me he sentido bastante cómodo con este lenguaje. Pero hay cosas que todavía me preocupan. En el libro que estoy leyendo aparece el siguiente tipo de razonamiento:

El autor dice que $(X_i)_{i\in I}$ es una familia de variables aleatorias y especifica la distribución de cada variable aleatoria. A continuación, formula alguna proposición (aleatoria) $A((X_i)_{i_\in I})$ (esto es un poco impreciso, espero que se entienda) y habla de $\mathbf{P}[A((X_i)_{i_\in I}) \text{ holds}]$ .

Mi pregunta: Que $(\Omega',\mathcal{A}',\mathbf{P}')$ sea otro espacio de probabilidad y $(Y_i)_{i\in I}$ variables aleatorias tales que, para cada $i\in I$ La distribución de $Y_i$ es la misma que la distribución de $X_i$ . ¿Es entonces obvio que $\mathbf{P}[(A(X_i)_{i_\in I}) \text{ holds}]=\mathbf{P}'[(A(Y_i)_{i_\in I}) \text{ holds}]$ ?

Ahora bien, mi opinión es que esto es cierto, pero necesita una prueba, que no es del todo trivial en caso $I$ es infinito, al menos no para un principiante. Sin embargo, en el libro este problema no se discute en absoluto. Entonces, ¿me he perdido algo?

Editar:

No estoy seguro de que la pregunta se haya entendido correctamente, así que la reformularé un poco.

Dejemos que $(\Omega,\mathcal{A},\mathbf{P})$ y $(\Omega',\mathcal{A}',\mathbf{P}')$ sean dos espacios de probabilidad, $I$ un conjunto, y $(X_i)_{i\in I}$ y $(Y_i)_{i\in I}$ familias de variables aleatorias en $(\Omega,\mathcal{A},\mathbf{P})$ y $(\Omega',\mathcal{A}',\mathbf{P}')$ respectivamente, tal que, para cada $i\in I$ La distribución de $X_i$ es igual a la distribución de $Y_i$ . Sea $J$ sea un subconjunto contable de $I$ y $B_j$ un conjunto de Borel para cada $j\in J$ . La pregunta es:

¿Es obvio que $\mathbf{P}\left[\bigcup_{j\in J}\{X_j\in B_j\}\right]=\mathbf{P}'\left[\bigcup_{j\in J}\{Y_j\in B_j\}\right]$ ?

Los conjuntos $B_j$ y la unión sobre $J$ son sólo un ejemplo. Lo que quiero decir, pero no puedo formalizar: Dejemos que $A\in\mathcal{A}$ y $A'\in\mathcal{A}'$ tal que existe una expresión para $A$ en términos de $X_i$ y $A'$ viene dada por la misma expresión sustituyendo $X_i$ por $Y_i$ para cada $i$ . ¿Es obvio que $\mathbf{P}[A]=\mathbf{P}'[A']$ ?

2voto

Did Puntos 1

Las distribuciones de cada $X_i$ y cada $Y_i$ están lejos de ser suficientes para decidir algo sobre las familias $(X_i)_i$ y $(Y_i)_i$ .

Supongamos, por ejemplo, que $X_1$ , $X_2$ , $Y_1$ y $Y_2$ son todos uniformes $\pm1$ Variables aleatorias de Bernoulli y que $X_1=X_2=Y_1=-Y_2$ . Entonces el evento $[X_1=1\ \mbox{or}\ X_2=1]$ tiene probabilidad $\frac12$ mientras que el evento $[Y_1=1\ \mbox{or}\ Y_2=1]$ tiene probabilidad $1$ .

1voto

Mingo Puntos 126

La pregunta no es muy clara, pero aquí hay alguna idea. Dejemos que $U$ sea un uniforme $[0,1]$ variable aleatoria, y definir un proceso aleatorio $X=\{X_t: t \in [0,1]\}$ por $X_t = \mathbf{1}(t=U)$ , donde $\mathbf{1}$ es la función indicadora. Entonces, $X$ es idéntica en derecho al proceso cero $Y$ definido por $Y_t = 0$ para todos $t \in [0,1]$ es decir ${\rm P}[X_{t_1} = 0, X_{t_2}=0,\ldots,X_{t_n}=0]=1$ para cualquier elección de $n \geq 1$ y $0 \leq t_1 < \ldots \leq t_n \leq 1$ . Sin embargo, $X$ y $Y$ son muy diferentes: $X$ no es continua, su $\sup$ es igual a $1$ etc.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X