3 votos

Pregunta sobre el uso del núcleo de Markov para la probabilidad condicional

Definimos un núcleo de Markov:

Dejemos que $(\Omega_{1},\mathcal{A}_{1})$ y $(\Omega_{2},\mathcal{A}_{2})$ sean algunos espacios medibles. Un mapa $K$ donde $K : \Omega_{1}\times \mathcal{A}_{2}\to [0,\infty]$ se llama núcleo de Markov si,

$1.$ Para todos $A\in \mathcal{A}_{2}$ el mapa $$K(\cdot,A):\Omega_{1}\to [0,\infty],\; \omega_{1}\mapsto K(\omega_{1},A)$$ es un $\mathcal{A}_{1}$ medible.

$2.$ Para todos $\omega_{1} \in \Omega_{1}$ el mapa $$K(\omega,\cdot): \mathcal{A}_{2} \to [0,\infty], \; A \mapsto K(\omega,A)$$ es una medida de probabilidad.

En nuestra conferencia, se introdujo el núcleo de Markov para encontrar una expresión "satisfactoria" para la probabilidad condicional $P(A\lvert \mathcal{F})$ donde $\mathcal{F}$ es un sub- $\sigma$ -en un espacio de probabilidad $(\Omega,\mathcal{A},P)$ . Tengo que entender realmente lo que significa "satisfactorio" en este sentido. La razón que se da en la conferencia es que viendo el operador de probabilidad condicional dado $\mathcal{F}$ como operador en $\Omega\times \mathcal{A}$ un modelo continuo puede tener un número incontable de eventos $A \in \mathcal{A}$ y no está claro si la elección de conjuntos nulos sigue siendo plausible para obtener una medida de probabilidad en el argumento del evento, ya que una unión incontable de conjuntos nulos no tiene por qué ser un conjunto nulo.

Mi problema: No entiendo el problema aquí. Seguramente, tenemos exactamente el mismo problema en el caso incondicional: la unión incontable de conjuntos nulos no tiene por qué ser un conjunto nulo. ¿Qué estoy entendiendo mal?

5voto

aduh Puntos 66

Hay algunos problemas con la otra respuesta, así que permítanme ofrecer algo diferente.

En primer lugar, al contrario de lo que dice la otra respuesta, las probabilidades condicionales hacer satisfacen la restricción de mensurabilidad (1) en los núcleos de Markov. Esto es sólo una parte de su definición.

Lo fundamental es darse cuenta de que, para las probabilidades condicionales, podría haber un conjunto $F$ con medida positiva tal que $P(\cdot \mid \mathcal F)(\omega)$ no es una medida de probabilidad para todo $\omega \in F$ .

¿Cómo puede ocurrir esto? Bien, ¿qué significa ser una medida de probabilidad? La propiedad clave es:

Aditividad: $P$ es una medida de probabilidad si $P(\cup_{j=1}^n A_j) = \sum_{j=1}^n P(A_j)$ para todas las secuencias disjuntas por pares $A_1,...,A_n$ en $\mathcal A$ .

Ahora, utilizando la definición de probabilidad condicional, es fácil demostrar que para cada secuencia disjunta por pares $\mathscr A = A_1,...,A_n$ hay un conjunto nulo $F_{\mathscr A}$ tal que $P(\cup_{j=1}^n A_j \mid \mathcal F)(\omega) = \sum_{j=1}^n P(A_j \mid \mathcal F)(\omega)$ siempre que $\omega \notin F_{\mathscr A}$ .

Ahora pregúntese: ¿Cuántas secuencias $\mathscr A$ de sucesos disjuntos por pares en un gran espacio de probabilidad? Es fácil convencerse de que, en general, debe haber un número incontable de eventos disjuntos en un espacio de probabilidad grande (por ejemplo, la medida de Lebesgue). $\mathscr A$ . Y eso significa que hay incontables conjuntos $F_{\mathscr A}$ en la que la probabilidad condicional falla para ser una medida de probabilidad.

Así, el conjunto $F$ donde la probabilidad condicional no es una medida de probabilidad incluye $$\bigcup_{\mathscr A} F_{\mathscr A},$$ que, aunque cada uno $F_{\mathscr{A}}$ es nulo, puede tener medida positiva porque es una unión incontable.

Para mí, este es el punto clave que la otra respuesta no transmitió.

1voto

Alex Franko Puntos 89

$\def\A{\mathscr{A}}\def\F{\mathscr{F}}\def\Ω{{\mit Ω}}\def\B{\mathscr{B}}$ Para entender la cuestión mencionada en su conferencia, hay que prestar atención a la definición de expectativa condicional.

Considere un espacio de probabilidad dado $(\Ω, P, \A)$ con una sub-σ-álgebra $\F$ . Para cualquier $A \in \A$ , $$ P(A \mid \F) := E(I_A \mid \F)$$ es una variable aleatoria, es decir, se puede escribir explícitamente como $E(I_A \mid \F)(ω)$ . Obsérvese que la expectativa condicional es única casi seguramente por lo que el valor de $E(I_A \mid \F)(ω)$ puede modificarse en un conjunto nulo $A_0$ para obtener una nueva versión de esta expectativa condicional. Por lo tanto, si la versión de $P(A \mid \F)(ω)$ se elige arbitrariamente para cada $A \in \A$ el mapeo resultante $$ (ω, A) \mapsto P(A \mid \F)(ω) $$ no es necesariamente medible, y mucho menos $(ω, ·\,) \mapsto P(\,· \mid \F)(ω)$ sea una medida de probabilidad. La definición de los núcleos de Markov anterior, que es similar a la de las probabilidades condicionales regulares, se ocupa de este problema de mensurabilidad.


Para un ejemplo explícito, supongamos $(\Ω, P, \A) = ([0, 1], m, \B([0, 1]))$ donde $m$ es la medida de Lebesgue, y $\F = \mathscr{B}([0, 1])$ . Definir $p(ω, A) = I_{A \cup \{1\}}(ω)$ para $ω \in [0, 1]$ y $A \in \B([0, 1])$ entonces $p(\,·\,, A)$ es una versión de $E(I_A \mid \F)$ para cualquier $A \in \B([0, 1])$ Así que $P(A \mid \F)(ω)$ puede definirse como $p(ω, A)$ . Sin embargo, $p(1, A) = 1$ para cualquier $A \in \B([0, 1])$ Por lo tanto $p(1, \,·\,)$ no es una medida de probabilidad en $(\Ω, \A)$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X