10 votos

La comprensión de las medidas en el espacio de las medidas (a través de ejemplos)

Deje $X$ ser un espacio polaco. Si se permite una interesante respuesta, puede suponer $X$ es compacto o, incluso,$X=[0,1]$. El espacio de $\mathcal{P}(X)$ de Borel medidas de probabilidad en $X$ es también polaco (a través de la Prokhorov métrica). Medidas en $\mathcal{P}(X)$ (es decir, los elementos de $\mathcal{P}(\mathcal{P}(X))$) surgen, por ejemplo, en el ergodic de descomposición. Estoy buscando a entender $\mathcal{P}(\mathcal{P}(X))$ mejor, especialmente a través de ejemplos.

Q1. Hay un ejemplo natural de un elemento $\mathcal{P}(\mathcal{P}(X))$? P. 1.5 ¿Qué pasa cuando se $X=[0,1]$?

Q2. Lo que los resultados en matemáticas del uso o de la referencia a un elemento de $\mathcal{P}(\mathcal{P}(X))$? Soy consciente de la ergodic descomposición y en su caso especial, de Finetti del teorema.

Q3. Donde es $\mathcal{P}(\mathcal{P}(X))$ estudió? Soy consciente de Billingsley la Convergencia de Probabilidad de Medidas y Parthasarathy la Probabilidad de Medidas en Espacios Métricos.

EDICIÓN con Respecto a la Q2, estoy más interesado en los resultados clásicos. Las respuestas dadas por @NateEldredge y @MichaelGreinecker, mientras que interesante y útil, parece que cuanto más moderno (es decir, no clásica) de resultados. Me doy cuenta de que 'clásico' es vaga, y voy a tratar de hacer lo que estoy después de más precisa si fuera necesario. El ergodic descomposición es algo que yo considero 'clásico'.

5voto

Michael Greinecker Puntos 19016

A veces, usted desea elegir aleatoriamente un punto por una elegidos al azar de medida. El $\sigma$-álgebra en $\mathcal{P}(X)$ es generado por los conjuntos de la forma $$\big\{\mu\in\mathcal{P}(X):\mu(A)\leq r\big\},$$ with $A\subseteq X$ measurable and $r\in[0,1]$. Now let $\pi:X\to\mathcal{P}(Y)$ be a measurable function. Let $\mathcal{Y}$ be the $\sigma$-algebra on $Y$. Then we can define a function $$\kappa:X\times\mathcal{Y}\to [0,1]$$ by letting $\kappa(x,B)=\pi(x)(B)$ for all $x\en X$ and $B\in\mathcal{Y}$. One can rather easily show that $\kappa(x,\cdot)$ is a probability measure for all $x\in X$ and $\kappa(\cdot,B)$ is measurable for all $B\in\mathcal{Y}$. Moreover, every such function can be obtained this way. They are known as Markov kernels, probability kernels, transition probabilities, conditional probabilities, random mappings, probabilistic mappings, Young measures... they occur quite often in probability theory. Now if $\nu$ is a probability measure on $X$, we can construct a probability measure on $S$ that corresponds to the intuitive notion of picking a point $x\in X$ according to $\nu$ and then picking a point $s\en Y$ according to $\pi(x)$. We write this measure $\nu\otimes\pi$ and have $$\nu\otimes\pi(B)=\int_X \pi(x)(B)~d\nu(x)$$ for all $B\in\mathcal{Y}$. But this can actually be seen as using $\mathcal{P}(\mathcal{P}(X))$. Using a slightly more complicated construction, we have a composition of kernels and there is actually a category with measurable spaces as objects and kernels as morphisms. If we have a whole sequence of kernels, we can use them to construct discrete time stochastic processes by the so called Ionescu-Tulcea theorem. This is the foundation of discrete time Markov processes. We can identify probability measures on $Y$ with kernels constant in the first coordinate and measurable functions $f:X\a Y$ with the kernel such that $\pi(x)$ puts probability $1$ on $f(x)$. Así que los núcleos son muy útiles bloque de construcción para la teoría de la probabilidad. Un buen recurso en los Núcleos es "Bases de la Moderna Probabilidad" por Kallenberg. Un libro que va en un montón de profundidad es "Estadística Reglas de Decisión Óptima y la Inferencia" por Cencov. Un buen punto de partida para la categorial punto de vista puede ser encontrado aquí. Usted parece estar interesado en el más topológico de enfoque. Erik Balder material en los Jóvenes de las medidas podría ser útil para esto (pero es difícil de leer).

Una manera aún más directa lugar donde las probabilidades más de probabilidades de la materia se encuentra en la teoría de juegos. Allí uno de los estudios, a veces, las creencias sobre las creencias sobre las creencias.. infinitas jerarquías de creencias. El trabajo seminal sobre el tema es este, pero es sabido que para ser realmente difícil de leer. Para obtener una idea básica, leer esto. Para el caso de los polacos espacios, este papel por Heifetz podría ser un buen punto de partida (paywall aviso!!).

5voto

Reto Meier Puntos 55904

Un ejemplo surge en el estudio de superprocesses. Solo sé un poco acerca de estos, así que lo que sigue puede ser un poco vagos y posiblemente mal. Allison Etheridge del libro Una Introducción a Superprocesses parece un lugar prometedor para leer más.

Para este ejemplo, vamos a tomar las $X$ a ser algunos compacta colector de, digamos, por ejemplo, una esfera $S^d$ o 'toro'$(S^1)^d$, en el que sabemos cómo ejecutar el movimiento Browniano. ($X = \mathbb{R}^d$ podría ser más natural, pero su falta de compacidad complica las cosas un poco.) También, para empezar, yo en realidad sería más bien consideramos positivo finito medidas que no tienen necesidad de la masa total 1. Así que vamos a $\mathcal{M}(X)$ denotar el espacio de todas esas medidas en $X$. Bajo la topología débil, esto sigue siendo un buen espacio; es polaco (y si no me equivoco, incluso localmente compacto), por lo que su Borel $\sigma$-el campo le da una agradable medibles estructura así.

Un ejemplo típico es la ramificación del movimiento Browniano. Imagine que usted comience con $n$ de las partículas en $X$, cada uno que se mueve de forma independiente de acuerdo con el movimiento Browniano. Sin embargo, después de un exponencialmente distribuida cantidad de tiempo, una partícula se divide en un número aleatorio de nuevo "descendientes" de las partículas. Cada nueva partícula se inicia en el momento y lugar en el que la separación se produjo, y evoluciona de acuerdo a su propio (condicional) independiente de la ramificación del movimiento Browniano (y sí, puede dividir). (Uno podría permitir que el número de nuevas partículas a ser cero, en cuyo caso la partícula puede ser visto como murió.)

Si queremos considerar la ramificación movimiento Browniano como un proceso estocástico $Y_t$, tenemos que decidir en qué espacio de estado debe tomar sus valores: ha de ser capaz de representar la ubicación de todas las partículas vivo en un momento dado, sin embargo muchos de los que pasa a ser. Nuestra primera idea podría ser la de representar el estado del proceso (finito) subconjunto de $X$, por lo que nuestro espacio de estado se convierte en el conjunto de todos los subconjuntos finitos de $X$; permítanme llamarlo $\mathcal{F}(X)$. Sin embargo, esto es un poco torpe:

  • En primer lugar, tendríamos que decidir cómo definir una topología adecuada y medibles estructura en $\mathcal{F}(X)$, de la que hereda suficiente de la topología de $X$ que podemos seguir la pista de el hecho de que cada partícula se mueve continuamente.

  • Segundo, no tiene en cuenta la posibilidad de que dos partículas en el mismo lugar, como sucede cuando una partícula se acaba de dividir, o si dos partículas chocan (aunque en este modelo que acaba de pasar a través de cada uno de los otros sin necesidad de interacción). Así que tal vez necesitamos multisets o algo.

  • Tercero y más en serio, $\mathcal{F}(X)$ no es un espacio vectorial. No podemos dar sentido a la expectativa de $Y_t$. También, si queremos estudiar el comportamiento como el número inicial de partículas tiende a infinito, queremos ser capaces de cambiar la escala de $Y_t$ de alguna manera.

La solución a estos problemas es la siguiente: en lugar de representar el estado del proceso por un subconjunto de a $X$, podemos representar por una medida, donde la ubicación de las partículas están marcados por la unidad de punto de masas. Así, el estado donde hay partículas en ubicaciones $\{x_1, \dots, x_m\}$ corresponde a la medida de $\sum_{i=1}^m \delta_{x_i}$. Así, podemos pensar de $Y_t$ como un proceso estocástico de tomar sus valores en $\mathcal{M}(X)$. Esto resuelve todos los problemas anteriores:

  • $\mathcal{M}(X)$ tiene un bonito natural de la topología y mensurables de la estructura, como se discutió anteriormente. También se puede mostrar, por ejemplo, que el proceso de $Y_t$ es càdlàg; los saltos corresponden a veces cuando una partícula se divide (por lo que si una sola partícula en la ubicación de $x$ se divide en dos descendientes, el proceso de saltos de$\delta_x$$2 \delta_x$.

  • Este modelo cuenta, naturalmente, los lugares con la multiplicidad, por sólo poner más de masa en un punto si es ocupado por varias partículas.

  • $\mathcal{M}(X)$ es (casi) un espacio vectorial (bueno, es un cono en el espacio vectorial de firmado medidas); podemos escala y positiva de las combinaciones lineales, y eso es suficiente para manejar las expectativas y límites de escala.

Así que si $Y_t$ es un proceso con valores en $\mathcal{M}(X)$, entonces la ley de $Y_t$ en cualquier tiempo fijo $t$ es una medida de probabilidad en $\mathcal{M}(X)$, es decir, un elemento de $\mathcal{P}(\mathcal{M}(X))$. (La ley de todo el proceso es una medida de probabilidad en el Skorohod espacio de $\mathcal{D}([0, \infty), \mathcal{M}(X))$ de càdlàg rutas en $\mathcal{M}(X)$, que es bastante más complicado, pero aún así un espacio polaco.) Tenemos otras buenas propiedades de $Y_t$ así; por ejemplo, gracias a la reproducción exponencial de veces y la independencia de la descendencia, $Y_t$ es de Markov.

Hay otros modelos en los que el número de partículas permanece constante; en este caso, podemos renormalize nuestras medidas para tener el total de la masa 1, y obtener un proceso con valores en $\mathcal{P}(X)$, cuya unidimensional distribuciones son elementos de $\mathcal{P}(\mathcal{P}(X))$. O, podríamos decir que cada partícula se inicia con una cierta cantidad de masa, y cuando se separa, que la misa se divide entre su descendencia, de modo que la cantidad total de masa en el sistema se conserva. Entonces podemos representar el estado con partículas en $x_1, \dots, x_m$ con sus respectivas masas $c_1, \dots, c_m$ por la medida,$\sum c_i \delta_{x_i}$; si tomamos la masa total del sistema 1 tenemos de nuevo un $\mathcal{P}(X)$ valores de proceso. (Aquí, para preservar la propiedad de Markov supongo que tenemos que asumir que si dos partículas chocan se unen.)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X