5 votos

Definición de un proceso de Markov: ¿Qué significa$\mathbb P_x\{X_u\in B\mid \mathcal F_t\}=p(u-t,X_t,\Gamma)$?

Estoy leyendo el libro de la perturbación Aleatoria de la dinámica sustem de Freidlin y Wantzell (2ª edición). En la página 20, que definen un proceso de Markov como sigue:

Deje $(\Omega ,\mathcal F,\mathbb P)$ un espacio de probabilidad y $(X,\mathcal B)$ el espacio de estado. Deje $(\mathcal F_t)$ una filtración. Deje $(\mathbb P_x)_{x\in X}$ una familia de probabilidad de medir. Definir la función de $p$ como $$p(t,x,\Gamma )=\mathbb P_x\{X_t\in \Gamma \},\quad \Gamma \in \mathcal B, t\in [0,T],x\in X.$$ Then $X=(X_t)_{t\leq T}$ is a Markov process in $X$ si:
a) $X$ está adaptado a la filtración.
b) $x\mapsto p(t,x,\Gamma )$ es medible wrt $\mathcal B$.
c) $p(0,x, X\setminus \{x\})=0$.
d) $\mathbb P_x\{X_u\in Γ\mid \mathcal F_t\}=p(u-t,X_t,\Gamma )$ para todos los $t,u\in [0,T]$, $t\leq u$, $x\in X$ e $\Gamma \in \mathcal B$.

No estoy seguro de cómo interpretar c) y d). Estos ser correcto?

Q1) Para c), es $\mathbb P_x\{X_0=x\}=1$?

Q2) Para d), es $$\mathbb P_{X_0=0}\{X_{t+h}\in \Gamma \mid X_t=k\}=\mathbb P_{X_0=k}\{X_h\in \Gamma \}?$$

Pero yo realmente no sé cómo interpretarlo.

1voto

Alex Franko Puntos 89

$\def\Γ{{\mit Γ}}$Para T1, ya que$$ p(0, x, X \setminus \{x\}) = P_x(X_0 \X \setminus \{x\}) = 1 - P_x(X_0 = x), $$ por lo $p(0, x, X \setminus \{x\}) = 0 \Leftrightarrow P_x(X_0 = x) = 1$. El proceso en $P_x$ puede ser considerado como el inicio de $x$.

Para la Q2, su identidad es sólo un corolario de la d) y no es equivalente desde $\mathscr{F}_t$ puede ser mayor que $σ(X_t)$. Para poner d) en una forma más clara, es$$ P_x(X_u \en \Gamma \mid \mathscr{F}_t) = P_{X_t}(X_{u - t} \in \Γ). $$ En otras palabras, d) se dice que por cualquier $0 \leqslant t < u$, si se conoce la información de tiempo de $t$, que corresponde a la expectativa acondicionado en $\mathscr{F}_t$, entonces la probabilidad de un evento en el futuro, es decir, $\{X_u \in \Γ\}$, con el proceso a partir de $x$ es igual a la probabilidad de $\{X_{u - t} \in \Γ\}$ con el proceso a partir de $X_t$. Esto simplemente significa que lo que sucede antes de que el tiempo $t$ no le importa a la evolución del proceso tan largo como la información en tiempo $t$, es decir, $\mathscr{F}_t$, es conocido.

0voto

Gautam Shenoy Puntos 5148

Para ponerlo en palabras sencillas, P1: comenzar en el estado de $x$ con una probabilidad de 1.

P2: (La propiedad de Markov: ) Dado toda la historia hasta el tiempo de $t$ (que es lo $|\mathcal{F_t}$ medio), el presente muestra $X_u$ es dependiente sólo del valor de la más reciente muestra de $X_t$.

También en d: creo que escribió $\mathcal{G}$ en lugar de $\Gamma$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X