5 votos

Proceso equivalente a la probabilidad condicional

Hola,

Teniendo una variable aleatoria $X$ Estoy tratando de encontrar un proceso estocástico $Z_t$ tal que:

$$P[Z_t>T] = P[X > T | X > t]$$

para todos $T>t$ o una prueba de que tal proceso no existe.

Tenga en cuenta que esta pregunta no está relacionada con ninguna tarea y que en realidad necesito este resultado para mi investigación en matemáticas financieras.

Editar En realidad no lo he mencionado, pero lo que realmente busco es algún tipo de fórmula de forma cerrada para $Z_t$ idealmente en función de $X$ y $t$ .

6voto

Caramdir Puntos 201

Un problema genial. El proceso que buscas no es ciertamente único, pero aquí tienes una construcción razonablemente explícita de un proceso de salto creciente $Z_t$ con la propiedad que desee. (Bajo un par de supuestos que creo que están implícitos en su declaración).

Los supuestos: 1) $X$ es una variable aleatoria positiva, $P(X>0)=1$ . 2) $X$ no tiene límites, $P(X>T)\neq 0$ . (De hecho, la construcción funciona sin el segundo supuesto, pero entonces $Z_t$ se detiene después de un tiempo aleatorio).

Sea $X_0, X_1,X_2,\ldots$ sea la siguiente cadena de Markov:

1.) $X_0=0$ con probabilidad uno.

2.) Dada $X_0,\ldots,X_{j-1}$ que la distribución de $X_j$ sea

$$P(X_j >T|X_1,\ldots,X_{j-1}) = P(X >T|X>X_{j-1}).$$

(En particular $X_1$ es una "copia" de $X$ : $P(X_1 >T)=P(X>T)$ . Las distribuciones de $X_2,\ldots$ son más complicados).

Claramente $X_j$ es una secuencia estrictamente creciente con probabilidad uno. También se puede demostrar que $\lim_n X_n =\infty$ con probabilidad uno. Dado que $X_0=0$ se deduce que para cualquier $t\ge 0$ podemos encontrar un único (aleatorio) $j_t$ tal que

$$X_{j_t-1} \le t< X_{j_t}.$$

Sea

$$Z_t = X_{j_t},$$

así que $Z_t$ es constante a trozos y creciente.

Para ver que $Z_t$ tiene la propiedad que desea, tenga en cuenta que

$$P(Z_t >T)=\sum_{j=1}^\infty P( (X_j>T) \& (j_t =j)).$$

Sea $\nu$ sea la medida de probabilidad para la distribución de $X_{j-1}$ . Entonces, por las definiciones de $j_t$ y de $X_j$ ,

$$P( (X_j>T) \& (j_t =j)) = \int_{(0,t]} P((X >T) \& (X>t) |X>x) d \nu(x).$$

Dado que el $(X >t) \subset (X>x)$ para $x \le t$ en el dominio de integración tenemos

$$P((X>T) \& (X>t) |X>x) = \frac{P((X>T)\& (X>t))}{P(X>t)} \frac{P(X>t)}{P(X>x)} =P(X>T|X>t) P(X>t|X>x).$$

Así

$$P( (X_j>T) \& (j_t =j)) = P(X>T|X>t) P((X_j >t) \& (X_{j-1}\le t)) = P(X>T|X>t)P(j_t=j),$$ y así $$P(Z_t >T) = P(X>T | X>t) \sum_{j=1}^\infty P(j_t=j)= P(X>T | X>t)$$

¡como desee!

(Por cierto, se puede construir la secuencia $X_1,\ldots$ como sigue. Sea $Y_1,\ldots$ sea una secuencia de variables aleatorias independientes idénticamente distribuidas, cada una con la distribución de $X$ . Tomaremos $X_j=Y_{n_j}$ con $n_j$ una determinada secuencia aleatoria que depende de $Y_1,\ldots$ . Sea $X_1=Y_1$ y dado $X_j=Y_{n_j}$ deje $n_{j+1}$ sea el primer índice $n$ mayor que $n_j$ tal que $Y_{n_j} < Y_{n}$ . Mientras $P(X>T)\neq 0$ para todos $T>0$ producimos así una secuencia infinita $X_1,\ldots$ .)

2voto

Braunson Puntos 384

Respecto a la pregunta inicial, la construcción explicada por Jeff es mi favorita. En cuanto a la versión editada, que pide que $Z_t$ en función de $X$ y $t$ la siguiente construcción es fea pero correcta.

Supongamos en primer lugar que $X$ es uniforme en el intervalo $[0,1]$ . Se pide que $P(Z_t>z)=(1-z)/(1-t)$ para cada $z$ en $[t,1]$ y uno sabe que $P(X > x)=1-x$ para cada $x$ en $[0,1]$ . Resolución de la ecuación $P(Z_t>z)=P(X>x)=1-x$ para $z$ produce $z=t+(1-t)x$ por lo que la solución (creciente) en este caso concreto es $$ Z_t=t+(1-t)X. $$ En el caso general, recordemos que la función de distribución acumulativa complementaria $G$ de $X$ se define por $G(x)=P(X>x)$ para cada número real $x$ . Se pide que $G(x)=G(z)/G(t)$ , por lo que una solución (no decreciente) en el caso general es $$ Z_t=G^{-1}(G(t)G(X)). $$ Aquí la función cuantil complementaria $G^{-1}$ de $X$ se define mediante la fórmula $$ G^{-1}(u)=\inf\{x \vert G(x)\le u\}, $$ para (al menos) cada $u$ en $]0,1[$ . Como sugiere la notación, $G^{-1}$ es un inverso de $G$ en el sentido de que $G^{-1}(G(X))=X$ casi seguro. Equivalentemente, $G^{-1}(u)\le x$ sólo si $G(x)\le u$ .

Un buen ejemplo es cuando $X$ es exponencial (con cualquier parámetro), entonces $Z_t=t+X$ para cada $t$ . Un ejemplo conjugado es cuando $X$ sigue una ley de potencia en el sentido de que $G(x)=(x_0/x)^a$ para cada $x\ge x_0$ para un valor positivo dado $x_0$ y $a$ entonces $Z_t=tX/x_0$ para cada $t\ge x_0$ y $Z_t=X$ para cada $t\le x_0$ . Y si $X$ es uniforme en $[0,1]$ Otra solución distinta a la anterior es $Z_t=1-(1-t)X$ .

1voto

EBGreen Puntos 981

Creo que esto no es difícil si no te importa en absoluto la estructura de covarianza o la regularidad de $Z_t$ . Para cualquier $t$ su fórmula define una función de distribución acumulativa válida, por lo que tal variable aleatoria $Z_t$ existe. Ahora esta respuesta a otra pregunta dice que se puede construir una familia incontable de variables aleatorias independientes, así que esto es suficiente. No sé cómo funciona esa construcción, así que una alternativa es construir variables aleatorias independientes $Z_t$ para racional $t$ y, a continuación, defina $Z_t$ para irracional $t$ como inf o sup.

Si quieres $Z_t$ tener, por ejemplo, trayectorias muestrales continuas, entonces es una cuestión más difícil.

-2voto

felme Puntos 41

Hace poco, uno de mis amigos encontró una solución trivial:

$$Z_t = \frac{X}{P[X>t]}$$

Para ver que funciona:

$$P[Z_t > T] = \int_T^\infty \frac{\rho(x)}{P[X>t]} dx = \frac{1}{P[X>t]}\int_T^\infty \rho(x) dx = \frac{P[X>T]}{P[X>t]}$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X