6 votos

Definición general de los procesos estocásticos

Estoy tratando de entender el concepto básico de los procesos aleatorios.Ya entendí que un proceso aleatorio de tiempo continuo se define por X(¥,t) donde ¥ es cada elemento en el Espacio Muestral y t es el índice de tiempo.

Según esta definición, podemos ver el proceso aleatorio como un conjunto de realizaciones muestrales ( funciones temporales definidas para cada resultado en el espacio muestral) o como un conjunto de variables aleatorias ( cada una definida para un tiempo específico t ). En mi opinión, el valor de la función temporal ( realizaciones muestrales ) X(¥1,t) refleja el valor cambiante de la probabilidad de que se elija el resultado ¥1 en el espacio muestral, ¿es correcto?

Por ejemplo, tenemos un chico B en el espacio muestral que representa el resultado ¥1.Tener este resultado ¥1 en el momento t=0 equivale al 30%.A medida que pasa el tiempo, los espacios muestrales se llenan más y en el momento t=5, la probabilidad de elegir al chico B equivale al 20%.

¿ Puedo pensar que la función-tiempo X(¥1,t) será igual a 0,3 para t=0 y 0,2 para t=5 ? ¿ X(¥1,0)=0,3 y X(¥1,5)=0,2 ?

Gracias de antemano

9voto

jldugger Puntos 7490

Definiciones

Recordemos que una variable aleatoria $X$ es una función medible definida en un espacio de probabilidad $(\Omega,\mathcal{F},\mathbb{P})$ con valores en un espacio vectorial real $V$ . Si desea centrarse en los conceptos y despojarse de los detalles matemáticos, puede considerarlo como un

forma coherente de escribir los números de los billetes en una caja,

como afirmé en una respuesta en https://stats.stackexchange.com/a/54894 . Me gusta este punto de vista porque maneja muy bien las generalizaciones complicadas, como los procesos estocásticos.

En lugar de escribir un número en cada billete, elija (de una vez por todas) un espacio índice $T$ como los números reales (para representar todos los tiempos posibles en relación con un tiempo inicial) o todos los números naturales (para representar series temporales discretas), o todos los puntos posibles en el espacio (para un proceso estocástico espacial). En cada entrada $\omega$ se escribe una función entera de valor real

$$X(\omega): T\to \mathbb{R}.$$

Eso es un proceso estocástico. Para tomar una muestra, mezcle bien los billetes y saque uno al azar con las probabilidades dadas por $\mathbb{P}$ .

Figure

Este esquema de un proceso estocástico $X$ muestra partes de tres entradas, $\omega_1$ , $\omega_2$ y $\omega_3$ . En cada billete $\omega$ se muestra una función $X(\omega)$ . Para cualquier $t$ en el eje horizontal (que representa $T$ ) y cualquier billete $\omega$ en la casilla, puede buscar el valor de $\omega$ en $t$ y escribirlo en el billete: esa es la variable aleatoria $X(\omega)(t)$ .

Puntos de vista equivalentes

A riesgo de parecer redundante, observe que hay tres formas matemáticamente equivalentes de ver $X$ :

  1. Una función aleatoria $$X(\omega): T \to \mathbb{R}.$$

  2. Una variable aleatoria cuyas entradas son resultados temporales en $\Omega$ $$X:T \times \Omega \to \mathbb{R};\quad X(t, \omega) = X(\omega)(t).$$

    Se trata más bien de una equivalencia formal, sin una bonita interpretación de tickets-en-caja.

  3. Un conjunto indexado de variables aleatorias $$X_t: \Omega \to \mathbb{R};\quad X_t(\omega) = X(\omega)(t).$$

    Para tomar muestras de cualquier $X_t$ elige un billete al azar $\omega$ de la caja y--ignorando el resto de la función $X$ --sólo hay que leer su valor en $t$ .

Ni el espacio muestral $\Omega$ ni la medida de probabilidad subyacente $\mathbb{P}:\mathcal{F}\to\mathbb{R}$ necesidad de cambiar nada en ninguno de estos puntos de vista.

Otro enfoque

Para trabajar con un proceso estocástico, a menudo podemos reducir nuestras consideraciones a subconjuntos finitos de $T$ . Si arreglas uno $t\in T$ y escriba el valor particular $X(\omega)(t)$ en cada billete, tienes -obviamente- una variable aleatoria. Su nombre es $X_t$ . Formalmente,

$$X_t(\omega) = X(\omega)(t).$$

Si fija dos índices $s, t\in T$ entonces se puede escribir el par ordenado $(X(\omega)(s), X(\omega)(t))$ en cada billete $\omega$ . Se trata de una variable aleatoria bivariante, escrita en $(X_s, X_t)$ . Puede estudiarse como cualquier otra variable aleatoria bivariante. Tiene una relación obvia con las variables univariantes precedentes $X_t$ y $X_s$ : son sus marginales.

Se puede ir más allá y considerar cualquier secuencia finita de índices $\mathcal{T}=(t_1, t_2, \ldots, t_n)$ y, del mismo modo, definir un $n$ -variable aleatoria

$$X_\mathcal{T}(\omega) = (X(\omega)(t_1), X(\omega)(t_2), \ldots, X(\omega)(t_n)).$$

Todas estas variables aleatorias multivariantes están obviamente interconectadas. Por ejemplo, si reordenamos las $t_i$ obtenemos otra variable aleatoria distinta, pero en realidad es la "misma" variable aleatoria con sus valores reordenados. Y si simplemente ignoramos algunos de los índices, obtenemos una especie de distribución marginal generalizada, de la misma manera que $X_s$ está relacionado con $(X_s, X_t)$ .

En Teorema de extensión de Kolmogorov afirma que tal familia "consistente" de variables aleatorias multivariantes, indexadas por subconjuntos finitos de $T$ es lo mismo como el proceso estocástico original. Dicho de otro modo,

Un proceso estocástico es una familia consistente de variables radom multivariantes $X_\mathcal{T}$ .

Después

El Teorema de Extensión de Kolmogorov explica por qué en gran parte de la bibliografía se hace hincapié en el análisis de dichas familias, especialmente en el caso de familias pequeñas. $n$ (normalmente $n=1$ y $n=2$ ). Muchos tipos de procesos estocásticos se caracterizan en términos de ellos. Por ejemplo, en un proceso estacionario un grupo de transformaciones $G$ opera de forma transitoria en $T$ sin cambiar las distribuciones de $X_\mathcal{T}$ . En concreto, para cualquier $g\in G$ y $\mathcal{T}\subset T$ , dejemos que $$g(\mathcal{T}) = \{g(t)\,|\, g\in \mathcal{T}\}$$ sea la imagen de $\mathcal{T}$ . Entonces $X_\mathcal{T}$ y $X_{g(\mathcal{T})}$ deben tener la misma distribución (multivariante). El ejemplo más común es $T=\mathbb{R}$ y $G$ es el grupo de traslaciones $\{t\to t+g\,|\, g\in\mathbb{R}\}$ .

Un proceso es estacionario de segundo orden cuando esta relación de invariancia es necesariamente cierta para subconjuntos $\mathcal{T}$ que sólo tienen uno o dos elementos, pero quizá no sea cierto para subconjuntos más grandes. Asumir la estacionariedad de segundo orden significa que podemos centrar el análisis en las distribuciones univariante y bivariante determinadas por $X$ y no tenemos que preocuparnos por el origen de los "tiempos" $T$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X