Definiciones
Recordemos que una variable aleatoria $X$ es una función medible definida en un espacio de probabilidad $(\Omega,\mathcal{F},\mathbb{P})$ con valores en un espacio vectorial real $V$ . Si desea centrarse en los conceptos y despojarse de los detalles matemáticos, puede considerarlo como un
forma coherente de escribir los números de los billetes en una caja,
como afirmé en una respuesta en https://stats.stackexchange.com/a/54894 . Me gusta este punto de vista porque maneja muy bien las generalizaciones complicadas, como los procesos estocásticos.
En lugar de escribir un número en cada billete, elija (de una vez por todas) un espacio índice $T$ como los números reales (para representar todos los tiempos posibles en relación con un tiempo inicial) o todos los números naturales (para representar series temporales discretas), o todos los puntos posibles en el espacio (para un proceso estocástico espacial). En cada entrada $\omega$ se escribe una función entera de valor real
$$X(\omega): T\to \mathbb{R}.$$
Eso es un proceso estocástico. Para tomar una muestra, mezcle bien los billetes y saque uno al azar con las probabilidades dadas por $\mathbb{P}$ .
Este esquema de un proceso estocástico $X$ muestra partes de tres entradas, $\omega_1$ , $\omega_2$ y $\omega_3$ . En cada billete $\omega$ se muestra una función $X(\omega)$ . Para cualquier $t$ en el eje horizontal (que representa $T$ ) y cualquier billete $\omega$ en la casilla, puede buscar el valor de $\omega$ en $t$ y escribirlo en el billete: esa es la variable aleatoria $X(\omega)(t)$ .
Puntos de vista equivalentes
A riesgo de parecer redundante, observe que hay tres formas matemáticamente equivalentes de ver $X$ :
-
Una función aleatoria $$X(\omega): T \to \mathbb{R}.$$
-
Una variable aleatoria cuyas entradas son resultados temporales en $\Omega$ $$X:T \times \Omega \to \mathbb{R};\quad X(t, \omega) = X(\omega)(t).$$
Se trata más bien de una equivalencia formal, sin una bonita interpretación de tickets-en-caja.
-
Un conjunto indexado de variables aleatorias $$X_t: \Omega \to \mathbb{R};\quad X_t(\omega) = X(\omega)(t).$$
Para tomar muestras de cualquier $X_t$ elige un billete al azar $\omega$ de la caja y--ignorando el resto de la función $X$ --sólo hay que leer su valor en $t$ .
Ni el espacio muestral $\Omega$ ni la medida de probabilidad subyacente $\mathbb{P}:\mathcal{F}\to\mathbb{R}$ necesidad de cambiar nada en ninguno de estos puntos de vista.
Otro enfoque
Para trabajar con un proceso estocástico, a menudo podemos reducir nuestras consideraciones a subconjuntos finitos de $T$ . Si arreglas uno $t\in T$ y escriba el valor particular $X(\omega)(t)$ en cada billete, tienes -obviamente- una variable aleatoria. Su nombre es $X_t$ . Formalmente,
$$X_t(\omega) = X(\omega)(t).$$
Si fija dos índices $s, t\in T$ entonces se puede escribir el par ordenado $(X(\omega)(s), X(\omega)(t))$ en cada billete $\omega$ . Se trata de una variable aleatoria bivariante, escrita en $(X_s, X_t)$ . Puede estudiarse como cualquier otra variable aleatoria bivariante. Tiene una relación obvia con las variables univariantes precedentes $X_t$ y $X_s$ : son sus marginales.
Se puede ir más allá y considerar cualquier secuencia finita de índices $\mathcal{T}=(t_1, t_2, \ldots, t_n)$ y, del mismo modo, definir un $n$ -variable aleatoria
$$X_\mathcal{T}(\omega) = (X(\omega)(t_1), X(\omega)(t_2), \ldots, X(\omega)(t_n)).$$
Todas estas variables aleatorias multivariantes están obviamente interconectadas. Por ejemplo, si reordenamos las $t_i$ obtenemos otra variable aleatoria distinta, pero en realidad es la "misma" variable aleatoria con sus valores reordenados. Y si simplemente ignoramos algunos de los índices, obtenemos una especie de distribución marginal generalizada, de la misma manera que $X_s$ está relacionado con $(X_s, X_t)$ .
En Teorema de extensión de Kolmogorov afirma que tal familia "consistente" de variables aleatorias multivariantes, indexadas por subconjuntos finitos de $T$ es lo mismo como el proceso estocástico original. Dicho de otro modo,
Un proceso estocástico es una familia consistente de variables radom multivariantes $X_\mathcal{T}$ .
Después
El Teorema de Extensión de Kolmogorov explica por qué en gran parte de la bibliografía se hace hincapié en el análisis de dichas familias, especialmente en el caso de familias pequeñas. $n$ (normalmente $n=1$ y $n=2$ ). Muchos tipos de procesos estocásticos se caracterizan en términos de ellos. Por ejemplo, en un proceso estacionario un grupo de transformaciones $G$ opera de forma transitoria en $T$ sin cambiar las distribuciones de $X_\mathcal{T}$ . En concreto, para cualquier $g\in G$ y $\mathcal{T}\subset T$ , dejemos que $$g(\mathcal{T}) = \{g(t)\,|\, g\in \mathcal{T}\}$$ sea la imagen de $\mathcal{T}$ . Entonces $X_\mathcal{T}$ y $X_{g(\mathcal{T})}$ deben tener la misma distribución (multivariante). El ejemplo más común es $T=\mathbb{R}$ y $G$ es el grupo de traslaciones $\{t\to t+g\,|\, g\in\mathbb{R}\}$ .
Un proceso es estacionario de segundo orden cuando esta relación de invariancia es necesariamente cierta para subconjuntos $\mathcal{T}$ que sólo tienen uno o dos elementos, pero quizá no sea cierto para subconjuntos más grandes. Asumir la estacionariedad de segundo orden significa que podemos centrar el análisis en las distribuciones univariante y bivariante determinadas por $X$ y no tenemos que preocuparnos por el origen de los "tiempos" $T$ .