7 votos

¿La correlación cero entre 2 series diferenciadas implica que no hay cointegración entre las series originales?

La pregunta está relacionada con este .

En esta pregunta @mpiktas da una respuesta sobre por qué no basta con comprobar la correlación, pero la respuesta no me parece del todo correcta por la siguiente razón:

Si dos series temporales están cointegradas, es decir, existe una relación lineal entre ellas $$y_t = a + b x_t + \varepsilon_t$$ con el estacionamiento $\varepsilon_t$ it implica una relación lineal entre sus diferencias $$\Delta y_t = b \Delta x_t + \Delta \varepsilon_t.$$ Por tanto, si las series están cointegradas, sus diferencias deberían estar correlacionadas. Y esto significa que si no vemos una correlación significativa entre las diferencias en nuestros datos, entonces tampoco hay cointegración. ¿Es esto correcto o me estoy perdiendo algo?

La pregunta surge porque busco relaciones entre cientos de series temporales (principalmente no estacionarias) y la forma de hacerlo es considerando las correlaciones entre sus contrapartes diferenciadas. Y asumo que si no veo correlación entre las series diferenciadas tampoco hay cointegración, basta con comprobar sólo las correlaciones.

5voto

Jeff Bauer Puntos 236

La existencia o no de una relación lineal no va necesariamente unida a la cointegración. Las variables cointegradas en niveles no necesariamente presentarán correlación en primera diferencia.

Supongamos que se mantiene la siguiente relación: $$y_t = a + b x_t + \varepsilon_t, \; \varepsilon_t=\text {i.i.d} $$

es decir, las variables están cointegradas. Entonces la relación

$$\Delta y_t = b \Delta x_t + \Delta \varepsilon_t$$
también tiene. Calculando la correlación muestral de las primeras diferencias estimaremos la Covarianza como

$$ \begin{align}\operatorname{\hat Cov}(\Delta y_t,\Delta x_t)=& \frac 1{T-1} \sum_{t=2}^{T}\left(b \Delta x_t + \Delta \varepsilon_t\right)\Delta x_t \\-&\left(\frac 1{T-1} \sum_{t=2}^{T}\left(b \Delta x_t + \Delta \varepsilon_t\right)\right)\left(\frac 1{T-1} \sum_{t=2}^{T}\Delta x_t\right)\end{align} $$

$$ \begin{align}=b\frac 1{T-1}& \sum_{t=2}^{T}\left(\Delta x_t \right)^2 + \frac 1{T-1} \sum_{t=2}^{T}\left(\Delta x_t \Delta \varepsilon_t\right) \\ -& b\left(\frac 1{T-1}\sum_{t=2}^{T} \Delta x_t\right)^2 -\left(\frac 1{T-1} \sum_{t=2}^{T}\Delta \varepsilon_t\right)\left(\frac 1{T-1} \sum_{t=2}^{T}\Delta x_t\right) \end{align}$$

En la medida en que $x_t$ y $\varepsilon_t$ son independientes, los términos que implican el error tenderán a desaparecer y así

$$ \operatorname{\hat Cov}(\Delta y_t,\Delta x_t)\rightarrow bs^2_{\Delta x_t} $$

donde $s^2$ es la varianza de la muestra (independientemente de que la varianza de $x_t$ o $\Delta x_t$ es constante o no).

La varianza muestral de $\Delta y_t$ será

$$s^2_{\Delta s_t} \approx b^2s^2_{\Delta x_t} + s^2_{\Delta \varepsilon_t}$$

de nuevo, independientemente de que estos momentos muestrales estimen algo significativo.

Así que $$\operatorname {\hat Corr}(\Delta y_t,\Delta x_t) \approx \frac {bs^2_{\Delta x_t}}{\sqrt {\left(b^2s^2_{\Delta x_t} + s^2_{\Delta \varepsilon_t}\right)}\sqrt {s^2_{\Delta x_t} }} = \frac {bs_{\Delta x_t}}{\sqrt {\left(b^2s^2_{\Delta x_t} + s^2_{\Delta \varepsilon_t}\right)}}$$

Así que la magnitud de la correlación de primeras diferencias estimada empíricamente, dependerá de la magnitud de la varianza del término de error (que además entra en la expresión duplicado ya que consideramos las primeras diferencias). Si esta varianza (constante) es grande comparada con la varianza de $x_t$ entonces la correlación estimada de las primeras diferencias puede ser pequeña o inexistente, aunque las variables estén cointegradas en niveles.

0 votos

Muchas gracias a Alecos, su análisis es impresionante y bastante perspicaz. Sin embargo, tengo un par de comentarios, pero son largos, así que los publico en un post aparte más abajo.

0voto

vladr Puntos 299

Por lo tanto, si mi comprensión del muy perspicaz análisis de @Alecos es correcta, tiene 2 puntos: incluso si los rendimientos están relacionados linealmente $\Delta y_t = b\cdot\Delta x_t + \Delta\varepsilon_t$ entonces

  1. verdadero correlación entre $\Delta y_t$ y $\Delta x_t$ puede ser cualquier cosa entre 0 y 1 dependiendo de la relación ruido/señal $var(\Delta \varepsilon_t)/ var(\Delta x_t)$

  2. como estimamos por encima de la correlación verdadera a partir de una muestra finita, nuestra estimación puede ser algo diferente de la verdadera.

Ahora, para el punto 1 puedo objetar que si la relación ruido/señal es grande entonces ambos correlación y la cointegración original será "débil" (no estoy seguro de que exista una medida de la fuerza de la cointegración, probablemente el valor p de la prueba ADF).

Así que si sabemos que verdadero La correlación entre las series diferenciadas es ~0 debido a la alta $var(\Delta \varepsilon)$ probablemente todavía podemos concluir que la cointegración entre las series originales es muy débil debido a la misma alta $var(\varepsilon)$ .

Ahora bien, el segundo punto probablemente hace que esta conclusión sea menos segura: si la estimación muestral finita de la correlación es ~0, esto no significa que la verdadera sea ~0 y, por lo tanto, puede haber cointegración. Así que la pregunta es cuán lejos puede estar la correlación de la muestra de la verdadera dado un tamaño de muestra :)

0 votos

Planteas una cuestión interesante: no recuerdo nada relacionado con la "fuerza de cointegración", quizás porque es una propiedad "sí/no": "el término de error es/no es estacionario". Podría ser un área de investigación fructífera. En la práctica, si la magnitud relativa del error es muy alta, aunque la cointegración existirá tal como se define, la inferencia sobre $y$ que dependerá de $x$ será probablemente pobre, precisamente porque la mayor parte de la variabilidad en $y$ es generado por el término de error. Así que, en cierto sentido, la existencia de cointegración no será muy útil. (CONTENIDO)

0 votos

(CONTINÚA). El coeficiente de correlación es una estadística complicada y sensible, véase por ejemplo es.wikipedia.org/wiki/

0voto

Dado que la correlación es una medida del grado de dependencia lineal, las primeras diferencias deberían ponerlo de manifiesto. Ahora, estoy asumiendo que usted comprueba la cointegración a través de múltiples rezagos, no sólo los valores contemporáneos, ya que podría haber algo como $y_t = a + b x_{t-1} + \varepsilon_t$ que puede complicar las cosas. La observación de Alecos de que puede haber no detectable La cointegración también es importante.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X