7 votos

Si dos series temporales $X$ y $Z$ siga $0 \leq Z \leq X$ ¿podemos decir que $\text{var}(Z) \leq \text{var}(X)$ ?

Ahora veo que no aguanta. Gracias por los contraejemplos... ¡Ustedes mandan!

Muchas gracias por sus comentarios.

No obstante, he añadido algunas observaciones que faltaban. La más importante es el hecho de que podemos suponer que existe una covarianza positiva entre X e Y.

Al principio, me pareció que sería fácil de demostrar... pero aún no he conseguido resolver este problema. ¿Pueden echarme una mano?

Supongamos que utilizamos

$\mathbf{i)}$ una serie temporal $X = [x_1,...,x_N]$ que sólo contiene entradas positivas (es decir $0 \leq x_i$ para todos $i$ ),

$\mathbf{ii)}$ un vector de pesos del mismo de longitud dada por $Y = [y_1,...,y_N]$ donde $0 \leq y_i \leq 1$ para todos $i$

construir

$\mathbf{iii)}$ una serie temporal $Z = [z_1,...,z_N]$ donde el $i$ viene dado por $z_i = x_i y_i$ es decir, $Z = [x_1 y_1,...,x_N y_N]$ . Claramente, como $Y \in [0,1]$ tenemos que $0 \leq Z \leq X$ para todos $i$ .

$\mathbf{Question)}$ ¿Podemos demostrar que $\text{var}(Z) \leq \text{var}(X)$ ?

Por ejemplo, si

$X = [2, 6, 99, 12, 3, 1]$ y $Y = [0.34, 0.01, 0.2, 1, 0.3, 0.17]$ tenemos

$ Z = [x_1 y_1,...,x_N y_N] = [0.68, 0.06, 19.8, 12, 0.9, 0.17]$

$ \widehat{\sigma}^{2}_{X} = 1494.70$

$ \widehat{\sigma}^{2}_{Z} = 69.81$

$\mathbf{Important} \text{ } \mathbf{observations}$ :

1) $X$ y $Y$ son procesos aleatorios estacionarios y ergódicos

2) $X$ no es una serie temporal constante, en el sentido de que $\text{var}(X) \geq 0$

3) Cabe suponer que $\text{var}(X) \geq \text{var}(Y) \geq 0$

4) Existe una covarianza positiva $X$ entre y $Y$

  • ¿Posible implicación de 4)?

En $0 \leq Z \leq X$ podríamos definir una serie temporal dada $W \geq 0$ como $Z + W = X$ . Así, $\text{var}(X) = \text{var}(Z + W) = \text{var}(Z) + \text{var}(W) + 2\text{cov}(Z,W)$ . Tenga en cuenta que si $\text{cov}(Z,W) \geq 0$ entonces $\text{var}(X) \geq \text{var}(Z)$ porque $\text{var}(W)$ también es mayor que cero.

¿El hecho de que $\text{cov}(X,Y) \geq 0$ deducir que $\text{cov}(Z,W) \geq 0$ ? ¿Hay alguna condición que garantice $\text{cov}(Z,W) > 0$

Por qué estaba tan convencido de $\text{var}(Z) \leq \text{var}(X)$ ?

En la aplicación que me interesa, he observado que la relación $\text{var}(Z) \leq \text{var}(X)$ es atendido cada vez que ejecuto mi algoritmo. Si no puedo demostrar que $\text{var}(Z) \leq \text{var}(X)$ sostiene dadas las observaciones 1) a 4), me gustaría saber qué está forzando esa relación, como, por ejemplo, $\text{cov}(Z,W) \geq 0$ como ya se ha mencionado.

Gracias de nuevo por las respuestas.

Saludos

7voto

GenericTypeTea Puntos 27689

No creo que Var $(Z)\le $ Var $(X)$ . Imagina que $X$ es una serie temporal que serpentea en torno a valores cercanos a 100, casi siempre entre 98 y 102. Imaginemos ahora que $Z$ oscila entre 0 y 100, pero siempre es inferior a $X$ . La varianza de $Z$ va a ser claramente mayor en tal caso que la varianza de $X$ . Este es un ejemplo en el que $X$ y $Z$ son estacionarios alrededor de algunas constantes, pero podría extenderse fácilmente a un ejemplo estacionario de tendencia... No estoy seguro de si se extendería a series temporales integradas... tengo que pensarlo.

5voto

AdamSane Puntos 1825

Está claro que no.

Un contraejemplo fácil (aquí hecho en R), que creo que satisface todas tus restricciones:

 set.seed(239843)
 x=rnorm(100,100,1)
 y=rep(c(0.01,0.99),times=50)
 z=x*y
 var(x)
[1] 0.8413043
var(y)
[1] 0.2425253
 var(z)
[1] 2425.296

Lo que está pasando:

  1. x es una serie con media 100 y sd 1.

  2. y alterna entre 0,01 y 0,99.

  3. Por tanto, z=xy alterna entre (aproximadamente) 1 y 99, pero siempre es $<x$

Pregunta alternativa [más general]) Suponiendo varianzas finitas, ¿es cierto que para cualquier variable aleatoria a y b tales que 0≤a≤b, tenemos var(a)≤var(b)?

Más claro aún que no; sin necesidad de una "y" como variable, es bastante obvio:

Considere un conjunto de valores que alterna entre 1 y 99, y un segundo que alterna entre 100 y 101.


Añadiendo la nueva condición de que X e Y tengan covarianza positiva:

 set.seed(239843)
 oldx=rnorm(100,100,1)
 y=rep(c(0.01,0.99),times=50)
 x = oldx + y  # oldX and Y are independent, so X and Y now have +ve covariance
 z=x*y
 cov(x,y)
[1] 0.2739745  # sample covariance happens to be positive in this case also
 var(x);var(y);var(z)
[1] 1.065326
[1] 0.2425253
[1] 2481.243

Si calculas algebraicamente las respuestas para este caso (calcula las varianzas poblacionales y la covarianza poblacional pertinente), verás que no se trata sólo de un accidente numérico debido a una elección afortunada de la semilla.

4voto

patfla Puntos 1

Para el caso general, la respuesta es no. Para los casos específicos, también es no.

Un contraejemplo sencillo es tomar $ y\sim U (0,1) $ y tomar $ x\sim Gamma (a, a) $ tal que tenemos $ E (x)=1 $ y $ var (x)=a^{-1}$ . Toma $ x $ y $ y $ como independientes, y tenemos:

$$ var (z) =E [var (z|y)]+var [E (z|y)]=E [y^2a^{-1}]+var [y]=var (y) + E (y^2)a^{-1}=\frac {1}{12} +\frac {1}{3} var (x)=var (x)\frac {a+4}{12} $$

Ahora sólo tenemos que elegir cualquier valor para $ a $ tal que $ a> 8$ y tendremos $ var (z)> var (x) $

4voto

jldugger Puntos 7490

Dejemos claro que la "varianza" que nos ocupa parece ser una variable aleatoria derivada de una porción finita de una serie temporal. En concreto, la $k^\text{th}$ momento de $\mathrm{X} =(X_1, X_2, \ldots, X_N)$ es

$$\mu_k(\mathrm{X}) = (X_1^k+X_2^k+\cdots+X_N^k)/N,$$

que es una variable aleatoria, y el desviación es

$$\text{var}(\mathrm{X}) = \mu_2(\mathrm{X}) - \mu_1^2(\mathrm{X}),$$

que también es una variable aleatoria.

Del mismo modo, podemos definir los momentos $\mu_{jk}$ de la serie bivariante $(X_i,Y_i)$ y a partir de ellas calcular una covarianza. Todas estas definiciones tienen sentido incluso cuando cualquiera de las series es constante (aunque entonces los momentos y la varianza pueden reducirse a números en lugar de a variables aleatorias).

Para demostrar que existen contraejemplos incluso cuando $X$ y $Y$ tienen covarianza positiva, dejemos que $Y_i$ estar limitada por $0$ y $1$ , dejemos que $\mathrm{Y}$ tienen varianza distinta de cero, elija $0 \lt \varepsilon \lt 1$ y defina

$$X_i = 1 + \varepsilon Y_i \ge 0.$$

Por construcción, existe una correlación perfecta (unitaria) entre cada $X_i$ y $Y_i$ así como entre $\mu_k(\mathrm{X})$ y $\mu_k(\mathrm{Y})$ para cualquier $k\gt 0$ ; ciertamente las covarianzas son positivas.

Sin embargo, como $Z_i=X_iY_i = Y_i + \varepsilon Y_i^2$ ,

$$\text{Var}(\mathrm{Z}) = \text{Var}(\mathrm{Y}) + 2\varepsilon\mu_1(\mathrm{Y}^3) + \varepsilon^2 \mu_1(\mathrm{Y}^4) \gt \text{Var}(\mathrm{Y}) \gt \varepsilon^2 \text{Var}(\mathrm{Y}) = \text{Var}(\mathrm{X}),$$

refutando la conjetura de la pregunta.

El mismo análisis (unido al hecho de que $\mu_1(\mathrm{Y}^4)\lt \mu_1(\mathrm{Y}^2)$ ) demuestra que para un $\varepsilon\gt 1$ la desigualdad debe invertirse. Por lo tanto, no existe una desigualdad necesaria que relacione $\text{Var}(\mathrm{X})$ y $\text{Var}(\mathrm{Z})$ .

3voto

Jeff Bauer Puntos 236

Supongamos que los procesos $\{X\}$ y $\{Y\}$ son ergódicos/estacionarios con momentos finitos e independientes. Entonces $\{XY\}$ también es ergódica y

$$\operatorname{Var(XY)} = E(X^2Y^2) - [E(XY)]^2 = E(X^2)E(Y^2) - [E(X)]^2[E(Y)]^2$$

la ruptura de los valores esperados debido a la independencia.

Usted pregunta

$$E(X^2)E(Y^2) - [E(X)]^2[E(Y)]^2 \leq E(X^2) - [E(X)]^2\;\;??$$

$$\Rightarrow [E(X)]^2\cdot [1-[E(Y)]^2] \leq E(X^2)\cdot [1-E(Y^2)]\;\; ?? \qquad[1]$$

Desde $0\leq Y \leq 1$ tenemos

$$0\leq E(Y) \leq 1 \Rightarrow 0\leq [E(Y)]^2 \leq1,\;\; 0\leq E(Y^2) \leq1$$

y también

$$E(Y^2) > [E(Y)]^2 \Rightarrow [1-[E(Y)]^2] > [1-E(Y^2)] \qquad[2]$$

Examinar la desigualdad deseada $[1]$ y la desigualdad verdadera $[2]$ se ve que $[1]$ puede mantenerse o no, ya que $[E(X)]^2 < E(X^2)$ .

Yo diría que este es un ejemplo instructivo de cómo cambian las cosas cuando pasamos de un supuesto determinista a uno estocástico, porque si el $y_i$ se designan como una secuencia determinista, entonces, por supuesto, la varianza de $X_iy_i$ no es mayor que la varianza de $X_i$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X