2 votos

¿Qué se puede deducir sobre la covarianza entre f(x) y f(x + K) para K constante?

La pregunta se refiere a las transformaciones de una variable aleatoria $X$ mediante una función $f$ . Me gustaría entender si hay condiciones que podrían hacer:

$$\operatorname{covar}(f(X), f(X + K) ) \geq \operatorname{covar}(f(X),f(X)) = \operatorname{var}(f(X)).$$

En otras palabras, ¿es posible que la covarianza de una función de $X$ con una versión desplazada de sí misma puede ser mayor que la covarianza de la función consigo misma? En caso afirmativo, ¿cuándo exactamente?

Supuestos

$X$ es una variable aleatoria real con distribución desconocida

$f \colon \Re \rightarrow \Re$ es una función continua, acotada y diferenciable (quizás también positiva, monotónicamente creciente si eso simplifica las cosas)

$K \neq 0$ es una constante real

Sospecho que hay distribuciones particulares de $X$ propiedades de $f$ y/o valores de $K$ que pueda hacer que la desigualdad anterior sea cierta, pero no estoy seguro de cómo empezar.

He intentado aplicar varias desigualdades de tipo Gruss, pero no me queda claro cómo pueden ayudar. El único punto de partida que conozco es que si $\operatorname{covar}(f(X), f(X + K) ) \geq \operatorname{covar}(f(X),f(X))$ entonces $\operatorname{var}(f(X+K)) \geq \operatorname{var}(f(X))$ .

Agradecería cualquier sugerencia sobre cómo enfocar este problema.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X