1 votos

¿Cómo conduce la estimación de la densidad del núcleo a la normalización? ¿Lo hace en absoluto?

Estoy viendo un informe de una empresa. Dicen que están normalizando los datos. Tienen datos de series temporales (es decir, datos de ciertos parámetros para una secuencia de tiempo). Primero generan nuevas variables como $100\cdot(x/lag(x)-1)$ Luego hacen la estimación de la densidad del núcleo. Creía que normalizar era restar la media y dividir por la sd, ¿no?

1) Entonces, ¿es $100\cdot(x/lag(x)-1)$ ¿una normalización para las series temporales? EDIT: según tengo entendido esto es sólo calcular la relación de un año por otro. ¿Se considera normalización?

2) ¿Para qué se utiliza entonces el núcleo aquí? ¿Sólo para suavizar?

2voto

Even Mien Puntos 10122

Supongo que $lag$ es la variable retardada. De alguna manera $lag(x_t)=x_{t-1}$ .

Por lo tanto, no es normalización que se realiza. Sólo convierten una serie (¿precio/valor?) en una serie de ratios (¿retornos?) : $\tilde{x}_t=\frac{x_t-x_{t-1}}{x_{t-1}}$ . El multiplicador 100 es sólo una forma de expresar estos ratios en porcentaje, supongo.

Entonces no hay nada de malo en ajustar cualquier distribución en los rendimientos. La estimación del núcleo es, de hecho, más suave (que producir la distribución empírica).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X