14 votos

¿Cómo elegir una unidad de análisis (nivel de agregación) en una serie de tiempo?

Si usted puede medir una serie de tiempo de las observaciones en cualquier nivel de precisión en el tiempo, y el objetivo del estudio es identificar la relación entre X e y, ¿hay alguna justificación empírica para la elección de un determinado nivel de agregación con el otro, o si la opción de simplemente ser tomadas con base en la teoría y/o práctica de las limitaciones?

Tengo tres sub-preguntas a este principal:

  1. Es cualquier no-aleatorio de la variación en X o Y dentro de un mayor nivel suficiente el razonamiento para elegir un nivel más pequeño de agregación (donde no aleatoria es cualquier patrón temporal de la observaciones)?

  2. Es cualquier variación en la relación entre X y y en un menor nivel de agregación suficiente razonamiento para justificar la menor unidad de análisis? Si la variación es aceptable ¿cómo decidir cuánto de la variación es demasiado?

  3. Las personas pueden citar los argumentos que a su juicio son convincentes/bien definido para una unidad de análisis con respecto a otro, ya sea por razones empíricas o por razones teóricas?

Soy bien consciente de la modificables área problema de la unidad espacial de análisis (Openshaw 1984). Yo no pretendo ser un experto en la material, pero todo lo que tengo que pensar tan lejos de ello, es que una pequeña unidad de análisis es siempre mejor, ya que es menos propenso a cometer una falacia ecológica (Robinson 1950). Si uno tiene una directa referencia pertinente o respuesta sobre la agregación de unidades geográficas agradecería que contestar.

11voto

Mike Moore Puntos 641

Introducción

Mi interés en el tema ahora es de unos 7 años y resultó en la tesis de Doctorado de series de Tiempo: la agregación o desagregación y largo de la memoria, donde se prestó especial atención a una pregunta específica de la sección transversal de desagregación problema para AR(1) esquema.

Datos

Trabajando con diferentes enfoques a la agregación, la primera cuestión que hay que aclarar es qué tipo de datos se puede lidiar con (mi conjetura es espacial, la más emocionante). En la práctica, usted puede considerar la agregación temporal (ver Silvestrini, A. y Veridas, D. (2008)), transversal (me encantó el artículo de Granger, C. W. J. (1990)) o el tiempo y el espacio (espaciales de agregación está muy bien estudiados en Giacomini, R. y Granger, C. W. J. (2004)).

Respuestas (largo)

Ahora, respondiendo a sus preguntas, me puse la parte áspera de la intuición primera. Ya que los problemas que me encuentro en la práctica a menudo se basan en los datos inexactos (Andy asunción

usted puede medir una serie de tiempo de las observaciones en cualquier nivel de precisión en el tiempo

parece demasiado fuerte para la macro-econométricos, pero bueno financiero y micro-econometría o cualquiera de campos experimentales, fueron a hacer el control de la precisión bastante bien) tengo que tener en cuenta que mi mensuales de las series de tiempo son menos precisas que cuando yo trabajo con datos anuales. Además de la más frecuente de las series de tiempo, al menos en el campo de la macroeconomía tienen patrones estacionales, que pueden llevar a falsos resultados (de temporada las piezas se correlacionan no la serie), por lo que necesita para ajustar estacionalmente sus datos de otra fuente de menor precisión de los datos de alta frecuencia. Trabajar con datos de corte transversal reveló que el alto nivel de desagregación trae más problemas con, probablemente, un montón de ceros a tratar. Por ejemplo, un hogar en particular en el panel de datos puede comprar un coche de una vez por 5 a 10 años, pero la demanda agregada para los nuevos (usados) de los coches es mucho más suave (incluso para una pequeña ciudad o región).

El punto más débil de la agregación siempre resulta en la pérdida de información, usted puede tener el PIB producido por la sección transversal de países de la UE durante toda la década (decir el período de 2001 a 2010), pero usted va a perder toda la dinámica de características que pueden estar presentes en su análisis teniendo en cuenta detallada del conjunto de datos de panel. Gran escala de la sección transversal de la agregación puede resultar aún más interesante: que, aproximadamente, tomar las cosas simples (memoria a corto AR(1)) promedio sobre el bastante grande de la población y obtener "representante" de memoria larga agente que se asemeja a ninguna de las micro unidades (una piedra más para el representante del concepto). Así agregación ~ pérdida de información ~ las diferentes propiedades de los objetos y desea tomar el control sobre el nivel de esta pérdida y/o nuevas propiedades. En mi opinión, es mejor tener precisos nivel micro datos de alta frecuencia como sea posible, pero... no es un habitual de medición de trade-off, no se puede estar en todas partes perfecto y preciso :)

Técnicamente la producción de cualquier análisis de regresión usted necesita más espacio (grados de libertad) a ser más o menos seguro de que (al menos) estadísticamente los resultados no son basura, a pesar de que todavía puede ser un teórico y basura :) Así que pongo el mismo peso a la pregunta 1 y 2 (suelen elegir los datos trimestrales para el macro-análisis). Respondiendo a las 3 de la sub-pregunta, todo lo que usted decida en las aplicaciones prácticas de lo que es más importante para usted: los datos más precisos o grados de libertad. Si usted toma la mencionada asunción en cuenta la información más detallada (o con mayor frecuencia) de los datos es preferible.

Probablemente la respuesta será editado último después de algún tipo de discusión si los hubiere.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X