Hay un estándar (o mejor) método de la prueba cuando en un momento dado de la serie se ha estabilizado?
Un poco de motivación
Tengo un sistema dinámico estocástico que genera un valor de $x_t$ en cada paso de tiempo $t \in \mathbb{N}$. Este sistema tiene algún comportamiento transitorio hasta el paso de tiempo $t^*$ y luego se estabiliza alrededor de un valor medio $x^*$ con algún error. Ninguno de $t^*$, $x^*$, o el error se sabe que a mí. Estoy dispuesto a hacer algunos supuestos (como el de Gauss de error de alrededor de $x^*$, por ejemplo), pero al menos a priori supuestos necesito, mejor. La única cosa que sé con certeza, es que sólo hay un punto estable que el sistema converge hacia, y las fluctuaciones alrededor de la cuadra punto son mucho más pequeñas que las fluctuaciones durante el período transitorio. El proceso también es monótona-ish, puedo asumir que $x_0$ inicia cerca de $0$ y sube hacia la $x^*$ (tal vez excesiva por un poco antes de estabilizarse en torno a $x^*$).
El $x_t$ datos serán procedentes de una simulación, y tengo la prueba de estabilidad como una condición de parada para mi la simulación (ya que estoy interesado sólo en el período transitorio).
Pregunta precisa
Dado acceso sólo para el valor de tiempo de $x_0 ... x_T$ para algunos finito $T$, hay un método para decir con exactitud razonable que el estocástico dinámico del sistema se ha estabilizado alrededor de algún punto de $x^*$? Los puntos de bonificación si la prueba también devuelve $x^*$, $t^*$, y el error de alrededor de $x^*$. Sin embargo, esto no es esencial, ya que hay maneras sencillas de entender esto después de que la simulación ha terminado.
Enfoque ingenuo
El enfoque ingenuo que primero aparece en mi mente (que he observado que se utilizan como condiciones de victoria para algunas redes neuronales, por ejemplo) es para recoger a los parámetros de $T$$E$, entonces si $T$ timesteps no hay dos puntos de $x$ $x'$ tal que $x' - x > E$, a continuación, llegamos a la conclusión de que se han estabilizado. Este enfoque es fácil, pero no es muy riguroso. También me obliga a adivinar en qué buenos valores de $T$ $E$ debe ser.
Parece que debe haber un mejor enfoque que mira hacia atrás en algún número de pasos en el pasado (o tal vez de alguna manera descuentos de datos antiguos), se calcula el error estándar de este tipo de datos y, a continuación, comprueba si para algunos otros números de pasos (o en otro descuento esquema) de las series de tiempo no ha sido fuera de este rango de error. He incluido un poco menos ingenuo, pero todavía estrategia simple como una respuesta.
Cualquier ayuda, o referencias a las técnicas estándar son apreciados.
Notas
Yo también la cruz publicado esta cuestión-es MetaOptimize y en una simulación de sabor de la descripción a la Ciencia Computacional.
Respuestas
¿Demasiados anuncios?Este breve comentario está lejos de ser completa respuesta, sólo algunas sugerencias:
- si usted tiene dos periodos de tiempo donde el comportamiento es diferente, por diferentes me refiero a que cualquiera de las diferencias en los parámetros del modelo (no es relevante en esta situación en particular), la media o la varianza o de cualquier otro carácter de series de tiempo del objeto ($x_t$ en su caso), puedes probar cualquiera de los métodos que estiman el tiempo (intervalo), estructurales (o de la epidemia) cambiar.
- En R hay un
strucchange
biblioteca de cambios estructurales en los modelos de regresión lineal. Aunque se utiliza principalmente para pruebas y el monitoreo de los cambios en la regresión lineal de los parámetros, algunas estadísticas que podrían ser utilizados para el general de los cambios estructurales en las series de tiempo.
Como he leído tu pregunta "y las fluctuaciones alrededor de la cuadra punto son mucho más pequeñas que las fluctuaciones durante el período transitorio" lo que yo saco de esto es una solicitud para detectar cuando y si la varianza de los errores que ha cambiado y si es así cuando ! Si ese es tu objetivo, entonces usted podría considerar la posibilidad de revisar el trabajo o R. Tsay "valores atípicos, el Nivel de los Turnos y la Varianza de los Cambios en las Series de Tiempo" , Revista de Previsión Vol 7 , 1-20 (1988). He hecho mucho trabajo en esta área y resulta muy productivo a la hora de obtener un buen análisis. Otros enfoques (ols/análisis de regresión lineal, por ejemplo ), que asumen observaciones independientes y no hay Pulso valores Atípicos y/o no el nivel de turnos o local de las tendencias en el tiempo y invariante en el tiempo los parámetros son insuficientes en mi opinión.
Yo estaba pensando más acerca de la pregunta y pensé que le daría una ligera mejora de la aproximación ingenua como una respuesta con la esperanza de que la gente sabe más ideas en la dirección. También nos permite eliminar la necesidad de saber el tamaño de las fluctuaciones.
La forma más fácil de implementar es con dos parámetros de $(T,\alpha)$. Deje $y_t = x_{t + 1} - x_{t}$ ser el cambio en la serie de tiempo entre el paso de tiempo $t$$t + 1$. Cuando la serie es estable alrededor de $x^*$, $y$ fluctuará alrededor de cero con algunos de error estándar. Aquí vamos a suponer que este error es normal.
Tome la última $T$, $y_t$'s y un ajuste Gaussiano con confianza $\alpha$ mediante el uso de una función de Matlab normfit. El ajuste se nos da una media de $\mu$ $\alpha$ de confianza error en la media de $E_\mu$ y una desviación estándar $\sigma$, con su correspondiente error $E_\sigma$. Si $0 \in (\mu - E_\mu, \mu + E_\mu)$, entonces usted puede aceptar. Si quieres estar más seguro, entonces usted también puede renormalize la $y_t$s por $\sigma$ lo encontró (de modo que ahora usted tiene la desviación estándar $1$) y prueba con el test de Kolmogorov-Smirnov y la prueba en el $\alpha$ de nivel de confianza.
La ventaja de este método es que a diferencia del enfoque ingenuo, usted no necesita saber nada acerca de la magnitud de las fluctuaciones térmicas alrededor de la media. La limitación es que usted todavía tiene una arbitraria $T$ parámetro, y hemos tenido que asumir una distribución normal en el ruido (que no es poco razonable). No estoy seguro de si esto puede ser modificado por algunos de medias ponderada con el descuento. Si una distribución diferente de lo que se espera para modelar el ruido, entonces normfit y la prueba de Kolmogorov-Smirnov deben ser sustituidos por sus equivalentes para la distribución.
Usted podría considerar la posibilidad de la prueba hacia atrás (con ayuda de un rodillo de la ventana) para la co-integración entre x
y el largo plazo significa.
Cuando x
es tirarse alrededor de la media, esperemos que la ventana Aumentada de Dickey Fuller prueba, o lo que sea co-integración de la prueba que usted elija, le dirá que las dos series son co-integrado. Una vez en el período de transición, donde las dos series se apartan el uno del otro, es de esperar que su prueba le dirá que la ventana de la serie no son co-integrado.
El problema con este esquema es que es más difícil detectar co-integración en una ventana más pequeña. Y, una ventana que es demasiado grande, si se incluye sólo un pequeño segmento de la transición período, se dirá que la ventana de la serie es co-integrado cuando no debe. Y, como usted puede imaginar, no hay manera de saber de antemano lo que el "derecho" tamaño de la ventana puede ser.
Todo lo que puedo decir es que vas a tener que jugar un rato con él para ver si usted puede obtener resultados razonables.
Como se ejecuta la simulación, divide a tomar los últimos puntos de 2N segmentación en la primera y segunda mitad. Calcular la serie de cambios (el valor de $m_{t+1} - m_{t}$) para la métrica de interés para cada mitad. Prueba de la distribución de estos dos sistemas de deltas de estacionariedad. La forma más sencilla de hacerlo es calcular la FCD de cada distribución, etiquetado uno reciente como "observado" y el anterior como "espera". Luego realizar la prueba chi-cuadrado de Pearson para el valor de la métrica en cada decil.