Esto probablemente pertenece a CrossValidated . Parece una pregunta razonable, pero no tan fácil de responder (sin atajos).
El modelo de un estadístico probablemente partiría de una respuesta con distribución de Poisson (razonable para datos de recuento). Lo más sencillo es suponer que el envío tiene un efecto sobre el densidad logarítmica de la respuesta de Poisson para cada día. Digamos que contamos el número de publicaciones el mismo día, un día antes y dos días antes, ii días antes, como kiki . Entonces podríamos decir algo como
yi∼Poisson(η)η=exp(β0+β1tL∑i=0kiβi2)
Es decir, el efecto de las publicaciones sobre la densidad logarítmica disminuye geométricamente con el tiempo transcurrido desde la publicación (set β2=1 si desea que los efectos permanezcan constantes en el tiempo hasta que tL momento en el que desaparecen, pero esto parece menos realista...)
A continuación, podría estimar los parámetros mediante la estimación de máxima verosimilitud (escribir código informático para calcular la probabilidad L de los resultados observados para un conjunto determinado de parámetros {βj} entonces halle argmax{βj}L .
Algunas de las cosas más importantes que quedan fuera aquí:
- posibilidad de sobredispersión es decir, hay más variabilidad en los recuentos diarios de la esperada de la distribución de Poisson, incluso después de tener en cuenta el patrón de desplazamiento. Utilizar una binomial negativa en lugar de una respuesta de Poisson es bastante sencillo.
- autocorrelación temporal. Esto es muy importante; estamos asumiendo implícitamente que la yi son condicionalmente independientes. Para tener en cuenta la autocorrelación tendríamos que añadir una (probablemente gaussiana) variable latente ...o averiguar cómo sería la matriz de varianza-covarianza marginal en presencia de autocorrelación...