Tengo un modelo de regresión: $y_i=\exp(a \sin(\frac{2 \pi i}{n}) + b \cos(\frac{2 \pi i} {n})+\varepsilon_i)$ donde a, b son los parámetros de regresión. Deje ${\varepsilon}_i = {\varepsilon}_i(t)$ ser independientes idénticamente distribuidas de procesos aleatorios. Quiero evaluar una precisión.
Deje $\hat{y} = \exp(\hat{a} \sin(\frac{2 \pi i}{n}) + \hat{b} \cos(\frac{2 \pi i} {n}))$ ser el modelo con parámetros estimados $\hat{a}, \hat{b}$.
A continuación, $\hat{\varepsilon}_i = \ln{y_i} - \ln{\hat{y_i}}$ es un residual en el punto ith.
$$Z_n(t)=\frac{1}{\sigma \sqrt{n}} \sum_{i=1}^{[nt]} \hat{\varepsilon_i}.$$
Necesito encontrar a $\lim_{n\to\infty} Z_n(t)$ en distribución.
Traté de proceder de la siguiente manera:
$$Z_n(t)=\frac{1}{\sigma \sqrt{n}} \sum_{i=1}^{[nt]} \hat{\varepsilon_i}=\frac{1}{\sigma \sqrt{n}} \sum_{i=1}^{[nt]}[\ln{y_i} - \ln{\hat{y_i}}]$$
$$Z_n(t)=\frac{1}{\sigma \sqrt{n}} \sum_{i=1}^{[nt]} [(a-\hat{a}) \sin(\frac{2 \pi i}{n}) + (b-\hat{b}) \cos(\frac{2 \pi i} {n})+\varepsilon_i]$$
$\frac{1}{\sigma \sqrt{n}} \sum_{i=1}^{[nt]} \varepsilon_i \to_{n\to\infty} N(0, 1)$. Aquí $N(0,1)$ es un estándar de la distribución normal.
$$Z_n(t) \to N(0,1) + \lim_{n\to\infty}\frac{1}{\sigma \sqrt{n}} \sum_{i=1}^{[nt]} [(a-\hat{a}) \sin(\frac{2 \pi i}{n}) + (b-\hat{b}) \cos(\frac{2 \pi i} {n})]$$
Ahora creo que podemos simplificar la suma límite a algo como $(a-\hat{a}) + (b-\hat{b})$ y se puede obtener con $Z_n(t)\to N(a-\hat{a} + b-\hat{b}, 1)$. Mi pregunta es cómo conseguirlo y es todo correcto con mis cálculos?
Gracias de antemano.
EDIT: Bueno, ahora tengo una solución parcial a este problema...
Primero de todo, debemos obtener la OLS-estimadores de $\hat{a}$$\hat{b}$.
Deje $\hat{u}_i = \ln(\hat{y}_i)$.
Entonces, nuestro modelo es $U = X \theta$ donde $\theta=\begin{pmatrix} a \\ b \end{pmatrix}$, $X = \begin{pmatrix} \sin(\frac{2 \pi 1}{n}) & \cos(\frac{2 \pi 1} {n}) \\ ... & ... \\ \sin(\frac{2 \pi n}{n}) & \cos(\frac{2 \pi n} {n})\end{pmatrix}$
Una evaluación puede ser encontrada mediante la fórmula: $\hat{\theta} = (X^T X)^{-1} X^T U $.
Después de algunos cálculos, $\hat{\theta} = \begin{pmatrix} 2 \overline{u_i \cos(\frac{2 \pi i}{n}}) \\ 2 \overline{u_i \sin(\frac{2 \pi i}{n}}) \end{pmatrix}$.
Por eso, $\hat{\varepsilon} = u - \hat{u} = -n\cdot \overline{U}$. Aquí $\overline{U}$ es un valor de la media de $U$, es decir,$\frac{1}{n}\Sigma_{i=1}^n u_i$.
Ahora queremos describir un proceso aleatorio $Z_n(t)=\frac{1}{\sigma \sqrt{n}} \sum_{i=1}^{[nt]} \hat{\varepsilon_i}$.
AFAIK, Ian B. MacNeill del teorema es sólo acerca de esto, pero yo todavía no pueden comprender... Podría usted por favor me ayude a completar la solución aquí?