7 votos

Cómo resolver este límite?

Tengo un modelo de regresión: $y_i=\exp(a \sin(\frac{2 \pi i}{n}) + b \cos(\frac{2 \pi i} {n})+\varepsilon_i)$ donde a, b son los parámetros de regresión. Deje ${\varepsilon}_i = {\varepsilon}_i(t)$ ser independientes idénticamente distribuidas de procesos aleatorios. Quiero evaluar una precisión.

Deje $\hat{y} = \exp(\hat{a} \sin(\frac{2 \pi i}{n}) + \hat{b} \cos(\frac{2 \pi i} {n}))$ ser el modelo con parámetros estimados $\hat{a}, \hat{b}$.

A continuación, $\hat{\varepsilon}_i = \ln{y_i} - \ln{\hat{y_i}}$ es un residual en el punto ith.

$$Z_n(t)=\frac{1}{\sigma \sqrt{n}} \sum_{i=1}^{[nt]} \hat{\varepsilon_i}.$$

Necesito encontrar a $\lim_{n\to\infty} Z_n(t)$ en distribución.

Traté de proceder de la siguiente manera:

$$Z_n(t)=\frac{1}{\sigma \sqrt{n}} \sum_{i=1}^{[nt]} \hat{\varepsilon_i}=\frac{1}{\sigma \sqrt{n}} \sum_{i=1}^{[nt]}[\ln{y_i} - \ln{\hat{y_i}}]$$

$$Z_n(t)=\frac{1}{\sigma \sqrt{n}} \sum_{i=1}^{[nt]} [(a-\hat{a}) \sin(\frac{2 \pi i}{n}) + (b-\hat{b}) \cos(\frac{2 \pi i} {n})+\varepsilon_i]$$

$\frac{1}{\sigma \sqrt{n}} \sum_{i=1}^{[nt]} \varepsilon_i \to_{n\to\infty} N(0, 1)$. Aquí $N(0,1)$ es un estándar de la distribución normal.

$$Z_n(t) \to N(0,1) + \lim_{n\to\infty}\frac{1}{\sigma \sqrt{n}} \sum_{i=1}^{[nt]} [(a-\hat{a}) \sin(\frac{2 \pi i}{n}) + (b-\hat{b}) \cos(\frac{2 \pi i} {n})]$$

Ahora creo que podemos simplificar la suma límite a algo como $(a-\hat{a}) + (b-\hat{b})$ y se puede obtener con $Z_n(t)\to N(a-\hat{a} + b-\hat{b}, 1)$. Mi pregunta es cómo conseguirlo y es todo correcto con mis cálculos?

Gracias de antemano.

EDIT: Bueno, ahora tengo una solución parcial a este problema...

Primero de todo, debemos obtener la OLS-estimadores de $\hat{a}$$\hat{b}$.

Deje $\hat{u}_i = \ln(\hat{y}_i)$.

Entonces, nuestro modelo es $U = X \theta$ donde $\theta=\begin{pmatrix} a \\ b \end{pmatrix}$, $X = \begin{pmatrix} \sin(\frac{2 \pi 1}{n}) & \cos(\frac{2 \pi 1} {n}) \\ ... & ... \\ \sin(\frac{2 \pi n}{n}) & \cos(\frac{2 \pi n} {n})\end{pmatrix}$

Una evaluación puede ser encontrada mediante la fórmula: $\hat{\theta} = (X^T X)^{-1} X^T U $.

Después de algunos cálculos, $\hat{\theta} = \begin{pmatrix} 2 \overline{u_i \cos(\frac{2 \pi i}{n}}) \\ 2 \overline{u_i \sin(\frac{2 \pi i}{n}}) \end{pmatrix}$.

Por eso, $\hat{\varepsilon} = u - \hat{u} = -n\cdot \overline{U}$. Aquí $\overline{U}$ es un valor de la media de $U$, es decir,$\frac{1}{n}\Sigma_{i=1}^n u_i$.

Ahora queremos describir un proceso aleatorio $Z_n(t)=\frac{1}{\sigma \sqrt{n}} \sum_{i=1}^{[nt]} \hat{\varepsilon_i}$.

AFAIK, Ian B. MacNeill del teorema es sólo acerca de esto, pero yo todavía no pueden comprender... Podría usted por favor me ayude a completar la solución aquí?

1voto

Alexander Mihailov Puntos 120

Bueno, tengo la solución para el caso de la modelo:

$$u_i = a \sin \frac{2 \pi i}{n} + b + \varepsilon_i$$

El problema original es similar a esta.

De acuerdo con el Ian B. MacNeill del teorema, $Z_n \to B_g \in C[0,1]$ (en la distribución, la debilidad de la convergencia), donde $B_g$ es el Gaussiano proceso $$M = 0$$ $$K_g(t,u) =\min(t,u) - \int_0^t \int_0^u g(x)^T\cdot G^{-1} \cdot g(y) dx dy,$$

aquí: $g(x) = X(\frac{i}{n}\to x)$, $G_{ij}=\int_0^1 g_i(x) g_j(x) dx$

Así, en nuestro problema:

$$g(x)=\begin{pmatrix} \sin (2\pi x) \\ 1 \end{pmatrix}$$

$$G_{11}=\int_0^1 \sin^2(x) dx = 1/2;\ G_{22}=\int_0^1 dx = 1$$

$$G_{12}=G_{21}=\int_0^1 \sin(x) dx = 0$$

$$G = \begin{pmatrix} 0.5 & 0 \\ 0 & 1 \end{pmatrix}; G^{-1} = \begin{pmatrix} 2 & 0 \\ 0 & 1 \end{pmatrix}$$

$$\star = g(x)^T\cdot G^{-1} \cdot g(y) = 2 \sin(2\pi x) \sin(2\pi y) + 1$$

$$\int_0^t \int_0^u \star dx dy = \frac{1}{2 \pi^2} \cos 2\pi t \cos 2\pi u + tu$$

Por último, la respuesta es: $$Z_n \to_{n\to\infty} B_g (0, \min(t,u)-\frac{1}{2 \pi^2} \cos 2\pi t \cos 2\pi u - tu$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X