7 votos

¿Cómo probar que la matriz Aspectótica de Varianza-Covarianza del estimador MCO es Positiva Definitiva?

Estoy tratando de entender por qué la asintótica Variance-Covariance ($\text{Avar}(b)$) matriz de estimador OLS es Positivo Definite (PD), como se indica en el libro de Hayashi en la página 113.

Lo sabemos $\text{Avar}(b)=(E[\mathbf{x}_i\mathbf{x}_i'])^{-1}E[(\mathbf{x}_i\cdot \epsilon_i)(\mathbf{x}_i\cdot \epsilon_i)'](E[\mathbf{x}_i\mathbf{x}_i'])^{-1}$.

Puedo demostrar que$\text{Avar}(b)$ es PD si$E[(\mathbf{x}_i\cdot \epsilon_i)(\mathbf{x}_i\cdot \epsilon_i)']$ también es PD. Mi problema es cómo probar esta última afirmación, ya que sólo sabemos que es no-sigular por supuesto, y$\{\mathbf{x}_i\cdot \epsilon_i\}$ es una secuencia de diferencias de martingala.

4voto

Jeff Bauer Puntos 236

La aplicación de la Ley de Expectativas Iteradas, $$E[(\mathbf{x}_i\cdot \epsilon_i)(\mathbf{x}_i\cdot \epsilon_i)'] = E[\epsilon_i^2\mathbf{x}_i\mathbf{x}_i']=E\Big(E[\epsilon_i^2\mid \mathbf{x}_i]\mathbf{x}_i\mathbf{x}_i'\Big) $$ Para la exposición a los efectos de, supongamos que los regresores son dos, $X_1$$X_2$. También $E[\epsilon_i^2\mid \mathbf{x}_i] \equiv h$. Entonces el determinante de la matriz (en la que primero se toma el valor esperado y , a continuación, calculamos el determinante) es

$$D=E[hX_1^2]\cdot E[hX_2^2] - \left(E[hX_1X_2]\right)^2 \neq 0$$

ya que se supone que no singular. En primer lugar, es evidente que si la variable era una función lineal de la otra, la de arriba determinante será igual a cero. Para el supuesto de la no singularidad de las normas de completa dependencia lineal. Esta regla también un coeficiente de correlación $\rho_x$ igual a la unidad (mantener).

Ahora, establezca $Z_1 =\sqrt{h}X_1, \;\; Z_2 =\sqrt{h}X_2$. (Tenga en cuenta que el coeficiente de correlación $\rho_z$ $Z_1$ $Z_2$ no puede ser igual a la unidad). A continuación, el determinante puede ser escrito

$$D= E[Z_1^2]\cdot E[Z_2^2] - \left(E[Z_1Z_2]\right)^2$$

Sin pérdida de generalidad, supongamos que las variables tienen cero significa. Entonces tenemos

$$D= {\rm Var}(Z_1)\cdot {\rm Var}(Z_2) - \left({\rm Cov}[Z_1,Z_2]\right)^2$$

$$= {\rm Var}(Z_1)\cdot {\rm Var}(Z_2) - \rho_z^2 {\rm Var}(Z_1)\cdot {\rm Var}(Z_2)$$

$$\Rightarrow (1-\rho_z^2)\cdot {\rm Var}(Z_1)\cdot {\rm Var}(Z_2)$$

Positivo certeza queremos que todos los líderes principales de los menores a ser mayor que cero. Aquí, la primera menor de edad es ${\rm Var}(Z_1)>0$ y el segundo menor es $D>0$ desde $\rho_z <|1|$.

ANEXO

Mudarse a 3 dimensiones, en virtud de que el valor esperado y la transformación a $Z$ variables, tenemos una varianza-covarianza de la matriz con el rango completo. Entonces es positiva semi-definida, por lo $D_{3\times 3} \geq 0$. Pero por supuesto es no singular (por lo $D_{3\times 3} \neq 0$) por lo tanto es positiva definida, ya nos queda sólo con $D_{3\times 3} > 0$.

Con todos los líderes principales de los menores de hasta tres dimensiones estrictamente positivo, vamos a pasar a las cuatro dimensiones. Sólo tenemos que mostrar además el $4\times 4$ determinante para ser mayor que cero. Pero la matriz es una matriz de covarianza para $D_{4\times 4} \geq 0$. Pero este es también el determinante de la matriz, y ya por supuesto de la matriz es no singular, tenemos que $D_{4\times 4} > 0$. Por lo tanto, es positiva definida. Mover en cinco dimensiones. Mismo razonamiento. Etc.

Insisto otra vez el hecho de que este resultado depende, fundamentalmente, en el valor esperado del operador, que transforma la matriz en una de varianza-covarianza. De lo contrario, el exterior producto de una $k\times 1$ vector columna de los números es un singular de la matriz.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X