1 votos

una prueba relativa a los mínimos cuadrados ordinarios

Estoy leyendo un libro de estadística . En la página 271, en la sección "una breve derivación", el autor demuestra un teorema sobre el método de los mínimos cuadrados ordinarios. Demuestra que el tamaño del error se minimiza cuando el vector error $\vec{\epsilon}$ es ortogonal a $\bf{X}$ . Sin embargo, no entiendo cómo se deriva.

$$ \vec{\epsilon_{n}}^{T}\vec{\epsilon_{n}} = (\vec{\epsilon} - \bf{X}\vec{\iota})^{T}(\vec{\epsilon} - \bf{X}\vec{\iota}) = \vec{\epsilon}^{T}\vec{\epsilon} - 2\vec{\iota}^{T}\bf{X}^{T}\vec{\epsilon} + \vec{\iota}^{T}\bf{X}^{T}\bf{X}\vec{\iota} $$

¿Es trivial que $\vec{\iota}^{T}\bf{X}^{T}\vec{\epsilon} = \vec{\iota}\bf{X} \vec{\epsilon}^{T} $ ?

1voto

caverac Puntos 588

Tenga en cuenta que el término $\epsilon^t\epsilon$ es un escalar (posiblemente real), lo que significa que tanto $\iota^tX^t\epsilon$ y $\epsilon^t X\iota$ también son escalares. Además

$$ (\iota^tX^t\epsilon)^t = \epsilon^t X\iota $$

Resumiendo: uno de los términos es la transposición del otro, ambos son escalares, la transposición de un escalar es igual, por lo tanto, los términos son iguales

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X