La expresión correcta para la varianza del i se explica el residuo aquí en detalle.
Yo utilizo una notación ligeramente diferente, pero al final todo coincidirá con lo que usted está trabajando.
Supongamos que tenemos un modelo de regresión lineal simple y=α+βx+ϵ
donde α+βx es la parte de y explicado por x y ϵ es la parte inexplicable o el error. Aquí y es estocástico y x no es estocástica.
Consideramos las observaciones emparejadas (xi,yi) para i=1,2,…,n y asumir que ϵi son i.i.d N(0,σ2) para todos i . Esto significa que tenemos Yi∼N(α+βxi,σ2) independientemente de i .
Defina sxx=n∑i=1(xi−ˉx)2,syy=n∑i=1(yi−ˉy)2 y sxy=n∑i=1(xi−ˉx)(yi−ˉy)
A partir de las ecuaciones normales, tenemos las estimaciones por mínimos cuadrados de α y β :
ˆα=ˉy−ˆβˉx,ˆβ=sxysxx
Sea la varianza residual s2=1n−2n∑i=1(yi−ˆα−ˆβxi)2
Sobre la simplificación,
(n−2)s2=n∑i=1(yi−ˆα−ˆβxi)yi=n∑i=1{(yi−ˉy)−ˆβ(xi−ˉx)}yi=n∑i=1(yi−ˉy)yi−ˆβn∑i=1(xi−ˉx)yi=n∑i=1(yi−ˉy)2−ˆβn∑i=1(xi−ˉx)(yi−ˉy)=syy−ˆβsxy=syy−ˆβ2sxx
En α′=α+βˉx , pdf conjunto de Y=(Y1,…,Yn) para (y1,…,yn)∈Rn es
fY(y1,…,yn)=1(σ√2π)nexp[−12σ2n∑i=1(yi−α′−β(xi−ˉx))2]
Consideremos la transformación ortogonal (y1,…,yn)→(z1,…,zn) tal que
(z1z2⋮zn)=Q(y1y2⋮yn),
donde Q=[1√n1√n⋯1√nx1−ˉx√sxxx2−ˉx√sxx⋯xn−ˉx√sxx⋮⋮⋯⋮] es un n×n matriz ortogonal con sus dos primeras filas fijas.
Entonces, z1=1√nn∑i=1yi=√nˉy y z2=∑(xi−ˉx)yi√sxx=sxy√sxx=ˆβ√sxx
Tenga en cuenta que n∑i=1y2i=n∑i=1z2i en virtud de la transformación ortogonal, lo que conduce a
n∑i=1(yi−α′−β(xi−ˉx))2=n∑i=1y2i+nα′2+β2n∑i=1(xi−ˉx)2−2α′nˉy−2βn∑i=1(xi−ˉx)yi=n∑i=1z2i+nα′2+β2sxx−2α′√nz1−2βz2√sxx=(z1−√nα′)2+(z2−β√sxx)2+n∑i=3z2i
Para (z1,…,zn)∈Rn densidad conjunta de Z=(Z1,…,Zn) se convierte en
fZ(z1,…,zn)=1(σ√2π)nexp[−12σ2{(z1−√nα′)2+(z2−β√sxx)2+n∑i=3z2i}],
para que Z1,Z2,…,Zn se distribuyen independientemente con
Z1∼N(√nα′,σ2)Z2∼N(β√sxx,σ2)Zi∼N(0,σ2),i=3,4,…,n
Ahora,
(n−2)s2=syy−ˆβ2sxx=n∑i=1y2i−nˉy2−ˆβ2sxx=n∑i=1z2i−z21−z22=n∑i=3z2i
Y tienes que Z3,…,Zn∼N(0,σ2) independientemente.
Esto implica n∑i=3Z2iσ2∼χ2n−2
O en otras palabras, (n−2)s2σ2∼χ2n−2