Loading [MathJax]/extensions/TeX/boldsymbol.js

7 votos

Suficiente estadística para β en OLS

Tengo el clásico modelo de regresión

y=βX+ϵ ϵN(0,σ2)

donde X es fijo (no al azar), y ˆβ es la estimación OLS para β.

Se sabe que (yTy,XTy) pair es una completa estadística suficiente para xT0β, para algunos de entrada de x0.

Podemos concluir que (yTy,XTy) es también una estadística suficiente para β, y por qué? Creo que para que esto funcione XTX debe ser de rango completo. Me refiero a un 1 a 1 de la transformación de una suficiente estadística es aún suficiente estadística, pero todavía es una estadística suficiente para xT0β. Basado en lo que vamos a concluir la suficiencia de la ˆβ para β sí?

14voto

Aaron Puntos 36

A veces la forma más sencilla de buscar la suficiencia está mirando directamente a la log-verosimilitud y utilizando el teorema de factorización. Para un modelo de regresión lineal con Gaussiano término de error de la función de verosimilitud logarítmica puede ser escrita como:

\begin{equation} \begin{aligned} \ell_{\mathbf{y}, \mathbf{x}}(\boldsymbol{\beta}, \sigma) &= - n \ln \sigma -\frac{1}{2 \sigma^2} || \mathbf{y} - \mathbf{x} \boldsymbol{\beta} ||^2 \\[6pt] &= - n \ln \sigma -\frac{1}{2 \sigma^2} (\mathbf{y} - \mathbf{x} \boldsymbol{\beta})^\text{T} (\mathbf{y} - \mathbf{x} \boldsymbol{\beta} ) \\[6pt] &= - n \ln \sigma -\frac{1}{2 \sigma^2} (\mathbf{y}^\text{T} \mathbf{y} - \mathbf{y}^\text{T} \mathbf{x} \boldsymbol{\beta} - \boldsymbol{\beta}^\text{T} \mathbf{x}^\text{T} \mathbf{y} + \boldsymbol{\beta}^\text{T} \mathbf{x}^\text{T} \mathbf{x} \boldsymbol{\beta} ) \\[6pt] &= - n \ln \sigma -\frac{1}{2 \sigma^2} \mathbf{y}^\text{T} \mathbf{y} -\frac{1}{2 \sigma^2} ( 2 \boldsymbol{\beta}^\text{T} \mathbf{T}_1 - \boldsymbol{\beta}^\text{T} \mathbf{T}_2 \boldsymbol{\beta} ) \\[6pt] &= h(\mathbf{x}, \mathbf{y}, \sigma) + g_\boldsymbol{\beta}(\mathbf{T}_1, \mathbf{T}_2, \sigma), \\[6pt] \end{aligned} \end{equation}

donde \mathbf{T}_1 \equiv \mathbf{T}_1(\mathbf{x}, \mathbf{y}) \equiv \mathbf{x}^\text{T} \mathbf{y} e \mathbf{T}_2 \equiv \mathbf{T}_2(\mathbf{x}, \mathbf{y}) \equiv \mathbf{x}^\text{T} \mathbf{x}. Esto muestra que la estadística \mathbf{T} \equiv (\mathbf{T}_1, \mathbf{T}_2) es suficiente para que el coeficiente de parámetro \boldsymbol{\beta}. No hay ningún requisito de que el diseño de la matriz de rango completo para la suficiencia, pero si no es de rango completo, a continuación, estas estadísticas no son mínimo suficiente (y usted obtener un mínimo suficiente de la estadística mediante la reducción de la diseño de la matriz de rango completo).

De la forma anterior, podemos ver también que el estimador OLS \hat{\boldsymbol{\beta}} no es suficiente para \boldsymbol{\beta}. Suficiencia también requiere el conocimiento de la matriz de \mathbf{T}_2 = \mathbf{x}^\text{T} \mathbf{x}, que surge como parte de la covarianza del estimador MCO. Esto nos dice que, en el caso de que el diseño de la matriz es de rango completo, el estimador de MCO y su matriz de covarianza en conjunto son suficientes para el unknown coeficiente de parámetro.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X