Una es una predicción de una observación futura, y la otra es una respuesta media predicha. Voy a dar una respuesta más detallada para explicar la diferencia y de dónde viene, así como cómo esta diferencia se manifiesta en intervalos más amplios para la predicción que para la confianza.
Este ejemplo puede ilustrar la diferencia entre los intervalos de confianza y de predicción: supongamos que tenemos un modelo de regresión que predice el precio de las casas en función del número de habitaciones, el tamaño, etc. Hay dos tipos de predicciones que podemos hacer para un determinado $x_0$ :
-
Podemos predecir el precio de una determinada vivienda nueva que sale al mercado con unas características $x_0$ ( "cuál es el precio previsto para esta casa $x_0$ ?" ). Su verdadero precio será $$y = x_0^T\beta+\epsilon$$ . Desde $E(\epsilon)=0$ el precio previsto será $$\hat{y} = x_0^T\hat{\beta}$$ Al evaluar la varianza de esta predicción, tenemos que incluir nuestra incertidumbre sobre $\hat{\beta}$ así como nuestra incertidumbre sobre nuestra predicción (el error de nuestra predicción), por lo que debe incluir la varianza de $\epsilon$ (el error de nuestra predicción). Esto se suele llamar predicción de un valor futuro .
-
También podemos predecir el precio medio de una vivienda con características $x_0$ ( "¿cuál sería el precio medio de una casa con características $x_0$ ?" ). La estimación puntual sigue siendo $$\hat{y} = x_0^T\hat{\beta}$$ pero ahora sólo la varianza en $\hat{\beta}$ necesita ser contabilizado. Esto se llama normalmente predicción de la respuesta media.
La mayoría de las veces, lo que realmente queremos es el primer caso. Sabemos que $$var(x_0^T\hat{\beta}) = x_0^T(X^TX)^{-1}x_0\sigma^2$$
Esta es la varianza para nuestra respuesta media (caso 2). Pero, para una predicción de una observación futura (caso 1), recordemos que necesitamos la varianza de $x_0^T\hat{\beta} + \epsilon$ ; $\epsilon$ tiene una varianza $\sigma^2$ y se supone que es independiente de $\hat{\beta}$ . Utilizando un poco de álgebra sencilla, se obtienen los siguientes intervalos de confianza:
-
CI para una única respuesta futura para $x_0$ : $$\hat{y}_0\pm t_{n-p}^{(\alpha/2)}\hat{\sigma}\sqrt{x_0^T(X^TX)^{-1}x_0 + 1}$$
-
CI para la respuesta media dada $x_0$ : $$\hat{y}_0\pm t_{n-p}^{(\alpha/2)}\hat{\sigma}\sqrt{x_0^T(X^TX)^{-1}x_0}$$
Dónde $t_{n-p}^{\alpha/2}$ es un estadístico t con $n-p$ grados de libertad en el $\alpha/2$ cuantil.
Esperemos que esto aclare un poco más por qué el intervalo de predicción es siempre más amplio, y cuál es la diferencia subyacente entre los dos intervalos. Este ejemplo fue adaptado de Faraway, Linear Models with R, Sec. 4.1.
17 votos
$\hat{E}[Y|x] = \hat{\beta_0}+\hat{\beta}_{1}x$ no "genera el intervalo".
0 votos
No veo la razón de la divergencia entre los dos métodos en ninguna de las respuestas anteriores. Los resultados de la regresión se estiman normalmente sobre la base de los parámetros paramétricos de la distribución t de Student y, por lo general, la regresión, especialmente de los modelos de regresión mal ajustados a los datos, conduce a residuos que no están estudiados, por ejemplo, sesgados, pero especialmente con colas pesadas, lo que normalmente (si no siempre) hace que las medidas paramétricas de la dispersión de los datos sean mayores que sus correspondientes cuantiles medidos anticipadamente. Una regla general que he encontrado útil: Si veo residuos con valores atípicos, colas largas y u
0 votos
Relacionado : Obtención de una fórmula para los límites de predicción en un modelo lineal .