Estoy tratando de leer el libro "Una inferencia estadística para la era informática", que está disponible aquí: https://web.stanford.edu/~hastie/CASI_files/PDF/casi.pdf
Al comienzo del libro (desde la página 4) hay un ejemplo de regresión lineal con estimaciones de "error estándar" de las predicciones, y me ha confundido completamente.
La configuración es la siguiente. Tienen un modelo de regresión lineal,
=β0+β1x
y utilizando "mínimos cuadrados" deducen que los parámetros tienen los valores
β0=2.86,β1=−0.079
Vale. Luego tienen una tabla de posibles valores de x, con los respectivos y predichos y el "error estándar" para cada predicción, que es diferente para cada uno (esto es lo que no entiendo).
Para dar dos ejemplos, tienen:
x=20,y=1.29,stderror=0.21
x=30,y=0.5,stderror=0.15
Los errores estándar son diferentes para los diferentes ejemplos.
Ahora, unas páginas antes, discuten cómo calcular la media de una muestra y calcular el error estándar según la fórmula:
se=[n∑i=1(xi−ˉx)2n(n−1)]0.5
Indican que en el caso de regresión lineal, calculan los errores estándar usando una "versión extendida" de la fórmula anterior, pero nunca dicen cuál es. No entiendo cómo han calculado el "error estándar" para los ejemplos individuales en el caso de regresión lineal, y por qué es diferente para cada ejemplo. ¿Cuál es la fórmula?
Al leer la página de wikipedia sobre el error estándar me hace pensar que el se es simplemente la desviación estándar de la muestra, pero esto no concuerda con lo que han hecho aquí.
Cualquier ayuda se agradece.