Según un ajuste de mínimos cuadrados que he realizado a mis datos, mi pendiente es $-0.1038±0.033$ y mi compensación $0.1065±0.032$ . Mi primera idea fue visualizarlo dibujando tres líneas: $0.1065-0.1038x$ , $(0.1065+0.032) - (0.1038-0.33)x$ y $(0.1065-0.032) + (0.1038+0.33)x$ . Estos corresponden al intervalo de confianza del 95%. Sin embargo, la probabilidad conjunta de que tanto la pendiente como el desplazamiento se encuentren en el límite de los intervalos del 95% no es ciertamente del 5%. Si ambos fueran independientes, estaría más cerca del 0,25%, mientras que en realidad la probabilidad conjunta está probablemente en algún punto intermedio.
Podría calcular el intervalo de confianza en $\sqrt{0.05}$ para el desplazamiento y la pendiente y, a continuación, visualizar los extremos como se ha descrito anteriormente, para obtener un rango de probabilidad efectivo del 5%. Pero es casi seguro que estoy reinventando la rueda. ¿Cuál es una forma adecuada de visualizar la incertidumbre en una línea de regresión - pendiente y desplazamiento?
Como referencia, Python statsmodels.api.OLS resume mi ajuste de regresión como se indica a continuación. En mi ejemplo del mundo real, utilizo mínimos cuadrados ponderados, porque tengo errores en mis valores y (y estoy considerando la regresión de distancia ortogonal ya que tengo errores en mis valores x también, pero estoy descuidando esos por ahora).
OLS Regression Results
==============================================================================
Dep. Variable: y R-squared: 0.026
Model: OLS Adj. R-squared: 0.023
Method: Least Squares F-statistic: 9.673
Date: Mon, 06 Apr 2015 Prob (F-statistic): 0.00202
Time: 18:14:55 Log-Likelihood: 1223.1
No. Observations: 370 AIC: -2442.
Df Residuals: 368 BIC: -2434.
Df Model: 1
Covariance Type: nonrobust
==============================================================================
coef std err t P>|t| [95.0% Conf. Int.]
------------------------------------------------------------------------------
const 0.1065 0.032 3.343 0.001 0.044 0.169
x1 -0.1038 0.033 -3.110 0.002 -0.169 -0.038
==============================================================================
Omnibus: 23.030 Durbin-Watson: 1.484
Prob(Omnibus): 0.000 Jarque-Bera (JB): 45.433
Skew: -0.350 Prob(JB): 1.36e-10
Kurtosis: 4.567 Cond. No. 138.
==============================================================================