Tengo los datos con error estándar, se incluye a continuación para mayor claridad,
X Y Error in Y
0.0105574 -28.831027 0.04422
0.0070382 -27.800385 0.04225
0.0052787 -27.314088 0.04209
0.0042229 -27.054207 0.04185
0.0035191 -27.000188 0.04143
0.0030164 -26.891275 0.04108
He obtenido los parámetros de un y b de la expresión y=a*x*x + b, a partir de un promedio ponderado mínimo de cuadrados de regresión utilizando estos datos (ajuste en gnuplot). La regresión devuelve lo que se denomina "Error Asintótico Estándar" asociados con estos parámetros. Creo que este error se calcula mediante la desviación de la equipados punto real de los puntos (Ecuación 34/35 aquí) y es utilizado para evaluar la calidad de un ajuste. Sin embargo, este no es el error que me interesa.
Yo estoy buscando para determinar el valor de los datos en el punto X=0.0 desde mi equipado de la función con el error estándar como mis otros valores. La salida de la regresión fue:
Final set of parameters Asymptotic Standard Error
a = -19389.1 +/- 752 (3.878%)
b = -26.7951 +/- 0.03915 (0.1461%)
Así que, para ser muy específicos, ¿cómo podría determinar el error estándar en el punto (X,Y)=(0.0, -26.7951) con mi equipado de la función? Espero que el error en este punto calculado a ser mucho mayores que los errores de los valores reportados en los valores de Y de mi tabla de arriba.
Puedo ver cómo gnuplot no es la herramienta adecuada para ello, ya que sólo los pesos de mis puntos de datos utilizando el estándar de error en mi entrada. Lo que necesito hacer es propagar el error en mis puntos de datos originales para obtener el error sobre la línea de regresión.
Este parece un buen ejercicio, lo siento por mis estadísticas de la ignorancia. Gracias!