En la gran mayoría de los casos, se utilizan modelos de regresión lineal en lugar de los modelos más complicados de errores en las variables. A modo de ejemplo, consideremos la modelización de la altura $Y$ frente al peso $X$ o dos variables continuas apropiadas de su propia elección - el siguiente es un ejemplo típico de lo que se puede encontrar en los libros de texto/literatura: $$ Y = \beta_0 + \beta_1 X + \varepsilon. $$ Hasta donde yo sé, esto corresponde a suponer que medimos $X$ sin error y medimos $Y$ con error. Pero prácticamente siempre tenemos error cuando medimos $X$ . Que en este caso es el peso, pero en la mayoría de los casos que encontrarás en los libros de texto/literatura, la variable independiente proviene de un proceso de medición por lo que tendrá algún error de medición.
- Así que cuando usamos el modelo anterior para la altura y el peso, es el error $\varepsilon$ que tiene en cuenta explícitamente el error de medición en la variable de respuesta, contabilizando también implícitamente el error de medición en $X$ ? Porque en realidad, como acabo de mencionar, suele haber siempre un error de medición en la variable independiente.
- Si $\varepsilon$ no tiene en cuenta implícitamente el error de medición en $X$ Entonces, ¿cómo es que esta falta de contabilización del error de medición en $X$ ¿se manifiesta en los resultados obtenidos de la regresión lineal? Dado que este modelo de regresión lineal se aplica prácticamente en todas partes, parece que el error deliberado que estamos cometiendo al no tener en cuenta el error de medición en $X$ no es tan malo?
- Por último, he leído que cuando el objetivo es la predicción, los errores en las variables no aportan ninguna ventaja sobre la regresión lineal ordinaria, ¿a qué se debe esto?