Falsa premisa: A $\boldsymbol{\hat{\beta} \approx 0}$ significa que no hay una relación fuerte entre el VD y el IV.
Abundan las relaciones funcionales no lineales y, sin embargo, los datos producidos por muchas de esas relaciones a menudo producirían pendientes casi nulas si se asume que la relación debe ser lineal, o incluso aproximadamente lineal.
En relación con esto, en otro falsa premisa que los investigadores suelen asumir -posiblemente porque muchos libros de texto de introducción a la regresión enseñan- que uno "comprueba la no linealidad" construyendo una serie de regresiones de la VD sobre expansiones polinómicas de la VD (por ejemplo, $Y \sim \beta_{0} + \beta_{X}X + \varepsilon$ , seguido de $Y \sim \beta_{0} + \beta_{X}X + \beta_{X^{2}}X^{2} + \varepsilon$ , seguido de $Y \sim \beta_{0} + \beta_{X}X + \beta_{X^{2}}X^{2} + \beta_{X^{3}}X^{3} + \varepsilon$ etc.). Al igual que la línea recta no puede representar bien una relación funcional no lineal entre DV e IV, una parábola no puede representar bien un número literalmente infinito de relaciones no lineales (por ejemplo, sinusoides, cicloides, funciones escalonadas, efectos de saturación, curvas s, etc. ad infinitum ). En cambio, se puede adoptar un enfoque de regresión que no asume ninguna forma funcional particular (por ejemplo, los alisadores de líneas, los GAM, etc.).
A La tercera premisa falsa es que el aumento del número de parámetros necesariamente resulta en una pérdida de poder estadístico. Esto puede ser falso cuando la verdadera relación no es lineal y requiere múltiples parámetros para su estimación (por ejemplo, una función de "palo roto" requiere no sólo el interceptar y pendiente términos de una línea recta, pero requiere punto en el que cambia la pendiente y un cuánto cambia la pendiente por también): los residuos de un modelo mal especificado (por ejemplo, una línea recta) pueden crecer bastante (en relación con una relación funcional correctamente especificada), lo que da lugar a una menor probabilidad de rechazo y a intervalos de confianza y de predicción más amplios (además de que las estimaciones estén sesgadas).
1 votos
Mucha gente que conozco sigue insistiendo en realizar linealizaciones en sus datos y dejarlo así, incluso cuando el entorno informático que utilizan tiene un buen soporte para la regresión no lineal. (Las linealizaciones son, por supuesto, útiles como puntos de partida para los ajustes no lineales, pero estas personas ni siquiera se dan cuenta de ello).
0 votos
Buenas respuestas, pero la mayoría asume que "otros investigadores" significa personas con formación en estadística. Muchos de los investigadores con los que he trabajado proceden de otras disciplinas y quizá hayan recibido un curso básico de estadística. Sus conceptos erróneos son mucho más fundamentales. Por ejemplo: la correlación implica causa y efecto, y la extrapolación del resultado será precisa en valores alejados de los datos de origen.
2 votos
Si Dios hubiera hecho el mundo lineal, no habría regresión no lineal.