6 votos

¿Cuáles son las hipótesis en modelos de regresión múltiple, modelos de regresión y ordinario menos Plaza?

He consultado varios libros y confundidos sobre lo que las diferencias en los Supuestos de los Modelos de Regresión, Ordinaria de mínimos Cuadrados (OLS), y Modelos de Regresión Múltiple son?

Como puedo leer más acerca de esto me acaba de obtener más confundido. Hay un racionalmente comprensible manera de explicar esto que no sería confuso?

Hacer estos supuestos varían con respecto al objetivo (tal vez predicción o descriptivo)?

¿Cuál sería la lista razonable de los supuestos de

  1. Los Modelos De Regresión Lineal
  2. Los Modelos De Regresión Lineal Simple
  3. Modelos De Regresión Lineal Múltiple
  4. Ordinaria de mínimos Cuadrados (OLS) Método?

También he leído las preguntas relacionadas con Lo que son la Lista Completa....y Asunción Necesarios para la Regresión lineal Múltiple. Pero todavía no está claro para mí.

7voto

mat_geek Puntos 1367

Sería difícil ser más claro que lo que se ha dicho para los otros puestos. Sin embargo, voy a tratar de decir algo hasta el punto de que las direcciones de los diferentes supuestos que son necesarios para la OPERACIÓN y varias otras técnicas de estimación para ser adecuados para el uso.

Estimación OLS: Esto se aplica tanto lineales simples y múltiples de regresión donde los supuestos comunes son (1) el modelo es lineal en los coeficientes del predictor con un aditivo al azar término de error (2) el error aleatorio términos son: (a) se distribuye normalmente con una media de 0 y (b) de la varianza, que no cambia como los valores de las covariables predictoras (es decir, IVs) en cambio, Tenga en cuenta también que en este marco que se aplica en ambas simple y regresión múltiple de las variables de control se supone conocido sin ningún tipo de incertidumbre en sus valores. OLS puede ser usado cuando Una) sólo (1) sostiene con 2(b) o B) (1) y (2) mantenga pulsado.

Si B) puede ser asumido OLS tiene algunas propiedades que la hacen atractiva para su uso. (I) MÍNIMA VARIANZA ENTRE LOS ESTIMADORES INSESGADOS (II) DE MÁXIMA VEROSIMILITUD (III) CONSISTENTES Y ASINTÓTICAMENTE A LA NORMALIDAD Y EFICIENCIA, BAJO CIERTAS CONDICIONES DE REGULARIDAD

Bajo B) OLS puede ser utilizado tanto para la estimación y de las predicciones y de confianza e intervalos de predicción pueden ser generados por los valores ajustados y predicciones.

SI sólo Una) sostiene todavía tenemos la propiedad (I), pero no (II) o (III). Si su objetivo es ajustar el modelo y que no necesita de la confianza o intervalo de predicción para el repsonse dada la covariable y usted no necesita los intervalos de confianza para los parámetros de regresión, OLS pueden ser utilizados bajo). Pero no puede realizar la prueba de significación de los coeficientes en el modelo de uso de las pruebas de t que se utiliza a menudo no es posible aplicar la prueba F para el conjunto de ajuste del modelo o el otro para la igualdad de varianzas. Pero el de Gauss-Markov teorema dice que la propiedad que aún se mantiene. Sin embargo, en el caso a), desde (II) y (III) no tener otro más robusto procedimientos de estimación puede ser mejor que el de los mínimos cuadrados pesar de que no son imparciales. Esto es particularmente cierto cuando la distribución de error es heavytailed y ver los valores atípicos en los datos. El mínimo de plazas estimadas son muy sensibles a los valores extremos.

¿Qué otra cosa puede ir mal con el uso de MCO?

Error de varianzas no homogéneas medio ponderado método de mínimos cuadrados puede ser preferible a OLS.

Alto grado de colinealidad entre los predictores significa que algunos de los predictores que debe ser eliminado o de otro procedimiento de estimación, tales como ridge de regresión debe ser utilizado. El OLS coeficientes estimados pueden ser altamente inestable, cuando hay un alto grado de multicolinealidad.

Si las covariables son observados con error (por ejemplo, el error de medición), el modelo de la suposición de que las covariables se dan sin error es violado. Esto es malo para la OPERACIÓN, porque los criterios minimiza los residuos en la dirección de la variable de respuesta suponiendo que no hay error que preocuparse en la dirección de las covariables. Esto se llama el error en las variables del problema y una solución que tenga en cuenta estos errores en la covariable las direcciones va a hacer mejor. Error en las variables (aka Deming) regresión minimiza la suma de los cuadrados de las desviaciones en una dirección que toma en cuenta la relación de esas desviaciones.

Esto es un poco complicado porque muchos de los supuestos implicados en estos modelos y objetivos juegan un papel en la decisión de que los supuestos son cruciales para un determinado análisis. Pero si usted se centra en las propiedades de una en una para ver las consecuencias de la violación de una hipótesis podría ser menos confuso.

0voto

acme Puntos 376

No hay diferencias en las hipótesis de los modelos estadísticos 1-4. Cada uno de esos modelos es una forma de regresión OLS.

Los supuestos son los mismos. Los supuestos se relacionan generalmente con el teorema de límite central. Si las variables no tienen una distribución normal estándar probablemente tienes un problema.

Problemas comunes: Heteroskedasticidad, multicolinealidad, autocorrelación (series temporales)

¿Esto ayudará a responder a su pregunta?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X