9 votos

¿Por qué utilizar nunca F-estadística?

Podemos utilizar el estadístico F para determinar si al menos uno de los predictores tiene un efecto en la respuesta. Pero, ¿por qué simplemente no tomar mínimo valor de p en todos los predictores? No requiere la introducción de un nuevo concepto.

9voto

AdamSane Puntos 1825

Aquí supongo que la intención de comparar algunos test basado en el mínimo valor de p con un total de F-test.

  1. Eligiendo el menor valor de p y comparando con un determinado nivel de significación $\alpha$, su valor de p, ya no tiene el mismo significado como lo haría para una sola prueba. En efecto tienes que probar todas las variables individuales (y si alguno de conducir al rechazo, a la conclusión de que al menos uno de los predictores tiene un efecto en la respuesta). El tipo general de la tasa de error es mucho mayor que la de una sola prueba. (Las múltiples pruebas problema).

  2. Si usted reducir su nivel de significación en las pruebas individuales, por lo que cometer menos errores de tipo I (para que sea más comparable con la general de la prueba con un nivel de significación $\alpha$), es menos probable encontrar un efecto significativo (dar energía al reducir el tipo de la tasa de error).

  3. Incluso si usted no tiene en cuenta las múltiples pruebas cambiando el nivel de significación, las estadísticas univariadas puede fácilmente ser insignificante cuando hay una clara articulación de la relación que implica a ambos.

He aquí un ejemplo. En primer lugar, algunos datos:

y:
 4.941, 4.459, 4.116, 3.759, 5.171, 5.101, 5.454, 5.277, 5.402, 
 4.68, 3.433, 5.508, 4.122, 3.355, 3.622, 4.45, 4.872, 4.202, 
 5.276, 4.415, 5.311, 4.105, 3.282, 4.152, 5.416, 4.615, 3.804, 
 5.299, 4.603, 4.868

x1:
 42.305, 16.828, 46.515, 32.567, 40.827, 45.755, 34.227, 43.799, 
 54.659, 34.991, 15.134, 29.115, 20.617, 1.252, 25.844, 19.563, 
 21.53, 22.989, 38.993, 44.955, 30.799, 32.639, 8.707, 46.945, 
 38.992, 25.717, 40.875, 26.049, 36.121, 39.868

x2:
 24.279, 8.844, 27.888, 19.099, 23.732, 28.648, 19.26, 26.578, 
 32.764, 21.302, 8.583, 17.026, 12.047, 0.085, 16.636, 10.021, 
 12.487, 13.745, 23.557, 26.67, 19.881, 20.23, 4.377, 27.865, 
 23.359, 15.006, 25.909, 14.772, 21.5, 23.002

Resultados de regresión (R:)

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)  3.47760    0.32703  10.634 3.74e-11 
x1           0.14999    0.09194   1.631    0.114    
x2          -0.19524    0.14741  -1.324    0.196    
---    
Residual standard error: 0.5884 on 27 degrees of freedom
Multiple R-squared:  0.3167,    Adjusted R-squared:  0.2661 
F-statistic: 6.257 on 2 and 27 DF,  p-value: 0.005851

El menor p-valor es 0.114 -- que no han rechazado la hipótesis nula de no asociación, incluso en el 10% de nivel de significación, pero la regresión podría conducir al rechazo, incluso si su nivel de significación de 1%. Este es sin siquiera tratar con las múltiples pruebas problema.

También no ayuda a ejecutar por separado regresiones y comprobar los valores de p no, porque (en un tipo diferente de ejemplo a la de arriba) es muy posible que el haber relación en el univariante regresiones, mientras que hay una fuerte relación en la regresión multivariada.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X