Durante una lección en la universidad, nos encontramos con esta simulación para evaluar el hecho de que el valor p de la distribución bajo la hipótesis alternativa es estocásticamente más pequeño que el de una distribución uniforme.
Así que supongamos que queremos hacer un test F para una regresión lineal (conjunta nulidad de parámetros)
n=10
p=3
beta=c(1,2,0) #beta_2=2,null hypothesis of test f is false
sim<-function(n,p)
{
x<-cbind(1,matrix(runif(n*(p-1)),ncol=p-1))
y<-x%*%beta+rnorm(n)
X<-as.data.frame(x)
anova(lm(y~1),lm(y~.,X))
#prendo il p value
pval<-anova(lm(y~1),lm(y~.,X))$'Pr(>F)'[2]
return (pval)
}
res<-replicate(100,sim(10,3))
hist(res)
plot(ecdf(res))
curve(punif,0,1,add=T,col="red")
y puedo obtener este gráfico
Podría alguien explicar (y tal vez un poco de prueba) de la declaración anterior:
el valor p de la distribución bajo la hipótesis alternativa es estocásticamente más pequeño que el de una distribución uniforme