Supongamos que hay dos modelos candidatos, $\hat{f}(\beta)$ y $\hat{g}(\beta,\theta)$ . Si el verdadero proceso de generación de datos es $f(\beta)$ entonces $\hat{g}(\beta,\theta)$ es imparcial pero ineficiente. Si, por el contrario, la verdadera DGP es $g(\beta, \theta)$ entonces $\hat{f}(\beta)$ es parcial.
En un régimen clásico de selección de modelos, el analista comienza con $\hat{f}$ y tiene que rechazar $h_0:\theta = 0$ para justificar el uso de $\hat{g}$ . La consecuencia del error de tipo I es una estimación sesgada de $\beta$ y la consecuencia de un error de tipo II es un modelo ineficiente.
En un nuevo régimen de selección de modelos, el analista comienza con $\hat{g}$ y debe rechazar $h_0:\theta\neq0$ . Las consecuencias de los errores de tipo I y de tipo II se invierten ahora precisamente.
¿Existe una ventaja estadística en el nuevo método? Parece de algún modo "más seguro", pero ¿hay alguna forma de justificarlo estadísticamente? En general, ¿prefiere que el riesgo esté en el error de tipo I o de tipo II?