Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

5 votos

¿Cuál tiene un menor error de formación?

Consideremos dos curvas ˆg1 y ˆg2 definido por

ˆg1=argmin

\hat{g}_2 = \operatorname*{argmin}_g \left((y_i - g(x_i))^2 + \lambda \int [g''(x)]^2 dx \right)

Como \lambda se hace más grande, cuya curva \hat{g}_i ¿tiene la SSE de formación más pequeña? ¿Y para las pruebas de ESS?

4voto

Nevermoe Puntos 13

Para cualquier \lambda Esto depende totalmente de sus datos. Pero como \lambda se hace más grande, el término de regularización empieza a dominar y sus datos se vuelven irrelevantes, de manera que g_1 se convierte en la función constante (primera derivada cero en todas partes) que mejor se ajusta a sus datos, y g_2 se convierte en la función afín (segunda derivada cero en todas partes) que mejor se ajusta a sus datos.

Sin conocimiento de su proceso de generación de datos, g_2 tendrá el mejor ajuste dentro de la muestra debido al grado de libertad adicional, mientras que g_1 generalizará mejor dado que el estimador es más parsimonioso, dando así un SSE de prueba más bajo.

Todo esto suponiendo que el argmin se toma sobre todas las funciones dos veces diferenciables en el dominio apropiado.

1 votos

+1 Esta respuesta destaca por ser concisa y correcta.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X