¿Cómo describiría la validación cruzada para alguien sin un análisis de datos de fondo?
Respuestas
¿Demasiados anuncios?Creo que esto se describe mejor con la siguiente imagen (en este caso mostrando k-fold cross-validation):
La validación cruzada es una técnica que se utiliza para proteger contra el sobreajuste en un modelo predictivo, particularmente en el caso de que la cantidad de datos puede ser limitada. En la validación cruzada, hacer un número fijo de pliegues (o particiones) de los datos, ejecute el análisis en cada pliegue, y luego el promedio de la general estimación del error.
Digamos que usted investigar algún proceso; hemos reunido algunos datos que describen y se han de construir un modelo (ya sea estadística o ML, no importa). Pero ahora, ¿cómo juzgar si está bien? Probablemente se adapta sospechosamente bien a los datos que se construye, de modo que no se cree que su modelo es tan espléndida que usted piensa.
La primera idea es separar un subconjunto de los datos y utilizar para probar el modelo de construir por su método en el resto de los datos. Ahora el resultado es sin duda el sobreajuste libre, sin embargo (especialmente para los pequeños conjuntos) que podría haber sido de suerte (onu)y draw (menos)más simple de los casos de prueba, lo que (más)fácil predecir... También su precisión/error/la bondad de la estimación es útil para la comparación de los modelos de optimización/, ya que usted probablemente no sabe nada acerca de su distribución.
En caso de duda, uso de la fuerza bruta, por lo que sólo replicar el proceso anterior, se reúnen algunas de las estimaciones de precisión/error/la bondad y el promedio de ellos, y así obtener la validación cruzada. Entre mejor estimación usted también conseguirá un histograma, por lo que será capaz de aproximarse a la distribución o realizar algunas pruebas no paramétricas.
Y esto es; los detalles de la prueba de tren de la división son la razón de la diferente CV tipos, aún a excepción de casos raros y pequeña fuerza las diferencias son bastante equivalentes. De hecho, es una gran ventaja, debido a que hace un a prueba de balas-método justo; es muy difícil de engañar.
Puesto que usted no tiene acceso a los datos de prueba en el momento de la formación, y usted quiere que su modelo de hacer el bien en los invisibles, de los datos de prueba, "pretender" que tiene acceso a algunos datos de prueba en varias ocasiones el submuestreo de una pequeña parte de los datos de entrenamiento, mantener este conjunto, mientras que el modelo de formación, y, a continuación, el tratamiento de la multitud como un proxy para los datos de prueba (y elegir los parámetros del modelo que le dan un mejor rendimiento en la salida de datos). Que la esperanza de que por azar del muestreo distintos subconjuntos de los datos de entrenamiento, usted podría darles la apariencia de los datos de prueba (en el comportamiento promedio de sentido), y por lo tanto, los sabios de los parámetros del modelo será bueno para los datos de prueba (es decir, el modelo se generaliza bien invisible de datos).