8 votos

Nombre del truco de "reorganización"

¿Sabe usted una referencia o el nombre de la siguiente manera para investigar si una compleja técnica de modelado $T$ está sesgada?

  1. Se aplican $T$ para el conjunto de datos original. Medir su rendimiento (por ejemplo, R cuadrado de la regresión).
  2. Al azar permutar la variable de respuesta para obtener un nuevo conjunto de datos. Se aplican $T$ y medir su rendimiento $P'$. [Si las observaciones son dependientes, este paso es más complicado.]

Si $P'$ es sustancialmente diferente de cero de rendimiento, llegamos a la conclusión de $T$ es sesgada.

Paso 2 puede ser repetido si los recursos lo permiten, lo que llevaría a la permutación nula distribución de la medida de rendimiento. Pero en mi aplicación, no puedo hacer esto debido a problemas de recursos.

Me oscuro recordar que esta "reorganización" truco fue utilizado por alguien para investigar el sesgo de dejar-uno-fuera de validación cruzada (en algunas). No sé, sin embargo, si estuviera en mi situación en la que él podría repetir el proceso entero de una sola vez.

Un ejemplo en R que muestra el "poder" de ingenuo hacia atrás de selección:

# Generate random data set. Only random performance is expected.
n <- 100
p <- 30

set.seed(7567)
y <- rnorm(n)
X <- rnorm(n*p)
dim(X) <- c(n, p)
data <- data.frame(y, X)

# Modelling technique: backward selection with OLS
T <- function(data) {
  step(lm(y ~ ., data = data), trace = 0)
}

# Performance: R-squared
P <- function(fit) {
  summary(fit)$r.squared
}

# Step 1: Compute performance on original data. Happily publish high R-squared...
P(T(data)) # 0.240405

# Step 2: Your mean colleague reshuffles response and gets also R-squared far away from 0
data$y <- data$y[sample(n)]
P(T(data)) # 0.1925726

Conclusión: El elegido técnica de modelado es muy propenso a sobreajuste, al menos en este contexto específico.

15voto

IWS Puntos 126

Para responder a la pregunta del título, AFAIK esto se llama una prueba de permutación. Si esto es de hecho lo que usted está buscando, aunque no funciona como se describe en la pregunta.

Para ser (un poco) conciso: la prueba de permutación, de hecho, funciona mediante la transposición de una de las "columnas" y la realización de la prueba o el cálculo de los intereses. Sin embargo, el truco es hacer de esto un montón de veces, barajando los datos cada vez. En pequeños conjuntos de datos que incluso podría ser posible llevar a cabo todas las permutaciones posibles. En grandes conjuntos de datos que suelen realizar una cantidad de permutación su equipo puede manejar, pero que es lo suficientemente grande como para obtener una distribución de la estadística de interés.

Por último, el uso de esta distribución para comprobar si, por ejemplo, la diferencia de medias entre dos grupos es >0 en el 95% de la distribución. Simplemente, este último paso de la comprobación de que parte de la distribución que está por encima/por debajo de un cierto valor crítico es el valor p de la prueba de hipótesis.

Si esto es muy diferente de la p-valor en la muestra original, yo no diría que hay algo mal con la prueba/estadística de interés, sino más bien la muestra que contienen ciertos tipos de datos que influyen específicamente en el resultado de la prueba. Esto podría ser un sesgo (sesgo de selección debido a la inclusión de algunos extraños casos, el error de medición en casos específicos, etc.), o podría ser incorrecta utilización de la prueba (por ejemplo, violado supuestos).

Ver https://en.wikipedia.org/wiki/Resampling_(estadísticas) para más detalles

Por otra parte, ver a @ameba 's respuesta a esta pregunta Si usted quiere saber más acerca de cómo combinar pruebas de permutación con selección de variables.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X