Hay un par de posibilidades. Es cierto que con más datos de los que tendrá más poder, pero el poder es también una función de la magnitud de un efecto que usted está tratando de diferenciarse de 0, por lo $N = 60$ podría ser pésimo poder, un gran poder o cualquier otra cosa. También es cierto que $N = 30$ es una vieja regla de oro para las pruebas t, por lo que, si se asume que su profesor está confundido, que podría ser el origen. Vamos a ser solidarios, a pesar de que. @cassneklff hace un perspicaz punto (+1), pero no es realmente necesario $N = 60$ para que sea posible obtener los valores de p menor a .05, por lo que no puede ser tampoco. En su lugar, vamos a pensar más acerca de cómo el test de Mann-Whitney prueba de obras—específicamente, ¿cómo se calcula el p-valor.
La prueba de Mann-Whitney en realidad no asumir que sus datos son ordinales calificaciones, a pesar del hecho de que eso es lo que muchas personas creen. En realidad tiene continuo de datos en la mente, es sólo que ellos pueden tener cualquier distribución (no solo la normal). Con datos continuos, teóricamente es posible calcular los valores p exactos. Esto puede ser computacionalmente caro. Así que con un gran $N$, la aproximación normal se utiliza normalmente. En R, por ejemplo, ?wilcox.la prueba utiliza la aproximación normal si $N > 50$, que es notablemente cerca de su profesor de la regla de oro. Con tamaños de muestra grandes, la aproximación normal debe ser bueno, pero con pequeños tamaños de muestra, puede no ser tan bueno. No importa si usted va a calcular el exacto valor de p, pero el nudo en la cadena es que el p-valor no puede ser calculada si hay lazos. (Los empates no debería producirse con verdad continuo de datos, pero es probable que ocurra con el tipo de datos de las personas a menudo usan el test de Mann-Whitney U-test en la práctica). Por lo tanto, la aproximación normal a menudo es la que se basó para calcular el p-valor, incluso con tamaños de muestra pequeños. Mi conjetura es que este hecho es lo que está detrás de su profesor de la regla de oro.
Así, lo mal que hace la aproximación normal de trabajo? Depende de tu tolerancia al error, supongo. A continuación, me simular pruebas de un verdadero nulo de dos binomios (que va a crear un montón de lazos). Se puede ver que la prueba es un poco conservador al $N = 20$, y que la distribución de muestreo de la prueba estadística no es muy normal.
set.seed(7316) # this makes the example exactly reproducible
w.vect = vector(length=10000) # this will store the test statistics
p.vect = vector(length=10000) # this will store the p-values
for(i in 1:10000){
g1 = rbinom(10, size=10, prob=.6) # 10 realizations each of 2 binomials w/
g2 = rbinom(10, size=10, prob=.6) # parameters: n=10, p=.6 (a true null)
wt = wilcox.test(g1, g2) # the Mann-Whitney U-test
w.vect[i] = wt$statistic
p.vect[i] = wt$p.value
}; rm(i)
summary(p.vect)
# Min. 1st Qu. Median Mean 3rd Qu. Max.
# 0.0006907 0.2683816 0.5275134 0.5221142 0.7840781 1.0000000
mean(p.vect<.05) # [1] 0.0406 # this should have been .05
summary(w.vect)
# Min. 1st Qu. Median Mean 3rd Qu. Max.
# 6.00 41.50 50.00 50.19 59.00 92.50
sd(w.vect) # [1] 12.64774
xs = seq(5, 93) # I need this for the plot below
windows()
hist(w.vect, breaks=88, freq=FALSE, col="lightgray",
main="Observed density vs. true normal")
lines(density(w.vect), lwd=2)
lines(xs, dnorm(xs, mean=50.9, sd=12.64774), lwd=3, col="red")