este papel podría ser de interés:
http://arxiv.org/pdf/0906.4032v1.pdf
Se le da un buen resumen de algunos de los frecuentista y Bayesiano enfoques a las dos de la muestra problema, y describe tanto los paramétricos y no paramétricos de los casos.
Podría añadir algo a las otras respuestas para dar un simple ejemplo. Decir que hay dos conjuntos de datos x y donde cada una de las xi y cada una de las yj es 0 o 1. Usted asume un alcoholímetro de Bernoulli modelo en ambos casos, para cada una de las xi∼Bern(p) y cada una de las yi∼Bern(q). Su hipótesis de escenario de la prueba en tanto el frecuentista y Bayesiana de la configuración puede ser:
H0:p=q
H1:p,q no son necesariamente iguales.
Las probabilidades para los datos de cada caso son:
Bajo H0 : L0(p)=f(x,y;p)=∏ipi(1−p)1−i∏jpj(1−p)1−j
Bajo H1 : L1(p,q)=f(x,y;p,q)=∏ipi(1−p)1−i∏jqj(1−q)1−j
(ya en H0q=p). Un enfoque frecuentista para el problema podría ser la de hacer una prueba de razón de Verosimilitud, el cual se debe calcular la estadística:
W=−2log{L0(pmax)L1(pmax,qmax)},
donde pmax,qmax el valor del máximo de estimaciones de probabilidad parapq, en las correspondientes hipótesis (por lo pmax en el numerador no puede ser el mismo que pmax en el denominador). W sigue asintóticamente una χ21 distribución (ver, por ejemplo, Pawitan, 2001), por lo que se podría especificar un nivel de significancia y de rechazar no rechazar H0 según corresponda.
Tradicionalmente, en el enfoque Bayesiano de la estadística de prueba sería el factor de Bayes. En primer lugar asumir una parte relevante de los priores p∼π0 bajo H0 p,q∼π1 bajo H1. El factor de Bayes es la relación marginal de las probabilidades, dada por:
BF=f(x,y|H0)f(x,y|H1)=∫10L0(p)π0(p)dp∫10∫10L1(p,q)π1(p,q)dpdq.
El factor de Bayes se puede combinar con algunos antes de creencias sobre la probabilidad de H0 o H1 siendo verdad, para dar la probabilidad de H0 frente al H1 después de ver los datos. Si suponemos que el apriori de que cada una de las hipótesis es igualmente probable, por lo p(H0)=p(H1)=1/2, entonces esto nos da:
p(H0|x,y)p(H1|x,y)=BF×p(H0)p(H1)=BF×1/21/2=BF.
Intuitivamente, si esta relación se >1, entonces la probabilidad posterior de H0 es mayor que H1, por lo que se podría decir que H0 tiene una mayor probabilidad de ser verdadera en virtud de estas suposiciones para el antes y el modelo.
Una cosa buena acerca de el factor de Bayes es la forma en que automáticamente penaliza los modelos más complejos (como H1 aquí). Un papel bonito ofreciendo algo más que la intuición es aquí: http://quasar.as.utexas.edu/papers/ockham.pdf.
Espero que ayude, junto con las otras respuestas ya publicadas.