Como ejemplo, observe la relación entre t , p y d en el t -prueba.
p se define como la probabilidad de obtener un estadístico de prueba este o más extremo, si la hipótesis bajo prueba es verdadera. Está inversamente relacionada tanto con el tamaño de la muestra como con el estadístico de la prueba, en este caso, t . A la inversa, t ~ 1- p y n ~ 1- p .
Para las muestras correlacionadas, $d_{z} = \frac{t}{\sqrt{n}}$ . Entonces, $d_{z}\sqrt{n} = t$ entonces, si n se mantiene constante, ya que $d_{z}$ aumenta, t aumenta; y como t ~ 1-p , $d_{z}$ ~ 1- p . Además, si $d_{z}$ se mantiene constante, ya que n aumenta, t aumenta, y n ~ 1- p . Coloquialmente hablando, ya que tanto el 1- p y las medidas del tamaño del efecto dependen de lo extrema que sea la estadística de la prueba, están correlacionadas.
Esto se aplicará también a otras medidas del tamaño del efecto, como la relación entre F , n y $\eta^2$ - trivialmente para aquellos casos en los que el F -converge con el t -o para los coeficientes de correlación, que también pueden converger con el t -prueba. (Me interesaría mucho saber si hay alguna medida del tamaño del efecto que no se comporte de esta manera, y con qué justificación podría asociarse a otras medidas estandarizadas del tamaño del efecto).
para alcanzar la significación hay que intentar demostrar un efecto lo suficientemente grande
Tenga en cuenta que un tamaño del efecto (como r ) es una estadística descriptiva, una propiedad de la muestra. No es inferencial. Para apoyar una afirmación sobre la población, se pueden utilizar intervalos de confianza sobre los tamaños del efecto.