19 votos

$t$-pruebas vs $z$-pruebas?

Estoy tratando de averiguar exactamente cuál es la diferencia entre el $t$-pruebas y $z$-pruebas.

Como lo que yo puedo decir, para las dos clases de pruebas se utiliza la misma prueba estadística, algo de la forma

$$\frac{\hat{b} - C}{\widehat{\operatorname{se}}(\hat{b})}$$

donde $\hat{b}$ es una muestra de la estadística, $C$ es alguna referencia (ubicación) constante (que depende de los detalles de la prueba), y $\widehat{\operatorname{se}}(\hat{b})$ es el error estándar de la $\hat{b}$.

La única diferencia, entonces, entre estas dos clases de pruebas es que en el caso de $t$-pruebas, la prueba estadística de arriba sigue un $t$-distribución (por ejemplo-determinado de grados de libertad -$d$), mientras que en el caso de $z$-pruebas, el mismo estadístico de prueba sigue una distribución normal estándar $\mathcal{N}(0, 1)$. (Esto a su vez sugiere que la elección de una $z$-prueba o $t$-prueba se rige por el si o no la muestra es lo suficientemente grande.)

Es esto correcto?

28voto

phloopy Puntos 4285

Los nombres "$t$-prueba" y "$z$-prueba" se utiliza normalmente para referirse al caso especial cuando $X$ es normal $\mbox{N}(\mu,\sigma^2)$, $\hat{b}=\bar{x}$ y $C=\mu$. Usted puede, sin embargo, por supuesto, construir pruebas de "$t$-tipo de prueba" en otros entornos (bootstrap viene a la mente), utilizando el mismo tipo de razonamiento.

De cualquier manera, la diferencia está en la $\mbox{s.e.}(\hat{b})$ parte:

  • En un $z$-prueba, la desviación estándar de $\hat{b}$ es asumido conocer sin error. En el especial caso de los mencionados anteriormente, esto significa que $\mbox{s.e.}(\hat{x})=\sigma/\sqrt{n}$.
  • En un $t$-prueba, se estima que el uso de los datos. En el especial caso de los mencionados anteriormente, esto significa que $\mbox{s.e.}(\hat{x})=\hat{\sigma}/\sqrt{n}$ donde $\hat{\sigma}=\sqrt{\frac{1}{n-1}\sum_{i=1}^n(x_i-\bar{x})^2}$ es un estimador de $\sigma$.

La elección entre un $t$-test y un $z$-prueba, por lo tanto, depende de si o no $\sigma$ es conocido antes de la recogida de los datos.

La razón por la que la distribución de las dos estadísticas difieren es que el $t$-estadística contiene más incógnitas. Esto hace que sea más variable, por lo que su distribución tiene colas más pesadas. Como el tamaño de la muestra $n$ crece, el estimador $\hat{\sigma}$ viene muy cerca de la verdad $\sigma$, por lo que el $\sigma$ es esencialmente conocido. Así que cuando el tamaño de la muestra es grande, el $\mbox{N}(0,1)$ cuantiles puede ser utilizado también para el $t$-prueba.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X