5 votos

Probabilidad de rechazar una moneda justa (significado repetida pruebas)

Supongamos que tengo una moneda y le doy la vuelta él en numerosas ocasiones, las pruebas después de cada tiempo de uso de Pearson $\chi^2$ test de ajuste a la justicia. ¿Cuál es la probabilidad de que yo, en algún momento, rechazar que la moneda es justo (por $\alpha$)? Si (como sospecho) $1$, entonces hay un número esperado de lanzamientos después de que me voy a rechazar que la moneda es justo?


(Este ejemplo viene cuando tratamos de explicar a los compañeros de trabajo, por analogía, ¿por qué uno no puede repetidamente dar un vistazo a la división-resultados de la prueba sin contabilidad para la prueba se repite.)

4voto

Aaron Puntos 36

Este es un problema de lo que son, esencialmente, "la ruina de las probabilidades" de un proceso estocástico. El hecho de que las pruebas que se van para siempre no es suficiente para implicar que la probabilidad de un eventual rechazo es uno. Usted necesitará establecer esta formalmente a través del análisis de la probabilidad de ruina. Es de destacar también que las pruebas no son independientes, ya que el estadístico de prueba a mayor $n$ valores está relacionada con la estadística de prueba a menor $n$ valores. Voy a configurar el problema para usted a continuación, y le dará un resumen de cómo usted puede probar su conjetura.


La configuración del problema: tenemos una secuencia $X_1, X_2, X_3 \sim \text{IID Bern}(\theta)$ y su hipótesis nula de una moneda es $H_0: \theta = \tfrac{1}{2}$. Después de $n$ arroja el número esperado de indicadores positivos $\mathbb{E}(n \bar{X}) = \tfrac{1}{2} n$, por lo que el test de Pearson estadística (bajo la hipótesis nula) es:

$$\begin{equation} \begin{aligned} T(\mathbf{x}_n) &= n \Bigg[ \frac{(\bar{x}_n - \tfrac{1}{2})^2}{\tfrac{1}{2}} + \frac{(1-\bar{x}_n - \tfrac{1}{2})^2}{\tfrac{1}{2}} \Bigg] \\[6pt] &= n \Bigg[ \frac{(\bar{x}_n - \tfrac{1}{2})^2}{\tfrac{1}{2}} + \frac{(\tfrac{1}{2}-\bar{x}_n)^2}{\tfrac{1}{2}} \Bigg] \\[6pt] &= 4 n (\bar{x}_n - \tfrac{1}{2})^2. \\[6pt] \end{aligned} \end{equation}$$

Los valores más altos de la estadística de prueba son más conducentes a la hipótesis alternativa, y para las grandes $n$ tenemos la nula distribución asintótica $T(\mathbf{X}_n) \sim \text{ChiSq}(1)$. Definimos el punto crítico de la $\chi_{1,\alpha}^2$ por:

$$\alpha = \int \limits_{\chi_{1,\alpha}^2}^\infty \text{ChiSq}(r|1) \ dr.$$

Entonces, asumiendo que el uso de la chi-cuadrado de aproximación para su p-valor (en lugar de la distribución exacta de la estadística de prueba) tenemos el rechazo a la región:

$$\text{Reject } H_0 \quad \quad \quad \iff \quad \quad \quad 4n (\bar{x}_n - \tfrac{1}{2})^2 > \chi_{1, \alpha}^2.$$

Por lo tanto, la "ruina probabilidad" de que se busca es:

$$W(\alpha) \equiv \mathbb{P} \Big( (\exists n \in \mathbb{N}): 4n (\bar{X}_n - \tfrac{1}{2})^2 > \chi_{1, \alpha}^2 \Big).$$


Establecer el resultado: Se han conjeturado que $W(\alpha) = 1$ para todos los $0 < \alpha < 1$. El rechazo de los eventos en su secuencia no son independientes, lo que hace que el problema difícil. Aunque el rechazo de los eventos no son independientes, debería ser posible para formar una infinita serie de eventos que cada uno tiene un resultado positivo en el límite inferior de la probabilidad de rechazo, independientemente de los datos anteriores. Hacemos esto mediante la división en subsecuencias y acondicionamiento de la media de la muestra de la mitad en los datos anteriores.

Para probar su hipótesis, definir una secuencia de enteros positivos los valores de $m_1^*, m_2^*, m_3^*, ...$ y, a continuación, dividir la secuencia principal de lanzamientos en discontinuo finito subsecuencias de estas longitudes (es decir, dividimos una secuencia infinita en un infinito número finito de subsecuencias). Deje $\bar{X}_k^*$ será la media de la muestra correspondiente a la $k$th larga, y tenga en cuenta que estos medios son independientes, ya que las subsecuencias son disjuntas.

Definir la estadística de prueba a los extremos de estas subsecuencias como:

$$T_k \equiv T(\mathbf{x}_{n_k}) = 4 n_k \Bigg( \frac{1}{n_k} \sum_{i=1}^{n_k} x_i - \frac{1}{2} \Bigg)^2 \quad \quad \quad \quad n_k \equiv \sum_{i=1}^k m_i^*.$$

Con un poco de álgebra podemos demostrar que:

$$T_k = 0 \quad \quad \quad \implies \quad \quad \quad T_{k+1} = 4 m_{k+1}^* (\bar{x}_{k+1}^* - \tfrac{1}{2})^2 \times \frac{m_{k+1}^*}{n_k + m_{k+1}^*}.$$

Bajo esta condición, tenemos:

$$\text{Reject } H_0 \quad \quad \quad \iff \quad \quad \quad 4 m_{k+1}^* (\bar{x}_{k+1}^* - \tfrac{1}{2})^2 > \frac{n_k + m_{k+1}^*}{m_{k+1}^*} \cdot \chi_{1, \alpha}^2.$$

Ahora, elegir algún valor $0 < \alpha^* < \alpha$ , de modo que $\chi_{1, \alpha}^2 < \chi_{1, \alpha^*}^2$. Elija cada valor de $m_k \in \mathbb{N}$ lo suficientemente grande para que usted tenga:

$$\frac{n_k + m_{k+1}^*}{m_{k+1}^*} \cdot \chi_{1, \alpha}^2 \leqslant \chi_{1, \alpha^*}^2 \quad \quad \text{for all } k = 0,1,2,....$$

La condición de $4 m_{k+1}^* (\bar{x}_{k+1}^* - \tfrac{1}{2})^2 > \chi_{1, \alpha^*}^2$ es suficiente para garantizar el rechazo en la $(k+1)$th larga, incluso con el más bajo posible evidencia de rechazo en los datos anteriores. Este establece que la probabilidad de rechazo en cualquiera de las subsecuencias es , al menos, $\alpha^*$, independientemente de la presvious de datos. Por lo tanto, tenemos:

$$W(\alpha) \geqslant 1 - \prod_{i=1}^\infty (1-\alpha^*) = 1-0 = 1.$$

1voto

Zachary F Puntos 336

Para una prueba con un determinado $\alpha$, usted tiene un $p$en valor y un nivel de confianza $q=1-p$.

Ahora, si usted no $n$ prueba independiente y todos con el mismo $p$ valor, su confianza $q^n \rightarrow 0$ como $n$ aumenta. Así que casi seguro a fallar la prueba en caso de que repita las pruebas independientes para una lo suficientemente grande como $n$.

Ahora un $\chi^2$ prueba de $n+1$ lanzamiento de la moneda está lejos de ser independiente de la prueba de la $n$ primera tira, de modo que la convergencia de confianza a 0 tiene que ser mucho más lento de lo $q^n$. Sin embargo, la primera $100^{n+1}$ lanzamientos son casi independientes de la primera $100^n$.

Para que una prueba con un fijo $p$-valor repetido por arbitrariamente grande, $n$ es casi seguro a fallar.

Para un valor pequeño de $n$ sin embargo, las sucesivas pearson pruebas sugeridas no será independiente, pero es intuitivo que su $p$-valor es estrictamente menor que la que implica $\alpha$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X