16 votos

¿Por qué un uso "al azar" de confianza o intervalos de credibilidad?

Estaba leyendo un artículo recientemente que incorpora la aleatoriedad en su confianza e intervalos de credibilidad, y me preguntaba si esta es la norma (y, si es así, ¿por qué es una cosa razonable para hacer). Para establecer la notación, asumir que nuestros datos es $x \in X$ y estamos interesados en la creación de intervalos para un parámetro $\theta \in \Theta$. Estoy acostumbrado a la confianza/credibilidad intervalos que están siendo construidos por la construcción de una función:

$f_{x} : \Theta \rightarrow \{0,1\}$

y dejar que nuestro intervalo de $I = \{ \theta \in \Theta \, : \, f_{x}(\theta) = 1\}$.

Esta es aleatorio en el sentido de que depende de los datos, pero condicionada a los datos es sólo un intervalo. Este documento define en su lugar

$g_{x} : \Theta \rightarrow [0,1]$

y también una colección de iid uniforme de variables aleatorias $\{U_{\theta} \}_{\theta \in \Theta}$$[0,1]$. Define los asociados del intervalo de $I = \{ \theta \in \Theta \, : \, f_{x}(\theta) \geq U_{\theta} \}$. Tenga en cuenta que esto depende en gran medida de auxiliar de aleatoriedad, más allá de lo que venga a partir de los datos.

Yo soy muy curioso en cuanto a por qué sería. Creo que `relajante' la noción de un intervalo de funciones como $f_{x}$ funciones como $g_{x}$ tiene algún sentido; es una especie de ponderación de intervalo de confianza. No sé de ninguna referencias de él (y agradecería cualquier punteros), pero parece bastante natural. Sin embargo, yo no puedo pensar en ninguna razón para agregar auxiliar de aleatoriedad.

Los punteros a la literatura y a los motivos para ello, se agradecería!

4voto

kjetil b halvorsen Puntos 7012

Estudio aleatorizado de procedimientos se utiliza a veces en la teoría , ya que simplifica la teoría. En los típicos problemas estadísticos, no tiene sentido en la práctica, mientras que en el juego-la teoría de la configuración se puede hacer sentido.

La única razón por la que puedo ver para utilizar en la práctica, es si de alguna manera se simplifica los cálculos.

Teóricamente, se puede argumentar que no se debe utilizar, desde el principio de suficiencia: estadística de las conclusiones deberán basarse únicamente en suficiente resúmenes de los datos, y la aleatorización presenta la dependencia de un extraño al azar $ U $ que no es parte de una suficiente resumen de los datos.

UPDATE  

Para responder a whuber comentarios a continuación, citado aquí: "¿por Qué aleatorizado procedimientos "no tiene sentido en la práctica"? Como otros han señalado, los experimentadores están perfectamente dispuestos para el uso de la aleatorización en la construcción de sus datos experimentales, tales como la asignación aleatoria de tratamiento y de control, así que lo que es tan diferente (y poco práctico o desagradable) sobre el uso de la aleatorización en el posterior análisis de los datos? "

Así, la aleatorización del experimento para obtener los datos se realiza con un propósito, principalmente para romper las cadenas causales. Si y cuando es efectiva, es otra discusión. ¿Cuál podría ser el propósito para el uso de la aleatorización como parte de los análisis? La única razón por la que he visto es que hace que la teoría matemática más completa! Eso está bien siempre y cuando se aplica. En el juego-la teoría de los contextos, cuando hay un verdadero adversario, la aleatorización mi ayuda para confundir a él. En la toma real de los contextos (vender o no vender?) una decisión debe ser tomada, y si no hay evidencia en los datos, tal vez uno podría acaba de lanzar una moneda. Pero en un contexto científico, donde la pregunta es ¿qué podemos aprender a partir de los datos, la aleatorización parece fuera de lugar. No veo ninguna ventaja real de ella! Si usted no está de acuerdo, no tiene un argumento que podría convencer a un biólogo o químico? (Y aquí no creo que sobre la simulación como parte de bootstrap o MCMC.)

3voto

Christoph Hanck Puntos 4143

La idea se refiere a las pruebas, pero en vista de la dualidad de las pruebas y los intervalos de confianza, la misma lógica se aplica a la Cei.

Básicamente, aleatorizado pruebas garantizan que un determinado tamaño de una prueba puede ser obtenida discreta con valores de experimentos, demasiado.

Supongamos que queremos probar, a nivel de $\alpha=0.05$, la equidad de una moneda (inserte cualquier ejemplo de su elección aquí que pueden ser modelados con un experimento Binomial) utilizando la probabilidad de $p$ de los jefes. Es decir, la prueba de $H_0:p=0.5$ contra (decir) $H_1:p<0.5$. Supongamos que usted tiene tiró la moneda $n=10$ veces.

Obviamente, cuantas cabezas se evidencia agaist $H_0$. Para $k=2$ éxitos, podemos calcular el $p$-valor de la prueba por pbinom(2,10,.5) en R, produciendo 0.054. Para $k=1$, obtenemos 0.0107. Por lo tanto, no hay ninguna manera de rechazar a un cierto $H_0$ con una probabilidad de 5% sin aleatorización.

Si nos randomize más de rechazo y de aceptación cuando la observación de los $k=2$, aún podemos lograr este objetivo.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X