43 votos

Bootstrapping vs Bayesiano de Arranque conceptualmente?

Estoy teniendo problemas para entender lo que es un Bayesiano proceso de Arranque es, y la forma en que difieren de las normales de arranque. Y si alguien podría ofrecer una interfaz intuitiva/conceptual de la revisión y comparación de ambos, eso sería genial.

Vamos a tomar un ejemplo.

Digamos que tenemos un conjunto de datos X que es [1,2,5,7,3].

Si nos muestra con reemplazo varias veces para crear tamaños de muestra igual al tamaño de X (por lo tanto, [7,7,2,5,7], [3,5,2,2,7], etc) y, a continuación, calculamos el medio de cada uno, es que el arranque de la distribución de la media muestral?

¿Cuál sería el bayesiano bootstrap distribución de eso?

Y cómo es el bayesiano bootstrap distribución de otros parámetros (varianza, etc) se realiza de la misma manera?

61voto

Luke Puntos 798

El (frecuentista) bootstrap toma los datos como una aproximación razonable a lo desconocido distribución de la población. Por lo tanto, la distribución de muestreo de un estadístico (en función de los datos) puede ser aproximada por repetidamente remuestreo de las observaciones con el reemplazo de la informática y la estadística para cada muestra.

Deje $y = (y_1,\ldots,y_n)$ el valor de los datos originales. (En el ejemplo dado, $n=5$.) Deje $y^b = (y_1^b, \ldots, y_n^b)$ el valor de bootstrap de la muestra. Un ejemplo es probable que tenga algunas observaciones repetido una o más veces y otras observaciones que va a estar ausente. La media de la secuencia de arranque de la muestra está dado por $$m_b = \frac{1}{n} \sum_{i=1}^n y_i^b.$$ It is the distribution of $m_b$ más de un número de replicaciones bootstrap que se utiliza para aproximar la distribución de muestreo de la desconocido de la población.

En orden a entender la conexión entre la frecuentista bootstrap y el Bayesiano bootstrap, es instructivo ver cómo calcular $m_b$ desde una perspectiva diferente.

En cada uno de bootstrap de la muestra $y^b$, cada observación $y_i$ se produce en cualquier lugar de 0 a $n$ veces. Deje $h_i^b$ denotar el número de veces que $y_i$ se produce en $y^b$, y deje $h^b = (h_1^b, \ldots, h_n^b)$. Por lo tanto $h_i^b \in \{0, 1, \ldots, n-1,n\}$$\sum_{i=1}^n h_i^b = n$. Dado $h^b$, se puede construir una colección de no negativo de pesos que se suma a uno: $w^b = h^b/n$ donde $w_i^b = h_i^b/n$. Con esta notación podemos reexpresar la media de la secuencia de arranque de la muestra $$ m_b = \sum_{i=1}^n w_i^b\, y_i. $$

La forma en que las observaciones son elegidos por un bootstrap de la muestra determina la distribución conjunta de $w^b$. En particular, $h^b$ tiene una distribución multinomial y por lo tanto $$(n\,w^b) \sim \textsf{Multinomial}(n,(1/n)_{i=1}^n).$$ Therefore, we can compute $m_b$ by drawing $w^b$ from its distribution and computing the dot product with $$ y. Desde esta nueva perspectiva, parece que las observaciones son fijos , mientras que los pesos son diferentes.

En la inferencia Bayesiana, las observaciones son de hecho tomada como fijo, por lo que esta nueva perspectiva parece agradable para el enfoque Bayesiano. De hecho, el cálculo de la media de acuerdo a la Bayesiana bootstrap difiere sólo en la distribución de los pesos. (No obstante, desde un punto de vista conceptual el Bayesiano bootstrap es bastante diferente de la frecuentista versión). Los datos de $y$ son fijos y los pesos $w$ son los parámetros desconocidos. Podemos estar interesado en algunas funcional de los datos que depende de los parámetros desconocidos: $$ \mu = \sum_{i=1}^n w_i\, y_i. $$

Aquí hay un dibujo en miniatura del modelo detrás de la Bayesiano bootstrap: La distribución muestral de las observaciones es multinomial y el estado de los pesos es una limitante de la distribución Dirichlet que pone todo su peso sobre los vértices del simplex. (Algunos autores se refieren a este modelo como el modelo de probabilidad multinomial.)

Este modelo se presenta de la siguiente distribución posterior de los pesos: $$ w \sim \textsf{Dirichlet}(1,\ldots,1). $$ (Esta distribución es plana por la cara.) Las dos distribuciones para los pesos (frecuentista y Bayesiano) son bastante similares: tienen los mismos medios y similares covarianzas. La distribución Dirichlet es 'suave' de la distribución multinomial, por lo que el Bayesiano bootstrap puede ser llamada el alisado de bootstrap. Podemos interpretar la frecuentista bootstrap como una aproximación a la Bayesiano de bootstrap.

Dada la posterior distribución de los pesos, podemos aproximar la distribución posterior de la funcional $\mu$ por muestreo repetido $w$ de su distribución Dirichlet y calculando el producto escalar con $y$.

Podemos adoptar el marco de la estimación de ecuaciones $$ \sum_{i=1}^n w_i\, g(y_i,\theta) = \subrayado 0, $$ donde $g(y_i,\theta)$ es un vector de la estimación de funciones que depende del parámetro desconocido (vector) $\theta$ $\underline 0$ es un vector de ceros. Si este sistema de ecuaciones tiene una solución única para$\theta$$y$$w$, entonces podemos calcular su posterior distribución por el dibujo de $w$ de su posterior distribución y la evaluación de la solución. (El marco de la estimación de ecuaciones se utiliza con probabilidad empírica y con el método generalizado de momentos (GMM).)

El caso más sencillo es el que ya hemos tratado: $$ \sum_{i=1}^n w_i\,(y_i - \mu) = 0. $$ Para la media y la varianza, $\theta = (\mu,v)$ hemos $$ g(y_i,\theta) = \begin{pmatrix} y_i - \mu \\ (y_i - \mu)^2 - v \end{pmatrix}. $$ La configuración es un poco más complicado que el de la frecuentista de bootstrap, que es la razón por la Bayesiano puede adoptar la frecuentista bootstrap como una aproximación rápida.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X