8 votos

¿Pueden utilizarse las variables aleatorias de Bernoulli para aproximar algo más que la distribución normal?

La mayoría de los estudiantes de estadística están familiarizados con el aproximación normal de la distribución binomial . Y como las distribuciones binomiales se crean a partir de sumas de variables aleatorias Bernoulli, se deduce que con una combinación lineal de suficientes variables aleatorias Bernoulli se podría aproximar cualquier distribución normal.

Así que tengo curiosidad: ¿se pueden utilizar combinaciones de variables aleatorias de Bernoulli para hacer aproximaciones arbitrariamente precisas de las familias más comunes de variables aleatorias? Por ejemplo, si se utilizan distribuciones Bernoulli para activar y desactivar aleatoriamente una cadena de bits que sea la semilla de un generador lineal congruente, ¿no se podría utilizar el muestreo por transformación inversa para crear todo tipo de distribuciones?

Por otra parte, si se pudiera asignar una distribución normal a otra distribución, ¿no se tendría por extensión una forma de crear esa distribución a partir de variables aleatorias Bernoulli?

6voto

Aaron Puntos 36

Las variables aleatorias Bernoulli pueden aproximar (casi) cualquier distribución con una precisión arbitraria: Una secuencia de valores Bernoulli nos da una secuencia binaria, que puede interpretarse como la representación binaria de un número real. (Esto no es sorprendente, dado que un número real es esencialmente sólo una secuencia infinita de dígitos discretos). Por lo tanto, mediante un mapeo apropiado, podemos transformar una secuencia de Bernoulli en una variable aleatoria uniforme continua. Una vez hecho esto, podemos utilizar la técnica estándar de muestreo por transformación inversa para obtener una variable aleatoria de una distribución arbitraria.

Ahora bien, esto tiene alguna limitación, porque en la práctica nunca tenemos una secuencia infinita de valores Bernoulli, pero podemos generar una gran secuencia finita. Esto nos permite aproximar una variable aleatoria uniforme arbitrariamente bien, y así podemos entonces aproximar cualquier distribución que pueda ser aproximada arbitrariamente bien por un mapeo de una variable aleatoria que sea arbitrariamente cercana a una variable aleatoria uniforme.


Detalles matemáticos para la generación con una secuencia infinita: Supongamos que se quiere generar una variable aleatoria escalar con función de distribución $F$ . Para ello, consideramos una secuencia binaria intercambiable $X_1, X_2, X_3, ... \sim \text{IID Bern}(\tfrac{1}{2})$ y definir las variables aleatorias correspondientes:

$$A = A(\boldsymbol{X}) = \inf \Big\{ r \in \mathbb{R} \Big| F(r) \geqslant U \Big\} \quad \quad \quad U = U(\boldsymbol{X}) = \sum_{i=1}^\infty \frac{X_i}{2^i} \sim \text{U}(0,1).$$

(Esta función está bien definida, por la completitud de los números reales.) Ahora, como $F$ es una función no decreciente, tenemos:

$$\mathbb{P}(A \leqslant a) = \mathbb{P} \Big( \inf \Big\{ r \in \mathbb{R} \Big| F(r) \geqslant U \Big\} \leqslant a \Big) = \mathbb{P} \Big( U \leqslant F(a) \Big) = F(a).$$

(Nótese que este resultado no requiere la continuidad de $F$ por lo que funciona para distribuciones generales, no sólo para distribuciones continuas).


Detalles matemáticos para la generación con una secuencia finita: El caso anterior es un caso idealizado en el que podemos generar una secuencia infinita de variables aleatorias Bernoulli. Ahora consideramos el caso más realista en el que podemos generar alguna secuencia finita arbitrariamente grande con $k \in \mathbb{N}$ términos. Por lo tanto, ahora tenemos la secuencia finita $X_1, X_2, ..., X_k \sim \text{IID Bern}(\tfrac{1}{2})$ y definimos las variables aleatorias correspondientes:

$$A_k = \inf \Big\{ r \in \mathbb{R} \Big| F(r) \geqslant U_k \Big\} \quad \quad \quad U_k = \sum_{i=1}^k \frac{X_i}{2^i} + \frac{1}{2^{k+1}}.$$

(Hemos incluido un término adicional de "corrección de continuidad" en $U_k$ para que su distribución siga siendo simétrica en torno al valor $\mathbb{E}(U_k) = \tfrac{1}{2}$ .) Ahora tenemos:

$$\mathbb{P}(A_k \leqslant a) = \mathbb{P} \Big( \inf \Big\{ r \in \mathbb{R} \Big| F(r) \geqslant U_k \Big\} \leqslant a \Big) = \mathbb{P} \Big( U_k \leqslant F(a) \Big).$$

Para los grandes $k$ tenemos entonces..:

$$\mathbb{P}(A_k \leqslant a) = \mathbb{P} \Big( U_k \leqslant F(a) \Big) \approx \mathbb{P} \Big( U \leqslant F(a) \Big) = F(a).$$

Como puedes ver, esta aproximación se basa en nuestra capacidad de aproximar el evento $U \leqslant F(a)$ por el evento $U_k \leqslant F(a)$ para grandes $k$ . Para todas las distribuciones, excepto las patológicas, esta aproximación puede hacerse de forma arbitraria tomando $k$ sea lo suficientemente grande. Hay algunas distribuciones patológicas en las que esto no es así (por ejemplo, cualquier distribución con probabilidad distinta de cero en los números irracionales, o más ampliamente, en los valores reales que no pueden representarse como un número binario finito), pero se trata de una clase bastante reducida de distribuciones. Por lo tanto, esta técnica aproximará una variable aleatoria con (casi) cualquier distribución con un grado de precisión arbitrario.

1voto

manku Puntos 111

Sí, dependiendo de las circunstancias. Las distribuciones binomial y binomial negativa (incluida la geométrica) son definido en términos de variables aleatorias de Bernoulli, por lo que la relación de las variables aleatorias de Bernoulli con esas distribuciones no es una aproximación. Especialmente para grandes $n$ y pequeños $p$ , $\mathsf{Binom}(n, p)$ es aproximadamente $\mathsf{Pois}(\lambda = np).$

Tu propósito no es claro, pero una vez que hayas aproximado las distribuciones normales en términos de variables aleatorias Bernoulli, podrías explotar la relación de las distribuciones normales con las distribuciones chi-cuadrado, t (extendida a Cauchy) y F para aproximarlas también por simulación. Con el mismo espíritu, podría explotar la relación de Poisson con las variables aleatorias exponenciales, e ir más allá para aproximar las distribuciones de Laplace, gamma (al menos con parámetros de forma enteros) y algunas de Weibull. [Esta es una lista parcial].

Las simulaciones suelen partir de realizaciones pseudoaleatorias de $\mathsf{Unif}(0,1),$ y otras distribuciones pueden ser simuladas en términos de variables aleatorias uniformes. Las simulaciones en términos de variables aleatorias Bernoulli pueden ser algo más más complicadas y limitadas que la simulación en términos de variables aleatorias uniformes, pero existen, no obstante, muchas posibilidades. Los procesos de cola M/M (definidos en tiempo continuo) pueden simularse de forma aproximada "discretizando el tiempo" y utilizando en la simulación variables aleatorias Bernoulli en lugar de exponenciales.

1voto

kabirbaidhya Puntos 101

Esto funcionará en la mayoría de los casos, al menos si las variables Bernoulli involucradas son independientes e idénticamente distribuidas, o al menos intercambiable e idénticamente distribuidos (Peres 1992), y se dispone de una secuencia ilimitada de ellos. Esta respuesta incluirá una discusión sobre los algoritmos para aproximar una distribución utilizando variables aleatorias Bernoulli.

El resto de esta respuesta supone que las variables aleatorias Bernoulli tienen una media (sesgo) de 1/2 (representan bits aleatorios insesgados). Si las variables aleatorias (bits) tienen una sesgo desconocido se puede utilizar un método de extracción de aleatoriedad, como el extractor de von Neumann o de Peres, para generar bits aleatorios insesgados a partir de ellos (véase mi nota sobre la extracción de la aleatoriedad ).

Hay muchas maneras de aproximar una distribución con una precisión arbitraria, y se discuten en Devroye y Gravel 2015/2020:

  • Para distribuciones discretas Hay muchas posibilidades. Una de ellas es tomar las expansiones binarias de las probabilidades de la distribución y realizar un paseo aleatorio sobre ellas, conducido por bits aleatorios insesgados. Esta es la esencia del Algoritmo de árbol DDG por Knuth y Yao. De hecho, cualquier algoritmo práctico para distribuciones discretas puede convertirse en un algoritmo de árbol DDG. Véase también Gryszka 2020.

    El entropía binaria de una distribución discreta es un límite inferior del número medio de bits aleatorios necesarios para producir una variante de esa distribución. Desgraciadamente, algunas distribuciones discretas tienen una entropía ilimitada; Devroye y Gravel dan como ejemplo la distribución zeta Dirichlet (en ciertas parametrizaciones).

  • Para distribuciones continuas Devroye y Gravel discuten la inversión, la discretización, la convolución y el muestreo de rechazo para producir una variante de una distribución dada utilizando bits aleatorios, y dan límites inferiores sobre el número de bits aleatorios necesarios para generar una variante con la precisión deseada. Diferentes enfoques funcionan bien para diferentes distribuciones. Un ejemplo notable de generación de una variante continua utilizando bits insesgados es la distribución exponencial, como la mejora de C.F.F. Karney en " Muestreo exacto de una distribución normal " del consagrado generador exponencial de von Neumann. Además, especifico algoritmos para hacer aritmética en las variantes aleatorias representadas por secuencias de bits o dígitos. En el lado de la inversión, si se conoce la FCD inversa de una distribución, se pueden generar suficientes bits de una variante aleatoria uniforme(0,1) para poder calcular la FCD inversa a partir de esa variante con una varianza suficientemente baja.

REFERENCIAS:

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X