5 votos

Convergencia en la distribución de la siguiente secuencia de variables aleatorias

$X_n\sim Beta\left(\frac{\alpha}{n},\frac{\beta}{n}\right)$ con $\alpha>0$ et $\beta>0$ . Hace $X_n$ converge a una distribución? ¿Cómo puedo demostrar que esto converge a una distribución?

2 votos

Si converge, entonces converge a una distribución con probabilidades puntuales en $0$ et $1$ y que tiene una expectativa de $\frac{\alpha}{ \alpha + \beta}$ Así que eso te da algo a lo que aspirar

0 votos

Puede utilizar las Funciones Generadoras de Momento... vea mi post sobre este enfoque.

0 votos

Por favor, añada el [self-study] y leer su wiki .

8voto

sergiol Puntos 129

El MGF de una Distribución Beta es:

$$1+\sum_{k=1}^{\infty}\left(\prod_{r=0}^{k-1} \frac{\alpha+r}{\alpha+\beta+r}\right)\frac{t^k}{k!}$$

Como $n\to \infty$ vemos que

$$r,\alpha,\beta>0 \implies\frac{\alpha/n+r}{\alpha/n+\beta/n+r} \to 1$$

Para $r=0$ nos encontramos con que:

$$\lim_{n\to \infty} \frac{\alpha/n}{\alpha/n+\beta/n} = \frac{\alpha}{\alpha+\beta} = E[X_1]$$

Uniendo todo esto vemos que:

$$ \lim_{n\to \infty} \left[1+\sum_{k=1}^{\infty}\left(\prod_{r=0}^{k-1}\frac{\alpha/n+r}{\alpha/n+\beta/n+r}\right)\frac{t^k}{k!}\right] = 1+E[X_1]\sum_{k=1}^{\infty}\frac{t^k}{k!} =$$ $$ (1-E[X_1])+E[X_1]e^t$$

El MGF de un $\text{Bernoulli}(p)$ es:

$$(1-p)+pe^t$$

Por comparación, vemos que el MGF de la Beta ha convergido al MGF de un $\text{Bernoulli}\left(\frac{\alpha}{\alpha+\beta}\right)$

Es un teorema conocido que si las variables aleatorias $X$ et $Y$ tienen el mismo MGF sobre $t \in (-a,a),a>0$ entonces tienen la misma distribución. Claramente, esto se mantiene aquí, por lo que podemos concluir, como @Henry aludió en los comentarios, que la distribución límite es efectivamente una $\text{Bernoulli}\left(\frac{\alpha}{\alpha+\beta}\right)$

2voto

jldugger Puntos 7490

Converge en distribución a una variable Bernoulli con parámetro $\alpha/(\alpha+\beta)$ .

Figure: plot of the distributions

Esta figura muestra las distribuciones Beta en el caso $\alpha=2,\beta=1$ para $n=1,4,16,64,$ et $\infty$ . Se establecen en una distribución con un salto de $\beta/(\alpha+\beta)=1/3$ en $0$ y otro salto de $\alpha/(\alpha+\beta) = 2/3$ en $1$ . Esto es un Bernoulli $(2/3)$ distribución.


A continuación se esboza una demostración rigurosa utilizando sólo técnicas elementales.

La idea es dividir la integral de Beta en tres partes: una porción cercana a cero, una porción cercana a uno, y todo lo que está en medio. Podemos aproximar fácilmente las integrales de los extremos utilizando integrales de potencia elementales. La integral del medio es mucho más pequeña que la de los dos extremos, por lo que finalmente se puede despreciar. Esto es obvio cuando se observa la función de densidad: tan pronto como $\alpha/n$ cae por debajo de $1$ la densidad se dispara hasta el infinito en el extremo izquierdo. Del mismo modo, en cuanto $\beta/n$ cae por debajo de $1$ la densidad se dispara al infinito en el extremo derecho. Esto produce dos "extremidades" de una distribución en forma de U. Las extremidades dominan la probabilidad. Todo lo que tenemos que hacer es (1) demostrar que su relativa se acercan a un valor límite y (2) calcular ese valor límite.

Para los que no estén familiarizados con este tipo de argumentos, he aquí algunos detalles.

Dejemos que $1/2 \ge \epsilon \gt 0$ . ( $\epsilon$ va a determinar lo cerca que está el final del intervalo $[0,1]$ lo haremos). Derivaremos tres relaciones numéricas asociadas a la PDF Beta $x^{\alpha/n-1}(1-x)^{\beta/n-1}$ . (Obsérvese la ausencia de la constante de normalización: el truco consiste en ignorarla mirando las probabilidades relativas).

En primer lugar, dejemos que $\gamma$ sea un número cualquiera. En

$$\log(\epsilon^{\gamma/n}) = \frac{\gamma}{n}\log(\epsilon) \xrightarrow{n\to\infty} 0$$

concluimos que $\epsilon^{\gamma/n}$ se puede hacer lo más parecido a $\exp(0)=1$ como queramos.

En segundo lugar, para $0 \le x \le 1-\epsilon$ un argumento similar da como resultado

$$|\log((1-x)^{\beta/n-1})| = |1 - \beta/n||\log(1-x)| \le |1 - \beta/n||\epsilon| \xrightarrow{n\to\infty} 0.$$

Por lo tanto, para un tamaño suficientemente grande $n$ el valor de $(1-x)^{\beta/n-1}$ se puede hacer lo más parecido a $\exp(0)=1$ como deseamos. Esto nos permitirá posteriormente ignorar la contribución de este término a la extremidad izquierda de la integral.

Tercero,

$$\int_0^\epsilon x^{\alpha/n-1} dx = \frac{n}{\alpha}\epsilon^{\alpha/n}.$$

Aplique estos resultados a la integral del producto:

$$\frac{n}{\alpha}\epsilon^{\alpha/n}= \int_0^\epsilon x^{\alpha/n-1}(1)dx \approx \int_0^\epsilon x^{\alpha/n-1}(1-x)^{\beta/n-1}dx.$$

No es necesario repetir el trabajo para el otro miembro: el cambio de variable $x \to 1-x$ intercambia los papeles de $\alpha$ et $\beta$ lo que nos permite escribir inmediatamente la aproximación equivalente

$$\frac{n}{\beta}\epsilon^{\beta/n} \approx \int_{1-\epsilon}^1 x^{\alpha/n-1}(1-x)^{\beta/n-1}dx.$$

Además, aplicando lo anterior al caso $\epsilon=1/2$ nos muestra que para un tamaño suficientemente grande $n$

$$\int_\epsilon^{1/2} x^{\alpha/n-1} (1-x)^{\beta/n - 1} dx \approx \frac{n}{\alpha}\left(\left(\frac{1}{2}\right)^{\alpha/n} - \epsilon^{\alpha/n}\right) \ll \frac{n}{\alpha}\epsilon^{\alpha/n}.$$

Aplicando de nuevo el cambio de variable y sumando ese resultado al anterior obtenemos

$$\int_{\epsilon}^{1-\epsilon} x^{\alpha/n-1}(1-x)^{\beta/n-1}dx \ll \frac{n}{\alpha}\epsilon^{\alpha/n} + \frac{n}{\beta}\epsilon^{\beta/n}.$$

En otras palabras, para un tamaño suficientemente grande $n$ esencialmente toda la probabilidad de una Beta $(\alpha/n,\beta/n)$ la distribución se concentra en los intervalos terminales $[0,\epsilon)$ et $(1-\epsilon, 1]$ .

Por lo tanto, la probabilidad relativa del intervalo de la derecha, comparada con la probabilidad total, se acerca arbitrariamente a

$$\Pr((1-\epsilon, 1]) \approx \frac{\frac{n}{\beta}\epsilon^{\beta/n}}{\frac{n}{\beta}\epsilon^{\beta/n} + \frac{n}{\alpha}\epsilon^{\alpha/n}} = \frac{\alpha}{\alpha + \beta\epsilon^{(\alpha-\beta)/n} } \xrightarrow{n\to\infty}\frac{\alpha}{\alpha+\beta}$$

y, del mismo modo, la probabilidad relativa del intervalo de la izquierda se acerca arbitrariamente a $\beta/(\alpha+\beta)$ , QED .

1 votos

+1 por mantenerlo elemental -- yo empecé por este camino primero, pero fui por la ruta "fácil" y usé los MGFs. La pieza crítica aquí fue su identificación de aproximaciones analíticas adecuadas de los puntos finales. Muy bien.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X