4 votos

Distribuciones de probabilidad como límites de distribuciones continuas y distribuciones discretas.

Mientras hojeaba mis apuntes de clase, noté un ejercicio que no pude resolver:

Supongamos que tenemos una distribución de probabilidad $\mu$ en $\mathbb{R}$.

Recordando que $\mu_k \rightarrow \mu$ si $\int_{\mathbb{R}} f(x)\mu_k(dx) \rightarrow \int_{\mathbb{R}} f(x) \mu(dx)$, $\forall f \in C(\mathbb{R})$, $f$ acotado $k\rightarrow \infty$. Tenemos que demostrar:

  1. $\exists \mu_k$ - serie de distribuciones continuas tal que $\mu_k \rightarrow \mu$.
  2. $\exists \mu_k$ - serie de distribuciones discretas tal que $\mu_k \rightarrow \mu$.

3voto

Did Puntos 1

Sugerencias:

  • Cada distribución es un bariénter $p\mu_d+(1-p)\mu_c$ donde $0\leqslant p\leqslant1$, $\mu_d$ es discreta y $\mu_c$ es continua.
  • Como consecuencia, basta con demostrar que cada distribución discreta es un límite de distribuciones continuas, y viceversa.
  • En una dirección, demostrar que, para cada $x$, la distribución uniforme (continua) en el intervalo $[x-\varepsilon,x+\varepsilon]$ tiende a la distribución de Dirac (discreta) en $x$ cuando $\varepsilon\to0^+$.
  • En la otra dirección, demostrar que, para cada distribución continua $\mu_c$, la distribución (discreta) $\sum\limits_n\mu_c([n\varepsilon,(n+1)\varepsilon))\,\delta_{n\varepsilon}$, donde la suma se realiza sobre cada entero $n$, tienda a $\mu_c$ cuando $\varepsilon\to0^+$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X