3 votos

Estrechez de las distribuciones de probabilidad

Sea $\mathcal{P}(\mathbb{N})$ sea el conjunto de todas las funciones de masa de probabilidad sobre $\mathbb{N}=\{1,2,\dots \}$ . Sea $E$ sea un subconjunto cerrado (con respecto a la convergencia puntual, o equivalentemente la métrica de variación total) de $\mathcal{P}(\mathbb{N})$ y $Q\notin E$ . Sea $0<\beta<1$ . Ahora $\displaystyle \sum_{x\in N} P(x)^{\beta}Q(x)^{1-\beta}\le 1$ para cualquier $P$ y $Q$ por la desigualdad de Holder. Supongamos que $0< s:=\displaystyle \sup_{P\in E}\sum P(x)^{\beta}Q(x)^{1-\beta}$ .

Sea $\{P_n\}$ sea una secuencia en $E$ tal que $\sum P_n(x)^{\beta}Q(x)^{1-\beta}\to s$

Ahora mi objetivo es examinar si $\{P_n\}$ tienen una subsecuencia convergente que converge a una distribución de probabilidad verdadera. Por el argumento de la diagonal siempre puedo extraer una subsecuencia convergente, pero el límite no tiene por qué ser una distribución de probabilidad; podría ser una distribución de probabilidad defectuosa. Pero en este problema, ¿se puede argumentar de alguna manera que podemos extraer una subsecuencia convergente que converja a una distribución de probabilidad?

También estoy pensando en mostrar que $P_n$ son ajustados, porque en los ejemplos que tengo, la masa no puede escapar al infinito. Espero que, si demostramos la estanqueidad, podamos extraer una subsecuencia convergente que converja a una distribución de probabilidad verdadera.

2voto

chris.w.mclean Puntos 110

Creo que esta conjetura es falsa, es decir, no existe necesariamente una subsecuencia que converja a una distribución de probabilidad verdadera. Consideremos la siguiente situación:

Sea $Q=(1,0,0,0,...)$ es decir, la distribución de probabilidad con toda la masa en $x=1$ .

Definir la distribución $R_n$ para $n=2,3,...$ como $$R_n(1)=\frac{1}{2} - \frac{1}{n}$$ $$R_n(n)=\frac{1}{2} + \frac{1}{n}$$ y $R_n(x)=0$ para todos los demás valores.

Sea $E$ sea el conjunto de todos los $R_n$ para $n\geq 2$ . Tenga en cuenta que $E$ es cerrado (porque cualquier distribución que no esté en $E$ puede separarse de ella por una distancia suficientemente pequeña $\epsilon$ pelota) y que $s=(1/2)^\beta>0$ .

A continuación, argumentamos que cualquier distribución convergente $P_n$ contenida en $E$ puede verse como una subsecuencia del $R_n$ . Para cualquier $R_n$ , $$\sum_{x=1}^\infty R_n^\beta (x) Q^{1-\beta}(x)=\left(\frac{1}{2}-\frac{1}{n}\right)^\beta$$ En $n$ aumenta, este valor aumenta monotónicamente hasta $s$ . Por lo tanto, si tenemos cualquier conjunto de puntos $P_n$ en $E$ tal que $$\lim_{n\rightarrow \infty} \sum P_n^\beta (x) Q^{1-\beta}(x) =s$$ entonces $P_n$ tiene una subsecuencia convergente que es una subsecuencia del $R_n$ .

Por último, si consideramos cualquier subsecuencia de $R_n$ no converge a una distribución de probabilidad, ya que la mitad de su probabilidad se desvanece hacia el infinito. (Una demostración formal es sencilla).

2voto

Bruno Brant Puntos 177

Del contraejemplo de Bill parece que algunas restricciones adicionales sobre $E$ son necesarios para conseguir lo que se desea. exigiendo que $E$ sería ciertamente suficiente, pero puede ser una suposición innecesariamente restrictiva.

por ejemplo, que $E$ sea la familia [paramétrica] de distribuciones poisson. [Entonces cambiamos el soporte de las medidas a $N := \{0,1,\cdots\}$ ]. let $\cal P$ denotan el conjunto de medidas de probabilidad sobre $N$ .

para cualquier $Q$ está bastante claro que a medida que el parámetro de Poisson $\lambda\to\infty$ ,

$$I_\beta(Poi_\lambda,Q) := \sum_{x\in{N}} Poi_\lambda(x)^\beta Q(x)^{1-\beta}\to 0.$$

por lo que al obtener $s$ podemos restringir la atención a algún intervalo acotado $[0,L]$ para $\lambda$ . entonces, como $I_\beta(Poi_\lambda,Q)$ es continua en $\lambda$ su máximo se alcanza en $[0,L]$ .

en este ejemplo, $E$ no es ajustado, aunque sus únicos puntos límite puntuales fuera de sí mismo son $\delta_0$ la medida que pone la probabilidad 1 a 0, y la medida cero $\delta_\infty = (0,0,\cdots)$ . [ $\delta_0$ debe incluirse si se desea $\lambda > 0$ a priori .] aquí, el único defectuoso punto límite es $\delta_\infty$ .

además: si bien es cierto [como afirma el PO] que la convergencia puntual [la topología del producto para $\ell_1$ ] y "variación total" [o $\ell_1$ -norm] son equivalentes para $\cal P$ no son lo mismo para $\ell_1$ . en el ejemplo poisson, $\delta_\infty$ es un punto límite puntual pero no un punto límite fuerte de $E$ . [así $E$ es fuertemente cerrado en este caso. creo que esto estaba implicado en mi comentario anterior (algo apresuradamente concebido)].

también en el ejemplo de bill, $R_\infty$ es también un punto límite puntual pero no fuerte de $E= \{R_n: n\ge 2\}$ .

estos ejemplos sugieren que cuando $s>0$ , opresión por $E$ puede debilitarse hasta su cierre puntual teniendo como máximo una distribución defectuosa: $\delta_\infty$ . [parece casi obvio entonces que si $I_\beta(P_n, Q) \uparrow s>0$ como $n\to\infty$ que cualquier subsecuencia convergente de $\{P_n\}$ debe tender a un límite en $\cal P$ . una forma más elegante de decirlo es que $I_\beta: P \to I_\beta(P,Q)$ es continua para el $\ell_\infty$ -topología débil en $\cal P$ que en este caso no es más que convergencia puntual con otro nombre].

un interesante $E$ que cumple esta condición es el conjunto de todas las distribuciones binomiales en $N$ donde ambos $n$ y $p$ son parámetros. Aquí $E$ tiene muchos puntos límite puntuales que no contiene [como las distribuciones poisson], pero sólo un punto límite puntual defectuoso: $\delta_\infty$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X