6 votos

Probar

$\Theta\in\mathbb{R}^d$ es un conjunto compacto, $f(x,\theta):\mathbb{R}^p\times Y\in \mathbb{R}^+$ son continuos funciones en $\theta$ por cada $x$. Deje $X,X_1,\dots,X_n,\dots$ ser yo.yo.d vectores aleatorios.

A continuación, $\displaystyle E\left( \sup_{\theta\in \Theta}f(X,\theta)\right)<\infty\implies \lim_{n\rightarrow \infty}\left(\sup_{\theta\in \Theta}\left| \frac{1}{n}\sum_{i=1}^n f(X_i,\theta)-E(f(X,\theta)) \right|\right)=0$

No veo una manera inmediata de hacer esto en lugar de trabajar con la definición de límite. La idea es demostrar que no es $N$ tal que $\sup_{\theta\in \Theta}\left| \frac{1}{n}\sum_{i=1}^n f(X_i,\theta)-E(f(X,\theta)) \right|<\epsilon$ para un determinado $\epsilon$.

Creo que la compacidad de $\Theta$ podría ser utilizado para argumentar que hay una $\theta_0$ que $\sup_{\theta\in \Theta}f(X,\theta) = f(X,\theta_0)$. A continuación, me gustaría aplicar la misma a la segunda ecuación $\left| \frac{1}{n}\sum_{i=1}^n f(X_i,\theta_0)-E(f(X,\theta_0)) \right|<\epsilon$.

Pero me parece que la $ \frac{1}{n}$ $\displaystyle\frac{1}{n}\sum_{i=1}^n f(X_i,\theta_0)$ problemático ya que hará que el término más pequeños mientras tanto $E(f(X,\theta_0))$ no parece disminuir.

3voto

kimchi lover Puntos 361

Esta es una consecuencia inmediata de la SLLN para espacios de Banach separables (ver aquí para la primera publicación y aquí para una atontada declaración), en particular, para $S=C(\Theta),$ el espacio de la real continua de las funciones con valores en $\Theta$, con la topología inducida por el sup norma $\|h\| = \sup_{\theta\in\Theta}|h(\theta)|$. Deje $Y\in S$ ser la función de $\theta\mapsto f(X,\theta)$; usted necesita para comprobar que esto es lo que define a $Y$ como un elemento aleatorio de $C(\Theta)$, y del mismo modo para $Y_i:\theta\mapsto f(X_i,\theta)$. Entonces usted necesita para comprobar que $E\|Y\| = E\sup_{\theta\in\Theta}|f(X,\theta)| \lt \infty$. Deje $m=EY:\theta\mapsto E(X,\theta)$. Entonces el resultado deseado se desprende directamente de la SLLN: $\overline Y_n \to m$ casi seguramente, es decir, $\|\overline Y_n-m\|\to0$ casi seguramente.

El $S=C(\Theta)$ SLLN es fácil de probar, en principio. Aquí es un boceto de una línea de argumento. Deje $Y$ ser un vector aleatorio en $S$, con distribución $\mu$, por lo que $\int _S\|Y\|\mu(dY)<\infty$. Deje $m=EY$. Definir otra medida en $S$ $\nu(A)=\int_A\|Y\|\mu(dY).$ tenga en cuenta que $\nu$ es finito, y por lo tanto, para cualquier real $\epsilon>0$ existe un compacto $K\subset S$ tal que $\nu(A^c)<\epsilon$. Cubierta $K$ con abrir $\epsilon$-bolas, extracto de un número finito de sub-cubra y deje $T(\epsilon)$ denotar los centros de las bolas en el finito sub-cubierta. Ahora definimos el vector aleatorio $T_i$ a ser un elemento más cercano de $T(\epsilon)$ si $Y_i\in K$, e $0$ lo contrario. Tenga en cuenta que $E\|Y_i - T_i\| <\epsilon$, se observa que el $T_i$ obedecer las finito dimensionales SLLN y por lo $\overline T_n\to ET_1$.s. Pero $\|ET_1 -m \|<\epsilon$, por lo que tenemos $\|\overline Y_n - m\|<2\epsilon$ todos los $n$ lo suficientemente grande. Desde $\epsilon>0$ era arbitraria, hemos terminado. En particular, vamos a $G(\epsilon)$ ser el caso de que $\|\overline Y_n - m\|<2\epsilon$ tiene para todos los $n$ lo suficientemente grande. Acabamos de ver que $P(G(\epsilon))=1$$\epsilon>0$, lo $G = \bigcap_{k>0}G(1/k)$ también ha probabilidad de $1$. Pero condicionada a $G$, $\overline Y_n \to m.$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X