$\Theta\in\mathbb{R}^d$ es un conjunto compacto, $f(x,\theta):\mathbb{R}^p\times Y\in \mathbb{R}^+$ son continuos funciones en $\theta$ por cada $x$. Deje $X,X_1,\dots,X_n,\dots$ ser yo.yo.d vectores aleatorios.
A continuación, $\displaystyle E\left( \sup_{\theta\in \Theta}f(X,\theta)\right)<\infty\implies \lim_{n\rightarrow \infty}\left(\sup_{\theta\in \Theta}\left| \frac{1}{n}\sum_{i=1}^n f(X_i,\theta)-E(f(X,\theta)) \right|\right)=0$
No veo una manera inmediata de hacer esto en lugar de trabajar con la definición de límite. La idea es demostrar que no es $N$ tal que $\sup_{\theta\in \Theta}\left| \frac{1}{n}\sum_{i=1}^n f(X_i,\theta)-E(f(X,\theta)) \right|<\epsilon$ para un determinado $\epsilon$.
Creo que la compacidad de $\Theta$ podría ser utilizado para argumentar que hay una $\theta_0$ que $\sup_{\theta\in \Theta}f(X,\theta) = f(X,\theta_0)$. A continuación, me gustaría aplicar la misma a la segunda ecuación $\left| \frac{1}{n}\sum_{i=1}^n f(X_i,\theta_0)-E(f(X,\theta_0)) \right|<\epsilon$.
Pero me parece que la $ \frac{1}{n}$ $\displaystyle\frac{1}{n}\sum_{i=1}^n f(X_i,\theta_0)$ problemático ya que hará que el término más pequeños mientras tanto $E(f(X,\theta_0))$ no parece disminuir.