5 votos

SLLN para V-estadísticas - Fuerte consistencia de distancia de la covarianza en espacios métricos

Estoy tratando de entender la prueba de consistencia fuerte de distancia de la covarianza en espacios métricos (Proposición 2.6 Distancia de covarianza en la métrica de los espacios por parte de Russel Lyons publicado en Los Anales de la Probabilidad).

Deje $(\mathcal{X},d_1)$ $(\mathcal{Y},d_2)$ dos espacios métricos y $((X_k,Y_k))_{k\in\mathbb{N}}$ ser un yo.yo.d secuencia de elementos aleatorios con valores en $\mathcal{X}\times \mathcal{Y}$ tal que $$ Ed_1(X_1,x')<\infty \quad \quad \quad \quad Ed_2(Y_1,y')<\infty, $$ para cualquier $x'\in \mathcal{X}$$y'\in\mathcal{Y} $. La distancia covarianza $dcov(X,Y)$ está dado por $$ dcov(X,Y) = Eh((X_{1},Y_1),...,(X_6,Y_6)), $$ donde \begin{align*} h((x_{1},y_1),...,(x_6,y_6))=&f_1(x_1,x_2,x_3,x_4)f_2(y_1,y_2,y_5,y_6) ,\\ \end{align*} y $$ f_i(z_1,z_2,z_3,z_4) =d_i(z_1,z_2)-d_i(z_1,z_3)-d_i(z_2,z_4)+d_i(z_3,z_4). $$ El emperical distancia de covarianza por lo tanto se convierte en un $V$-estadística (en general) no simétricas kernel $h$ grado $6$, es decir, $$ dcov_n(X,Y) = \frac{1}{n^6} \sum_{i_1=1}^n \cdots \sum_{i_6=1}^n h((X_{i_1},Y_{i_1}),...,(X_{i_6},Y_{i_6})). $$ Ahora se afirma sin referencia a un SLLN que $dcov_n(X,Y) \to dcov(X,Y)$ casi seguramente.

Problema: Las peores condiciones para SLLN para $V$-estadísticas sé exigir que

El kernel $h$ es simétrica y \begin{align*} E| h((X_{i_1},Y_{i_1}),...,(X_{i_6},Y_{i_6}))|^{\frac{\#\{i_1,...,i_6\}}{6}} < \infty, \end{align*} para $1 \leq i_1 \leq \cdots \leq i_6 \leq 6$.

Así que mi enfoque era para hacerles $\tilde{h}$ ser el simétrico de la versión de $h$: $$\tilde{h}((x_1,y_1),...,(x_6,y_6))=\frac{1}{6!} \sum_{\sigma\in \Pi_6} h((x_{\sigma(1)},y_{\sigma(1)}),...,(x_{\sigma(6)},y_{\sigma(6)})),$$ donde $\Pi_6$ es el conjunto de todas las permutaciones en $\{1,...,6\}$. A continuación, las condiciones anteriores de la SLLN reduce a \begin{align*} E| h((X_{i_1},Y_{i_1}),...,(X_{i_6},Y_{i_6}))|^{\frac{\#\{i_1,...,i_6\}}{6}} < \infty, \end{align*} para todos los $(i_1,...,i_6)\in \{1,...,6\}^6$.

La única manera (que yo vea) podemos crear límites superiores para $h$ es por la desigualdad de triángulo, lo que equivale a las siguientes desigualdades (la supresión de la $i$ índice en la métrica)

\begin{align} \frac{|f_i(z_1,z_2,z_3,z_4)|}{2}\leq \left\{ \begin{array}{lll} d(z_1,z_4), & d(z_2,z_3), & d(z_1,z_2) \lor d(z_1,z_3), \\ d(z_1,z_2) \lor d(z_1,z_4), & d(z_1,z_2) \lor d(z_2,z_3), & d(z_1,z_2) \lor d(z_2,z_4), \\ d(z_1,z_4) \lor d(z_1,z_3), & d(z_1,z_4) \lor d(z_2,z_3), & d(z_1,z_4) \lor d(z_2,z_4), \\ d(z_2,z_3) \lor d(z_1,z_3), & d(z_2,z_3) \lor d(z_2,z_4), & d(z_3,z_4) \lor d(z_1,z_3), \\ d(z_3,z_4) \lor d(z_1,z_4), & d(z_3,z_4) \lor d(z_2,z_3), &d(z_3,z_4) \lor d(z_2,z_4). \\ \end{array} \right. \end{align} y nos damos cuenta de que si, por ejemplo,$i_1=i_2$, entonces cada combinación de las anteriores desigualdades resultado en $$ E| h((X_{i_1},Y_{i_1}),...,(X_{i_6},Y_{i_6}))|^{\frac{\#\{i_1,...,i_6\}}{6}} \leq 4E([\gamma(X_{i_1},...)\theta(Y_{i_1},...)]^{\frac{\#\{i_1,...,i_6\}}{6}}), $$ donde $\gamma$ $\theta$ es alguno de los anteriores límites superior.

Sabemos que $E\gamma(X_{i_1},...)<\infty$$E\theta(Y_{i_1},...)<\infty$, por ejemplo $$ Ed(X_{i_2},X_{i_3}) \lor d(X_{i_1},X_{i_3}) \leq E d(X_{i_2},x')+d(X_{i_3},x')+d(X_{i_1},x')+d(X_{i_3},x') < \infty. $$ Pero no podemos usar la independencia para dividir la expectativa desde $X_{i_1}$ no pueden ser independientes de $Y_{i_1}$. Me doy cuenta de que si $\#\{i_1,...,i_6\}\leq 3$ luego de Cauchy-Schwarz desigualdad puede ser utilizado para decir que \begin{align*} 4E([\gamma(X_{i_1},...)\theta(Y_{i_1},...)]^{\frac{\#\{i_1,...,i_6\}}{6}})&\leq 4E([\gamma(X_{i_1},...)\theta(Y_{i_1},...)]^{1/2})+4 \\ &\leq 4[E\gamma(X_{i_1},...)]^{1/2}[E\theta(Y_{i_1},...)]^{1/2} +4< \infty, \end{align*} pero si $3<\#\{i_1,...,i_6\}\leq 6$, entonces no podemos utilizar esto.

Por lo tanto: hay otra versión de SLLN para $V$-estadísticas de la que es adecuado en esta situación, o hay otra manera de acotar las expectativas?

1voto

zhoraster Puntos 5893

Tienes razón, el lugar no está bien explicado en el artículo.

El problema es mostrar la integrabilidad de $f_1(X_{i_1},X_{i_2},X_{i_3},X_{i_4})f_2(Y_{i_1},Y_{i_2},Y_{i_5},Y_{i_6})$ todos los $i_1,i_2,\dots,i_6$, no solo para los distintos queridos. La primera asume que el $i_1,i_2,i_3,i_4$ son distintos e $i_1,i_2,i_5,i_6$ son distintos. Aquí uno puede emplear otras ideas del artículo, en orden a establecer la integrabilidad. Es decir, es fácil ver que $$ f_1(z_1,z_2,z_3,z_4) =d_\mu(z_1,z_2)-d_\mu(z_1,z_3)-d_\mu(z_2,z_4)+d_\mu(z_3,z_4).\la etiqueta{1} $$ A continuación, se puede estimar, mediante el Cauchy-Schwarz desigualdad, $$ \mathbb E[f_1(X_{i_1},X_{i_2},X_{i_3},X_{i_4})f_2(Y_{i_1},Y_{i_2},Y_{i_5},Y_{i_6})] \\\le \big(\mathbb E[f_1(X_{i_1},X_{i_2},X_{i_3},X_{i_4})^2]\mathbb E[f_2(Y_{i_1},Y_{i_2},Y_{i_5},Y_{i_6})^2]\big)^{1/2} $$ Además, por (1) $$ \mathbb E[f_1(X_{i_1},X_{i_2},X_{i_3},X_{i_4})^2]\\\le 4\big(\mathbb E[d_\mu(X_{i_1},X_{i_2})^2] + \mathbb E[d_\mu(X_{i_1},X_{i_3})^2] + \mathbb E[d_\mu(X_{i_2},X_{i_4})^2] + \mathbb E[d_\mu(X_{i_3},X_{i_4})^2]\big). $$ Pero $\mathbb E[d_\mu(X_{i},X_{j})^2] <\infty$ $i\neq j$ (Lema 2.1 del artículo). Del mismo modo, $$ \mathbb E[f_2(Y_{i_1},Y_{i_2},Y_{i_5},Y_{i_6})^2]<\infty, $$ qed.

Cuando hay dos coincidencias, se puede utilizar de Cauchy-Schwarz para continuar.

Así que vamos a no ser una sola coincidencia en algunos de $i_1,i_2,i_3,i_4$ ser igual. Si $i_1\neq i_2$, entonces podemos proceder como en el artículo. Decir, si $i_2=i_3$, se puede estimar $f_1(X_{i_1},X_{i_2},X_{i_3},X_{i_4})\le g_1(X_{i_2},X_{i_3},X_{i_4})$, $f_2(\dots)\le g_2(Y_{i_1},Y_{i_5},Y_{i_6})$.

Así que el único caso restante es $i_1=i_2$. Aquí $$ h = \big(d_1(X_{i_3},X_{i_4})-d_1(X_{i_1},X_{i_3})-d_1(X_{i_1},X_{i_4})\big) \big(d_2(Y_{i_5},Y_{i_6})-d_2(Y_{i_1},Y_{i_5})-d_2(Y_{i_1},Y_{i_6})\big). $$ Al ampliar, hay muchos se portan bien los términos. Un mal comportamiento con los mismos (positivo) firmar y todos los de la misma clase, por lo que es necesario y suficiente para establecer la convergencia de $$ \frac{1}{n^4}\sum_{i,j,k=1}^n d_1(X_i,X_j)d_2(Y_i,Y_k) $$ a cero. A su vez, para los segundos es suficiente para tener $$ \mathbb{E}[d_1(X,X')^{3/4}d_2(Y,Y")^{3/4}]<\infty,\etiqueta{1} $$ donde $(X,Y)$ tiene la distribución dada, y $X'$, $Y''$ el marginal de la distribución, y $(X,Y),X',Y''$ son independientes. Asunción (1) puede ser necesario también, como la clásica de Marcinkiewicz-Zygmund SLLN una condición similar a la que es necesario. No parece sin embargo que (1) se sigue de la hipótesis del artículo. Así que le sugiero que investigue el autor, como él trata con esto.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X