14 votos

¿Por qué no permitimos la distribución gaussiana canónica en un espacio de Hilbert de dimensión infinita?

Estoy estudiando las distribuciones gaussianas en el espacio de Hilbert de dimensión infinita, y las fuentes que he visto hasta ahora dicen que la matriz de covarianza tiene que ser de clase traza (es decir, la traza debe ser finita). Entre otras cosas, esta condición descarta la canónica $\mathcal{N}(0,I_{\infty})$ Distribución gaussiana.

El argumento que he visto para descartar la gaussiana canónica es que si uno quiere que las proyecciones de esta distribución sobre subespacios finitos sean gaussianas (lo que por supuesto hacemos), y también se requiere que cada $\epsilon$ -en el espacio de Hilbert tenga una medida de probabilidad distinta de cero, entonces se puede derivar una contradicción a través del hecho de que la medida de la proyección de cualquier $\epsilon$ -en un subespacio finito es mayor que la medida de la bola original $\epsilon$ -bola, mientras que la medida de la proyección va a cero a medida que aumenta la dimensión.

Hasta aquí todo bien, pero ¿por qué nos empeñamos en que la medida de cada $\epsilon$ -¿la bola es distinta de cero? El límite natural de la secuencia de gaussianos canónicos me parece que es una masa puntual (Dirac $\delta$ -) en el infinito en el espacio de Hilbert, por lo que si lo definimos así, ¿no desaparece la contradicción? Y entonces, ¿no recuperamos la útil propiedad de poder blanquear las RV gaussianas en el espacio de Hilbert, lo cual es frecuentemente útil?

Soy consciente de que "aquí hay dragones", ¿qué problemas no estoy previendo?

Editar:

Vale - Creo que tengo una respuesta parcial al punto relativo a la valor de permitir la gaussiana canónica en un espacio dimensional infinito. Todo lo que dice Nate en su respuesta está bien - mi punto real (y tal vez soy culpable de no ser muy claro al respecto) era que podemos ver hacia dónde se dirige la secuencia de gaussianas canónicas finitas, así que ¿sería útil dejarla entrar? A primera vista parece que podría serlo, pero reflexionando creo que no lo es, incluso si no tenemos en cuenta los graves problemas relacionados con la ampliación del espacio de Hilbert.

Veamos primero hacia dónde se dirigen los gaussianos canónicos: De hecho, no es lo que yo agité como una masa puntual en el infinito, sino a una distribución en la superficie de una hiperesfera de dimensión infinita con radio infinito (de alguna manera me convencí de que las dos eran equivalentes, pero no pueden serlo ya que esto contradice la ley fuerte de los grandes números). Puedo ver que esto es problemático por sí mismo, pero vamos a correr con él un poco.

Ahora bien, lo anterior se deduce de varias aplicaciones de la ley fuerte de los grandes números: si tenemos un vector de RV gaussianos estándar iid $X_{i} \overset{iid}{\sim} \mathcal{N}(0,1)$ entonces los cuadrados de los componentes del vector son $\chi^{2}$ distribuido con valor esperado $1$ Así que, como $d \rightarrow \infty$ , $1/d \sum_{i=1}^{d}X_{i}^2 = 1$ con probabilidad $1$ . Es decir, si $X = (X_{1},X_{2}, \ldots, X_{d})$ la norma de $X$ , $\|X\| \rightarrow \sqrt{d}$ a.s. como $d \rightarrow \infty$ .

Del mismo modo, se puede demostrar con SLLN que el vector medio es el vector cero (y por lo tanto, sea cual sea el aspecto de la distribución de dimensión infinita, es simétrica respecto al origen).

Por último, se puede demostrar con SLLN que si $X$ y $X'$ son dos vectores cualesquiera, entonces $\left\langle \frac{X}{\|X\|},\frac{X'}{\|X'\|} \right\rangle \rightarrow 0$ como $d \rightarrow \infty$ . Desde $X$ es el vector cero con probabilidad cero, debemos tener (con probabilidad $1$ ) que cada par de vectores es ortogonal en el límite.

Todos estos son aspectos bastante conocidos de la maldición de la dimensionalidad, y en conjunto implican que los puntos acaban siendo mutuamente ortogonales en la superficie de una hiperesfera en torno al origen.

En cuanto a la utilidad, ¿por qué quería blanquear gaussianos en este espacio dimensional infinito en primer lugar? Bueno, ingenuamente pensé que si las variables son gaussianas iid, tal vez pueda mostrar algunos bonitos efectos de concentración que me ayuden a resolver un problema en el que estoy trabajando (la generalización precipitada es mi pecado más grave...). Por supuesto, hay es concentración en esta situación, pero no es de un tipo que pueda emplear útilmente.

Gracias, Nate, por tus comentarios y tu respuesta (que he aceptado).

12voto

Reto Meier Puntos 55904

He aquí un argumento más "probabilístico" de por qué no puede existir tal distribución.

Dejemos que $H$ sea un espacio de Hilbert de dimensión infinita dotado de una medida de Borel gaussiana $\mu$ . Supongamos que la matriz de covarianza de $\mu$ es la identidad. Sea $\{e_1, e_2, \dots\}$ sea una secuencia ortonormal. Entonces, si definimos $X_i : H \to \mathbb{R}$ como el funcional lineal continuo $X_i(x) = \langle x, e_i \rangle$ , $X_i$ es una variable aleatoria gaussiana en el espacio de probabilidad $(H, \mu)$ con media 0 y varianza 1. Además, como el $X_i$ se distribuyen conjuntamente de forma gaussiana y no están correlacionadas (porque el $e_i$ eran ortogonales), son independientes. Así que $\{X_i\}$ es un iid $N(0,1)$ secuencia.

Sin embargo, para cualquier $x \in H$ tenemos $$\sum_i |X_i(x)|^2 = \sum_i |\langle x, e_i \rangle|^2 \le ||x||^2 < \infty$$ por La desigualdad de Bessel . En particular, $X_i \to 0$ seguramente. Esto es absurdo para una secuencia iid (por cualquiera de los varios argumentos posibles).

6voto

Anthony Cramp Puntos 126

Tal cosa es estudiado. Pero (por supuesto) no es una medida sobre el espacio de Hilbert: Asigna medida cero a todo conjunto acotado; pero todo el espacio, aunque sea una unión contable de conjuntos acotados, tiene medida uno... Este tipo de cosas se estudian bajo el nombre de "medida cilíndrica". Se pueden encontrar muchos libros sobre el tema.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X