Distancia L1 entre medidas gaussianas: Definición
Sea $P_1$ y $P_0$ sean dos medidas gaussianas sobre $\mathbb{R}^p$ con sus respectivas "media,Varianza" $m_1,C_1$ y $m_0,C_0$ (Asumo que las matrices tienen rango completo). Sé que el cálculo de la distancia L1 entre $P_1$ y $P_0$ : $$d_1=\int|dP_1-dP_0|$$
El caso fácil
es un ejercicio fácil cuando $C_0=C_1=C$ : $$d_1=2(2\Phi(\sigma/2)-1)$$ donde $$\sigma=\|C^{-1/2}(m_1-m_0)\|.$$ (norma de $\mathbb{R}^p$ ) y $\Phi$ es la fdc de una variable real gaussiana de media cero varianza 1.
No recuerdo el nombre de $\sigma$ (¿Norma RKHS? ¿Cameron martin?) pero también se puede escribir: $\|\mathcal{L}\|_{L_2(P_{1/2})}$ donde $\mathcal{L}$ es la función logarítmica de la razón de verosimilitud y $P_{1/2}$ es la distribución normal con media $(m_1+m_0)/2$ y varianza $C$ .
Mi pregunta es sobre cómo extender ese tipo de resultado para el caso en que $C_0\neq C_1$ (cálculo explícito de la distancia L1).
Veo dos posibles reducciones del problema si los cálculos son demasiado complicados:
- buscar una desigualdad que relacione la distancia L1 y alguna norma del cociente de probabilidades
- buscar alguna expresión exacta en un caso concreto, por ejemplo $C_1$ y $C_0$ diagonal.
La reducción 1 obtiene una respuesta parcial con la desigualdad general
$$d_1\leq 2\sqrt{K(P_1,P_0)}$$ (debido a pinsker o Lecam no recuerdo) donde $$K(P_1,P_0)=\int \log \left(\frac{dP_1}{dP_0} \right ) dP_1$$ es la divergencia de Kullback.
No estoy muy satisfecho con esta respuesta ya que en el caso $C_1=C_0$ es subóptima, no incluye una "media medida" $P_{1/2}$ (podría incluir $(P_0+P_1)/2$ utilizando el doble de la desigualdad, pero no me gusta mucho esta interpolación),...