Todos sabemos que hay son las funciones de la distancia, como de Kullback Leibler distancia, Bhattacharyya medida, la distancia Euclídea, Wasserstein distancia, y así sucesivamente. Tomar una muestra de la distancia: $D=\sum\limits_n\left|P_n\left(\text{model}\right)-P_n\left(\text{sample}\right)\right|$. En concreto, si tenemos un modelo de distribución (función de densidad de probabilidad)$P\left(\text{model}\right)=[0.2,0.8]$, $n=2$, queremos calcular la distancia entre cada una de las muestras de la distribución y de este modelo de distribución. Si la distribución de la muestra es $P\left(\text{sample}1\right)=[0.3,0.7]$. A continuación,$D=\left|0.3-0.2\right|+\left|0.7-0.8\right|=0.2$. Pero no creo que es una buena medida de distancia ya que creo $0.8$ $0.7$ son más similares de lo que $0.2$$0.3$. Lo que quiero decir es que en el modelo de distribución, uno de los componentes es de 0.8, otro es de 0.2, la misma diferencia $a$ tiene más influencia en 0.2 desde 0.8 es bastante grande, de 0.2. Por lo que el peso de los componentes son diferentes. ¿Cómo debo incorporar peso en la ecuación de la distancia? Yo intente hacer una ecuación , como $D=\sum\limits_n\frac{\left|P_n\left(\text{model}\right)-P_n\left(\text{sample}\right)\right|}{P_n\left(\text{model}\right)}$, Pero parece ser incorrecto.
Respuesta
¿Demasiados anuncios?Prueba con
PS
Esto se usa en muchas pruebas estadísticas y se sabe que se distribuye aproximadamente$$D=\sum\limits_n \frac{\left(P_n \left(\text{model}\right)-P_n \left(\text{sample}\right)\right)^2}{P_n \left(\text{model}\right)} \; .$.