Quería ver un gráfico sobre cómo la divergencia KL entre una distribución normal estándar, y cualquier otra distribución normal con media 0, y desviación estándar siendo xx varía.
Lo necesito sobre todo para el cálculo de las pérdidas del autoencoder variacional, y hasta ahora he aprendido que hay que calcularlo así:
DKL=0.5∗(σ2+μ2−1−log σ2)DKL=0.5∗(σ2+μ2−1−log σ2)
Si pretendemos que sabemos que μμ es 0, asumo que podemos simplemente saltarnos ese paso, así que terminamos con
DKL=0.5∗(σ2−1−log σ2)DKL=0.5∗(σ2−1−log σ2)
En este gráfico se puede ver que la divergencia KL es 0 si xx es -1, 1, -0,37, 0,37. Si mi ecuación es correcta, debería significar la diferencia de una distribución normal con xx desviación estándar de una distribución normal estándar. No entiendo los valores negativos, pero desde luego no entiendo el valor de 0,37.
¿Me he equivocado en la ecuación o es lo esperado?