¿Cuál es la Kullback-Leibler divergencia de las dos de la T de Student de las distribuciones que se han desplazado y han escalado? Es decir, $\textrm{D}_{\textrm{KL}}(k_aA + t_a; k_bB + t_b)$ donde $A$ $B$ son de la T de Student de las distribuciones.
Si hace las cosas más fáciles, $A$ podría ser una Gaussiana. (Que es, pudo haber infinitos grados de libertad.)
La motivación detrás de esta pregunta es que la escala no central de la T de Student la distribución es la parte posterior de la distribución predictiva de una distribución normal de los datos en que se desconoce la media y la varianza. Por lo tanto, me gustaría comparar la verdadera distribución de $k_aA + t_a$ con la estimación de $k_bB + t_b$.