62 votos

¿Por qué utilizamos la divergencia de Kullback-Leibler en lugar de la entropía cruzada en la función objetivo t-SNE?

En mi opinión, la divergencia KL de la distribución de la muestra a la distribución verdadera es simplemente la diferencia entre la entropía cruzada y la entropía.

¿Por qué usamos la entropía cruzada para ser la función de costo en muchos modelos de aprendizaje automático, pero usamos la divergencia Kullback-Leibler en t-sne? ¿Hay alguna diferencia en la velocidad de aprendizaje?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X