En concreto, supongo que me pregunto sobre esta afirmación:
Las futuras versiones principales de TensorFlow permitirán que los gradientes fluyan en la entrada de etiquetas en backprop por defecto.
Que se muestra cuando uso tf.nn.softmax_cross_entropy_with_logits
. En el mismo mensaje me insta a echar un vistazo a tf.nn.softmax_cross_entropy_with_logits_v2
. He mirado la documentación pero sólo dice que para tf.nn.softmax_cross_entropy_with_logits_v2
:
La retropropagación se producirá tanto en los logits como en las etiquetas. Para no permitir la retropropagación en las etiquetas, pase los tensores de las etiquetas a través de stop_gradients antes de alimentar esta función.
en lugar de, tf.nn.softmax_cross_entropy_with_logits
's:
La retropropagación se producirá sólo en los logits.
Siendo muy nuevo en el tema (estoy tratando de abrirme camino con algunos tutoriales básicos) esas afirmaciones no son muy claras. Tengo un conocimiento superficial de la retropropagación, pero ¿qué significa realmente la afirmación anterior? ¿Cómo están conectados la retropropagación y las etiquetas? ¿Y cómo cambia esto mi forma de trabajar con tf.nn.softmax_cross_entropy_with_logits_v2
¿a diferencia del original?