5 votos

Algoritmo de Skip-gram confusión

Como novato en NLP, estoy (profundamente) confundido por el paso intermedio en el siguiente diagrama que explica el algoritmo skip-gram. El video donde se presentó este diagrama se puede encontrar en: https://www.youtube.com/watch?v=ERibwqs9p38 (Agradezco mucho a la Universidad de Stanford y al profesor Manning por compartir el video)

Me surgieron dos preguntas:

  1. En el lugar donde el vector de la palabra central multiplica la matriz de palabras de contexto para generar tres vectores UoT*Vc. Dado el mismo vector de palabra central y la misma matriz de contexto, ¿por qué salieron tres vectores diferentes?

  2. La salida de la función softmax es una lista de probabilidades. Una lista de probabilidades que me muestran la probabilidad de que cada palabra en el vocabulario sea la palabra de contexto de la palabra central dada. ¿No sería suficiente tener solo un vector de este tipo? ¿Por qué los gráficos me muestran tres (diferentes) tales vectores para cada palabra de contexto?

enter image description here

Encontré una pregunta similar (puede que no sea exacta) en el siguiente enlace, pero aún no me sentí completamente respondido.

5voto

mclaughlinj Puntos 1099

El modelo skipgram produce una salida softmax para todas las palabras de contexto. El dibujo de la clase está incorrecto.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X