2016-02-16 69 views

回答

0

根據我的理解,無論使用哪種架構(skip-gram/CBOW),都會從相同的單詞 - 矢量矩陣中讀取單詞向量。

如建議在paper的第二個腳註,V_INv'_out同一單詞的(比如)應該是不同的,他們假設的推導過程中從不同的詞彙來虧損功能。

實際上,單詞出現在自己的上下文中的概率非常低,大多數實現不保存同一單詞的兩個向量表示以節省內存和效率。