我不知道如果我的理解是正確的,但...權重更新埋層與預訓練fasttext權
同時培養了seq2seq模型的目的,一個我要發起一組的前訓練的嵌入層中的快速文本權重是減少測試環境中的未知單詞(這些未知單詞不在訓練集中)。由於預先訓練fasttext模型具有較大的詞彙,在測試環境中,未知單詞可以通過fasttext外的詞彙字載體,其應該有的在訓練集中的語義相似的單詞相似方向表示。
然而,由於這樣的事實:在嵌入層中的初始權重fasttext將通過訓練過程來更新(更新的權重產生更好的結果)。我想知道更新後的嵌入權重是否會扭曲單詞之間語義相似性的關係並破壞fasttext詞表向量的表達? (並且在初始嵌入層中的那些更新的嵌入權重和詞向量之間,但是它們的對應ID沒有出現在訓練數據中)
如果輸入ID可以分佈表示從預先訓練的模型中提取的代表矢量,然後,通過查找表將這些預先訓練的單詞向量(訓練時的固定權重)映射到嵌入層(這些權重將在訓練時更新),這是否會是更好的解決方案?
任何建議將不勝感激!
非常感謝您的解決方案! – zuxfoucault
在閱讀您的答案時,它激發了我對另一種潛在解決方案的可行性的好奇心,這種解決方案正朝着與當前職位不同的方向發展。在最終的訓練模型中從嵌入層中提取那些微調的向量/權重並將它們替換回原始的fasttext向量是否可行? – zuxfoucault