0
加速的真正原因是什麼,即使fasttext論文中提到的流水線使用的技術是負樣本和最大softmax;在早期的word2vec論文中。我無法清楚地瞭解實際的差異,這會加速發生?真正的原因是加快速度上的提高
加速的真正原因是什麼,即使fasttext論文中提到的流水線使用的技術是負樣本和最大softmax;在早期的word2vec論文中。我無法清楚地瞭解實際的差異,這會加速發生?真正的原因是加快速度上的提高
有沒有那麼多的加速?
我不認爲有任何算法突破使FastText中的word2vec等價的單詞矢量訓練顯着加快。 (如果你在FastText中使用character-ngrams選項,爲了允許基於與訓練詞共享的子字符串的未見詞的矢量的訓練後合成,我期望訓練速度更慢,因爲每個單詞都需要訓練的子串向量)
FastText中的任何加速都可能只是因爲代碼調整良好,具有更多的實施經驗。
gojomo user2376672:你有沒有找到答案?我們有完全相同的問題:https://groups.google.com/forum/#!searchin/fasttext-library/satyam%7Csort:relevance/fasttext-library/hY6lNjmKE1A/kcY3nE-TAwAJ –
我相信我上面的回答是正確的:只有一個邊緣加速,這只是因爲增量優化的實現或庫(沒有算法突破)。如果你認爲上面的解釋不夠充分,那麼我的問題與@ user2376672相同 - 有沒有那麼多的加速? (你試圖解釋什麼樣的加速?) – gojomo