0

我正在使用隱馬爾可夫模型爲N示例句子構建一個文本系統的語音以進行重新估計。在神經網絡的背景下,我瞭解時代的概念是指完整的訓練週期。我認爲這意味着「將相同的數據提供給相同的,更新的網絡,每次都有不同的權重和偏見」 - 糾正我,如果我錯了。「時代」對於HMM和神經網絡有不同的含義嗎?

同樣的邏輯工作,同時執行從相同的句子重新估計(即訓練)HMMs?換句話說,如果我有N個句子,我可以重複輸入樣本10次,以產生10 * N樣本。這是否意味着我正在執行10個關於HMM的新紀元?此外,這實際上是否有助於獲得更好的結果?

this紙張,我得到的在隱藏式馬爾剋夫模型的上下文中劃時代的印象是指單位時間內:

計數表示這是由加速度計用於特定產生 設備特定的數值量時間單位(epoch)(例如1至60秒)。

如果不是時間單位,時代至少聽起來不同。最後,我想知道:

  • 什麼是劃時代在HMM模型的背景下?
  • 與神經網絡中的 時代有何不同?
  • 考慮作爲訓練週期劃時代的定義,將多個曆元提高 的HMM重新估計?

回答

1

什麼是在HMM的上下文中的時代?

與神經網絡相同,一輪處理整個數據集。

它與神經網絡中的時代有什麼不同?

除了術語「epoch」沒有被廣泛用於HMM,沒有任何區別。人們稱之爲「迭代」。

從本文中,我得到的HMM模型的背景下劃時代的印象是指單位時間內

「大紀元」在本文中是不相關的HMM背景的話,那就是一個單獨的想法特定於該論文,你不應該從論文中概括術語用法。

考慮到epoch作爲訓練週期的定義,多個曆元會提高HMM的重估嗎?

有沒有這樣的東西,如多個時代提高重估無論是神經網絡還是HMM。每個時期都會提高準確度至某一點,然後發生過度訓練,驗證錯誤開始增加,並且訓練錯誤持續爲零。通常取決於模型架構有最佳的迭代次數。 HMM模型通常參數較少,不易過度訓練,所以額外的時期並不是那麼有害。儘管如此,還是有許多時代需要優化執行。

在語音識別中,它通常是Baum-Welch算法的6-7次迭代。較少的時代給你的模型不太準確,更多的時代可能導致過度訓練或者根本沒有改進任何東西。