htk

    0熱度

    1回答

    我有一些在線手寫樣本的x-y座標,從中我正在計算一些統計參數,使用它我想製作一個基於HMM的識別器。 由於HMM工具包或HTK最初是用於語音識別,所以我無法理解如何使用HTK進行在線詞彙識別。 可有人請幫助我瞭解如何給我的參數輸入到該工具包,它會給輸出什麼?????

    1熱度

    1回答

    我的目標是通過HTK 3.4.1在OS X上做現場識別 首先,我做這件事是Ubuntu的10.0.4 。 我生成了聲學和語言模型後,也需要它。 我執行此命令來進行實時識別。 HVite -H am/tiehmm2m_5/newMacros \ -C config/liverecog.config \ -w lm/dgs.wdnet \ config/dgs

    0熱度

    2回答

    我正在用HTK工具包進行音樂檢索 特別是,我想讓歌手識別。 我覺得我想要做的就是接近說話人識別。 所以我研究了一些樣本和紅色的紅色HTK書。 但仍然無法找到很好的參考 是否有歌手識別或說話人識別任何很好的參考?

    0熱度

    1回答

    我試圖使用htk工具包的HDMan命令,但卻出現'致命'錯誤。 我的控制檯看上去象下面這樣: [email protected]:/host/Shekhar/htkWorld/trial_1$ ls beep dlog sentences (copy).txt sentences.txt~ try1.gram wlist dict monophones1 sentences.t

    0熱度

    1回答

    問候研究員, 我拼命試圖找到哪些文件,我將在HTK 3.4修改,這樣我就可以直接讀取音素/單音後probs的序列話語,並直接將其轉發給解碼器,給定了聲學和語言模型。 更詳細的,我正在關注包括第9步的HTK教程,我只是想在單聲道上工作。我的(自己的,特定的)特徵向量是具有每個音素的3個狀態的概率的向量序列,這類似於 (p(aa_begin),p(aa_mid),p(aa_end),...,p (z_

    3熱度

    1回答

    與this類似。由於我不想將語音數據傳遞給服務器,因此這可能會花費我更多的時間。我想知道是否可以使用HTK在Android應用程序本地識別語音數據,這樣我就不需要將該音頻傳遞給服務器。 Here可能是解決方案,但任何人都可以給我一個更詳細的教程,如何使用android ndk構建HTK?謝謝!

    0熱度

    1回答

    我已經嘗試了幾次編譯和安裝HTK,但我只是無法通過第5步! 當執行「make install的」(在「讓所有」執行正確)我得到以下的輸出: [email protected]:/bin/htk# make install (cd HTKTools && make all) \ || case "" in *k*) fail=yes;; *) exit 1;; esac; make[

    2熱度

    1回答

    我已經使用HTK(隱馬爾可夫模型工具包)識別來控制我的Android應用程序特定的命令 ,但在這種情況下,我需要一些語音數據傳遞到服務器,並且可能會消耗更多的時間。 爲了防止這種延遲,我正考慮使用pocketsphinx在Android應用程序中本地識別語音數據,以便我不需要將該音頻傳遞到服務器。 如果這是一個好主意,是很容易地從頭學起pocketsphinx?此外,兩種技術(基於服務器和本地語音

    1熱度

    1回答

    我打算進行力校準,並按照HTK手冊中的教程進行操作。 當我執行命令Hvite做力對齊, HVite -a -b sil -m -o SWT -I config/monophn.mlf -H am/hmm5/newMacros config/dgs.dict config/monophn.list mfc/0_1.mfc 我得到以下錯誤: ERROR [+8220] LatticeFromLab

    2熱度

    1回答

    這個問題就解決了一ULAW編碼SPH文件 我的任務: 我有以下的文件頭一個.sph文件: NIST_1A conversation_id -s4 2001 database_id -s25總機 - 1_release-2.0 channel_count -i 1 sample_coding -s4 ULAW channels_interleaved -s4 TRUE sample_count -i