openears

    0熱度

    1回答

    我開始使用IPhone應用程序,在那裏我想使用語音控制啓動應用程序。應用程序應該在我們用iPhone說出單詞時開始。我正在使用OpenEars框架。 謝謝

    1熱度

    3回答

    我正在嘗試開發一種iOS語言應用,使用語音識別技術,但直到現在都沒有成功。 我嘗試過使用openEars框架,它對英語非常好用,但不支持法語。 我使用了這個link的一些信息。 如果有人知道解決方案,那將是非常棒的。 謝謝

    2熱度

    1回答

    我想在我的應用程序中實現6個單詞的關鍵字點擊。我已經下載了Openears,但識別的準確性非常差(只需點擊表格中的6個預定義單詞即可)。 OpenEars還有其他開源替代方案嗎?還是提高Openears準確性的方法? (我使用的6個字是英文)

    0熱度

    1回答

    我有一個使用OpenEars API讀取文本的iOS應用程序。我正在使用最新版本(1.2.5)。我無法弄清楚在閱讀文字時如何改變音高(「即時」)。我創建了一個滑塊來控制音高。當滑塊更改時,委託會被觸發。在委託函數中,FliteController target_mean被更改。目的是在target_mean值更改後立即改變音高。我的代碼如下: -(void)sayTheMessage:(NSStr

    0熱度

    2回答

    我已經制作了一個應用程序,它使用Openears框架來讀出一些文本。但我還沒有使用任何語音識別/語音合成功能,只是談話的語音功能。我的應用被蘋果拒絕,告知該應用要求獲得使用麥克風的權限,而該應用沒有任何此類功能。以下是從蘋果拒絕消息: During review we were prompted to provide consent to use the microphone, however,

    1熱度

    1回答

    我正在iPhone應用程序中工作,我曾經使用OpenEars Framework在iPhone中開發語音到文本轉換。最後,我運行應用程序,我得到的錯誤是這樣的: Duplicate symbol _cmu_syl_boundary in /Users/govindarajk/Desktop/VoiceCue/ VoiceCue/Framework/OpenEars.framework/

    0熱度

    2回答

    我正在製作一個語音識別應用程序,該應用程序可以在網絡不存在的情況下識別我的聲音,因此我正在使用OpenEars sdk。我已經拿了它的一個示例代碼,我已經做了一個類似的應用程序的示例代碼,但在我的代碼中我的openearsEventDelegate方法不是調用。 我已採用協議<openEarsEventObserverDelegate>和我的viewDidLoad方法我已設置openEarseve

    -1熱度

    1回答

    我在iPhone編程中使用open ears sdk進行語音識別和合成,但它是dictionary和.gram文件,它的語言模型文件只包含8個標準單詞,我需要在我的應用程序更多的話。如果我在.gram和.language模型和.dic文件中添加新詞,我的應用程序就會崩潰。 請提醒我如何在openears中添加新單詞,因爲我需要在這些文件中添加20個單詞。

    1熱度

    1回答

    我已經很好地瀏覽了此組中的主題,試圖查看此問題是否已在之前得到解決,但無法找到確切的事物。所以,如果這是老帽子,請道歉。請原諒我的問題的新手性質。 如何才能讓iOS應用識別語音輸入中的短語,只有當強度達到特定的分貝時?例如:當用戶說「你好」時,它應該捕獲語音,然後檢查短語以確定用戶是否在那裏打招呼或其他。也許,openears可能爲我解決這個問題。但是我怎麼測量聲音的強度呢?只有在110分貝處說出

    16熱度

    1回答

    我最近開始學習OpenEars語音識別,太棒了!但是我還需要支持俄語,法語和德語等其他語言的語音識別和口述。我發現here可用各種聲學和語言模型。 但我無法真正理解 - 這足以滿足我在應用程序中整合額外語言支持的需求嗎? 問題是 - 我應該採取哪些步驟才能在Open Ears中成功集成俄語? 據我的理解 - 在打開耳朵演示英語所有聲學和語言模型位於夾hub4wsj_sc_8k。相同的文件可以在vo