speech-to-text

    1熱度

    2回答

    MediaType AUDIO_WEBM無法解析。我錯過了什麼嗎?我收到下面的錯誤。 [ERROR] /C:/Users/IBM_ADMIN/workspace/ListenApp/src/main/java/com/ibm/watson/developer_cloud/speech_to_text/v1/util/MediaTypeUtils.java:[39,43] cannot find s

    0熱度

    1回答

    我想實現微軟bing語音api和它的前5次工作正常後,當我錄製我的聲音我得到異常在控制檯中。 異常:未捕獲DOMException:未能構造'AudioContext':提供的硬件上下文數量(6)大於或等於最大界限(6)。 當我嘗試關閉AudioContext.close()它顯示另一個錯誤,如「未捕獲(承諾)DOMException:無法關閉正在關閉或已經關閉的上下文」。 有人知道這是什麼錯誤。

    2熱度

    1回答

    感謝您打開此頁面。 我想將講座會議的音頻文件轉錄爲文本,並使用Speech to Text和curl文本。 也許我有一個基本錯誤。 我閱讀官方Bluemix文檔,但我無法理解它們。 我已經拿到了我的服務憑證。 但我無法設置它們。 我試着像這樣設置它們。 上Bluemix一個例子公文>> curl -X POST -u {username}:{password} --header "Content

    1熱度

    1回答

    是否可以限制Google Speech API只識別給定的單詞集?或者,是否有可能「禁止」某些詞語?如果沒有,是否有可能支持德語的任何其他語音API? 我知道我可以通過語音環境設置提示短語。它仍然認可一個不同的詞。 作爲一個例子,我主要使用德語的API。我想要識別「stärker」(也被列爲語音上下文提示)這個詞,然而,除非我最終發現「r」不自然地強壯,否則API大部分將其轉譯爲「Stärke」。

    3熱度

    1回答

    有什麼方法可以將用戶語音實時轉換爲文本使用R?只是好奇。如果任何人都可以分享一些關於他們在這個領域所做的事情的例子,這將是非常好的。謝謝。

    0熱度

    1回答

    我有一個音頻文件的大集合,其成績單以外語寫成。 我希望能夠識別用戶是否從文本中背誦正確的單詞。 我該如何開始使用CMU Sphinx來解決這個問題?我需要語言模型,聲學模型嗎? 我想請一些指導,並從哪裏開始。

    0熱度

    1回答

    我對Android編程有點新鮮,最近我發現了android上可用的文本API。我在網絡上發現了很多教程,很好地解釋瞭如何使用此功能,但所有這些教程都以相同的方式工作:應用程序使用意圖開始識別,編程時不指定輸入。 我的問題是:是否有可能像在Audiorecord中那樣做,並且準確地使用我們想要使用的音頻源? (例如MediaRecorder.AudioSource.MIC)? 我覺得是這樣做的標準方

    1熱度

    2回答

    我一直在苦苦尋找一段時間,並且一直在瀏覽很多關於如何使用Node.js在瀏覽器中啓用麥克風的示例。我看過幾個Javascript例子,但是我無法從他們那裏獲取口頭內容並將其存儲在變量中。我如何使用Node.js啓用麥克風?我需要一個特定的npm包嗎?我目前正在使用IBM Watson Speech to Text API。任何幫助表示讚賞!提前致謝!

    0熱度

    2回答

    我得到了Watson語音到文本在網上工作。我現在試圖在原生反應上做到這一點,但在文件上傳部分出現錯誤。 我正在使用HTTPS Watson API。我需要設置Content-Type否則Watson會返回錯誤響應。然而,在原生反應中,要使文件上傳起作用,我們似乎需要將'Content-Type'設置爲'multipart/form-data'。無論如何,在將Content-Type設置爲'audi

    0熱度

    1回答

    您好,我正在爲我的項目使用Watson Unity SDK。 我使用Speech to Text服務2種語言的英文和中文。 在Windows和Unity編輯器中,它非常完美! 但是建立在Android Watson之後只能用我的英文發言。 我使用TestSpeechToText.cs進行測試,在Inspector中更改語言,並且還在語言變量中進行編碼。 但現在仍在Android設備上工作。請幫幫我