0
我想在將要部署到Android的Unity項目上使用Azure實現語音到文本功能。 我試過這個例子: https://docs.microsoft.com/en-us/azure/cognitive-services/speech/getstarted/getstartedcsharpdesktop 但我不知道我應該如何實現這個在我的團結項目。任何人都可以將我指向正確的方向嗎?Unity語音與Azure文字
我想在將要部署到Android的Unity項目上使用Azure實現語音到文本功能。 我試過這個例子: https://docs.microsoft.com/en-us/azure/cognitive-services/speech/getstarted/getstartedcsharpdesktop 但我不知道我應該如何實現這個在我的團結項目。任何人都可以將我指向正確的方向嗎?Unity語音與Azure文字
基於我的理解,我認爲你正在開發一個使用Unity的Android應用程序。考慮到Android客戶端庫的兼容性,我建議最好的方法是在C#中使用其他tutorial來實現REST API,以便在Unity項目中實現您的需求,首先您需要實現一個功能來錄製語音音頻文件,然後將其作爲REST API的請求主體傳遞。請參考Speech Websocket Protocol。
希望它有幫助。任何問題,請隨時讓我知道。
嗨,謝謝你的回答。我相信實時流式傳輸不適用於REST API嗎? – 199user911
@ 199user911當然。但它的[websocket API支持中間結果](https://docs.microsoft.com/en-us/azure/cognitive-services/speech/home#speech-to-text-speech-recognition)。請參閱關於[Speech Websocket Protocol](https://docs.microsoft.com/zh-cn/azure/cognitive-services/speech/api-reference-rest/websocket協議)的文檔以實現您的實時需求流。 –