是否可以使用示例數據來訓練Google Speech API以幫助識別我的應用程序?Google Speech API的正確識別結果
我的意思是像由wit.ai提供的所述一個的方法和所描述here(即使示例適用於NLP處理)。基本上,如果你可以預測你的用戶與你的機器人之間的交互,你可以訓練它來更好地執行。例如,我知道將使用的城市的子集,例如:當我說Zurich
,它變成Syria
或Siberia
似乎我不能讓機器人理解我,但我已經知道這是不可能的。因此,如果我假設我可以上傳首選使用的首選詞彙列表,並且如果找不到符合標準識別或類似方法的匹配項,我認爲它會獲得更好的結果。
任何想法,如果它是可能的和如何?我知道這些API處於測試階段,可能會發生變化,但我仍然想嘗試一下。
我可以上傳我目前做的一些示例代碼,但它只是發送音頻,到目前爲止分析的結果,所以沒有真正接近這個問題。
不dispare,它是一個輔助項目和ATM我沒有時間進行這項工作,但只要我回到這個我會讓你知道,如果你的答案可以幫助我(我發現信心已經,但可能忽略了多種選擇,我的印象是隻有一個不太確定) – ThanksForAllTheFish