2017-01-02 60 views
4

我目前正在嘗試在Google上使用休息Web服務編寫動作演示。ExpectedInputs/possible_intents僅適用於「assistant.intent.action.TEXT」?

當前用戶打開動作(「與測試動作交談」),並呈現歡迎消息(通過主要意圖)。此初始意圖期望用戶響應,並通過JSON響應中的possible_intents字段設置下一個預期意圖

根據the documentation我應該能夠在我的HTTP JSON響應的possible_intents中指定自定義意圖。

不過,如果我使用任何其他意圖比「assistant.intent.action.TEXT」,有一次我到初始意圖響應/提示,我得到以下錯誤:

Sorry, I did not understand.

而且響應最初的歡迎意向沒有正確地路由到我的服務。

這不起作用:

{ 
    "response": "...", 
    "expectUserResponse": true, 
    "conversationToken": "...", 
    "audioResponse": "...", 
    "debugInfo": { 
     "agentToAssistantDebug": { 
      "agentToAssistantJson": { 
       "conversation_token": "...", 
       "expect_user_response": true, 
       "expected_inputs": [ 
        { 
         "input_prompt": { 
          [...] 
         }, 
         "possible_intents": [ 
          { 
           "intent": "testintent" 
          } 
         ] 
        } 
       ] 
      } 
     } 
    } 
} 

這工作:

{ 
    "response": "...", 
    "expectUserResponse": true, 
    "conversationToken": "...", 
    "audioResponse": "...", 
    "debugInfo": { 
     "agentToAssistantDebug": { 
      "agentToAssistantJson": { 
       "conversation_token": "...", 
       "expect_user_response": true, 
       "expected_inputs": [ 
        { 
         "input_prompt": { 
          [...] 
         }, 
         "possible_intents": [ 
          { 
           "intent": "assistant.intent.action.TEXT" 
          } 
         ] 
        } 
       ] 
      } 
     } 
    } 
} 

我testintent在行動包正確定義,如果我直接調用它工作得很好。

難道真的只可以使用通用文本意圖,然後我必須做的所有文本匹配和意圖承認自己在代碼?

回答

5

使用Actions SDK時,只支持TEXT意圖。您必須使用您自己的NLU來解析用戶提供的原始文本輸入。

如果您沒有自己的NLU,那麼我們推薦使用API​​.AI.

+1

非常感謝您的回覆。是否有未來的計劃在最初觸發的意圖之後提供NLU服務,即通過動作SDK匹配除TEXT之外的意圖以允許基於意圖的對話? – Wasda

+0

沒有計劃爲Actions SDK提供NLU。 –

+0

好的 - 再次感謝您的快速回復。 – Wasda