我目前正在嘗試在Google上使用休息Web服務編寫動作演示。ExpectedInputs/possible_intents僅適用於「assistant.intent.action.TEXT」?
當前用戶打開動作(「與測試動作交談」),並呈現歡迎消息(通過主要意圖)。此初始意圖期望用戶響應,並通過JSON響應中的possible_intents字段設置下一個預期意圖
根據the documentation我應該能夠在我的HTTP JSON響應的possible_intents中指定自定義意圖。
不過,如果我使用任何其他意圖比「assistant.intent.action.TEXT」,有一次我到初始意圖響應/提示,我得到以下錯誤:
Sorry, I did not understand.
而且響應最初的歡迎意向沒有正確地路由到我的服務。
這不起作用:
{
"response": "...",
"expectUserResponse": true,
"conversationToken": "...",
"audioResponse": "...",
"debugInfo": {
"agentToAssistantDebug": {
"agentToAssistantJson": {
"conversation_token": "...",
"expect_user_response": true,
"expected_inputs": [
{
"input_prompt": {
[...]
},
"possible_intents": [
{
"intent": "testintent"
}
]
}
]
}
}
}
}
這工作:
{
"response": "...",
"expectUserResponse": true,
"conversationToken": "...",
"audioResponse": "...",
"debugInfo": {
"agentToAssistantDebug": {
"agentToAssistantJson": {
"conversation_token": "...",
"expect_user_response": true,
"expected_inputs": [
{
"input_prompt": {
[...]
},
"possible_intents": [
{
"intent": "assistant.intent.action.TEXT"
}
]
}
]
}
}
}
}
我testintent在行動包正確定義,如果我直接調用它工作得很好。
難道真的只可以使用通用文本意圖,然後我必須做的所有文本匹配和意圖承認自己在代碼?
非常感謝您的回覆。是否有未來的計劃在最初觸發的意圖之後提供NLU服務,即通過動作SDK匹配除TEXT之外的意圖以允許基於意圖的對話? – Wasda
沒有計劃爲Actions SDK提供NLU。 –
好的 - 再次感謝您的快速回復。 – Wasda