2016-07-01 56 views
0

我以創建Azure ML web服務爲例,在部署Web服務時遇到未知錯誤。錯誤沒有解釋,所以很難追蹤。Azure機器學習Web服務輸入數據問題

在演播室內運行實驗時,實驗運行時沒有任何問題。但是,當部署到webservice時,測試功能失敗,輸入與錄音棚中相同。

我也發佈了一個服務的樣本,以查看是否有人可以看到問題是什麼。

https://gallery.cortanaintelligence.com/Experiment/mywebservice-1

關於服務的一些信息:

的服務需要輸入作爲表示爲svmlight格式的稀疏特徵向量的字符串。它將返回輸入特徵向量的預測類。從部署的服務運行測試功能時,錯誤失敗,而演播室中的實驗正在運行,沒有任何問題。

希望任何人有一個想法是如何出錯的。

回答

0

使用測試對話框意味着您使用的是實時API的請求響應服務。這有http超時作爲完成請求的最大時間。由於特徵向量太長,請求會超時。可否請您嘗試使用批處理執行服務下面

https://azure.microsoft.com/en-us/documentation/articles/machine-learning-consume-web-services/#batch-execution-service-bes

+0

所描述的只是想專注於此刻的請求 - 響應服務。 我已經在Python Notebook上用相同的輸入測試了Python模型,它在微秒內運行得很快。 I –

+0

這裏有兩個問題,我不確定這是來自天藍色嗎? 1.我在桌面Python Notebook中運行python模型,運行速度很快,但在Azure ML Studio中運行時,該模塊需要幾分鐘的時間, 2. webservice的輸入數據是svmlight格式的字符串,到它的稀疏,字符串的長度可能非常小。我只測試了一個功能,問題仍然存在。如果這是輸入數據的問題,爲什麼它在演播室內運行。 –

+0

{ 「類型」: 「InvokeModuleEndEvent」, 「MODULENAME」: 「執行Python腳本RRS」, 「錯誤」: 「執行遇到一個內部錯誤。」}, { 「類型」: 「RequestSummary」, 「狀態「:」失敗「, 」錯誤「:」該模型已超出分配給它的內存配額。「} –