tensorflow-serving

    1熱度

    1回答

    我培養出「遞歸神經網絡」是繼tutorial來預測下一個單詞,並得到了一個模型: model/ model/model.ckpt-72985.data-00000-of-00001 model/model.ckpt-72883.meta model/model.ckpt-72793.meta model/model.ckpt-72985.meta model/model.ckpt-727

    0熱度

    1回答

    在運行Tensorflow服務如何驗證它使用GPU來服務? 配置Tensorflow以在./configure期間使用GPU。 試圖監控NVIDIA-SMI在運行推斷它表明沒有發現任何正在運行的進程。

    0熱度

    1回答

    我有一個語言學習應用程序,並希望檢測用戶的發音,說某些單詞和句子。 如果我可以提供1000個用戶音頻文件,每個文件的發音含義都超過了100,我可以預測發音有多好?

    2熱度

    1回答

    如何使用max_batch_size,batch_timeout_micros,num_batch_threads和其他參數進行批量性能調整?嘗試使用這些參數與查詢客戶端,它不起作用。 在下面的例子中,我有100個圖像,我想批量大小爲10.查詢對所有圖像運行而不是10. bazel-bin/tensorflow_serving/example/demo_batch --server = local

    1熱度

    1回答

    到目前爲止,我設法導出了Tensorflow模型,然後使用Tensorflow模型服務器爲該模型提供服務。然後我可以通過創建一個通過gRPC與Tensorflow服務器通信的客戶端來做出預測。 基本上我已經按照這個tutorial 這已經全部用Python完成到目前爲止這是很好的,但我需要能夠調用使用Java的Tensorflow服務器。換句話說,我需要創建一個Java客戶端。 我的基本理解是我需

    0熱度

    1回答

    嘿,我是新來Tenserflow,我從混帳的tenserflow代碼(https://github.com/tensorflow/serving),當我嘗試了,使用中的步驟建立文檔,我得到這個錯誤: ERROR: com.google.devtools.build.lib.packages.BuildFileContainsErrorsException: error loading packag

    4熱度

    2回答

    我正嘗試使用Google Cloud ML託管Tensorflow模型並獲取預測結果。我有一個預先訓練好的模型,我已經上傳到雲端,並且在我的Cloud ML控制檯中創建了一個模型和版本。 我按照指示from here來準備我的數據以請求在線預測。對於Python方法和glcoud方法,我都會得到相同的錯誤。爲簡單起見,我會發布的gcloud方法: 我跑gcloud ml-engine predic

    0熱度

    1回答

    我在TensorFlow中實現了一種新型的NN。區別在於評估函數,所以不要致電tf.matmul(),而是調用我自己的函數,我們將其稱爲My_Function(A)。 代碼片段可以在下面看到,其中A是左邊的張量乘以這個新的NN實現,它在右邊。等效張量流代碼將爲tf.matmul(A, this_new_NN)。 def My_Function(self, A): dims = A.get

    1熱度

    1回答

    恢復張量流中的ckpt模型需要很長時間。我目前使用的是tensorflow-gpu 1.0.0.rc0。我的模型大約是500M,恢復模型大概需要1分鐘。但是,當我使用tensorflow-gpu 0.11.0恢復相同的模型時,只需要幾秒鐘。任何想法爲什麼發生這種情況

    0熱度

    1回答

    如何選擇適當版本的Python運行時與TensorFlow 1.0一起使用?