tensorflow-serving

    1熱度

    1回答

    我已經使用eclipse與bazel插件,但似乎無法將二進制文件綁定到gdb調試器。你如何在沒有調試能力的情況下開發自己的源代碼和可用服務? 只是看看有關選項,這是如何被其他開發者

    0熱度

    1回答

    我試圖編譯PB文件GRPC調用Tensorflow服務是不可能的原文件結構(在PHP,但問題不是PHP相關) 文件serving/tensorflow_serving/apis/predict.proto有: import "tensorflow/core/framework/tensor.proto"; import "tensorflow_serving/apis/model.proto";

    1熱度

    1回答

    部署的Tensorflow爲Inception-V3服務並運行測試。工作正常。 現在,想爲Inception-V3服務的批處理。 例如想要發送10個圖像進行預測而不是一個。 如何做到這一點?要更新哪些文件(inception_saved_model.py或inception_client.py)?這些更新是什麼樣子的?以及圖像如何傳遞給服務 - 它是以包含圖像的文件夾的形式傳遞的? 感謝您對此問題

    0熱度

    2回答

    我想服務使用tensorflow服務的再培訓開始圖。對於再培訓,我使用這個example。不過,我需要對此圖進行更改才能使其與serving export code配合使用。 自tensorflow服務,您將收到序列圖像作爲輸入,圖形輸入應與此開始: serialized_tf_example = tf.placeholder(tf.string, name='tf_example') feat

    0熱度

    1回答

    要找到Tensorflow版本,我們可以這樣做: python -c'import tensorflow as tf;打印(tf。版本)' Tensorflow服務是一個單獨的安裝,所以如何找到版本的Tensorflow服務? 和Tensorflow一樣嗎?沒有看到任何與此相關的參考/評論或文檔。

    0熱度

    1回答

    我正在安裝Tensorflow服務,我必須在Ubuntu中安裝tensorflow。我在tf根目錄下運行./configure命令。 這是輸出: Please specify the location of python. [Default is /usr/bin/python]: Please specify optimization flags to use during compilati

    1熱度

    2回答

    我正在嘗試從input獲取expected_out。 input = [[2],[3],[3]] expected_out = [2,3,3] 如何從input使用TensorFlow得到expected_out。

    0熱度

    1回答

    使用NLP/ML/word2vec/tensorflow進行預測。 我有來自服務請求實用程序的1000條記錄。 我有服務請求清單&執行人員採用自然英語語言(針對來自不同用戶的相同類型的請求,文本可能不同)的相應操作。 樣品record- 要求:除的xxx電子郵件別名,用戶ID YYY 行動:要求用戶得到管理員的批准,然後手動添加的用戶ID的郵件別名組。 我的理解是,這個數據可以用作我的模型(NLP

    0熱度

    1回答

    CNN cifar10教程(張量流程教程)給出了一個低層次的API讀取數據的例子作爲一個獨立的作業來訓練模型(多GPU)。 是否可以在低級線程支持和多/單GPU訓練的情況下使用高級API估算器? 我正在尋找一種方式來結合兩種: 從高級API定製的估計,細節https://www.tensorflow.org/extend/estimators input_fn的隊列,這給其描述相同的功能在http

    2熱度

    1回答

    我是tensorflow的新用戶,正在閱讀張量流服務示例中的mnist_export.py。 這裏有一些我無法理解: sess = tf.InteractiveSession() serialized_tf_example = tf.placeholder(tf.string, name='tf_example') feature_configs = { 'x':