tensorflow-serving

    0熱度

    2回答

    我對分佈式計算的世界有點新鮮。我正在閱讀官方tensorflow教程中的following,但我對本教程的主要示例中正在發生的事情感到困惑。 特別是,如何在PS任務和工作人員互動? ps工作的作用究竟是什麼?他們在代碼中的相應部分是相當有限的,他們似乎沒有做太多,所以他們的目的是什麼?我想我不明白我們的分佈式系統的各個部分是如何協同工作的。 這將是巨大的,如果有人能解釋一下你在不同的過程和他們的行

    8熱度

    2回答

    我想在Ubuntu上構建Tensorflow服務。我已經編譯Tensorflow和Tensorflow從源服務沒有錯誤,但是當我運行: bazel test -c opt tensorflow_serving/... 我得到以下錯誤: //tensorflow_serving/model_servers:tensorflow_model_server_test TIMEOUT in 31

    0熱度

    2回答

    我目前正試圖熟悉Tensorflow庫,並且我有一個相當基本的問題,那就是錯誤。 在爲MNIST分類構建卷積神經網絡時,我嘗試使用自己的model_fn。其中通常會出現以下行來重新塑造輸入要素。 ,其中-1表示輸入批量大小。 由於我使用這個節點作爲輸入到我的卷積層, x = tf.reshape(x, shape=[-1, 28, 28, 1]) conv1 = tf.layers.conv2d

    0熱度

    1回答

    你好我想在下面的代碼中初始化名爲result的變量。 我嘗試使用此代碼初始化*當我嘗試服務。 sess.run(tf.global_variables_initializer(),feed_dict = {userLat:0,userLon:0}) 只想初始化變量。 使用該變量的原因是編寫validate_shape = false。 使用此選項的原因是爲了解決錯誤:將模型版本部署到Google

    1熱度

    1回答

    我已經導出了一個DNNClassifier模型並使用docker在tensorflow服務的服務器上運行它。之後,我寫了一個python客戶端與tensorflow交互 - 爲新的預測服務。 我已經寫了下面的代碼來獲得來自tensorflow-serving服務器的響應。 host, port = FLAGS.server.split(':') channel = implement

    0熱度

    1回答

    我使用計算梯度(tf.vars是有訓練的張量清單) x = tf.gradients(y,tf.vars) 現在假設我想申請這個梯度使用optimizer.apply_gradients,然後我需要給出一個包含(gradient,variable)形式元組的列表。 如何生成這樣的列表? optimizer.apply_gradients(??) 什麼在空間?

    0熱度

    1回答

    以下是我用於設計策略梯度算法的一部分代碼。在張量流中: self.activation = tf.contrib.layers.fully_connected(inputs= state,num_outputs =\ num_actions,activation_fn=tf.nn.relu6,weights_initializer=tf.contrib.layers.xavier_initial

    1熱度

    1回答

    我已經看了幾篇文章,在stackoverflow和已經在它幾天了,但唉,我無法通過張量流服務正確服務對象檢測模型。 我訪問以下鏈接: How to properly serve an object detection model from Tensorflow Object Detection API? 和 https://github.com/tensorflow/tensorflow/issu

    0熱度

    1回答

    我已創建自定義的TensorFlow運營商在C++類似的例子tensorflow /用戶/ OPS /和TensorFlow會話中使用時,他們工作的罰款。 當使用操作者保存SavedModel,所得saved_model確實包含運營商(至少這樣的模型的文本協議緩衝器的粗略的檢查表明)。試圖用tensorflow_model_server服務這個當然會失敗,因爲運營商是未知的。 於是我開始與指定us

    0熱度

    2回答

    系模型的 Python代碼tensorflow模型。客戶端的例子: loaded_model = tf.saved_model.loader.load(sess, ["serve"], '/tmp/model/export/Servo/1506084916') input_dict, output_dict =_signature_def_to_tensors(loaded_model.sign