tensorflow-serving

    -1熱度

    1回答

    我在websit Machine Learning repository上搜索數據集。 我想找到一些特定類型的數據集,可以用卷積神經網絡進行訓練。其實,我對此沒有太多經驗。 您能否讓我知道以上鍊接上哪種數據集可以用於CNN? 這將是對我來說更好,如果那種數據集並不大,因爲我用Tensorflow CPU 由於提前,

    0熱度

    1回答

    我剛剛研究了softmax迴歸,並且我有一個問題確實需要您的幫助。在這裏,我從MNIST softmax regression開始,在這種類型的問題中,它只計算精度而不提如何預測數據。 但我的問題是不同的: My training data form ,我想用給定的輸入來預測輸出 因此,我的數據,我定義了以下變量 x = tf.placeholder(tf.float32, [None, 2])

    0熱度

    2回答

    我使用GPU(1080 ti)訓練了一個神經網絡。 GPU上的訓練速度遠遠優於使用CPU。 目前,我想用TensorFlow Serving服務此模型。我只是想知道在服務過程中使用GPU對性能有相同的影響嗎? 由於培訓適用於批處理,但推理(服務)使用異步請求,您是否建議在使用TensorFlow服務爲模型提供服務時使用GPU?

    0熱度

    1回答

    我正在學習tensorflow並使用預先訓練過的權重的alexnet進行實驗。 我在13000次迭代後保存了,我正在嘗試在恢復後重新訓練模型。 但恢復後,權重不會隨着初始化中使用的值而改變。 爲什麼會發生這種情況?所有的代碼(甚至,tensorflow官方網站)剛剛推出的代碼來恢復: saver.restore(sess, "/tmp/model.ckpt") 但這代碼不會對這些變量有任何影響

    6熱度

    2回答

    目前,我從tf.contrib.lookup創建一個查找表,使用輸入中的訓練數據並初始化它。 然後,我將每個輸入都通過該查找表,然後傳遞給我的操作模型。 這適用於訓練,但是當它從同一模型來網上預報,它引發錯誤: Table not initialized 目前,我使用SavedModel從這個保存的保存模型,然後運行預測模型。 我該如何初始化這個表,以便它保持初始化? 或者有更好的方式來保存模

    10熱度

    1回答

    我有一個小型Web服務器,它根據句子獲取輸入,並需要使用Tensorflow服務返回模型預測。它使用我們的單GPU能夠很好地工作,但是現在我希望啓用批處理,以便Tensorflow Serving在GPU上一次處理它們之前等待輸入的句子。 我使用predesigned server framework與predesigned batching framework使用Tensorflow服務的初始版

    0熱度

    1回答

    我是tensorflow的新手,我有張量(字符串類型),其中存儲了我想用於訓練模型的所有必需圖像的圖像路徑。 問題:如何讀取張量進行排隊然後進行批處理。 我的做法是:是給我的錯誤 img_names = dataset['f0'] file_length = len(img_names) type(img_names) tf_img_names = tf.stack(

    0熱度

    1回答

    我一直在關注我訓練過的模型上的TensorFlow for Poets 2 codelab,並創建了一個嵌入了凍結的量化圖權重。它被捕獲在一個文件中 - 比如說my_quant_graph.pb。 由於我可以使用該圖進行TensorFlow Android inference library的推理,所以我認爲我可以對Cloud ML Engine做同樣的工作,但它似乎只適用於SavedModel模

    0熱度

    1回答

    我有一個迷你項目,用於我在Tensorflow這門新課程中的隨機主題。由於我有一些關於卷積神經元網絡的背景,我打算將它用於我的項目。我的電腦只能運行CPU版本的TensorFlow。 然而,作爲一個新的蜜蜂,我意識到有很多話題,例如MNIST,CIFAR-10等,因此我不知道我應該從他們中挑出哪個適合的話題。我只有還剩兩週。如果這個話題不太複雜,但卻不太容易研究,因爲它符合我的中級水平。 根據您的

    1熱度

    1回答

    我在檢查tf-serving的例子,發現inception_client.py使用result = stub.Predict(request, 10.0)而mnist_client.py使用result_future = stub.Predict.future(request, 5.0)。 有什麼區別?