tensorflow-serving

    3熱度

    3回答

    我正在運行tf.contrib.learn TensorFlow服務中的寬和深模型並導出訓練好的模型我是使用一段代碼 with tf.Session() as sess: init_op = tf.initialize_all_variables() saver = tf.train.Saver() m.fit(input_fn=lambda: input_fn

    1熱度

    1回答

    我有與此相關的一個問題:設置 TensorFlow in production for real time predictions in high traffic app - how to use? 我想TensorFlow服務做推斷爲我們的其他應用程序的服務。我看到TensorFlow Serving如何幫助我做到這一點。此外,它提到了一個continuous training pipeline

    1熱度

    2回答

    我剛開始使用張量流。我能夠成功地訓練它以創建我創建的數據集。現在的問題是,我將如何能夠使用此模型進行預測。我想把它作爲一個REST服務,我將能夠傳遞一些值並獲得預測作爲響應。任何有用的鏈接也歡迎。該模型目前在虛擬機上。 謝謝:)

    2熱度

    1回答

    我想在Android應用程序中使用我的Tensorflow算法。 Tensorflow Android示例首先下載一個包含模型定義和權重的GraphDef(在* .pb文件中)。現在這應該來自我的Scikit Flow算法(Tensorflow的一部分)。 第一眼看起來很簡單,你只需要說classifier.save('model /'),但保存到該文件夾​​的文件不是* .ckpt,* .def

    2熱度

    2回答

    有人可以幫助我對TensorFlow的寬和深學習模型進行預測加載到TensorFlow服務的model_server? 如果任何人都可以指向我的資源或相同的文檔將非常有幫助。

    3熱度

    1回答

    作爲tensorflow紙狀態,Tensorflow的跨裝置的通信是通過將‘接收節點’和‘發送節點’到設備來實現的。 從我的理解,該設備(請只考慮CPU的設備都參與)負責執行操作的計算。但是,數據(例如:從操作產生的張量,可變緩衝區)駐留在內存中。我不知道如何實現從一個設備到另一個設備的數據傳輸物理。我猜數據傳輸是通過共享內存來實現的。是對的嗎? 我將理解任何解釋/對應關於所述數據傳輸是如何實現的

    1熱度

    1回答

    在這個Tensorflow Distributed Training代碼示例中,sess.run([train_op, global_step])將被多次調用(在while循環中)。由於在執行DAG操作之前,Tensorflow首先需要將圖形節點放置到某些設備(節點放置過程)。 在這種情況下,我想知道需要完成多少個節點佈局過程。假設循環次數是N,Tensorflow系統是否僅執行一次節點放置? O

    1熱度

    1回答

    我使用exporter從tensorflow.contrib.session_bundle救了我的模型: x = tf.placeholder(tf.float32, (None,) + (100, 200) + (1,)) .... saver = tf_saver.Saver(sharded=True) model_exporter = exporter.Exporter(saver)

    2熱度

    1回答

    我跑的ubuntu AWS機器的羣集上tensorflow分佈式以來模型,並輸出經由時間表 # Track statistics of the run using Timeline run_options = tf.RunOptions(trace_level=tf.RunOptions.FULL_TRACE) run_metadata = tf.RunMetadata() # Run

    2熱度

    1回答

    我是TensorFlow的新手,在閱讀數據的過程中遇到了一些問題。我在mnist數據上設置了一個TensorFlow圖表,但我想修改它,以便我可以運行一個程序來訓練它+保存模型,然後運行另一個程序來加載所述圖形,進行預測並計算測試精度。 如果我感到困惑的是如何繞過訓練圖中的原始I/O系統,並「注入」一個圖像來預測測試數據的元組(圖像,標籤)以進行精度測試。要閱讀訓練數據,我正在使用此代碼: _,