tensorflow

    0熱度

    1回答

    我想對MNIST執行一個簡單的邏輯迴歸,我剛剛安裝了TF,並且希望使用TensorBoard監視minibatch-SGD的進度。 我第一次沒有tensorboard它編譯並獲得了0.9166的測試集精度。 然而,當我加入tensorboard看看發生了什麼事情我甚至不能編譯它了我: the placeholders must be fed with dtype float但我所有的數組都是NP陣

    1熱度

    1回答

    我很感興趣如何在控制流程語句中使用張量(沒有會話)。 一個例子就是我的意思是: myTensor = tf.where(myOtherTensor) # shape == [None, 2] numLoops = tf.shape(myTensor)[0] # Results in tensor of shape [1] for i in xrange(numLoops): # ..

    16熱度

    1回答

    我的機器中有3個GTX Titan GPU。我運行Cifar10提供cifar10_train.py的例子,得到了以下的輸出: I tensorflow/core/common_runtime/gpu/gpu_init.cc:60] cannot enable peer access from device ordinal 0 to device ordinal 1 I tensorflow/c

    1熱度

    1回答

    我已經構建並訓練了一個模型。在第二階段,我想替換最後兩層,並使用不同的數據重新訓練它們。 我不斷得到錯誤的,即使我沒有在新瓦爾運行初始化未初始化變量: var_init_op = tf.initialize_variables(var_list=[fc1_weights, fc1_biases, fc2_weights, fc2_biases]) sess.run(var_init_op) 我明白

    1熱度

    1回答

    似乎內置檢查點工具不支持保存string變量?例如,這失敗: var = tf.Variable('hello world') saver = tf.train.Saver() 如果是這樣的話有什麼理由呢?

    2熱度

    1回答

    我正在試圖在程序執行過程中創建帶有圖像的CNN。我有一個遊戲環境(不是由我創建的),它產生的屏幕圖像取決於遊戲中採取的行動。這些行動由學習的CNN控制。 然後將這些圖像推送到RandomShuffleQueue中,從這個RandomShuffleQueue中,小批量出列並用於訓練正確動作的CNN。 我想這樣做(遊戲和訓練)異步,在其中玩遊戲並將其屏幕添加到用於訓練模型的單獨線程中的RandomSh

    5熱度

    2回答

    圖像鑑於點的插值採樣是灰度圖像我爲2D張量(尺寸W,H)和座標的張量Ç(DIM。無,2)。我想解釋的的列C如使用某種插值(雙線性很可能是罰款,我使用的情況下)在我,樣品我在這些座標座標,並將得到的值存儲在一個新的張量P(的尺寸沒有限制,即1維與儘可能多的條目ç具有行)。 這是可能的(有效)與TensorFlow?我所能找到的都是調整圖像大小(如果你喜歡的等距重採樣)的功能。但是我找不到任何可以在坐

    0熱度

    1回答

    我正在張量流中編寫自定義操作,我想引用已存在的操作,或者是我自己的用戶操作,或者其中一個內置操作。有沒有辦法做到這一點,而不僅僅是複製粘貼來自我指的另一個操作的代碼?

    14熱度

    1回答

    我是一個總的初學者TensorFlow,和我試圖將兩個矩陣相乘在一起,但我不斷收到寫着一個例外: ValueError異常:形狀TensorShape([尺寸(2) ])和TensorShape([尺寸(無),外形尺寸(無)])必須具有相同的等級 下面是最小的示例代碼: data = np.array([0.1, 0.2]) x = tf.placeholder("float", shape=[

    3熱度

    1回答

    我想分割兩臺機器的最小化功能。在一臺機器上,我打電話爲「compute_gradients」,在另一臺機器上我通過網絡發送帶有漸變的「apply_gradients」。問題是調用apply_gradients(...)。run(feed_dict)似乎不管用我做什麼。我試圖取代張量梯度的apply_gradients的插入佔位符, variables = [W_conv1, b_conv1, W_