tensorflow-gpu

    0熱度

    1回答

    我使用"scaleTier": "BASIC_GPU"運行谷歌的雲ML工作,和下面的表列出的應用細節: 我在自定義估算器上使用learn_runner.run(...)執行實驗,並使用基於管道的方法使用文件名隊列提供輸入以讀取數據。 正在使用管道爲基礎的低內存利用率的主要原因,是否有我應該考慮優化培訓利用率?

    0熱度

    2回答

    我有一個索貝爾濾波器 sobel_x = tf.constant([[-1, 0, 1], [-2, 0, 2], [-1, 0, 1]], tf.float32) 我想要得到的64中深度的形狀是暫時[3,3,1],但應引起[3,3,64]。 這怎麼辦?隨着下面的行,我得到形狀錯誤。 tf.tile(sobel_x, [1, 1, 64]) ValueError: Shape must

    1熱度

    2回答

    我知道使用TensorFlow可以手動控制我們聲明變量的位置(例如:GPU上的神經網絡的一半以及其他GPU上的剩餘部分)。 儘管可以肯定的是,我們可以將多個GPU 手動變量,它們可以被放置自動這些多GPU,如使用自動變量放置? TensorFlow的文檔似乎從未明確提及自動設備放置是否處理多GPU情況。 例如,假設我用Keras與TensorFlow後端建立模型。如果模型不適合第一顆GPU,因爲它

    0熱度

    1回答

    爲了學習的需要,我想檢查tf.Metrics.mean_squared_error的準確性。令我驚訝的是,他們有很大的不同。我正在尋求解釋。這裏是我的體驗簡介,然後是我的示例代碼: 1)通過tf.Metrics.mean_squared_error評估整個訓練數據的訓練過的玩具模型;和 2)在步驟1之後立即再次評估,首先收集給定相同整個訓練數據的所有「Xs」(或圖像)的預測,然後用所有的基本事實(

    3熱度

    1回答

    我正在使用keras 2.0.6。張量流的版本是1.3.0。 我的代碼可以與theano後端運行,但與tensorflow後端失敗: ˚Ftensorflow /核心/框架/ tensor_shape.cc:241]檢查失敗:大小> = 0(-14428307456對0) 我想知道是否有人可以想到可能導致此問題的任何可能的原因。 謝謝! ---- ----- UPDATE 我測試完全相同的代碼我與

    2熱度

    1回答

    我有一個knn分類項目,需要計算歐氏距離和tensorflow進行比較。 原始代碼而不tensorflow是這樣的: def euclidean_distance(self,x1, x2): distance = 0.0 for i in range(len(x1)): distance += pow(x1[i] - x2[i], 2)

    0熱度

    2回答

    這個張量流代碼沒有響應,我找不出原因。請幫忙! import tensorflow as tf #reading the file with tf.name_scope ('File_reading') as scope: filename_queue = tf.train.string_input_producer(["forestfires.csv.digested"])

    0熱度

    1回答

    香港專業教育學院寫了seq2seq網絡,使用Facebook fastText向量我的嵌入。我遇到了一個問題,即模型將運行並訓練40%的時間,然後在60%的訓練開始時隨機掛起。 我考慮的一些事情是對我的參數進行的任何調整都可能導致瓶頸,因爲emebeddings有多大,300x100000和序列長度平均爲10個單位。這表示使用nvidia-smi我可以看到它不是一個計算瓶頸,因爲GPU在特定時間只

    0熱度

    1回答

    我有以下錯誤試圖增加batch_size對Nvidia的K80 CNN的模型: 2017-08-07 20:33:38.573318: W tensorflow/core/common_runtime/bfc_allocator.cc:217] Allocator (GPU_0_bfc) ran out of memory trying to allocate 3.04GiB. The calle

    0熱度

    1回答

    我正在使用tf-slim從幾批圖像中提取特徵。問題是我的代碼工作爲第一批,在那之後,我得到的title.My代碼中的錯誤是這樣的: for i in range(0, num_batches): #Obtain the starting and ending images number for each batch batch_start = i*training_batch_