tensorflow

    1熱度

    1回答

    我成功地在Python 3.5上安裝tensorflow。 但我不能用tensorboard由於BaseHTTPServer.py剛剛支持的Python 2.x中, 然後我安裝tensorflow關於Python 2.7這會導致這些問題:如果你有權限問題 Error: [('/System/Library/Frameworks/Python.framework/Versions/2.7/Extra

    3熱度

    2回答

    谷歌有很多使用標誌的例子。他們都在定義中有描述。有沒有辦法將這些描述打印到終端? flags = tf.app.flags FLAGS = flags.FLAGS flags.DEFINE_boolean('test_mode', False, 'This is the description I want A.') flags.DEFINE_boolean('cool_mode', Tru

    2熱度

    1回答

    我已經在Windows上使用Docker安裝了tensorflow,我想轉到包含「classify_image.py」python文件的文件夾「tensorflow/models/image/imagenet」。 Can有人請問如何達到這個提到的路徑?

    39熱度

    6回答

    我在看谷歌的例子就如何部署和使用在Android預訓練Tensorflow圖(模型),一個例子: https://github.com/tensorflow/tensorflow/tree/master/tensorflow/examples/android 此示例使用.pb文件在:[這是該下載一個文件的鏈接自動] https://storage.googleapis.com/download.t

    2熱度

    1回答

    在Tensorflow CIFAR教程它談論使用多GPU和異步計算給出了這樣的警告: 「天真採用的模型參數異步更新導致次優的訓練表現,因爲個別型號副本可能在模型參數的陳舊副本上進行訓練,相反,採用完全同步更新將會像最慢的模型副本一樣慢。「 這是什麼意思?有人能提供一個非常簡單的例子來說明這個警告嗎?

    2熱度

    1回答

    我正在使用Tensorflow來培訓CNN。我目前正在計算Float32,這是初始化變量時的默認值。 我猜想,通過使用float64作爲我的D類,所以我改變了我的varibales的動初始化如下,我可以得到更準確的結果: w1 = tf.Variable(tf.random_normal([5, 5, 3, 64], stddev=0.1, dtype=tf.float64)) 但我得到以下的

    2熱度

    1回答

    我想用tf.image.extract_glimpse來構建張量流圖。 不幸的是我認爲API本身存在一個錯誤。我收到錯誤No shape function registered for standard op: ExtractGlimpse 其實是有下面的代碼在/usr/local/lib/python2.7/dist-packages/tensorflow/python/ops/attentio

    12熱度

    2回答

    TensorFlow構建了一種存儲數據的好方法。例如,這是用來將MNIST數據存儲在例如: >>> mnist <tensorflow.examples.tutorials.mnist.input_data.read_data_sets.<locals>.DataSets object at 0x10f930630> 假設有一個輸入和輸出numpy的陣列。 >>> x = np.random

    9熱度

    3回答

    我有三個張量,A, B and C張量流,A和B都是形狀(m, n, r),C是形狀(m, n, 1)形狀的二元張量。 我想根據C的值從A或B中選擇元素。最明顯的工具是tf.select,但不具有廣播語義,所以我需要首先明確廣播C相同的形狀,A和B. 這將是我在如何做到這一點的第一次嘗試,但它不我不喜歡將張量(tf.shape(A)[2])混合到形狀列表中。 import tensorflow a

    2熱度

    1回答

    我在BasicLSTMCells中使用tensorflow中的遞歸神經網絡。基本上,我有一個單詞id的輸入序列,我將每個id轉換爲單詞嵌入,將單詞嵌入一次一個地傳遞給rnn,然後在讀完整個序列之後對單個單詞進行預測。我的嵌入矩陣的維度爲V x H,其中V是我的詞彙量的大小,H是我的rnn中隱藏單元的數量。爲了預測下一個單詞,我將我的隱藏向量乘以一個大小爲H×V的權重矩陣,然後計算一個softmax