tensorflow-xla

    1熱度

    1回答

    我正在嘗試關注XLA和JIT的教程(https://www.tensorflow.org/performance/xla/jit)。據https://www.tensorflow.org/performance/xla/jit#step_3_run_with_xla,當我運行命令 https://www.tensorflow.org/performance/xla/jit#step_3_run_w

    0熱度

    1回答

    我已經將數據集分成了10個tfrecords文件,我想從每個文件中讀取100個數據點以創建一個包含100個數據點的10個序列的批次。我使用以下功能來做到這一點。 tfrecords的數據加載時間開始較慢,然後達到0.65s左右,100-200之後sess.run稱它增加到10s左右。您能否指出可能有助於減少閱讀時間的錯誤或建議?另外,我提到的行爲有時更加不穩定。 def get_data(mini

    0熱度

    1回答

    我想出來的XLA教程說明如下:XLA不是「不_XlaCompile無效參數」:運行https://www.tensorflow.org/performance/xla/jit 我從https://raw.githubusercontent.com/tensorflow/tensorflow/r1.1/tensorflow/examples/tutorials/mnist/mnist_softmax

    1熱度

    1回答

    這裏是爲了澄清我的意思是一個例子: 首先session.run(): First run of a TensorFlow session 後來session.run(): Later runs of a TensorFlow session 我明白TensorFlow在這裏做一些初始化,但我想知道這在源代碼中的位置。這發生在CPU和GPU上,但在GPU上效果更加突出。例如,在明確的Conv2D操作

    0熱度

    2回答

    我有兩個張量x和s與形狀: > x.shape TensorShape([Dimension(None), Dimension(3), Dimension(5), Dimension(5)]) > s.shape TensorShape([Dimension(None), Dimension(12), Dimension(5), Dimension(5)]) 我想通過尺寸1廣播x和s之間

    2熱度

    1回答

    我已經編寫了簡單的python程序,以便將兩個值相乘並且預期會填充tensorboard圖。 我正在使用Windows - CPU機器。 然後執行我的程序它產生的日誌目錄路徑名爲所需的圖形事件文件後events.out.tfevents.1504266616.L7 我用下面的命令來tensorboard開始: tensorboard --logdir C:\\Users\\SIMBU\\pytho

    0熱度

    1回答

    鑑於 a = tf.constant([[1, 2, 3], [10, 20, 30], [100, 200, 300], [1000, 2000, 3000]]) 以下全部是等價的 b = tf.constant([100000, 200000, 300000]) print((a+b).eval()) bb = tf.constant([[100000, 200000, 300000

    1熱度

    3回答

    我試圖找到一個實際的Conv2D操作的實現,所以我可以評估內存訪問模式。跟蹤事物,看起來Conv2D操作的執行通過contract()函數調用進入Eigen。問題是,我似乎無法在TensorFlow或Eigen源中找到函數的定義或聲明。 什麼函數主要負責在TensorFlow中執行Conv2D操作?我想看看它是如何癱瘓的,一般的內存訪問模式是什麼,以及原始計算是如何完成的。 該查詢專門用於CPU,