tensorflow-gpu

    0熱度

    1回答

    我用來在Keras中設計我的GAN。但是,對於特定需求,我想將我的代碼調整爲Tensorflow。大多數甘斯實現與Tensorflow的使用類的GAN然後爲鑑別功能和發電機 其中給出的東西,看起來像這樣: class MyGAN(): def __init__(self): # various initialisation def generator(self,

    1熱度

    1回答

    這是一個有鑑別力的網絡,我正在訓練,所以我可以在生成網絡中使用它。我訓練了一個具有2個特徵的數據集並進行二元分類。 1 =打坐0 =不打坐。 (數據集來自siraj raval的視頻之一)。 由於某些原因,輸出層(ol)總是在每個測試用例中輸出[1]。 我的數據集:https://drive.google.com/open?id=0B5DaSp-aTU-KSmZtVmFoc0hRa3c impor

    0熱度

    1回答

    人們可以列出當前可見的設備一起Tensorflow: from tensorflow.python.client import device_lib LOCAL_DEVICES = device_lib.list_local_devices() (參見:How to get current available GPUs in tensorflow?) 然而,這似乎初始化和分配這些GPU。我們

    0熱度

    1回答

    我想從tensorflow中使用tf.train.shuffle_batch函數,然後我需要先使用tf.image.decode_jpeg(或其他類似的函數來加載png和jpg)加載圖像。但是我發現圖像被加載爲概率圖,這意味着像素值的最大值爲1,像素值的最小值爲0.下面是我從github回購庫更新的代碼。我不知道爲什麼像素的值被歸一化爲[0,1],並且我沒有找到張量流的相關文檔。任何人都可以幫我嗎

    1熱度

    1回答

    我正在尋找從不同的生產機器學習框架移植到TensorFlow。在我們當前的訓練和推理系統中,我們將模型的副本加載到機器上的GPU上。 我想現在保持這種負載平衡的方式。我在哪裏可以找到一個將TF模型的一個副本加載到機器上可用的每個GPU上的簡單示例?

    1熱度

    1回答

    我一直在試圖安裝在Windows 10 tensorflow-GPU,通過 PIP3安裝--upgrade tensorflow-GPU 當我做到這一點我打破目前安裝普通的tensorflow !,並得到這個錯誤:On Windows, running "import tensorflow" generates No module named "_pywrap_tensorflow" error。

    0熱度

    1回答

    我有一個pytorch模型和tensorflow模型,我想在一個GPU上一起訓練它們,遵循以下流程:input --> pytorch model--> output_pytorch --> tensorflow model --> output_tensorflow --> pytorch model。 是有可能做到這一點?如果答案是肯定的,我會遇到什麼問題? 在此先感謝。

    2熱度

    1回答

    我無法讓它工作!現在已經嘗試了近兩天了。安裝Cuda8和CuDnn 6 - 沒有工作。在這裏添加了寫在ImportError: libcudnn when running a TensorFlow program中的解決方案。 我得到的錯誤 - 回溯(最近通話最後一個): File "/home/shenath/tensorflow/lib/python3.5/site-packages/tens

    0熱度

    1回答

    當前正在運行培訓使用Tensorflow中的mnist-deep.py教程在Geforce 1080(8Gb)上使用機器頂部的16GB RAM。所有最新的CUDA庫和驅動程序都已安裝。一切都在Tensorflow 1.3上運行。 mnist-deep.py腳本一直工作正常,沒有任何錯誤,直到我決定執行一些Keras vdsr培訓(https://github.com/jackie840129/VD

    0熱度

    1回答

    我正在爲圖像增強培訓一個深度CNN,並且遇到了一個非常奇怪的問題。 我的網絡架構是完全卷積的,並實現了幾個小的「u形」組件,其中功能映射被下/上採樣以便在整個「頂層」中進行處理。在頂層,網絡有幾個節點「猜測」輸出圖像,然後將較低層的輸出添加到從猜測中導出的特徵。我對最終預測中的錯誤以及這些猜測都有所損失。 網絡正是如此定義: def convnet(x, weights, biases):