pytorch

    0熱度

    1回答

    我想訓練一個簡單的MLP來近似y = f(a,b,c)。 我的代碼如下。 import torch import torch.nn as nn from torch.autograd import Variable # hyper parameters input_size = 3 output_size = 1 num_epochs = 50 learning_rate = 0.0

    2熱度

    3回答

    我有3TB數據集和64GB內存以及一個12核心CPU和一個12GB GPU。想要在這個數據集上訓練一個深度學習模型。我如何獲得批次的異步加載和模型的培訓?我想確保數據的磁盤加載不會阻止訓練循環等待新批處理加載到內存中。 我不是語言依賴,最簡單的庫可以做到這一點沒有摩擦勝,但我更喜歡火炬,pytorch,tensorflow之一。

    2熱度

    1回答

    我將此作爲問題提交給cycleGAN pytorch implementation,但由於沒有人在那裏回覆我,我會在此再次提問。 我主要困惑的事實,多次向前傳球被一個單一的向通行之前調用,查看代碼cycle_gan_model # GAN loss # D_A(G_A(A)) self.fake_B = self.netG_A.forward(self.real_A) pred_fake =

    2熱度

    2回答

    我正在嘗試使用CNN實現text classification model。據我所知,對於文本數據,我們應該使用1d卷積。我在使用Conv2d的pytorch中看到一個示例,但我想知道如何將Conv1d應用於文本?或者,這實際上是不可能的? 這裏是我的模型場景: Number of in-channels: 1, Number of out-channels: 128 Kernel size :

    0熱度

    1回答

    當我在不同的GPU(Tesla K-20,cuda 7.5,6GB內存)中運行代碼時,出現以下錯誤(請參閱堆棧跟蹤) )。如果我運行在GeForce 1080或Titan X GPU上,代碼可以正常工作。 堆棧跟蹤: File "code/source/main.py", line 68, in <module> train.train_epochs(train_batches, dev

    3熱度

    1回答

    我在嘗試加載保存的模型時出現以下錯誤。 KeyError: 'unexpected key "module.encoder.embedding.weight" in state_dict' 這是我使用加載保存的模型的功能。 def load_model_states(model, tag): """Load a previously saved model states."""

    5熱度

    3回答

    對Pytorch模型執行超參數優化的最佳方法是什麼?實現例如隨機搜索我自己?使用Skicit學習?還是還有什麼我不知道的?

    3熱度

    1回答

    我試圖在pytorch中實現向後的漸變函數。 但是,我不知道爲什麼這個值返回。 這是我的代碼。 x = Variable(torch.FloatTensor([[1,2],[3,4]]), requires_grad=True) y = x + 2 z = y * y gradient = torch.ones(2, 2) z.backward(gradient) print(x.gr

    1熱度

    1回答

    我是pytorch的新手。我想了解爲什麼我們不能在一個包含比例尺說變量[2,2]的變量的變量上調用後向函數。 如果我們確實想調用一個包含張量說say [2,2]的張量的變量,我們必須首先定義一個梯度張量,然後在包含張量的變量上調用後向函數梯度。

    1熱度

    3回答

    我的問題可以分爲兩部分。 是否有可以通過不同的庫使用的機器學習模型文件的格式?例如,我通過pytorch保存了一個模型,然後使用tensorflow加載它? 如果沒有,是否有一個庫可以幫助傳輸格式,以便可以直接在keras中使用pytorch機器學習模型? 我之所以問這個問題,是因爲最近我需要調整一些我以前在tensorflow中訓練過的模型到pytorch。 此問題的更新: Facebook和微