pytorch

    0熱度

    1回答

    訓練時我無法弄錯我做錯了RNN。我試圖訓練RNN對於和序列操作(瞭解它如何在簡單的任務上工作)。 但是我的網絡沒有學習,損失保持不變,並且它不能模擬事件。 你能幫我找到問題嗎? 數據我使用: data = [ [1, 1, 1, 1, 0, 0, 1, 1, 1], [1, 1, 1, 1], [0, 0, 1, 1], [0, 0, 0, 0, 0, 0,

    0熱度

    1回答

    我正在訓練使用https://arxiv.org/abs/1310.4546中描述的着名模型的跳躍字嵌入。我想在PyTorch中訓練它,但是我收到錯誤,我無法弄清楚它們來自哪裏。下面我提供了我的模型類,訓練循環和配料方法。有沒有人對發生了什麼有所瞭解?我在行發生錯誤。它有一個<class 'torch.LongTensor'>問題,這很奇怪,因爲CrossEntropyLoss需要很長的張量。輸出

    0熱度

    1回答

    我打算在每層中實現2層和256個單元的LSTM。我正在嘗試瞭解PyTorch LSTM框架。我可以編輯的torch.nn.LSTM中的變量是input_size,hidden_​​size,num_layers,bias,batch_first,dropout和雙向。 但是,如何在單個圖層中有多個單元?

    0熱度

    1回答

    我想看看我在我的網絡中使用的圖片都是OK的,所以我使用下面的代碼保存的一羣人: train_set = dset.MNIST(root=root, train=True, transform=transforms.ToTensor(), download=download) for it, (img, target) in enumerate(train_loader): X = V

    0熱度

    1回答

    我有一個pytorch模型和tensorflow模型,我想在一個GPU上一起訓練它們,遵循以下流程:input --> pytorch model--> output_pytorch --> tensorflow model --> output_tensorflow --> pytorch model。 是有可能做到這一點?如果答案是肯定的,我會遇到什麼問題? 在此先感謝。

    0熱度

    2回答

    我需要添加一個L1規範作爲正則化函數,以便在我的神經網絡中創建一個稀疏條件。我想訓練我的網絡分類,我需要添加一個L1規範作爲正規化者來創建稀疏條件。我需要訓練網絡進行分類,我先從pytorch開始,但我沒有任何意識如何做到這一點。我嘗試着自己構建一個L1規範,比如here,但沒有工作。 有人可以幫助我嗎?我需要把ConvTranspose2d在此之後正則,我想做些事情像這樣Keras: model

    1熱度

    2回答

    在numpy的,V.shape列表給出了五的維整數的元組 在tensorflow V.get_shape().as_list()給出了V的尺寸的整數列表 在pytorch中,V.size()給出了一個大小對象,但是如何將它轉換爲整數?

    1熱度

    3回答

    我有一個分割圖像作爲獨特標籤1 ... k的2維矩陣。例如: img = [1 1 2 2 2 2 2 3 3] [1 1 1 2 2 2 2 3 3] [1 1 2 2 2 2 3 3 3] [1 4 4 4 2 2 2 2 3] [4 4 4 5 5 5 2 3 3] [4 4 4 5 5 6 6 6 6] [4 4 5 5

    1熱度

    1回答

    我正試圖在PyTorch中編寫一個非常簡單的機器翻譯玩具示例。爲了簡單的問題,我打開機器翻譯任務到這一個: 給定一個隨機序列([4, 8, 9 ...]),預測其元素的元素加1([5, 9, 10, ...])的序列。 Id:0, 1, 2將分別用作pad, bos, eos。 我在我的機器翻譯任務中發現了這個玩具任務中的同樣的問題。爲了調試,我使用了非常小的數據大小n_data = 50,並發現

    0熱度

    1回答

    我打算在Pytorch中實現一個帶有多個存儲單元塊 - 或多個LSTM單元的LSTM,每個層都有一個LSTM單元作爲存儲器塊的集合及其門 - 但似乎基類torch.nn.LSTM只能實現與一個LSTM單元的多層LSTM每層: lstm = torch.nn.LSTM(input_size, hidden_size, num_layers) 其中(從Pytorch的文檔): input_size