pytorch

    0熱度

    1回答

    我的一位朋友實現了一個實際工作的稀疏版本的torch.bmm,但是當我嘗試一個測試時,我有一個運行時錯誤(與此實現無關),我不明白。我已經看到了幾個關於如何但無法找到解決方案的主題。下面是代碼,並且錯誤: if __name__ == "__main__": tmp = torch.zeros(1).cuda() batch_csr = BatchCSR() spar

    8熱度

    2回答

    爲什麼我們需要在pytorch中明確做零梯度。當loss.backward()被調用時,爲什麼不能將梯度歸零。通過保持圖上的梯度並要求用戶明確地將梯度歸零來實現什麼場景? 我在找一個很好的解釋。

    1熱度

    1回答

    ipdb> outputs.size() torch.Size([10, 100]) ipdb> print sum(outputs,0).size(),sum(outputs,1).size(),sum(outputs,2).size() (100L,) (100L,) (100L,) 如何總結列?

    1熱度

    1回答

    PyTorch的torch.transpose函數僅轉換2D輸入。文檔是here。 另一方面,Tensorflow的tf.transpose函數允許您轉置張量N任意尺寸。 有人可以請解釋爲什麼PyTorch不能/不能有N維轉置功能?這是由於PyTorch中計算圖構造的動態特性與Tensorflow的Define-then-Run範式相對應嗎?

    1熱度

    1回答

    我想要查找沿特定軸的張量中的非零元素的數量。有沒有可以做到這一點的PyTorch功能? 我試圖在PyTorch中使用nonzero()方法。 torch.nonzero(losses).size(0) 這裏,lossess是形狀64 x 1的張量。當我運行上面的語句時,它給了我以下錯誤。 TypeError: Type Variable doesn't implement stateless

    2熱度

    1回答

    如何在PyTorch中使用變量和張量執行元素乘法?兩個張量工作正常。用變量和標量運行正常。但是,試圖用一個變量和張量進行逐元素相乘,當我得到: XXXXXXXXXXX in mul assert not torch.is_tensor(other) AssertionError 例如,在運行時執行以下操作: import torch x_tensor = torch.Tenso

    1熱度

    1回答

    的點積 我使用的GPU計算神經網絡輸出和torch.cuda.FloatTensor(兩者都存儲在GPU)的點積,但得到一個錯誤說: TypeError: dot received an invalid combination of arguments - got (torch.cuda.FloatTensor) but expected (torch.FloatTensor tensor).

    0熱度

    1回答

    我正在學習CNN,我想用pytorch改變CNN模型與Wide Convolution,誰可以提供幫助? self.conv23 = nn.Conv2d(Ci, len(Ks) * Co, (3, Co), padding=1) Traceback (most recent call last): File "E:/workspace/pycharmworkspace/cnn-tex

    6熱度

    1回答

    在pytorch中,我們可以給打包的序列作爲RNN的輸入。從official doc,RNN的輸入可以如下。 輸入(seq_len,分批,input_size):張量包含輸入序列的特徵。輸入也可以是打包的可變長度序列。 例 packed = torch.nn.utils.rnn.pack_padded_sequence(embedded, input_lengths) outputs, hidd

    1熱度

    1回答

    我正試圖在PyTorch張量中找到不同的值。 有沒有一些有效的方法來複制Tensorflow的unique op?