pytorch

    0熱度

    1回答

    我有一個PyTorch腳本16進程。以下是從主要處理的代碼片段: procs = [mp.Process(target=self.worker_wrapper, args=(i,)) for i in range(self.n_workers)] for p in procs: p.start() while True: time.sleep(60) for i, p in

    0熱度

    1回答

    我收到以下錯誤消息。 AttributeError: cannot assign module before Module.init() call 我有一個類如下。 class Classifier(nn.Module): def __init__(self, dictionary, embeddings_index, max_seq_length, args): self

    0熱度

    2回答

    我是一個Python/Pytorch用戶。首先,在numpy中,假設我有一個大小爲LxL的數組M,並且我想要有以下 數組:A =(M,...,M)的大小,比如NxLxL,是否有更優雅的/這樣做不是內存高效的方法: A=np.array([M]*N) ? 火炬張同樣的問題! 原因,現在,如果M是一個變量(torch.tensor),我必須做的: A=torch.autograd.Variable

    2熱度

    1回答

    下面是一個RNN模式來運行基於字符的語言生成: class RNN(nn.Module): def __init__(self, input_size, hidden_size, output_size, n_layers): super(RNN, self).__init__() self.input_size = input_size self.h

    7熱度

    1回答

    我有三個簡單的問題。 如果我的自定義丟失函數不可區分會發生什麼?將pytorch通過錯誤或做別的? 如果我在自定義函數中聲明瞭一個將代表模型最終損失的損失變量,那麼我應該爲該變量放置requires_grad = True嗎?或者沒關係?如果沒關係,那爲什麼? 我已經看到人們有時會編寫一個單獨的圖層並計算forward函數中的損失。編寫一個函數或一個圖層最好採用哪種方法?爲什麼? 我需要對這些問題

    0熱度

    1回答

    Pytorch有動態神經網絡(定義的運行),而不是Tensorflow,它必須在運行前編譯計算圖。 我看到Torch7和PyTorch都依賴於TH,THC,THNN,THCUNN(C庫)。 Torch7有動態神經網絡(逐個定義)功能嗎?

    1熱度

    1回答

    第一個使用pytorch的項目和我試圖將MNIST標籤'int'轉換爲'變量'的火炬卡住了。調試器說它沒有維度?! # numpy mnist data X_train, Y_train = read_data("training") X_test , Y_test = read_data("testing") arr = np.zeros(5) for i in range(5):

    7熱度

    1回答

    (pytorch初學者在這裏) 我想將L1正則化轉換器添加到ReLU的激活輸出中。 更普遍的是,如何將調節器僅添加到網絡中的特定層? 這個帖子可能涉及: Adding L1/L2 regularization in PyTorch? 但是它要麼是沒有關係的,要不然我不明白的答案: 它是指在優化,這是一個不同的事情施加L2正則。 換句話說,如果總體上所需要的損失是 crossentropy + la

    0熱度

    1回答

    什麼是循環神經網絡(RNN)中的變長序列輸入的完整工作示例(不是片段)? 例如,PyTorch可以實現將可變長度序列作爲RNN輸入,但似乎沒有完整工作代碼的例子。 相關: https://github.com/pytorch/pytorch/releases/tag/v0.1.10 https://discuss.pytorch.org/t/about-the-variable-length-in

    2熱度

    1回答

    有人可以給出一個完整的工作代碼(不是代碼片段,而是在可變長度循環神經網絡上運行的),你將如何使用PyTorch中的PackedSequence方法? 在文檔,github或互聯網上似乎沒有任何這樣的例子。 https://github.com/pytorch/pytorch/releases/tag/v0.1.10