pytorch

    0熱度

    1回答

    我試圖培養一個非常基本的CNN上CIFAR10數據集,並得到以下錯誤: AttributeError的:「CrossEntropyLoss」對象有沒有屬性「落後」 criterion =nn.CrossEntropyLoss optimizer=optim.SGD(net.parameters(),lr=0.001,momentum=0.9) for epoch in range(2): #

    1熱度

    2回答

    在PyTorch中給出以下代碼Keras等效函數是什麼? class Network(nn.Module): def __init__(self, state_size, action_size): super(Network, self).__init__() # Inputs = 5, Outputs = 3, Hidden = 30 self

    -2熱度

    1回答

    這裏是customLayer.py。 我很困惑以下的事情: 內層的輸入不是一個變量。然後在backward它變成一個變量,並要求梯度。爲什麼? grad_output是一個變量,但require_grad是False。爲什麼不是真的? 在我的自定義圖層中,我需要自定義向前和向後的操作。這很複雜。看到相同的鏈接。我已經在其中發佈了問題。

    0熱度

    1回答

    我在我的Mac上設置了Malmo,並陷入困境。我使用的是Malmo-0.17.0-Mac-64bit,python 2.7,macOS Sierra。 正如在Malmo安裝說明中所述,mac用戶需要使用位於/ usr/bin/python上的默認mac python來運行python腳本。我的目標是實現一個神經網絡Pytorch並做一些實驗。但是,當我運行命令/usr/bin/python -m

    1熱度

    1回答

    在python列表中,我們可以使用list.index(somevalue)。 pytorch如何做到這一點? 例如: a=[1,2,3] print(a.index(2)) 然後,1將輸出。 pytorch tensor如何在不將其轉換爲python列表的情況下執行此操作?

    1熱度

    1回答

    Embedding圖層「圖層疏」中列出的限制: 請記住,只有優化的數量有限支持稀疏梯度:目前它的optim.SGD(CUDA和CPU),和Optim .Adagrad(cpu) 這是什麼原因?例如在Keras中,我可以使用任何優化器來訓練帶有嵌入層的體系結構。

    0熱度

    2回答

    我正在玩弄PyTorch,目的是學習它,而且我有一個非常愚蠢的問題:如何將矩陣乘以單個矢量? 這是我已經試過: >>> import torch >>> a = torch.rand(4,4) >>> a 0.3162 0.4434 0.9318 0.8752 0.0129 0.8609 0.6402 0.2396 0.5720 0.7262 0.7443 0.0425 0.4561

    0熱度

    1回答

    我已經實施了PSO算法使用PyTorch,torch.cuda.FloatTensor。 我設法加速了2次,但我期待的不止於此。 它認爲步驟檢查限制(line 41-55)和參數更新(line 58-72)是原因。有一個「GPU任何」這樣做? 有是我的代碼: import torch import numpy as np import matplotlib.pyplot as plt dty

    0熱度

    1回答

    我試圖在PyTorch中的http://anthology.aclweb.org/W16-1617中實現丟失函數。它如下所示: 我實現損失如下: class CosineContrastiveLoss(nn.Module): """ Cosine contrastive loss function. Based on: http://anthology.aclweb.

    0熱度

    1回答

    我試圖在我訓練它時動態添加隱藏單元到3層神經網絡(輸入,隱藏,輸出)。我想保持網絡的一部分受過訓練的權重,因爲我添加新的隱藏units.This是我的代碼, class my_network(torch.nn.Module): def __init__(self,input_dim,hidden_dim,output_dim): super(my_network,self).