pytorch

    1熱度

    2回答

    在Numpy中,給定一大堆圖像A的size(N,hl,wl),以及大小爲(N)的座標x和大小爲(N)的座標y,我想要得到尺寸較小的圖像(N,16 16) 在for循環中它應該是這樣的: B=numpy.zeros((N,16,16)) for i in range(0,N): B[i,:,:]=A[i,y[i]:y[i]+16,x[i]:x[i]+16] 但我能做到這一點只是索引?

    -1熱度

    1回答

    我試圖建立一個與Pytorch的cnn,並在maxpooling困難。我拿走了斯坦福大學的cs231n。正如我回憶,maxpooling可以用作尺寸扣除步驟,例如,我有(1,20,高度,寬度)輸入ot max_pool2d(假設我的batch_size爲1)。如果我使用(1,1)內核,我想得到這樣的輸出:(1,1,height,width),這意味着內核應該滑過通道維度。但是,在檢查pytorch

    0熱度

    1回答

    任何幫助將不勝感激。 transforms.py中的代碼表示轉換應該適用於PIL圖像以及ndarrays。 鑑於變換: data_transforms = { 'train': transforms.Compose([ transforms.Scale(256), transforms.Pad(4,0), transforms.ToTensor(),

    1熱度

    1回答

    這可能看起來像一個基本問題,但我無法完成。 在我神經網絡的正向傳遞中,我有一個形狀爲8x3x3的輸出張量,其中8是我的批量大小。我們可以假設每個3×3張量是一個非奇異矩陣。我需要找到這些矩陣的逆。 PyTorch inverse()函數僅適用於矩形矩陣。由於我現在有8x3x3,我該如何將此函數以可微分的方式應用於批處理中的每個矩陣? 如果我遍歷樣本並將逆向追加到一個python列表中,然後我將其轉

    0熱度

    1回答

    我正在用Pytorch試驗Autoencoder。當我使用比較大的神經網絡例如nn.Linear(250 * 250,40 * 40)作爲第一層時,Jupyter內核不斷崩潰。當我使用較小的圖層大小時線性(250 * 250,20 * 20)。 Jupyter內核是可以的。任何想法如何解決這個問題?所以我可以運行更大的網絡。謝謝。整個網絡如下。 # model: class AutoEncode

    1熱度

    1回答

    我有一個讓我困惑,我希望把它清除掉一些PyTorch例子。 首先,按照PyTorch頁,我希望這些例子工作,因爲做自己numpy的等價物即these。第一個例子非常直觀。這些廣播是兼容的: Image (3d array): 256 x 256 x 3 Scale (1d array): 3 Result (3d array): 256 x 256 x 3 就拿這些: torch.T

    3熱度

    1回答

    我正在嘗試爲奧賽羅構建一個時間差異學習代理。雖然我的其他實現似乎按預期運行,但我想知道用於訓練我的網絡的損失函數。在Sutton的「增強學習:導論」一書中,均方誤差值(MSVE)是標準損失函數,它基本上是一個均方誤差乘以策略分佈(所有狀態之和(onPolicyDistribution(s )* [V(s)-V'(s,w)] 2)) 我現在的問題是:當我的策略是學習值函數的e-greedy函數時,如

    0熱度

    1回答

    當我運行下面的代碼時,變量類型變成了torch.LongTensor。我怎樣才能創建一個torch.cuda.LongTensor而不是? # Turn string into list of longs def char_tensor(string): tensor = torch.zeros(len(string)).long() for c in range(len(s

    0熱度

    1回答

    我想在pytorch中使用預先訓練好的ResNet模型來計算正向通行證。我無法創建小批量的4維張量。有人可以告訴什麼是適當的方式來做到這一點? 編輯:我改變了代碼,它現在的作品。不過,我仍然認爲應該採取更有效的方式來做到這一點。 這裏是我的代碼: import pickle import json import shutil import Image import torchvision.

    1熱度

    1回答

    在從https://github.com/spro/practical-pytorch/blob/master/seq2seq-translation/seq2seq-translation.ipynb 教程有一個USE_CUDA標誌被用於控制CPU之間的變量和張量類型(假時)到GPU(當真)類型。 從en-fr.tsv使用數據和轉換的判決變量: import unicodedata impor