caffe

    0熱度

    1回答

    根據我的計算,池化輸出應該5x4x4(5個大小爲4x4的特徵地圖),如此扁平化將產生1x80的向量。因此fc3的重量應該是20x80,但pycaffe顯示的是20x125的重量。這裏是prototext文件。這裏是我的計算 方程式用途(dimension_size - 內核)/步幅+ 1 CONV 1:1x5x26x26 池1:1x5x12x12 CONV 2:1x5x10x10 POOL2:1x

    0熱度

    1回答

    我有一個非常大的數據集,將它轉換爲單個CaDB的LMDB文件並不是一個好主意。因此,我試圖將它分成小部分並指定一個包含相應LMDB文件路徑的TXT文件。 這裏是我的數據層的一個例子: layer { name: "data" type: "Data" top: "data" top: "label" include { phase: TRAIN } data_param { so

    4熱度

    1回答

    我知道圖像分類問題中的不平衡性,例如貓和狗的分類,如果貓的圖像太多而狗的圖像太少。但我不知道如何解決分割問題中的不平衡問題。例如,我的任務是掩蓋衛星圖像的雲層覆蓋,所以我將這個問題轉換爲兩類分割,一個是雲,另一個是背景。該數據集有5800個4-band-16bits圖像,大小爲256 * 256。該體系結構是Segnet,損失函數是二元交叉熵。 有兩種情況假設: 所有樣品中有一半是由雲層完全覆蓋,

    1熱度

    1回答

    我用keras訓練模式,但我必須採取朱古力預測,但我不想再培訓的模式,所以我想隱蔽的.HDF5文件.caffemodel

    0熱度

    1回答

    我想修改Caffe中的現有softmaxloss。這個想法是增加一個權重因素的損失。例如,如果我們正在處理屬於汽車類的像素,我想將損失因子2放在因子上,因爲就我而言,汽車類的檢測比狗類更重要(例如)。這是原始的源代碼: __global__ void SoftmaxLossForwardGPU(const int nthreads, const Dtype* prob_data, c

    0熱度

    1回答

    我的網絡的某些層加載了預訓練模型。我想修復他們的參數並訓練其他層。 我跟着this page並設置lr_multidecay_multi爲0,propagate_down: false,甚至base_lr: 0在求解weight_decay: 0。然而,測試損失(每次測試使用所有測試圖像)在每個測試中仍然非常緩慢地變化。經過數千iters準確性將達到0(從預裝模型加載時的80%)。 這裏是AA兩層

    1熱度

    1回答

    從準備咖啡網絡數據的腳本中,下面的一段代碼將圖像(表示圖像的numpy數組)轉換爲基準對象。 datum = caffe_pb2.Datum( channels=3, width=224, height=224, label=label, data=np.rollaxis(img, 2).tostring()) 如果網絡監督的,你只是創

    1熱度

    1回答

    如果您使用的是自定義python圖層 - 並且假設您在python中正確編寫了該類 - 假設該類的名稱爲"my_ugly_custom_layer";並在linux命令行界面執行caffe, 如何確保caffe知道如何找到爲您的圖層編寫類的文件?你只需將.py文件放在與train.prototxt相同的目錄下? 或 如果你寫在你需要使用python封裝接口蟒蛇的自定義類?

    2熱度

    1回答

    我正在使用hdf5文件訓練數據集,並且日誌說明hdf5文件已加載3次。我想知道爲什麼呢? 培訓,我使用4 GPUs 0830 10:51:06.050088 24335 hdf5_data_layer.cpp:79] Loading list of HDF5 filenames from: /train_h5_list.txt I0830 10:51:06.055855 24336 hdf5_d

    0熱度

    1回答

    我在Ubuntu下成功編譯Caffe並開始研究如何定義和訓練我自己的網絡。然而,我很難理解卷積層如何產生它的輸出。例如,第二卷積層(CONV2)的LeNet MNIST教程(tutorial,lenet.prototxt)具有20個輸入圖像和50倍輸出的圖像: layer { name: "conv2" type: "Convolution" bottom: "poo