deep-learning

    2熱度

    2回答

    我注意到,對新數據集的CNN進行的大多數微調僅在「最後」完全連接(fc)層完成。 我對從「第一個」完全連接層進行微調感興趣:也就是說,我想使用卷積和合並圖層的中級特徵(假設它是在ImageNet上訓練的),但是將所有fc圖層適合我的新數據集。 理論上和實踐中,這是什麼效果?是否有可能爲我的新數據集學習更合適的一組參數?

    1熱度

    1回答

    我開始使用Theano庫,因爲我尋求編譯&調試用C++與朱古力(雖然,這是一個非常偉大的圖書館:)) 不管怎樣,我進行了深入的網絡(幾乎像CNN),用烤寬麪條,我開始學習我的網絡。但是,我的nvidia-smi顯示內存使用量持續波動,我感覺不好。當我使用咖啡時沒有顯示,因此,學習可能會很慢。 我使用多進程模塊預先獲取數據集,並且我的隊列狀態看起來正確,因此加載數據集對於我的慢速訓練來說可能不是這種

    2熱度

    1回答

    我複製的步驟VGG我想改變網絡VGG模型,在 http://www.robots.ox.ac.uk/~vgg/software/very_deep/caffe/VGG_ILSVRC_16_layers.caffemodel 獲得它足夠簡單地替代模型參數如下? ./build/tools/caffe train -solver models/finetune_flickr_style/solver.

    2熱度

    1回答

    我想學習深度學習。 在火炬教程, https://github.com/torch/tutorials/blob/master/2_supervised/2_model.lua https://github.com/torch/tutorials/blob/master/3_unsupervised/2_models.lua 監督模式 -- Simple 2-layer neural networ

    2熱度

    1回答

    我是神經網絡和NLP的新手。我找到了這個庫:DeepLearning4J。我試圖得到它的工作,但每當我執行該指令:如果我搜索的單詞映射到網絡我得到下面的異常 Collection<String> similar = vec.wordsNearest("word_to_search", 10); : ​​67844042773956 我知道NoSuchMethodError可能是由於庫不同的版本

    2熱度

    1回答

    我有一個數據集,其中圖像有變化標籤數量。標籤的數量在1到5之間。共有100個類別。 谷歌搜索後,看起來像HDF5分貝層分貝可以處理多個標籤,如下面的URL。 唯一的問題是它假設有一個固定數量的標籤。在此之後,我將不得不創造非標類一1×100矩陣,其中,項值爲1的標記類,0,如以下定義: layers { name: "slice0" type: SLICE botto

    1熱度

    1回答

    我在我自己的數據集上微調caffenet。 我已經在flickr樣式數據集上成功完成了它, ,所以我修改了solver和train_val prototxt文件以指向我的數據集,並使用新的輸出維度(= 100個類)。 我的數據集的大小是1.88M訓練圖像,和.48M圖像進行測試。 當我開始訓練,它停下來顯示 ... blocking_queue.cpp:50] Data layer prefetc

    3熱度

    1回答

    我有一些非常大的數據集,我想加載到火炬中。但是在我運行我的學習算法之前,我無法將它們完全加載到內存中。 我應該怎麼做才能最大限度地提高性能?

    1熱度

    1回答

    在使用DeepLearning4j進行編程時,出現了一些問題。 當我在Eclipse中打開並編譯示例MnistMultiThreadedExample時,出現了這些問題。 import org.deeplearning4j.datasets.iterator.impl.MnistDataSetIterator; import org.deeplearning4j.datasets.test.Te

    0熱度

    1回答

    我有下面的代碼段,當我運行theano_build()方法,它引發作爲錯誤說 File "rnn_theano.py", line 28, in __init__ self.__theano_build__() File "rnn_theano.py", line 45, in __theano_build__ non_sequences=[U, V, W1, W12, W2],