deep-learning

    4熱度

    1回答

    我想從此鏈接瞭解Softmax分類器的簡單實現 - CS231n - Convolutional Neural Networks for Visual Recognition。在這裏他們實現了一個簡單的softmax分類器。在鏈接上的Softmax分類器的例子中,2D空間上有300個隨機點和一個與它們相關的標籤。 softmax分類器將瞭解哪個點屬於哪個類。 以下是softmax分類器的完整代碼。

    6熱度

    1回答

    我試圖執行上DL4J下面的例子中(裝載預先訓練矢量文件): File gModel = new File("./GoogleNews-vectors-negative300.bin.gz"); Word2Vec vec = WordVectorSerializer.loadGoogleModel(gModel, true); InputStreamReader r = new InputS

    20熱度

    7回答

    我正在看看來自CS231n Convolutional Neural Networks for Visual Recognition的卷積神經網絡。在卷積神經網絡中,神經元以3維排列(height,width,depth)。我遇到了CNN的depth問題。我無法想象它是什麼。 在他們說的鏈接The CONV layer's parameters consist of a set of learna

    3熱度

    1回答

    我一直在修改來自Caffe深度學習庫的example C++ program,我注意到line 234上的這段代碼看起來沒有再次被引用。 ::google::InitGoogleLogging(argv[0]); 提供的參數是一個原型文件,它定義了我所調用的深度學習模型的參數。令我困惑的事情是這條線的結果去哪裏?我知道他們最終在程序中被使用,因爲如果我在prototxt文件中犯了一個錯誤,那麼

    2熱度

    1回答

    我想在Windows上使用python 3.4安裝theano。我下面這個指令Theano on Windows 它創建一個文件名爲Theano.egg鏈接內蟒蛇庫/站點包 但試圖調用進口theano當我得到這個錯誤 我用python setup.py develop,它給了我這個窗口。這表明一切安裝正常。任何幫助?

    3熱度

    1回答

    我正在尋找一種方式,給定一個輸入圖像和一個神經網絡,它將輸出圖像中每個像素的標記類天空,草地,山地,人物,汽車等)。 我設置了Caffe(未來分支)併成功運行了FCN-32s Fully Convolutional Semantic Segmentation on PASCAL-Context模型。但是,我無法使用它製作清晰的標籤圖片。 圖片是可視化我的問題: 輸入圖像 地面實況 我的結果: 這可

    0熱度

    1回答

    是否有一個研究報告,其中輸入多重標記,但輸出(分類)是一個單一的標記?最好在計算機視覺領域。

    0熱度

    1回答

    我有來自Caffe C++的示例程序工作在我的電腦上,但最近重新編譯來自Caffe後,我遇到這個錯誤,當我嘗試運行程序: [libprotobuf ERROR google/protobuf/text_format.cc:245] Error parsing text-format caffe.NetParameter: 2:4: Message type "caffe.NetParameter"

    1熱度

    1回答

    我想使用Caffe庫來提取圖像特徵,但我遇到性能問題。我只能使用CPU模式。我被告知Caffe支持批處理模式,其中處理一幅圖像所需的平均時間要慢得多。 我打電話下面的方法: const vector<Blob<Dtype>*>& Net::Forward(const vector<Blob<Dtype>* > & bottom, Dtype* loss = NULL); ,我的尺寸爲1的向量

    0熱度

    2回答

    我想使用Caffe提取圖像特徵。但是,處理圖像需要很長時間,所以我正在尋找優化速度的方法。 我注意到的一件事是,我使用的網絡定義有四個額外的層,我從中讀取結果(並且沒有反饋信號,因此它們應該安全刪除)。 我試圖從定義文件中刪除它們,但它根本沒有任何效果。我想我可能需要刪除包含預先訓練權重的文件的相應部分。不過,編輯它的二進制文件(protobuffer)並不那麼容易。 您是否認爲移除這四層可能會對