caffe

    11熱度

    1回答

    我按照kaggle facialkeypoints比賽從輸入圖像中提取30個面部關鍵點(x,y)。 我如何設置咖啡來運行迴歸並生成30維輸出??。 Input: 96x96 image Output: 30 - (30 dimensions). 我該如何設置caffe?我使用EUCLIDEAN_LOSS(平方和)來得到迴歸輸出。這是一個簡單的使用caffe的邏輯迴歸模型,但它不起作用。看起來

    13熱度

    2回答

    我希望在我的模型中使用InfogainLoss類型的丟失圖層。但是我很難正確定義它。 有沒有關於使用INFOGAIN_LOSS圖層的任何教程/例子? 該圖層的輸入,類概率應該是SOFTMAX圖層的輸出,還是足以輸入完全連接圖層的「頂部」? INFOGAIN_LOSS需要三個輸入:類概率,標籤和矩陣H。 矩陣H可以作爲圖層參數infogain_loss_param { source: "fienam

    2熱度

    1回答

    我對caffe有點新鮮,而且我收到了一些奇怪的行爲。我試圖在bvlc_reference_caffenet上使用微調來完成OCR任務。 我已經接受了他們的預訓練網,把最後一個FC層改爲我有的輸出類數,然後再訓練。經過幾千次迭代後,我得到了〜0.001的損失率,並且在網絡測試時準確率超過了90%。也就是說,當我嘗試通過我自己的數據運行我的網絡時,結果很糟糕,不超過7%或8%。 我使用運行net的代碼

    0熱度

    1回答

    我想查找類似於其他圖像的圖像。所以,研究後,我發現兩種方法首先在兩個由它的屬性表示圖像像 length = full pattern = check color = blue 但這種方法的侷限是,我將無法得到詳盡的數據集的全部功能標記。 我發現的第二種方法是提取特徵並進行特徵映射。 所以我決定使用caffe深層卷積神經網絡,通過使用任何現有的模型,我可以學習特徵,然後執行特徵匹配或其他操作。我只想

    1熱度

    1回答

    我有多個GPU卡(NO.0,NO.1 ...),並且每次我在1號或2號運行caffe進程...(0除外)卡,它將在NO.0卡上使用73MiB。 例如,在下圖中,過程11899將在NO.0卡上使用73MiB,但它實際上在NO.1卡上運行。 爲什麼?我可以禁用此功能嗎?

    1熱度

    1回答

    我想添加一個基於Imagenet示例的丟棄層(請參閱下面的代碼)。但是,當我訓練模型時,它似乎被忽略,它不會被打印爲網絡的一部分,而我會在下面看到警告消息。我安裝了最新版本的caffe。我應該怎麼做才能正確包含它? 漏失層: layer { name: "drop4" type: "Dropout" bottom: "fc4" top: "fc4"

    1熱度

    1回答

    我嘗試從視頻幀創建實時預測程序。所有的代碼由opencv支持。然而,我訓練了一個咖啡模型,我試着用這個咖啡的windows port來使用它。它不支持opencv轉換內存中的圖像。我怎樣才能做到這一點?在原來的caffe中有一個解決方案,即recently merged,但不能將此應用於此Windows版本。

    8熱度

    4回答

    我正在使用https://github.com/BVLC/caffe/wiki/Ubuntu-14.04-VirtualBox-VM作爲靈感在安裝了CUDA的Ubuntu 14.04虛擬服務器(不帶驅動程序)上安裝Caffe。在安裝過程中,我編譯MakeFile以在構建之前包含"CPU_ONLY := 1"。但是,Caffe似乎仍在嘗試使用GPU。當我嘗試運行測試示例時,出現以下錯誤: pytho

    0熱度

    3回答

    我在爲Android編寫應用程序,並使用caffe庫。我的問題是,一開始我需要初始化caffe,這是通過將兩個文件(網絡結構)傳遞給caffe完成的。 問題是我不知道如何在設備上存儲額外的文件。我已經將模型文件添加到資產,但我不知道如何使用文件路徑讀取它。你能告訴我在哪裏存儲這些可以使用文件路徑訪問的文件嗎? 感謝您的任何想法。