我試圖在Caffe上訓練我自己的網絡,類似於Imagenet模型。但是我對作物層感到困惑。直到我瞭解Imagenet模型中的作物層,在培訓期間,它將隨機抽取227x227圖像作物並訓練網絡。但是在測試期間,它將採用中心227x227圖像裁剪,當我們從256x256圖像裁剪中心227x27圖像時,我們是不是放鬆了圖像的信息?第二個問題是,我們如何確定在培訓期間需要的作物數量?Caffe |通過隨機裁剪來增加數據
此外,我還訓練了同樣的網絡(層數相同,FC神經元的卷積大小明顯不同),首先從256x256圖像獲取227x227的作物,然後從256x256圖像獲取255x255作物。根據我的直覺,255x255作物的模型應該給我最好的結果。但是我用227x227圖像獲得更高的準確性,任何人都可以向我解釋背後的直覺,還是我做錯了什麼?
我認爲這個問題應該得到一個更廣泛的答案,描述caffe如何處理「實時」數據增強。非常希望看到這個答案。 – Shai
@Shai Ya thats fine。 – Dharma