0
我正在閱讀YOLO的論文。它提到的是,在第2頁高分辨率的分類,轉學深CNN分辨率不同
The original YOLO trains the classifier network at 224*224 and increases the resolution to 448 for detection.
For YOLOv2 we first fine tune the classification network at the full 448*448 resolution for 10 epochs on ImageNet.
我只是好奇,我們該怎麼辦微調用不同的輸入分辨率。
有沒有人對此有任何想法?有沒有「標準」的方式來做到這一點?
在此先感謝......
我正在使用Keras,現在解決方案可能很簡單:只需在保持文件大小不變的情況下增加輸入大小即可。初始化所有過濾器並進行微調。我爲自己的任務取得了更高分辨率圖像的改進結果。 – user3783676