-1
我的參數
base_lr: 0.04
max_iter: 170000
lr_policy: "poly"
batch_size = 8
iter_size =16
這是
一些訓練過程中的樣子到現在爲止:
這裏的損失似乎停滯,是有問題這裏還是這個正常?
請注意,lr_policy步驟不會每n次迭代降低學習速率,但只能進行一次。要做好幾個步驟,你需要使用miltistep政策 – Shai
我試着將我的問題發送給caffe團隊,但回覆率太低,要麼問題沒有得到答案,要麼他們太遲得到答案。 – Ryan