0
我想嘗試在Fast Human Detection Using a Cascade of Histograms of Oriented Gradients
中提出的HOG +級聯。它使用line-SVM來訓練Adaboost每個階段的弱分類器。
但是如何計算樣本的權重到Line-SVM中。如果不算。它會得到相同的結果具有相同的功能。如何訓練HOG +級聯
我想嘗試在Fast Human Detection Using a Cascade of Histograms of Oriented Gradients
中提出的HOG +級聯。它使用line-SVM來訓練Adaboost每個階段的弱分類器。
但是如何計算樣本的權重到Line-SVM中。如果不算。它會得到相同的結果具有相同的功能。如何訓練HOG +級聯
從我所讀到的,線性支持向量機由朱等人使用。我不太清楚簡單的重量是什麼意思。
如果您指的是雙重權重-通常用alpha表示,那麼這些就是訓練SVM的直接結果。
雙重加權是什麼意思。經過一段AdaBoost後,您應該更新樣本的權重。並在下一階段。你應該學習一個新的基於新權重的弱分類器。我的意思是如何將這個權重計入SVM行。 – Samuel