2013-05-31 72 views
0

我想使用LibSVM進行支持向量迴歸。我想要臉部的相似度分數。現在,當我訓練我的面孔時,我將把面部特徵作爲自變量,並將得分(0.1-1.0之間的任何值)作爲我的因變量。一個真正的積極面孔將訓練爲1.0。否則,將根據訓練圖像的質量將部分面孔訓練爲0.1-1.0之間的分數。在預測階段,當測試圖像的形狀特徵已經被給出時,我想要0-1.0之間的分數。這意味着,我們將有一個獨立變量(特徵向量)和一個因變量(得分在0-1之間)因變量。使用libSVM進行相似度預測的支持向量迴歸

+0

這裏有什麼問題?你有什麼嘗試? – bjou

+0

嗨,謝謝你的關注。我只想知道如何制定我的訓練(更具體地說,我怎樣才能將得分值放入我的訓練集中)。我知道,對於預測,我可以把任何隨機值作爲我的因變量。也是「均方誤差」{svmpredict函數輸出的第二個參數)我想要的其他分數 – user2433638

回答

0

請參閱http://www.csie.ntu.edu.tw/~cjlin/libsvmtools/#weights_for_data_instances以應用實例權重。

在LIBSVM Matlab的接口,爲svmpredict使用說明是:

[predicted_label, accuracy, decision_values/prob_estimates] = svmpredict(testing_label_vector, testing_instance_matrix [, 'libsvm_option']); 

我相信第三返回參數decision_values/prob_estimates是你所期待的輸出成績。

+0

我測試過了,但第一個參數給了我想要的答案。所以,在這種情況下,它給了我一個介於0-1之間的值。雖然準確度似乎比分類更差。在分類方面,我的準確性達到了85%以上,但在迴歸中,我的準確性更差。值得注意的是,我沒有放任何重量,也沒有優化我的參數。 – user2433638

相關問題