2017-03-26 63 views
-1

我使用scikit-learn在Python中創建了一個字符識別軟件。我有一個標有[A-Za-z]的大型圖像數據集。我正在使用線性SVM。使用52個不同標籤的所有樣本訓練模型非常非常緩慢。結合不同的SVM模型

如果我將訓練數據集分成13個部分,每部分只有4個字符的圖像,並且沒有圖像可以成爲多於1個部分的一部分,然後訓練13個不同的模型。

如何將這些模型組合在一起以創建更精確的模型?或者如果我對所有13個模型進行測試集分類,並根據置信度得分(選擇分數最高的那個)比較單個樣本的結果,是否會影響整體模型的準確性?

回答

0

看來你需要的是某種訂單減少的數據。
訂單縮減後,將數據分爲13個大組,然後做一個最終的分類工具。

我想看看Linear Discriminant Analysis我提到的第一步。