svm

    0熱度

    1回答

    我一直爲此而沮喪,我沒有得到到能出現趨勢線: library(shiny) ui = pageWithSidebar( headerPanel("Twitter Engagement Correlations"), sidebarPanel( selectInput("c", label = "Variable:", choices = colnam

    3熱度

    1回答

    我目前正在覈方法,並在某些時候我需要做出非半正定矩陣(即相似矩陣)轉換成一個PSD矩陣。 我嘗試這樣的做法: def makePSD(mat): #make symmetric k = (mat+mat.T)/2 #make PSD min_eig = np.min(np.real(linalg.eigvals(mat))) e = np.max(

    0熱度

    1回答

    LinearSVC庫中的scikit.learn函數.predict使用測試樣本執行預測。 LinearSVM_cl.fit(X_train , Y_train) 並用 Y_pred_LinearSVM = LinearSVM_cl.predict(X_test) 然而,我需要知道哪些從擬合模型參數被用於預測一個測試樣品的預測,.coef_? 。截距_? 該模型的數據集是20000行和8列

    0熱度

    1回答

    我有特點vector<vector<float> >大小1800 * 160現在我需要訓練支持向量機就可以了,我嘗試使用OPENCV SVM,但在調試模式svm->火車返回false,並釋放該模式提出exeption: Exception thrown at 0x00007FFF587AC387 (vcruntime140.dll):Access violation reading locatio

    0熱度

    1回答

    因此,衆所周知,由於OpenCV中的錯誤,當您嘗試在保存它之後加載非線性內核SVM時出現錯誤。 這裏指的更多: OpenCV 3.1.0: Save and load trained SVMs 人都得到了支持向量機加載,但無法獲得相同的結果(分類數據被加載後損壞)。我試着編寫我自己的svmloader函數來測試它。 Ptr<SVM> svmloader(const String& filepath

    0熱度

    1回答

    我正在運行GridSearchCV,其中OneVsRestClasssifer使用SVC作爲估算值​​。這是我Pipeline和GridSearchCV參數方面: pipeline = Pipeline([ ('clf', OneVsRestClassifier(SVC(verbose=True), n_jobs=1)), ]) parameters = { "c

    0熱度

    1回答

    我成功實現了SVM分類器。我沒有使用scikit方法。我目前正在用不同類型的數據進行培訓。現在,我想測試它的單個文本輸入。 我嘗試使用熊貓,但後來我不得不改變我的方法,所以我決定不使用它。 分類器正在用於情感分析與正面,負面和中性標籤。提供給分類器的數據集由來自twitter的推文組成。 這裏是我的分類:https://pastebin.com/JZ5LVLW7 所以,我需要在設計Python中的

    0熱度

    1回答

    對於多類預測,通過遵循針對this gem給出的庫示例返回稍微不準確的預測。 測試集(老師大聲訓斥學生誰是上課遲到,但後來道歉。)應與代碼已經返回EDUCATION代替HEALTH require 'libsvm' # Let take our documents and create word vectors out of them. # documents = [ # 0 is JOK

    1熱度

    1回答

    我必須錯在這裏做簡單的東西,但我無法弄清楚。 from sklearn import svm clf = svm.SVC(kernel='linear') y = [False, True, True] X = [[1.0], [2.0], [3.0]] clf.fit(X, y) clf.predict(1.4) Out[324]: array([False], dtype=boo

    1熱度

    1回答

    我使用Python 2.7與sklearn和使用rbf內核sklearn.svm.SVC並遭受過度擬合。 我試圖用C和伽馬解釋here ,並沒有這樣的伎倆 如果我理解正確的C和伽瑪沒有L1和L2懲罰,因爲C是懲罰分類錯誤和γ是關於數據樣本的泛化參數。我正在尋找一些能夠懲罰像l1和l2這樣的複雜模型的東西。 我想使用正則化和l1或l2懲罰,我發現了一些例子here,但是當我嘗試使用懲罰參數與SVC它