bayesian

    1熱度

    1回答

    我正在做一些關於一個班的性別分類的工作。我一直在使用SVMLight,結果不錯,但我也想對我的數據嘗試一些貝葉斯方法。我的數據集由文本數據組成,並且我已經完成了特徵縮減以將特徵空間減少到對於一些貝葉斯方法更合理的大小。所有的實例都通過tf-idf運行,然後進行標準化(通過我自己的代碼)。 我抓起sklearn工具包,因爲它很容易與我目前的代碼庫整合,但我從GaussianNB得到的結果都是一個類(

    1熱度

    1回答

    我正在尋找OpenCV中的概率分類器,它在預測期間返回各類的概率或成員關係值。 我已經研究過支持向量機,人工神經網絡和正態貝葉斯分類器(這是概率性的),但是所有這些分類器都會爲給定輸入返回一個離散類。 例如,如果我有類{A,B,C}並且如果給出輸入{X},我需要這些類的成員值。如A = 0.2,B = 0.1,C = 0.7。現在用這些現有的分類器,我得到了一個離散輸出(例如-C) 乾杯。

    1熱度

    1回答

    這裏是我寫的用於生成兩個隨機變量的概率分佈的代碼。現在我想繪製JPD。 clear all; clc; x1 = randn(1000,1); x2 = 10*randn(1000,1); [count_1, b] = hist(x1, 25); %25 bins pd1 = count_1/length(x1)/(b(2) - b(1)); % probability distri

    -1熱度

    2回答

    我正在尋找R中的一個包,它可以幫助我計算事件的後驗概率。有沒有? 好吧,我工作的這樣一組數據 年齡考試成績合格 1組主50沒有 第2組三級20沒有 1組二級70是 組2次級67是 1組二級55是 組1中學49否 組1中學76是 我有一個通過考試的學生的先驗概率是0.6,現在我需要得到考慮到他的年齡,教育程度和等級的學生準證的後驗概率 我知道我應該先得到P(age = group1 | P =(等級

    1熱度

    1回答

    這是this thread的後續行動,我用GaussianNB分類器得到錯誤的結果,結果是因爲我有scikit-learn v0.10在linux上我正在做VM上的實驗。我最終使用Bernoulli和Multinomial NB分類器,但是當我(終於)在我的macbook上安裝scipy時,我抓住的scikit-learn版本是0.13,這是本文的最新版本。我現在用一個新的問題: 在v0.10,我

    0熱度

    1回答

    binomial <- function(nmax = 100, thr = 0.95, alpha = 1, beta = 1, p_true = 0.5, p_0 = 0.5){ for(j in seq.int(nmax, 0)){ if(pbeta(q = p_0, shape1 = alpha +

    0熱度

    1回答

    我WinBUGS軟件代碼如下: model { for (i in 1:N){ logit(p[i])<- alpha+ beta*x[i] y[i]~ dbin(p[i], n[i]) } alpha~ dnorm(0,0.000001) beta~ dnorm(0,0.000001) pbeta<-step(beta-0) }

    3熱度

    1回答

    我正在爲文本類別檢測實施樸素貝葉斯分類器。 我有37個類別,我的測試集的準確率約爲36%。 我想提高精度,所以我決定實現37雙向分類在許多消息靈通人士(Ways to improve the accuracy of a Naive Bayes Classifier?是其中之一),這些分類會回答一個給定文本: specific_category OR everything_else 和我會通過順

    2熱度

    1回答

    問題:我們有一堆需要放入「類別」的文檔(雜誌文章)。一些類別反映了文章的主題(文章的內容)和其他一些類別反映了文章的「本質」(如果雜誌是在紙上打印的話,很可能會出現這種情況)。 目前,我們正在通過海外發送物品手動解決問題,讓人們看看他們和標記它們。 我們希望更多地自動化該過程。我已經看過各種庫,但它們似乎不是爲了解決這個問題而設計的。 Carrot²確實搜索結果的聚類,但它在目前尚不清楚,無需進一

    3熱度

    1回答

    我已經使用NLTK樸素貝葉斯方法訓練了垃圾郵件分類器。垃圾郵件集和非垃圾郵件集都有20,000個訓練詞。 我已經注意到了,遇到一個未知的功能時,該classifier給它0.5概率垃圾郵件: >>> print classifier.prob_classify({'unkown_words':True}).prob('spam') 0.5 我知道,這就是所謂的貝葉斯分類Laplace Smo