bernoulli-probability

    1熱度

    1回答

    這是this thread的後續行動,我用GaussianNB分類器得到錯誤的結果,結果是因爲我有scikit-learn v0.10在linux上我正在做VM上的實驗。我最終使用Bernoulli和Multinomial NB分類器,但是當我(終於)在我的macbook上安裝scipy時,我抓住的scikit-learn版本是0.13,這是本文的最新版本。我現在用一個新的問題: 在v0.10,我

    0熱度

    1回答

    以下是爲bernoulli分配定義的功能。我是一位新的R用戶。我不太瞭解以下代碼。 dbernoulli <- function(x, prob=0.5) { dbinom(x, size=1, prob=prob) } dbernoulli(y, prob=0.7) 我在定義函數認爲,我們已經預先確定的參數prob爲0.5,那麼爲什麼我們可以把它改成0.7當我們使用定義的函數?這些代

    0熱度

    2回答

    我有一些分類數據顯示植物家族,水果類型,果實顏色和種子散佈,其中響應變量(散佈)爲0代表否或1代表是。 test1.3 FAMILY FRUIT_TYPE COLOUR_RF Dispersal 3 Erythroxylaceae D R 1 4 Lamiaceae D G 1 8 Clusiaceae D Y 1 12 Clusi

    0熱度

    1回答

    所以,我知道,在R您可以在此形式邏輯迴歸提供數據: model <- glm(cbind(count_1, count_0) ~ [features] ..., family = 'binomial') 有沒有辦法做這樣的事情cbind(count_1, count_0)與sklearn.linear_model.LogisticRegression?還是我實際上必須提供所有這些重複的行? (我的

    1熱度

    1回答

    我必須實現樸素貝葉斯分類器將文檔分類到一個類。因此,在獲得屬於類的術語的條件概率以及拉普拉斯平滑時,我們有: prob(t | c)= Num(Word出現在類c的文檔中)+ 1/Num(類c)中的文檔+ | V | 它是一個bernoulli模型,它可能有1或0,詞彙量非常大,可能有20000個單詞等等。所以,拉普拉斯平滑不會由於詞彙量龐大而給出非常小的值,或者我做錯了什麼。 根據此鏈接的僞代碼

    0熱度

    1回答

    如何有效地使用scipy從伯努利分佈中繪製數字?

    0熱度

    1回答

    的總和的分佈我有N個變量伯努利,X1,...,XN,和Xi~B(1, pi),pi知道每個Xi,並且Y=X1+...XN,現在我需要的Y的destribution。 如果Xi和Xj獨立時i!=j,然後我可以使用模擬: 1. Generate `X1`, ..., `XN` via their distribution, and then get the value of `Y`; 2. Repe

    2熱度

    2回答

    我有一個關於生成隨機樣本的問題。我對R非常陌生,並試圖做我自己的模擬,但我不知道它是否正確。真的希望有人能幫助我。 例如,目前有100人活着。基本上,每個人要麼在現在和下一個週期之間以0.5的概率死亡,要麼以0.5的概率生存到下一個階段 - 即成功概率爲0.5的伯努利試驗。 我想生成20個樣本來獲取明年的活着人數。所以我做了以下。 #number of people alive at time k