information-theory

    1熱度

    2回答

    我需要計算互信息,以及N個變量的香農熵。 我寫了一個代碼來計算某些分佈的香農熵。 假設我有一個變量x,數組數組。 繼definition of shannon entropy之後,我需要計算歸一化的概率密度函數,所以使用numpy.histogram很容易得到它。 import scipy.integrate as scint from numpy import* from scipy imp

    0熱度

    3回答

    我想解決 Levenshtein_distance這個問題,在字符串的長度過於龐大。 EDIT2: 作爲Bobah說,標題是錯過領先,所以我必須更新questoin的稱號。 初始title was如何在C++中聲明100000x100000二維整數? Content was 有任何方式來聲明INT X [100000] [100000]在C++中。 當我在全局聲明它時,編譯器生成error: si

    -1熱度

    1回答

    我需要幫助的工作,我在學校... 我想做一個枚舉或多個將在內存中的天數在一個月內的信息,名稱月份和月份的數量。 此外,我的教導說,所有的信息必須在我的代碼...沒有數據庫或其他類似的東西。 -_- 經驗: public enum list { month = "nbdays" && "montnumber" && "otherinformation"; //

    4熱度

    3回答

    爲什麼在決策樹分支中使用Shannon熵度量? 熵(S)= - P(+)的日誌(P(+)) - P( - )的日誌(P( - )) 我知道這是沒有的量度。編碼信息所需的位數;分佈越均勻,熵越多。但我不明白爲什麼它經常用於創建決策樹(選擇分支點)。

    16熱度

    1回答

    我有兩張黑白圖像,需要計算互信息。 Image 1 = X Image 2 = Y 我知道,作爲互信息可以被定義爲: MI = entropy(X) + entropy(Y) - JointEntropy(X,Y) MATLAB已經有內置的函數來計算熵,但不計算聯合熵。我想真正的問題是:我如何計算兩幅圖像的聯合熵? 這裏是我想找到的聯合熵的圖像的一個例子: X = 0 0 0 0 0

    0熱度

    2回答

    解壓我有一些16字符的十六進制字符串是這樣的: B5A43BC5BDCEEFC6 2C7C27F05A488897 1514F4EC47C2EBF6 D91ED66BC999EB64 我想縮短他們,並有縮短的字符串只包含大寫字母。 DeflateStream和GZipStream只是增加了長度。 任何人都可以幫我縮短這16個字符的十六進制字符串爲6個字符或更少? 或者,將32個字符的十六

    2熱度

    1回答

    許多人,我對機器學習感興趣。我已經就這個話題開了一堂課,並且一直在閱讀一些論文。我有興趣找出什麼使機器學習難以解決問題。理想情況下,我想了解機器學習問題的複雜性如何量化或表達。顯然,如果一個模式非常嘈雜,人們可以看看不同算法的更新技術,並觀察到某些特定的機器學習算法錯誤地將自身更新爲錯誤的方向,這是由於有噪聲的標籤,但這是非常定性的爭論而不是一些分析/量化的推理。 那麼,如何量化問題或模式的複雜性

    -1熱度

    1回答

    他們是否將levenstein距離轉換爲錯誤率? 由於錯誤率是不是正好是相同的序列的一部分。

    4熱度

    1回答

    我有一個概率分佈,定義了可能的狀態發生的概率。 我想計算給定概率分佈的香農熵的值,以位爲單位。 我可以使用wentropy(x,'shannon')來獲取值嗎?如果是的話,我可以在哪裏定義系統可能的狀態數量?

    1熱度

    2回答

    我需要使用QAIC標準對候選模型進行排名。這是我已經試過: library(MuMIn) model_global <- glm(vs ~ mpg + disp + wt, family = quasibinomial, mtcars) model_1 <- glm(vs ~ mpg, family = quasibinomial, mtcars) model_2 <- glm(vs ~ d