frequency-distribution

    0熱度

    1回答

    我一直工作在這了一點時間,現在,試圖建立一個頻率分佈數據庫方面: from itertools import permutations import sqlite3 def populate_character_probabilities(connection, table="freq_dist", alphabet='abcdefghijklmnopqrstuvwxyz'): c

    3熱度

    1回答

    我需要創建一個界面,用戶需要選擇他的magizine /報紙分發多少次。一些雜誌/報紙分發 一週幾次。 每月數次: - 按日期(例如,每兩個星期二)或按日期(例如在第1,10和28天) 每年幾次。 一旦選擇了頻率,我需要爲每個頻率項添加附加信息。例如如果用戶在星期一和星期五每週選擇一次,則需要在星期一添加附加信息並在星期五添加單獨信息。 有沒有人有關於如何做到這一點的任何想法?或者我可以在哪裏閱讀

    12熱度

    2回答

    我只是想知道什麼是該計算的最佳方法。讓我們假設我有一個輸入數組和邊界數組 - 我想計算/ bucketize頻率分佈的每個分區在邊界數組中。 使用桶搜索是個好主意嗎? 其實我發現這個問題Calculating frequency distribution of a collection with .Net/C# 但我不知道如何使用爲目的的桶引起每個桶的大小,可以在我的情況不同。 編輯: 畢竟討論我

    3熱度

    1回答

    從我在matlab中運行的函數中,我得到一個225x400的矩陣。我想計算矩陣中每個元素的頻率,這意味着我需要計算每個元素出現在矩陣上的次數。我的矩陣名稱爲「IDIFF」 我使用: B=unique(Idiff); 找到在IDIFF矩陣中的獨特元素。我收到了1138個元素的列,所以我明白這些元素是獨一無二的,Idiff矩陣中的所有其他元素都是重複這些元素。 現在,我嘗試通過計算每一個獨特的元素

    1熱度

    2回答

    我拿一首歌曲樣本並對樣​​本執行FFT(快速傅立葉變換)。我能夠獲得歌曲的頻率,但我無法獲得這些頻率出現的時間。所以,它基本上變得毫無用處,因爲我必須將它與不同的樣本進行匹配,除非我得到時間信息。 我該如何繼續?

    7熱度

    3回答

    我有一個events表,其中有兩列eventkey(唯一主鍵)和createtime,它將事件的創建時間存儲爲NUMBER列中1970年1月1日以來的毫秒數。 我想創建一個「直方圖」或頻率分佈,顯示在過去一週的每個小時內創建了多少個事件。 這是使用width_bucket()函數在Oracle中編寫此類查詢的最佳方法嗎?是否有可能使用其他Oracle分析函數之一推導出落入每個存儲桶的行數,而不是使

    2熱度

    2回答

    我想使用Python獲取一組文檔的頻率分佈。我的代碼不工作,出於某種原因,併產生此錯誤: Traceback (most recent call last): File "C:\Documents and Settings\aschein\Desktop\freqdist", line 32, in <module> fd = FreqDist(corpus_text)

    2熱度

    1回答

    有沒有一種方法(用ggplot或其他方式)在單列(兩行)中繪製頻率和累積頻率曲線,即一個頂部的另一個,使得a給定的四分位數可以用直線顯示在兩條曲線上?我希望我明確這一點.. 您可以使用此數據.. mydata<-structure(list(speed = c(10, 15, 20, 25, 30, 35, 40, 45, 50),frequency = c(0, 1, 5, 10, 20, 10

    2熱度

    1回答

    我試圖將每個可能的子字符串中的單詞列表(一個標記字符串)分解。然後,我想在每個子字符串上運行FreqDist,以查找最常見的子字符串。第一部分工作正常。然而,當我運行FreqDist,我得到的錯誤: TypeError: unhashable type: 'list' 這裏是我的代碼: import nltk string = ['This','is','a','sample'] sub

    2熱度

    2回答

    我有一個小程序,它使用NLTK來獲取相當大的數據集的頻率分佈。問題是,幾百萬字後,我開始吃掉我係統中的所有RAM。這就是我認爲是的代碼中的相關行: freq_distribution = nltk.FreqDist(filtered_words) # get the frequency distribution of all the words top_words = freq_distr