partitioning

    7熱度

    1回答

    下面是代碼,在python: # function for pentagonal numbers def pent (n): return int((0.5*n)*((3*n)-1)) # function for generalized pentagonal numbers def gen_pent (n): return pent(int(((-1)**(n+1))*(round((

    0熱度

    2回答

    我有一個數百萬行的表,我想創建一些部分,但我真的不知道我怎麼能做到這一點。我的意思是我想讓以ID 1 - > 10000開頭的數據位於分區1上,而以ID 10001 - > 20000開始的數據位於分區2上。等等...?你能給我一個例子怎麼做嗎? 我在互聯網上搜索了很多,我讀了很多文檔,但我仍然不明白它需要做什麼! 最好的問候,

    10熱度

    2回答

    我有一個表 'X',也下面 CREATE PARTITION FUNCTION PF1(INT)AS RANGE LEFT FOR VALUES(1,2,3,4) CREATE PARTITION SCHEME PS1 AS PARTITION PF1 ALL TO([PRIMARY]) CREATE CLUSTERED INDEX CIDX_X ON X(COL1)ON PS1(COL1) 創建

    0熱度

    1回答

    我想到了一些關於分片表的問題,因爲分區不能用mySQL表中的外鍵完成。也許有一個選項可以切換到具有這兩種功能的不同關係數據庫,但我現在沒有看到這個選項。 因此,分拆的想法看起來像一個相當不錯的東西。但是,在應用程序級別上執行此操作的好方法是什麼? 我猜測一個起飛點應該是爲每個表中的主鍵添加一個最大值的表。類似於products_4000000,products_8000000和products_1

    1熱度

    2回答

    我有n個元素需要分成x個集合,每個集合必須完全保存k = 4個元素。 我需要找到所有可能的分區,約束條件是每對元素只共享一次相同的集合。因此,如果我從[1 2 3 4] [5 6 7 8] [...]開始,則所有連續的分區都不能容納例如[1 2 X X]或[X X 1 3]。套是無序的。 接近這個問題的是stirling numbers of the second kind。但是,他們只能解決任意

    3熱度

    3回答

    我建立了一套%的文檔分區表的http://www.postgresql.org/docs/8.1/interactive/ddl-partitioning.html CREATE TABLE t (year, a); CREATE TABLE t_1980 (CHECK (year = 1980)) INHERITS (t); CREATE TABLE t_1981 (CHECK (year

    0熱度

    2回答

    我在Postgres中創建了一組分區表,並開始通過主表插入很多行。當加載過程在我身上爆發時,我意識到我應該已經宣佈id行BIGSERIAL(BIGINT帶有序列,在幕後),但無意中將其設置爲SERIAL(INTEGER)。現在我已經加載了幾十億行,我試圖將列更改爲BIGINT。這個過程似乎有效,但需要很長時間。所以,實際上,我不知道它是在工作還是掛起。我寧願不重新啓動整個加載過程。 有什麼建議嗎?

    2熱度

    2回答

    我一直使用auto_generated或過去的序列作爲我的主鍵。在目前我正在研究的系統中,有可能不得不最終劃分過去從未要求的數據。瞭解到我將來可能需要對數據進行分區,使用UUID代替數據庫的內置序列有沒有優勢?如果是這樣,是否有一種設計模式可以安全地生成相對較短的鍵(例如6個字符,而不是通常的長鍵)e6709870-5cbc-11df-a08a-0800200c9a66)?每張桌子36^6個鍵足以

    2熱度

    1回答

    我已經編寫了用於劃分數據集的自定義劃分器。我想要使​​用相同的分區程序對兩個數據集進行分區,然後在下一個mapreduce作業中,我希望每個映射程序都能處理來自兩個源的相同分區並執行一些功能,例如加入等。我如何確保一個映射程序獲取拆分對應於來自兩個源的相同分區? 任何幫助將不勝感激。

    2熱度

    2回答

    我正在和一個小組一起工作,這個小應用程序需要大量輸入(一天的日誌文件),並在幾個(現在4個,未來可能是10個)映射 - 減少步驟(Hadoop &使用Java)。 現在我已經完成了此應用程序的部分POC,並在4臺舊桌面(我的Hadoop測試羣集)上運行了它。我注意到的是,如果你進行分區「錯誤」,水平縮放特性就會被破壞得無法識別。我發現比較單個節點(比如說20分鐘)和所有4個節點上的測試運行只會導致