denormalization

    0熱度

    2回答

    這是一個艱難的(對我來說)和羅嗦之一: 我來這整個蒙戈非規範化的東西條款。我創建了評分系統,讓用戶評價彼此的視頻。要獲得視頻的平均分數,每次用戶「查看」視頻文檔(在名爲「條目」的集合中),將0到10之間的數字直接添加到視頻文檔中的分數字段中(使用meteor.methods upsert )。當然,一個條目的平均得分是所有這些評分的總和除以總評論數。無論如何,我都會將每個評論記錄在單獨的收藏集中。

    3熱度

    1回答

    我試圖把類似這樣的一列: name tag a 1 a 2 b 2 c 1 b 3 ,並歸因於新列的布爾矩陣, 「tag_(VAL)」,如: name tag_1 tag_2 tag_3 a T T F b F T T c T F F 哪有這在熊貓中完成?

    1熱度

    2回答

    看起來像一個帶有註釋的博客是用於描述使用MongoDB時不同建模策略的標準示例。 我的問題涉及模型,其中評論被建模爲一個博客文章的子集合(即一個文檔存儲與單個博客文章相關的所有內容)。 在多個同時寫入的情況下,如果您使用upserts和目標更新修飾符(如推送),您似乎可以避免覆蓋以前的更新。意思是,保存添加的每條評論的文檔不會覆蓋以前添加的評論。 但是,碎片如何在這裏發揮作用?假設隨着時間的推移添

    1熱度

    2回答

    我有一個網站有一個活動的飼料,類似於像Facebook這樣的社交網站有一個。這是一個「最新的第一個」列表,描述用戶採取的行動。在製作中,該表中約有20萬個條目。 因爲這將是無論如何詢問,我會先共享全表結構: CREATE TABLE `karmalog` ( `id` int(11) NOT NULL auto_increment, `guid` char(36) default

    0熱度

    1回答

    我目前正在使用Hadoop的項目。我們正處於項目的開始階段。 首先,我有~50個關係數據庫表。我們提取它們並在HDFS上導出。現在,我們想要將參考數據去標準化爲「大表」(只有3-4個文件)。我想我會用map reduce來完成這項工作。我知道我怎麼可以用小桌子來做,但是用大桌子... 例如,我有一個包含數百萬條目的表格「Ticket」,並且有一個表格「Lign」 150億條目。我必須將它們歸一化。

    0熱度

    1回答

    我需要一些幫助我的豬腳本。 我有2個csv文件,我想用一個公共ID做他們之間的連接。 customer.csv : 1 ; nom1 ; prenom1 2 ; nom2 ; prenom2 3 ; nom3 ; prenom3 child.csv 1 ; enfant_1_1 2 ; enfant_1_2 3 ; enfant_1_3 1 ; enfant_2_1 1 ;

    2熱度

    1回答

    目前我有一個龐大的用戶表,有數百萬行我認爲,並且該用戶表通過UserTypeJoin錶鏈接到UserType表。由於UserType表的所有聯接,搜索和篩選需要很長時間。 我已經研究過使用索引視圖,看起來不錯,但是當我嘗試創建聚集索引時,我被告知聚集索引無法應用於左連接的視圖。並不是所有的用戶都有一個UserType,所以我需要做一個左連接。 所以現在我認爲反規範化是我最好的方法。 我現在的表結構

    1熱度

    1回答

    首先,如果使用的術語不正確,則表示抱歉。我不是一個mySQL專業人員。 我有這樣的一個表: CREATE TABLE `accesses` ( `id` int(11) NOT NULL AUTO_INCREMENT, `time` int(11) DEFAULT NULL, `accessed_at` datetime DEFAULT NULL, PRIMA

    1熱度

    1回答

    我在SQL Server中繼承了非規範化表,其中包含15列購買記錄。 |索引| TransNo |基金|成本|城市| Zip |銀行| Risk_YesNo | ...... | 1 | 1 |綠色| 34 | NYC | Zip | Sunt | | 2 | 12 |黨| 345.23 | NYC | Zip | BOA_BS | | 3 | 32 | Edu | 43 |波士頓| Zip |

    -4熱度

    1回答

    我有包含14列預測變量和1列解變量(y)的數據。 我想知道是否有任何內置的功能正常化和R. 非規範化的數據,謝謝。