happybase

    3熱度

    1回答

    聲明 我們有10臺機器HBase集羣和數十億行內部。每行由一個列族和〜20列組成。我們需要執行頻繁的掃描請求,其中包含起始行前綴和結束行前綴。通常每次掃描都會返回100到10000行。 因爲請求可能會經常發生(每分鐘最多幾個請求),所以性能會被預先設置。由於系統的體系結構,我們希望用Python代替當前的Java代碼來實現我們的解決方案。問題出在Python上,我們得到的性能比Java差5至10倍

    0熱度

    2回答

    我正在嘗試將正則表的列表傳遞給我的快樂基地掃描調用中的列屬性。這是因爲,我的彩色名稱是通過動態附加我在掃描時無法訪問的ID創建的。 這可能嗎?

    1熱度

    2回答

    def hbasePopulate(self,table="abc",MachineIP="xx.xx.xx.xx"): connection=happybase.Connection(MachineIP,autoconnect=True) tablename=Reptype.lower()+'rep' print "Connecting to table "

    2熱度

    2回答

    我正在運行map-reduce作業,現在我想將值輸入到hbase中。我將map-reduce作業的值通過stdin進行流式處理,並且有一個python腳本,用於插入(放入)happybase以上的行。 我遇到了各種各樣的問題,從python做放。據我所知,最近的問題似乎與庫兼容性問題有關。錯誤日誌顯示iteritems的問題。 happybase manual引用了排序查詢所需的附加python庫

    2熱度

    2回答

    我一直在使用java和python測試table.put。 在java中,可以將int或float值寫入列。使用happybase table.put(line_item_key, {'allinone:quantity': quantity}) 它彈了與 類型錯誤:類型「詮釋」的對象沒有LEN() 難道這是真的happybase不支持寫出來的字符串以外什麼?

    3熱度

    2回答

    >>>import happybase >>>cnx=happybase.Connection('localhost') Traceback (most recent call last): File "<stdin>", line 1, in <module> File "/home/seyf/envname/local/lib/python2.7/site-packages/happ

    0熱度

    1回答

    我試圖篩選從HBase的表(我用HappyBase)行,具體我試圖讓行,其「身份證」小於1000: for key, data in graph_table.scan(filter="SingleColumnValueFilter('cf', 'id', <, 'binary:1000')"): print key, data 的結果如下的: <http://ieee.rkbexpl

    3熱度

    3回答

    我在AWS EMR上使用Hbase 0.94.18。我打算使用HappyBase,因爲它看起來非常有前途。不幸的是我在第一次嘗試時遇到了這個問題: conn = happybase.Connection(port=9200,compat='0.94') conn.tables() Traceback (most recent call last): File "", line 1, in

    0熱度

    1回答

    我想 (由於內存限制)happybase在HBase的採樣rowkey所以我搜索和implemet import happybase """~ """" table = connection.table('drivers') a=list(table.scan(filter="RandomRowFilter (chance=0.1f)")) or a=list(table.scan(fi

    0熱度

    1回答

    我是Hbase的新手,我希望通過與Thrift一起工作的python API與它交流。我跟着這個tutorial爲了我的機器上正確安裝,一切似乎都工作得很好,然後我產生用下面的命令.thrift文件: wget http://svn.apache.org/viewvc/hbase/trunk/hbase-thrift/src/main/resources/org/apache/hadoop/hba