impala

    2熱度

    1回答

    我在W7計算機上使用Python(Anaconda發行版)使用Impyla軟件包連接到Hadoop集羣中的Impala。 我的公司最近添加了Kerberos,最終破壞了我的位置。 的Kerberos前: from impala.dbapi import connect conn = connect(host='localhost', port=21050) cur = conn.cursor(

    0熱度

    3回答

    有沒有辦法轉儲黑斑羚數據庫的所有模式/數據,以便我可以在新的數據庫實例中重新創建? 類似於mysqldump的功能嗎?

    2熱度

    1回答

    假設,我有一個學生表與impala中的某些字段。想象一下,有一個叫total_mark的字段,我應該從每個分支中找到具有最大標記的學生詳細信息。 我的表是這樣的: - 在這個表我必須從每個部門得到學生,最高分的細節。 我的查詢將是這樣的: - select id,max(total_marks) from student_details group by department; 但使用此查詢我

    2熱度

    2回答

    我正在使用CDH-5.4.4 Cloudera Edition,我在HDFS位置有一個CSV文件,我的要求是在Hadoop Environement(OLTP)上執行實時SQL查詢。 因此,我決定與Impala一起創建MetaStore表格到CSV文件,然後在impala編輯器(在HUE應用程序中)執行查詢。 當我執行下面的查詢,我得到錯誤,如 「AnalysisException:所有不同的聚合

    0熱度

    1回答

    這個簡短的2:37分鐘的視頻顯示是可以做到的。 ​​ 如何?我不知道。廣泛在線搜索,包括Cloudera文檔。 實際上,在以下的Cloudera搜索網絡研討會(下Cloudera的搜索組件:第2部分 - >時點擊1部分下一個),帕拉是可選組件。 http://training.cloudera.com/elearning/SearchOverview/

    0熱度

    1回答

    從Impala將數據從Sqoop加載到Vertica時出現以下錯誤。 Error: java.io.IOException: Can't export data, please check failed map task logs at org.apache.sqoop.mapreduce.TextExportMapper.map(TextExportMapper.java:112) at org

    5熱度

    2回答

    使用impyla模塊,我將impala查詢的結果下載到了熊貓數據框中,完成了分析,現在想將結果寫回到impala上的表格,或者至少一個hdfs文件。 但是,我找不到任何有關如何執行此操作的信息,甚至無法找到有關如何執行此操作的信息,甚至不知道如何ssh進入impala外殼並從那裏寫入表格。 我想做什麼: from impala.dbapi import connect from impala.u

    1熱度

    2回答

    我有一張原始表格,記錄客戶在特定時間段內進入商店的ID。使用Impala,我想計算每天到店鋪的不同客戶ID的數量。 (例如,第3天,5個不同的客戶訪問至今) 這裏是原始表的一個簡單的例子,我有: Day ID 1 1234 1 5631 1 1234 2 1234 2 4456 2 5631 3 3482 3 3452 3 1234 3 5631 3 1234 這裏是我想

    1熱度

    1回答

    我試圖編寫一個sql查詢來獲取同一個id的最新日期。所以我寫: select id from table where id = 10 having table.date = MAX(table.date) 但它仍然會返回我相同的結果只是 select id from table where id = 10 我不知道爲什麼,我們不能使用具有這種方式? 謝謝!

    2熱度

    2回答

    我有一些事件日誌數據在HDFS,在其原始格式,看起來是這樣的: 2015-11-05 19:36:25.764 INFO [...etc...] 外部表指向該位置HDFS: CREATE EXTERNAL TABLE `log_stage`( `event_time` timestamp, [...]) ROW FORMAT DELIMITED FIELDS TE