apache-hive

    1熱度

    1回答

    當我試圖重命名現有表中的所有分區列時,分區爲一年的日期範圍 - 這就是我所得到的。 hive> ALTER TABLE test.usage PARTITION ('date') RENAME TO PARTITION (partition_date); FAILED: ValidationFailureSemanticException Partition spec {partition_dat

    0熱度

    1回答

    請原諒我帶來的不便,但我在Doc或Internet上找不到答案。 我有一個平臺: 的Hadoop 2.7.3 蜂巢2.1.0 HBASE 1.2.4 星火1.6 我已經集成弗林克1.1 .3在本地模式和紗線模式下使用它。 我有興趣使用Flink和Hive(與Spark一起使用hiveContext)讀取scala-shell中的數據,這有可能嗎?如何 ? 問候。

    2熱度

    2回答

    我試圖用Hadoop 2.7.2 安裝蜂巢2.0.0但我不知道什麼是我的執行問題 [email protected]:/usr/local/apache-hive-2.0.0-bin$ ./bin/hive SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/usr/loc

    1熱度

    1回答

    可以說我有一個數據庫項目。我創建了一個名爲tab1的表,然後是tab2。現在我放棄了表tab1。 我在哪裏查找說我從databse項目中刪除了表tab1的日誌。我想獲得放棄這張桌子的時間,用戶等? 編輯 我已經檢查了下面的審計日誌,但找不到我在任何低於尋找一個: 蜂巢Metastore - TBLS ,DBS,TRANSACTION表 Hive安裝日誌目錄。屬性 - - 「hive.querylo

    0熱度

    1回答

    我試圖通過JDBC創建一個連接到使用Hive2連接器的Impala。但我發現了這個錯誤: Exception in thread "main" java.lang.NoSuchFieldError: HIVE_CLI_SERVICE_PROTOCOL_V7 at org.apache.hive.jdbc.HiveConnection.<init>(HiveConnection.java

    0熱度

    2回答

    我正在嘗試使用Python UDF與Hive一起學習。 我有一個非常基本的Python UDF這裏: import sys for line in sys.stdin: line = line.strip() print line 然後我在文件中添加蜂巢: ADD FILE /home/hadoop/test2.py; 現在我稱之爲蜂巢查詢: SELECT TRANS

    3熱度

    4回答

    我有一個包含ORC文件的目錄。我使用下面的代碼 var data = sqlContext.sql("SELECT * FROM orc.`/directory/containing/orc/files`"); 它返回數據幀用這個模式 [_col0: int, _col1: bigint] 創建一個數據框凡爲與預期的模式是 [scan_nbr: int, visit_nbr: bigint

    0熱度

    1回答

    爲了通過Apache Drill訪問配置單元,我已經將Metastore作爲服務啓動。 爲了使用它作爲在蜂巢-site.xml中一個metastore,我有hive.metastore.uris參數設置爲節儉://本地主機:9083。 的metastore服務創建後,我試圖查看databases.It只顯示了兩個數據庫,而不是4作爲起始蜂巢作爲服務之前創建的。 也沒有顯示之前創建的幾個表。 當我在

    2熱度

    2回答

    在Apache的蜂巢我要表,我想離開,加入來自左數據保持所有數據和右表在可能添加數據。 爲此,我使用兩個連接,因爲連接基於兩個字段(一個material_id和一個location_id)。 這工作正常,有兩個傳統左聯接: SELECT a.*, b.* FROM a INNER JOIN (some more complex select) b ON a.mat

    0熱度

    1回答

    如何增量數據加載到一個分區蜂巢表 我已經表「用戶」有以下的列,我已經根據created_on場創建蜂巢分區 id bigint, name string, created_on string(yyyy-MM-dd), updated_on string 我創建了一個sqoop工作要導入增量基於最後修改日期 sqoop job --create users -- import --conn