hcatalog

    0熱度

    1回答

    我在HortonWorks虛擬機中運行Pig腳本,目的是提取我的XML數據集的某些部分,並將這些部分加載到HCatalog表中的列中。在我的本地機器上,我在XML文件上運行Pig腳本,並獲取包含所有提取部分的輸出文件。但是,由於某些原因,當我在HortonWorks VM中運行相同的腳本時,腳本似乎運行成功,但HCatalog表仍然爲空。 這裏是我的本地腳本: REGISTER piggybank

    0熱度

    1回答

    我有一個csv文件,包含大約一千個不同的列,我想將其製作成Hive表和HCatalog架構,而無需單獨鍵入每個字段。這可能嗎?如果有的話可以有人指出我在正確的方向感謝。

    0熱度

    2回答

    我一直在試圖找到一些關於如何使用Sqoop將序列文件導出到Oracle的文檔。那可能嗎? 目前我有我的文件(在HDFS中)以基於文本的格式,我使用Sqoop將這些文件導出到某些Oracle的表格,並且它的工作正常。現在我想將文件的格式從文本更改爲序列文件或其他內容(Avro稍後)。那麼,如果我想使用Sqoop將不同的文件格式從HDFS導出到Oracle,我需要做什麼? 任何信息將不勝感激。 在此先

    0熱度

    1回答

    我使用HCatalog的WebHCat API運行豬的工作,如記錄在這裏: https://cwiki.apache.org/confluence/display/Hive/WebHCat+Reference+Pig 我運行一個簡單的工作沒有問題,但我想附加參數文件提供給工作,如可以使用pig命令行參數:--param_file。 我想這是有可能通過arg請求的參數,所以我想多東西,比如傳: 'a

    1熱度

    1回答

    我能夠將hdfs中的文本文件讀入apache crunch管道。 但現在我需要閱讀配置單元分區。 問題是,根據我們的設計,我不應該直接訪問該文件。因此,現在我需要一些方式來使用像HCatalog這樣的分區來訪問分區。

    0熱度

    2回答

    在我的應用程序中,我使用JDBC中的配置單元Metastore(mysql)。現在需求發生了變化,我無法獲得metastore憑據。因此我不能使用JDBC來訪問Metastore。 我想知道,有沒有辦法從HCATALOG訪問像TBLS和INDXS這樣的hivemetastore表?提前致謝。

    2熱度

    2回答

    我有一個文件test_file_1.txt包含:含 20140101,value1 20140102,value2 和文件test_file_2.txt: 20140103,value3 20140104,value4 在HCatalog有一個表: create table stage.partition_pk (value string) Partitioned by(date s

    0熱度

    1回答

    我在僞分佈模式下使用hive-0.12.0,pig-0.12.0,mysql-5.6和hadoop-1.2.1。 我根據鏈路配置PIG_CLASSPATH等細節, https://cwiki.apache.org/confluence/display/Hive/HCatalog+LoadStore 當我嘗試在蜂巢創建一個表加載到使用HCatloader,它給Java堆空間錯誤豬。 的細節如下: h

    1熱度

    3回答

    我想從以下鏈接做到這一點hcatalog例如: http://www.cloudera.com/content/cloudera/en/documentation/cdh4/v4-2-0/CDH4-Installation-Guide/cdh4ig_topic_19_6.html 我收到以下異常,當我運行作業。 Exception in thread "main" com.google.commo

    1熱度

    1回答

    我正在使用HortonWorks沙盒來嘗試少量樣本。以下頁面顯示在UI上的 「錯誤」(超時)的http://:8000/hcatalog/ 詳細的服務器日誌: [25 /四月/ 2014 13時07分49秒+0000]中間件INFO處理異常:超時(代碼THRIFTSOCKET):無: 回溯(最近調用最後一次): 文件「/usr/lib/hue/build/env/lib/python2.6/sit